Post on 17-Aug-2020
1
Mémoire présenté devant l’Université de Paris Dauphine
pour l’obtention du Diplôme du Master actuariat
et l’admission à l’Institut des Actuaires
le
Par : Cédrik Périna
Titre : Optimisation de la segmentation des contrats d’épargne en euros à la date de transition sous IFRS 17
Confidentialité : NON OUI (Durée : 1 an 2 ans)
Les signataires s’engagent à respecter la confidentialité indiquée ci-dessus
Membres présents du jury de l’Institut Entreprise :
des Actuaires Nom : Sia Partners
Signature :
Membres présents du jury du Master Directeur de mémoire en entreprise :
Actuariat de Paris Dauphine Nom : Alexandre Challal
Signature :
Autorisation de publication et de mise en ligne sur un site de diffusion de documents actuariels
(après expiration de l’éventuel délai de confidentialité)
Secrétariat : Signature du responsable entreprise
Bibliothèque : Signature du candidat
Université Paris-Dauphine – MIDO – Bureau B536, Place du Maréchal de Lattre de Tassigny, 75016 PARIS
2
Avant-propos
d
Ce mémoire de �n d'études d'actuariat propose une interprétation de la période de transition imposée par la
future norme IFRS 17 relative à la mesure des passifs d'assurance. En particulier, nous proposons des méthodes
de segmentation d'un portefeuille à cette date à la maille des groupes de contrats IFRS 17.
La norme a été publiée par l'IASB en mai 2017 et les di�érentes interprétations parfois contradictoires se
succèdent depuis 18 mois. Certaines parties prenantes insistent sur la nécessité d'une révision de la norme avant
son adoption et d'un recul de sa date d'entrée en vigueur. Insurance Europe a notamment proposé en octobre
2018 de décaler de 2 ans l'adoption de la norme pour permettre de revoir certaines parties du standard. Un report
d'un an a d'ores et déjà été acté.
Les constats et préconisations exposés dans ce mémoire doivent être analysés dans ce contexte très évolutif
et ne pourraient être retenus en aucun cas comme un avis dé�nitif.
3
V
4
Remerciements
; ;
Mes premiers remerciements vont à Alexandre Challal et Vincent Rivoirard pour leur travail e�ectué en tant que
tuteur et le sérieux de leur suivi.
Je tiens à remercier Ronan Davit, Benoît Menoni et Michael Donio pour m'avoir permis d'e�ectuer mon stage
de �n d'étude au sein de Sia Partners et pour leur disponibilité.
J'adresse également mes remerciements à Santiago Fiallos pour le choix de ce sujet intéressant qui m'aura
beaucoup appris ainsi que pour ses conseils avisés et les connaissances qu'il a su m'apporter sur la norme.
Je remercie vivement Damien Tichit pour sa grande disponibilité et son soutien tout au long de mon stage
Je tiens à exprimer ma gratitude à tous les membres du cabinet Sia Partners pour l'accueil, l'ambiance, et ces
moments de ré�ections communes qui ont souvent été instructifs.
Je n'aurais pas pu réaliser ce mémoire sans l'aide des enseignements apportés par l'INSA de Rouen et l'Université
Paris-Dauphine. Je tiens donc à remercier les membres de ces deux établissements pour tout ce qu'ils m'ont
apporté et notamment Nicolas Forcadel pour la con�ance qu'il m'a accordée.
Et en�n, je ne saurais conclure cette section sans adresser des remerciements spéciaux à ma famille et à mes
collègues et amis, Murielle Ravelonandro et Corentin Guilbaud pour leur soutien et leur amitié indéfectible.
5
V
6
Résumé
d
Au vu de sa complexité, l'adaptation à la norme IFRS 17 représente un chantier de taille pour les entités
concernées. De nombreuses interrogations nées de la publication de la norme sont devenues des sujets de place
dans le monde actuariel et les problématiques liées aux nouvelles règles de segmentation des contrats d'assurance
en font partie.
Dans un premier temps, ce mémoire présentera les grandes lignes de la norme ainsi que les nouvelles règles
de segmentations des contrats établies sous IFRS 17 avant de se recentrer sur les particularités de la période de
transition. Cette présentation permettra d'exposer les enjeux posés par la gestion de la segmentation des contrats
lors de la période de transition et mettra ainsi en évidence l'intérêt de ce mémoire.
Dans un second temps, une méthodologie visant à produire une segmentation de contrats d'épargnes en euros
optimale sera présentée. Se voulant innovante, cette méthodologie se reposera sur des algorithmes de segmenta-
tion par la théorie des graphes plus couramment utilisés en traitement d'images, ainsi que sur des algorithmes
métaheuristiques. Les hypothèses nécessaires à la réalisation de calculs conformes aux éxigences de la norme
IFRS 17 à la date de transition seront choisies et explicitées.
Les parties suivantes seront constituées d'applications qui, partant de la méthodologie initialement présentée,
suivront un chemin logique à la recherche de la simpli�cation de la mise en place d'une segmentation e�cace des
contrats à la date de transition d'IFRS 17.
Mots clefs : Actuariat, IFRS17, segmentation, Model Points, transition, métaheuristiques, théorie des graphes,
Epargne, CSM, Marge de Service Contractuelle.
7
V
8
Abstract
d
Given its complexity, the adaptation to IFRS 17 represents a major undertaking for the entities concerned.
Many of the questions arising from the publication of the standard have become major issues in the actuarial
world and issues related to the new segmentation rules for insurance contracts are one of them.
Initially, this thesis will run you through the main features of the standard as well as the new segmentation
rules to be applied to all insurance contracts before refocusing on the particularities of the transition period.
This presentation will explain the challenges involved in managing contract segmentation during the transition
period and will therefore highlight the value of this thesis.
In a second step, a methodology designed to produce an optimal segmentation of savings contracts in euros
will be introduced. This self-proclamed innovative methodology will be based on graph theory segmentation al-
gorithms more commonly used in image processing as well as metaheuristic algorithms.
The following parts will be made up of applications which, starting from the initially introduced methodo-
logy, will follow a logical path in order to simplify the implementation of an e�ective contract segmentation at
the transition date of IFRS 17. All necessary assumptions will be made and explained.
Keywords : actuarial, IFRS17, segmentation, Model Points, transition, metaheuristics, graph theory, saving,
CSM, Contractual Service Margin.
9
V
10
Note de synthèse
Après 20 années de recherches, the International Accounting Standards Board (IASB) semble estimer avoir
atteint son objectif de développer une norme internationale qui uniformisera les méthodes comptables utilisées
et améliorera la comparabilité des états �nanciers : IFRS 17 Insurance Contracts.
La norme IFRS 17 va provoquer des changements majeurs au niveau de la valorisation des engagements d'assu-
rance et des méthodes comptables associées a�n d'harmoniser les pratiques des assureurs à l'échelle mondiale.
Cependant, malgré cette volonté d'uniformisation, la norme comporte de nombreuses zones discrétionnaires qui
vont se transformer en casse-tête pour les assureurs. De nombreuses études ont été réalisées par les assureurs, mûs
par la volonté de réutiliser au maximum les modèles développés lors de la mise en place de précédentes normes
comptables telles que Solvabilité II. Elles ont montré que, si certains éléments exigés tels que l'ajustement pour
le risque non �nancier, trouvent un équivalent dans d'autres normes, la mise en place de modèles IFRS 17 impose
des changements dans bien des domaines, notamment au niveau de la gestion des pro�ts futurs et de la segmen-
tation des contrats :
IFRS 17 introduit une Marge de Service Contractuelle (CSM) constituée des pro�ts futurs associés aux
contrats pro�tables et impose la comptabilisation immédiate des pertes futures associées aux contrats onéreux
au résultat.
La segmentation des contrats d'assurance sous IFRS 17 se fera désormais en au moins 3 étapes :
1. une séparation par portefeuille de contrats soumis aux mêmes risques et gérés ensemble ;
2. une segmentation par niveau de pro�tabilité séparant les contrats onéreux, ceux qui ont une chance non
signi�cative de devenir onéreux et les autres contrats ;
3. une segmentation par cohorte annuelle : Deux contrats issus plus d'un an à part ne peuvent pas �gurer
dans le même groupe.
Cette segmentation innovante est incompatible avec celles actuellement utilisées par les acteurs sur le marché et
oblige donc les assureurs à revoir leur méthodologie de constitution des Model Points. La constitution des Model
Points devra non seulement se faire en accord avec les principes imposés par la norme mais également dans un
premier temps selon les règles associées à l'approche choisie lors de l'exercice transitoire. Sur les 3 approches
éligibles pour la constitution du bilan à la date de transition, l'approche Fair Value semble s'imposer comme la
plus populaire, notamment pour les contrats d'épargne en raison des forts prérequis techniques et informatifs des
autres approches.
Le bilan déterminé à la période de transition aura un impact direct sur les résultats futurs de la compagnie, d'où
la forte importance des choix de modélisation e�ectués sur cette période.
Ce sujet est traité dans ce mémoire en se basant sur un portefeuille anonymisé de plus de 10 000 contrats
d'épargnes en euros.
11
A�n de réaliser une segmentation permettant de constituer des groupes aussi homogènes que faire se peut, une
mesure de la dissimilarité entre deux contrats, directement dépendante des paramètres des contrats (TMG, sexe,
âge, ancienneté) est dé�nie et calibrée selon le procédé suivant :
Modèle de segmentation des contrats d'épargnes
Une fois la segmentation réglementaire réalisée, une classi�cation se fait selon la distance donnée par la mesure
de dissimilarité.
En faisant un parallèle entre les problèmes de segmentation d'images par critère d'homogénéité, régulièrement
résolus par l'utilisation d'algorithmes de clustering reposant sur la théorie des graphes, des algorithmes de seg-
mentation de graphes sont présentés et utilisés dans le cadre de la classi�cation des contrats. Une fois les contrats
classi�és, la mesure de la CSM produite par les Model Points créés et l'écart par rapport à la CSM théorique
(obtenu par mesure de la pro�tabilité contrat par contrat) sont récupérés par un algorithme métaheuristique qui
ajuste alors les paramètres de la mesure de dissimilarité en conséquence.
A�n d'implémenter la méthode, une étude visant à choisir les hypothèses indispensables à l'estimation de la
CSM sous IFRS 17 a été conduite et a mis en évidence la maitrise que possède chaque entité sur l'estimation de
la pro�tabilité de ses contrats.
12
Cette capacité de pilotage de la CSM est particulièrement visible à travers la liberté laissée dans le choix de
la méthode de calcul de l'ajustement pour le risque non �nancier comme illustré dans la �gure suivante :
Pilotage de la pro�tabilité des contrats par le choix du niveau de con�ance de la VaR
En choisissant de mesurer l'ajustement pour le risque non �nancier par la méthode de la Value At Risk
(VaR), l'assureur peut maitriser la proportion de contrats onéreux dans son portefeuille en choisissant le niveau
de con�ance appliqué à la VaR.
De plus, la CSM en approche Fair Value résulte uniquement des légères di�érences entre la Juste Valeur des
contrats et les Ful�lment Cash-Flows associés aux contrats. L'aspect discrétionnaire de la Juste Valeur constitue
alors un levier de pilotage de la CSM pour les entités appliquant l'approche Fair Value lors de l'exercice transitoire.
Une fois les hypothèses posées et le modèle calibré, une comparaison entre les bilans Solvabilité II obtenus
par segmentation usuelle et par segmentation IFRS 17 a été réalisée et a mis en évidence un phénomène d'aug-
mentation de la meilleure estimation des engagements de l'assureur (BEL) et de réduction de la Net Asset Value
(NAV) provoqué par les contraintes posées par la norme IFRS 17.
Comparaison des bilans S2 pour un nombre de Model Points égal
Une fois les hypothèses de modélisation �xées de manière à posséder une quantité raisonnable de contrats
onéreux, l'application de la méthodologie proposée de détermination de la mesure de dissimilarité et de la classi-
�cation optimale des contrats a obtenu des résultats probants : les écarts relatifs entre la CSM théorique et celle
obtenue suite à l'application de la méthode sont toujours inférieurs à 1%.
13
Sur le plan opérationnel, on note que la classi�cation par la théorie des graphes s'est révélée plus performante
en moyenne que la méthode de classi�cation ascendante hiérarchique et que la vitesse de convergence du recuit
simulé est globalement supérieure à celle de la colonie de fourmis sur l'ensemble des simulations réalisées dans le
cadre de notre étude.
écarts relatifs entre la CSM théorique et celle obtenue selon les méthodes utilisées
Il est observé que les mesures de dissimilarité ayant permis l'obtention de ces résultats sont di�érentes. Il
n'existe donc a priori pas d'unique mesure �able de dissimilarité entre les contrats. Ces résultats doivent être
relativisés au vu des limites constatées de la méthodologie proposée :
les temps de calculs sont longs et coûteux, ce qui a motivé la paramétrisation de critères d'arrêts �xes pour
chaque algorithme métaheuristique, les bridant ainsi en les arrêtant avant leur convergence.
la méthode met également en évidence l'aspect redondant du calcul de pro�tabilité des contrats un par un
pour les classer avant de rée�ectuer des estimations de CSM sur les Model Points. Cette approche nécessite un
coût d'entrée conséquent qu'il est intéressant d'éviter, d'autant plus que la norme autorise la séparation des
contrats onéreux des autres sur la base d' � informations su�santes �.
Une méthode visant à séparer les contrats onéreux des autres en un nombre de calculs limités grâce à la mesure
de dissimilarité est alors proposée a�n d'alléger le coût de la première étape de la classi�cation par classe de
pro�tabilité. Elle se décline comme suit :
Simpli�cation de la détermination des contrats onéreux
La précision de la classi�cation obtenue varie entre 79% et 86% selon le choix de l'indicateur de pro�tabilité
14
signi�cative. Cette dépendance est une limite importante de la méthode puisque cet indicateur n'est soumis à
aucune règle précise. Son choix fait partie des zones laissées à la discrétion des assureurs. Second problème posé
par la méthode, elle ne forme que 2 classes de pro�tabilité, la séparation entre les contrats ayant une chance non
signi�cative de devenir onéreux et les autres reste à dé�nir, ce qui implique une estimation de la pro�tabilité
contrat par contrat et donc un coût potentiellement important.
Il est alors proposé de résoudre ces problèmes en déterminant un proxy permettant d'estimer la CSM de tous les
contrats du portefeuille à partir de la simple connaissance de leurs paramètres, sans utiliser le modèle ALM pour
déterminer leur pro�tabilité. Cette méthode repose sur la détermination d'un contrat � de pro�tabilité nulle �,
un contrat de CSM = 0 ou qui en est proche. Ce contrat peut être déterminé comme étant celui de plus faible
CSM au sein d'un ensemble de contrats représentatifs du portefeuille ou par dichotomie en faisant varier les
paramètres d'un contrat de manière à approcher sa CSM de 0.
Une fois le contrat de pro�tabilité nulle déterminé, la réalisation de tests de sensibilité de sa CSM à ses di�érents
paramètres donne une indication sur l'évolution de la CSM selon les paramètres des contrats comme illustré
ci-dessous :
Sensibilité de la CSM du contrat de pro�tabilité nulle aux di�érents paramètres
Une fois les variations de la CSM vis-à vis des paramètres connues, il su�t de dire pour un contrat donné si
l'écart entre ses paramètres et ceux du contrat de pro�tabilité nulle va faire pencher sa CSM dans le négatif ou
dans le positif pour déterminer s'il est onéreux ou non. Cette méthode au potentiel avéré a cependant démontré
ses limites : si l'objectif de détermination des contrats onéreux fut remplit (100% de précision), l'estimation de la
CSM des contrats est restée imprécise (23% d'écart relatif en moyenne). A�n de l'utiliser de manière optimale,
une série de �tting précis sur les variations de la CSM selon les paramètres ainsi que des mesures des dépendances
entre les e�ets des paramètres sur la CSM doivent être réalisés.
Autre inquiétude amenée par la présentation de la norme, l'impact de la contrainte de cohorte annuelle sur les
Model Points a été étudié. L'étude réalisée a mis en évidence la forte multiplication du nombre de Model Points
et donc du coût des calculs qui pourrait survenir suite à l'ajout de la contrainte si elle n'est pas maitrisée. Il est
cependant observé que même en cas de maitrise du nombre de Model Points l'homogénéité des classes de contrats
constituées est alors fortement impactée : l'inertie intra-classe des Model Points a connu une augmentation
15
d'environs 20% dans notre étude et l'écart relatif entre la CSM théorique et celle issue des Model Points a
également augmenté comme illustré par le graphique ci-dessous.
Impact de la contrainte de cohorte annuelle sur les Model Points pour un nombre de Model Points �xé
En conclusion, bien qu'il repose sur des applications concrètes de la majorité des méthodes proposées et ait
montré la possibilité de créer des Model Points de forte homogénéité qui seraient admissibles sous IFRS 17, ce
mémoire constitue avant tout un exercice ré�ectif.
Il vise à donner des idées d'orientations et de simpli�cation des opérations complexes auxquelles vont être confron-
tés les assureurs dans le cadre de la mise en pratique des principes de la norme IFRS 17. En e�et, la norme
comporte de nombreuses zones discrétionnaires qui donnent une grande profondeur à chaque problématique po-
sée par la segmentation des contrats et il est alors impossible de couvrir l'ensemble des problématiques sur un
mémoire.
L'utilisation de la théorie des graphes, domaine étranger à l'actuariat tout comme la proposition de méthode du
contrat de pro�tabilité nulle s'inscrivent dans cette logique et visent à servir de bases à la rédaction d'éventuels
mémoires qui se concentreraient sur un aspect unique des problèmes posés par la segmentation des contrats.
Insurance Europe a récemment demandé un report de la mise en place d'IFRS 17 en metttant en avant 11
problèmes posés par la norme parmis lesquels �gure des problématiques liées à l'approche Fair Value à la date
de transition, con�rmant ainsi l'existence de fortes incertitudes entourant la première application de la norme
IFRS 17.
16
Synthesis
After 20 years of research and development, the International Accounting Standards Board (IASB) has achie-
ved its objective of developing an international standard that will standardize the accounting methods used and
improve the comparability of �nancial statements : IFRS 17 � Insurance Contracts �,
This standard will cause major changes in the valuation of insurance liabilities and associated accounting policies
in order to harmonize insurers' practices worldwide. However, despite this desire for uniformity, the standard has
many discretionary areas that will become a headache for insurers. Many studies have been carried out by insu-
rers, driven by the desire to reuse as much as possible the models developed when previous accounting standards
such as Solvency II were introduced. They have shown that, while some required elements such as the adjustment
for non-�nancial risk are equivalent in other standards, the implementation of IFRS 17 models requires changes
in many areas, including the management of future pro�ts and the segmentation of contracts :
- IFRS 17 introduces a Contractual Service Margin (CSM) consisting of future pro�ts associated with pro�-
table contracts and requires immediate recognition of future losses associated with onerous contracts in P&L.
- The segmentation of insurance contracts under IFRS 17 will now be carried out in, at least, 3 steps :
1. a separation by portfolio of contracts subject to the same risks and managed together ;
2. a segmentation by pro�tability level at initial recognition, separating onerous contracts, those with a non-
signi�cative possibility of becoming onerous and others ;
3. a segmentation by annual cohort : Two contracts issued more than one year apart may not be included in
the same group.
This innovative segmentation is incompatible with those currently used by market participants and therefore
requires insurers to review their methodology for setting up Model Points. The constitution of Model Points will
have to be done not only in accordance with the principles imposed by the standard but also initially according
to the rules associated with the approach chosen during the transitional exercise.
Of the 3 approaches eligible for balance sheet formation at the transition date, the Fair Value approach
seems to be the most popular, particularly for savings contracts because of the strong technical and informative
prerequisites of the other approaches. The balance sheet determined during the transition period will have a direct
impact on the company's future results, hence the importance of the model choices made during this period.
17
In order to achieve a segmentation that allows the formation of groups as homogeneous as possible, a measure
of dissimilarity between two contracts, directly dependent on the contract parameters (Minimum Guaranteed
Interest rate, sex, age, seniority) is de�ned and calibrated using the following procedure :
Segmentation of savings
Once the regulatory segmentation has been carried out, a classi�cation is made according to the distance
given by the dissimilarity measure.
By drawing a parallel between the problems of image segmentation by homogeneity criteria, regularly solved
by the use of clustering algorithms based on graph theory, graph segmentation algorithms are presented and used
in the context of contract classi�cation.
Once the contracts are classi�ed, the measurement of the CSM produced by the Model Points created and
the deviation from the theoretical CSM (obtained by measuring pro�tability contract by contract) is recovered
by a metaheuristic algorithm which adjusts the parameters of the dissimilarity measurement accordingly.
In order to implement the method, a study to select the assumptions necessary to perform the CSM estimation
under IFRS 17 was conducted and highlighted the control that each entity has over the pro�tability estimation
of its contracts. This ability to steer the CSM is particularly visible through the freedom left in the choice of
adjustment for non-�nancial risk as illustrated in the following �gure :
18
Steering of the pro�tability by selecting the con�dence level of the VaR
By choosing to measure the adjustment for non-�nancial risk using the Value At Risk (VaR) method, the
insurer can control the proportion of expensive contracts in his portfolio by choosing the level of con�dence
applied to the VaR.
In addition, the CSM under the Fair Value approach results only from the slight di�erences between the Fair
Value of the contracts and the associated Ful�lment Cash-Flows. The discretionary aspect of Fair Value then
constitutes a steering lever for the CSM for entities applying the Fair Value approach during the transitional year.
Once the assumptions had been made and the model had been calibrated, a comparison between the Solvency
II balance sheets obtained by the standard segmentation and the one obtained with the IFRS 17 segmentation
was carried out and revealed an increase in the Best Estimate Libaility (BEL) and a reduction in the Net Asset
Value (NAV) caused by the constraints imposed by IFRS 17.
Comparaison des bilans S2 pour un nombre de Model Points égal
Once the modelling assumptions were set in such a way as to have a reasonable quantity of expensive contracts,
the application of the proposed methodology for determining the dissimilarity measure and the optimal classi-
�cation of contracts obtained convincing results : the relative di�erences between the theoretical CSM and the
one obtained following the application of the method are always less than 1%..
19
From an operational point of view, we note that the classi�cation by graph theory has proved to be more
e�cient on average than the hierarchical agglomerative classi�cation method and that the convergence of the
simulated annealing is generally quicker than the convergence of the ant colony algorithm on all the simulations
carried out in the framework of our study.
Deviation to the theoretical CSM by method
It is noted that the dissimilarity measures used to obtain these results are di�erent. There seems to be no
single reliable measure of dissimilarity between contracts. These results must be put into perspective in view
of the limitations of the proposed methodology : calculation times are long and costly, which motivated the
parameterization of �xed stopping criteria for each metaheuristic algorithm, thus restricting them by stopping
them before their convergence.
The method also highlights the redundant aspect of calculating the pro�tability of contracts one by one to
rank them before redoing CSM estimates on Model Points.
This approach requires a signi�cant entry cost that is worth avoiding, especially since the standard allows ex-
pensive contracts to be separated from others on the basis of "reasonnable and supportable information".
A method to separate expensive contracts from others in a limited number of calculations using the dissimi-
larity measure is then proposed to reduce the cost of the classi�cation by pro�tability class. It is divided as
follows :
Simpli�cation of the pro�tability assessment
20
The accuracy of the classi�cation obtained varies between 79% and 86% depending on the choice of the si-
gni�cant pro�tability indicator. This dependence is an important limitation of the method since this indicator is
not subject to any speci�c rules. Its choice is one of the areas left to the discretion of the insurers.
The second problem with the method lies in the fact that it only forms 2 pro�tability classes. The separa-
tion between contracts with a non-signi�cant chance of becoming expensive and others remains to be de�ned,
which implies an estimate of pro�tability on a contract-by-contract basis and therefore a potentially signi�cant
cost.
It is therefore proposed to solve these problems by determining a proxy to estimate the CSM of all contracts
in the portfolio based on the knowledge of their parameters, without using the ALM model to determine their
pro�tability.
This method is based on the determination of a "zero pro�tability" contract, a CSM = 0 contract or one that
is close to it. This contract can be determined as the contract with the lowest CSM within a set of contracts
representative of the portfolio or by dichotomy by varying the parameters of a contract so as to approach its
CSM of 0.
Once the zero pro�tability contract has been determined, performing sensitivity tests of its CSM to its di�erent
parameters gives an indication of the evolution of the CSM according to the contract parameters as illustrated
below :
Sensitivity of the CSM to the parameters
Once the sensitivity of the CSM to the known parameters is known, we can assess for a given contract whether
the di�erence between its parameters and those of the zero pro�tability contract will tip its CSM in the negative
or in the positive.
This method, which has proven its potential, has nevertheless demonstrated its limitations :
if the objective of determining all onerous contracts was met (100% accuracy), the estimate of the CSM of
contracts remained imprecise (23% relative deviation on average).
In order to use it optimally, a serie of precise �tting on the variations of the CSM according to the parame-
21
ters as well as measurements of the dependencies between the e�ects of the parameters on the CSM must be
carried out.
Another concern brought by the presentation of the standard, the impact of the annual cohort constraint on
the Model Points was studied.
The study carried out highlighted the signi�cant multiplication of the number of Model Points and therefore
the cost of calculations that could occur following the addition of the constraint if it is not controlled. However,
it is observed that even if the number of Model Points is controlled, the homogeneity of the classes of contracts
constituted is then strongly impacted by the cohort constraint : the inertia within the Model Points classes
increased by about 20% in our study and the relative gap between the theoretical CSM and the one resulting
from the Model Points also increased as illustrated by the graph below.
E�ect of the annual cohort on the deviation of the CSM created by the Model Point
In conclusion, although it is based on concrete applications of most of the proposed methods and has shown
the possibility of creating highly homogeneous Model Points that would be eligible under IFRS 17, this paper is
above all a re�ective exercise.
It aims to provide guidance and simpli�cation of the complex operations that insurers will have to deal with
when implementing the principles of IFRS 17.
Indeed, the standard includes many discretionary zones that give great depth to each issue raised by the
segmentation of contracts and it is then impossible to cover all the issues in a single thesis.
The use of graph theory, a �eld outside the actuarial �eld, as well as the proposal for a zero pro�tability contract
method are in line with this logic and are intended to serve as a basis for drafting possible thesis that would
focus on a single aspect of the problems posed by contract segmentation.
Insurance Europe requested a postponement of the implementation of IFRS 17 by highlighting 11 issues rai-
sed by the standard, including issues related to the Fair Value approach at the transition date, thus con�rming
the existence of signi�cant uncertainties surrounding the �rst application of IFRS 17.
22
Table des matières
Avant-propos 3
Remerciements 5
Résumé 7
Abstract 9
Note de synthèse 11
Synthesis 17
Introduction 27
I Communication �nancière en normes comptables internationales pour un as-sureur épargne 29
1 Présentation du bilan et du compte de résultat en norme IFRS 30
1.1 Valorisation du passif technique conforme aux règlementations IFRS . . . . . . . . . . . . . . . . 30
1.2 Présentation du Compte de Résultat IFRS 17 pour un assureur épargne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2 Segmentation des contrats sous IFRS 17 38
2.1 Enjeux de la segmentation de contrats sous IFRS 17
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2 Procédure de segmentation imposée par la norme IFRS 17 . . . . . . . . . . . . . . . . . . . . . . 39
2.3 Interprétation des impératifs posés par la norme en terme de segmentation . . . . . . . . . . . . 41
3 Valorisation du passif à la date de transition 43
3.1 Problématiques posées par la transition vers IFRS 17 . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Méthodes de construction du bilan à la date de transition . . . . . . . . . . . . . . . . . . . . . . 43
3.3 Justi�cation du choix de l'approche Fair Value . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4 Valorisation de l'Actif en norme IFRS 47
4.1 Valorisation de l'actif sous IFRS 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 Comparaison avec la valorisation de l'actif sous Solvabilité II . . . . . . . . . . . . . . . . . . . . 48
4.3 Comparaison entre IFRS 17 et Solvabilité 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
23
II Mise en place d'un modèle de segmentation des contrats d'épargne sous IFRS17 53
1 Approches pour la mise en place d'une segmentation des contrats d'épargne sous IFRS 17 54
1.1 Création d'une mesure de dissimilarité entre deux contrats
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.2 Présentation de Méthodes de Classi�cation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
1.3 Classi�cation par utilisation de la Théorie des Graphes . . . . . . . . . . . . . . . . . . . . . . . . 57
1.4 Comparaison des méthodes de classi�cation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2 Modélisation du bilan de transition sous IFRS 17 69
2.1 Présentation du Modèle ALM utilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.2 Modi�cations du modèle ALM propres à la norme IFRS 17 . . . . . . . . . . . . . . . . . . . . . 73
2.3 Back testing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3 Quanti�cation de la qualité d'une méthode de segmentation des contrats sous IFRS 17 80
3.1 Dé�nitions d'indices de qualité d'une méthode de segmentation de contrats sous IFRS 17 . . . . 80
3.2 Implémentation d'une méthode de scoring de la segmentation . . . . . . . . . . . . . . . . . . . . 81
4 Utilisation d'Algorithmes métaheuristiques pour optimiser la calibration de la mesure de
dissimilarité entre deux contrats
82
4.1 Algorithme de la colonie de foumis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2 Algorithme du Recuit Simulé
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.3 Étude comparative des algorithmes métaheuristiques présentés . . . . . . . . . . . . . . . . . . . 88
III Applications du modèle de segmentation sous IFRS 17 91
1 Présentation du portefeuille d'épargne étudié 92
1.1 Données au passif du portefeuille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
1.2 Présentation de l'actif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
1.3 Distribution du BE IFRS 17 des Model Points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2 Choix des outils de modélisation de la segmentation et comparaison des méthodes présentées 95
2.1 Choix du seuil de pro�tabilité signi�cative des contrats non onéreux. . . . . . . . . . . . . . . . . 95
2.2 Impact du choix de la méthode d'ajustement pour le risque non �nancier. . . . . . . . . . . . . . 96
2.3 Impact de la nouvelle segmentation de contrats sur le bilan S2 . . . . . . . . . . . . . . . . . . . 98
2.4 Résultats obtenus à la date de transition lors de la réalisation des calculs sans segmentation . . . 100
2.5 Comparaison des segmentations retournées par les algorithmes présentés . . . . . . . . . . . . . . 100
3 Utilisation de la mesure de dissimilarité pour l'optimisation de l'estimation de la pro�tabilité
des contrats 106
3.1 Présentation de la méthode alternative de détermination de la pro�tabilité des contrats . . . . . 106
3.2 Limites de la méthode proposée et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
24
4 Introduction de la méthode du contrat de pro�tabilité nulle 110
4.1 Présentation de la nouvelle méthode de segmentation . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.2 Sensibilité aux paramètres. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5 Conséquence de l'ajout de la contrainte de cohorte annuelle sur la segmentation 115
Conclusion 119
Bibliographie 121
Annexe A : Rappels 123
25
V
26
Introduction
; ; ;
En publiant la norme IFRS 17 � insurance contracts � le 18 mai 2017, l'IASB a o�cialisé l'imminence d'un
bouleversement au niveau de la communication �nancière pour les grandes entités cotées émettant des contrats
d'assurance.
L'objectif de cette nouvelle norme comptable est de résoudre les problèmes de transparence et d'uniformité
constatés lors de l'application des normes comptables internationales actuelles en introduisant de nouvelles no-
tions et en revisitant la communication �nancière ainsi que certaines méthodes comptables telles que la gestion
des frais d'acquisition.
La complexité de cette norme ainsi que l'impact qu'elle aura sur la présentation des performances des entités font
de son application l'un des enjeux majeurs des années à venir. A�n de faciliter l'adaptation à ces changements
et d'assurer la constitution d'un bilan d'ouverture conforme à la norme IFRS 17 au 1er janvier 2022, un exercice
transitoire aura lieu l'année précédente. Cet exercice transitoire imposera des règles comptables et des méthodes
de valorisation particulières visant à faciliter la transition.
Ce mémoire traite de certains aspects actuariels et comptables particuliers à mettre en ÷uvre lors de l'exer-
cice transitoire. Ainsi, nous nous attacherons à présenter la segmentation des contrats d'assurance épargne, et
plus particulièrement sur les contrats d'épargne en EURO. Le traitement de ces derniers à la date de transition
fait actuellement l'objet de discussions de place. Cette problématique a été traitée par la recherche d'une mesure
de dissimilarité entre les contrats d'assurance qui aboutirait à la formation de Model Points Optimums sous les
contraintes imposées par IFRS 17.
Dans une première partie, ce mémoire présentera les points clés de la norme ainsi que les nouvelles règles de
segmentations des contrats établies sous IFRS 17 avant de se recentrer sur les particularités de la période de
transition. Cette présentation permettra d'exposer les enjeux posés par la gestion de la segmentation des contrats
lors de la période de transition et mettra ainsi en évidence l'intérêt de ce mémoire.
Dans un second temps, une mesure de dissimilarité des contrats ainsi qu'une méthodologie visant à produire
une segmentation de contrats d'épargne en euros optimale sera présentée.
Puis, en clôture de ce mémoire, de nouvelles applications reposant sur la mesure de dissimilarité seront introduites
a�n d'exploiter au mieux les zones discrétionnaires de la norme de manière à réduire les coûts et le temps de
calcul.
27
V
28
Première partie
Communication �nancière en normes comptables
internationales pour un assureur épargne
29
1 Présentation du bilan et du compte de résultat en norme IFRS
1.1 Valorisation du passif technique conforme aux règlementations IFRS
1) Contexte règlementaire et textes o�ciels
Bien qu'elle fut publiée le 18 mai 2017, la norme IFRS 17 � Insurance Contracts � n'entrera pas en vigueur
avant le 1er Janvier 2022. Sa publication précoce par le board est due aux nombreux changements que cette
norme va apporter dans les règles comptables internationales pour les grandes entités côtées émettant des contrats
d'assurance.
La mise en place d'IFRS 17 va nécessiter de remplacer IFRS 4 tout en s'ajustant aux autres normes IFRS. A�n
de faire face à ce dé� de la façon la plus e�cace possible, le board a publié des documents et études ayant pour
but la facilitation de l'implémentation de la norme :
∗ le texte o�ciel de la norme
∗ des exemples illustratifs
∗ Basis For Conclusions qui décrit le point de vue de l'IAS sur le développement d'IFRS 17.
∗ des analyses d'impact décrivant les coûts et béné�ces du changement de norme.
Une introduction à la norme a également été publiée par le directeur du board, Hans Hoogervorst.
C'est donc sur ces documents o�ciels que nous avons basé nos travaux sur la segmentation des contrats d'épargnes
sous IFRS 17.
2) Eléments constitutifs du passif technique IFRS 17
∗ Marge de Service Contractuelle :
La Marge de Service Contractuelle (notée CSM pour Contractual Service Margin) représente les pro�ts non acquis
d'un groupe de contrats. Dès la souscription des contrats (ou la première comptabilisation des engagements),
l'assureur estime leur pro�tabilité. Si le contrat est pro�table, le pro�t attendu sera passé en CSM et s'il est oné-
reux (qu'il entraine une perte), la perte sera directement a�ectée au résultat comme préconisé par le paragraphe
47 :
� An entity shall recognise a loss in pro�t or loss for the net out�ow for the group of onerous contracts,
resulting in the carrying amount of the liability for the group being equal to the ful�lment cash �ows and the
contractual service margin of the group being zero. �
Conséquence directe de cette méthode d'a�ectation, la CSM est toujours positive ou nulle. Au cours du temps,
alors que les prestations se réalisent, la CSM est amortie au prorata des prestations servies par la méthode des
Coverage Units (CU) et les amortissements passent au compte de résultat. Les pro�ts futurs sont amortis au
rythme du service des prestations. A chaque fois qu'une entité remplit ses obligations, elle gagne le droit de tou-
cher une partie des pro�ts associés au contrat. C'est un e�et de rationnement des pro�ts futurs. Le paragraphe
B119 décrit le principe des Coverage Units comme suit :
�The number of coverage units in a group is the quantity of coverage provided by the contracts in the group,
determined by considering for each contract the quantity of the bene�ts provided under a contract and its expected
coverage duration.�
30
Le nombre de Coverage Units dans un groupe est la quantité de couverture fournie par les contrats du groupe,
déterminée en considérant pour chaque contrat la quantité de pro�t apportée et la durée de couverture attendue.
A la �n de chaque période, avant son amortissement, la CSM est a�ectée de manière égale à chaque Coverage Unit
fournie dans la période et attendue à l'avenir. Puis la proportion de CSM allouée aux Coverage Units fournies au
cours de la période est passée au résultat. Outre l'amortissement, d'autres évènements viennent impacter la CSM :
∗ Les nouveaux contrats : Leur comptabilisation implique souvent l'apparition de nouveaux contrats
pro�tables puisqu'après tout l'assureur est censé rechercher le pro�t. L'ajout de ces contrats entraine une
augmentation de la CSM dépendant du niveau de pro�tabilité des nouveaux contrats.
∗ Les variations dans l'estimation des �ux futurs : Un contrat ayant été jugé pro�table initialement
peut être estimé onéreux dans le futur ou même simplement plus ou moins pro�table qu'initialement
prévu. Ces changements de l'estimation de la pro�tabilité peuvent venir de facteurs techniques ou �nanciers
(comme la variation de la valeur d'actifs sous-jacents). En cas changement dans l'estimation de la provision
pour couverture future, la CSM allouée lors de la première reconnaissance du contrat ne re�ète plus la
réalité du contrat et doit être ajustée :
� Si un contrat devient onéreux, la CSM qui avait été allouée est passée à 0 et la perte restante va
directement au compte de résultat.
� Si le contrat reste pro�table mais que sa pro�tabilité évolue, la CSM est ajustée (réduite ou augmentée)
en conséquence.
∗ Les e�ets de change.
∗ Les intérêts sur la CSM : A l'année N , des intérêts résultent de la CSM de l'année N − 1 et sont
ajoutés à la nouvelle CSM.
Ces ajustements de la CSM lui permettent � d'absorber � les chocs techniques, réduisant ainsi la volatilité du
résultat.
Les changements d'estimation sur la provision pour sinistres survenus impactent le résultat technique etn'agissent pas sur la CSM.
Figure 1 � Evolution de la CSM sur un exercice
31
∗ Ajustement pour le risque non �nancier :
La norme dé�ni l'ajustement pour le risque non �nancier dé�nit comme la � Rémunération que l'entité demande
pour porter le risque d'incertitude sur le montant et le calendrier des �ux de trésorerie provenant du risque non
�nancier à mesure que l'entité exécute les contrats d'assurance. � Sa présence dans le bilan se justi�e par l'expo-
sition des contrats d'assurance à des risques non �nanciers tels que les risques opérationnels. La norme requiert
que cet ajustement soit calculé séparément des �ux de trésorerie et de l'ajustement pour la valeur temporelle de
l'argent.
IFRS 17 does not specify the estimation technique(s) used to determine the risk adjustment for non-�nancial risk.
However, to re�ect the compensation the entity would require for bearing the non-�nancial risk, the risk adjustment for
non-�nancial risk shall have the following characteristics :
(a) risks with low frequency and high severity will result in higher risk adjustments for non-�nancial risk than risks
with high frequency and low severity ;
(b) for similar risks, contracts with a longer duration will result in higher risk adjustments for non-�nancial risk than
contracts with a shorter duration ;
(c) risks with a wider probability distribution will result in higher risk adjustments for non-�nancial risk than risks
with a narrower distribution ;
(d) the less that is known about the current estimate and its trend, the higher will be the risk adjustment for non-
�nancial risk ; and
(e) to the extent that emerging experience reduces uncertainty about the amount and timing of cash �ows, risk adjust-
ments for non-�nancial risk will decrease and vice versa.
Le paragraphe B91 de la norme, présenté ci-dessus, spéci�e que, bien qu'aucune méthode de calcul de l'ajustement
pour le Risque non �nancier soit imposée, il se doit de posséder les caractéristiques suivantes :
∗ Les risques avec une basse fréquence mais une haute sévérité auront un ajustement pour le risque plus
important que ceux avec une haute fréquence et une faible sévérité.
∗ Pour des contrats soumis à des risques similaires, l'ajustement augmentera avec la durée.
∗ Les risques avec une distribution de probabilité plus large auront un plus grand ajustement.
∗ Plus les informations sur l'estimation et la tendance seront faibles, plus l'ajustement sera élevé.
∗ L'ajustement décroit lorsque l'incertitude sur le montant et le timing des �ux diminue et vice versa.
Les méthodes de calcul de l'ajustement pour le risque non �nancier les plus populaires sont actuellement le Coût
du Capital utilisé dans solvabilité 2 : CoC, la Value at Risk (VaR) et la Tail Value at Risk (TVaR).
Nous reviendrons sur ces méthodes dans la troisième partie lors de la présentation des choix de modélisation.
32
∗ Ful�lment Cash-Flows (FCF) :
Figure 2 � Composition des Ful�lment Cash-Flows
Ce terme fait référence aux �ux de trésorerie liés à la réalisation des obligations du contrats, ajustés par la
valeur temporelle des �ux de trésorerie et par l'ajustement pour le risques non �nancier :
FCF = V aleur actuelle des flux de tresorerie sortant+Ajustement pour le risque non financier + TV OG−V aleur actuelle des flux de tresorerie entrant.
La meilleure estimation des engagements (que nous noterons BEL pour Best Estimate Liability dans la suite
de ce mémoire) est la somme des �ux de trésorerie probabilisés et actualisés. Le taux d'actualisation utilisé pour
le calcul de cette valeur temporelle est soumis à certaines contraintes comme le suggère l'extrait de la norme
suivant (paragraphe 36).
� An entity shall adjust the estimates of future cash �ows to re�ect the time value of money and the �nancial risks
related to those cash �ows, to the extent that the �nancial risks are not included in the estimates of cash �ows. The discount
rates applied to the estimates of the future cash �ows described in paragraph 33 shall :
(a) re�ect the time value of money, the characteristics of the cash �ows and the liquidity characteristics of the insu-
rance contracts ;
(b) be consistent with observable current market prices (if any) for �nancial instruments with cash �ows whose cha-
racteristics are consistent with those of the insurance contracts, in terms of, for example, timing, currency and
liquidity ; and
(c) exclude the e�ect of factors that in�uence such observable market prices but do not a�ect cash �ows of the insu-
rance contracts. �
En résumé, le taux utilisé doit re�éter les caractéristiques des �ux de trésorerie ainsi que la liquidité des contrats,
être cohérent avec le marché et ne pas être biaisé par des facteurs extérieurs pouvant in�uencer le marché. Les
paragraphes B81 et B82 autorisent les approches Top-Down et Bottom-Up a�n de déterminer ces taux d'actua-
lisation.
∗ L'approche Top-Down détermine la courbe des taux à partir du rendement du portefeuille de l'entité
corrigé du risque de défaut et du risque d'inadéquation actif-passif.
∗ L'approche Bottom-Up estime les taux à partir de la courbe des taux sans risque à laquelle s'ajoute une
prime de liquidité.
La norme préconise que le calcul des Flux de trésorerie se fasse brut de la valeur temporelle des �ux à moins
qu'une technique de mesure appropriée rassemble ces éléments (paragraphe 33d) :
�The entity also shall estimate the cash �ows separately from the adjustment for the time value of money and �nancial
risk, unless the most appropriate measurement technique combines these estimates�
33
Les changements dans l'estimation des �ux de trésorerie a�ectent le résultat ou sont absorbés par la CSM ou
les OCI que nous présenterons plus tard.
3) Méthodes de valorisation du passif
Maintenant que tous les termes du bilan ont été expliqués, intéressons-nous aux Trois méthodes de détermi-
nation du passif citées précédemment.
∗ Building Block Approach :
Il s'agit du modèle standard pour mesurer la valeur des contrats. Le nom de cette approche vient de l'organisation
en bloc qui mène à la détermination de la CSM. Les Ful�lment Cash-Flows sont déterminés blocs par blocs en
séparant les calculs comme conseillé par la norme :
∗ bloc 1 : les �ux attendus sont exprimés et la somme est e�ectuée ;
∗ bloc 2 : la valeur temporelle de l'argent est prise en compte dans le calcul des �ux ;
∗ bloc 3 : un ajustement pour le risque non �nancier est retiré à la somme des �ux.
Les taux d'actualisations utilisés pour l'ajustement de la CSM sous cette approche sont �xés à l'émission des
contrats. Une fois les Ful�lment Cash-Flows connus, la Marge de Service Contractuelle est déterminée en consé-
quence.
∗ Si un pro�t a été réalisé (�ux total positif) la CSM doit être telle qu'aucun pro�t n'est reconnu au résultat
lors de la première reconnaissance des contrats. Elle prendra donc la valeur des Ful�lment Cash-Flows.
∗ S'il n'y a pas de pro�t (FCF négatif ou nul) la CSM n'est pas dotée. Elle est nulle et la perte, si elle existe,
passe au résultat.
Illustrons le calcul de la CSM sous cette approche avec un exemple simple.
Soit un contrat d'assurance avec une prime unique de 75¿ versée immédiatement et une prestation certaine de
100¿ dans 10ans. 75�100 = −25. Les �ux de trésorerie attendus indiquent une perte de 25¿ pour l'assureur.
Prenons maintenant en compte la valeur temporelle de l'argent :
Soit un taux d'actualisation de 4%, alors la valeur actuelle de la prestation est de 100(1+0,04)10 = 67.6¿.
75�67, 6 = 7, 4¿. L'assureur réalise un pro�t.
Ajoutons un ajustement pour risque non �nancier arbitrairement �xé à 5 euros.
7, 4�5 = 2, 4¿. Ce pro�t futur constitue la CSM associée au contrat. (cf Figure suivante)
Figure 3 � Building Block Approach
34
∗ Variable Fee Approach :
Un contrat participatif direct est un contrat pour lequel l'assuré participe aux placements d'actifs et l'assureur
s'attend à lui reverser une partie des rendements. C'est le cas par exemple des contrats d'épargnes, l'assureur se
doit de reverser une participation aux béné�ces aux assurés. Les prestations de ces contrats sont très sensibles à
la valeur des actifs, ce qui rendrait la Building Block Approach peu adaptée à la modélisation du passif.
En e�et, une hausse instantanée du BEL se traduit par une baisse de la CSM comme le montre le schéma ci-
dessous.
Figure 4 � Impact d'une hausse du BEL au bilan IFRS 17
Or, en cas de hausse de la valeur de l'actif, le BEL va augmenter. En e�et, à cause du caractère participatif
du contrat, lorsque l'actif augmente l'assureur doit reverser une partie des pro�ts à l'assuré ce qui se traduit
par une hausse de ses engagements et donc du BEL. Cette hausse sera � compensée � par la CSM comme vu
précédemment et la hausse des actifs se traduira au résultat. La CSM n'accomplirait donc pas sa fonction de ra-
tionnement des pro�ts futurs et de neutralisation du résultat. C'est pour faire face à cette limite que la Variable
Fee Approach (VFA) a été mise en place.
En approche VFA, il est considéré que l'entité est sous l'obligation de verser à l'assuré un montant égal à
la Juste Valeur des sous-jacents moins une charge variable, la � Variable fee � que l'on pourrait associer à la
commission que l'entité touche pour s'occuper du management des actifs à la place de l'assuré. En e�et, la norme
dé�nit la � Variable fee � comme la part des placements qui appartient à l'entité diminuée des �ux de trésorerie
d'exécution indépendants du rendement des sous-jacents. Conséquence directe de cette dé�nition, tout
changement dans la part des sous-jacents appartenant à l'entité a�ecte directement la CSM. La �
Variable fee � sur une année donnée est égale à l'augmentation de la Juste Valeur du portefeuille diminuée de
l'évolution des �ux de trésorerie d'exécution sur l'année :
V ariableFee(2019) = Augmentation de la Juste V aleur (entre 2018 et 2019)�(FCF (2019)�FCF (2018))
La CSM de clôture est alors égale à la CSM d'ouverture diminuée de l'allocation au compte de résultat, à
laquelle s'ajoute la � variable fee � de l'année.
Sous cette approche, les changements dans la valeur des options et garanties sont reconnus dans la CSM et
l'ajout de l'intérêt de la CSM se fait à partir des taux d'intérêt actuels du marché. Elle est obligatoire pour tout
contrat participatif direct.
35
∗ Premium Allocation Approach :
A�n de traiter des contrats non participatifs plus � simples � mais surtout plus courts, la norme autorise l'uti-
lisation d'une approche simpli�ée : la Premium Allocation Approach (PAA). Étudions son fonctionnement.
On peut séparer les engagements liés à un groupe de contrats en 2 parties. Les prestations passées et les en-
gagements pour la couverture restante. La PAA va intervenir sur la 2ème partie en simpli�ant son estimation.
La Premium Allocation Approach consiste à déterminer le montant des engagements restant en allouant la prime
reçue sur la période de couverture. (Introduction, paragraphe 8).
�An entity may apply a simpli�ed measurement approach (the premium allocation approach) to some insurance contracts.
The simpli�ed measurement approach allows an entity to measure the amount relating to remaining service by allocating
the premium over the coverage period.�
Cette estimation des engagements pour la couverture restante est dé�nie dans le paragraphe 55 de la norme
comme suit :
∗ A la date de première reconnaissance, le montant du passif est la prime reçue à la première reconnais-
sance diminuée des coûts d'acquisition à cette date (à moins que l'entité ne considère ces �ux comme des
dépenses) et augmentée de tout montant généré par la dé-reconnaissance à cette date de l'actif ou passif
reconnu pour les �ux d'acquisition.
∗ A la �n de chaque exercice, le montant du passif est le montant du passif à la date de la première
reconnaissance augmentée :
� des primes reçues au cours de l'exercice ;
� des montant liés à l'amortissement des �ux d'acquisition ;
� d'un ajustement pour risque �nancier si nécessaire ;
Et diminuée :
� des �ux d'acquisition (sauf s'ils sont reconnus en dépenses) ;
� du montant reconnu en revenu pour la couverture de cette période ;
� de tout composant d'investissement payé ou transféré au passif pour une prestation.
Il est à noter que cette approche facultative n'est éligible que pour les contrats non participatifs d'une durée de
couverture inférieur ou égale à 1 an et si l'entité pense que cette simpli�cation n'entrainera pas d'écart majeur
par rapport à l'estimation du passif qui aurait été réalisée avec l'approche classique (Building Block Approach).
1.2 Présentation du Compte de Résultat IFRS 17 pour un assureur épargne
Les éléments du résultat net ont été directement a�ectés par les nouvelles règles imposées par IFRS17.
Notamment à cause de la notion d'Other Comprehensive Income, que nous noterons OCI dans ce mémoire.
1) Other Comprehensive Income (OCI)
IFRS17 s'aligne sur IFRS9 en permettant l'a�ectation de certains gains (ou pertes) directement en capitaux
propres. Cette opération se fait grâce à l'option �Autres éléments du résultat Global� ou Other Comprehensive
Income que nous noterons OCI dans la suite.
36
Other comprehensive income comprises items of income and expense (including reclassi�cation adjustments) that are
not recognised in pro�t or loss as required or permitted by other IFRSs.
Les OCI sont formés des revenus et dépenses qui ne sont pas reconnues au résultat. Ils permettent de distinguer les
éléments du résultat dû aux décisions stratégiques de l'entreprise (résultat net) des éléments résultant de faits extérieurs
(OCI).
Le résultat net reprend les éléments habituels tels que la marge �nancière, le résultat opérationnel, etc. . . tandis que les
OCI regroupent les revenus et dépenses qui n'ont pas encore été réalisés.
Figure 5 � Compte de résultat sous IFRS 17
Par exemple, si l'entité investit dans des obligations et que leur valeur change, l'écart par rapport à leur
prix originel est passé en OCI. Quand l'obligation sera vendue, la perte (ou le gain) né de l'écart sera réalisé.
Le montant sera retiré des OCI et passé dans le résultat net. C'est ce qui est appelé � recyclage � des OCI en
résultat. Il est important de faire la di�érence entre les éléments recyclables et les non-recyclables qui ne seront
donc pas passés au résultat.
Figure 6 � Distinction des éléments des OCI
37
Les composantes principales des OCI sont les changements des taux d'actualisation et de la Juste Valeur des
actifs, cependant d'autres éléments peuvent les impacter :
En e�et, les OCI peuvent également être dotés par une part des dépenses (ou produits) de �nance d'assurance.
Les entités peuvent passer les dépenses de �nance d'assurance entièrement au résultat ou choisir d'en a�ecter
une partie aux OCI comme l'indique la norme :
the Board developed an approach that : [. . .] requires an entity to make an accounting policy choice portfolio-by-portfolio
of whether to recognise all insurance �nance income or expenses for the reporting period in pro�t or loss or to recognise
some of that income or expenses in other comprehensive income.
L'utilisation des OCI apporte de multiples avantages :
∗ cette nouvelle notion limite la volatilité du résultat net puisque certaines variations comme les taux sont
imputées aux OCI.
∗ on peut également mettre en avant l'apport d'informations sur la qualité du management que procure le
fait de séparer au résultat les conséquences d'évènements extérieurs et celles dues décisions managériales.
Les OCI apparaissent directement dans les Fonds propres au bilan et ont ainsi provoqué des débats motivés par
la crainte qu'ils ne réduisent la volatilité au résultat pour la transférer au bilan.
Rappelons cependant qu'il s'agit d'une option et que son utilisation est donc facultative.
2 Segmentation des contrats sous IFRS 17
2.1 Enjeux de la segmentation de contrats sous IFRS 17
Les éléments du bilan et de résultat que nous venons de présenter ne sont pas calculés contrats par contrats.
Un tel modèle ne pourrait pas tourner sans e�ectuer des calculs trop lourds et longs. C'est dans ce contexte
qu'intervient la segmentation des contrats :
La segmentation est la création de classes séparant les contrats en fonction des variables qualita-
tives et quantitatives qui les caractérisent.
Les contrats sont rassemblés en groupes appelés Model Points sur lesquels les �ux de trésoreries futurs vont
être déterminés. Ce système permet de réduire le nombre de lignes projetées et donc d'optimiser le temps de
calcul. De ce fait, l'impact de la segmentation est direct, aussi bien au niveau des valeurs mesurées que du temps
de calcul. En anticipation de ce phénomène, la norme IFRS17 �xe des règles sur la segmentation des contrats
d'assurance.
Rappelons que, bien que la réduction du temps de calcul est le premier objectif de la segmentation des contrats
en groupes, le choix de la méthode de segmentation pose d'autres enjeux de taille :
∗ limiter la perte d'informations.
Les calculs étant e�ectués par groupe, on perd de l'information sur les caractéristiques individuelles des
contrats. Ainsi, si un groupe venait à comprendre des contrats onéreux et d'autres pro�tables, leurs �ux de
trésorerie se compenseraient et l'on serait dans l'incapacité de distinguer les contrats onéreux des autres.
La CSM serait nettement moins élevée que si les contrats étaient considérés indépendamment et l'on n'ob-
38
serverait aucune perte au résultat (ou elle serait nettement inférieure à la valeur qu'elle aurait prise en
cas d'observations contrats par contrats). La limitation des occurrences d'un tel phénomène est un des
enjeux majeurs de la segmentation contrats. Il faut minimiser les chances que des contrats de pro�tabilités
inverses se retrouvent dans le même groupe.
∗ maximiser l'apport d'informations.
Au contraire, constituer des groupes le plus homogène possible permet de retrouver une estimation de la
pro�tabilité des contrats composant un groupe à partir des mesures e�ectuées à l'échelle du groupe. On
peut déterminer quels types de contrats sont les plus pro�tables, lesquels amènent des pertes et même
préciser ces informations à une échelle plus réduite que le type de contrat : l'échelle de segmentation.
La segmentation est cependant soumise à une contrainte de cohérence. Il parait inconcevable et peu rigoureux
d'estimer conjointement les �ux de trésorerie de deux contrats n'ayant rien en commun. Ce fut une des motiva-
tions de la segmentation par Line Of Business (LoB) préconisée par la norme Solvabilité 2. La segmentation S2 est
une segmentation qui permet de conserver l'information au niveau des risques, elle rejoint la volonté prudentielle
de la norme tantis qu'IFRS 17 adopte une approche basée sur la communication �nancière.
Il faut également garder à l'esprit que plus la segmentation est �ne, plus le nombre de groupes créés
est élevé et plus les calculs sont longs.
En résumé, une segmentation de qualité devra constituer des groupes de contrats assez homogènes à la fois
au niveau des risques et au niveau de leur pro�tabilité et qui maximiserait l'information apportée tout en limi-
tant l'augmentation de la complexité du modèle.
Une approche simple consiste à dé�nir des catégories pour chaque variable caractérisant les contrats (âge, an-
cienneté, sexe, Taux Garanti, etc) et à ranger les contrats dans la catégorie qui leur correspond.
Par exemple, pour trier des contrats d'épargnes en ne considérant que l'âge, l'ancienneté et le sexe des assurés :
∗ Il n'existe que deux catégories pour le sexe : Homme ou Femme
∗ On dé�nit 7 catégories d'âge : de 18 à 30 ans , de 31 à 40, 41 à 50, 51 à 60, 61 à 70, 71 à 80, 81 à 120.
∗ 5 catégories d'ancienneté
On obtiendrait alors 7 ∗ 5 ∗ 2 = 70 classes di�érentes, donc 70 Model Points, et cela indépendamment du nombre
de contrats dans le portefeuille.
Cette méthode de classi�cation ne garantit cependant aucune homogénéité au niveau de la pro�tabilité des
contrats d'une même classe. Elle ne fait qu'optimiser le coût des calculs en séparant le portefeuille selon des
critères arbitrairement dé�nis.
2.2 Procédure de segmentation imposée par la norme IFRS 17
Les paragraphes 14 à 24 de la norme dé�nissent les règles d'agrégation des contrats d'assurance.
An entity shall identify portfolios of insurance contracts. A portfolio comprises contracts subject to similar risks and
managed together.
[. . .]
An entity shall divide a portfolio of insurance contracts issued into a minimum of :
(a) a group of contracts that are onerous at initial recognition, if any ;
39
(b) a group of contracts that at initial recognition have no signi�cant possibility of becoming onerous subsequently, if
any ; and
(c) a group of the remaining contracts in the portfolio, if any.
[..]
An entity shall not include contracts issued more than one year apart in the same group.
Les grandes lignes de ces paragraphes, présentées ci-dessus indiquent que :
1. Les entités identi�ent des portefeuilles de contrats soumis à des risques similaires et gérés en-
sembles. Il s'agit d'une notion assez proche des Line Of Business préconisée par Solvabilité 2.
2. A l'intérieur de ces portefeuilles, une seconde segmentation se fait par niveau de pro�tabilité. Les
contrats sont séparés en 3 catégories : les contrats onéreux, ceux qui à leur première comptabilisation
n'ont pas de chance signi�cative de devenir onéreux et les éventuels contrats restants forment le dernier
groupe.
3. Des contrats issus à plus d'un an d'écart ne peuvent pas appartenir au même groupe. C'est
le principe de cohorte annuelle. Une nouvelle segmentation des groupes se fait donc si nécessaire, quitte à
créer des groupes ne comprenant qu'un seul contrat.
Figure 7 � Segmentation Réglementaire des contrats sous IFRS 17
La norme traite également des cas particuliers :
∗ Si une entité dispose de su�samment d'informations raisonnables pour a�rmer que certains contrats seront
dans le même groupe de pro�tabilité, alors elle peut conduire l'étude d'onérosité directement sur le groupe
a�n de déterminer sa classi�cation au lieu de véri�er contrat par contrat leur groupe de pro�tabilité.
∗ Pour tout contrat sur lequel l'approche PAA est appliquée, l'entité doit considérer qu'il n'est pas onéreux à
la date de première comptabilisation sauf indication contraire. Elle doit alors déterminer si ce contrat a une
chance signi�cative ou non de devenir onéreux en étudiant la probabilité de survenance de changements
des circonstances entourant la pro�tabilité du contrat.
∗ Pour les autres contrats non onéreux, l'entité détermine s'ils ont des chances signi�catives de devenir
onéreux en se basant sur la probabilité de changement dans les hypothèses qui rendraient les contrats
onéreux et sur leur report interne.
∗ Si des contrats du même portefeuille se retrouvent dans di�érents groupes suite à l'application des règles
précisées ci-dessus uniquement à cause de contraintes réglementaires ou légales sur la � discrimination �
(adaptation des prix ou garanties ou pro�l du client), l'entité peut rassembler ces contrats dans le même
groupe.
40
∗ La mise en place de segmentation supplémentaire des groupes créés est autorisée.
Une fois les groupes créés grâce à ces règles à la date de première comptabilisation, ils sont �xes. Les mesures de
FCF, RA et CSM se feront sur ces groupes ou à une échelle plus élevée si et seulement si l'entité est capable de
réattribuer à chaque groupe sa part du FCF mesuré.
Toutes ces règles concernent uniquement les contrats d'assurance. Les contrats de réassurance suivent di�érentes
règles que nous ne présenterons pas dans le cadre de ce mémoire.
Il est important de noter que la segmentation se fait par contrats, chaque contrat pouvant comprendre plu-
sieurs garanties alors que la norme Solvabilité 2 par exemple séparait les garanties de chaque contrat.
Intéressons-nous maintenant aux justi�cations de ces règles pour bien les comprendre.
2.3 Interprétation des impératifs posés par la norme en terme de segmentation
1) Regroupement en portefeuilles
La segmentation en portefeuilles de contrats gérés simultanément et soumis aux même risques s'inscrit dans la
même logique que le regroupement en LoB requis par solvabilité 2. Regrouper des contrats soumis à des risques
di�érents poserait des problèmes de cohérences et limiterait la �abilité des analyses e�ectuées sur le groupe.
2) Séparation par pro�tabilité
La segmentation par groupe de pro�tabilité est un point nouveau posé par la norme. En e�et, nous avons
vu que la CSM n'est dotée que pour les contrats pro�tables. Les contrats onéreux, du fait de leur dé�nition,
entrainent des pertes futures qui sont directement passées au résultat. Séparer les contrats onéreux est donc
logique, si un contrat onéreux et un pro�table sont regroupés, un phénomène de compensation entre leur résultat
futur aura lieu et entrainera une perte d'informations.
Illustrons cela par un exemple simpli�é
Considérons deux contrats d'épargne portant sur des personnes de même age, même sexe, même ancienneté où
le contrat A garantit un taux minimum de 18% et le contrat B garantit un taux minimum de 2%.
Les estimations de leur pro�tabilité future ont montré que le contrat A sera nettement onéreux alors que le contrat
B sera pro�table.
Cependant, si ces contrats étaient agrégés dans le même Model Point, on obtiendrait comme Model Point un
unique contrat avec 10% de TMG qui sera probablement onéreux.
La dotation qui aurait dû être passée en CSM grâce à la pro�tabilité du contrat B est perdue et la perte immédiate
au résultat qu'aurait du entrainer le contrat A se retrouve elle réduite.
Dans un tel cas, la segmentation entraine donc une perte de l'information sur �quel contrat est pro�table�,
�quel niveau de pro�tabilité� et �quelle perte entraine le contrat onéreux�.
Cependant, cette perte d'informations suit un des principes les plus chers à l'actuariat : La mutualisation
des risques.
41
Dans notre contexte de contrats d'épargne, on pourrait parler de mutualisation des risques lorsque l'ensemble
des contrats pro�tables sert à compenser les pertes des contrats onéreux. Cependant, la séparation des contrats
par classe de pro�tabilité ajoutée au fait que les pertes dues aux contrats onéreux vont directement au résultat
vont à l'encontre de ce principe.
La segmentation proposée par IFRS 17 ne compte pas sur une éventuelle compensation entre les contrats et va
rendre les résultats moins lisses. La compensation au résultat se fera entre les contrats reconnus onéreux sur une
année et la portion de la CSM qui sera relâchée au résultat.
Il se pose alors la question de la séparation des autres contrats. Bien qu'ils ne soient pas onéreux aujourd'hui,
le marché étant en perpétuelle évolution et l'avenir étant imprévisible, rien ne garantit que les hypothèses sous
lesquelles la pro�tabilité du contrat a été déterminée ne vont pas subir des changements décisifs. On ne peut pas
simplement quali�er ces contrats de non onéreux.
C'est cette considération prudente qui a mené à la création du groupe de contrats ayant une chance non signi�ca-
tive de devenir onéreux. A�n de ne pas se compenser avec les contrats qui sont signi�cativement non onéreux et
les contrats onéreux, les contrats restants (ceux qui sont considérés non-onéreux aujourd'hui mais qui pourraient
le devenir selon les circonstances) forment un groupe à part.
3) Cohorte annuelle
Le principe de cohorte annuelle est nécessaire pour la cohérence des groupes. En e�et, des contrats issus à
des périodes trop éloignées ont été créés dans des contextes totalement di�érents. Les éventuels taux garantis,
les statistiques utilisées pour la tari�cation, etc dépendent directement du contexte de l'époque et a�ectent le
rendement des contrats. Leur comparabilité s'en retrouve limitée. Un des objectifs de la segmentation étant la
mise en place de groupes assez homogènes, rassembler de tels contrats parait peu cohérent.
De plus, dans le cadre de contrats d'assurance vie, la présence d'un pic de rachats à 8 ans d'ancienneté rend
préférable la constitution de groupes de contrats d'ancienneté identique.
Le rassemblement de contrat de la même tranche de pro�tabilité, soumis aux mêmes risques à la même époque
devrait permettre d'obtenir des groupes de contrats de caractéristiques homogènes, sans compensations, dont la
mesure des �ux donnera donc une bonne transparence sur leur pro�tabilité.
Cette règle garantit également le caractère fermé et limité dans le temps des groupes. Il sera impossible de
rajouter des New Business au groupe au �l des ans, la CSM produit par le groupe ne sera donc pas éternelle.
4) Zones discrétionnaires
Les règles présentées ci-dessus laissent certains aspects de la segmentation à la discrétion des entités.
En e�et, lors de la segmentation par pro�tabilité, la norme demande de séparer les contrats qui ont une chance
non signi�cative de devenir onéreux des autres, sans aucune précision quantitative sur le niveau de si-
gni�cativité requis. Il est donc laissé à la libre appréciation des entités qui vont devoir choisir un seuil de
pro�tabilité qui dé�nira quels sont les contrats signi�cativement non onéreux.
42
Autre zone de liberté, l'utilisation de la méthode PAA qui in�ue sur la segmentation est facultative. On peut
également relever que certaines des règles énoncées reposent sur des critères laissés à l'appréciation des entités.
Illustrons cela avec une traduction d'un extrait du paragraphe 17
� si une entité dispose de su�samment d'informations raisonnables pour conclure qu'un groupe de contrats, etc. �.
Ici, aucun critère quantitatif n'est dé�ni. La quantité d'informations dont l'entité doit disposer est simplement
dé�nie comme su�sante et la qualité des informations est, elle, décrite comme � raisonnable � sans aucune pré-
cision supplémentaire. Mais le point le plus important reste qu'il est explicitement écrit dans la norme qu'il est
autorisé de procéder à des subdivisions supplémentaires des groupes créés (paragraphe 21) :
� An entity is permitted to subdivide the groups described in paragraph 16. �
C'est sur ce point que nous travaillons dans ce mémoire a�n de mettre en place un algorithme réalisant une
segmentation de qualité.
Nous allons cependant ajouter une contrainte à cet algorithme, la segmentation se fera dans un contexte de
transition. Présentons donc cette particularité.
3 Valorisation du passif à la date de transition
3.1 Problématiques posées par la transition vers IFRS 17
L'implémentation de la nouvelle norme changera drastiquement les résultats et leurs interprétations au niveau
des arrêtés comptables. Une période de transition est nécessaire avant la date d'implémentation de la norme pour
assurer la comparabilité des bilans et des comptes de résultats entre les normes IFRS 4 et IFRS 17.
Les compagnies d'assurance doivent reconstituer leur bilan d'ouverture à la date de transition en appliquant la
norme IFRS17. Pour ce faire, l'IASB a prévu plusieurs méthodes, décrites à l'annexe C de la norme.
3.2 Méthodes de construction du bilan à la date de transition
1) Approche rétrospective
L'IASB impose une approche rétrospective a�n de pouvoir reconstituer le bilan d'ouverture (paragraphe C3).
To apply IFRS 17 retrospectively, an entity shall at the transition date :
(a) identify, recognise and measure each group of insurance contracts as if IFRS 17 had always applied ;
(b) derecognise any existing balances that would not exist had IFRS 17 always applied ; and
(c) recognise any resulting net di�erence in equity.
Pour chaque groupe de contrats, cette approche consiste à se placer à la date de première comptabilisation
des contrats et réaliser les mesures entre cette date et la date de transition comme si la norme IFRS17 avait
toujours été en place. Dans le cas du calcul de la CSM, cette approche revient à reconstituer la CSM à la date
de première comptabilisation des contrats et à amortir la Marge de Service Contractuelle sur la période écoulée
entre la date de première comptabilisation et la date de transition.
43
Cependant, l'implémentation de cette méthode peut s'avérer très complexe. En e�et, l'application de la méthode
rétrospective requiert de nombreuses informations techniques et �nancières à la date de première comptabilisation
de chaque contrat a�n de pouvoir reconstituer les groupes de contrats, les �ux de trésorerie passés, l'ajustement
pour le risque non-�nancier.
Ces contraintes rendent l'approche souvent impraticable. Ainsi, l'IASB propose deux méthodes alternatives à
la méthode dite rétrospective pour reconstituer le bilan d'ouverture : l'approche rétrospective modi�ée et l'ap-
proche dite en � Juste Valeur �. (paragraphe C5).
If, and only if, it is impracticable for an entity to apply paragraph C3 (Retrsopective approach) for a group of insurance
contracts, an entity shall apply the following approaches instead of applying paragraph C4 :
(a) the modi�ed retrospective approach in paragraphs C6�C19, subject to paragraph C6(a) ; or
(b) the fair value approach in paragraphs C20�C24.
2) Approche rétrospective modi�ée
Lorsque l'approche rétrospective est jugée impraticable, les entités peuvent mettre en place l'approche ré-
trospective modi�ée.
L'approche rétrospective modi�ée propose des modi�cations ponctuelles à l'approche de base permettant de pal-
lier certains points particulièrement complexes de l'approche rétrospective (paragraphe C7-C8) :
Paragraphs C9�C19 set out permitted modi�cations to retrospective application in the following areas :
(a) assessments of insurance contracts or groups of insurance contracts that would have been made at the date of
inception or initial recognition ;
(b) amounts related to the contractual service margin or loss component for insurance contracts without direct parti-
cipation features ;
(c) amounts related to the contractual service margin or loss component for insurance contracts with direct participa-
tion features ; and
(d) insurance �nance income or expenses.
To achieve the objective of the modi�ed retrospective approach, an entity is permitted to use each modi�cation in paragraphs
C9�C19 only to the extent that an entity does not have reasonable and supportable information to apply a retrospective
approach.
Ainsi, si une entité ne dispose pas des moyens pour reconstituer l'information à la date de première compta-
bilisation des engagements présents dans le portefeuille, elle peut utiliser les données disponibles à la date de
transition pour identi�er les groupes de contrats d'assurance ou di�érencier les contrats participatifs directs des
autres.
La contrainte de segmentation des contrats par cohorte annuelle est annulée dans le cadre de l'approche mo-
di�ée, ce qui modi�e considérablement les Model Points utilisés et les calculs de �ux.
44
an entity shall not apply paragraph 22 to divide groups into those that do not include contracts issued more than one
year apart. (C10).
En particulier, pour les contrats sans participation directe les �ux de trésorerie à la date de première comp-
tabilisation peuvent être estimés à partir des �ux futurs à la date de transition ajustés par les �ux de trésorerie
ayant eu lieu entre la date de première comptabilisation des contrats et la date de transition. De même, l'ajus-
tement pour le risque à la date de transition est ajusté par la libération du risque entre la date de première
comptabilisation et la date de transition.
Malgré ces simpli�cations, cette approche reste di�cile à mettre en ÷uvre pour la plupart des contrats avec
participation aux béné�ces. C'est pourquoi l'IASB propose une troisième approche basée sur la mesure de la
Juste Valeur du portefeuille à la date de transition.
3) Approche Fair Value
Cette approche est celle qu'il convient de retenir lorsqu'il n'est pas possible d'e�ectuer ni une approche ré-
trospective ni une approche rétrospective modi�ée faute d'informations su�santes, raisonnables et supportables,
sans coûts ou e�orts excessifs.
Dans cette approche, la segmentation par cohorte annuelle n'est obligatoire que si l'entité dispose d'informa-
tions su�santes pour la réaliser :
In applying the fair value approach, an entity is not required to apply paragraph 22, and may include in a group
contracts issued more than one year apart. An entity shall only divide groups into those including only contracts issued
within a year (or less) if it has reasonable and supportable information to make then division. (C23).
La CSM � ou la composante de perte en cas de valeur négative � est dé�nie comme la di�érence entre la
juste valeur d'un groupe de contrat d'assurance à la date de transition et les Ful�lment Cash-Flows. La notion
de juste valeur correspond à celle dé�nie dans IFRS 13 : il s'agit du � prix qui serait reçu pour la vente d'un actif
ou payé pour le transfert d'un passif lors d'une transaction normale entre des participants de marché à la date
d'évaluation. �
L'EFRAG a mis en avant un problème posé par cette approche : L'estimation de la Juste Valeur des contrats est
très similaire aux Ful�lment Cash-Flows et l'approche risque donc de produire une CSM faible, voir nulle.
En e�et, les principales di�érences entre la valorisation des contrats en Juste Valeur et la valorisation sous
IFRS 17 proviennent uniquement d'un changement de point de vue. Les contrats sont valorisés du point de vue
d'un potentiel acheteur sur le marché en Juste Valeur. Cette nuance implique la prise en considération d'un risque
de non-performance des contrats qui doit ajuster leur valeur ainsi que l'ajout de frais généraux non comptés lors
de la valorisation IFRS 17 (car non directement attribuables à un groupe de contrats) mais considérés en Juste
Valeur a�n de re�éter les dépenses générales dues à l'appropriation et la gestion des contrats.
45
Ces di�érences restent légères et vont limiter la CSM des contrats qui ne représenterait plus tellement la
pro�tabilité d'un groupe de contrats mais plutôt la marge qu'un acteur sur le marché espère réaliser en reprenant
les contrats.
Figure 8 � Choix de l'approche à la date de transition
3.3 Justi�cation du choix de l'approche Fair Value
Ce mémoire portant sur l'optimisation de la segmentation à la date de transition, il a fallu choisir une des
approches présentées ci-dessus.
Nous nous placerons dans le cadre de l'approche Fair Value ou Juste Valeur car notre portefeuille est consti-
tué de contrat d'épargnes. Nous avons vu que pour les contrats participatifs, il est particulièrement di�cile et
couteux de se placer à la date de première comptabilisation et de reconstituer l'évolution de la CSM entre cette
période et la date de transition. Les approches rétrospective et rétrospective modi�ée semblent donc peu adaptées.
De plus, l'approche Fair Value sera probablement la plus utilisée à la date de transition. En e�et, la norme
laisse le choix de l'approche à la discrétion des acteurs en ne dé�nissant pas clairement quelles sont les � informa-
tions su�santes � qui permettent de réaliser les approches rétrospectives, et dans un tel contexte, l'approche Fair
Value qui est nettement moins coûteuse à implémenter que les autres parait attractive. Il était donc cohérent de
réaliser la valorisation du passif à la date de transition en Fair Value.
46
4 Valorisation de l'Actif en norme IFRS
4.1 Valorisation de l'actif sous IFRS 9
La norme IFRS 9 � instruments �nanciers � dé�nit l'évaluation et la classi�cation des actifs �nanciers des
bilans IFRS. L'évaluation se fait en fonction de la classi�cation. La norme propose deux méthodes :
∗ au coût amorti : � valeur attribuée à un actif �nancier ou à un passif �nancier lors de sa comptabilisation
initiale, diminuée des remboursements en principal, majorée ou diminuée de l'amortissement cumulé,
calculé par la méthode du taux d'intérêt e�ectif, de toute di�érence entre cette valeur initiale et la valeur
à l'échéance et, dans le cas d'un actif �nancier, ajustée au titre de la correction de valeur pour pertes, le
cas échéant �.
∗ à la Juste Valeur : comme dé�nie par IFRS 13 en démarquant les actifs en Juste Valeur par résultat
des actifs en Juste Valeur par OCI.
Tandis que la classi�cation se fait suivant :
∗ les caractéristiques des �ux de trésorerie contractuels de l'actif �nancier
∗ le Business Model de l'entité.
La méthode de classi�cation est présentée par la �gure ci-dessous :
Figure 9 � Test SPPI
47
4.2 Comparaison avec la valorisation de l'actif sous Solvabilité II
Sous Solvabilité II, l'actif est comptabilisé en Juste Valeur et donc en valeur de marché tandis que sous IFRS
9, les actifs peuvent être comptabilisés de 3 manières di�érentes selon leur classi�cation.
Cependant, la norme IFRS 9 autorise la comptabilisation de tous les actifs �nanciers en Juste Valeur par résultat
si cette opération élimine un mismatch comptable. Auquel cas, la valorisation des actifs sous les 2 normes sont
similaires.
4.3 Comparaison entre IFRS 17 et Solvabilité 2
Les écarts d'hypothèses et de notions actuarielles entre la norme solvabilité 2 et IFRS 17 ont été étudiés et
sont présentés dans le tableau ci-dessous.
Table 1 � Tableau comparatif entre les normes Solvabilité 2 et IFRS 17, pt1
48
Table 2 � Tableau comparatif entre les normes Solvabilité 2 et IFRS 17, pt2
49
Table 3 � Tableau comparatif entre les normes Solvabilité 2 et IFRS 17, pt3
50
Résumé de la partie :
Ainsi, la norme IFRS17 va provoquer des changements majeurs au niveau de la valorisation des engagements
d'assurance et des méthodes comptables associées a�n d'harmoniser les pratiques des assureurs à l'échelle mon-
diale. Malgré cette volonté d'uniformisation, la norme comporte de nombreuses zones discrétionnaires qui vont se
transformer en casse-tête pour les assureurs. Si certains éléments exigés par IFRS 17 peuvent être retrouvés dans
les modèles développés sous Solvabilité II tel que l'ajustement pour le risque non �nancier, la mise en place de
modèles IFRS 17 va imposer des changements dans bien des domaines, notamment au niveau de la segmentation
des contrats.
La segmentation des contrats d'assurance sous IFRS 17 se fera désormais en au moins 3 étapes :
1. une séparation par portefeuille de contrats soumis aux mêmes risques et gérés ensemble ;
2. une segmentation par niveau de pro�tabilité ;
3. une segmentation par cohorte annuelle.
Ces nouvelles contraintes vont entrainer une modi�cation des méthodes de constitution des Model Points qui sera
déterminante dans l'estimation des �ux futurs de l'assureur et de la CSM, le pro�t futur attendu. Ce nouveau
processus de segmentation va modi�er la façon d'analyser les bilans et les comptes de résultats des entités.
Dans ce contexte, la phase de transition va s'avérer déterminante puisqu'elle permettra d'assurer la comparabilité
des bilans et des comptes de résultats entre les normes IFRS 4 et IFRS 17. Sur les 3 approches éligibles pour la
constitution du bilan à la date de transition, l' approche Fair Value semble s'imposer comme la plus populaire,
notamment en raison des forts prérequis techniques et informatifs des autres approches comme présenté ci-dessus.
Dans ce mémoire, nous chercherons à mettre en place une méthode de segmentation des contrats se voulant
optimale en terme de minimisation de la perte d'information observée lors de la constitution des Model Points.
51
vgvg
52
Deuxième partie
Mise en place d'un modèle de segmentation des
contrats d'épargne sous IFRS 17
53
1 Approches pour la mise en place d'une segmentation des contrats
d'épargne sous IFRS 17
A�n de constituer des groupes de contrats homogènes, il nous faut dé�nir cette homogénéité et la quantitifer
selon un critère. Nous dé�nissons dans cette section une mesure de la dissimilarité entre deux contrats avant
de présenter des méthodes de classi�cations aptes à se r'appuyer sur cette distance pour constituer des groupes
homogènes.
1.1 Création d'une mesure de dissimilarité entre deux contrats
A�n de construire des classes de contrats homogènes du point de vue de la pro�tabilité, il faut en premier
lieu dé�nir une mesure de la dissimilarité entre deux contrats : nous allons donc dé�nir une distance
mathématique.
Les distances mathématiques sont couramment utilisées pour quanti�er la similarité entre deux objets et sont
donc parfaitement adaptées à notre problématique. Nous présentons un rappel sur les distances en annexe A.
Dans le cadre de notre recherche d'une mesure de la dissimilarité entre deux contrats, nous allons chercher à
dé�nir une distance entre deux contrats qui re�ète la dissimilarité de leur pro�tabilité.
Pour se faire, nous allons initialiser une distance euclidienne paramétrable comme suit :
d(x, y) =√α(xa − ya)2 + β(xb − yb)2 + γ(xc − yc)2 + ζ(xd − yd)2
Avec
∗ x, y des contrats d'épargnes
∗ xa, ya l'âge des assurés∗ xb, yb l'ancienneté des assurés∗ xc, yc le sexe des assurés∗ xd, yd le Taux minimum Garanti (TMG) aux assurés
∗ α, β, γ, ζ les paramètres de la distance
Ces paramètres ont été dé�nis au vu des données dont nous disposions mais il est possible d'en considérer d'autres.
Cette distance euclidienne ajustable va retourner une mesure de la dissimilarité entre les contrats qui dépen-
dra directement du poids donné à chaque paramètre du contrat.
L'idée derrière la mise en place de cette distance paramétrable est d'automatiser la dé�nition des paramètres de
la distance de manière à ce qu'elle représente au mieux la dissimilarité des contrats. Nous ignorons l'impact exact
d'un paramètre (âge, ancienneté,tmg,sexe) sur la pro�tabilité du contrat ou son importance par rapports aux
autres paramètres, ce qui complique la réalisation d'une segmentations homogène au niveau de la pro�tabilité.
Quanti�er le poids de chaque paramètre dans la mesure de la dissimilarité nous permettra d'e�ectuer des choix
de segmentation optimaux.
54
Une fois la distance d'homogénéité dé�nie, nous nous appuyons sur cette mesure pour séparer le portefeuille
du passif en groupes homogènes. C'est l'étape de classi�cation. Les dé�nitions utilisées dans les algorithmes
suivants tels que la hiérarchie ou l'inertie intra-classe sont dé�nis dans l'annexe A.
1.2 Présentation de Méthodes de Classi�cation
Nous allons maintenant prsénter di�érentes méthodes de classi�cations ayant la capacité de s'appuyer sur la
distance de dissimilarité a�n de constituer des groupes de contrats homogènes. Nous étudierons dans un premier
temps des méthodes usuelles telles que la méthode de classi�cation ascendante hiérarchique avant d'introduire
des algorithmes reposant sur un domaine mathématique peu familier à l'actuariat : la théorie des graphes.
1) Partitionnement par Classi�cation ascendante hiérarchique (CAH)
∗ Dé�nitions :
Une famille H de parties d'un ensemble d'objets E est appelée hiérarchie sur E si :
∗ chaque partie de H est non vide ;
∗ E et ses singletons, i.e toutes les parties de la forme {x} avec x ε E, sont dans H ;
∗ si A et B sont dans H, alors soit A et B sont disjointes, soit A est compris dans B, soit B est compris dans
A.
Une hiérarchie H est dite indicée si elle est munie d'une application
f : H → R+ telle que : A ⊂ B ⇒ f(A) < f(B)
On appelle indice d'agrégation δ une règle de calcul permettant de quanti�er la dissimilarité entre deux classes
déjà existantes en tenant compte des dissimilarités entre les éléments de A et les éléments de B. La liste des in-
dices d'agrégation communément utilisés est présentée ci-dessous.
Figure 10 � Indices d'aggrégation pour la méthode CAH
55
Dans le cadre de ce mémoire on a utilisé le critère de Ward. Ce critère recherche la minimisation de l'inertie
intra-classe et donc de la dissimilarité au sein d'une classe.
∗ Présentation de l'algorithme :
Soit E composé de n singletons. Soit la distance d la dissimilarité entre les objets et δ l'indice d'agrégation (entre
classes).
La classi�cation ascendante hiérarchique rassemble les éléments de E selon leur dissimilarité, dé�nie par la
distance choisie, et selon l'indice d'agrégation. La méthode opère selon les étapes suivantes :
Algorithme 1 Algorithme de Classi�cation Ascendante hiérarchique
1. a l'instant 0, H est l'ensemble des singletons de E. et ∀x∈H, f(x) = 0 ;
2. on rassemble les 2 éléments de H qui sont les plus proches au sens de l'indice d'aggrégation choisi δ parmiles éléments de H n'ayant pas déja été réunis ;
3. soit A et B les éléments réunis, f(A ∪B) est dé�nie comme étant égale à δ(A,B). On calcule les valeursde δ entre la nouvelle classe formée et les autres éléments de H ;
4. l'algorithme reprend à l'étape 2 jusqu'à obtenir une unique classe égale à E.
L'algorithme crée ainsi une suite de partition emboitées les une dans les autres jusqu'à retrouver l'ensemble
de départ E.
L'intérêt de cette méthode réside dans le fait qu'il fournit plusieurs partitions possible de l'ensemble des
éléments E. Illustrons cela avec le dendrogramme ci-dessous :
Figure 11 � Exemple de Dendrogramme
On remarque sur le dendrogramme di�érentes possibilités en terme de partitionnement de l'ensemble : Il est
possible de partitionner le graphe en trois sous-ensembles, le rouge, le rose et le vert ou en deux sous-ensemble :
le Vert et le sous-ensemble formé de la réunion des sous-ensembles rose et rouges.
56
La hauteur des branches du dendrogamme permet de visualiser la proximité des di�érentes classes et met en
évidence le fait qu'une segmentation en 2 groupes au lieu de 3 aurait un fort impact sur l'inertie intra-classe.
Là est tout l'intérêt de la méthode : elle permet de s'a�ranchir du problème du choix du nombre de classes en
quanti�ant l'impact du choix d'une partition par rapport à une autre sur l'inertie. (critère de Ward).
Cet algorithme de classi�cation non-supervisée est déjà implémenté sous R dans la librairie hclust.
2) Partitionnement par la méthode des K-moyennes
∗ Présentation de l'algorithme :
Soit n éléments d'un ensemble E que l'on cherche à séparer en k groupes le plus homogènes possibles.
L'algorithme des k-moyennes ou k-means fonctionne selon les étapes suivantes :
Algorithme 2 K-means
1. Choisir k centres initiaux : c1, c2, . . . .ck
2. On dé�nit les classe ei comme les ensembles formés du centre ci et de tous les éléments de E dont lecentre le plus proche est ci
3. Pour chaque classe ei formée, on redé�nit le centre cj =∑x∈ej
p(x)pjx avec p(x) le poids de x et pj le poids
de la classe ej
4. On répète les étapes 2 et 3 jusqu'à stabilité (les ensembles ei ne bougent plus).
Les solutions trouvées sont des optimums locaux qui minimisent l'inertie intra-classe. Il peut cependant exister
plusieurs solutions.
Le principal défaut de la méthode réside dans le fait que l'utilisateur doit connaitre le nombre k de classes
qu'il cherche à constituer, ce qui implique une étude préalable a�n de déterminer le nombre de classes optimales.
Dans le cadre de notre problème, ce défaut est sans conséquences puisqu'il n'est pas rare que l'assureur connaisse
le nombre de Model Points qu'il cherche créer. De plus, le choix des centres initiaux impacte le résultat et les
classes trouvées sont essentiellement sphériques. Ces limites nous ont poussé à ne pas sélectionner cette méthode
de classi�cation.
1.3 Classi�cation par utilisation de la Théorie des Graphes
La théorie des graphes est une branche des mathématiques qui étudie les graphes : des ensembles d'objets
reliés entre eux par des réseaux appelés arêtes. Cette discipline introduite par Leonhard Euler en 1736 est au-
57
jourd'hui utilisée dans des domaines très variés (réseaux sociaux, imagerie, génétique,etc.) et a donné naissance
à de nombreux théorèmes pouvant se révéler utiles dans la résolution de problèmes d'optimisation. C'est suite à
ces considérations que nous avons jugé intéressant d'introduire cette discipline dans un contexte actuariel.
Il est à noter que les algorithmes de classi�cation reposant sur la théorie des graphes les plus courants reposent
sur l'algorithme des �ots, présentés en annexe. L'algorithme des �ots est le plus coûteux en temps de calcul. Son
implémentation est la plus technique mais les résultats retournés sont également d'une qualité supérieure aux
algorithmes que nous présenterons par la suite, en tout cas sur des problématiques de segmentation d'images par
homogénéité. Il ne parait cependant pas adapté au problème de la segmentation de contrats au vu des di�cultés
qu'il pose et des pré-requis en terme de connaissance et n'a pas été présenté dans le coeur de ce mémoire en
conséquence. Il est présenté dans ce mémoire en annexe au vu de sa popularité dans les problèmes de segmen-
tation d'image en régions connexes répondant à des critères d'homogénéité qui est similaire sur le principe au
problème de la segmentation de contrats par homogénéité.
1) Dé�nitions utiles
Graphe : un graphe G = (V,E) est dé�ni par l'ensemble �ni V = {v1, ....vn} dont les éléments sont appe-
lés sommets, et par l'ensemble �ni E = {e1, ..., em} des arêtes.
Arête : nous appelons une arête un élément dé�ni par une paire non ordonnée de sommets et ces sommets
sont dits adjacents.
Chaîne : succession d'arêtes dont les arêtes intermédiaires ont une extrémité en commun avec l'arête précé-
dente et une extrémité en commun avec l'arête suivante.
Cycle : chaîne dont les arêtes de débuts et de �ns sont adjacentes par leur sommet libre.
Connexité : un graphe est dit connexe si, pour tout couple de sommets, il existe une chaîne les reliant.
Si un graphe n'est pas connexe, on appelle composante connexe chacune de ses parties connexes.
Arbre : graphe sans cycle et connexe.
Forêt : une forêt est un graphe dont les composantes connexes sont des arbres.
Arbre Couvrant : soit V l'ensemble des sommets, un arbre est dit couvrant s'il connecte tous les sommets
de V .
Graphe pondéré : graphe où chaque arête a un poids entier et positif (cf �gure 21).
Processus de Markov : processus où l'information utile pour la prédiction du futur est entièrement contenue
dans l'état présent du processus et n'est pas dépendante des états antérieurs.
58
L'ensemble violet dans l'illustration ci-dessous forme un cycle à gauche et un arbre couvrant à droite.
Figure 12 � Exemples simpli�és de Graphes
2) Méthodes de Segmentation des graphes
L'utilisation de la théorie des graphes à des �ns de segmentation est une pratique courante dans le domaine
de l'imagerie. En e�et, une image peut être considérée comme un graphe dont les di�érents voisinages sont des
sommets adjacents et dont on cherche à obtenir un partitionnement en régions connexes selon un critère d'ho-
mogénéité.
Une multitude d'approches di�érentes ont été utilisées pour résoudre des problèmes de segmentations par ho-
mogénéité et nous avons choisi de présenter deux types de segmentation par la théorie des graphes dans ce
mémoire :
∗ La méthode MCL (Markov Cluster Algorithm)
∗ La méthode des arbres couvrants
Nous allons donc représenter le portefeuille de contrats sous la forme d'un graphe en considérant que les contrats
sont des sommets v, qu'ils forment un ensemble connexe (il existe un lien entre tous les contrats) et que ce
lien est pondéré par la distance entre les contrats (mesurée avec la distance euclidienne paramétrable présentée
précédemment).
∗ Markov Clustering Algorithm :
L'algorithme MCL a été développé par Stijn van Dongen lors de sa thèse. Il s'agit d'un algorithme de segmenta-
tion de graphes reposant sur des simulations de �ux stochastiques dans un graphe et sur la marche aléatoire.
Rappelons le principe de la marche aléatoire :
SoitN ≥ 1 et soit (e1, .., eN ) la base canonique de ZN . Soit (Xi) une suite de variables aléatoires indépendantes
à valeurs dans {e1,..., eN}. On appelle marche aléatoire associée à la suite de variables aléatoires (Sk),k ≥ 1 où
Skest dé�ni par :
59
Sk = X1 + ...+Xk
Considérons maintenant un graphe comportant des clusters. Il y aura nécessairement plus d'arcs reliant les
points des clusters entre eux que d'arcs reliant deux cluster distincts comme illustrés dans la �gure suivante :
Figure 13 � Visualisation de la présence des arcs dans les clusters
Si une marche aléatoire partait d'un sommet d'un cluster, la probabilité de rester dans le cluster serait
nettement supérieure à celle d'en sortir. C'est de cette idée qu'est né l'algorithme : En réalisant des marches
aléatoires sur un graphe, on peut déduire l'existence d'un cluster en observant où est ce que les �ux se concentrent.
Partons par exemple du sommet 1 de la �gure précédente, si la marche est aléatoire, l'itération suivante va
alors accéder au sommet 2,3 ou 4 avec une probabilité de 13 (puisqu'il y a 3 somemts accessibles depuis le sommet
1 et que, la marche étant aléatoire, aucun sommet n'a plus de chance que les autres d'être atteint) et la probabi-
lité d'accéder aux autres sommets est nulle. En suivant cette logique on peut contruire la matrice de transition
indiquant les probabilités d'accéder aux autres sommets selon le sommet de départ : Chaque coe�cient ci,j de la
matrice de transition indique la probabilité d'atteindre le sommet j en partant du sommet i à l'itération suivante.
0 0.25 0.33 0.33 0 0 0
0.33 0 0.33 0.33 0.33 0 0
0.33 0.25 0 0.33 0 0 0
0.33 0.25 0.33 0 0 0 0
0 0.25 0 0 0 0.5 0.5
0 0 0 0 0.33 0 0.5
0 0 0 0 0.33 0.5 0
bbbb
On peut remarquer sur la matrice précédente que les clusters sont déja visibles.
La puissance R de cette matrice de transition donne les probabilités de passage d'un point à un autre après R
60
étapes de marché aléatoire. Notre matrice de transition est une chaine de Markov : son état futur ne dépend que
de son état présent et n'entretient aucune relation avec ses états passés.
Dans notre cas, le graphe que nous chercherons à segmenter est l'ensemble des contrats. Chaque contrat re-
présente un sommet et le poids des arcs correspond à l'inverse de la dissimilarité entre les contrats. Si l'on
représentait ce graphe par une matrice, nous n'aurions donc pas des probabilités en coe�cients mais l'inverse de
la distance entre les sommets.
A�n d'obtenir la matrice de probabilité, nous allons normaliser les poids : chaque coe�cient de la matrice
est divisé par la somme des coe�cients de la colonne dans laquelle il se situe. Tous les coe�cients deviennent
alors inférieurs à 1 et les arcs de poids les plus élevés (et donc de dissimilarité faible) possèdent les plus fortes
probabilités de passage. Nous obtenons alors la matrice de transition représentative de notre portefeuille. Il faut
noter qu'il est conseillé (mais non obligatoire) d'ajouter un poids dans les diagonales pour donner une chance
aux �ux de rester sur le même sommet lors d'une itération.
Lors des premières itérations (les premières puissances de la matrice de transition), les valeurs des arcs situés
dans des clusters vont augmenterà cause de leur forte connectivité tandis que ceux hors cluster seront entourés
de 0 et diminueront, c'est ce que l'on appelle l'expansion. L'algorithme va ampli�er cet e�et en s'arrêtant après
peu d'itérations et en élevant les coe�cients de la matrice à une puissance choisie avant de re-procéder à la
normalisation des coe�cients ce que nous appellerons l'in�ation. L'algorithme va alterner ces procédés jusqu'à
obtenir une convergence des coe�cients de la matrice.
Algorithme :
Algorithme 3 Markov Cluster AlgorithmSoit G le graphe valué que l'on cherche à segmenter, R la puissance de l'expansion et I la puissance de l'in�ation.
1. On détermine la matrice associée à G
2. On normalise la matrice
3. Expansion de la matrice (on l'élève à la puissance R ).
4. On procède à l'in�ation (on élève les coe�cients de la matrice à la puissance I ).
5. On répète les étapes � et 4 jusqu'à obtenir un état stable.
6. On interprête la matrice obtenue pour déterminer les clusters.
La matrice retournée par l'algorithme est de la forme suivante :
Figure 14 � Matrice en sortie de l'algorithme MCL
61
Tous les éléments non nuls d'une ligne appartiennent à la même classe.
Caractéristiques :
Il faut préciser que la convergence de l'algorithme MCL n'a pas été démontrée au cours de la thèse. L'expé-
rience a cependant montré qu'il converge presque surement.
Le nombre exact de classes requis n'est pas choisi par l'utilisateur, la méthode MCL retourne le nombre de cluster
trouvé lors de sa convergence. Il s'agit d'un avantage non négligeable comparé à la majorité des algorithmes de
classi�cation.
Il est cependant possible d'in�uencer l'algorithme en calibrant ses paramètres. Le paramètre d'expansion
permet aux �ux d'atteindre tous les sommets du graphe et le paramètre d'in�ation détermine la vitesse de
convergence et la granularité en augmentant les écarts entre les probabilités associées aux arcs. Plus l'in�ation
est forte, plus le nombre de cluster retourné augmente (et donc plus la granularité est �ne).
L'algorithme MCL est un algorithme de Cluster qui a su trouver un public par sa relative simplicité, sa
facilité d'implémentation, sa précision et son coût réduit. Il a�che cependant certaines limites, notamment au
niveau des graphes de grandes dimensions qui demandent alors une grande expansion pour une in�ation plus
limitée (a�n d'éviter de séparer le graphe en 2). Cette contrainte ralentit l'algorithme et limite la granularité.
Elle est cependant peu signi�cative dans le cadre de notre problème où les contraintes imposées par la norme
(cohortes, pro�tabilité, risques homogènes) vont considérablement réduire la taille des groupes de contrats à
segmenter. Nous avons choisi cet algorithme pour son aspect innovant et néanmoins abordable en actuariat car il
ne nécessite pas de pré-requis en terme de théorie des graphes puisqu'il repose essentiellement sur des principes
mathématiques auxquels les actuaires sont familiers (Markov, matrices de transition, etc.).
Complexité :
L'algorithme dispose d'une complexité de Θ(Nk2) où N est le nombre de sommets (donc de contrats dans
notre cas) et k est le nombre moyen d'arcs liés à un sommet. Ceci implique que cette complexité est optimisable
en remplaçant les valeurs des arcs les plus faibles par 0 (en prenant l'hypothèses que l'algorithme les aurait
lui-même remplacé par 0 au cours des itérations au vu de leur faible connectivité).
La méthode des arbres couvrants :
Nous allons maintenant présenter une méthode qui utilise une approche similaire à la méthode de Classi�ca-
tion Ascendante Hiérarchique de manière à obtenir une bonne comparabilité entre les méthodes �usuelles� et la
théorie des graphes.
Rappelons qu'un arbre couvrant est un graphe ne contenant pas de cycle et liant tous les sommets.
La méthode de segmentation choisie repose sur le fait que dans tout ensemble connexe (dont tous les sommets
sont liés), il existe au moins un arbre couvrant. Il su�t de retirer les arêtes formant des cycles comme ce fut le
cas dans la �gure 29.
62
Nous allons déterminer l'arbre couvrant de poids minimal, celui dont la somme des poids des arêtes
est le plus petit possible. Un tel arbre nous donnerait donc un ensemble comprenant tous les contrats liés les
uns aux autres par la plus petite distance possible. Le graphe ne comportant aucun cycle (il s'agit d'un arbre),
chaque retrait d'arête entrainera la division du graphe en deux ensembles connexes de poids minimal. L'approche
est illustrée dans la �gure suivante.
Figure 15 � Méthode de l'arbre couvrant de poids Minimal sur un exemple simple
Dans cet exemple simple, la première étape permet d'obtenir l'arbre couvrant de poids minimal et le retrait
des arêtes augmentant fortement l'inertie intra-classe permet la séparation du graphe en 3 classes homogènes.
Nous avons implémenté cette méthode en utilisant deux algorithmes di�érents permettant d'obtenir un arbre
couvrant de poids minimal.
a) Algorithme de Prim
∗ Théorème fondamental :
Soit X le graphe, E l'ensemble des arêtes et V l'ensemble des sommets.
On considère un graphe non orienté valué G = (X,E, V ) ainsi que l'ensemble des arbres de recouvrement notés
(X,F, V ) de ce graphe.
On note (X,F, V )→ (X ′, F ′, V ) l'ensemble des arbres de recouvrement du graphe G = (X,E, V ) qui contiennent
l'arbre A = (X ′, F ′, V ) du sous graphe (X ′, E′, V ) de (X,E, V ) (X' est strictement contenu dans X et F' est
strictement contenu dans F).
Parmi les arbres de recouvrement minimaux du graphe (X,E, V ) pour lesquels le sous-arbre A = (X ′, F ′, V )
est imposé, il en existe au moins un qui contient l'arête de valeur minimale ayant une de ses extrémités dans X ′
et son autre extrémité dans X −X ′.
63
∗ Interprétation :
Pour tout arbre A = (X ′, F ′, V ) compris dans un sous graphe du graphe de départ G = (X,E, V ), il existe au
moins un arbre couvrant de poids minimal contenant l'arête de poids minimal ayant un sommet dans X et un
sommet dans X ′.
∗ Démonstration :
Par l'absurde : Soit A un arbre sous-graphe de G. Notons V' l'ensemble des arêtes de A et V l'ensemble des
arêtes de G.
Soit F un arbre couvrant de G ne contenant aucune arête de coût minimal ayant un sommet dans X et un sommet
dans X'.
Soit b une des arêtes de coût minimal ayant une arête dans X et une dans X'. Ajouter cette arête à l'arbre F
créerait un cycle puisque F passe déjà par tous les sommets de G (c'est un arbre couvrant) et ne contient pas b
(puisqu'il ne contient pas d'arête de coût minimal reliant X et X'). Suite à l'ajout de b, on aurait donc 2 arêtes
ayant une extrêmité dans X et une dans X'.
Suite au retrait de l'arête non minimale ayant un sommet dans X et un dans X', le graphe F redevient un
arbre couvrant. Or, puisque l'on a ajouté une arête b de poids inférieur à l'arête retirée, l'arbre couvrant obtenu
possède un poids strictement inférieur à son poids original. Il n'était donc pas minimal.
Z=⇒L'arbre couvrant n'est pas de poids minimal s'il ne contient pas l'arête de coût minimal faisant la jonction
entre G et un de ses sous-ensemble convexe.
∗ Algorithme :
Algorithme 4 Algorithme de PrimSoit V l'ensemble des sommets (donc des contrats) et E l'ensemble des arêtes (distance entre les contrats).On initialise un ensemble S qui sera l'ensemble des sommets de l'arbre couvrant : S ← Contrat1Soit T l'ensemble des sommets non compris dans S. T = V \ SSoit Z l'ensemble des arêtes de l'arbre couvrant. Initialisé vide.Soit N le nombre de contrats et Cout : le coût de l'arbre couvrant, initialisé à 0.Pour N-1 itérations{∗ On cherche l'arrête (x, y) avec x ∈ S et y ∈ T de poids minimal.∗ On retire y deT .∗ On ajoute y à S et (x, y) à Z∗ Cout←Cout + Coût de (x, y)
}
A la �n de l'algorithme, les N points de l'arbre couvrant sont dans S et les N − 1 arêtes dans Z. Le poids total
de l'arbre couvrant de poids minimal obtenu est donnée par Cout.
∗ Justi�cation :
64
L'algorithme converge nécessairement vers une solution car à chaque itération, on ajoute un sommet et une arête
à l'ensemble S et ce, jusqu'à ce que tous les sommets de V soient dans S.
L'ensemble S est initialisé avec un seul contrat, il s'agit donc d'un arbre à la première itération. Or, itération
après itération, des arêtes ne formant pas de cycles (car formées de sommets situés dans des espaces disjoints)
sont ajoutés à S. L'ensemble S reste donc un arbre après chaque ajout et retourne donc bien un arbre couvrant
en �n d'algorithme, reste à véri�er que cet arbre est de poids minimal.
La démonstration se fait par l'absurde :
Soit S′ un arbre couvrant de poids minimal ayant un certain nombre d'arêtes en commun avec S. Les arbres S
et S′ ne sont pas identiques, S a au moins une arête n'appartenant pas à S′.
Notons {e1,......., en−1} les arêtes de S données dans l'ordre de l'algorithme de Prim. ei la première arête de S
n'appartenant pas à S′ et K l'ensemble des sommets donnés par les arêtes e1, ....ei−1.
Ajouter l'arête ei à S′ crée un cycle puisque S′ est un arbre couvrant et contient donc déjà une arête e0 joignant
K et S \KEn retirant cette arête, on obtient un nouvel arbre S2 de poids inférieur ou égal à S′ puisque ei ayant été choisi
par Prim dans l'ordre, on a ei ≤ e0.
Or S′ étant de poids minimal, on en déduit que S′et S2sont de poids égaux. Ce qui est absurde vu que S2a plus
d'arêtes en commun avec S que S′ .
∗ Segmentation :
Comme expliqué précédemment, une fois l'algorithme de Prim e�ectué, toute coupe dans le graphe obtenu produit
des composantes connexes de coût minimum qui dé�nirons des groupes de contrats.
Le problème reste donc de savoir
1. Où e�ectuer les coupes
2. Quand s'arrêter dans la segmentation
Dans une optique de minimisation de l'inertie intra-classe, couper les arêtes les plus grandes constitue une ap-
proche valable réduisant considérablement l'inertie intra-classe.
Le rassemblement des contrats par critère de lien minimum (en ajoutant à l'arbre le contrat le plus proche à
chaque itération) permet de représenter l'arbre couvrant obtenu sous la forme d'un dendrogramme en connectant
les sommets de l'arbre les plus proches.
Figure 16 � Agrégation par dendrogramme
65
Le critère d'arrêt reste cependant un problème récurrent. Il est possible d'arrêter l'agrégation en fonction de
l'impact qu'elle a sur l'inertie intra-classe ou plus simplement de �xer un nombre de classes souhaité.
∗ Apports de la méthode ;
La méthode d'agrégation des contrats consistant à utiliser l'algorithme de Prim est similaire à une classi�cation
hiérarchique e�ectuée avec le critère du lien minimum. Malgré cette apparente similarité, l'utilisation de l'algo-
rithme de Prim apporte de grands avantages d'un point de vue opérationnel :
Se ramener à un arbre couvrant de poids minimal avant de procéder à la classi�cation permet de réduire consi-
dérablement les calculs.
En e�et, Gower et Ross (1969) ont montré que toute les informations requises pour e�ectuer une analyse
hiérarchique avec le critère du lien minimum sont présentes dans un arbre couvrant de poids minimum. M.
Bruynhooghe a lui indiqué que les calculs nécessités par la méthode CAH varient comme le cube du nombre
d'éléments à classer alors que la méthode de Prim fournit un arbre pour lequel le temps nécessité par les calculs
selon le critère du lien minimum évoluent comme le carré du nombre d'éléments.
Il a également noté que l'algorithme de Prim n'utilise qu'une seule fois chaque distance entre deux éléments
et ne nécessite donc pas de stocker en mémoire toutes les distances entre les éléments, la mémoire nécessaire est
proportionnelle au nombre d'éléments à classer et non pas à son carré comme c'est le cas lors de l'utilisation de
la méthode CAH classique.
∗ Complexité de la méthode :
Une implémentation possible consiste à déterminer à chaque itération (et donc pour chaque sommet) parmi
les arêtes comprenant un sommet dans S l'ensemble des sommets de l'arbre couvrant, lesquelles possède leur
deuxième extrémité hors de S et garder celle de poids minimum.
Ce mode de programmation conduit à une complexité égale au nombre de sommets multiplié par le nombre
d'arêtes : Θ(|V | ∗ |E|)
b) Algorithme de Kruskal
∗ Théorème fondamental
On considère un graphe non orienté valué (X,E, V ) ainsi que l'ensemble des arbres de recouvrement notés
(X,F, V ) de ce graphe. On note (X,F → G,V ) l'ensemble des arbres de recouvrement du graphe (X,E, V ) qui
contiennent le sous-ensemble d'arêtes G qui est alors imposé.
Parmi les arbres de recouvrement minimaux du graphe(X,E, V ) pour lesquels le sous-ensemble d'arêtes G est
imposé, il en existe au moins un qui contient une des plus petites arêtes de E − G qui ne crée pas de cycle
lorsqu'on l'ajoute à G.
∗ Démonstration :
Prenons G non vide et contenant moins de n− 1 arêtes (n étant le nombre d'éléments).
Soit F un arbre de coût minimal contenant G. En ajoutant une arête de coût minimal b qui n'est pas dans G et
66
ne crée pas de cycle avec G on crée un cycle dans F (puisque F est couvrant, tout ajout d'arête crée un cycle).
Une des arêtes du cycle créé est nécessairement hors de G et possède donc un poids supérieur à b qui était une
arête de coût minimal. En supprimant une arête adjacente à b ajoutée à G et en ajoutant b on supprime le cycle
et l'on obtient un arbre couvrant de poids inférieur à celui que l'on avait précédemment. Ce qui est absurde
puisque l'arbre de départ était censé être de poids minimal.
∗ Algorithme :
Algorithme 5 Algorithme de KruskalConsidérons un graphe de n sommets et m arêtes.
1. Initialisons F l'ensemble des arcs de l'arbre couvrant de poids minimal et p le nombre d'arêtes placéesdans F .F est vide dans un premier temps et p = 0.
2. Trier les arêtes du graphes par valeur croissantes
3. Soit ei une des plus petites arêtes, on ajoute eià F et on incrémente p
tant que p ≤ n− 2 et que toutes les arêtes n'ont pas été testées{
(a) déterminer la plus petite arête non testée e0
(b) Tester si l'ajout de e0 à F ne crée pas de cycles, ajouter e0 et incrémenter p
}
∗ Justi�cation :
Tout comme l'algorithme de Prim, on observe que l'algorithme de Kruskal part d'un arbre et ajoute au fur et
à mesure des éléments sans jamais créer de cycle. On obtient donc un arbre couvrant. La démonstration de son
optimalité est comme suit :
Pour un graphe donné G, soit K l'arbre généré par l'algorithme de Kruskal et A l'arbre de poids minimum.
Nous allons montrer que K et A ont le même poids total p(K) = p(A).
Soient E(K) et E(A) respectivement les arêtes constituant K et A. Si n est le nombre de sommet de G alors
K et A ont n-1 arêtes.
Si E(K) = E(A), alors K est de poids minimum.
Si E(K) 6= E(A), alors examinons les arêtes de K prises par ordre de poids croissant. Soit q la première arête
telle que q ∈ E(K) et q /∈ E(A)
L'inclusion de q dans E(A) va créer un seul et unique cycle. Soit q,e1, , ek ce cycle.
Il existe une arête ej sur ce cycle telle que ej /∈ E(K) (sinon on a déjà un cycle dans K). On supprime le cycle
en retirant ej , 3 cas sont possibles :
Si p(ej) > p(q) on a diminué p(A) de p(ej)− p(q) ce qui est impossible.
Si p(ej) < p(q), ej formerait dans K un cycle avec les arêtes de K de poids≤ p(ej), or par choix de q, ces
arêtes étant aussi dans A ce cycle serait également dans A. Ce qui est encore impossible.
Donc p(ej) = p(q)
67
Par ce procédé on peut donc progressivement substituer toutes les arêtes de K dans A ce qui implique p(K)
= p(A) sans en modi�er le poids.
∗ Segmentation :
En aggrégeant les classes les plus proches étapes par étapes l'algorithme de Kruskal donne des partitions emboi-
tées les une dans les autres, réalisées avec le critère du lien minimum jusqu'à obtenir l'arbre couvrant optimal
qui rassemble tous les éléments dans une seule et même classe.
A partir de cette considération, la segmentation se fait plus facilement et intuitivement qu'avec l'algorithme de
Prim, il s'agit de savoir à quelle étape interrompre la construction de l'arbre couvrant de poids minimum. Le
critère de Wald reste le plus pertinent dans un contexte d'optimisation de l'inertie intra-classe.
∗ Apports de la méthode :
De la même manière que l'algorithme de Prim, l'algorithme de Kruskal a un avantage opérationnel par rapport
aux méthodes de classi�cation hiérarchique classiques.
En implémentant un algorithme qui à chaque itération ne regarde que les arêtes dont on n'a pas encore établi si
elles allaient former ou non un cycle avec les arêtes précédemment sélectionnées on obtient un gain de temps par
rapport aux algorithmes plus classiques.
Celà réduit également le besoin en mémoire. Ces paramètres sont cependant très dépendants de la manière dont
l'algorithme est codé.
∗ Complexité :
Le tri des m arêtes s'e�ectuer en mlog(m) et le test pour véri�er si une arête va créer un cycle s'implémente
en n ou log(n) selon la méthode utilisée. La compléxité globale est donc estimée à Θ(mlog(m)). La vitesse de
l'algorithme est uniquement dépendante du nombre d'arêtes.
1.4 Comparaison des méthodes de classi�cation
1) En terme d'homogénéité des classes retournées
La qualité de la segmentation se mesure par la minimisation de l'inertie intra-classe et la maximisation de
l'inertie inter-classes.
L'algorithme le plus performant est l'algorithme de classi�cation hiérarchique. En e�et, comme expliqué pré-
cédemment, l'algorithme des K-means sou�re de limitations au niveau de sa �abilité, notamment à cause des
problématiques posées par le choix des centres de départ et le caractère sphérique des classes créées. Les algo-
rithmes de théorie des graphes reposant sur la constitution d'arbres couvrant de poids minimal sont eux similaires
au CAH dans la la procédure mais la contrainte de non-formation de cycle limite les choix de segmentation et
impacte la qualité des groupes créées.
2) D'un point de vue opérationnel
En contrepartie de cette perte de qualité, les algorithmes reposant sur la constitution d'arbres couvrant o�rent
des avantages opérationnels non négligeables : Ils nécessitent en théorie une mémoire et un temps de calcul nette-
ment inférieurs. En e�et, si l'on note n le nombre d'objets à classer, la complexité de l'algorithme de Classi�cation
68
Ascendante Hiérarchique est de n3. Ce qui est très nettement supérieur aux complexités de l'algorithme de Prim
(n2) et de Kruskal ( la complexité est de n ∗ ln(n) si l'on considère que le graphe est complet. La complexité
diminue avec le nombre d'arêtes.) Ces écarts peuvent devenir très importants notamment pour les plus gros
assureurs.
Considérons par exemple 10 000 contrats : la méthode CAH classique demanderait 1∗1012 opérations, la méthode
de Prim en demanderait 1 ∗ 108, celle de Kruskal 93000 et la méthode MCL 1 ∗ 1012 (chi�re réductible selon les
hypothèses de départ).
L'algorithme CAH a l'avantage d'être courant et implémenté tandis que les algorithmes de classi�cation reposant
sur la théorie des graphes doivent être implémentés manuellement. De plus, bien que leur complexité théorique
soit nettement inférieure, atteindre cette complexité nécessite une implémentation très structurée et en program-
mation le temps de calcul ne correspond pas nécessairement à la complexité d'un algorithme, ce quinotamment
vrai sous R.
Les méthodes ont donc leur propres avantages d'un point de vue théorique. Le choix d'une méthode devrait
se faire selon le nombre de contrats à classer et les moyens technologiques dont un assureur dispose.
2 Modélisation du bilan de transition sous IFRS 17
Nous allons présenter dans cette section les grandes lignes du modèle ALM utilisé et adapté pour les besoins
de ce mémoire. Nous commencerons donc par présenter les caractéristiques générales du modèle avant de nous
recentrer sur les choix de modélisations e�ectués pour obtenir des sorties conformes à la norme IFRS 17.
2.1 Présentation du Modèle ALM utilisé
1) Objectif du modèle ALM
L'actif et le passif interagissent perpétuellement en assurance vie. En e�et, la valeur des engagements de
l'assureur dépend directement de la valeur des actifs en représentation, notamment à cause de la participation
aux béné�ces réglementaire qui oblige les assureurs à reverser au moins 85% des pro�ts �nanciers réalisés aux
assurés ainsi que 90% du résultat technique (s'il est positif).
Une autre cause d'interractions entre l'actif et le passif est le rachat : Si un assureur réalise de faibles pro�ts
�nanciers et n'arrive pas à satisfaire ses assurés, une partie de ces derniers va probablement décider de racheter
leur contrat, entrainant ainsi un besoin de liquidité immédiat pour l'assureur ainsi qu'une nette modi�cation de
ses engagements futurs.
Ces interactions doivent être prise en compte pour un assureur épargne qui doit être en mesure de les mai-
triser a�n de conserver l'équilibre actif/passif d'une part mais également de s'assurer de la bonne gestion de son
entreprise en terme de solvabilité, de liquidité et de rentabilité.
C'est dans ce contexte qu'interviennent les modèles ALM, des outils permettant de projeter des �ux a�n de
construire des bilans comptables sur l'horizon de projection.
69
2) Présentation des caractéristiques du modèle ALM
Le modèle ALM d'origine modélise la gestion de produits d'épargne en EUROS.
∗ Générateur de scénarios économiques :
A�n de pouvoir déterminer la meilleure estimations des engagements de l'assureur, l'utilisation d'un Générateur
de Scénarios Économiques (GSE) est indispensable.
En e�et, le GSE va modéliser de multiples scénarios économiques sur un horizon de temps donné et ainsi permettre
le déclenchement d'options qui ne se déclencheraient pas sur un scénario moyen. Ces scénarios comprennent :
∗ une trajectoire du taux court instantané
∗ une trajectoire des prix des zéros-coupons de maturité 1 à l'horizon
∗ une trajectoire de rendement du portefeuille d'actions
∗ une trajectoire de rendement des actifs immobiliers
Les trajectoires de taux sont modélisées à l'aide d'un modèle Gaussien à 2 facteurs (G2++) et celles des actions
et de l'immobilier sont déterminées par un modèle de Black and Scholes. La calibration du modèle a été réalisée
avec les prix des swaptions observés sur le marché au 31/12/2017. La courbe des taux à partir de laquelle sont
déterminées les trajectoires est (à l'origine) la courbe des taux sans risques avec ajustement pour la volatilité,
récupérée sur le site de l'EIOPA.
Nous avons réalisé une étude de convergence du modèle a�n de dé�nir le nombre de simulations que nous
devions utiliser au long du mémoire pour obtenir des résultats �ables. Nous avons ainsi déterminé un bilan S2
avec le modèle ALM pour un nombre de simulations variant entre 1 et 1000 et quanti�é l'écart de convergence
au bilan (le déséquilibre entre l'actif et le passif obtenus) par la formule suivante : Convergence = VM(actif)BEL+PFV P .
Les résultats sont présentés dans la �gure ci-dessous.
Figure 17 � Ecarts de convergence en fonction du nombre de simulations
70
Au vu de la stabilité des écarts de convergences observés sur le modèle pour un nombre de simulations allant
de 700 à 1000, nous avons �nalement décidé de travailler sur 750 simulations de manière à réduire le temps de
calcul sans impacter la qualité des résultats.
∗ Paramètres principaux et entrées du modèle ALM :
Le modèle ALM utilise un vaste panel de paramètres a�n de n'oublier aucun évènement possible tel que la mort
des assurés ou les rachats de contrats. Il utilise donc des tables de mortalités (une pour les femmes et une pour les
hommes)ainsi que des tables de rachats (totaux et partiels) dé�nissant la loi des rachats structurels. Les rachats
conjoncturels sont eux modélisés selon les préconisations du QIS5 de l'EIOPA.
La projection de l'actif dépend du GSE, des calibrations des modèles actions et immobiliers et de la straté-
gie d'allocation des actifs. Le modèle prend donc en entrée les scénarios issus du GSE ainsi que le portefeuille
d'actif de l'assureur (ses actifs à t=0).
La stratégie de réallocation des actifs consiste à s'assurer que l'allocation cible dé�nie est toujours respectée
(du point de vu de la Valeur de Marché des actifs).
Pour ce qui est du passif, le modèle ALM prend en entrée le portefeuille de contrats de l'assureur. Cela lui
permet de constituer les di�érentes provisions (essentiellement la PM) et d'obtenir des données telles que l'âge,
l'ancienneté ou le taux Minimum Garanti à chaque assuré. La �gure suivante présente le bilan comptable simpli�é
tel qu'il est modélisé au sein du modèle.
Figure 18 � Bilan comptable au sein du modèle ALM
A�n de gérer les projections, il faut également renseigner dans le modèle la stratégie d'investissement (dans
quels actifs investir), à quelle proportion, quelles obligations privilégier, etc.
Le modèle ALM nécessite également en entrée les frais généraux et ceux facturés à l'assuré. Les frais de gestion
associés aux contrats sont renseignés en entrée avec les caractéristiques des contrats.
Une fois toutes les entrées renseignées, le modèle ALM peut être lancé a�n de retourner les sorties attendues :
71
3) Sorties du modèle ALM
Le modèle ALM retourne un bilan prudentiel dé�ni par la norme Solvabilité 2 qui se présente comme suit :
Figure 19 � Bilan S2 simpli�é
Le BEL regroupe l'ensemble des �ux �nanciers futurs actualisés.
Explicitons les �ux intervenant :
∗ Prestations : lors de rachats ou de décès, l'assureur doit payer des prestations. Ces trois éléments dépendent
des tables renseignées en entrée du modèle ALM. Les rachats structurels et les rachats conjoncturels sont
modélisés dans le modèle.
∗ Rendement des actifs : Flux �nanciers entrants au cours du temps lorsque les obligations atteignent leur
maturité, lors des tombées de coupons, des versements de loyers issus de l'immobilier ou des versements
de dividendes.
∗ Choix d'investissement : A�n de respecter l'allocation cible renseignée en entrée, le modèle ALM peut
parfois être obligé de vendre ou d'acheter des actifs. Les plus ou moins values réalisées sont prises en
compte par le modèle.
∗ Revalorisation cible : Un taux de revalorisation cible des provisions est établi. Il est égal au TME 10ans.
S'il n'est pas atteint, le modèle puise dans la provision pour participation aux béné�ces a�n de combler le
manque. Si cette alternative est elle aussi insu�sante, les plus-value latentes sont réalisées ou une partie
des fonds propres est prélevée. Il faut préciser que la participation au béné�ce implémentée dans le modèle
ALM utilisée est de 100¨% du résultat �nancier s'il est positif et 100% du résultat technique.
Pour chaque scénario économique créé par le GSE, un �ELi � (Estimate Liability) propre au scénario i , constitué
de la somme actualisée des �ux actualisés sur ce scénario jusqu'à l'horizon de temps �xé est calculé.
Le BEL est déterminé comme étant la moyenne des ELi, puis la NAV est déterminée comme étant égale à la
valeur de marché totale des actifs diminuée du BEL.
72
Figure 20 � Fonctionnement du Modèle ALM
2.2 Modi�cations du modèle ALM propres à la norme IFRS 17
Dû aux nouveautés apportées par la normes (cf Chapitre 1), des ajustements ont dû être e�ectués sur les
entrées du modèle ALM, du GSE et sur les méthodes de calcul des éléments du Bilan a�n de calculer d'une
part les Ful�lment Cash-Flows et d'autre part la Juste Valeur des contrats. Rappelons qu'il est nécessaire de
déterminer ces deux valeurs a�n d'en déduire la CSM.
1) Taux d'actualisations utilisés sous IFRS 17
Comme expliqué dans le Chapitre I, la norme a prévu deux approches permettant de déterminer le taux
d'actualisation utilisé dans le calcul des Ful�lment Cash-Flows :
∗ L'approche Bottom-up
∗ L'approche Top-down
Nous avons choisi d'implémenter l'approche Bottom-up par soucis de simplicité.
73
∗ L'approche Bottom-up :
Elle consiste à appliquer une prime d'illiquidité dont le niveau dépend des caractéristiques du passif à la courbe
des taux sans risque.
Nous avons commencé par récupérer la courbe des taux sans risque de l'EIOPA correspondant au 31/12/2017
a�n de rester cohérent avec nos données. Le problème de la prime d'illiquidité s'est alors posé.
La norme ne donne aucune indication précise concernant le calcul de la prime d'illiquidité, il est uniquement
indiqué que les taux d'actualisations doivent re�éter la valeur temps de l'argent, les caractéristiques des �ux de
trésorerie et la liquidité du portefeuille de contrats, tout en étant cohérent avec les données de marché observables.
Nous nous sommes donc reposés sur les travaux menés par la Task Force de l'EIOPA en 2010 a�n de déterminer
une méthode de calcul de la prime d'illiquidité. Bien que le cadre de l'époque soit S2, ce choix est conforme avec
les exigences de la norme, présentées dans la première partie. La prime étant dépendante des caractéristiques du
passif de l'assureur, nous avons repris la formule de calcul d'une prime d'illiquidité pour les engagements :
RFIRateforcard,total,T,curr,i = RFIRateforward,basic,T,curr + LPloability,T,curr,i
où
∗ RFIRateforward,total,T,curr est le taux forward sans risque avec la prime de liquidité de maturité T et de
monnaie curr.
∗ RFIRateforward,basic,T,curr est le taux forward sans risque sans la prime de liquidité de maturité T et de
monnaie curr.
∗ LPloability,T,curr est la prime de liquidité telle que LPloability,T,curr = F (T, curr) ∗G(T ) ∗ LPassets
Avec, pour N la plus longue maturité où des actifs permettant d'obtenir une prime de liquidité peuvent être
achetés dans un marché transparent,
∗ F (T, curr) = 1si 0 ≤ T ≤ N − 5
� F (T, curr) = N−T5 si N − 5 ≤ T ≤ N
� F (T, curr) = 0 sinon
� G(T ) dépend de la prédictibilité des �ux de trésorerie a maturité T.
� LPassets est la prime de liquidité calculée pour les actifs.
A�n de calculer LPasset, nous avons utilisé le proxy proposé par la Task Force :
LPasset = Max(0;x ∗ (Spread− y))
� Spread le spread entre les obligations d'entreprises et la courbe des taux sans risques.
� y la proportion du spread allouée aux pertes attendues sur le long terme.
� x la proportion restante que l'on considère comme la prime de liquidité.
Cette méthode proposée par la Task Force de l'EIOPA sur la prime d'illiquidité repose sur la considération que
le spread est a�ecté par di�érents éléments tels que le risque de crédit, le risque dû à la gestion des dépenses,
etc, et que seule une partie du spread est attribuable au risque de liquidité.
Cette méthode de détermination de la prime d'illiquidité comporte de nombreux paramètres qu'il n'a pas été
évident de déterminer. Au vu de l'aspect secondaire de la détermination du taux d'actualisation dans ce mémoire
orienté sur la segmentation, nous avons émis des hypothèses lorsque nous ne pouvions pas déterminer un para-
mètre : Nous avons ainsi conservé les valeurs choisies par la Task Force en considérant x = 0.5 et y = 0.4
74
Le Spread a été déterminé comme étant l'écart entre le taux EIOPA forward 10 ans au 31/12/2017 et le taux
d'actualisation moyen retenu par les entreprises au 31/12/2017 (selon l'indice Iboxx Corporate AA).
Le spread calculé était de 0.5% au 31/12/2017 ce qui donne une prime de liquidité pour les actifs de
Max(0; 0.5 ∗ (0.5%− 0.4%)) = 0.05%.
G(T ) a été choisi égal à 100% en considérant que pour un nombre su�samment grand de simulations, les �ux de
trésorerie seraient considérés comme prévisibles.
La prime d'illiquidité, égale à F (T, curr) ∗ 1 ∗ 0.05%obtenue est présentée dans le graphe suivant :
Figure 21 � Courbe de la prime de liquidité
La courbe obtenue est donc extrêmement proche de la courbe des taux sans risques comme l'illustre le graphe
suivant :
Figure 22 � Courbe des taux Forward avec ajustement par la prime de liquidité
75
∗ Choix de la méthode de détermination des taux d'actualisation pour le calcul des Ful�lment
Cash-Flows :
Pour e�ectuer toutes nos simulations, nous avons par la suite sélectionné la méthode Bottom-up dont l'implé-
mentation nous a paru plus simple et �able que la Top-Down.
∗ Choix de la méthode de détermination des taux d'actualisation pour le calcul de la Juste
Valeur :
La Juste Valeur au sens d'IFRS 13 représente à la valeur de marché. Nous avons donc adopté une approche
Solvabilité II et choisi d'actualiser les �ux de trésoreries avec la courbe des taux ajustée par la correction pour
la volatilité (Volatility Adjustment).
Figure 23 � Comparaison des taux ajustés
2) L'ajustement pour le risque non �nancier
Nous avons choisi d'implémenter les 3 approches les plus populaires permettant de calculer l'ajustement pour
risque non �nancier sous IFRS17 :
∗ Par la Value at Risk (VaR) :
La VaR mesure la perte potentielle maximale sur la valeur d'un portefeuille sur un horizon donné avec un
intervalle de con�ance dé�ni.
La V aR de niveau de con�ance α est la perte sur l'intervalle de temps �xé qui ne sera dépassé que dans
1− α% des scénarios : P (perte > V aR) = 1− α
Nous avons donc dé�ni le niveau de con�ance (α = 85%) et déterminé l'ajustement pour le risque non �nan-
cier comme étant égal à la di�érence entre notre meilleure estimation des �ux futurs actualisés et le quantile 85%
de la distribution des �ux futurs actualisés.
AjustementV aR = quantile(85%)−BE.
76
∗ Par la Tail Value at Risk (TVaR) :
La TVaR se concentre sur les conséquences d'évènements extrêmes : Soit α le niveau de con�ance, la TVaR
détermine la moyenne des VaR de niveau de con�ance supérieur à α.
TV aR(X,α) = 11−α´ 1
αV aR(X, t)dt
On a gardé le niveau de con�ance à α = 85% par soucis de comparabilité et déterminé l'ajustement pour le
risque non �nancier étant égal à la moyenne de la distribution des �ux futurs actualisés supérieurs au quantile
90%. AjustementTV aR = Moyenne(quantiles(α > 85%))−BE
∗ Par le Coût du Capital :
Il est possible d'implémenter une méthode d'ajustement pour le risque �nancier basée sur la méthode du coût
du capital utilisé sous Solvabilité II pour déterminer la marge de Risque.
Nous allons pour cela utiliser l'approximation 4 par l'approche de la duration :
RM = CoC1+r1
Dur0 ∗ SCR0
∗ RM l'ajustement pour le risque non �nancier.
∗ CoC = 6% Le taux du Coût du Capital,
∗ r1taux d'actualisation
∗ Dur0 Duration modi�ée en t = 0
∗ SCR0 SCR en t = 0
A�n d'implémenter cette approximation, il nous a fallu déterminer tous les termes de l'équation :
∗ Dur0
La duration du portefeuille obligataire se calcule comme suit :
1. Déterminer le prix du portefeuille : P =∑tCashFlows(t)
(1+rt)
2. On déduit la duration : D = 1P
∑t t∗CashFlows(t)
(1+rt)
∗ SCR0 = FP0 − q0,5%(FP1 ∗ actualisation)
Choix de méthode d'ajustement pour le risque non �nancier pour la valorisation sous IFRS 17 :
La méthode du Coût du Capital est pratique à mettre en place pour les assureurs puisque les modèles dé-
veloppés sous Solvabilité II permettraient d'implémenter facilement l'ajustement pour le risque. Cependant, son
application provient d'une approche plus règlementée et générale qui, pour nous, ne coïncide pas totalement avec
la dé�nition de � compensation requise pour couvrir le risque non �nancier �. Cette dé�nition induit une notion
d'appétit au risque propre à chaque assureur que la méthode du Coût du Capital ne prend pas en compte. C'est
en suivant cette logique que nous nous somme intéressés aux méthodes à quantile (VaR, TVaR) où le niveau de
con�ance est dé�nit par l'assureur.
La méthode de la TVaR produit l'ajustement pour le risque non �nancier le plus élevé et de loin. Il parait
77
un peu excessif et pour un niveau de con�ance signi�catif, le montant imposé à l'assureur serait trop élevé.
Nous avons donc choisi d'utiliser la méthode de la VaR qui a l'avantage de prendre en compte l'appétit au
risque de l'assureur et également d'être la méthode la plus simple à implémenter. Il reste cependant à véri�er
la largeur de la queue de distribution des Best Estimate. En e�et, en cas de queue épaisse de distribution, les
méthodes reposant sur les quantiles perdent en pertinence car elles négligent un risque de perte extrême.
Choix de méthode d'ajustement pour le risque pour la valorisation en Juste Valeur :
Au vu des résultats et conclusions présentées ci-dessus, il nous a paru judicieux d'utiliser la méthode du Coût du
Capital pour déterminer la Juste Valeur des contrats d'épargnes.
En e�et, ce choix contrairement aux deux autres méthodes ne dépend pas d'un paramètre re�étant l'appé-
tence au risque et correspond donc à une visions plus neutre qu'aurait un potentiel acheteur sur le marché. De
plus, comme expliqué dans la première partie, il existe un risque que la Juste Valeur et les Ful�lment Cash-Flows
soient égaux et produisent une CSM nulle. En variant les méthodes d'estimation des composantes, on crée des
divergences qui aboutiront à la création de CSM ou de perte au résultat.
Cependant, ce mémoire porte avant tout sur la segmentation des contrats et l'utilisation d'un ajustement pour
le risque plus modullable comme celui retourné par la VaR où l'on peut choisir le niveau de con�ance nous o�re
plus d'in�uence sur la répartition des contrats onéreux et donc plus de possibilités en terme de classi�cation.
Nous avons donc décidé d'utiliser la méthode VaR.
3) Ful�lment Cash-Flows Une fois que les taux ont été remplacés dans l'input du Générateur de Scénarios
Économiques a�n de correspondre aux conditions imposées par la norme IFRS 17 et que l'ajustement pour le
risque non �nancier a été implémenté, le modèle ALM a calculé les Ful�lment Cash-Flows comme étant la somme
actualisée des �ux à laquelle s'ajoute l'ajustement pour le risque non �nancier.
4) Adaptation des calculs à la maille Model Points
∗ Création des Model Points
Une fois les contrats regroupés en classes homogènes, le programme procède à la création du Model Point associé
à chaque classe comme suit :
∗ la Provision mathématique d'un Model Point est déterminée comme étant égale à la somme des PM des
contrats qui le composent ;
∗ l'âge, l'ancienneté et le Taux Minimum Garanti associés au Model Point est la moyenne de ces paramètres
pour les assurés des contrats qui composent le Model Point. Il faut noter que l'âge et l'ancienneté sont
arrondis à l'entier le plus proche en cas d'obtention d'un nombre décimal ;
78
∗ le sexe est lui déterminé par la majorité et est féminin en cas d'égalité ;
∗ les frais gardent leur valeur unitaire, ils seront multipliés dans le modèle ALM par le nombre de contrats
composant le Model Point.
Illustrons la création du Model Point par un exemple simpli�é :
Figure 24 � Création d'un Model Point
A�n de réaliser les calculs à cette maille plus �ne, des ajustements ont dû être apportés au modèle ALM.
Une segmentation des �ux de trésorerie par Model Point a été instaurée, les frais généraux ont été retirés car
non attribuables à des groupes de contrats, ils ne doivent pas impacter leur pro�tabilité.
A�n de garder un bilan équilibré, les actifs sont ajustés aux Model Points. Cet ajustement est réalisé par une
règle de 3 : On détermine un ratio = PMModelPoint
PMtotaleet l'on multiplie la valeur des actifs en représentation de
l'ensemble des contrats par ce ratio. L'équilibre est alors conservé puisque la PM constitue l'ensemble du passif
en représentation des actifs (les autres provisions et les fonds propres ont été initialisés à 0).
Du fait de cette méthode d'équilibrage, la composition du portefeuille en terme de stratégie d'allocation ou de
liquidité à l'actif reste identique pour tous les actifs, ce qui justi�e le fait d'utiliser la même prime de liquidité et
donc le même taux d'actualisation pour tous les Model Points.
L'ajustement pour le risque �nancier est de même déterminé suivant la méthode de la VaR sur chaque dis-
tribution des �ux futurs actualisés associée aux Model Points.
Les calculs à la maille Model Points de la Fair Value s'e�ectuent suivant la même logique.
2.3 Back testing
A�n de véri�er la cohérence des résultats produits, quelques tests simples furent réalisés :
1) Véri�cation de l'équilibre des bilans
79
Le premier test porte sur l'équilibre du bilan à la sortie du modèle ALM : il s'agit de véri�er qu'à la sor-
tie du modèle ALM de base
∗ BE +NAV = VM(actifs)
∗ FondsPropres+ Engagements = V aleur NetteComptable des actifs
Une fois que la validité du modèle de base a été con�rmée, il convient de contrôler que les modi�cations e�ectuées
a�n de s'adapter à la norme ne déséquilibrent pas le bilan. On cherche à obtenir :
∗ NAV + CSM + FCF = VM(actifs)
2) Tests de cohérence entre les calculs au global et par Model Points
Le deuxième test réalisé porte sur la qualité des calculs de Ful�lment Cash-Flows par Model Point : Il s'agit
de véri�er que ∑FCF (ModelPoints) = FCF (Total)
Une fois en possession d'une mesure d'homogénéité, d'algorithmes de cluster capable de constituer des groupes
homogènes et d'un modèle ALM permettant de déterminer le bilan à la date de transition, interessons nous
maintenant à la dé�nition d'une mesure de la qualité des segmentations retournées etau choix d'un algorithme
d'optimisation qui saurait, en utilisant tous les éléments cités précédemment, produire des bilans successifs sur
lesquels on pourra observer la minimisation de la perte d'information due à la construction des Model Points,
signe que la segmentation gagne en qualité à chaque itération.
3 Quanti�cation de la qualité d'une méthode de segmentation des
contrats sous IFRS 17
Optimiser la segmentation des contrats signi�e produire successivement des segmentations que l'on amélio-
rera étape après étape jusqu'à obtenir un résultat satisfaisant. Pour ce faire, il est donc indispensable de pouvoir
quanti�er la qualité d'une méthode de segmentation utilisée et donc de pouvoir attribuer un score à chaque seg-
mentation. Cette section présente le raisonnement ayant mené à la quanti�cation de la qualité des segmentations
retournées.
3.1 Dé�nitions d'indices de qualité d'une méthode de segmentation de contrats
sous IFRS 17
Il a fallu redé�nir dans un premier temps les objectifs de la segmentation, ce que l'on attend des Model Points
qui vont être constitués. Nous avons décidé de nous concentrer sur 3 critères :
1. La �abilité : l'agrégation en Model Point résultant de la segmentation des contrats va naturellement
modi�er les calculs et donc les valeurs en sortie du modèle ALM. Par exemple, la CSM obtenue par un
nombre n de Model Points sera nécessairement di�érente de celle qui avait été obtenue en considérant les
contrats de manière unitaire. L'agrégation provoque donc une distortion de la réalité, nous allons poser
comme objectif d'obtenir une CSM agrégée qui se rapproche autant que faire se peut de la CSM unitaire
80
obtenue par les contrats considérés de manière unitaire. Ce résultat devrait être obtenu si nos contrats
forment des groupes su�sament homogènes.
2. La stabilité : la norme précise que les groupes créés ne peuvent pas être changés. A�n que ces groupes
restent cohérents au cours des années à venir il est important que les contrats assemblés évoluent de
façon similaire : il parait logique de souhaiter éviter que dans quelques années certains des groupes créés
contiennent à la fois des contrats pro�tables et des contrats onéreux. C'est cette notion qui justi�e la
création d'une classe à part pour les contrats dont on ne peut pas a�rmer qu'ils possèdent une chance
non signi�cative de devenir onéreux.
3. La maitrise du résultat futur : les calculs de CSM impactent directement les comptes de résultats à
travers di�érents méchanismes :
∗ la comptabilisation immédiate au résultat en tant que perte en cas de contrat onéreux ;
∗ le relâchement de la CSM au résultat en fonction des Coverage Units ;
∗ les variations dans les estimations de la pro�tabilité des contrats.
Dans un tel contexte, la bonne classi�cation des contrats est primordiale a�n de conserver des résultats
les plus lisses possibles et de préférence positifs. Il faut rappeler que l'estimation de la CSM associée aux
Model Points en approche Fair Value ne représente pas réellement la pro�tabilité des contrats mais plutôt
la marge qu'un acteur du marché espère obtenir en achetant les contrats. Cette CSM est, comme nous
avons pu le constater dans les applications, sensible aux paramètres de modélisation choisis tels que le
choix de méthode de calcul de l'ajustement pour le risque non �nancier.
Cependant, le caractère �gé des groupes de contrats constitués, le principe d'écoulement de la CSM
au long des années et la comptabilisation des écarts d'estimation au résultat rendent le premier compte de
résultat qui sera produit extrêmement sensible à la CSM calculée à l'ouverture et donc à la classi�cation
des contrats.
3.2 Implémentation d'une méthode de scoring de la segmentation
A�n de prendre en compte tous ces objectifs, il a fallu mettre en place une fonction de scoring, capable de
quanti�er la qualité avec laquelle la segmentation réalisée remplit les objectifs présentés précédement.
Pour ce qui est de la �abilité de la segmentation obtenue, nous avons calculé l'écart relatif entre la CSM retour-
née par les Model Point et la � vraie CSM �. Ecart = |CSMtheorique−CSMModelPoint
CSMtheorique|. Nous avons considéré que la
stabilité serait atteinte si les groupes constitués étaient su�samment homogènes.
81
4 Utilisation d'Algorithmes métaheuristiques pour optimiser la cali-
bration de la mesure de dissimilarité entre deux contrats
A�n de résoudre des problèmes d'optimisations et de décisions rapidement, des algorithmes sacri�ant une
partie de leur précision a�n d'optimiser le temps de calculs se sont développés : les algorithmes heuristiques.
Ils fonctionnent en allant d'une solution à une autre de manière intelligente a�n de se rapprocher de celle optimale.
Cependant, ces algorithmes ont tendance à converger vers des optimum locaux et sont donc très dépendants du
voisinage des solutions.
C'est avec la complexi�cation des problématiques posées et la volonté d'améliorer les solutions tant en temps
qu'en qualité que de nouveaux algorithmes ont été mis en place : les algorithmes métaheuristiques, plus perfor-
mants que les précédents et notamment aptes à éviter la convergence vers des optimums locaux.
A�n d'optimiser les paramètres de la distance mesurant la dissimilarité entre deux contrats, nous avons choisi
d'utiliser deux algorithmes métaheuristiques inspirés de phénomènes naturels : l'algorithme de la colonie de
fourmis et le recuit Simulé.
Nous allons dans un premier temps présenter ces algorithmes avant d'expliquer leur adaptation à notre
problème de segmentation des contrats d'épargnes en euros.
4.1 Algorithme de la colonie de foumis
Comme annoncé précédemment, de nombreux algorithmes métaheuristiques sont inspirés de phénomènes na-
turels. Il existe une famille d'algorithmes illustrant parfaitement cette tendance : Swarm intelligence Algorithms
ou �algorithmes d'intelligence en essaim�.
L'intelligence en essaim est le phénomène qui permet à des animaux au comportement simple lorsqu'ils agissent
seuls d'obtenir une �conscience� en groupe, une intelligence collective lorsqu'ils agissent en essaim qui va leur
permettre d'agir de manière plus e�cace, organisée et adaptative. Les exemples les plus célèbres étant les nuées
d'oiseaux et les colonies de fourmis.
1) Principe
L'algorithme de la colonie de fourmis s'inspire des observations qui ont été réalisées sur le comportement
des fourmis lorsqu'elles cherchent une source de nourriture pour la colonie :
Lorsque la colonie part à la recherche d'une source de nourriture, chaque fourmi part explorer les environs.
Elles e�ectuent leur recherches séparément et empruntent donc des chemins di�érents dans un premier temps.
Lorsqu'elles trouvent une source de nourriture, elles ramènent la nourriture à la colonie tout en laissant des
phéromones volatiles sur le chemin du retour, ces phéromones ayant pour e�et d'attirer les autres fourmis.
Ainsi, sur un temps donné, la fourmi ayant trouvé le chemin le plus court vers la source de nourriture e�ectuera
plus d'aller-retour que les autres et laissera donc une plus grande quantité de phéromones sur ce chemin optimal.
82
Ces phéromones vont attirer les autres fourmis et donc augmenter la probabilité qu'elles empruntent ce che-
min. Si en e�et elles utilisent le chemin optimal, leur passage augmentera le nombre de phéromone et c'est donc
naturellement qu'au bout d'un certain temps quasiment toutes les fourmis emprunteront le chemin le plus court.
Figure 25 � Principe de l'algorithme de la colonie de fourmis
2) Présentation de l'Algorithme
Algorithme 6 Algorithme de la colonie de fourmisInitialisation : création de plusieurs solutions aleatoires : Il s'agit de di�érents chemin empuntés par les fourmis,les paramètres caractérisant la solution représentent des arêtes du chemin.
1. Quanti�cation de la qualité de ces solutions par une fonction de scoring.
2. Attribution des phéromones : plus une solution est bonne (plus le score retournée par la fonction estélevée), plus le nombre de phéromones attribuées aux paramètres de cette solution augmente.
3. Tant que le critère d'arrêt de l'algorithme n'est pas atteint{∗ création de nouvelles solutions : leur choix garde un aspect aléatoire mais est in�uencé par la quantitéde phéromones associé à chaque paramètre ;
∗ quanti�cation de la qualité des solutions ;∗ attribution des phéromones aux paramètres et retrait des anciennes phéromones selon la volatilité desphéromones.
}
L'algorithme est censé converger : retourner la solution optimale et les paramètres associés.
3) Caractéristiques de la méthode
L'algorithme de la colonie de foumis a l'avantage d'être extrêmement �exible. Il s'adapte à beaucoup de
problèmes di�érents et ne nécessite pas de calibration complexe. Il est préférable de choisir la représentation des
phéromones et la modélisation de leur impact sur le choix des solutions générées de manière e�cace mais ces
éléments ne représentent pas des obstacles à la convergence de l'algorithme.
Le critère d'arrêt est le seul point délicat. Une solution courrante est de dé�nir un nombre d'itérations �xées,
de manière à être sur que l'algorithme s'arrêtera. Dans le cadre d'un problème d'optimisation où l'on cherche à
83
minimiser un critère, il est courant de choisir un niveau de tolérance par rapport à une solution 100% parfaite
(erreur nulle) et de faire tourner l'algorithme jusqu'à ce que l'erreur associée à la solution générée soit inférieure
au seuil de tolérance.
Le choix de cet algorithme a été motivé par sa �exibilité qui a permis son adaptation au problème traité et
par les excellents résultats qu'il nous avait retourné lors de ses précédentes utilisations.
Cet algorithme dispose cependant d'inconvénients non négligeable qu'il convient de présenter :
∗ Le temps de convergence est inconnu. S'il est certain que l'algorithme convergera, la durée menant à cette
convergence ne peut pas être déterminée par une étude théorique, ce qui nous mène au deuxième point.
∗ L'algorithme ne peut être étudié par une analyse théorique, il repose sur une série de décisions aléatoires
dépendantes les unes des autres et fonctionne donc au cas par cas à l'expérience.
4) Adaptation au problème de segmentation
Nous recherchons dans ce mémoire à rendre la distance mesurant la dissimilarité entre deux contrats (du
point de vue de la pro�tabilité) la plus pertinente possible a�n que les algorithmes de clustering l'utilisant pro-
duisent des classes de pro�tabilité homogènes.
Dans ce contexte, les chemins jusqu'à la source de nourriture seront représentés par les combinaisons formées des
4 poids qui pondèrent la mesure de distance, α, β, γ et ζ :
Par exemple α = 1, β = 1, γ = 1, ζ = 1 constitue un chemin et α = 1, β = 0.5, γ = 0.5, ζ = 2 est un deuxième
chemin.
∗ Le score associé à chaque segmentation est égal à l'écart relatif entre la CSM totale calculée contrat par
contrat et la CSM des Model Points. Si cet écart relatif dépasse les 100%, le score retourné sera 1.
La valeur 100 ∗ (1 − score) déterminera le nombre de phéromones laissées par une fourmi empruntant le
chemin dé�ni par les paramètres α, β, γ et ζ à l'origine de la segmentation qui a produit le score. Ainsi,
plus l'écart relatif sera faible (et donc la segmentation performante), plus le nombre de phéromones sera
élevé.
∗ Ces phéromones sont alors attribuées à chaque paramètre de la distance proportionnellement à leur im-
plication dans la segmentation :
Par exemple : si la segmentation de paramètres α = 1, β = 0.5, γ = 0.5, ζ = 2 a produit 80 phéromones,
alors on attribue 80 ∗ 1 = 80 phéromones à α, 40 à β, 40 à γ et 160 à ζ.
∗ Tout comme les phéromones guident les fourmis, le nombre de phéromones attribué à chaque paramètre
in�uence le poids que l'on lui donnera lors de la prochaine itération.
Ainsi, le paramètre α aura une probabilité 8080+40+40+160 = 0.25 d'être sélectionné dans le tirage aléatoire
qui déterminera les prochains poids.
Par la même opération, les paramètres β et γ auront une probabilité associée de 4080+40+40+160 = 0.125 et
ζ aura une probabilité 16080+40+40+160 = 0.5.
84
∗ Une fois les probabilités dé�nies, on procède au tirage du nouveau chemin vers la source de nourriture :
Les paramètres α, β, γ et ζ sont initialisés à 0. Puis on réalise un tirage aléatoire de 40 nombres en 0 et
1. Chaque nombre tiré au sort sera associé à un paramètre : ainsi si le nombre tiré est compris entre 0 et
0.25 (0.25 de probabilité) on considère que le paramètre α a été tiré au sort. Si le nombre aléatoire est
entre 0.25 et 0.375 (0.125 de probabilité) on considère que le paramètre β a été tiré au sort et ainsi de
suite en suivant la logique instaurée par les probabilités associées à chaque variable.
A chaque fois qu'on considère qu'un paramètre a été tiré au sort, on incrémente sa valeur de 0.1.
A l'issue des 40 tirages on obtient donc 4 paramètres dont la somme est égale à 4. Ce seront les paramètres de
la distance quantiti�ant la dissimilarité entre deux contrats. Le nouveau chemin vers la nourriture est prêt.
Remarques :
∗ L'exemple ci-dessus est simpli�é pour la compréhension. Il a été présenté comme si un seul chemin était
généré à chaque itération de l'algorithme mais lors de l'implémentation, plusieurs chemins (plusieurs
segmentations reposant sur des distances de paramètres di�érents) sont utilisés simultanéments. Les phé-
romones accordées aux paramètres suite au score de chaque chemin s'additionnent et c'est sur le total
des phéromones obtenues auquelles on ajoute les phéromones déja associées aux paramètres (suite aux
itérations précédentes) que sont déterminées les probabilités associées à chaque paramètre.
∗ Les phéromones sont volatiles : les phéromones attribuées aux paramètres suite au score de l'itération 1
ne sont plus prises en compte à partir de l'itération 3.
4.2 Algorithme du Recuit Simulé
Le recuit simulé constitue un autre exemple d'algorithme métaheuristique basé sur des phénomènes observés :
la source d'inspiration de l'algorithme vient cette fois d'un procédé metallurgique
Le principe métallurgique est le suivant, a�n de modi�er la structure cristalline d'un matériau, on le chau�e
tout d'abord à une température très haute a�n de le rendre liquide et donc plus malléable, les atomes peuvent
alors circuler de façon libre et peuvent ainsi être disposés comme on le désire. Ensuite, on refroidit le métal de
façon contrôlée, continue et lente a�n de rendre le métal solide mais sans défaut.
Un refroidissement lent permettra ainsi d'obtenir un cristal parfait, les atomes se rangent dans l'équilibre le plus
parfait possible tandis qu'un abaissement rapide de température permettra d'obtenir du verre avec des défauts
plus importants. Si la con�guration voulue n'est pas satisfaisante, il su�t de réchau�er le métal et de recommen-
cer.
Grâce à cette méthode, on peut contrôler la con�guration des atomes de manière à ce que le niveau d'énergie
soit plus faible et ainsi obtenir une disposition optimale.
Les variations d'énergie ont lieu suivant la probabilité de Boltzmann pi = e−βEi
Z avec E l'énergie, β un facteur
et Z un facteur de normalisation.
85
1) Présentation de l'Algorithme
Algorithme 7 Recuit Simulé dans le cadre d'un projet de minimisation du scoreInitialisation d'une température initiale T su�samment haute.Choix du facteur de refroidissement, de la condition d'arrêt (température minimale) et du nombre d'itérations àe�ectuer entre chaque baisse de température.
Création aléatoire d'une solution : solution1Quanti�cation de la qualité de la solution générée. Qualité = score1tant que (T > ConditionArret ){∗ Pour iterateur allant de 1 à NbIterations{
∗ Création d'une solution voisine (proche de la première) : solutionV oisine� Quanti�cation de la qualité de cette solution : qualité = score2� ∆ = score2− score1� si ∆ < 0 (ce qui signi�e que score1 > score2 )
� score1← score2� solution1← solutionV oisine
� sinon, si ∆ > 0
� e�ectuer score1← score2 et solution1← solutionV oisine avec la probabilité e−∆
Temperature
} (�n boucle Pour)T ← T ∗ facteurDeRefroidissement} (�n boucle tant que)
2) Méthodologie de l'algorithme
L'algorithme va donc générer des solutions aléatoires proches de sa solution principale et comparer les va-
leurs obtenues. Si la nouvelle solution générée est meilleure, elle devient la nouvelle solution principale. Dans le
cas contraire, elle peut tout de même devenir la solution principale avec la probabilité e−∆
Temperature , ∆ étant l'écart
entre la qualité des solutions et T étant la température actuelle. Cette méthode permet d'éviter à l'algorithme
de rester bloquer à un optimum local :
Figure 26 � Problème des minimum locaux
La �gure précédente illustre un problème récurrent pour algorithmes heuristiques, le risque qu'ils restent
bloqués sur un optimum local (cercles en tirets). En donnant la possibilité aux solutions de moins bonnes qualité
86
de devenir les solutions principales de l'algorithme, le recuit simulé se donne les moyens d'éviter ce problème.
Dans le cadre d'un problème de minimisation comme illustré par la �gure précédente, les solutions choisies par
le recuit simulé comme solutions principales peuvent remonter la pente à la recherche d'autres minimums.
Cette probabilité augmente avec la température qui doit donc être initialisée su�samment élevée a�n de donner
à l'algorithme la possibilité d'explorer de nombreuses solutions dans un premier temps.
Le choix des paramètres est la di�culté majeure posée par le recuit simulé. Il est di�cile de trouver une ca-
libration optimale, l'expérience joue un rôle important dans la dé�nition de la température initiale, du facteur
de refroidissement et des critères d'arrêt.
Par exemple, s'il est vrai que la température initiale doit être su�samment élevée pour permettre à l'algorithme
de tester de nombreuses solutions, elle ne doit en aucun cas être trop importante, sinon les premières itérations
sont inutiles (quasiment toutes les solutions seront acceptées comme solution principales à chaque itération et
l'on se retrouvera sur une solution aléatoire, pas nécessairement meilleure que la première choisie).
Avantages :
∗ Le recuit simulé reste cependant un algorithme métaheuristique rapide, relativement simple d'implémen-
tation et extrêmement �exible. Il a souvent été cité pour son utilisation dans la résolution du problème du
voyageur de commerce mais s'est adapté sans problème à notre problème d'optimisation des paramètres
d'une distance qui est pourtant très di�érent.
∗ Il converge presque surement vers un optimum global si le nombre d'itération est su�samment élevé.
3) Adaptation au problème de segmentation
1. Une température initiale est initialisée arbitrairement à 300°, choix réalisé au vu de nos expériences passées
avec cet algorithme.
2. On crée les paramètres α, β, γ et ζ de la distance de manière aléatoire (en respectant le fait que la somme
des quatre paramètres doit être égale à 4).
On détermine le score associé à la segmentation déterminée par les paramètres précédents comme étant
l'écart relatif entre la CSM obtenue par lesModel Points et la CSM globale contrats par contrats. Nommons
le résultat Score1. Il s'agit de notre solution principale.
3. On crée un paramétrage voisin, proche de celui de la solution principale.
4. On détermine Score2, le score de la nouvelle segmentation.
5. Notons ∆ = Score2− Score1∗ Si ∆ est négatif (ou nul), alors le Score1 est supérieur (ou égal) à Score2.
Vu que le score correspond à l'erreur relative, nous sommes dans un problème de minimisation. On
peut donc dire que la segmentation voisine est la meilleure. Dans ce cas-là, Score1 prend la valeur de
Score2 et la solution voisine devient la solution principale.
87
∗ En revanche, si ∆ est positif. Alors la solution principale est la meilleure. Cependant, on donne une
chance à la segmentation voisine de prendre sa place : La segmentation voisine a une probabilité
e(−∆/Temperature) de devenir la solution principale.
Pour gérer cette probabilité, on e�ectue un tirage aléatoire, si le nombre obtenu est inférieur à la
probabilité, on procède au remplacement, sinon la solution principale reste inchangée.
6. Puis les étapes 3,4,5 sont répétées selon le nombre d'itérations �xé à l'initialisation.
7. La température est réduite d'un cran (divisée par 10) et l'on répète les étapes à partir de la 3 jusqu'à
atteinte du critère d'arrêt.
Le facteur de refroidissement choisi est classique : La température est divisée par 10 à chaque itération.
Pour ce qui est de la dé�nition du critère d'arrêt de l'algorithme, nous avions originalement choisi d'utiliser
le pourcentage d'acceptation :
p =Nombre de changements de solution principale
Nombre d′iterations
Lorsque ce nombre devient faible, on en déduit que l'on a atteint un optimum au moins local (ce qui explique
que le nombre d'itérations soit nettement supérieur au nombre de fois où l'on trouve une solution satisfaisante).
Cependant, au vu du grand nombre de calculs demandés à chaque itération, nous avons décidé de �xer un nombre
d'itérations �xe.
A�n de maximiser les chances que cet optimum soit global et non juste local, nous allons dé�nir un critère
d'arrêt des boucles entre les phases de refroidissements su�samment grand pour permettre à l'algorithme de
parcourir un maximum de solution. Ce nombre est choisi à l'expérience et a évolué au fur et à mesure de nos
applications.
Nous avons �nalement choisi de donner une limite au nombre d'itérations au vu des moyens à disposition. L'uti-
lisation d'un algorithme d'optimisation dans la construction d'un bilan implique de faire tourner le modèle ALM
un certain nombre de fois sur 750 simulations ce qui nécessite un temps non négligeable et très sensible à la
qualité des modèles et des serveurs utilisés. La vitesse de convergence de l'algorithme étant inconnue, il aurait
été déraisonnable de le laisser tourner de manière indé�nie.
4.3 Étude comparative des algorithmes métaheuristiques présentés
En théorie, ces algorithmes, de par leur fonctionnement très di�érents et leur caractère partiellement aléa-
toire sont di�cilement comparables. On peut cependant noter que l'algorithme des colonies de fourmi o�re une
convergence plus rapide sur les premières itérations, essentiellement parce que le recuit Simulé ne commence
son optimisation qu'après des premières itérations qui relèvent plus du parcours du champs des solutions que de
l'optimisation.
Dans le cadre de notre problème où chaque itération va impliquer de nombreux calculs et donc un certain
coût, il pourrait être préférable de limiter au maximum le nombre d'itérations nécessaires à l'atteinte d'une so-
lution satisfaisante. L'algorithme des colonies de fourmi semble donc attractif dans ce contexte. Cependant, il
88
a souvent été observé qu'une fois la phase d'observation terminée, le recuit Simulé o�re une convergence assez
rapide et il est important de rappeler que cet algorithme est plus attentif aux problèmes d'optimum locaux que
l'algorithme des colonies de fourmis.
Autre point d'intérêt, la di�culté du calibrage. Le recuit Simulé est di�cile à bien calibrer tandis que l'al-
gorithme des colonies de fourmis ne pose aucune problématique particulière en terme de con�guration. Il faut
également remarquer que la calibration de 4 paramètres de la distance de dissimilarité risque de nécessiter un
nombre assez important d'itérations pour le recuit Simulé qui fait varier un paramètre choisi aléatoirement d'une
valeur aléatoire à chaque itération.
En résumé, l'algorithme des colonies de fourmi nous parait plus adapté à notre problème. Cependant, cette étude
reste purement théorique et une étude comparative des résultats de ces algorithmes sur plusieurs portefeuilles
épargnes dépendants de paramètres di�érents pourraient être l'objet d'un autre sujet.
Figure 27 � Comparatif des algorithmes métaheuristiques
89
Résumé de la partie :
Ainsi, a�n de constituer des groupes de contrats homogènes, nous avons choisi de calibrer une distance de
dissimilarité entre les contrats reposant sur les paramètres principaux des contrats : l'âge, l'ancienneté, le TMG
et le sexe de l'assuré.
La calibration est réalisée par des algorithmes métaheuristiques selon le schéma suivant :
Figure 28 � Récapitulatif de la méthode de calibration de la mesure de dissimilarité
∗ La distance sert de base à un des algorithmes de classi�cation présenté qui va alors réaliser des groupes
de contrats en minimisant l'inertie intra-classe
∗ Le modèle ALM modi�é pour correspondre à la norme IFRS 17 va retourner la CSM associée à chaque
Model Point.
∗ L'écart relatif entre cette CSM retournée et la CSM théorique (déterminée contrat par contrat) va déter-
miner la qualité de la segmentation et donc la qualité de la distance de dissimilarité
∗ La distance est ajustée en conséquence a�n d'améliorer la qualité estimée.
90
Troisième partie
Applications du modèle de segmentation sous
IFRS 17
91
1 Présentation du portefeuille d'épargne étudié
1.1 Données au passif du portefeuille
1) Présentation des contrats et de la population assurée
Nous disposons d'un portefeuille de 10632 contrats d'épargne mono-supports en euros avec un unique ver-
sement de prime au début du contrat.
La population assurée est mixte : On compte 55, 76% de femmes pour 44, 24% d'hommes.
Figure 29 � Répartition du portefeuille par Sexe
Au sein du portefeuille� l'âge moyen est de 58,7 ans et le diagramme ci-dessous indique que la majorité de la
population se situe entre 41 et 70 ans.
Figure 30 � Répartition du portefeuille par âge
De telles données pourraient laisser présager un niveau d'ancienneté également élevé, cependant l'ancienneté
92
moyenne observée est de 7,6 années.
Figure 31 � Répartition du portefeuille par ancienneté
La faible hétérogénéité observée devrait limiter l'impact de la contrainte de cohorte annuelle si elle venait à
être appliquée.
L'ancienneté moyenne des contrats donne un caractère récent au portefeuille, ce qui explique le montant assez
faible des PM observées.
En e�et, la Provision mathématique moyenne du portefeuille est de 11 101,8¿. Les PM associées aux assurés
sont très dispersées. La plus grande PM atteint 817 465,83¿.
Les contrats du portefeuilles ne disposent que de 3 Taux Minimum Garanti di�érents : Certains ont un TMG de
1,7%, d'autres un taux de 0,8% et les derniers contrats n'ont pas de TMG.
Figure 32 � Répartition du portefeuille par TMG
93
2) Traitement des données
Les données reçues ont dû être traitées avant de déterminer les statistiques présentées précédemment.
En e�et, certains des contrats disposaient d'une provision mathématique nulle. Ces contrats venaient donc pro-
bablement d'être rachetés et ne devraient donc plus �gurer dans le portefeuille de l'assureur. Les prendre en
compte dans la segmentation reviendrait à ajouter de la complexité et donc du coût aux calculs tout en biaisant
la création des groupes homogènes (la PM ne faisant pas partie des critères de formation des groupes, ces contrats
auraient eu la même in�uence que les autres sur la segmentation). Il a donc fallu les retirer.
Hormis ces légers changements, aucun traitement particulier n'a été nécessaire : Les données fournies donnaient
un bilan de départ équilibré et ne contenaient aucune erreur notable.
1.2 Présentation de l'actif
En l'absence de fonds propres initiaux, le montant total des actifs doit être égal à la somme des Provisions
mathématiques : 118M¿. Cette relation est véri�ée.
L'allocation initiale est donnée par la �gure suivante.
Figure 33 � Allocation initiale des actifs
1.3 Distribution du BE IFRS 17 des Model Points
Nous avons dans la partie théorique exprimé la volonté d'utiliser la méthode de la Value At Risk pour déter-
miner l'ajustement pour le risque non �nancier. Cependant, cette méthode peut sous-estimer les risques extrêmes
lorsque la queue de la distribution des BE est large.
94
Nous avons donc déterminé la distribution du BE d'un Model Point sur 750 simulations a�n de véri�er que
l'utilisation de la méthode de la VaR soit légitime.
Figure 34 � Distribution du BE d'un Model Point sur 750 simulations
La queue de distribution est d'une largeur raisonnable. Le plus grand BE est de 906K¿ tandis que la VaR
est de 694K¿.
Présentons maintenant l'impact des choix de modélisations e�ectués tel que la méthode d'estimation de l'ajuste-
ment pour le risque non �nancier ainsi que les résultats des méthodes de segmentation proposées.
2 Choix des outils de modélisation de la segmentation et comparaison
des méthodes présentées
2.1 Choix du seuil de pro�tabilité signi�cative des contrats non onéreux.
Dans un premier temps, nous allons nous concentrer sur les aspects de segmentation du portefeuille de contrats
en groupes les plus homogènes possibles a�n de dé�nir une mesure de dissimilarité entre des contrats d'épargne.
Dans cette approche, nous considérons que le seuil dé�nissant si un contrat a une chance signi�cative ou non de
devenir onéreux revet une importance assez faible, le principal restant d'avoir 3 classes distinctes.
Que les contrats soient pro�table de manière signi�cative ou non, si la méthode d'optimisation de la mesure
de dissimilarité est bien faite, les contrats du groupe � potentiellement onéreux � formeront des groupes de pro-
�tabilité homogène.
Les contrats dont la CSM moyenne sur l'ensemble des 750 simulations est négative sont onéreux. Pour ce qui
est de la dé�nition de la séparation entre les autres contrats, une pratique consiste à dire que ceux dont la CSM
moyenne est positive et supérieure à la moyenne de la CSM des contrats non onéreux sont considérés comme
étant pro�tables et les autres contrats constituent la classe des contrats potentiellement onéreux. Il s'agit de la
méthode que nous utiliserons au cours de ce mémoire.
95
Nous avons cependant souhaité faire de ce mémoire un exercice ré�ectif qui pourrait se révéler utile aux lec-
teurs, aussi allons nous rapidemment une autre méthode potentielle :
il est également possible de séparer les contrats pro�tables selon un niveau de con�ance �xé : Si la détermi-
nation de la pro�tabilité initiale se fait sur 1000 simulations par exemple, on peut déclarer que tout contrat qui
est pro�table dans au moins 850 des 1000 simulations (soit un niveau de con�ance de 85%) possède une chance
non signi�cative de devenir onéreux. Une telle méthode pose toujours le problème de la dé�nition d'un seuil mais
illustre mieux les cas dans lesquels les contrats pourraient devenir onéreux.
2.2 Impact du choix de la méthode d'ajustement pour le risque non �nancier.
A�n d'estimer l'impact du choix de la méthode d'ajustement pour le risque non �nancier, nous avons �xé le
niveau de con�ance de la marge pour le risque dans notre calcul de Juste Valeur à 85% et fait varier le niveau
de con�ance de la VaR déterminant l'ajustement pour le risque non �nancier.
Figure 35 � Pilotage de la pro�tabilité des contrats par le choix du niveau de con�ance de la VaR
L'impact du choix du niveau de con�ance de la VaR dans le calcul de l'ajustement pour le risque non �nancier
est clair. En choisissant une VaR d'un niveau de con�ance inférieur à 80% le portefeuille de contrat étudié ne
comporte que des contrats pro�tables, alors que si l'on pousse le niveau de con�ance à 90% plus de la moitié des
contrats deviennent onéreux.
Ces observations sont logiques puisqu'en approche Fair Value, la pro�tabilité des contrats correspond à l'écart
entre leur Juste Valeur et les Ful�lment Cash-Flows. Or nous avons observé que les courbes de taux utilisés (avec
prime d'illiquidité et avec ajustement pour la volatilité) sont extrêmement proches. Les écarts se font donc essen-
tiellement au niveau de la marge pour le risque et des frais généraux. Le choix d'un niveau de con�ance plus élevé
va impliquer une hausse de l'ajustement pour le risque �nancier qui va alors rendre les Ful�lment Cash-Flows
supérieurs à la Juste Valeur des contrats, les rendant ainsi onéreux. La force de cet impact dépendant évidemment
96
de la distribution du BE des contrats et notamment de l'épaisseur de leur queue. Plus la queue de distribution
est épaisse, plus la hausse du niveau de con�ance augmentera l'ajustement pour le risque non �nancier.
Pour le portefeuille pris dans sa globalité sans segmentation, l'ajustement pour le risque non �nancier total du
portefeuille de 10632 contrats déterminé par la VaR avec un niveau de con�ance de 85% sur 750 simulations est de
12 898K¿ et pour la TVaR l'ajustement pour le risque non �nancier obtenu est de : 38 611K¿, soit près du triple.
Les valeurs prises par l'ajustement pour le risque en fonction de la méthode utilisée (VaR ou TVaR) et du
niveau de con�ance choisi est indiqué par la �gure ci-dessous :
Figure 36 � Evolution de l'Ajustement pour le Risque non �nancier
Ces observations et la �gure ci-dessus con�rment notre choix de modélisation consistant à privilégier la VaR
à la TVaR. En e�et, la TVaR aurait un impact encore plus fort et il serait surprenant que les assureurs se
retrouvent à déclarer une majorité de contrats onéreux à la date de transition. Nous avions cependant besoin
de posséder une certaine quantité de contrats onéreux a�n de rendre la segmentation intéressante et avons donc
choisi de réaliser les applications suivantes avec la VaR à un niveau de con�ance de 87% et ainsi obtenu 2925
contrats onéreux et 7707 non onéreux.
Figure 37 � Répartition des contrats par pro�tabilité
97
2.3 Impact de la nouvelle segmentation de contrats sur le bilan S2
La mise en place d'IFRS 17 implique la constitution de nouveaux Model Points puisque les contraintes parti-
culières à la norme rendent les Model Points constitués par le passés irrecevables. Cependant, il est probable que
les assureurs ne souhaitent pas disposer de Model Points di�érents pour chaque constitution de bilan comptable.
Ils pourraient préférer utiliser les même Inputs lors de la constitution de bilan S2, comptable ou IFRS, cela
apporte plus d'informations et de comparabilité.
Il nous a donc paru intéressant d'observer l'impact d'une segmentation IFRS 17 sur le bilan S2 retourné a�n de
déterminer si les assureurs pouvaient faire de la segmentation IFRS 17 la nouvelle segmentation Solvabilité II.
A�n de posséder un point de comparaison, nous avons réalisé une segmentation classique de nos contrats :
Considérons des Model Point constitués de manière plus usuelle sous Solvabilité II : Une fois les contrats
regroupés par LoB, nous allons les séparer selon les critères suivants :
∗ Sexe : Masculin ou Féminin : 2 tranches.
∗ TMG : 0 ou 0.8% ou 1.7% : 3 tranches
∗ Ancienneté : de 0 à 4ans ou de 4 à 8ans ou de 8 à 15ans ou de 15 à 20 ans ou plus de 20 ans : 5 tranches.
∗ Age : inférieur à 20ans ou entre 20 et 30 ans ou entre 30 et 40 ans ou entre 40 et 50ans ou de 50 à 60ans
ou plus de 60ans : 6 tranches.
Soit 2 ∗ 3 ∗ 5 ∗ 6 = 180 Model Points en théorie.
Figure 38 � Création de Model Points usuels
La diversité limitée de notre portefeuille n'a permis de produire que 83Model Points en appliquant la méthode
usuelle. C'est donc ce nombre de Model Points que nous allons �xer dans la constitution de nos segmentation
futures. Cela représente une division des coûts de calculs par 128.
98
Nous avons alors réalisé une segmentation IFRS 17 en Fair Value (sans la contrainte de cohorte) en �xant
le nombre de Model Points à 83 a�n de prendre en compte le cas où l'assureur ne souhaiterait pas augmenter
le temps et le coût de sa modélisation. Nous avons également réalisé une segmentation IFRS 17 en doublant
le nombre de Model Points (186) car selon toute vraisemblance les contraintes associées à la segmentation des
contrats sous IFRS 17 vont provoquer une augmentation du nombre de Model Points.
Suite à ces opérations, nous avons lancé le modèle ALM S2 pour chaque segmentation et reconstitué les bilans
obtenus :
Figure 39 � Comparaison des bilans S2 selon la segmentation utilisée
Une nouvelle segmentation IFRS 17 prenant en compte la contrainte de cohorte tout en se limitant à 83 Model
Points a également été réalisée :
Figure 40 � Bilan S2 sous segmentation IFRS 17 avec contrainte de cohorte
Nous constatons que pour un nombre de Model Points imposé, l'ajout des contraintes d'IFRS 17 provoque
une augmentation du BE qui va donc s'éloigner du BE théorique. Cette évolution va évidemment de paire avec
99
une réduction de la NAV. Pour un nombre de Model Points égal, chaque contrainte posée par la norme fait
augmenter le BE. Cette évolution reste toutefois relativement faible (+0,3% sur le BEL). Les écarts restent donc
négligeables, dans le cadre de notre étude, la segmentation des contrats en norme IFRS 17 peut être utilisée lors
de la constitution du bilan S2.
Il faut également noter qu'il est probable que l'application des multiples contraintes de segmentation (notam-
ment celle de cohorte annuelle) provoque une augmentation du nombre deModel Points des assureurs. Nous avons
modélisé ce cas en déterminant le bilan S2 pour un nombre de Model Points doublés et observé une réduction de
l'écart du bilan obtenu par rapport au bilan théorique.
Le tableau ci-dessous présente les écarts de convergence associés à notre étude :
Figure 41 � Ecarts de convergences observés
Les bilans sortis sont valides, l'écart reste faible (0,24%).
2.4 Résultats obtenus à la date de transition lors de la réalisation des calculs sans
segmentation
Suite au calcul de la CSM propre à chaque contrat, nous obtenons une CSM de 1 611K¿. On peut noter
que les craintes formulées par l'EFRAG Insurance Account Working Group sont véri�ées : la CSM est faible, la
moyenne pour l'ensemble du portefeuille est de 72,5¿. La moyenne pour les contrats pro�table est de 210. Nous
considérons alors comme ayant une chance non-signi�cative de devenir onéreux tout contrat de CSM supérieure
à 300. Nous obtenons alors les résultats suivants :
Figure 42 � Résultat de l'estimation de la pro�tabilité des contrats étudiés au cas par cas
Nous avons alors implémenté les di�érentes méthodes présentées et comparé les résultats obtenus a�n de
déterminer la paire algorithme métaheuristique/méthode de classi�cation qui produira la CSM la plus proche de
1 611 144¿ qui sera désormais notre � CSM théorique �.
2.5 Comparaison des segmentations retournées par les algorithmes présentés
Les di�érentes méthodes de classi�cations présentées dans la Partie 2 ont été implémentées et utilisées pour
segmenter le portefeuille de contrats. Nous allons comparer la qualité de la classi�cation retournée par ces
algorithme en nous servant dans un premier temps de l'intertie intra-classe totale comme indicateur : Il s'est
100
révélé di�cile de choisir de manière précise le nombre de classes attendues lors de l'utilisation de la méthode
MCL. Par soucis de comparabilité, nous avons alors choisi de ne pas l'utiliser dans nos comparaisons futures.
Au vu de la proximité entre les algorithmes de Prim et de Kruskal, il a été décidé de n'en sélectionner qu'un :
Kruskal, qui donnait de meilleurs résultats.
Figure 43 � Inertie intra-classe selon le nombre de classes créées
L'algorithme de Kruskal manque en précision comparé aux algorithmes de classi�cation plus classiques. Ce-
pendant, lorsque le nombre de classes augmente, l'écart diminue assez rapidemment. Observons maintenant leur
impact sur la méthode d'optimisation de la mesure de dissimilarité : On va faire tourner les algorithmes d'op-
timisation a�n avec ces méthodes de classi�cation a�n de déterminer la partition qui donnera le bilan le plus
proche possible du bilan cible.
1) Classi�cation avec la méthode théorie des graphes et l'algorithme de la colonie de fourmi
Nous appliquons la méthode présentée en selectionnant la méthode de classi�cation hiérarchique pour la seg-
mentation et l'algorithme de la colonie de fourmi pour la calibration. Nous avons limité l'algorithme de la colonie
de fourmi à 4 fourmis et 5 itérations : le choix de 4 fourmis s'est e�ectué en fonction du nombre de paramètres
de la mesure de dissimilarité.
Lors de la première itération, chaque fourmi a été initialisée avec un paramètre de poids égal à 4 et les autres
réglés sur 0. De cette manière, l'impact propre à chaque paramètre du contrat sur la qualité de la segmentation
est quanti�é. Les paramètres les plus signi�catifs obtiendront une meilleure note et produiront donc une quantité
plus importante de phéromones dont ils seront les seuls à pro�ter, entrainant ainsi une augmentation de leur
impact dans les itérations suivantes.
De cette manière nous orientons rapidement l'algorithme vers la combinaison de paramètres optimale, et avons
ainsi accéléré la convergence. Ce qui nous a permis d'observer que l'algorithme atteignait rapidemment des solu-
tions de bonne qualité. Nous avons donc décidé de limiter son nombre d'itérations au vu du temps important de
calcul (puisque chaque itération implique un calcul des FCF et de la Fair Value des Model Points).
101
Nous avons donc lancé l'algorithme en �xant le nombre de Model Points à 800 et obtenu les résultats suivants :
Figure 44 � Résultat obtenu pourla constitution de 800 Model Points
Rappelons que le score des fourmis correspond à l'écart relatif entre la CSM retournée par les Model Points
et la CSM théorique.
Le meilleur écart relatif est de 0.01% et a été obtenu pour les paramètres suivants :
α = 0.7 : le poids du sexe
β = 1.2 : le poids de l'âge
γ = 1.2 : le poids de l'ancienneté
ζ = 0.9 : le poids du TMG
La proximité vis à vis des résultats obtenus sans segmentation est également véri�ée pour la perte passée au
résultat comme illustré ci-dessous :
Figure 45 � Comparaison des sorties avec celles obtenues sans segmentation
Ces résultats démontrent l'e�cacité de la méthode de segmentation proposée. Les Model Points obtenus avec
cette méthode divisent par 13 le temps et le coût des calculs tout en modi�ant la CSM d'un montant négligeable.
La perte d'information à ce niveau est négligeable. Cependant il faut relativiser ce résultat : L'obtention de
cette segmentation dès l'itération 3 sans aucune trace de convergence de l'algorithme indique la présence d'un
facteur chance dû au côté aléatoire de l'algorithme. De plus, 800 Model Points est un nombre élevé, nous avons
donc décidé de réduire le nombre de Model Points à 83 pour correspondre au nombre de Model Points de la
classi�cation usuelle.
Bien qu'elle soit irréalisable sous IFRS 17 du fait des nouvelles contraintes imposées par la norme, nous avons
réalisé la segmentation usuelle présentée ci-dessus et déterminé la CSM associée à ses Model Points à titre
indicatif :
Figure 46 � écart relatif avec la segmentation usuelle
102
L'écart est conséquent. La méthode de segmentation ne traduit pas la réalité du portefeuille.
Nous relançons l'algorithme de segmentation reposant sur l'algorithme de la colonie de fourmi et sur la clas-
si�cation par la méthode de Kruskal en limitant le nombre de Model Points. Les fourmis obtiennent les résultats
suivants :
Figure 47 � Résultat pour 83 Model Points
L'écart le plus faible est de 0,2% et est obtenu pour les paramètres
α = 0.9 : le poids du sexe
β = 0; 8 : le poids de l'âge
γ = 1.6 : le poids de l'ancienneté
ζ = 0.7 : le poids du TMG
L'écart observé est toujours très faible malgré le peu de Model Points créés. Le modèle semble �able.
2) Classi�cation avec la théorie des graphes et le recuit simulé
Nous conservons la contrainte de 83 Model Points et obtenons un écart relatif minimum de 0,1% obtenu
après 11 itérations comme suit :
Figure 48 � Recuit simulé avec théorie des graphes sur 83 Model Points
103
Figure 49 � Segmentation avec la théorie des graphes et le recuit simulé
Ce résultat est atteint pour les paramètres :
α = 1.37 : le poids du sexe
β = 0.11 : le poids de l'âge
γ = 1.23 : le poids de l'ancienneté
ζ = 1.28 : le poids du TMG
3) Classi�cation avec la méthode CAH le recuit simulé
Toujours sous la contrainte de 83 Model Points à créer, nous utilisons cette fois la méthode de classi�cation
ascendante hiérarchique pour classer les contrats. Le résultat optimal (0,5% d'écart relatif) est atteint pour :
α = 1.1 : le poids du sexe
β = 1.1 : le poids de l'âge
γ = 1.1 : le poids de l'ancienneté
ζ = 0.7 : le poids du TMG
Figure 50 � Convergence du recuit Simulé
Figure 51 � Segmentation avec CAH et la colonie de fourmis
104
4) Classi�cation avec la méthode CAH la colonie de fourmis
Le minimum est atteint à la quatrième itération (0,09% d'écart) pour les paramètres :
α = 1 : le poids du sexe
β = 0.9 : le poids de l'âge
γ = 1.3 : le poids de l'ancienneté
ζ = 0.8 : le poids du TMG
5) Observations et comparaison
Les paramètres des distances de similarités trouvées sont hétérogènes. On peut en déduire qu'il existe une
multitude de solutions de bonne qualité : on peut en déduire qu'il n'y a pas parmis nos 4 paramètres, un pa-
ramètre qui se démarque des autres par son importance dans la classi�cation. Cette conclusion est illustrée par
les tableaux de résultat des colonies de fourmis notamment. Les scores des segmentations retournées par les
paramètres considérés de manière unitaire (première colonne des matrices) n'indique pas de dominance d'un
paramètre. Même en 5 itérations, l'algorithme des colonies de fourmis aurait montré une tendance menant vers
un chargement du poids du paramètre le plus important si un tel paramètre existait. L'optimisation vient des
mélanges, il est possible qu'avec un nombre d'itérations non limités les algorithmes auraient convergé vers une
solution encore meilleure (et unique) mais dans notre cas, les résultats obtenus sont d'une qualité su�sante pour
rendre la distance de dissimilarité �able et utilisable par la suite.
D'un point de vue opérationnel, on peut noter que le recuit simulé a convergé en un nombre plus réduit de
calcul. Cette observation s'explique par nos choix de modélisation. La température initialisée peu élevée au vu
des faibles valeurs du delta des recuits a permis de � négliger � les premières étapes d'observations du recuit
simulé alors qu'on contraire, notre choix d'initialiser les fourmis en ne pondérant qu'un seul paramètre s'est
révélé peu utile au vu de la multiplicité des solutions de qualité.
Ainsi, malgré des contraintes techniques qui nous ont poussé à limiter les algorithmes d'optimisation et à
les arrêter avant leur convergence, toutes les méthodes proposées permettent de constituer des Model Points
produisant une CSM très proche de la CSM théorique. La diminution du nombre de Model Points n'a pas eu
d'impact signi�catif sur la précision ce qui permet de réduire considérablement les temps et coûts de calcul tout
en évitant les pertes d'informations.
Il faut également noter le gain de précision non négligeable obtenu par nos segmentations comparées à la seg-
mentartion usuelle. Cependant, la segmentation des contrats d'épargne reste optimisable :
la deuxième étape de la segmentation des contrats (la séparation en groupes de pro�tabilité : Onéreux, ceux
qui n'ont pas une chance signi�cative de devenir onéreux et les autres) nécessite une estimation de la pro�tabilité
des contrats au cas par cas et ce pré-requis peut s'avérer extrêmement long et coûteux, notamment pour les plus
gros assureurs.
Pour palier à cette contrainte forte, la norme précise que si l'on dispose d'informations raisonnables pour conclure
que plusieurs contrats appartiennent au même groupe, on peut e�ectuer la mesure de pro�tabilité directement à
l'échelle du groupe. A�n d'alléger les calculs préalables à la détermination du groupe de pro�tabilité de chaque
105
contrat, nous présentons une méthode qui utilise la mesure de dissimilarité entre les contrats comme d'un indica-
teur de pro�tabilité qui constituerait une information raisonnable dispensant les assureurs du fastidieux travail
de l'étude contrats par contrats.
3 Utilisation de la mesure de dissimilarité pour l'optimisation de l'es-
timation de la pro�tabilité des contrats
3.1 Présentation de la méthode alternative de détermination de la pro�tabilité des
contrats
A partir d'un échantillon représentatif de taille raisonnable des contrats du portefeuille de l'assureur, la me-
sure de la dissimilarité entre 2 contrats est calibrée selon la méthode présentée dans ce mémoire. Une fois les
paramètres de la distance déterminés, 3 contrats de références, un pour chaque classe de pro�tabilité sont calculés
comme suit :
1. pour chaque classe de pro�tabilité, l'âge moyen, l'ancienneté moyenne, le sexe le plus représenté ainsi que
le Taux Minimum Garanti moyen observé parmis les contrats de la classe sont déterminés. Le contrat de
référence de la classe est celui ayant pour paramètre ces éléments.
2. La classi�cation par pro�tabilité de tous les contrats du portefeuille se fait alors comme suit : La dissimila-
rité entre chaque contrat du portefeuille et les contrats de référence est calculée. Les contrats appartiennent
à la classe du contrat de référence le plus similaire.
Le schéma ci-dessous résume l'approche.
Figure 52 � Méthode de simpli�cation de la segmentation sous IFRS 17
106
La méthode a été essayée à partir de l'extraction de 1001 contrats sur les 10 632 du portefeuilles.
L'extraction a été réalisée avec la volonté de constituer un sous-ensemble de contrats représentatifs du por-
tefeuille. Nous avons pour cela divisé le portefeuille selon la méthode usuelle et sélectionné 6 contrats de chaque
classe si possible. La diversité du portefeuille s'est toutefois avérée limitée et nous étions loin d'obtenir 1000
contrats. Nous avons donc élevé l'extraction à min(nombre de contrats dans la classe, 15) et obtenu ainsi 1001
contrats.
Une fois ces contrats réunis, nous avons réalisé les estimations unitaires a�n de déterminer la proportion de
contrats onéreux. Il s'est avéré que nous possédions peu de contrats onéreux (15 sur 1001). Une proportion aussi
faible limitait l'intérêt de la segmentation, aussi avons nous choisi de jouer sur les zones discrétionnaires de la
norme a�n d'essayer d'augmenter la proportion de contrats onéreux. Nous avons ainsi augmenté le niveau de
con�ance de l'ajustement pour le risque non �nancier sous IFRS 17 de manière a augmenter les Ful�lment Cash-
Flows et donc d'augmenter les chances qu'ils dépassent la Juste Valeur des contrats.
Nous avons poussé le niveau de con�ance à 90%, jugeant que plus serait déraisonnable et obtenu 59 contrats
onéreux.
Nous avons alors réalisé les calculs de CSM à la maille contrat par contrats sur l'ensemble du portefeuille de
10632 contrats de manière à déterminer la proportion de contrats onéreux mais également la classi�cation réelle
de chaque contrat, information qui nous servira à estimer la qualité de l'approche développée. Ces estimations
ont évidemment été réalisées en reprenant les paramètres utilisés lors de l'estimation de la CSM du sous-groupe
de contrats représentatifs (Ajustement pour le risque �nancier de niveau de con�ance 90%, frais généraux, etc.).
La distance de dissimilarité a alors été estimée par la méthode présentée précédemment, en utilisant l'algorithme
des colonies de fourmi pour l'optimisation et la méthode de Kruskal pour la classi�cation. Les paramètres obtenus
sont :
α = 0.5 : le poids du sexe ;
β = 1.4 : le poids de l'âge ;
γ = 0.8 : le poids de l'ancienneté ;
ζ = 1.3 : le poids du TMG.
Figure 53 � Evolution de l'algorithme de la colonie de fourmi
La forte divergence observée sur la première itération pour chaque fourmi s'explique par le choix de modé-
lisation e�ectué. Rappelons que lors de la première itération, chaque fourmi a été initialisée avec un paramètre
de poids égal à 4 et les autres réglés sur 0. De cette manière, l'impact propre à chaque paramètre du contrat sur
la qualité de la segmentation est quanti�é. Les paramètres les plus signi�catifs obtiendront une meilleure note et
107
produiront donc une quantité plus importante de phéromones dont ils seront les seuls à pro�ter, entrainant ainsi
une augmentation de leur impact dans les itérations suivantes.
L' écart relatif entre la CSM obtenue par Model Point et la CSM théorique est de 1,4%. Ecart améliorable
puisque l'algorithme n'avait pas encore convergé comme le montre le tableau suivant retraçant l'état de la colonie
au moment de l'arrêt de l'algorithme :
Figure 54 � Etat de la colonie de fourmi lors de l'arrêt
Nous avions limité l'algorithme à 5 itérations au vu de la qualité des solutions qu'il apporte en un nombre
limité d'itérations et du temps requis par l'algorithme. Les résultats sont résumés dans le tableau suivant où le
score des fourmis indique l'écart relatif de la CSM retournée par rapport à la CSM théorique.
Le poids des paramètres obtenu semble cohérent d'un point de vue instinctif : Le TMG est un facteur in�uant
directement sur les pertes de l'assureur qui va devoir trouver des fonds pour honorer ses engagements si les
taux sont trop bas. L'âge, deuxième facteur déterminant va déterminer les modélisations des coûts de décès et
si l'assuré survivra assez longtemps pour atteindre une époque ou les taux sont plus élevés (la courbe des taux
présentée précédemment est croissante). L'ancienneté va essentiellement impacter les rachats surtout autour de
8 années et le sexe va déterminer quelles tables utiliser. Les di�érences entre les hommes et les femmes en terme
de longévité étant sur une tendance décroissante, le poids de ce facteur reste limité dans son impact pour la
pro�tabilité.
Une fois ces paramètres déterminés, nous avons estimé les paramètres des 3 contrats représentatifs comme pré-
sentés précédemment et déterminé la distance des autres contrats du portefeuille à ces éléments de référence.
Après avoir classé tous les contrats du portefeuille selon leur distance aux paramètres désignés, nous avons
obtenu un taux variant de 62,4% de contrats bien classés dans les 3 classes de pro�tabilité et 82,3% si l'on
distingue uniquement les contrats onéreux des non-onéreux.
Le deuxième chi�re est celui qui nous intéresse, nous cherchons avant tout à déterminer quels seront les contrats
onéreux puisque la norme permet de quali�er les contrats d'onéreux si l'on dispose d'informations su�santes et
tient à ce que pour les autres contrats une étude supplémentaire soit réalisée a�n de déterminer s'ils ont une
chance signi�cative de devenir onéreux. Cependant, la faible précision de la classi�cation en 3 classes indique
une certaine faiblesse de la distance de similarité déterminée. Alors que nous cherchions les raisons de ce faible
ratio, nous avons remarqué que les contrats onéreux avaient une PM assez élevée : la PM moyenne des contrats
onéreux est de 27 400¿ tandis que la PM moyenne des contrats pro�tables est de 5203 euros.
108
S'il est vrai que la PM n'est pas prise en compte lors de la constitution de Model Point usuels, il faut tout
de même se rappeler que nous nous situons ici en approche Fair Value où la CSM ne correspond pas vraiment
à la pro�tabilité mais plutôt à l'écart entre les Ful�lment Cash-Flows et la Fair Value des engagements. Dans
ce contexte, la CSM est constituée à partir des petites di�érences entre la modélisation des FCF et de la Fair
Value : L'ajustement pour la courbe des taux, la méthode d'ajustement pour le risque non �nancier et les frais
généraux. Or, l'augmentation de la PM implique une augmentation du BE associé au contrat puisque le rachat
et les pro�ts (ou pertes) sont accrues. L'ajustement pour le risque non �nancier a été déterminé par la méthode
VaR en augmentant le niveau de con�ance a�n d'augmenter la proportion de contrats onéreux. Cet ajustement
est déterminé par un quantile du BE et va donc augmenter avec le BE des contrats, impactant ainsi les Ful�lment
Cash-Flows qui vont diminuer la CSM.
Nous avons donc relancé le modèle en accordant un poids unitaire à la PM et obtenu 70,7% de contrats bien
classés sur les 3 classes de pro�tabilité et 86,1% de contrats bien classés si l'on cherche uniquement à distinguer
les contrats onéreux des autres.
Ces résultats sont en hausse sans toutefois atteindre un niveau permettant de certi�er la distance de dissimilarité
déterminée. Les écarts peuvent s'expliquer simplement par le fait que les points à partir desquels sont calculées
les distances gardent un côté arbitraire au sens où ils dépendent de la selection initiale de 1000 points (bien
qu'elle ait été réalisés de manière à être représentative du portefeuille étudié). De plus, nous évaluons simplement
la dissimilarité entre les contrats du portefeuille et ces 3 points. Or, un contrat peut tout à fait être onéreux tout
en étant plus proche du centre des contrats potentiellement onéreux que du centre des contrats onéreux comme
illustré dans l'exemple simpli�é suivant :
Figure 55 � Limites de la méthode
Cet exemple montre également l'impact du choix du seuil de CSM à partir duquel on considère qu'un contrat
a une chance non signi�cative de devenir onéreux. Le choix de ce seuil va modi�er les contrats de référence et
donc la résultat de la classi�cation comme le montre les variations observées sur notre portefeuille : la précision
109
varie entre 79,3% et 86,1% selon le choix du seuil de CSM à partir duquel un contrat est considéré comme étant
pro�table.
Figure 56 � Impact du seuil de pro�tabilité sur la précision de la méthode
3.2 Limites de la méthode proposée et conclusion
Comme expliqué précédemment, l'estimation contrat par contrat de la pro�tabilité est une tâche lente et
coûteuse qu'il est heureusement possible d'éviter si l'on dispose d'informations su�santes.
La méthode présentée ci-dessus permet d'identi�er (avec une précision d'environs 80%) les contrats onéreux en
un temps très court et avec des calculs minimes.
Cependant, les 20% d'erreurs restantes posent problème, tout comme le fait que la séparation entre les contrats
ayant une chance non signi�cative d'être onéreux et les contrats potentiellement onéreux n'a pas été dé�nie et
constitue même une variable in�uençant la qualité de la sementation obtenue.
A�n de séparer les contrats déterminés comme non-onéreux, il faudrait donc estimer leur pro�tabilité, ce qui
entrainerait un certain coût. Nous allons donc introduire une nouvelle méthode qui permettrait d'obtenir la
classi�cation des contrats dans les 3 groupes de pro�tabilité et avec une précision plus élevée.
4 Introduction de la méthode du contrat de pro�tabilité nulle
4.1 Présentation de la nouvelle méthode de segmentation
A�n de répondre aux conclusions atteintes lors de la section précédente, nous avons développé une nouvelle
approche permettant à la fois de prédire la classe de pro�tabilité des contrats sans se reposer sur un seuil de
110
pro�tabilité choisi arbitrairement mais également de quanti�er cette pro�tabilité. L'approche est résumée dans
la �gure suivante :
Figure 57 � Méthode du contrat de pro�tabilité nulle
La méthode repose sur la détermination d'un contrat de CSM nulle (ou su�samment proche de 0). Une
méthode simple pour le déterminer est d'extraire un sous ensemble représentatif comme précédemment et de
déterminer la CSM des contrats de ce portefeuille. Le contrat de CSM la plus faible serait alors sélectionné
comme indicateur.
Il est également possible de prendre le problème en sens inverse et de partir d'un contrat aléatoire, d'estimer sa
CSM et de faire varier les paramètres du contrat (âge, ancienneté, PM, TMG,sexe) de manière à rapprocher la
CSM obtenue de 0, tout en formalisant l'impact unitaire des modi�cations e�ectuées sur le contrat de départ.
Une fois le contrat de CSM égale à 0 obtenu, il est nécessaire de réaliser des tests de sensibilité sur l'impact de
l'évolution des paramètres sur la CSM. Dans l'idéal, il faudrait obtenir une courbe illustrant l'évolution de la
CSM pour chaque paramètre et réaliser un �tting a�n de quanti�er l'impact quasiment exact des variations des
paramètres.
Une fois les �ttings réalisés, nous disposons d'un indicateur situé au niveau 0 de la pro�tabilité dont nous
connaissons l'impact des variations de chaque paramètre sur la CSM. Pour chaque contrat du portefeuille, on
peut donc calculer en fonction des écarts entre ses paramètres et ceux du contrat de pro�tabilité nulle une
estimation de sa CSM et donc dé�nir à la fois s'il est onéreux ou non et son niveau de pro�tabilité.
111
4.2 Sensibilité aux paramètres.
Après avoir déterminé que le contrat d'épargne pour un Homme de 70 ans, de PM 1776, de 7 annnées
d'ancienneté et deTMG = 0, 017 produisait une CSM égale à 14, 53 , nous avons décidé de partir de ce contrat
et d'observer les variations de CSM associées à la variation des di�érents paramètres du contrat.
Figure 58 � Variations de la CSM selon les paramètres des contrats et le niveau de PM
On observe immédiatement que la PM va avoir l'impact le plus prononcé sur le niveau de CSM obtenu. La
CSM évolue de manière linéaire en fonction de la PM : On a la relation CSM = −0, 156 ∗ PM + 290. On peut
également remarquer que la tendance décroissante de la courbe de variation de la CSM en fonction de la Provision
Mathématique con�rme l'intuition développée dans l'application précédente indiquant que les contrats de plus
forte PM avaient plus de chance d'être onéreux.
Le sexe ne prenant que deux valeurs di�érentes, il n'a pas été tracé. On note cependant que si notre assuré de
référence était une femme, sa CSM descendrait à 9,7.
Il pourrait être intéressant d'essayer de réaliser une régression de la CSM en fonction de la PM, du sexe, de
l'âge et de l'ancienneté en utilisant des forêts aléatoires ou des GLM. Cependant, nous disposons ici d'un indi-
cateur placé à un niveau de pro�tabilité nulle. A�n de classer les contrats, il nous su�t d'avoir une estimation,
même grossière de l'impact qu'aura chaque variation de paramètre sur la CSM.
Nous ne pouvons cependant pas simplement nous servir des analyses ci-dessus. Certains des paramètres interra-
gissent entre eux, il est donc nécessaire d'étudier ces interractions. Nous nous intéressons dans un premier temps
à la Provison mathématique dont le niveau devrait nécessairement in�uencer les variations de CSM associées aux
112
variations des autres paramètres.
En raison des contraintes posées le TMG à l'assureur, nous décidons d'étudier les variations de l'impact de la
PM sur la CSM en fonction du TMG :
Figure 59 � Variations de la CSM en fonction de la PM, ventilées par TMG
L'impact du niveau de la provision mathématique sur la CSM est ampli�é par le TMG : lorsqu'il augmente,
la pente de la courbe se durcit et la CSM décroit de manière plus rapide. Il faut noter que le sexe n'in�uence pas
signi�cativement le niveau de la pente.
Nous avons déterminé les courbes de CSM en fonction des variations de l'âge, de l'ancienneté, du TMG pour une
PM de 11776 et une PM de 5776 a�n d'observer si la forme des courbes obtenues ne varie pas et de quanti�er
l'impact du niveau de PM sur la variation des autres paramètres.
Cette information est déterminante au vu des résultats précédents : les fortes variations de la CSM en fonction
de la PM observées contrastent avec les impacts modérés des autres paramètres et laissent à penser que la PM
contrôle à elle seule la pro�tabilité des contrats (bien que l'on ait pu con�rmer que l'impact de la PM est dépen-
dant du TMG).
Figure 60 � Variations de la CSM en fonction de l'âge pour 2 niveaux de PM
113
Les régressions linéaires simples réalisées nous permettent d'estimer l'impact du niveau de PM sur le rapport
entre la CSM et l'âge.
∗ Pour une PM de 5776, entre 25 et 70 ans nous avons la relation CSM = −5, 6 ∗ age− 238 et entre 70 et
90 ans : CSM = 12, 35 ∗ age− 1497.
∗ Pour une PM de 5776, entre 25 et 70 ans nous avons la relation CSM = −12, 7 ∗ age− 651 et entre 70 et
90 ans : CSM = 28, 8 ∗ age− 3560.
Passer d'une régression de l'évolution de la CSM en fonction de l'âge pour une PM de 5576 à une régression pour
une PM de 11776 revient à multiplier les paramètres de la régression par environ 2,3.
L'impact de l'ancienneté semble lui se stabiliser avec l'augmentation de la PM. Il est quasiment stable avec
uniquement un pic au niveau des 8 ans. Notre contrat de pro�tabilité nulle disposant d'une ancienneté de 7 ans,
nous décidons d'estimer uniquement la variation du pic et de considérer que pour toute autre ancienneté, l'écart
est stable :
Figure 61 � Sensibilité de la CSM à l'ancienneté pour une PM de 11 776
Au vu de l'impact du TMG sur la PM, nous allons réaliser une implémentation partitionnée : Pour chaque
contrat à trier, le code déterminera le TMG du contrat et adaptera la formule d'estimation de la pro�tabilité en
conséquence. Par exemple, pour un TMG de 0,017 nous avons estimé que pour tout contrat :
∗ L'impact de l'écart de PM entre ce contrat et notre contrat de référence sur la CSM est de −0, 156 ∗(PM − 1776).
∗ si l'ancienneté est égale à 7 ou 9, l'écart de CSM par rapport à notre contrat de référence est nul ; Si
elle est égale à 8, l'impact sur la CSM est d'environs 3 ∗ (PMducontrat − 776)/1000 ; Pour toute autre
ancienneté l'impact sera de 15.
∗ L'impact de l'écart d'âge par rapport à notre contrat de référence est (age− 70) ∗ 3 ∗ PM−7761000 si l'âge est
compris en 70 et 90ans et (age− 70) ∗ 1, 2 ∗ PM−7761000 si l'âge du contractant est inférieur à 70ans.
∗ L'impact du sexe est jugé négligeable.
114
Rappelons encore une fois que ce mémoire et particulièrement cette méthode sont des exercices ré�ectifs visant
à apporter des propositions de méthodes se voulant innovantes. Il serait évidemment plus rigoureux de réaliser
des régressions précises avec des forêts aléaroires ou des GLM. Nous allons cependant pro�ter de l'avantage que
constitue la connaissance du contrat de pro�tabilité quasiment nulle a�n de déterminer les classes de pro�tabilité
en utilisant des approximations.
Une fois nos proxy pour l'estimation de la CSM établis pour chaque TMG, il su�t de comparer chaque contrat
du portefeuille au contrat de pro�tabilité nulle.
L'utilisation de la méthode sur l'échantillon représentatif de 1001 contrats a donné des résultats probants en
terme de séparation par classe de pro�tabilité : l'utilisation de la méthode du contrat de pro�tabilité nulle a su
déterminer si un contrat était onéreux ou non dans 100% des cas bien que l'estimation de la CSM des contrats
manque légèrement de précision (23% d'écart relatif en moyenne).
Les écarts observés en terme de CSM sont issus des approximations e�ectuées lors du �tting des courbes de
sensibilité et au manque de considération de l'impact du sexe sur la CSM. Ces écarts devraient donc pouvoir être
réduits de manière considérable. Nous notons qu'a priori, dans le cadre de notre étude, ces écarts n'impactent
pas l'isolation des contrats onéreux du reste du portefeuille. Pour ce qui est de la classi�cation entre les contrats
ayant une chance non signi�cative de devenir onéreux et les autres, nous pouvons déterminer un intervalle de
con�ance sur nos estimations de CSM et considérer que tout contrat dont le signe de la CSM ne varie pas sur
l'intervalle de con�ance possède une chance non signi�cative de devenir onéreux.
Cet intervalle de con�ance pourrait être déterminé de manière rigoureuse en fonction de l'importance des sim-
pli�cations faites lors de la régression des courbes de sensibilités ou à partir des observations des écarts produits
par la méthode sur un sous-ensemble représentatif.
Ainsi, cette dernière méthode permet d'identi�er tous les contrats onéreux du portefeuille sans avoir recours au
modèle ALM. Il évite ainsi de nombreux calculs et produit des résultats en un temps très court par la construction
d'un proxy. Il faut cependant prendre en compte le coût que peut demander la calibration du proxy (surtout si les
régressions sont e�ectuées à l'aide de méthodes performantes telles que des forêts aléatoires). Il faudra également
quanti�er l'impact du TMG sur les contrats. Nous avons dans le cadre de ce mémoire pu nous dispenser de cette
étape en raison du faible nombre de TMG di�érents au sein de notre portefeuille mais ceci ne sera pas le cas
pour tous les assureurs.
Interessons nous maintenant à la deuxième exigence réglementaire introduite par IFRS 17 lors de la segmentation
des contrats : la contrainte de cohorte annuelle. Bien qu'elle soit facultative en approche Fair Value, nous allons
étudier son impact sur la segmentation des contrats.
5 Conséquence de l'ajout de la contrainte de cohorte annuelle sur la
segmentation
En cas d'utilisation de l'approche Fair Value à la date de transition, la contrainte de segmentation par cohorte
annuelle n'est pas obligatoire et l'assureur ne peut l'appliquer que s'il possède su�samment d'informations �ables.
Il a donc été jugé intéressant d'implémenter la contrainte de cohorte annuelle a�n d'en observer ses conséquences
115
sur la segmentation des contrats.
Pour réaliser cette approche, nous avons considéré que l'ancienneté des contrats indiquait la date de première
émission. A�n d'optimiser la vitesse des calculs nous avons réduit la taille du portefeuille à 4000 contrats. Puis
nous avons lancé la segmentation avec une méthode CAH se reposant sur une distance euclidienne simple (tous
les paramètres de poids sont égaux à 1) en faisant varier le nombre de groupes souhaités entre 25 et 400. Après
la détermination de chaque groupe, nous les avons séparés selon la date d'émission du contrat a�n de constituer
des cohortes annuelles, augmentant ainsi naturellement le nombre de Model Points.
L�impact de la contrainte de cohorte sur l'évolution du nombre deModel Points est retracé par le tableau suivant :
Figure 62 � Tableau récapitulatif de l'impact de la cohorte annuelle sur le nombre de Model Points
On constate que lorsque le nombre de Model point requis est faible, l'ajout de la contrainte de cohorte
annuelle entraine une augmentation du nombre de Model Points créés certes importante, mais pas autant que ce
que l'on aurait pu imaginer. Cette augmentation diminue rapidemment lorsque le nombre de Model Points requis
augmente.
Nous expliquons ces observations par le fait que lorsque le nombre de Model Point requis est faible par rapport
au nombre de contrats à classi�er, les groupes sont nécessairement plus hétérogènes, ils comprennent des contrats
d'ancienneté variée et la contrainte va donc multiplier ce nombre. Cependant, les classes originales (celles avant
application de la contrainte) ayant été créées par recherche d'optimisation de l'homogénéité, elles sont constituées
de contrats proches les uns des autres en termes de paramètres. Dans chaque classe, la majorité des contrats
possèdent la même ancienneté. Cet e�et est accentué par l'aspect � jeune � de notre portefeuille d'étude qui ne
comporte que 14 années d'émissions di�érentes.
A�n d'étudier l'impact de la contrainte de cohorte sur l'homogénéité du contrat, nous avons calculé l'inertie
intra-classe de l'ensemble des classes retournées et l'avons comparée avec celle obtenue sans application de la
contrainte de cohorte annuelle.
Figure 63 � Comparaison des inerties intra-classe en fonction du nombre de classes exigées
Nous observons que l'augmentation du nombre de classes lors d'une segmentation entraine généralement une
116
diminution de l'inertie intra-classe globale. Cet e�et est ampli�é par le fait que l'augmentation du nombre de
classes repose ici sur la création de groupe de dates d'émission homogènes ce qui implique un écart nul en terme
d'ancienneté et augmente également la probabilité que les TMG soient similaires, les contrats ayant été émis dans
le même contexte.
Les écarts restent cependant assez faibles (variations d'inertie comprises entre 51,4% et 0,8%).
Il nous a alors paru intéressant de modi�er l'implémentation de la contrainte de cohorte de manière à ce que le
nombre de classes retournées sous contrainte de réalisation de cohorte annuelle soit égal au nombre de classes
retournées sans exigence de cohorte a�n de comparer l'homogénéité des classes créées de manière plus juste.
On obtient les résultats suivants :
Figure 64 � Inertie intra-classe en fonction du nombre de classes crées
Reprenons la méthode de l'optimisation de la segmentation avec la méthode CAH et le recuit simulé en
ajoutant la contrainte de cohorte :
Figure 65 � Impact de la cohorte annuelle sur la méthode d'optimisation de la formation de groupes homogènes
117
Si on assureur souhaite respecter la contrainte de cohorte annuelle tout en conservant le même nombre de
Model point, il doit donc faire face à une perte d'homogénéité qui se chi�re ici aux alentours de 20%.
Il faut cependant prendre en considérations le fait que l'inertie est ici déterminée sur la base de la distance
euclidienne classique. Un mesure de distance accordant plus de poids à la proximité de l'ancienneté des contrats
diminuerait ces écarts.
L'utilisation de l'algorithme d'optimisation met en revanche en avant un phénomène de blocage : l'écart relatif
n'arrive pas à descendre sous la barre des 6,45% pour la constitution de 83 Model Points.
Ainsi, bien que la contrainte de cohorte annuelle souhaitée par la norme soient justi�ée en théorie par la volonté
de rassembler des contrats réalisés dans des conditions identiques (et souvent soumis à des TMG proches), elle
pose des problèmes opérationnels non négligeables :
∗ Elle provoque une augmentation du nombre de Model point de l'assureur pouvant être très forte selon la
diversité de son portefeuille, entrainant ainsi de forts coûts et une certaine exigence en terme de capacité
des modèles utilisés.
∗ Même si l'assureur venait à aménager sa segmentation de manière à conserver un nombre de Model Points
raisonnables, l'homogénéité de ses groupes serait alors diminuée, entrainant par la même occasion une
augmentation des écarts observés entre le bilan retourné par son modèle et celui qui serait obtenu en
estimant la pro�tabilité des contrats de manière unitaire. On observerait donc une déformation de sa
réalité comptable et une augmentation de la probabilité de mismatch au sein du groupe de contrats
potentiellement pro�tables.
118
Conclusion
En dépit de sa volonté d'uniformiser la communication �nancière des entreprises d'assurance à l'échelle mon-
diale, la norme IFRS 17 � Insurance Contracts � o�re aux assureurs de vastes libertés de modélisation, et ce
dès la période de transition. Dans le présent mémoire, nous avons tenté de souligné les impacts potentiels sur la
mesure de pro�tabilité des di�érents choix de modélisation laissés à la discrétion des assureurs tels que le choix
de l'ajustement pour le risque non �nancier.
Au-delà des aspects d'uniformisation, les nouvelles règles de segmentation imposées par la norme rendent
impossible l'utilisation des Model Points utilisés dans le cadre des autres normes comptables et prudentielles et
poussent les assureurs à se confronter au problème de la classi�cation des contrats en terme de rentabilité et
d'années d'émission.
L'impact de la prise en considération de la contrainte de cohorte annuelle a été décliné tant en terme d'homogénéité
des Model Points, qu'au niveau de leur quantité. Il en est ressorti qu'au sein de notre portefeuille à la diversité
réduite et orienté vers la constitution de classes homogènes, les cohortes annuelles peuvent tripler le nombre de
Model Points ou, en cas de maitrise de la quantité de Model Points, diminuer l'homogénéité des groupes créées
de plus de 20%.
Son impact sur le bilan S2 reste cependant limité dans le cadre de notre étude, tout comme l'impact des autres
contraintes imposées par la norme IFRS 17. Ces éléments suggèrent la possibilité d'utiliser les Model Points
développés sous IFRS 17 lors de la réalisation de bilans prudentiels Solvabilité II.
Les applications utilisées ont démontré l'e�cacité de la combinaison d'algorithmes d'optimisation avec des
méthodes de clustering, usuelles ou non, qui permettent de créer des Model Points produisant une CSM avec
un écart relatif inférieur à 1% par rapport à la CSM théorique dé�nie. Ces méthodes se sont cependant révélées
chronophages et ont mis en évidence la di�culté que poserait l'estimation de la pro�tabilité d'un portefeuille,
contrat par contrat pour des assureurs ayant un volume d'a�aire important.
Une fois calibrée, l'utilisation de la mesure de dissimilarité comme méthode d'estimation du niveau de pro�tabi-
lité s'est avérée e�cace. En e�et, elle a permis la bonne classi�cation de plus de 80% des contrats en un nombre
de calculs réduits. La pertinence de ces résultats reste néanmoins dépendante des hypothèses choisies liées aux
zones discrétionnaires de la norme.
La deuxième méthode proposée s'a�ranchit de cette limite et propose une méthdologie de détermination d'un
proxy estimant la CSM associée aux contrats. Les résultats obtenus se sont révélés prometteurs en terme de
classi�cation des contrats mais ont a�ché des lacunes au niveau de la précision de la détermination du montant
de CSM associé à chaque contrat. Cette limite issue des approximations réalisées lors de la calibration du proxy
peut être outrepassée par l'utilisation de méthodes de �tting adéquates, ceci pouvant faire l'objet d'une étude
complémentaire.
119
vgvg
120
Bibliographie
kkk
[1] Bruynooghe M. (1978), Class�cation ascendante hiérarchique des grands ensembles de données : un algo-
rithme rapide fondé sur la construction des voisins réductibles. Les Cahiers de l'Analyse des Données , 3, 7-33.
[2] Buzzi, A (2017), Approximation du bilan économique sous Solvabilité II via des méthodes d'apprentissage
automatique et application à l'ORSA. Mémoire d'actuaire, Université Paris Dauphine, Paris.
[3] CEIOPS (2010), Task Force-Report on the Liquidity Premium. C. SEC-34/10.
[4] EFRAG (2017), Transition to IFRS 17 Insurance Contracts, Issues papers, Paper 05-05. EFRAG TEG mee-
ting
[5] EIOPA (2014), Technical Speci�cation for the Preparatory Phase, Part 1. EIOPA 14/209 document.
[6] Ernst & Young (2012), Applying IFRS : IFRS 13 Fair Value Measurement. Report EYG no. AU1362
[7] IASB (2017), IFRS 17 Insurance contracts, Basis for Conclusions. IFRS Foundation.
[8] IASB (2017), IFRS 17 Insurance contracts, IFRS standards. IFRS Foundation. [9] Gower, J. C., & Ross, G.
J. (1969). Minimum spanning trees and single linkage cluster analysis. Applied statistics, 54-64.
[10] Koelschbach J., Trussell M., Goad A. & Spall C. (2017), First impressions : IFRS 17 Insurance Contracts,
KPMG Publication number 134753.
[11] Macropol K. (2015), Clustering on Graphs : The Markov Cluster Algorithm, CS 595D Presentation, Univer-
sity of California at Santa Barbara, Santa Barbara.
[12] Hines W. & Verheugen H. (2017), IFRS 17 - Introduction, Challenges & Opportunities. Milliman, Dublin
seminar.
[13] Morin C. (2015), Le reporting multinormes en assurance vie - Enjeux et éléments de convergence des réfé-
rentiels Solvabilité 2 et IFRS 4 phase 2. Mémoire d'actuaire, ISUP, Paris.
[14] Saugner G. (2017), Application de la future norme IFRS Contrats d'assurance à un portefeuille de contrats
d'Epargne Euro. Mémoire d'actuaire, CNAM, Paris.
[15] Van Dongen, S. M. (2000). Graph clustering by �ow simulation. Ph.D. Thesis, Utrecht University, Utrecht.
121
vgvg
122
Annexe A : Rappels
1) Rappels sur les distances
Soit E un ensemble non vide.
Une application d : E × E → R+, (x, y)→ d(x, y) est une distance sur E si elle véri�e :
∗ La propriété de séparation : ∀(x, y) ∈ E × E, x = y ⇔ d(x, y) = 0;
∗ La propriété de symétrie : ∀(x, y) ∈ E × E, d(x, y) = d(y, x);
∗ L'inégalité triangulaire : ∀(x, y, z) ∈ E × E × E, d(x, y) ≤ d(x, z) + d(z, y);
Les distances permettent ainsi de quanti�er les dissimilarités entre deux éléments d'un ensemble.
Les plus courantes étant
∗ La distance euclidienne : d(x, y) ={∑
i(xi − yi)2}1/2
∗ La distance de Manhattan : d(x, y) =∑i |xi − yi|
∗ La distance de Minkowski : d(x, y) = p√∑
i |xi − yi|p
∗ La distance de Tchebychev : d(x, y) = sup1..n|xi − yi|
2) Rappels sur la classi�cation
La classi�cation est l'a�ectation de chaque individu d'un ensemble à seul et unique groupe. C'est ce que l'on
appelle en mathématiques le partitionnement.
Soit E un ensemble non vide, on appelle partition de E tout objet générant des sous ensembles e1, e2, ...en
tels que
∗ ∪i=1...nei = E avec ei 6= ∅∗ ei ∩ ej = ∅ pour i 6= j
Soit ek un sous-ensemble de E comprenant des individus yi, i = 1, n caractérisés par p variables explicatives.
Le barycentre du groupe est le vecteur gk ={
1n
∑i=1,n yi,1,
1n
∑i=1,n yi,2, ......
1n
∑i=1,n yi,p
}ayant donc pour
coordonnées les moyennes.
L'inertie intra-groupe est la �mesure de dispersion multidimensionnelle� à l'intérieur des sous-ensembles de la
partition.
Soit un ensemble E partitionné en n classes ei, i = 1, n. L'inertie intra-classe est donnée par la formule suivante :
Iintra = 1n ∗
∑i=1..n
∑j∈ei||yj − gi||2
L'inertie est un critère couramment utilisé pour mesurer la qualité d'une partition. Minimiser l'inertie intra-classe
revient à créer des groupes homogènes du point de vue de leurs variables explicatives. La meilleure partition selon
ce critère est évidemment celle dont tous les groupes sont des singletons : l'inertie intra-classe associée est alors
nulle. Dans le cadre d'un problème de recherche d'homogénéité, il faut alors chercher à minimiser l'inertie
123
intra-classe sous contrainte d'un nombre de sous-ensemble �xé.
3) Algorithme des �ots
Les algorithmes reposant sur la théorie des graphes présentés précédemment sont intéressants par rapport à
leur simplicité et à leur apport d'un point de vue opérationnel. Cependant, leur simplicité impacte leur résultat.
Leur manque de précision par rapport à d'autres algorithmes de segmentation de graphes leur est reproché dans
le domaine de la segmentation d'images notamment.
Nous allons donc introduire une méthode de segmentation de graphes plus technique, précise et donc plus popu-
laire : La segmentation par les �ots maximums.
∗ Principe :
On reprend le graphe représentant le portefeuille : les sommets sont les contrats et ils sont liés entre eux par des
arcs pondérés par l'inverse de la dissimilarité entre deux contrats : Plus des contrats seront proches, plus le poids
de l'arc sera important.
On ajoute deux sommets terminaux S et T , liés à tous les sommets du graphe. Notons ai le poids de l'arc liant
T au sommet i , bi le poids de l'arc liant S au sommet i et wij le poids de l'arc reliant les sommets i et j. (donc
l'inverse de la distance entre les contrats i et j).
On dé�nit un indicateur xi tel que, si l'on partitionne le graphe de telle manière qu'il soit impossible d'aller de
S à T , ∀i xi = 1 si il existe un chemin de S à i et xi = 0 sinon.
Ainsi, pour une partition CS,T donnée, le poids de la partition est donné par
W (CS,T ) =∑i ai ∗ xi +
∑i bi ∗ (1− xi) +
∑i,j wij ∗ xj ∗ (1− xi)
Cette fonction correspond à la somme des poids des arêtes ayant été retirées pour partitionner le graphe et
mesure donc une distance entre les 2 classes créées.
Le poids de la partition peut se réécrire
W (CS,T ) =∑i bi +
∑i(ai − bi) ∗ xi +
∑i,j wij ∗ xi −
∑i,j wi,j ∗ xi ∗ xj
W (CS,T ) =∑i bi +
∑i(ai − bi +
∑j wij) ∗ xi −
∑i,j wi,j ∗ xi ∗ xj
W (CS,T ) = A+∑iBi ∗ xi +
∑Ci,j ∗ xi ∗ xj
Avec A =∑i bi, Bi = ai − bi +
∑j wij et Ci,j = −wi,j
Or, le théorème de Minimisation de l'énergie via les �ots maximaux dit que � Toute fonction qui peut être
écrite sous la forme d'une somme dépendant de plus de deux variables binaires x ∈ {0, 1} :W (x1,x2, ....xn) = A+
∑iBi ∗xi+
∑Ci,j ∗xi ∗xj peut être minimisée par les �ots maximaux si et seulement
si A ∈ <+, Bi ∈ <+et Ci,j ∈ <+.
Il est donc possible de déterminer une coupe minimale par l'algorithme des �ots maximaux. Or, les poids étant
égaux à l'inverse de la distance entre les contrats, la coupe de poids minimale sera en réalité la coupe de distance
Maximale entre les contrats, celle qui maximisera l'inertie inter-classe et minimisera donc l'inertie intra-classe.
Il ne reste donc plus qu'à utiliser successivement des algorithmes de �ots maximum pour réaliser une segmentation
de contrats optimaux. Le plus courant étant l'algorithme de Ford-Fulkerson.
124
Table des �gures
1 Evolution de la CSM sur un exercice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2 Composition des Ful�lment Cash-Flows . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3 Building Block Approach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4 Impact d'une hausse du BEL au bilan IFRS 17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5 Compte de résultat sous IFRS 17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6 Distinction des éléments des OCI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
7 Segmentation Réglementaire des contrats sous IFRS 17 . . . . . . . . . . . . . . . . . . . . . . . 40
8 Choix de l'approche à la date de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
9 Test SPPI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
10 Indices d'aggrégation pour la méthode CAH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
11 Exemple de Dendrogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
12 Exemples simpli�és de Graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
13 Visualisation de la présence des arcs dans les clusters . . . . . . . . . . . . . . . . . . . . . . . . . 60
14 Matrice en sortie de l'algorithme MCL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
15 Méthode de l'arbre couvrant de poids Minimal sur un exemple simple . . . . . . . . . . . . . . . 63
16 Agrégation par dendrogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
17 Ecarts de convergence en fonction du nombre de simulations . . . . . . . . . . . . . . . . . . . . . 70
18 Bilan comptable au sein du modèle ALM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
19 Bilan S2 simpli�é . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
20 Fonctionnement du Modèle ALM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
21 Courbe de la prime de liquidité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
22 Courbe des taux Forward avec ajustement par la prime de liquidité . . . . . . . . . . . . . . . . 75
23 Comparaison des taux ajustés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
24 Création d'un Model Point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
25 Principe de l'algorithme de la colonie de fourmis . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
26 Problème des minimum locaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
27 Comparatif des algorithmes métaheuristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
28 Récapitulatif de la méthode de calibration de la mesure de dissimilarité . . . . . . . . . . . . . . 90
29 Répartition du portefeuille par Sexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
30 Répartition du portefeuille par âge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
31 Répartition du portefeuille par ancienneté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
32 Répartition du portefeuille par TMG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
33 Allocation initiale des actifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
34 Distribution du BE d'un Model Point sur 750 simulations . . . . . . . . . . . . . . . . . . . . . . 95
35 Pilotage de la pro�tabilité des contrats par le choix du niveau de con�ance de la VaR . . . . . . 96
36 Evolution de l'Ajustement pour le Risque non �nancier . . . . . . . . . . . . . . . . . . . . . . . . 97
37 Répartition des contrats par pro�tabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
38 Création de Model Points usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
39 Comparaison des bilans S2 selon la segmentation utilisée . . . . . . . . . . . . . . . . . . . . . . . 99
40 Bilan S2 sous segmentation IFRS 17 avec contrainte de cohorte . . . . . . . . . . . . . . . . . . . 99
41 Ecarts de convergences observés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
125
42 Résultat de l'estimation de la pro�tabilité des contrats étudiés au cas par cas . . . . . . . . . . . 100
43 Inertie intra-classe selon le nombre de classes créées . . . . . . . . . . . . . . . . . . . . . . . . . . 101
44 Résultat obtenu pourla constitution de 800 Model Points . . . . . . . . . . . . . . . . . . . . . . 102
45 Comparaison des sorties avec celles obtenues sans segmentation . . . . . . . . . . . . . . . . . . . 102
46 écart relatif avec la segmentation usuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
47 Résultat pour 83 Model Points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
48 Recuit simulé avec théorie des graphes sur 83 Model Points . . . . . . . . . . . . . . . . . . . . . 103
49 Segmentation avec la théorie des graphes et le recuit simulé . . . . . . . . . . . . . . . . . . . . . 104
50 Convergence du recuit Simulé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
51 Segmentation avec CAH et la colonie de fourmis . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
52 Méthode de simpli�cation de la segmentation sous IFRS 17 . . . . . . . . . . . . . . . . . . . . . 106
53 Evolution de l'algorithme de la colonie de fourmi . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
54 Etat de la colonie de fourmi lors de l'arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
55 Limites de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
56 Impact du seuil de pro�tabilité sur la précision de la méthode . . . . . . . . . . . . . . . . . . . . 110
57 Méthode du contrat de pro�tabilité nulle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
58 Variations de la CSM selon les paramètres des contrats et le niveau de PM . . . . . . . . . . . . 112
59 Variations de la CSM en fonction de la PM, ventilées par TMG . . . . . . . . . . . . . . . . . . . 113
60 Variations de la CSM en fonction de l'âge pour 2 niveaux de PM . . . . . . . . . . . . . . . . . . 113
61 Sensibilité de la CSM à l'ancienneté pour une PM de 11 776 . . . . . . . . . . . . . . . . . . . . . 114
62 Tableau récapitulatif de l'impact de la cohorte annuelle sur le nombre de Model Points . . . . . . 116
63 Comparaison des inerties intra-classe en fonction du nombre de classes exigées . . . . . . . . . . . 116
64 Inertie intra-classe en fonction du nombre de classes crées . . . . . . . . . . . . . . . . . . . . . . 117
65 Impact de la cohorte annuelle sur la méthode d'optimisation de la formation de groupes homogènes 117
126