l`approche stochastique de l`embedded value

publicité
Commission actif/passif de l’Institut des Actuaires
L'APPROCHE STOCHASTIQUE DE L'EMBEDDED VALUE
Plan du document
L'APPROCHE STOCHASTIQUE DE L'EMBEDDED VALUE ....................................................... 1
Introduction .................................................................................................................................................... 3
1 - La simulation des marchés financiers ....................................................................................................... 3
1-a/ Les obligations / l'inflation ..................................................................................................... 4
1-b/ Les actions ............................................................................................................................. 4
1-c/ L'immobilier ........................................................................................................................... 5
1-d/ Autres actifs / Produits dérivés .............................................................................................. 5
1-e/ Le paramétrage des modèles .................................................................................................. 6
2 - Le comportement des clients .................................................................................................................... 7
2-a/ La loi de rachat ....................................................................................................................... 7
2-b / La loi d'arbitrage en sortie des fonds en euro de contrats multisupports ............................ 11
2-c/ La loi de chiffre d'affaires .................................................................................................... 12
3/ Le comportement de l'assureur ................................................................................................................ 13
3-a/ La stratégie d'investissement ................................................................................................ 13
3-b/ La stratégie de vente ............................................................................................................ 14
3-c/ La stratégie de revalorisation ............................................................................................... 14
4/ Les frais / commissions............................................................................................................................ 15
5/ L'analyse des résultats.............................................................................................................................. 15
6/ Conclusions :limites et prolongements de l'approche exposée ................................................................ 17
2
Introduction
L’approche présentée dans ce document vise à pallier ce que nous considérons comme le principal
inconvénient de l'approche classique du calcul de l'Embedded Value, à savoir de ne pas donner de réelle
indication sur le risque financier.
Même si des chocs instantanés sur les marchés financiers sont en général simulés lors de tests de
sensibilités, l'évolution des marchés dans l’approche classique est ensuite lissée : les taux d’intérêt sont
supposés stables, les actions fournissent chaque année une performance stable faisant ressortir la prime de
risque sans réalisation de celui-ci. En poussant à l'extrême, on pourrait obtenir, après le choc initial simulé,
une situation où la compagnie couvrirait des engagements viagers à 4,5% alors que les taux d’intérêt à long
terme valent 3,5% par un portefeuille composé à 100% d’actions qui seraient supposées rapporter les taux à
long terme + 2%, soit 5,5%…
En réalité l'assureur vie est un vendeur d'options :
-
le taux minimum garanti sur les contrats en euros est un floor annuel sur le rendement comptable.
Chaque attribution de participation aux bénéfices réévalue les strikes des années futures. Les
contraintes commerciales poussent à réaliser des plus-values latentes et à consommer de la
richesse qui manquera peut-être ensuite en cas d'évolution défavorable ultérieurement.
-
Le rachat anticipé est un put à la valeur comptable en cas de hausse importante des taux.
Ces options sont clairement "path dependant", la deuxième option dépendant de surcroît de fonctions de
comportement. Dans ces conditions, la seule approche utilisable pour l'évaluation de ces options est la
simulation de nombreux scénarios d'évolution des marchés financiers dans le futur : la méthode de "Monte
Carlo".
Il s'agit en fait tout simplement de refaire, canton par canton, le même calcul que pour l'Embedded Value
classique dans des scénarios non plus déterministes mais générés aléatoirement. La valeur actuelle des
bénéfices futurs et le coût de blocage de la marge peuvent ainsi être calculés scénario par scénario, puis on
calcule des valeurs moyennes et on analyse la distribution.
1 - La simulation des marchés financiers
En général on utilise des modèles de génération aléatoire de marchés financiers en tenant compte des
prix de marché pour la calibration (en fonction des prix des options de taux, sur actions …).
Il est également possible d’envisager de "rejouer" des scénarios historiques, à condition d'avoir des
données historiques suffisamment longues pour y piocher des séries de durée égale à la durée de la
simulation envisagée.
3
1-a/ Les obligations / l'inflation
Plusieurs modèles de génération aléatoire des courbes de taux d'intérêt ont été développés par les
chercheurs.
Parmi les plus célèbres :
-
modèle à un facteur : Vasicek
-
modèles à deux facteurs : Hull and White (existe également à un facteur), Heath Jarrow Morton
Ces modèles s'appuient toujours sur la courbe des zéros coupons sans risque, les taux des titres à
coupon pouvant ensuite s'en déduire. L'échantillon obtenu doit être ensuite corrigé des éventuels taux
négatifs générés par le processus aléatoire.
La modélisation de l'inflation est importante dès lors que celle-ci est un indicateur utilisé dans la
modélisation, en particulier pour les contrats de rente. Elle est également utile pour la projection des
coûts.
Certains modèles génèrent d'abord l'inflation puis en déduisent les taux (par exemple le modèle de
Wilkie, très utilisé dans certains pays anglo-saxons), il est aussi possible de générer d'abord les courbes
de taux, puis de reconstituer l'inflation qui serait cohérente, soit par une fonction dépendant à la fois des
taux courts et des taux longs, soit en simulant un modèle de génération de courbes de taux réels
(s'appuyant sur le prix des titres indexés sur l'inflation) avec de fortes corrélations avec le modèle des
taux nominaux et des volatilités plus faibles…
La modélisation des papiers à spread peut être plus ou moins fine suivant la décomposition retenue dans
les actifs. Si l'assureur a une politique très prudente de la gestion du risque crédit, c’est à dire une
dispersion suffisante entre les différents émetteurs d’une même classe de papiers à spread il peut
regrouper dans une même classe toutes ces obligations , avec un spread moyen peu volatile et des
probabilités de sinistres faibles. Sinon l’assureur peut gérer une classe pour chaque niveau de rating, ce
qui demande une modélisation plus fine des évolutions relatives des spread et des probabilités de défaut.
A noter que le nombre de simulations effectuées est souvent limité par les temps de calcul, ce qui peut
poser des problèmes pour la génération aléatoire de défauts de crédit. Le plus souvent on est amené à
recourir à une approche simplifiée en considérant un taux de défaut annuel forfaitaire dépendant du
niveau de spread du moment.
1-b/ Les actions
La plupart des modèles utilisent un générateur de lois log normale pour simuler les actions. Or l'analyse
historique montre clairement que cette loi n'est pas adaptée et ne pourrait pas expliquer la répétition de
kracks depuis la fin des années 80 et l'analyse des queues de distribution.
4
Plusieurs approches ont été développées pour améliorer cette modélisation :
-
l'utilisation de mélanges de lois (avec un état "normal" et un état "agité" simulant des périodes de
crises se traduisant par de fortes volatilités et les espérances plus faibles).
-
l'utilisation de lois de Levy permettant de générer des distributions à queues plus épaisses que la
loi normale.
On suppose en général que les actions bénéficient d'une prime de risque. Certaines approches
privilégient une espérance de rendement des actions indépendante du niveau simulé des taux, d'autres
considèrent une espérance égale à taux 10 ans + X% ou taux monétaire + Y%…
La performance des actions doit être ensuite décomposée entre dividende (avec modélisation de l'avoir
fiscal) et variations de cours. Le taux de distribution peut être considéré comme stable (un pourcentage
de la valeur boursière) ou dépendant du niveau des taux simulés.
Dans la modélisation, l'assureur est amené à dégager des plus-values pour assurer le rendement
comptable. Une partie de ces plus-values peut être considérée comme bénéficiant du régime des plusvalues à long terme, ce qui influera sur l'impact du taux d'imposition dans le calcul final.
Par ailleurs, un des risques comptables sur les actions et l’immobilier est la constitution d’une Provision
pour Risque d’Exigibilité ou de Provisions pour Dépréciation à caractère Durable. En général les modèles
ne simulent pas ligne par ligne mais procèdent en regroupant celles-ci par classes homogènes, voire en
une ligne globale. Un des moyens de prendre en compte ce risque est de supposer qu'un pourcentage
des éventuelles moins-values latentes globales devra donner lieu à constitution d'une PRE ou de PDD.
1-c/ L'immobilier
La performance globale de l'immobilier est en général modélisée comme celle des actions, avec une
volatilité plus faible. Le rendement courant (loyer, charges) dépend souvent beaucoup de la situation de
départ (avec revalorisation fonction de l'inflation simulée). On peut compléter la simulation avec la
génération de taux d'occupation ( 100%). Il faut également tenir compte d'une moindre liquidité de cet
actif dans la simulation, en particulier lors des dégagements de plus-values.
1-d/ Autres actifs / Produits dérivés
Chaque grande classe d'actif doit être modélisée de façon cohérente avec l'environnement simulé.
Par exemple un placement alternatif pourra avoir un rendement peu corrélé aux autres actifs, les
volatilités utilisées pour le pricing des produits dérivés dépendront de celles utilisées pour la génération
des marchés, le modèle utilisera un "smile" pour évaluer les options hors de la monnaie, etc…
Les performances des OPCVM se déduisent des performances des actifs de base grâce à leur
benchmark, en simulant des rebalancements systématiques de manière à maintenir une composition
stable de chaque OPCVM entre ses différents actifs de base.
5
1-e/ Le paramétrage des modèles
L'étape de paramétrage initial est la plus importante. Elle va porter sur plusieurs valeurs qui vont ensuite
piloter la génération des scénarios et in fine déterminer les résultats obtenus.
1-e-1/ Les volatilités retenues : sans doute le jeu de variables qui ont le plus d'importance dans les
résultats finaux.
Elles peuvent être fixes tout au long de la simulation, ou bien être également des variables aléatoires
générées stochastiquement.
On peut soit les estimer à partir du passé, soit les déduire des cotations des options sur les produits
dérivés à la date de calcul. Ce deuxième choix peut sembler plus cohérent avec la situation de départ,
il fait cependant courir le risque de calibrer une simulation de long terme sur des paramètres de départ
correspondant à une situation atypique, par exemple de crise exacerbée.
1-e-2/ Les corrélations entre actifs
On estime en général les corrélations sur le passé. Le problème est qu'elles ne sont pas stables selon
les périodes : par exemple, sur de longues périodes on observe une corrélation positive entre actions
et obligations (ce qui est logique : le prix d'une action est bien la valeur actualisée des bénéfices
futurs) mais de longues périodes peuvent montrer une corrélation complètement inversée (en cas de
craintes sur la croissance, on craint une baisse des bénéfices futurs, les banques centrales réagissent
en baissant les taux…). On peut envisager des corrélations suivant un processus "à saut".
En général on a des matrices de corrélations de ce type :
Taux
Taux
Inflation
Actions
Immobilier
Alternatif
1
Forte
Moyenne/Instable
Forte
Faible
1
Instable
Forte
Faible
1
Faible
Faible
1
Faible
Inflation
Actions
Immobilier
Alternatif
1
1-e-3/ Les primes de risque
Il est habituel de considérer que les actions, l'immobilier voire l'alternatif bénéficient d'une prime de
risque sur les produits de taux. Là encore l'analyse du passé montre que ces primes de risque
peuvent être instables dans le temps. Le plus logique est de choisir des primes de risque qui soient
cohérentes avec l'hypothèse centrale retenue dans les calculs déterministes et de retenir des chiffres
prudents.
6
Pour les obligations, la plupart des modèles
ont été développés
pour le pricing d'options et
raisonnent le plus souvent en "risque neutre". Pourtant il est clair sur les données historiques que le
marché monétaire "rapporte" moins que les obligations longues dès lors que l’on se place dans une
perspective de détention suffisamment longue des obligations ce qui est le cas des assureurs. Il est
donc logique de rajouter au modèle une prime de risque dépendant de la maturité (le plus souvent
avec un terme en racine de la maturité) et calibrée sur la base des observations historiques.
Dans la mesure où le portefeuille serait suffisamment diversifié et que l’horizon de gestion serait
suffisamment long, il est possible d’envisager que les papiers à spread génèrent une prime de risque
avec des taux de perte suite à défaut inférieurs en moyenne au spread.
Enfin, une modélisation spéciale devrait être faite sur les évènements de crédit : l'assureur cède-t-il
les titres dépréciés avec impact sur la réserve de capitalisation ou bien constitue-t-il une PDD ?
1-e-4/ La liquidité
Outre l'immobilier, on peut tenir compte d'une plus faible liquidité de certains actifs (papier à spread,
placements alternatifs…) soit en supposant dans la modélisation que ce sont les derniers à être
vendus, soit en prenant en compte des fourchettes acheteur/vendeur plus larges.
2 - Le comportement des clients
Il s’agit de la fonction la plus difficile à paramétrer, étant donné le manque d’observations historiques en
matière de sensibilité des assurés à une hausse forte et durable des taux d’intérêt. L'impact sur le
résultat final étant cependant très important, il serait nécessaire que l'assureur présente en annexe de
ses calculs les principales hypothèses formulées et simule la sensibilité des résultats à celles-ci.
2-a/ La loi de rachat
2-a-1/ Paramètres à prendre en compte
Un certain nombre de paramètres susceptibles d’influer sur le comportement du client et dépendant de la
stratégie de chaque société, de son réseau, de sa typologie de clientèle et des caractéristiques des
produits doivent être modélisés :
-
conditions contractuelles
• TMG
• échéance « officielle » du contrat (avant prorogation)
• pénalités de rachat
-
situation personnelle de l’assuré
• ancienneté fiscale
-
• profil d’épargnant : âge, patrimoine détenu, …rentabilité du produit
• stratégie en matière de taux de revalorisation servi
7
-
réseau de distribution
• influence sur le comportement du client
• offre de produits plus attractifs pouvant inciter au rachat
-
compétitivité du produit
• indicateur approprié ou formule de calcul sur lesquels le client se fonde pour conserver ou
racheter son contrat
Par exemple, le pourcentage de rachat peut dépendre de l’écart entre le taux 10 ans et le taux servi
selon une fonction en forme en « marche d’escalier incliné », que l’on peut bâtir, soit de façon très
simple par trois segments
, soit de façon continue
(modélisation avec arc
tangente ou fonction logistique…).
2-a-2/ Prise en compte des paramètres dans la formule
On peut simplement raisonner sur l’écart entre le taux servi et les taux de marché en adaptant les
coefficients de la loi aux situations particulières contrat/client, ou bien raisonner sur l’écart taux servi
escompté / rendement espéré en cas de rachat et de souscription d’un nouveau contrat Cette
deuxième approche, plus sophistiquée, suppose de définir un horizon de placement pour chaque
assuré.
En cas de rachat pour souscrire un nouveau contrat, le client :
-
paierait la fiscalité correspondant à son ancienneté
-
paierait les frais d’entrée sur le nouveau contrat
-
pourrait estimer son futur rendement au taux du moment moins les frais de gestion du nouveau
contrat
-
paierait la fiscalité lors du rachat sur le nouveau contrat
Au cas où le client resterait dans le contrat :
-
il pourrait estimer son rendement futur sur la base du taux actuellement servi
-
il paiera lors du terme la fiscalité correspondante
D’autres approches sont possibles, par exemple celle consistant à faire racheter et arbitrer seulement
au terme des 8 ans du contrat en cours, optimisant ainsi l’impact de la fiscalité, mais cela n’est à priori
envisageable que si l’assuré a moins de 70 ans au terme des 8 ans.
Le comportement du client « moyen » serait alors modélisé à partir de trois taux estimés :
T1 : si l’assuré ne rachète pas
T2 : s’il rachète immédiatement pour souscrire un nouveau contrat
8
T3 : s’il attend le 8ème anniversaire pour faire l’opération (T3 n’étant calculé que si le client à moins
de 70 ans au 8ème anniversaire)
Si T2 > max. (T1, T3), le client « rationnel » aurait intérêt à racheter.
Afin d’introduire un effet retard, on peut raisonner sur un lissage par exemple sur deux ans de cet
écart et bâtir ensuite la loi de rachat en rajoutant à un taux de rachat « normal » un taux de rachat
« opportuniste » dépendant de cet écart et d’une plus ou moins grande réactivité des clients.
Le taux de rachat « normal » dépend en partie de l’ancienneté fiscale, avec généralement une pointe
à l’échéance des contrats lorsqu’une telle information figure explicitement dans les conditions
affichées lors de la souscription et que la prorogation se fait donc à l’initiative du client.
A noter que le taux de rachat « opportuniste » devrait pouvoir être négatif pour venir baisser le taux
« normal » dans les cas où le contrat s’avère particulièrement avantageux (taux garanti très élevé par
exemple) En effet, on peut s’attendre à ce que les clients détenteurs de ce type de contrat trouvent
d’autres financements de leur besoin éventuel de cash (par exemple solliciter une avance).
Enfin, le niveau de réactivité est choisi en fonction des caractéristiques des clients et des réseaux de
distribution. Par exemple :
-
clients particulièrement
réactifs : montants de primes versées élevés correspondant par
exemple à des contrats de type gestion de patrimoine
-
clients peu réactifs : correspondant notamment aux clients de plus de 70 ans et/ou n’ayant pas
encore atteint l’échéance fiscale des 8 ans.
-
Moyennement réactifs correspondant au reste de la clientèle
9
-2
,0
0
-1 %
,5
0
-1 %
,0
0
-0 %
,5
0%
0,
00
%
0,
50
%
1,
00
%
1,
50
%
2,
00
%
2,
50
%
3,
00
%
3,
50
%
4,
00
%
4,
50
%
5,
00
%
5,
50
%
6,
00
%
6,
50
%
Taux de rachat
EXEMPLE DE LOI DE RACHAT
Ecart de TRI(T2-max(T1,T3))
très réactifs
moyennement réactifs
peu réactifs
taux "normal" dépendant d l'ancienneté
D’autres approches privilégient une modélisation des rachats exceptionnels en appliquant des
coefficients multiplicateurs aux rachats constatés historiquement, ces coefficients dépendant du degré
de compétitivité des contrats par rapport aux conditions de marché futures simulées dans les
scénarios.
2-a-3/ Estimation des paramètres
Il est certain que les assureurs manquent de données pour modéliser la partie droite de la courbe des
rachats « opportunistes ». Ceci n’empêche pas de faire l’effort d’analyser les séries historiques des
taux de rachat par générations par type de contrats.
Mais ces investigations ne donneront aucune indication sur ce qui pourrait se passer en cas de forte
hausse des taux et de déconnexion du taux servi avec les taux d’intérêt du moment puisque ce type
de configuration ne s’est pas présenté sur les 20 dernières années, période durant laquelle s’est
fortement développé le marché de l’assurance vie en France.
Un des rôles des actuaires pourrait être de « normaliser » une courbe standard de manière à pouvoir
comparer les assureurs selon une même fonction de comportement.
10
2-b / La loi d'arbitrage en sortie des fonds en euros de contrats multi-supports
2-b-1/ Décomposition du stock
La simulation complète de ce type de contrat suppose la gestion en parallèle du fonds en euros et
des UC. La modélisation du passif est plus compliquée, puisqu’il convient
de croiser la
décomposition euros (ancienneté/classe d'âge/TMG/voire niveau de prime) avec celle par grande
catégorie d'unités de compte et par prix de revient (dès lors que l'on veut aussi simuler les garanties
plancher). On aboutit ainsi à une multiplication des "model points" qui devient ensuite un handicap
pour les temps de calculs.
La seule solution serait de simplifier au maximum, en regroupant les UC en grandes classes, mais en
perdant de l'information. En pratique, il est encore d’usage de modéliser de manière totalement
séparée la partie investie en UC et de partie investie en euros et de ne pas prendre en compte les
possibles arbitrages entre type de supports.
La modélisation devrait de plus prendre en compte :
-
les différentes mesures contractuelles de protection mises en place par l’assureur (introduction
de frais d’arbitrage, possibilité de suspension des arbitrages, autres limitations…)
-
les mécanismes d’arbitrage automatique éventuellement mis en place dans le fonctionnement
des contrats…
-
les garanties annexes (décès, pep, etc…)
2-b-2/ Lois d'arbitrage
Certaines analyses historiques montrent plutôt une corrélation des rachats du fonds en euros vers les
supports UC en cas de hausse des marchés, le mouvement inverse en cas de baisse des marchés
étant moins marqué sans doute en raison d‘un comportement attentiste des clients confrontés à des
contre-performances. Certaines variables non financières sont aussi importantes : en particulier
l'influence du réseau distributeur.
L’élément majeur de la loi d’arbitrage serait la comparaison du taux servi avec les rendements des
supports UC estimés à partir de la performance des actions simulée dans le modèle.
Là encore, on devrait segmenter entre clients « avertis » (les très réactifs) qui devraient être dans le
sens du marché (allant du fonds euros vers les supports UC quand les marchés sont dépréciés et
inversement) et les clients de « base » qui sont plutôt en général dans le sens contraire.
11
uc =>euro
Exemple de
lois d'arbitrage
15
%
25
%
35
%
45
%
55
%
65
%
75
%
5%
euro=>uc
-3
5%
-2
5%
-1
5%
-5
%
clients "de base"
clients "avertis"
écart de performance entre uc et taux
servi sur le support euro
A noter que cette fonction d’arbitrage n’est pas impactée par la fiscalité, et en particulier n’a pas de
« barrière » à 70 ans.
En pratique il peut être plus simple et plus prudent de n’utiliser qu’une loi d’arbitrage simple et
« opportuniste » générant systématiquement des arbitrages en sortie du fonds en euros lorsque les
actifs de ce fonds se trouvent en moins value latente, avec une intensité dépendant du niveau de
celle-ci. Là encore une fonction « en escalier » serait à utiliser même si il est difficile d’apprécier la
« hauteur des marches » compte tenu du manque de recul historique.
2-c/ La loi de chiffre d'affaires
La sensibilité des résultats à la loi de chiffre d'affaires ne peut pas être ignorée : une vague de rachat, en
cas de hausse des taux, n'aura pas les mêmes impacts si elle est compensée par du chiffre d'affaires ou
si l'assureur arrête la commercialisation du produit pour en proposer un nouveau qui serait plus
rémunérateur.
La modélisation doit être la plus réaliste possible :
-
en période normale, la prévision de chiffre d'affaires doit s'appuyer sur le business plan
-
si on suppose que l'assureur va créer une nouvelle génération de produits avec des actifs gérés
dans un nouveau portefeuille, le plus simple est de prévoir un taux d'abattement sur le chiffre
12
d'affaires prévu, ce taux étant fonction de l'écart taux servi et taux de marché, en utilisant un
"effet cliquet" pour empêcher qu’une amélioration ultérieure de la compétitivité du produit relance
massivement la production.
-
si on suppose que l'assureur conserve le même portefeuille pour investir le nouveau chiffre
d'affaires (mutualisation des nouvelles souscriptions avec le stock passé), il est préférable de
simuler pour la nouvelle production un taux servi moins compétitif par rapport aux taux du
moment, en appliquant un abattement sur le chiffre d'affaires prévu compte tenu de la moindre
attractivité du produit.
Toutefois si le contrat prévoit un taux garanti sur les versements ultérieurs, il sera prudent de prévoir une
augmentation de ceux-ci dès lors que les taux de marché seront largement inférieurs à ce taux garanti.
Pour les contrats UC, il faudrait également tenir compte dans la loi de chiffre d’affaires d’un pourcentage
investi en euros dépendant de l’écart de performance uc/euro.. A mettre plus bas ?
L’analyse historique de la période 1998-2002 avec de fortes hausses et de fortes baisses de la bourse
devrait pouvoir donner une idée de ces lois.
3/ Le comportement de l'assureur
3-a/ La stratégie d'investissement
La stratégie d'investissement peut être définie simplement de deux façons :
-
uniquement sur le net à placer
-
ou en structure cible (en valeur bilan ou en valeur marché).
D’autres approches plus complexes sont évidemment possibles, pour lesquelles on modéliserait une
structure cible adaptative en fonction des futures conditions de marché (par exemple arrêt des achats
actions si portefeuille en moins-value latente…).
En pratique la deuxième approche est utilisée pour les grandes classes d'actif (monétaire, obligations,
actions…), puis à l'intérieur des investissements obligataires on choisit une répartition par maturité soit
stable (par exemple 10ans, ou répartitions entre les échéances 5 à 12) soit s'adaptant au contexte
(comblement en priorité des gaps de trésorerie futurs…).
L’assureur peut aussi prévoir le recours systématique à des produits dérivés (par exemple des caps avec
un strike égal au niveau des taux du moment +x%).
Quelque soit le niveau de complexité retenu, la stratégie doit être :
-
cohérente avec celle effectivement suivie et en particulier avec le calcul déterministe
-
ne pas tenir compte des marchés financiers futurs (elle ne "connaît" pas l'avenir)
-
explicitée lors de la présentation des résultats compte tenu de son impact.
13
3-b/ La stratégie de vente
La politique de vente peut prendre plusieurs formes. L'ordre de vente retenu doit être également explicité
dans les informations communiquées en annexe du calcul.
Exemple de stratégie de vente
1) Vente de la trésorerie et des actifs courts
2) Vente des actifs obligataires en plus-value en commençant par les plus courts ou les moins en
plus-value
3) Vente des actifs obligataires en moins-value en commençant par les plus courts ou les moins en
moins-value, et en tenant compte des gains sur produits dérivés jusqu'à neutralisation de la
réserve de capitalisation générée à l'étape 2
4) Vente des actifs sans échéance(hors immobilier car peu liquide) en limitant l'impact sur le
rendement financier de l'actif
5) Vente des autres actifs obligataires
6) Vente des autres actifs sans échéance
7) Vente enfin de l'immobilier
A noter que le projet de test d’exigibilité prévoit un ordre de vente des actifs(d’abord la trésorerie, puis les
obligations de moins de 5 ans, puis le reste au prorata) qui pourrait permettre de définir une normalisation
des modèles.
3-c/ La stratégie de revalorisation
Elle s'exprime souvent comme un objectif de revalorisation proche des taux du moment et comportant un
lissage.
Objectif de revalorisation = X% *moyenne taux 10 ans sur N années + Y% + Z%
-
le taux Y% simule le positionnement concurrentiel donné au produit,
le taux Z% peut être fonction des plus-values latentes accumulées et que l’assureur se mettrait à réaliser
et distribuer progressivement.
Si le rendement courant obtenu sur les actifs (en supposant un dégagement automatique progressif des
plus-values latentes pour simuler une gestion financière au fil de l'eau) s’avère insuffisant pour servir le
taux cible et permettre à l’assureur de dégager le niveau de résultat attendu, le modèle peut alors simuler
des dégagements de plus-value sur actions, OPCVM, immeubles ou placements alternatifs pour se
rapprocher de la structure cible, ou générer des reprises à la Provision pour Participation aux Excédents.
A contrario, si le rendement obtenu est supérieur à l'objectif, une partie des excédents peut être dotée
en PPE.
14
Dans l’hypothèse où l'assureur ne parviendrait pas à réaliser son objectif de revalorisation, le modèle
peut prévoir qu'il "sacrifie" une partie de son prélèvement annuel, voire que l’assureur soit amené à
financer par des pertes le maintien de la compétitivité du produit.
Bien que ces informations puissent être considérées comme stratégiques et donc confidentielles, la bonne
compréhension des résultats affichés demanderait qu’un minimum d’information soit communiqué en
annexe des calculs de manière à permettre au marché de s’assurer de la cohérence du modèle avec la
politique effectivement menée..
4/ Les frais / commissions
Les mêmes hypothèses que pour les scénarios déterministes peuvent être utilisées en première
approche, souvent à partir de frais unitaires. Par contre il peut se poser le problème des frais fixes dès
lors que dans certains scénarios la durée du contrat peut se réduire très vite. Dans un scénario de forte
hausse des taux et de forte baisse des actions, l'assureur peut se trouver en grande difficulté. Dans la vie
"réelle", ceci pourrait conduire à des restructurations, des licenciements et donc des frais qui devraient
entrer dans la simulation et l'analyse des résultats. Cet aspect est en général négligé dans la
modélisation.
5/ L'analyse des résultats
Pour chaque chemin financier simulé, le modèle donnerait les résultats suivants :
-
Evolution de la structure des actifs et des plus ou moins-values latentes
-
Evolutions des Provisions Mathématiques et des cash flow clients, que l'on peut séparer en :
 Stock actuel
 New Business 1ère année
 Autre futur business
-
Taux servis
-
Evolution des diverses provisions
 Réserve de capitalisation
 PPE
 PREET
 Eventuellement PGG
-
Evolution des comptes et surtout du résultat comptable de l'assureur, que l'on peut lui aussi
décomposer en résultat sur :
 Stock actuel
 New Business 1ère année
 Autre futur business
15
Il est alors nécessaire de répartir entre ces trois sources de résultat certaines données globales qui sont
calculées au niveau du portefeuille d'actif, en particulier les dotations/reprises à la réserve de
capitalisation ou à la PREET. En pratique on répartit ces dotations/reprises au prorata des PM, même si
ce n'est pas entièrement juste, la réelle "influence" des générations successives des clients sur ces
risques pouvant être différente suivant les conditions de marché prévalant lors de leur versement de
prime.
Le plus souvent on arrête les simulations avant la fin effective des contrats et on doit analyser la situation
de fin de simulation, en particulier le sort des plus ou moins values latentes ou de la PPE fin.
On peut alors supposer :
-
que les plus-values latentes et la PPE fin appartiennent aux futures générations
-
qu'une partie des moins-values latentes fin non couvertes par de la PPE est à la charge de
l'assureur
Pour chaque scénario , on doit ensuite évaluer le résultat net après impôt (dans l'idéal en tenant compte
des avantages fiscaux liés à la détention d'actions : avoirs fiscaux, et mécanisme des plus-values à long
terme), le coût de la marge et actualiser le tout en fonction des taux du scénario simulé pour obtenir :
-
la valeur actuelle du stock
-
celle du new business 1ère année
-
et celle du futur business.
Le coût de la marge et le taux retenu pour actualiser les marges futures s'expriment en général en
fonction des taux courts simulés dans le scénario, avec des primes de risque cohérentes avec celle
retenue dans le calcul déterministe.
Une
approche plus conforme à la théorie des marchés financiers et de la valorisation des options
financières serait de calculer et d'utiliser des déflateurs pour opérer les actualisations Il conviendrait en
effet d’actualiser les marges futures en tenant compte des primes de risque introduites sur les différentes
catégories d’actif. Toutefois, la complexité des environnements simulés rend souvent délicate la
formalisation des déflateurs. De plus cette méthode demande un nombre de simulations encore plus
important.
Une autre approche tout à fait conforme à la théorie des marchés financiers consisterait à n’envisager
aucune prime de risque dans le modèle de simulation et à raisonner en "risque neutre" dans les
scénarios financiers générés.
A noter une complexité à intégrer dans le modèle qui peut être plus ou moins difficile à
appréhender selon les modes de gestion (cantons, actif général, actifs isolés,…) : il s’agit de la
modélisation des postes tels que la réserve de capitalisation, la PRE et les PDD, la PPE, la PAF … qui se
traitent comptablement à un niveau consolidé tous portefeuilles confondus et qu’il faudrait donc pouvoir
également traiter de cette manière dans le modèle.
16
A l’aide du type de modèle qui vient d’être décrit, on obtient in fine une distribution de valeurs actuelles du
stock et du nouveau business.
L'Embedded Value stochastique représente la moyenne de cette distribution tandis que l'analyse des
quantiles permet d'évaluer le risque supporté par l’assureur. On peut noter que l'approche classique de
l'Embedded Value déterministe conduit à un chiffre le plus souvent proche de la médiane de cette
distribution la moyenne étant souvent plus faible. Dans un tel cas, l’approche déterministe surévalue
l’Embedded value des assureurs vie.
6/ Conclusions : limites et prolongements de l'approche exposée
L'approche stochastique présentée se rapproche de la notion de "fair value" telle que décrite dans le
Draft Statement of Principles élaboré par l’IASB. Toutefois, ce document ne reconnaît pas le coût de la
marge de solvabilité et l’IASB impose actuellement un floor à la valeur de rachat. L’IASB a également
décidé (en l’état actuel des discussions) qu’un assureur ne pourrait reconnaître de profit à l’émission.
L’approche décrite demande une modélisation complexe et par conséquent consommatrice de temps de
calcul, ce qui limite les possibilités de décomposition trop fine. Compte tenu des capacités informatiques
actuelles, le nombre de simulations possibles dans un temps raisonnable ne dépasse pas quelques
milliers ce qui est sans doute insuffisant pour obtenir des chiffres ayant l'ambition d'avoir une précision de
type "comptable".
Des efforts de normalisation devaient également être entrepris pour favoriser la comparaison des
résultats obtenus entre deux assureurs.
Malgré sa complexité, cette approche nous paraît être la seule capable de bien rendre compte du risque
de l'assureur et de la réelle valeur de son activité compte tenu du risque associé.
Indiquons enfin que l'analyse des distributions obtenues pourrait être utilisé pour orienter le calibrage des
besoins en marge de solvabilité (cf. Solvency II). Cependant la question du nombre de simulations va se
poser de manière encore plus accrue concernant de telles analyses qui portent sur des scénarios de
queue de distribution.
17
Téléchargement