Commission actif/passif de l’Institut des Actuaires L'APPROCHE STOCHASTIQUE DE L'EMBEDDED VALUE Plan du document L'APPROCHE STOCHASTIQUE DE L'EMBEDDED VALUE ....................................................... 1 Introduction .................................................................................................................................................... 3 1 - La simulation des marchés financiers ....................................................................................................... 3 1-a/ Les obligations / l'inflation ..................................................................................................... 4 1-b/ Les actions ............................................................................................................................. 4 1-c/ L'immobilier ........................................................................................................................... 5 1-d/ Autres actifs / Produits dérivés .............................................................................................. 5 1-e/ Le paramétrage des modèles .................................................................................................. 6 2 - Le comportement des clients .................................................................................................................... 7 2-a/ La loi de rachat ....................................................................................................................... 7 2-b / La loi d'arbitrage en sortie des fonds en euro de contrats multisupports ............................ 11 2-c/ La loi de chiffre d'affaires .................................................................................................... 12 3/ Le comportement de l'assureur ................................................................................................................ 13 3-a/ La stratégie d'investissement ................................................................................................ 13 3-b/ La stratégie de vente ............................................................................................................ 14 3-c/ La stratégie de revalorisation ............................................................................................... 14 4/ Les frais / commissions............................................................................................................................ 15 5/ L'analyse des résultats.............................................................................................................................. 15 6/ Conclusions :limites et prolongements de l'approche exposée ................................................................ 17 2 Introduction L’approche présentée dans ce document vise à pallier ce que nous considérons comme le principal inconvénient de l'approche classique du calcul de l'Embedded Value, à savoir de ne pas donner de réelle indication sur le risque financier. Même si des chocs instantanés sur les marchés financiers sont en général simulés lors de tests de sensibilités, l'évolution des marchés dans l’approche classique est ensuite lissée : les taux d’intérêt sont supposés stables, les actions fournissent chaque année une performance stable faisant ressortir la prime de risque sans réalisation de celui-ci. En poussant à l'extrême, on pourrait obtenir, après le choc initial simulé, une situation où la compagnie couvrirait des engagements viagers à 4,5% alors que les taux d’intérêt à long terme valent 3,5% par un portefeuille composé à 100% d’actions qui seraient supposées rapporter les taux à long terme + 2%, soit 5,5%… En réalité l'assureur vie est un vendeur d'options : - le taux minimum garanti sur les contrats en euros est un floor annuel sur le rendement comptable. Chaque attribution de participation aux bénéfices réévalue les strikes des années futures. Les contraintes commerciales poussent à réaliser des plus-values latentes et à consommer de la richesse qui manquera peut-être ensuite en cas d'évolution défavorable ultérieurement. - Le rachat anticipé est un put à la valeur comptable en cas de hausse importante des taux. Ces options sont clairement "path dependant", la deuxième option dépendant de surcroît de fonctions de comportement. Dans ces conditions, la seule approche utilisable pour l'évaluation de ces options est la simulation de nombreux scénarios d'évolution des marchés financiers dans le futur : la méthode de "Monte Carlo". Il s'agit en fait tout simplement de refaire, canton par canton, le même calcul que pour l'Embedded Value classique dans des scénarios non plus déterministes mais générés aléatoirement. La valeur actuelle des bénéfices futurs et le coût de blocage de la marge peuvent ainsi être calculés scénario par scénario, puis on calcule des valeurs moyennes et on analyse la distribution. 1 - La simulation des marchés financiers En général on utilise des modèles de génération aléatoire de marchés financiers en tenant compte des prix de marché pour la calibration (en fonction des prix des options de taux, sur actions …). Il est également possible d’envisager de "rejouer" des scénarios historiques, à condition d'avoir des données historiques suffisamment longues pour y piocher des séries de durée égale à la durée de la simulation envisagée. 3 1-a/ Les obligations / l'inflation Plusieurs modèles de génération aléatoire des courbes de taux d'intérêt ont été développés par les chercheurs. Parmi les plus célèbres : - modèle à un facteur : Vasicek - modèles à deux facteurs : Hull and White (existe également à un facteur), Heath Jarrow Morton Ces modèles s'appuient toujours sur la courbe des zéros coupons sans risque, les taux des titres à coupon pouvant ensuite s'en déduire. L'échantillon obtenu doit être ensuite corrigé des éventuels taux négatifs générés par le processus aléatoire. La modélisation de l'inflation est importante dès lors que celle-ci est un indicateur utilisé dans la modélisation, en particulier pour les contrats de rente. Elle est également utile pour la projection des coûts. Certains modèles génèrent d'abord l'inflation puis en déduisent les taux (par exemple le modèle de Wilkie, très utilisé dans certains pays anglo-saxons), il est aussi possible de générer d'abord les courbes de taux, puis de reconstituer l'inflation qui serait cohérente, soit par une fonction dépendant à la fois des taux courts et des taux longs, soit en simulant un modèle de génération de courbes de taux réels (s'appuyant sur le prix des titres indexés sur l'inflation) avec de fortes corrélations avec le modèle des taux nominaux et des volatilités plus faibles… La modélisation des papiers à spread peut être plus ou moins fine suivant la décomposition retenue dans les actifs. Si l'assureur a une politique très prudente de la gestion du risque crédit, c’est à dire une dispersion suffisante entre les différents émetteurs d’une même classe de papiers à spread il peut regrouper dans une même classe toutes ces obligations , avec un spread moyen peu volatile et des probabilités de sinistres faibles. Sinon l’assureur peut gérer une classe pour chaque niveau de rating, ce qui demande une modélisation plus fine des évolutions relatives des spread et des probabilités de défaut. A noter que le nombre de simulations effectuées est souvent limité par les temps de calcul, ce qui peut poser des problèmes pour la génération aléatoire de défauts de crédit. Le plus souvent on est amené à recourir à une approche simplifiée en considérant un taux de défaut annuel forfaitaire dépendant du niveau de spread du moment. 1-b/ Les actions La plupart des modèles utilisent un générateur de lois log normale pour simuler les actions. Or l'analyse historique montre clairement que cette loi n'est pas adaptée et ne pourrait pas expliquer la répétition de kracks depuis la fin des années 80 et l'analyse des queues de distribution. 4 Plusieurs approches ont été développées pour améliorer cette modélisation : - l'utilisation de mélanges de lois (avec un état "normal" et un état "agité" simulant des périodes de crises se traduisant par de fortes volatilités et les espérances plus faibles). - l'utilisation de lois de Levy permettant de générer des distributions à queues plus épaisses que la loi normale. On suppose en général que les actions bénéficient d'une prime de risque. Certaines approches privilégient une espérance de rendement des actions indépendante du niveau simulé des taux, d'autres considèrent une espérance égale à taux 10 ans + X% ou taux monétaire + Y%… La performance des actions doit être ensuite décomposée entre dividende (avec modélisation de l'avoir fiscal) et variations de cours. Le taux de distribution peut être considéré comme stable (un pourcentage de la valeur boursière) ou dépendant du niveau des taux simulés. Dans la modélisation, l'assureur est amené à dégager des plus-values pour assurer le rendement comptable. Une partie de ces plus-values peut être considérée comme bénéficiant du régime des plusvalues à long terme, ce qui influera sur l'impact du taux d'imposition dans le calcul final. Par ailleurs, un des risques comptables sur les actions et l’immobilier est la constitution d’une Provision pour Risque d’Exigibilité ou de Provisions pour Dépréciation à caractère Durable. En général les modèles ne simulent pas ligne par ligne mais procèdent en regroupant celles-ci par classes homogènes, voire en une ligne globale. Un des moyens de prendre en compte ce risque est de supposer qu'un pourcentage des éventuelles moins-values latentes globales devra donner lieu à constitution d'une PRE ou de PDD. 1-c/ L'immobilier La performance globale de l'immobilier est en général modélisée comme celle des actions, avec une volatilité plus faible. Le rendement courant (loyer, charges) dépend souvent beaucoup de la situation de départ (avec revalorisation fonction de l'inflation simulée). On peut compléter la simulation avec la génération de taux d'occupation ( 100%). Il faut également tenir compte d'une moindre liquidité de cet actif dans la simulation, en particulier lors des dégagements de plus-values. 1-d/ Autres actifs / Produits dérivés Chaque grande classe d'actif doit être modélisée de façon cohérente avec l'environnement simulé. Par exemple un placement alternatif pourra avoir un rendement peu corrélé aux autres actifs, les volatilités utilisées pour le pricing des produits dérivés dépendront de celles utilisées pour la génération des marchés, le modèle utilisera un "smile" pour évaluer les options hors de la monnaie, etc… Les performances des OPCVM se déduisent des performances des actifs de base grâce à leur benchmark, en simulant des rebalancements systématiques de manière à maintenir une composition stable de chaque OPCVM entre ses différents actifs de base. 5 1-e/ Le paramétrage des modèles L'étape de paramétrage initial est la plus importante. Elle va porter sur plusieurs valeurs qui vont ensuite piloter la génération des scénarios et in fine déterminer les résultats obtenus. 1-e-1/ Les volatilités retenues : sans doute le jeu de variables qui ont le plus d'importance dans les résultats finaux. Elles peuvent être fixes tout au long de la simulation, ou bien être également des variables aléatoires générées stochastiquement. On peut soit les estimer à partir du passé, soit les déduire des cotations des options sur les produits dérivés à la date de calcul. Ce deuxième choix peut sembler plus cohérent avec la situation de départ, il fait cependant courir le risque de calibrer une simulation de long terme sur des paramètres de départ correspondant à une situation atypique, par exemple de crise exacerbée. 1-e-2/ Les corrélations entre actifs On estime en général les corrélations sur le passé. Le problème est qu'elles ne sont pas stables selon les périodes : par exemple, sur de longues périodes on observe une corrélation positive entre actions et obligations (ce qui est logique : le prix d'une action est bien la valeur actualisée des bénéfices futurs) mais de longues périodes peuvent montrer une corrélation complètement inversée (en cas de craintes sur la croissance, on craint une baisse des bénéfices futurs, les banques centrales réagissent en baissant les taux…). On peut envisager des corrélations suivant un processus "à saut". En général on a des matrices de corrélations de ce type : Taux Taux Inflation Actions Immobilier Alternatif 1 Forte Moyenne/Instable Forte Faible 1 Instable Forte Faible 1 Faible Faible 1 Faible Inflation Actions Immobilier Alternatif 1 1-e-3/ Les primes de risque Il est habituel de considérer que les actions, l'immobilier voire l'alternatif bénéficient d'une prime de risque sur les produits de taux. Là encore l'analyse du passé montre que ces primes de risque peuvent être instables dans le temps. Le plus logique est de choisir des primes de risque qui soient cohérentes avec l'hypothèse centrale retenue dans les calculs déterministes et de retenir des chiffres prudents. 6 Pour les obligations, la plupart des modèles ont été développés pour le pricing d'options et raisonnent le plus souvent en "risque neutre". Pourtant il est clair sur les données historiques que le marché monétaire "rapporte" moins que les obligations longues dès lors que l’on se place dans une perspective de détention suffisamment longue des obligations ce qui est le cas des assureurs. Il est donc logique de rajouter au modèle une prime de risque dépendant de la maturité (le plus souvent avec un terme en racine de la maturité) et calibrée sur la base des observations historiques. Dans la mesure où le portefeuille serait suffisamment diversifié et que l’horizon de gestion serait suffisamment long, il est possible d’envisager que les papiers à spread génèrent une prime de risque avec des taux de perte suite à défaut inférieurs en moyenne au spread. Enfin, une modélisation spéciale devrait être faite sur les évènements de crédit : l'assureur cède-t-il les titres dépréciés avec impact sur la réserve de capitalisation ou bien constitue-t-il une PDD ? 1-e-4/ La liquidité Outre l'immobilier, on peut tenir compte d'une plus faible liquidité de certains actifs (papier à spread, placements alternatifs…) soit en supposant dans la modélisation que ce sont les derniers à être vendus, soit en prenant en compte des fourchettes acheteur/vendeur plus larges. 2 - Le comportement des clients Il s’agit de la fonction la plus difficile à paramétrer, étant donné le manque d’observations historiques en matière de sensibilité des assurés à une hausse forte et durable des taux d’intérêt. L'impact sur le résultat final étant cependant très important, il serait nécessaire que l'assureur présente en annexe de ses calculs les principales hypothèses formulées et simule la sensibilité des résultats à celles-ci. 2-a/ La loi de rachat 2-a-1/ Paramètres à prendre en compte Un certain nombre de paramètres susceptibles d’influer sur le comportement du client et dépendant de la stratégie de chaque société, de son réseau, de sa typologie de clientèle et des caractéristiques des produits doivent être modélisés : - conditions contractuelles • TMG • échéance « officielle » du contrat (avant prorogation) • pénalités de rachat - situation personnelle de l’assuré • ancienneté fiscale - • profil d’épargnant : âge, patrimoine détenu, …rentabilité du produit • stratégie en matière de taux de revalorisation servi 7 - réseau de distribution • influence sur le comportement du client • offre de produits plus attractifs pouvant inciter au rachat - compétitivité du produit • indicateur approprié ou formule de calcul sur lesquels le client se fonde pour conserver ou racheter son contrat Par exemple, le pourcentage de rachat peut dépendre de l’écart entre le taux 10 ans et le taux servi selon une fonction en forme en « marche d’escalier incliné », que l’on peut bâtir, soit de façon très simple par trois segments , soit de façon continue (modélisation avec arc tangente ou fonction logistique…). 2-a-2/ Prise en compte des paramètres dans la formule On peut simplement raisonner sur l’écart entre le taux servi et les taux de marché en adaptant les coefficients de la loi aux situations particulières contrat/client, ou bien raisonner sur l’écart taux servi escompté / rendement espéré en cas de rachat et de souscription d’un nouveau contrat Cette deuxième approche, plus sophistiquée, suppose de définir un horizon de placement pour chaque assuré. En cas de rachat pour souscrire un nouveau contrat, le client : - paierait la fiscalité correspondant à son ancienneté - paierait les frais d’entrée sur le nouveau contrat - pourrait estimer son futur rendement au taux du moment moins les frais de gestion du nouveau contrat - paierait la fiscalité lors du rachat sur le nouveau contrat Au cas où le client resterait dans le contrat : - il pourrait estimer son rendement futur sur la base du taux actuellement servi - il paiera lors du terme la fiscalité correspondante D’autres approches sont possibles, par exemple celle consistant à faire racheter et arbitrer seulement au terme des 8 ans du contrat en cours, optimisant ainsi l’impact de la fiscalité, mais cela n’est à priori envisageable que si l’assuré a moins de 70 ans au terme des 8 ans. Le comportement du client « moyen » serait alors modélisé à partir de trois taux estimés : T1 : si l’assuré ne rachète pas T2 : s’il rachète immédiatement pour souscrire un nouveau contrat 8 T3 : s’il attend le 8ème anniversaire pour faire l’opération (T3 n’étant calculé que si le client à moins de 70 ans au 8ème anniversaire) Si T2 > max. (T1, T3), le client « rationnel » aurait intérêt à racheter. Afin d’introduire un effet retard, on peut raisonner sur un lissage par exemple sur deux ans de cet écart et bâtir ensuite la loi de rachat en rajoutant à un taux de rachat « normal » un taux de rachat « opportuniste » dépendant de cet écart et d’une plus ou moins grande réactivité des clients. Le taux de rachat « normal » dépend en partie de l’ancienneté fiscale, avec généralement une pointe à l’échéance des contrats lorsqu’une telle information figure explicitement dans les conditions affichées lors de la souscription et que la prorogation se fait donc à l’initiative du client. A noter que le taux de rachat « opportuniste » devrait pouvoir être négatif pour venir baisser le taux « normal » dans les cas où le contrat s’avère particulièrement avantageux (taux garanti très élevé par exemple) En effet, on peut s’attendre à ce que les clients détenteurs de ce type de contrat trouvent d’autres financements de leur besoin éventuel de cash (par exemple solliciter une avance). Enfin, le niveau de réactivité est choisi en fonction des caractéristiques des clients et des réseaux de distribution. Par exemple : - clients particulièrement réactifs : montants de primes versées élevés correspondant par exemple à des contrats de type gestion de patrimoine - clients peu réactifs : correspondant notamment aux clients de plus de 70 ans et/ou n’ayant pas encore atteint l’échéance fiscale des 8 ans. - Moyennement réactifs correspondant au reste de la clientèle 9 -2 ,0 0 -1 % ,5 0 -1 % ,0 0 -0 % ,5 0% 0, 00 % 0, 50 % 1, 00 % 1, 50 % 2, 00 % 2, 50 % 3, 00 % 3, 50 % 4, 00 % 4, 50 % 5, 00 % 5, 50 % 6, 00 % 6, 50 % Taux de rachat EXEMPLE DE LOI DE RACHAT Ecart de TRI(T2-max(T1,T3)) très réactifs moyennement réactifs peu réactifs taux "normal" dépendant d l'ancienneté D’autres approches privilégient une modélisation des rachats exceptionnels en appliquant des coefficients multiplicateurs aux rachats constatés historiquement, ces coefficients dépendant du degré de compétitivité des contrats par rapport aux conditions de marché futures simulées dans les scénarios. 2-a-3/ Estimation des paramètres Il est certain que les assureurs manquent de données pour modéliser la partie droite de la courbe des rachats « opportunistes ». Ceci n’empêche pas de faire l’effort d’analyser les séries historiques des taux de rachat par générations par type de contrats. Mais ces investigations ne donneront aucune indication sur ce qui pourrait se passer en cas de forte hausse des taux et de déconnexion du taux servi avec les taux d’intérêt du moment puisque ce type de configuration ne s’est pas présenté sur les 20 dernières années, période durant laquelle s’est fortement développé le marché de l’assurance vie en France. Un des rôles des actuaires pourrait être de « normaliser » une courbe standard de manière à pouvoir comparer les assureurs selon une même fonction de comportement. 10 2-b / La loi d'arbitrage en sortie des fonds en euros de contrats multi-supports 2-b-1/ Décomposition du stock La simulation complète de ce type de contrat suppose la gestion en parallèle du fonds en euros et des UC. La modélisation du passif est plus compliquée, puisqu’il convient de croiser la décomposition euros (ancienneté/classe d'âge/TMG/voire niveau de prime) avec celle par grande catégorie d'unités de compte et par prix de revient (dès lors que l'on veut aussi simuler les garanties plancher). On aboutit ainsi à une multiplication des "model points" qui devient ensuite un handicap pour les temps de calculs. La seule solution serait de simplifier au maximum, en regroupant les UC en grandes classes, mais en perdant de l'information. En pratique, il est encore d’usage de modéliser de manière totalement séparée la partie investie en UC et de partie investie en euros et de ne pas prendre en compte les possibles arbitrages entre type de supports. La modélisation devrait de plus prendre en compte : - les différentes mesures contractuelles de protection mises en place par l’assureur (introduction de frais d’arbitrage, possibilité de suspension des arbitrages, autres limitations…) - les mécanismes d’arbitrage automatique éventuellement mis en place dans le fonctionnement des contrats… - les garanties annexes (décès, pep, etc…) 2-b-2/ Lois d'arbitrage Certaines analyses historiques montrent plutôt une corrélation des rachats du fonds en euros vers les supports UC en cas de hausse des marchés, le mouvement inverse en cas de baisse des marchés étant moins marqué sans doute en raison d‘un comportement attentiste des clients confrontés à des contre-performances. Certaines variables non financières sont aussi importantes : en particulier l'influence du réseau distributeur. L’élément majeur de la loi d’arbitrage serait la comparaison du taux servi avec les rendements des supports UC estimés à partir de la performance des actions simulée dans le modèle. Là encore, on devrait segmenter entre clients « avertis » (les très réactifs) qui devraient être dans le sens du marché (allant du fonds euros vers les supports UC quand les marchés sont dépréciés et inversement) et les clients de « base » qui sont plutôt en général dans le sens contraire. 11 uc =>euro Exemple de lois d'arbitrage 15 % 25 % 35 % 45 % 55 % 65 % 75 % 5% euro=>uc -3 5% -2 5% -1 5% -5 % clients "de base" clients "avertis" écart de performance entre uc et taux servi sur le support euro A noter que cette fonction d’arbitrage n’est pas impactée par la fiscalité, et en particulier n’a pas de « barrière » à 70 ans. En pratique il peut être plus simple et plus prudent de n’utiliser qu’une loi d’arbitrage simple et « opportuniste » générant systématiquement des arbitrages en sortie du fonds en euros lorsque les actifs de ce fonds se trouvent en moins value latente, avec une intensité dépendant du niveau de celle-ci. Là encore une fonction « en escalier » serait à utiliser même si il est difficile d’apprécier la « hauteur des marches » compte tenu du manque de recul historique. 2-c/ La loi de chiffre d'affaires La sensibilité des résultats à la loi de chiffre d'affaires ne peut pas être ignorée : une vague de rachat, en cas de hausse des taux, n'aura pas les mêmes impacts si elle est compensée par du chiffre d'affaires ou si l'assureur arrête la commercialisation du produit pour en proposer un nouveau qui serait plus rémunérateur. La modélisation doit être la plus réaliste possible : - en période normale, la prévision de chiffre d'affaires doit s'appuyer sur le business plan - si on suppose que l'assureur va créer une nouvelle génération de produits avec des actifs gérés dans un nouveau portefeuille, le plus simple est de prévoir un taux d'abattement sur le chiffre 12 d'affaires prévu, ce taux étant fonction de l'écart taux servi et taux de marché, en utilisant un "effet cliquet" pour empêcher qu’une amélioration ultérieure de la compétitivité du produit relance massivement la production. - si on suppose que l'assureur conserve le même portefeuille pour investir le nouveau chiffre d'affaires (mutualisation des nouvelles souscriptions avec le stock passé), il est préférable de simuler pour la nouvelle production un taux servi moins compétitif par rapport aux taux du moment, en appliquant un abattement sur le chiffre d'affaires prévu compte tenu de la moindre attractivité du produit. Toutefois si le contrat prévoit un taux garanti sur les versements ultérieurs, il sera prudent de prévoir une augmentation de ceux-ci dès lors que les taux de marché seront largement inférieurs à ce taux garanti. Pour les contrats UC, il faudrait également tenir compte dans la loi de chiffre d’affaires d’un pourcentage investi en euros dépendant de l’écart de performance uc/euro.. A mettre plus bas ? L’analyse historique de la période 1998-2002 avec de fortes hausses et de fortes baisses de la bourse devrait pouvoir donner une idée de ces lois. 3/ Le comportement de l'assureur 3-a/ La stratégie d'investissement La stratégie d'investissement peut être définie simplement de deux façons : - uniquement sur le net à placer - ou en structure cible (en valeur bilan ou en valeur marché). D’autres approches plus complexes sont évidemment possibles, pour lesquelles on modéliserait une structure cible adaptative en fonction des futures conditions de marché (par exemple arrêt des achats actions si portefeuille en moins-value latente…). En pratique la deuxième approche est utilisée pour les grandes classes d'actif (monétaire, obligations, actions…), puis à l'intérieur des investissements obligataires on choisit une répartition par maturité soit stable (par exemple 10ans, ou répartitions entre les échéances 5 à 12) soit s'adaptant au contexte (comblement en priorité des gaps de trésorerie futurs…). L’assureur peut aussi prévoir le recours systématique à des produits dérivés (par exemple des caps avec un strike égal au niveau des taux du moment +x%). Quelque soit le niveau de complexité retenu, la stratégie doit être : - cohérente avec celle effectivement suivie et en particulier avec le calcul déterministe - ne pas tenir compte des marchés financiers futurs (elle ne "connaît" pas l'avenir) - explicitée lors de la présentation des résultats compte tenu de son impact. 13 3-b/ La stratégie de vente La politique de vente peut prendre plusieurs formes. L'ordre de vente retenu doit être également explicité dans les informations communiquées en annexe du calcul. Exemple de stratégie de vente 1) Vente de la trésorerie et des actifs courts 2) Vente des actifs obligataires en plus-value en commençant par les plus courts ou les moins en plus-value 3) Vente des actifs obligataires en moins-value en commençant par les plus courts ou les moins en moins-value, et en tenant compte des gains sur produits dérivés jusqu'à neutralisation de la réserve de capitalisation générée à l'étape 2 4) Vente des actifs sans échéance(hors immobilier car peu liquide) en limitant l'impact sur le rendement financier de l'actif 5) Vente des autres actifs obligataires 6) Vente des autres actifs sans échéance 7) Vente enfin de l'immobilier A noter que le projet de test d’exigibilité prévoit un ordre de vente des actifs(d’abord la trésorerie, puis les obligations de moins de 5 ans, puis le reste au prorata) qui pourrait permettre de définir une normalisation des modèles. 3-c/ La stratégie de revalorisation Elle s'exprime souvent comme un objectif de revalorisation proche des taux du moment et comportant un lissage. Objectif de revalorisation = X% *moyenne taux 10 ans sur N années + Y% + Z% - le taux Y% simule le positionnement concurrentiel donné au produit, le taux Z% peut être fonction des plus-values latentes accumulées et que l’assureur se mettrait à réaliser et distribuer progressivement. Si le rendement courant obtenu sur les actifs (en supposant un dégagement automatique progressif des plus-values latentes pour simuler une gestion financière au fil de l'eau) s’avère insuffisant pour servir le taux cible et permettre à l’assureur de dégager le niveau de résultat attendu, le modèle peut alors simuler des dégagements de plus-value sur actions, OPCVM, immeubles ou placements alternatifs pour se rapprocher de la structure cible, ou générer des reprises à la Provision pour Participation aux Excédents. A contrario, si le rendement obtenu est supérieur à l'objectif, une partie des excédents peut être dotée en PPE. 14 Dans l’hypothèse où l'assureur ne parviendrait pas à réaliser son objectif de revalorisation, le modèle peut prévoir qu'il "sacrifie" une partie de son prélèvement annuel, voire que l’assureur soit amené à financer par des pertes le maintien de la compétitivité du produit. Bien que ces informations puissent être considérées comme stratégiques et donc confidentielles, la bonne compréhension des résultats affichés demanderait qu’un minimum d’information soit communiqué en annexe des calculs de manière à permettre au marché de s’assurer de la cohérence du modèle avec la politique effectivement menée.. 4/ Les frais / commissions Les mêmes hypothèses que pour les scénarios déterministes peuvent être utilisées en première approche, souvent à partir de frais unitaires. Par contre il peut se poser le problème des frais fixes dès lors que dans certains scénarios la durée du contrat peut se réduire très vite. Dans un scénario de forte hausse des taux et de forte baisse des actions, l'assureur peut se trouver en grande difficulté. Dans la vie "réelle", ceci pourrait conduire à des restructurations, des licenciements et donc des frais qui devraient entrer dans la simulation et l'analyse des résultats. Cet aspect est en général négligé dans la modélisation. 5/ L'analyse des résultats Pour chaque chemin financier simulé, le modèle donnerait les résultats suivants : - Evolution de la structure des actifs et des plus ou moins-values latentes - Evolutions des Provisions Mathématiques et des cash flow clients, que l'on peut séparer en : Stock actuel New Business 1ère année Autre futur business - Taux servis - Evolution des diverses provisions Réserve de capitalisation PPE PREET Eventuellement PGG - Evolution des comptes et surtout du résultat comptable de l'assureur, que l'on peut lui aussi décomposer en résultat sur : Stock actuel New Business 1ère année Autre futur business 15 Il est alors nécessaire de répartir entre ces trois sources de résultat certaines données globales qui sont calculées au niveau du portefeuille d'actif, en particulier les dotations/reprises à la réserve de capitalisation ou à la PREET. En pratique on répartit ces dotations/reprises au prorata des PM, même si ce n'est pas entièrement juste, la réelle "influence" des générations successives des clients sur ces risques pouvant être différente suivant les conditions de marché prévalant lors de leur versement de prime. Le plus souvent on arrête les simulations avant la fin effective des contrats et on doit analyser la situation de fin de simulation, en particulier le sort des plus ou moins values latentes ou de la PPE fin. On peut alors supposer : - que les plus-values latentes et la PPE fin appartiennent aux futures générations - qu'une partie des moins-values latentes fin non couvertes par de la PPE est à la charge de l'assureur Pour chaque scénario , on doit ensuite évaluer le résultat net après impôt (dans l'idéal en tenant compte des avantages fiscaux liés à la détention d'actions : avoirs fiscaux, et mécanisme des plus-values à long terme), le coût de la marge et actualiser le tout en fonction des taux du scénario simulé pour obtenir : - la valeur actuelle du stock - celle du new business 1ère année - et celle du futur business. Le coût de la marge et le taux retenu pour actualiser les marges futures s'expriment en général en fonction des taux courts simulés dans le scénario, avec des primes de risque cohérentes avec celle retenue dans le calcul déterministe. Une approche plus conforme à la théorie des marchés financiers et de la valorisation des options financières serait de calculer et d'utiliser des déflateurs pour opérer les actualisations Il conviendrait en effet d’actualiser les marges futures en tenant compte des primes de risque introduites sur les différentes catégories d’actif. Toutefois, la complexité des environnements simulés rend souvent délicate la formalisation des déflateurs. De plus cette méthode demande un nombre de simulations encore plus important. Une autre approche tout à fait conforme à la théorie des marchés financiers consisterait à n’envisager aucune prime de risque dans le modèle de simulation et à raisonner en "risque neutre" dans les scénarios financiers générés. A noter une complexité à intégrer dans le modèle qui peut être plus ou moins difficile à appréhender selon les modes de gestion (cantons, actif général, actifs isolés,…) : il s’agit de la modélisation des postes tels que la réserve de capitalisation, la PRE et les PDD, la PPE, la PAF … qui se traitent comptablement à un niveau consolidé tous portefeuilles confondus et qu’il faudrait donc pouvoir également traiter de cette manière dans le modèle. 16 A l’aide du type de modèle qui vient d’être décrit, on obtient in fine une distribution de valeurs actuelles du stock et du nouveau business. L'Embedded Value stochastique représente la moyenne de cette distribution tandis que l'analyse des quantiles permet d'évaluer le risque supporté par l’assureur. On peut noter que l'approche classique de l'Embedded Value déterministe conduit à un chiffre le plus souvent proche de la médiane de cette distribution la moyenne étant souvent plus faible. Dans un tel cas, l’approche déterministe surévalue l’Embedded value des assureurs vie. 6/ Conclusions : limites et prolongements de l'approche exposée L'approche stochastique présentée se rapproche de la notion de "fair value" telle que décrite dans le Draft Statement of Principles élaboré par l’IASB. Toutefois, ce document ne reconnaît pas le coût de la marge de solvabilité et l’IASB impose actuellement un floor à la valeur de rachat. L’IASB a également décidé (en l’état actuel des discussions) qu’un assureur ne pourrait reconnaître de profit à l’émission. L’approche décrite demande une modélisation complexe et par conséquent consommatrice de temps de calcul, ce qui limite les possibilités de décomposition trop fine. Compte tenu des capacités informatiques actuelles, le nombre de simulations possibles dans un temps raisonnable ne dépasse pas quelques milliers ce qui est sans doute insuffisant pour obtenir des chiffres ayant l'ambition d'avoir une précision de type "comptable". Des efforts de normalisation devaient également être entrepris pour favoriser la comparaison des résultats obtenus entre deux assureurs. Malgré sa complexité, cette approche nous paraît être la seule capable de bien rendre compte du risque de l'assureur et de la réelle valeur de son activité compte tenu du risque associé. Indiquons enfin que l'analyse des distributions obtenues pourrait être utilisé pour orienter le calibrage des besoins en marge de solvabilité (cf. Solvency II). Cependant la question du nombre de simulations va se poser de manière encore plus accrue concernant de telles analyses qui portent sur des scénarios de queue de distribution. 17