3 Le calibrage du modèle interne périmètre risque de marché

publicité
Université Claude Bernard – Lyon 1
INSTITUT DE SCIENCE FINANCIERE ET D'ASSURANCES
Mémoire présenté
devant l’Institut de Science Financière et d’Assurances
pour l’obtention du diplôme d’Actuaire de l’Université de Lyon
Le 16 mars 2012
Par :
Maxime DRUAIS
Titre:
Pourquoi et comment calibrer le risque de marché sous Solvabilité 2 ?
Le rôle central du générateur de scénarios économiques
Confidentialité :
NON
 OUI (Durée : 1 an
Membre du jury de l’Institut des Actuaires
2 ans)
Entreprise :
Natixis Assurances
Membres du jury I.S.F.A.
Directeur de mémoire en entreprise :
M.
Jean Claude AUGROS
Thibault JACOB
M.
Alexis BIENVENÜE
M.
Areski COUSIN
Invité :
Mme
Diana DOROBANTU
Thibault JACOB
Mme
Anne EYRAUD-LOISEL
Arnaud LEMENAGER
M.
Nicolas LEBOISNE
M.
Stéphane LOISEL
Autorisation de mise en ligne sur
Mlle
Esterina MASIELLO
un site de diffusion de documents
Mme
Véronique MAUME-DESCHAMPS
actuariels (après expiration de
M.
Frédéric PLANCHET
l’éventuel délai de confidentialité)
M.
François QUITTARD-PINON
Mme
Béatrice REY-FOURNIER
M.
Pierre RIBEREAU
M.
Christian-Yann ROBERT
M.
Didier RULLIERE
M.
Pierre THEROND
Secrétariat
Mme
Signature du responsable entreprise
Signature du candidat
Marie-Claude MOUCHON
Bibliothèque :
Mme
Michèle SONNIER
1
Résumé
Ce mémoire présente les principales méthodes de calibrage utilisées pour évaluer le
capital de Solvabilité requis face aux risques sous le prisme de la réforme
réglementaire Solvabilité 2, directive qui touche l'ensemble des assureurs et
réassureurs européens dès janvier 2014.
L'étude traite exclusivement des risques de marché en Épargne.
Elle a un triple objectif:
•
Expliquer le principe des différentes méthodes : deux grandes
approches sont envisageables pour évaluer le capital de solvabilité requis sur
le périmètre risque de marché : l'une s'attache à suivre des spécifications,
l'autre a l'ambition de modéliser la distribution des Fonds Propres
économiques
•
Justifier les modèles et méthodes privilégiées pour traiter les risques
de marché
•
Expliquer le rôle du générateur de scénarios économiques en
Épargne : l'analyse s'attachera à montrer le rôle central du calibrage du
générateur de scénarios économiques dans cet environnement
L'analyse des calibrages du risque de marché sous Solvabilité 2 portera sur la
méthode dite Formule Standard, obligatoire pour les assureurs, et celle dite modèle
interne.
Nous tenterons de cerner l'ensemble des problématiques qui s'y rapportent.
Il sera notamment montré toute l'utilité de développer un modèle interne pour une
activité Epargne.
Le coeur du sujet portera sur le rôle majeur du générateur de scénarios
économiques, sur les méthodes de calibrage retenues notamment pour le modèle
interne et sur l'impact des choix de modèles et méthodes de calibrages dans
l'estimation des Fonds Propres économiques.
Outre la description des modèles de diffusion, nous exposerons aussi l'ensemble des
contrôles menés afin de valider les jeux de scénarios.
Mots clef : Solvabilité 2, Risque de marché, risque action, risque taux, risque de
crédit, Épargne, calibrage, modèle interne, générateur de scénarios économiques
2
Abstract
This study presents the main calibration’s methods used to assess the Solvency
Capital requirement, a new reform for European insurances applied soon January
2013. The analysis is exclusively about the market risk for savings.
This has three purposes: to explain the different methods to calculate the capital
requirement dedicated to the market risk, the models used to treat the issue and,
above all, we will try to show the major role of the economic scenarios generator in
this environment.
The analysis of the calibrations of market risk under Solvency 2 will be made on the
standard formula, necessary to implement for all insurances, and the so called
internal model method. We will attempt to give a framework to all the issues linked
to these two developments.
The heart of the subject is the economic scenarios generator, the methods of
calibrations and their role in the calibration of the internal model. We will expose the
controls and tests set up to validate the set of scenarios.
Keywords: Solvency 2, market risk, Equity risk, interest rates risk, credit risk, savings,
calibration, internal model, economic scenarios generator.
3
Remerciements
Je tiens à remercier toute l’équipe avec laquelle j’ai plaisir à travailler, pour leur
professionnalisme et bienveillance:
Christophe LE PAPE, Directeur du département Gestion Actif/Passif
Thibault JACOB, Responsable du pôle Gestion Actif/Passif et Modélisation
Nicolas DENOJEAN, Responsable du service Financier
Arnaud LEMÉNAGER, Responsable du service Gestion Actif/Passif
Célia CALLEN, Responsable du service Risk Management
Lionel ALDEBERT, Responsable service Modélisation
Filipe AFONSO JOAO, Chargé d’études Gestion Actif/Passif
Sébastien LE DARZ MARANGONI, Chargé d’études Gestion Actif/Passif
Anthony DARNÉ, Chargé d’études Gestion Actif/Passif
Morgan VERDOUX, Risk manager
Nadir EL JANATI, Modélisateur
Samy COLLIER, Alternant au service Gestion Actif/Passif
Olivier MICHELIN, Alternant au service Gestion Actif/Passif
Antoine LE SAINT, Alternant au service Gestion Actif/Passif
Adrien LE MENN, Chargé d’études financières
Odile BRETHENOUX, Chargée d’études financières
Assia OUDNI, Chargée d’études financières
Stephanie RALAIARINOSY, Assistante du département Gestion Actif/Passif
Je remercie par ailleurs les personnes de Barrie+Hibbert avec lesquelles il m’a été
permis d’échanger sur différentes problématiques liées au générateur de scénarios :
Alexis BAILLY, Regional Manager France et Belgique- les Pays-Bas -Luxembourg
Paul MC CARNEY, analyste
Gioel CALABRESE, analyste
Steven MORRISON, responsable du département recherche
Je remercie aussi Nathalie PISTRE, Directeur Analyse et Recherche Quantitative chez
Natixis Asset Management et son équipe pour leurs collaborations.
Enfin, un grand merci au corps professoral qui m’a conduit à exercer cette profession.
Je dédie mon mémoire à ma famille et mes proches qui m’ont soutenu
durant mes années d’études.
4
Sommaire
Première partie : Solvabilité 2 : les risques de marché
1
Solvabilité 2........................................................................................................................ 9
1.1
La réforme Solvabilité 2............................................................................................. 9
1.1.1
Rappel du contexte économique ........................................................................ 9
1.1.2
Les sociétés d’assurances dans ce contexte économique ................................. 11
1.1.3
Solvabilité 2 : son principe, son histoire .......................................................... 12
1.2
La valorisation du bilan économique ....................................................................... 15
1.2.1
Le bilan économique ........................................................................................ 15
1.2.2
Définition des flux Actif/Passif en Epargne..................................................... 16
1.2.3
La valorisation Best Estimate des engagements en Epargne ........................... 16
1.3
Introduction aux principes généraux des méthodes d’estimations du SCR ............. 19
1.3.1
Le modèle central gestion Actif/Passif (modèle ALM) ................................... 19
1.3.2
La méthode Formule Standard ......................................................................... 22
1.3.3
La méthode Modèle Interne ............................................................................ 24
2
Le principe du calibrage des facteurs de risque de marché en Formule Standard ........... 28
2.1
Les facteurs de risque de marché en Formule Standard........................................... 28
2.2
Hypothèses des calibrages du risque action en Formule Standard........................... 29
2.2.1
Objectif et titres concernés ............................................................................... 29
2.2.2
Le choc appliqué : le calibrage Formule Standard QIS 5................................. 29
2.2.3
Les hypothèses de calibrage ............................................................................. 30
2.2.4
Vers un calibrage plus « Entity Specific » ? .................................................... 31
2.3
Les corrélations des capitaux de risque de marché en Formule Standard................ 32
2.4
Mise en perspective des enjeux du calibrage des risques de marché sous
Solvabilité 2.......................................................................................................................... 34
2.4.1
Définition du taux de couverture et de la réserve de réconciliation................. 35
2.4.2
Analyse des enjeux du calibrage des risques de marché pour la prévoyance .. 37
2.4.3
Analyse des enjeux du calibrage des risques de marché pour l’Epargne......... 39
Deuxième partie : Le modèle interne
3
Le calibrage du modèle interne périmètre risque de marché............................................ 43
3.1
Les limites de la méthode Formule Standard .......................................................... 44
3.1.1
Les hypothèses fortes de la gaussienne des facteurs de risque et de la linéarité
des Fonds Propres économiques à ces facteurs ................................................................ 46
3.1.2
L’hypothèse forte de la monotonie des Fonds Propres économiques aux
facteurs de risques de marché........................................................................................... 50
3.1.3
Le risque de changement de volatilité action ................................................... 52
3.2
Vers la nécessité de développer un modèle interne?............................................... 55
3.2.1
Pourquoi développer un modèle interne ?........................................................ 55
3.2.2
Les facteurs de risque de marché en modèle interne........................................ 56
3.3
Le processus du calibrage du Modèle Interne ......................................................... 57
3.3.1
Rappel du principe du modèle interne.............................................................. 58
5
3.3.2
Les problématiques liées à la réconciliation à horizon un an des scénarios
économiques..................................................................................................................... 61
3.3.3
Synthèse du processus de calibrage du modèle interne.................................... 67
Troisième partie : Le générateur de scénarios économiques
4
Analyse des modèles et calibrages des scénarios économiques...................................... 70
4.1
Principes généraux du générateur de scénarios........................................................ 70
4.1.1
Rappel du rôle du générateur au sein du modèle ALM.................................... 70
4.1.2
L’agencement des modèles .............................................................................. 71
4.1.3
La modélisation suivant les univers ................................................................. 71
4.2
Principes des hypothèses de calibrages sous Solvabilité 2 ...................................... 73
4.2.1
Le calibrage QIS 5 du générateur de scénarios (Formule Standard)................ 73
4.2.2
Les hypothèses QIS 5 ....................................................................................... 74
4.2.3
Le principe des tests pratiqués pour valider les scénarios économiques.......... 75
4.3
Analyse des modèles utilisés et hypothèses de calibrage......................................... 77
4.3.1
Modèle action ................................................................................................... 77
4.3.2
Modèle immobilier........................................................................................... 81
4.3.3
Modèle taux nominaux en Monde Réel ........................................................... 82
4.3.4
Modèle taux nominaux en Risque Neutre : LMM ........................................... 86
4.3.5
Modèle inflation ............................................................................................... 92
4.3.6
Modèle risque de crédit .................................................................................... 94
4.3.7
La modélisation des dépendances entre variables.......................................... 101
5
Validation des scénarios économiques........................................................................... 104
5.1
La validation des scénarios en univers Risque Neutre ........................................... 104
5.1.1
Synthèse des critères de validation à respecter .............................................. 105
5.1.2
Etude de la convergence des scénarios économiques .................................... 130
5.2
Validation des scénarios en univers Monde Réel................................................... 134
5.2.1
Les densités des rendements actions et produits de taux................................ 134
5.2.2
Synthèse des critères de validation des jeux de scénarios économiques en
univers monde réel ......................................................................................................... 134
6
La sensibilité des Fonds Propres économiques aux scénarios ....................................... 137
6.1
La sensibilité des Fonds Propres économiques à l’échantillon de jeu ................... 138
6.2
Les sensibilités des Fonds Propres économiques à mener ..................................... 140
6
Introduction
La réforme Solvabilité 2 touchera l'ensemble des assureurs et réassureurs européens
dès janvier 2013. Elle a pour objectif de mettre en place des capitaux de risque
requis, nommément SCR, estimés d'après les caractéristiques spécifiques du
portefeuille de placements et celles des contrats émis par l'entreprise ; elle doit aussi
représenter la politique d'investissement décidée par la direction.
Dans ce papier, nous analyserons les principaux enjeux en méthodes
Formule Standard et Modèle Interne des calibrages du risque de marché
sous Solvabilité 2.
Il est essentiel de définir les méthodes et modèles conduisant à la valorisation du
bilan économique sous Solvabilité 2 avant de déterminer les raisons qui motivent au
développement d'un modèle interne en Épargne ; le rôle central du générateur
économique dans le processus du calibrage du modèle interne est souligné dans ce
mémoire.
Dès lors, il est nécessaire de définir un processus menant au calibrage du modèle
interne des risques de marché aussi bien dans le contexte Solvabilité 2 que sous
ORSA afin de structurer l'agencement des problématiques.
Natixis Assurances développe son modèle interne Épargne et a acquis le générateur
de scénarios économiques développé par la société Barrie & Hibbert. Outre la
sélection des modèles, Natixis Assurances assure le choix du calibrage des modèles
et l'analyse théorique et empirique des résultats obtenus.
Précisément, l'objectif de ce mémoire est triple:
•
Définir les limites de la Formule Standard : Déterminer les limites de la
Formule Standard de façon exhaustive en Épargne où les risques de marché
constituent la composante principale du SCR est une des ambitions de l'étude.
La complexité des processus régissant la valorisation des Fonds Propres
économiques ne saurait les assimiler à un portefeuille de placements linéaires
aux facteurs de risque de marché.
•
Expliquer l'intérêt d'un modèle interne : Expliquer l'approche raisonnée
et adaptée que représente le choix d'un modèle interne est nécessaire
•
Définir le processus de calibrage des risques de marché : l'analyse a
pour objectif de structurer et valider le processus du calibrage du modèle
interne afin d'en exhiber les enjeux
7
Première partie : Solvabilité 2 : les risques de marché
8
1 Solvabilité 2
1.1 La réforme Solvabilité 2
1.1.1 Rappel du contexte économique
Issue d’une crise d’origine financière, la conjoncture actuelle est critique.
Les difficultés rencontrées par les ménages américains à faible revenu pour
rembourser les crédits consentis pour l’achat de leur logement a initié la crise
financière de 2007 qui se poursuit actuellement sous d'autres formes. Cette difficulté
de remboursement des emprunts est due au système des "subprimes*"
L'effondrement des obligations a entrainé un mouvement de retrait massif vis-à-vis
de ce papier commercial ainsi que l’assèchement brutal de la liquidité bancaire à
partir de juillet 2007. Les banques ont mobilisé toutes leurs ressources pour leurs
propres financements et ont refusé de prêter même à court terme aux autres
banques. Cet engrenage a touché l’ensemble du système bancaire américain mais
aussi européen parce que, dans le contexte de la mondialisation financière, les
banques européennes avaient également participé à ces montages.
Devant le risque de crise bancaire systémique, les banques centrales des Etats-Unis,
d’Europe et du Japon, ont injecté massivement et à plusieurs reprises des liquidités
dans le marché des crédits interbancaires (QE*, cf annexe)
Ces dernières années, de nombreuses banques d’investissement ont fait faillite,
notamment aux Etats-Unis : on peut se souvenir de la faillite de Lehman Brothers en
septembre 2008, une banque d’investissement multinationale proposant des services
financiers diversifiés (actions et obligations, études de marché, capitalinvestissements, banque privée...) ; il s'agissait d'un acteur majeur du marché des
emprunts d’Etat américains. Certaines sociétés d'Assurances se sont également
retrouvées en grande difficulté mais elles ont pu, pour certaines d’entre-elles,
bénéficié du sauvetage des pouvoirs publiques : pour rappel, la FED est venu au
secours de AIG, un leader mondial de l'assurance (troisième par son chiffre d'affaires
après ING et Allianz) et des services financiers, et représente aux Etats-Unis le plus
grand arbitre d'assurance pour les secteurs commercial et industriel.
Surtout, avec un produit intérieur brut de 14 526 milliards de dollars en 2010, les
Etats-Unis ont une dette publique fédérale de 14 580 milliards de dollars. A titre de
comparaison, les prêts hypothécaires représentaient en 2009 la somme de 16 700
milliards de dollars pour un PIB proche de celui de 2010. Sur ce montant, 5 000
milliards de dollars sont détenus par les désormais célèbres organismes Fannie Mae
et Freddy Mac, organismes de refinancement hypothécaire mise sous tutelle
gouvernementale en septembre 2008 aux Etats Unis. Cette dette hypothécaire
représente à peu près la moitié des actifs des banques commerciales américaines.
9
Aujourd’hui, la crise est loin d'être résolue et prend différentes formes : l’Europe doit
faire face à de graves difficultés de solvabilité de certains de ces états membres
(PIIGS) et les Etats-Unis atteignent des records d'endettement. S’associe à la crise
financière celle des dettes souveraines.
La crise des dettes souveraines en Europe est préoccupante : cette inquiétude de la
solvabilité se concentre sur cinq pays: le Portugal, l’Irlande, L’Italie, la Grèce et
l’Espagne (PIIGS). Les risques de défaut courant 2010-2011 de la Grèce, de l'Irlande
et du Portugal ont nécessité l’intervention du FMI et de l’Union Européenne pour des
plans de refinancements en échange de mises en place de programmes d'austérité
budgétaire. Les spreads très élevés de ces états (jusqu’à des taux coupons de 17,1%
pour des obligations souveraines grecques de maturité 10 ans) témoignent de
l'incertitude des investisseurs sur leur capacité à rester solvable : le spread grec
intègre par exemple une probabilité de défaut de 80 % dans les cinq ans (source JP
Morgan).
De plus après la Grèce, l’Irlande, le Portugal, l’Espagne, c’est actuellement
(paragraphe rédigé à date de juillet 2011) l'Italie qui inquiète les marchés, celle-ci
supportant près du quart de la dette de la zone euro. Quant à la Grèce, une nouvelle
aide financière est à l'étude : le montant des besoins supplémentaire est estimé par
le FMI à 115 milliards d'euros, dont 35 milliards d’ici 2014 pourraient être remboursés
par le processus prévu des privatisations grecques.
Aux Etats-Unis, l’endettement permis par la chine, grande créancière des USA, et
soutenu par des plans d’action menés par la FED en Septembre 2008 puis novembre
2010 via les deux QE ("Quantitative Easing" 1 et 2* qui ont consisté successivement
au rachat de 1000 puis 600 milliards de dollars de bons du Trésor à long terme par la
FED) atteint des sommets, inquiétant de fait le marché, y compris les politiques : les
membres du parti républicain du Congrès des Etats-Unis émettent de fortes réserves
quant à un relèvement du plafond de la dette du pays désiré par Barack Obama l’été
2011.
La crise prend une tournure économique : les Etats-Unis ont un taux de chômage de
10 % contre 3 % avant 2007 ; L'Espagne connaît un taux de chômage de 21% en
juillet 2011 initiant un mouvement de mécontentement et protestation d'une partie
de la population.
C’est donc dans ce contexte très incertain que solvabilité 2, une mesure européenne
visant l’ensemble des mutuelles, réassureurs et assureurs européens à estimer leur
solvabilité suivant des niveaux et types de risque bien définis s’appliquera au premier
janvier 2013. Actuellement, des exercices sont effectués par de nombreux acteurs du
marché selon des spécifications quantitatives établies par l’organisme européen
EIOPA. Ces exercices permettent par ailleurs d'affiner le calibrage définitif très
prochainement disponible.
*définitions, mécanismes et principes en annexe
10
1.1.2 Les sociétés d’assurances dans ce contexte économique
Les sociétés d’Assurances encourent de nombreux risques, de nature diverse compte
tenu des différentes activités développées ("line of business").
En amont, elles perçoivent des primes versées par les assurés en échange de
dédommagement en cas de survenance d’un sinistre pour lesquels ils ont souscrits un
contrat ou en vue de placements sur fonds. Ici apparaît déjà un premier type de
risque, celui lié à l’assuré. Les assureurs constituent alors à partir de ces primes des
provisions mathématiques qui ont pour objectif de représenter leur engagement : le
futur ne pouvant être prévu de façon certaine, les montants sont déterminés par des
modélisations mathématiques (statistiques et probabilistes) dont l'objectif est de
représenter des aléas sous contraintes de vraisemblance.
Décrites aux articles R. 311-3 et R. 331-6 du Code des Assurances, les provisions
techniques mesurent au passif du bilan les dettes et engagements liés à l’exécution
des contrats d’assurance commercialisés par l'entreprise. Leur évaluation est
déterminante pour l’établissement des politiques tarifaires. A une date donnée, toutes
les charges de prestations et de frais à régler dans le futur, relatives aux sinistres
survenus antérieurement, connus ou non connus doivent être évaluées de façon
actuarielle.
Les provisions techniques se divisent ainsi : provision pour participation aux
bénéfices, provision pour sinistres, provision pour égalisation des risques, provision
globale de gestion, provision constituée au titre de la garantie plancher, provision
pour aléas financiers, provision pour risque croissant, provision pour risque exigibilité
et s’ajoutent aux provisions techniques la provision pour dépréciation durable. Nous
pouvons souligner que d’autres types de risque existent comme celui de rachat, de
décès qui sont traités par Solvabilité II, notion abordée plus tard. Ainsi apparaît une
première catégorie de risque liée à l’assuré. Ce sont les risques dits de souscription.
Ces primes constituent le chiffre d'affaire des assurances qui les réinvestissent dans
des actifs rémunérateurs en vue de dégager des profits. Un autre type de risque est
alors mis en évidence, celui qui touche les sociétés d’investissement, à savoir les
risques de marché : ils correspondent à la dépréciation des titres détenus.
Surtout, la crise financière actuelle a conjointement précipité les autorités à mettre en
place des réformes pour mesurer ces risques et motivé les Sociétés d’Assurances à
appliquer ces mesures de risque au plus vite.
C’est dans cette démarche que Natixis Assurances s'inscrit : très rapidement, elle a
mis en place un modèle standard conforme au "QIS"4 puis "QIS" 5 en vue de
posséder ainsi pour la date d’échéance (2013) un modèle représentant finement ses
risques spécifiques.
Ce besoin d’évaluer précisément ces risques se fait sur l'estimation du montant
minimal requis en capital de la société d’Assurances au cours de l’année pour y faire
face ; ce montant correspond aux fonds propres requis face aux risques, c’est-à-dire
au passif non subordonné de la société. C’est dans ce cadre que s’inscrit Solvabilité
II.
11
1.1.3 Solvabilité 2 : son principe, son histoire
1.1.3.1
Solvabilité I et II : son histoire
La marge de solvabilité est le montant de capitaux réglementaires qu'une entreprise
d'assurance est tenue de détenir pour faire face aux événements imprévus. Les
exigences de marge de solvabilité sont en place depuis les années 1970. Il a été
reconnu dans les directives assurances de troisième génération, adoptées dans les
années 1990, que les règles de solvabilité de l'UE devraient être révisées. Les
directives exigeaient que la Commission réexamine les besoins en matière de
solvabilité ; suite à cet examen une réforme limitée a été adoptée par le Parlement
européen et le Conseil en 2002. Cette réforme s'appelle Solvabilité I.
Après Solvabilité I qui prévoyait une marge de solvabilité déterminée de façon
forfaitaire (en fonction de ratios sur les primes et les sinistres), la réglementation des
assurances passe à des règles plus complexes intégrant le risque.
Solvabilité II comprend un examen de la situation financière globale d'une entreprise
d'assurance, et ne se limite pas seulement à une exigence de marge de solvabilité.
Elle prendra en considération les développements récents en matière d'assurance, de
gestion des risques, de techniques financières, de normes comptables internationales
(IFRS) et de normes prudentielles, etc.
Pendant 2004 et 2005, la Commission a envoyé trois vagues de demandes d'avis à
l’EIOPA, portant sur les différents aspects du nouveau système de solvabilité. Afin de
guider l’EIOPA dans sa tâche, la Commission a exposé certaines orientations
politiques et certains principes au sein d'un document appelé le "Cadre de
consultation" qui a été publié en juillet 2004. EIOPA a envoyé ses réponses finales
aux trois vagues de demandes d'avis après de nombreuses discussions internes, des
interactions avec de nombreuses parties prenantes et des consultations publiques (le
30 juin 2005, le 1er novembre 2005 et le 3 mai 2006 respectivement).
Juillet 2007 : La Commission adopte la proposition Solvabilité II
Février 2008 : La Commission adopte une proposition modifiée sur la Solvabilité II
Exercice QIS 5 (Quantitative Impact Study) : Les mesures de niveau 2 (calibrage de
la formule standard) ne seront connues que fin 2011. Dans l’intervalle, les analyses
d’impacts doivent être menées : pour cela, des exercices sont menés par les acteurs
du marché de l’assurance afin d’affiner le calibrage définitif. C’est l’objet du QIS 5.
Entrée en vigueur de Solvabilité II : le 1 janvier 2013
12
Figure 1.1 : calendrier du QIS 5
Source : extrait de la présentation au Comex du 28/10/2010 par Natixis Assurances
1.1.3.2 L’estimation du capital de solvabilité : le SCR
Solvabilité II est une réforme réglementaire européenne du monde de l'assurance
pensée en 2007. Son objectif est de mieux adapter les fonds propres exigés des
compagnies d'assurances et de réassurance avec les risques que celles-ci encourent.
Aussi, Solvabilité II définit des exigences quantitatives à respecter, notamment sur
l’harmonisation des provisions et l’instauration de minima de fonds propres.
Par rapport à Solvabilité I qui reposait sur un calcul de la marge de solvabilité qui ne
prenait pas en compte la réalité économique de l’exposition aux risques* (puisque
basée sur une méthode forfaitaire), Solvabilité II permet d’adopter une approche qui
reflète les diverses risques encourus.
*Exemple : sous Solvabilité I, deux compagnies ayant une structure de passif
identique mais avec des allocations d’actifs différentes (l’une 100% actions, l’autre
100% OAT) ont le même besoin en capital
Le SCR sous Solvabilité II correspond au minimum de capital de fond propre dont
doit disposer une compagnie d’Assurances.
Définition du SCR : le SCR (Solvency Capital Requirement) est le capital cible
nécessaire de disposer aujourd’hui pour s’assurer d’être probablement solvable dans
le futur (horizon 1 an) avec une probabilité à 99,5 %.
13
La mesure est la Value at Risk de la Net Asset Value (NAV : Fonds Propres
économiques).
La VaR à 0,5% est le quantile définit par Probabilité ( NAV ≤ VaR0 ,5% ) = 0,5%
La définition du capital dans l’environnement Solvabilité II repose sur une vision
économique du bilan de la compagnie. A chaque date de projection, les flux d’actifs
(tombées de coupons, remboursement, réalisation de plus values d’actifs) et flux de
passifs (primes diminuées des sinistres, prestations, variation de provisions et frais
généraux) sont estimés afin de pricer le bilan économique (cette notion est
développée plus tard).
Ainsi, «Solvabilité II» est la première mesure permettant d’instaurer des exigences de
solvabilité fondées sur une estimation du risque économique profilé par type dans
tous les États membres de l'Union européenne.
Ces nouvelles exigences en matière de solvabilité sont davantage fondées sur une
évaluation du risque et sont plus sophistiquées que par le passé (Solvabilité 1),
permettant ainsi une meilleure couverture des risques réellement encourus par
chacun des assureurs.
1.1.3.3 Les trois piliers de solvabilité 2
Solvabilité II repose sur 3 piliers:
•
Le premier pilier a pour objectif de définir des seuils quantitatifs aussi bien
pour les provisions techniques que pour les fonds propres. Ces seuils
deviendront des seuils réglementaires. Deux niveaux de fonds propres seront
définis : MCR et SCR.
o
Le MCR représente le niveau minimum de fonds propres en-dessous
duquel l'intervention de l'autorité de contrôle sera automatique.
o
Le SCR représente le capital cible nécessaire pour absorber le choc
provoqué par un sinistre exceptionnel.
•
Le deuxième pilier a pour objectif de fixer des normes qualitatives de suivi
des risques en interne aux sociétés. L'identification des sociétés "les plus
risquées" est un objectif et les autorités de contrôle auront en leur pouvoir la
possibilité de réclamer à ces sociétés de détenir un capital plus élevé que le
montant suggéré par le calcul du SCR et/ou de réduire leur exposition aux
risques.
•
Le troisième pilier a pour objectif de définir l'ensemble des informations
détaillées que les autorités de contrôle jugeront nécessaires pour exercer leur
pouvoir de surveillance et de déterminer les points concernant la
communication au public.
14
1.2 La valorisation du bilan économique
1.2.1 Le bilan économique
Figure 1.2 : Présentation du bilan économique
LE BILAN ECONOMIQUE SOLVABILITE 2
ACTIF
PASSIF
NAV
Placements de
titres et autres
actifs en VM
Marge de risque
Best Estimate
PT à charge des
réassureurs
PASSIF S2 associé
SCR
Fonds Propres
éligibles
PT ou
engagements
envers l'assuré
La Net Asset Value correspond aux Fonds
Propres économiques : une partie de ces
Fonds Propres (FP éligibles) permettent de
couvrir le SCR (capital de risque
règlementaire requis)
Autres dettes
Légende
PT : Provisions techniques
VM : Valeur de marché
NAV : Net Asset Value ou Fonds Propres économiques
Solvabilité 2 requiert une évaluation du bilan de façon économique : les actifs sont
exprimés en valeur de marché et les engagements (Provisions mathématiques)
envers les assurés sont « Best Estimate » : la valorisation de ces engagements doit
représenter au mieux leur réelle valeur à l’instant d’étude.
En Epargne, il est nécessaire pour évaluer le « Best Estimate Liability » de diffuser
des scénarios économiques « Market Consistent » (notion définie plus loin).
La « NAV » (Net Asset Value) est la différence entre l’Actif en valeur de marché,
principalement des placements de titres en assurances, et du passif non subordonné.
Elle est donc les Fonds Propres (capitaux propres augmentés des réserves et
résultats) sous une vision économique du bilan.
Les Fonds Propres éligibles, qui représentent les éléments des Fonds Propres
permettant de couvrir le capital de solvabilité SCR, seront détaillés plus loin : ils
intègrent pleinement les problématiques liées à l'importance des calibrages,
notamment en Épargne. Il ne faut pas les confondre avec les Fonds Propres
15
économiques (« NAV ») bien qu'il existe une relation qui les lie (cf la réserve de
réconciliation).
Ce bilan constitue le socle pour les calculs de SCR en Formule Standard (FS) et en
Modèle interne.
Remarque : Le bilan économique est par ailleurs utilisé pour calculer la MCEV (Market
Consistent Embedded Value) et la New Business Value, deux évaluations de la
capacité économique des contrats détenus à générer des profits futurs.
La sensibilité du SCR au calibrage des risques de marché est surtout valable pour
l’Epargne (cf « Mise en perspective des enjeux du calibrage des risques de marché »)
où l’assureur peut selon les conditions contractuelles s’engager à revaloriser chaque
année le capital déposé par le particulier à un taux minimum garanti.
Il est donc important de définir les différents mécanismes établissant la valorisation
des actifs, les engagements envers les assurés et les intéractions Actif/Passif.
C’est l’objet de cette partie.
1.2.2 Définition des flux Actif/Passif en Epargne
Les flux d’actifs correspondent aux revenus des tombées de coupons et
remboursements des obligations, des dividendes perçus, de la réalisation de plus
values des actifs risqués et la vente de plus values supplémentaires d’actifs risqués
(si besoin pour servir le taux commercial cible).
Les flux de passif sont définis par les primes nettes de chargement diminuées des
rachats, arbitrages Euro/UC, décès et des contrats venant à terme.
1.2.3 La valorisation Best Estimate des engagements en Epargne
Une estimation du « Best Estimate Liability » est la moyenne des valeurs actualisées
aux taux courts termes « rollés » des éléments constitutifs du passif :
•
Les prestations dues aux assurés : estimées d’après des modèles de rachats
et décès, elles sont issues des sorties des provisions mathématiques
revalorisées selon les performances de l’actif du scénario considéré et des
taux minima garantis
•
La commission des gestionnaires des encours « Asset manager »
•
D’autres éléments résiduels de fin de projection comme les réserves de
capitalisation, la provision pour risque d’exigibilité (PRE) et les plus ou moins
values latentes.
16
Figure 1.3 : Présentation du mécanisme de valorisation « Best Estimate » des
engagements en Epargne
Modélisation des intéractions Actif/Passif en Epargne => Une première mise en évidence du rôle du calibrage des facteurs de risques de marché
Performance de l'actif issue du scénario économique "n" à date 2011
Flux Actif
= Portefeuille de placements
Ptf de placements 2011
Participation aux bénéfices :
Produits financiers et
réalisation de plus values
actifs risqués* attribués à
l'assurés**
Scénario
économique n
Performance de l'actif issue du scénario économique "n" à date 2040
…
Ptf de placements 2040
PB n+1:
Le scénario économique impacte :
- le portefeuille de placement qui se réaligne selon una
allocation cible statique
- le taux commercial qui est fonction du niveau des taux et
rendements actions projetés
Primes
Flux Passif
= PM initiale
PM n+1 = PM n + Primes + PB - prestations
Prestations n :
dues aux décès, rachats ***
PM 2011
…
PM 2040 = fin de projection
Prestations n+1:
PM Best Estimate du scénario n
Somme des valeurs actuelles des prestations
+ PM fin actualisée
Actualisation au taux court spot rollé issu du scénario économique "n"
*plus values actifs risqués réalisées selon l'algorithme de taux servi
**la partie des produits financiers attribuée est déterminée contractuellement par le minimum du taux minimum
garanti et celui du taux d'attribution financière qui peut être revue à la hausse selon l'algorithme de taux servi
***Les rachats sont d'origine structurelle (estimée depuis une table d'expérience) et dynamiques (dépendant de la rémunération de l'Actif)
Ainsi, le procédé de valorisation « Best Estimate » du passif fait apparaître le rôle
majeur des valeurs financières diffusées que ce soit lors de l’actualisation ou lors de
la valorisation de la participation aux bénéfices.
Elle fait aussi apparaître les caractères optionnels cachés contenus implicitement dans
les engagements : ils induisent potentiellement une non-linéarité de la relation entre
facteurs de risque de marché et la valeur des engagements techniques : en épargne,
fonds euros, l’assureur doit effectivement au moins revaloriser la provision
mathématique du taux minimum garanti (dont le seuil minimal est nul).
Remarque :
Les autres flux dans le bilan économique correspondent aux frais généraux et frais de
gestion : elles sont estimées sur le même principe que les provisions mathématiques,
à savoir par la moyenne sur scénarios des valeurs actuelles.
1.2.3.1 L’algorithme du taux servi
Le taux servi est fonction d'un taux commercial correspondant au taux attendu par le
client, des performances du portefeuille d'investissements et des sinistres (rachats,
décès) étant intervenus au cours de la période.
17
Nous définissons un taux commercial déterminé à partir de variables financières du
marché : taux long, taux court et performance du CAC 40. Il correspond au taux
attendu par l’assuré et sert à évaluer la participation aux bénéfices commerciale. Il
est calibré sur l’historique du taux servi et des valeurs financières de marché
associées.
Il est donc fonction des performances diffusées par les scénarios économiques.
Il est à noter que les impacts quantitatifs du taux commercial sont fortement liés au
paramétrage des rachats dynamiques.
Le principe de mutualisation des contrats et la méthode de cascade des Taux Minima
Garanti interviennent au sein du processus décrivant la politique de taux servi qui est
fonction du niveau de plus values en actifs risqués et de la provision pour excédent.
1.2.3.2 Les rachats dynamiques
La loi de rachats dynamiques prend la forme suivante :
Figure 1.4 : loi de rachats dynamiques
L’écart de taux de référence est égal à la différence entre le taux commercial et le
taux servi ; dès que le taux servi par l’assureur n’est pas suffisant en comparaison à
celui servi par la concurrence, le seuil de déclenchement est franchi et des rachats
conjoncturels apparaissent jusqu’à un seuil limite.
Les paramètres définitifs sont choisis en fonction des résultats issus du modèle
interne et des éventuelles études de marché.
L’ensemble de ces processus (valorisation « Best Estimate », rachats dynamiques,
algorithme de taux servi) démontre la subordination de la valorisation du passif en
Epargne aux performances de l’actif.
18
1.3 Introduction aux principes généraux des méthodes
d’estimations du SCR
L'objectif de cette partie est d'introduire les concepts généraux permettant de
conduire à l'estimation du capital de solvabilité 2, dit SCR pour "Solvency Capital
Requirement".
1.3.1 Le modèle central gestion Actif/Passif (modèle ALM)
1.3.1.1 Définition du modèle « ALM »
Le nom « ALM » vient de « Asset Liability Management », expression communément
employée pour désigner l'ensemble des études de la Gestion Actif/Passif.
Le modèle actuariel « ALM » est central : il modélise les engagements techniques
envers l'assuré par contrat et produit, les intéractions actifs Passif/Passif comme par
exemple l'algorithme de réalignement des actifs. Il constitue donc l'ossature de la
structure mis en oeuvre pour estimer le capital de solvabilité.
L'estimation du capital de solvabilité 2 nécessite en effet de valoriser son actif en
valeur de marché ; Les engagements envers ses assurés (provisions mathématiques),
au passif du bilan, sont valorisés en « Best Estimate ».
Pour la Prévoyance, cela se fait via la méthode chain ladder.
Pour l’Epargne, la valorisation « Best Estimate » consiste à revaloriser les provisions à
chaque pas de temps selon les performances de l'actif calculées d'après les scénarios
économiques diffusés et les taux minima garantis contractuellement ; les prestations
sont alors déduites d'après des modèles de rachats et décès ; la moyenne sur
l'ensemble des scénarios économiques des flux de passif actualisés à la courbe des
taux courts « rollés » (taux sans risque par hypothèse) permet de déduire la valeur
estimée au mieux des provisions mathématiques.
Il est donc nécessaire pour l'Epargne de disposer d'une structure centrale qui
représente l'ensemble des intéractions Actif/Passif, modélise les engagements
techniques envers l'assuré par contrat et produit et simule les sorties (décès et
rachats). C'est le rôle du modèle actuariel « ALM ».
19
Figure 1.5 : Structure générale de la modélisation Epargne
Générateur de scénarios économiques
ESG
Caractéristiques portfeuille de placements
Caractéristique des contrats, produits
Table de rachats structurels et table de décès
issues de l'expérience
Outil de projection intégrant les calculs liées aux intéractions Actif/Passif
Moses
Pour chaque date future et
Flux en output : prestations, résultat, provisions mathématiques revalorisées, frais,
chaque scénario économique : valeur de marché des placements, produits financiers…
Moyenne sur scénarios
des flux actualisés
Bilan économique
VM placements
NAV : Fonds Propres économiques
VEP : valeurs économiques du passif non subordonné
SCR
Capital de solvabilité requis
Fonds Propres éligibles
1.3.1.2 Ossature pour la Formule Standard et le Modèle Interne en
Épargne
Cette structure centrale est nécessaire à la fois pour évaluer le SCR version Formule
Standard, le SCR estimé par la méthode Modèle Interne retenue et pour des études
plus spécifiques détaillées dans le tableau ci-dessous.
20
Figure 1.6 : Calculs effectués par le modèle « Asset Liability Management »
Processus inclus dans le périmètre du modèle central
Évaluation de la MCEV
Évaluation de la valeur du portefeuille de contrats
Évaluation de la valeur du new business
Analyse des écarts
Analyse de sensibilité
Évaluation du capital réglementaire (SCR /MCR)
Évaluation des Best Estimate Solvabilité II
Évaluation des bilans choqués (formule standard)
Évaluation du SCR modèle interne
Études ALM
Allocation stratégique d’actif
Reporting dynamique Risque de marché
Stratégie de couverture
Politique de PB
Reporting du taux servi
GAP de trésorerie
Provisionnement
Évaluation des Best Estimate IFRS – point d’attention : projection par génération /
locking des hypothèses
Provisions French GAAP nécessitant des projections (PGG, PAF)
Etats ACAM C6 bis, T3 – sous réserve de leur maintien dans le nouveau référentiel
LAT
Evaluation de l’ORSA / Tolérance au risque
Evaluation du capital économique en continuité d’activité (ORSA)
Evaluation de la tolérance au risque
Etudes de rentabilité
Définition de la norme de souscription et des limites de risques par activité
Exemples de normes / limites:
• garanties exclues (interdites dans tous les cas de figures)
o Taux garantis viagers
• Garanties limitées (autorisées sous réserve d’une analyse d’impact
approfondie et d’un processus de validation complet)
o Taux garantis pour une durée limitée supérieur à x% du TME
• Garanties autorisées (autorisées dans le cadre du processus de lancement
de produit standard)
o Taux garantis pour une durée limitée inférieur à x% du TME
o Taux annuels précomptés
Etudes de rentabilité des nouvelles générations ADE
21
Il existe deux approches pour calculer le SCR, "Solvency Capital Requirement", qui
correspond au besoin réglementaire de Fonds Propres nécessaire de détenir sous une
vision économique du bilan prudentiel :
•
La méthode Formule Standard : la première dite Formule Standard est
obligatoire dès janvier 2013 ; elle consiste à suivre des spécifications
techniques communes à l'ensemble des assureurs.
•
Une méthode Modèle Interne : La seconde est dite Modèle Interne : la
méthode employée consiste bien souvent à déterminer la distribution de
Fonds Propres économiques afin de représenter de façon fine l'ensemble des
risques spécifiques encourus par l'entreprise.
1.3.2 La méthode Formule Standard
La méthode « Formule Standard » repose sur l’hypothèse d’une distribution normale
multivariée des risques. Elle suppose aussi une dépendance linéaire des Fonds
Propres économiques aux facteurs de risque.
1.3.2.1 La Formule standard : basée sur chocs instantanés
La méthode « Formule standard » pour évaluer le SCR a été défini et mené depuis
2007 en entreprise.
Elle consiste à appliquer des chocs instantanés sur différents facteurs de risque afin
de constituer des capitaux de risque qui sont déduits de la différence entre les Fonds
Propres en situation centrale et ceux en situation choquée.
Ces Fonds Propres économiques (NAV : net asset value) sont évalués grâce au
modèle central décrit supra et donc par module de risque.
Les SCR calculés par module sont ensuite agrégés par une matrice de corrélation afin
d’en déduire le SCR final.
22
Figure 1.7 : L’approche modulaire de la Formule Standard
Source : extrait d’un document Natixis Assurances
1.3.2.2 La Formule standard : le principe bottum-up
L’agrégation des risques par une matrice de corrélation suppose une dépendance
elliptique des capitaux de risque. Elle s’effectue selon la formule consacrée :
Le principe bottum-up de l’agrégation modulaire des capitaux de risques évalués par
chocs instantanés peut être résumé suivant le graphe infra présentant les résultats
de l’exercice QIS 5 pour la plus grande filiale de notre holding : il est à préciser qu’il
s’agit exclusivement d’une activité Epargne.
23
Figure 1.8 : Illustration du principe « bottum-up » sur résultats du QIS 5
Le SCR en « Formule Standard » par catégorie de risque est la mesure de variations
de « Net Asset Value » lorsque le choc est appliqué au facteur de risque associé.
SCR
par module de risque
= E ( NAVcentrale ) − E ( NAVstressée )
En effet, la mesure de la variation de la NAV (Fonds Propres économiques)
correspond au capital de risque qu’il faudrait détenir pour faire face au stress
considéré : chacun des stress par module de risque est spécifié par l’EIOPA.
Le calibrage de ces stress fait l’objet d’une section à part : il doit correspondre au
montant à détenir en Fonds Propres pour faire face à un événement extrême dont la
probabilité de réalisation est de 0,5 % soit 1 fois tous les 200 ans : la description du
principe du calibrage en « formule Standard » est donnée en partie 2.
1.3.3 La méthode Modèle Interne
1.3.3.1 Le principe de la méthode Simulation dans la Simulation
Un autre moyen d’évaluer le capital de solvabilité sous Solvabilité 2 (SCR) est une
méthode qui repose sur une estimation de la distribution des montants de Fonds
24
Propres économiques à un an et retenir la VaR à 0,5 %. Il s’agit ici de décrire la
méthode interne que nous avons retenue : la Simulation dans la simulation (SdS).
Chaque évaluation des Fonds Propres économiques est réalisée grâce au modèle
central « ALM » et sur des scénarios économiques.
Le processus suit trois étapes :
•
Étape 1 : diffusion des valeurs financières sur un an (rendements actions,
courbe des taux) calibrées en monde réel : ils sont dits scénarios primaires
•
Etape 2 : estimation des richesses à horizon 1 an : taux de plus ou moins
value latente à un an, pertes d’actifs suite à des défauts simulés…
•
Etape 3 : valorisation du bilan économique (cf 1.2) en chacun des scénarios
primaires d’après des scénarios économiques « market consistent » en chacun
des points « scénarios primaires »
La notion « monde réel et market consistent » est développée en partie 4.
Figure 1.9 : Illustration d’une méthode modèle interne : la
Simulation dans la Simulation
Scénarios primaires
Scénarios en univers Monde Réel
Scénarios secondaires
Scénarios en univers Risque Neutre
Simulation 1
Bilan économique à 1 an
Actif 1,1
Passif 1,1
Valoriser grâce au jeu de scénarios secondaires
1,1 calibrés sur le scénario primaire 1
NAV 1,1
Placements
BE 1,1
Bilan économique initial
Actif 0
Passif 0
Simulation k
NAV 0
Bilan économique à 1 an
Actif 1,k
Passif 1,k
Placements
BE 0
Valoriser grâce au jeu de scénarios secondaires
1,k calibrés sur le scénario primaire k
Distribution de NAV à 1 an
NAV 1,k
Placements
BE 1,k
Nécessité de calibrer ce
jeu 1,k sur ce scénario
primaire k
Simulation 1000
Bilan économique à 1 an
Actif 1,1000 Passif 1,1000
Valoriser grâce au jeu de scénarios secondaires
1,1000 calibrés sur le scénario primaire 1000
NAV 1,1000
Placements
BE 1,1000
t=0
t=1 an
t=1an
t=30ans
Légende :
NAV : Fonds propres ou encore Net Asset value
BE: valeur économique du passif Best Estimate
Cette méthode exigerait de projeter les volatilités implicites des actions afin de
permettre un calibrage "market consistent" à horizon un an lorsque les risques
financiers diffusés seront diffusés pour valoriser le bilan (simulations secondaires).
Il en est de même pour les options liées aux taux avec les swaptions ou caps.
25
Cette problématique de réconciliation ou recalibrage à horizon un an sera
développée plus tard.
Les notions d'univers monde réel et univers risque neutre sont développées plus
tard.
1.3.3.2 Le calcul du SCR avec un Modèle Interne « SdS »
A horizon un an, la distribution des « NAV » permet de déterminer le SCR en
retenant la différence entre l’espérance des « NAV » en t=0 et celle correspondant à
la Value at Risk à 99,5 % à 1 an actualisée en t=0 par le prix zéro coupon de
maturité 1 an issu de la courbe des taux spot initiale, correspondant bien au
montant à détenir en Fonds Propres pour faire face à un événement extrême dont la
probabilité de réalisation est de 0,5 % soit une fois tout les 200 ans.
SCR = E ( NAV ( X 1 , X 2 ) t =0 ) − PZC (0,1) × VaR0,5% ( NAV ( X 1 , X 2 ) t =1 )
où NAV ( X 1 , X 2 ) t correspond au Fonds Propres économiques à t ans.
En Epargne, la valorisation du bilan à horizon un an repose sur une projection des
flux pendant les 12 premiers mois via des scénarios économiques calibrés en monde
réel : à chaque scénario monde réel à horizon un est diffusé un jeu de 1000
scénarios Market Consistent sur un horizon donnée (typiquement 40 ans) afin de
valoriser le bilan.
A titre illustratif, un modèle interne permettrait d’obtenir :
Figure 1.10 : Distribution de la « NAV » à un an
26
Remarque :
D’autres méthodes existent telles le Replicating Portfolio ou Last Square Monte Carlo
(cf annexe).
Conclusion chapitre 1 :
La valorisation du bilan économique est une étape préalable au calcul du
SCR. Elle s’effectue via le modèle central permettant d’évaluer les flux
générés par la société d’après son profil de risque et ses politiques de
gestion qui lui sont propres.
Nous avons décrit:
•
Les méthodes de valorisation des Fonds Propres économiques
•
Les intéractions Actif/Passif en Epargne
•
Le lien entre méthodes de calculs de SCR et valorisation des Fonds Propres
économiques.
Il est désormais possible de décrire les facteurs de risque de marché sous Solvabilité
2 en Formule Standard ; les principes des spécifications des calibrages sur lesquels
ils reposent sont aussi à détailler. C’est l’objet du chapitre qui suit.
27
2 Le principe du calibrage des facteurs de risque de
marché en Formule Standard
Le principe du calibrage des SCR de la méthode Formule Standard par catégorie de
risque permet de déduire les limites des hypothèses fortes sous-jacentes à son
usage.
Cependant, l'ambition de cette partie n'est pas de faire l'inventaire des calibrages
retenus par module, ceux-ci étant effectués de façon semblable : sur l'exemple du
risque action, nous détaillerons le travail ayant conduit au niveau de choc spécifié
lors de l’exercice « QIS 5 ». Le chapitre 3 présentera dès lors la compréhension des
limites du principe de l'application de la méthode "Formule Standard" pour montrer
la nécessité de développer un modèle interne en Epargne.
2.1 Les facteurs de risque de marché en Formule
Standard
Le risque de marché désigne le risque de perte ou de changement défavorable de la
situation financière résultant, directement ou indirectement, de fluctuations affectant
le niveau de la valeur de marché des actifs, des passifs et des instruments financiers.
Il comprend en « Formule Standard » :
•
Le risque action : un capital de risque est calibré pour faire face à une moins
value latente des actions
•
Le risque de taux : un capital de risque est calibré pour faire face au risque de
hausse ou baisse des taux
•
Le risque immobilier : un capital de risque est calibré pour faire face à une
moins value latente des actifs immobiliers
•
Le risque de spread : un capital de risque est calibré pour faire face au risque
d’écartement des spreads, notamment pour quantifier les risques d’exposition
aux titres risqués classés « high yield » et produits structurés
•
Le risque de concentration : un capital de risque est calibré pour faire face au
risque d’expositions à un même émetteur (risque de défaut)
•
Le risque de change : un capital est constitué pour faire face à la variation
défavorable du cours de change d’une devise sur laquelle l’assureur est
exposé.
•
Le risque d’illiquidité : un capital de risque est calibré pour faire face à une
baisse de la prime d’illiquidité qui engendrerait une hausse du passif
économique non subordonné (Best Estimate).
28
D’autres facteurs associés aux risques de marché ont un impact implicite dans le
processus du calcul du SCR puisqu’ils servent à valoriser les différents postes du
bilan au passif (notamment en Epargne) : ce sont l’ensemble des paramètres
calibrant les modèles qui diffusent les scénarios économiques (cf chapitre 4).
Les facteurs de risque de marché sont calibrés sur l'étude des indices financiers de
marché : l'illustration d'une telle étude sous l'égide de l'EIOPA permettra d'en
déduire la formalisation du principe Solvabilité 2 en « Formule Standard » et donc
les approximations sous-jacentes à la méthode.
Il s’agit ici de se limiter à la partie descriptive. L’intérêt de développer une méthode
plus réaliste fait l’objet d’un chapitre à part (cf chapitre 3).
2.2 Hypothèses des calibrages du risque action en
Formule Standard
2.2.1 Objectif et titres concernés
Le risque action matérialise l’éventualité de perte en capital suite à la baisse du
cours des actions détenues.
Les titres actions sont scindés en 2 groupes :
•
•
Les actions type « global » qui sont celles listées dans les marchés de l’OCDE
et de l’EEE (hors Private Equity)
Les actions type « other » qui réunissent toutes les autres, telles que celles
des marchés émergents, les hedge funds, FCPR etc
2.2.2 Le choc appliqué : le calibrage Formule Standard QIS 5
Conformément aux recommandations établies par QIS 5, le choc appliqué au
31/12/2009 aux valeurs de marché des actifs est de 30 % à la baisse s’ils
proviennent de pays non émergents, dans le cas contraire, une décote de 40% est
appliquée.
Les stress en capitaux correspondent aux VaR à 0,5 % des rendements actions (voir
détail ci-après).
La richesse initiale dès lors choquée (valeur de marché des actions dégradée), les
flux Actif/Passif sont projetés pour en déduire la Net Asset Value en situation
stressée : le capital de risque action est alors déduit (cf 1.3.2.2).
29
2.2.3 Les hypothèses de calibrage
Quelles sont les hypothèses et études ayant permis d’aboutir au niveau de choc
spécifié par la Formule Standard ?
Le calibrage du choc sur valeur de marché des actions s’effectue en 2 étapes :
•
La première vise à déterminer le Standard Equity Capital Charge (SECC) et
représente la VaR à 0,5 % des rendements des actions*
•
La deuxième étape vise à ajuster le rendement ce quantile la VaR à 0,5 % via
le mécanisme d’ajustement (Effet Dampener) qui consiste à diminuer le choc
si en date de projection l’indice est en bas de cycle (probabilité plus forte de
remontée) et inversement si positionnement du niveau de l’indice en haut de
cycle.
*Actions type « global »: sur données MSCI World Developed Price Equity Index
depuis 1973
*Actions type « other » : sur données LPX50 Total Return pour les Private Equity,
S&P GSCI Total Return pour les Commodities, HFRX Global Hedge Fund Index pour
les Hedge Funds, MSCI Emerging Markets BRIC pour les Emerging Markets
Remarque:
•
Ces distributions font apparaître des « fat tails » et un « skewness ». Pour
conserver le risque de chocs extrêmes, le CEIOPS (ou nouvellement EIOPA)
fait le choix de ne pas approximer cette distribution par une loi normale, mais
de conserver les lois empiriques, malgré une forte dépendance aux données.
•
Le Consultation Paper proposait un stress de 45 % représentant bien chacune
des VaR pour les actions global vs 60 % pour les « others »
Etape 2 : évaluation de l’effet Dampener
Pour les actions, il correspond au terme :
1 t −n
It − ∑ I s
n s =t −1
1 t −n
∑ Is
n s =t −1
où I est l’indice de l’actif risqué étudié à la date t et n le nombre de jours (260)
considérés sous la contrainte forfaitaire
-10%*standard capital stress ≤ adjustment ≤ 10%*standard capital stress
Le stress total est de la forme:
adjusted capital stress = standard capital stress + adjustment * beta
30
2.2.4 Vers un calibrage plus « Entity Specific » ?
L’analyse de la répartition géographique du portefeuille action de type « global » de
la société d’assurance montre qu’il est constitué à près de 92 % d’actions
européennes et 7 % d’actions américaines. Le benchmark de la société d’Assurances
étant l’Eurostoxx 50, il est intéressant de porter l’étude sur cet indice depuis 1986.
L’étude révèle un niveau de choc égal à celui préconisé par l’EIOPA.
Figure 2.1 : Distribution des rendements Eurostoxx 50 depuis 1986
Un focus est fait sur l’établissement des niveaux de corrélations des capitaux de
risque, toujours dans la continuité de l’ambition d’identifier les limites de la Formule
Standard.
31
2.3 Les corrélations des capitaux de risque de marché
en Formule Standard
Les coefficients de corrélations doivent être établis en phase de crise afin de refléter
les corrélations dans les extrêmes, s’agissant d’agréger des capitaux de risque
calibrés, comme vus précédemment, sur des quantiles à 0,5 % (ou 99,5 %).
Il est très difficile voir impossible de justifier quantitativement de la dépendance
entre deux risques, et encore plus difficile d’estimer la dépendance entre charges de
capitaux.
Cependant, le CEIOS (nouvellement EIOPA) donne quelques arguments macro
économiques qui permettent de justifier la dépendance entre les risques puis la
corrélation entre les charges en capitaux.
Il faut néanmoins garder à l’esprit que la méthodologie du CEIOPS se veut plus
prudentielle que réellement représentative de la réalité.
Une forte baisse du prix des actions tel que celui spécifié dans le module action (de 45 à -60 %) indique que la situation est dans une phase de récession. Dans ce cas, il
y a conjointement augmentation de l’aversion aux risques due à la perte de
confiance des acteurs de marché et augmentation des probabilités de défauts ; d’où
une forte élévation des spreads de crédit.
De la même manière, en période de récession, il y a diminution de la demande en
immobilier donc diminution des prix : il s’agit ici de traduire les hypothèses ayant
conduit aux niveaux retenus pour QIS 5, exercice mené par les assurances
permettant de d’affiner le calibrage définitif des mesures de niveau 2 : cf 1.1.3),
hypothèses certes contestables en regard des augmentations successives des prix
immobiliers sur la période 2007-2011. Le détail des hypothèses figure dans le
Consultation Paper 74.
A l’inverse, une augmentation des spreads de crédit indique une aversion au risque
accrue qui peut directement ou indirectement jouer sur la valeur des entreprises
donc sur le cours des actions associées. La même analyse est portée sur
l’immobilier.
Ces trois risques sont donc fortement liés.
Les corrélations prudentielles appliquées aux capitaux de risque sont :
•
•
•
Corrélation actions/spread = 75 %
Corrélation actions/immobilier = 75 %
Corrélation spread/immobilier = 75 %
En cas de crise majeure, il est probable que l’ensemble des marchés soit touché,
mais pas de la même façon : cela implique une augmentation de la volatilité des
taux de change.
A l’inverse, de forts mouvements des taux de change peuvent conduire à de forts
mouvements d’autres paramètres économiques comme on a pu l’observer avec la
dernière crise. Une forte corrélation entre le risque de change et les autres
paramètres peut donc être justifiée. Mais d’un autre coté une même variation des
32
taux de change peut ne pas être ressentie de la même manière sur les profits de
deux sociétés différentes et donc être un avantage ou un désavantage.
Il est donc approprié de choisir un coefficient moyen pour la corrélation.
•
•
•
•
•
Corrélation
Corrélation
Corrélation
Corrélation
Corrélation
change/taux d’intérêt = 50 %
change/actions = 50 %
change/immobilier = 50 %
change/spread = 50 %
change/concentration = 50 %
En cas de ralentissement économique, les banques centrales ont souvent tendance à
baisser leurs taux directeurs afin de relancer la croissance. Ainsi, une évolution
défavorable des paramètres du marché implique une diminution des taux directeurs
qui, à son tour, entraine une diminution des taux zéro-coupons.
On pourrait donc justifier d’une corrélation forte entre les taux d’intérêt et le marché.
Cependant la diminution des taux d’intérêt peut avoir un impact plus ou moins
négatif sur les compagnies d’assurance en fonction de la duration de leur passif.
Finalement, il est convenable de prendre un facteur de corrélation moyen entre les
taux et le marché.
•
•
•
•
Corrélation
Corrélation
Corrélation
Corrélation
taux
taux
taux
taux
d’intérêt/actions = 50 %
d’intérêt/change = 50 %
d’intérêt/spread = 50 %
d’intérêt/immobilier = 50 %
Quant aux facteurs de corrélation du risque de concentration, ils traduisent
l’augmentation de la charge que doit supporter l’assureur sur les risques de taux,
d’action, de spread, de change et d’immobilier lorsque ses investissements ne sont
pas « bien diversifiés ».
Le risque est donc très important, et une corrélation forte entre les autres facteurs
doit être retenue.
•
•
•
•
•
Corrélation
Corrélation
Corrélation
Corrélation
Corrélation
concentration/actions = 75 %
concentration/taux = 75 %
concentration/change = 50 %
concentration/immobilier = 75 %
concentration/spread = 75 %
Au final, le calibrage du QIS 5 retient les niveaux suivants pour la matrice de
corrélations des capitaux de risque de marché (qui est fonction du risque encouru à
la hausse ou à la baisse des taux par la société d’assurances)
33
Figures 2.2 et 2.3 : Matrices de corrélations des capitaux de risque QIS 5
Si sujet au risque de baisse des taux :
Matrice de corrélation des
capitaux de risque de
Taux
Action
Immobilier
Spread
Change
Concentration
Prime d'illiquidité
Taux
Action
Immobilier
Spread
Change
Concentration
1
0,5
0,5
0,5
0,25
0
0
1
0,75
0,75
0,25
0
0
1
0,5
0,25
0
0
1
0,25
0
-0,25
1
0
0
1
0
Taux
Action
Immobilier
Spread
Change
Concentration
1
0
0
0
0,25
0
0
1
0,75
0,75
0,25
0
0
1
0,5
0,25
0
0
1
0,25
0
-0,25
1
0
0
1
0
Prime
d'illiquidité
1
Si sujet au risque de hausse des taux :
Matrice de corrélation des
capitaux de risque de
Taux
Action
Immobilier
Spread
Change
Concentration
Prime d'illiquidité
Prime
d'illiquidité
1
2.4 Mise en perspective des enjeux du calibrage des
risques de marché sous Solvabilité 2
La mise en perspective des enjeux du calibrage des risques de marché a été illustrée
en partie précédemment pour l’Epargne par les mécanismes qui régissent la
valorisation des engagements en « Best Estimate », mode de valorisation nécessaire
sous Solvabilité 2 (cf « le bilan économique »).
Au travers des résultats de l’exercice QIS 5 réalisé en 2009, une autre analyse
permet de pointer la sensibilité du SCR au calibrage des risques de marché. Elle est
menée sur la constitution du SCR et des Fonds Propres éligibles, montant pour
couvrir ce capital règlementaire requis de risque; elle permet de distinguer ces
enjeux selon le périmètre du business envisagé (Epargne et Prévoyance à l’étude).
34
2.4.1 Définition du taux de couverture et de la réserve de
réconciliation
2.4.1.1 Le taux de couverture
Le taux de couverture correspond au rapport des Fonds Propres éligibles sur le capital
de solvabilité requis (SCR).
Le taux de couverture constitue un indicateur de risque essentiel dans une étude
d’allocation stratégique (couple rendement/risque) sous le prisme Solvabilité 2 ; il est
aussi un instrument de communication utilisé par l’ensemble des acteurs du marché,
révélant la solidité de la gestion des risques sous Solvabilité 2.
Les deux raisons principales qui incitent les assureurs à communiquer sur cet
indicateur sont :
•
La première provient de sa définition même : cet indicateur précise la capacité
de l’assureur à couvrir le capital règlementaire requis (SCR) avec ses Fonds
Propres actuels.
•
La deuxième raison tient notamment aux éléments participant à sa
formation :
o
le SCR, comme vu, est le capital règlementaire qu’il faut détenir au vu des
risques encourus. En « Formule Standard », les chocs appliqués
appartenant au module risque de marché sont proportionnels à la valeur
de marché (cf 2.2): ainsi donc, le SCR pourrait être plus faible lorsque les
moins values latentes sont élevées si celles-ci impactent peu la
valorisation du « Best Estimate Passif » (ce qui est le cas en Prévoyance
comme détaillé plus loin.)
o
Les Fonds Propres éligibles, numérateurs du taux de couverture, prennent
en considération ce paramètre, ils tiennent compte des Plus ou Moins
Values latentes, puisque la réserve de réconciliation (élément des Fonds
Propres éligibles) est constituée en partie de celle-ci : un bilan en forte
plus value verra sa réserve de réconciliation et donc ses Fonds Propres
éligibles augmenter d’autant. Inversement en cas de moins values
latentes.
L’intérêt du taux de couverture est donc de combiner l’ensemble de tels effets :
35
•
Un assureur ayant un bilan économique à l’équilibre (valeur comptable des
placements égale à la valeur de marché) de taille modérée aura un SCR
modéré en Formule Standard si la nature des investissements est peu risquée
(chocs proportionnels à la valeur de marché des placements respectifs pour le
module risque de marché par exemple) et des Fonds Propres éligibles non
impactés par la richesse à la date considérée.
•
Un assureur présentant les mêmes caractéristiques mais dont la taille du bilan
est plus importante aura donc un taux de couverture identique bien que son
SCR sera plus élevé.
•
En revanche, un assureur en forte moins values aura ses Fonds Propres
éligibles impactés (réserve de réconciliation diminuée de ce montant d’autant)
contre un SCR qui pourrait être inchangé (en Prévoyance) : son taux de
couverture sera alors plus faible que ses deux prédécesseurs.
Comme nous le verrons plus en détail dans les parties qui suivent, le taux de
couverture est fonction du calibrage des risques de marché.
2.4.1.2 La réserve de réconciliation
Comme précisé précédemment, la réserve de réconciliation est constituée en partie
des plus ou moins values latentes des placements ; l’autre élément important
contribuant à sa constitution est la plus ou moins values du bilan prudentiel
(solvabilité 2) sur le passif bilan social.
Ainsi, un passif présentant des provisions mathématiques valorisées en « best
Estimate » supérieures à celles en valeurs comptables constituent un sousprovisionnement pour l’assureur (ou une plus value vision assuré si celui-ci restait)
qui impacte alors la réserve de réconciliation et donc les Fonds Propres éligibles en
la diminuant d’autant.
Pour rappel, comme montré en partie 1, la valorisation du passif Best Estimate en
Epargne est fonction de l’ensemble des calibrages des risques de marché (courbe
des taux et volatilités implicites des options des actifs de marché ayant servi à
calibrer les modèles diffusant les valeurs financières).
36
2.4.2 Analyse des enjeux du calibrage des risques de marché pour la
prévoyance
Figure 2.4 : L'élaboration du SCR et des Fonds Propres éligibles sur
l'analyse des résultats de l'exercice QIS 5 au 31/12/2009
PREVOYANCE
En prévoyance
19 M€
Principaux risque de marché
2
9 M€
Autres
Immo : 4%
capital de risque action
30% vb action
capital de risque immobilier
25% vb immo
.
Risque spread : 18%
-30%
SCR de
souscription
non vie après
diversification
11 M€
SCR de marché sans Risque action : 40% SCR
effet de diversification
marché
capital de risque taux
4.3% vb taux
capital de risque spread
selon rating et duration
SCR de souscription
santé après diversification
SCR de marché
après diversification
Risque taux : 1/3 SCR
marché
1,6 M€
SCR de contrepartie
1
Autres risques de marché
Agrégation des SCR avec effet de diversification : -30%
39,6 M€
Fonds Propres éligibles
3
% des Fonds Propres
éligibles
Capital social
18%
Primes liées au capital
social
14%
22% du SCR avant effet
diversification
20,4 M€
risque de
marché
risques de
souscription
SCR
risque de
contrepartie
Autres réserves (5%)+
dividendes*** (20%)
PMVL placements actifs
PMVL réassurances à
Réserve de Réconciliation
l'actif
PM-BE-Risk margin- profits
-3%
sur primes futures
Autres retraitements*
Profits sur primes futures
Emprunts sub (TSDD)
PMVL impôts différés
(actifs/passifs) => 20%
Emprunts sub (TSDI) => 8%
25%
2%
-8%
45%
-42%
37%
5%
50% des 42% expliqué par impôts
différés Actif/Passif****
8%**
*différence entre "autres réserves", celle de la valorisation des titres subordonnés (vision éco S2 vs S1), des coûts d'acquisition différés
(présents à l'actif sous S1) et isolement des impôts différés mis en T3 partiellement (cf **)
**cap à 15% du SCR pour éléments T3 (impôts différés et TSDI ici) soit 15/100*20,4 en T3 car surcouvert en TSDI
***dividendes non versés donc figurent en Tier 1
****impôts différés passif importants qui abaissent la RR car la prévoyance génère un surprovisionnement passif significatif (représenté
essentiellement par l' écart sur méthode de valorisation de la sinistralité : forfaitaire sous S1, triangle de règlement sous S2). Le reste est
expliqué par frais d'acquisition reportés
1
La constitution du SCR de marché en Prévoyance
Le SCR de marché (net) en Prévoyance ne bénéficie pas d’une diminution des chocs
contrairement à l’Epargne (SCR de marché brut = SCR net de marché) car il n’y a
37
pas de mécanisme de participation aux bénéfices revalorisant les provisions
mathématiques chez Natixis Assurances pour cette activité.
2
Le poids du SCR de marché en Prévoyance
Pour autant, l’absence de mécanisme d’absorption des pertes n’entraîne pas un
poids disproportionné du SCR de marché face au SCR global : en effet, il ne
représente que 22 % du SCR global contre 92 % en Epargne : les SCR non vie sont
évalués de façon forfaitaires en « Formule Standard » et pèsent plus que le SCR de
marché dans le SCR global de la Prévoyance.
Toute chose égale par ailleurs, ceci conduirait dès lors à un taux de couverture très
faible en comparaison à l’Epargne ; cependant, ce n’est pas le cas puisque le taux de
couverture Prévoyance est à 196 % : les Fonds Propres éligibles en Prévoyance sont
plus importants (x10) qu’en Epargne toutes choses égales par ailleurs (rapport
estimé sur Fonds Propres éligibles en Prévoyance contre Fonds Propres éligibles
Epargne pari passu à la valeur de marché des placements de la prévoyance).
3
Les Fonds Propres éligibles sous solvabilité 2 en Prévoyance
L’analyse du schéma montre que, via la réserve de réconciliation, les plus ou moins
values des Provisions techniques (« Best Estimate » contre valeur comptable)
représentent au 31/12/2009 45 % des Fonds Propres éligibles (Fonds Propres
couvrant le SCR).
Cependant, la valorisation « Best Estimate » du Passif en Prévoyance est moins
sensible que l’Epargne à l’ensemble des calibrages associés aux risques de marché
(notamment indépendante aux volatilités implicites des options servant au calibrage
des valeurs financières diffusés) car le passif « Best Estimate » est valorisé via la
méthode Chain Ladder, donc impacté par un facteur de risque de marché via
uniquement l’étape d’actualisation des sinistres restant à régler : l’effet du risque de
marché sur le passif est donc limité au niveau de la courbe des taux.
38
2.4.3 Analyse des enjeux du calibrage des risques de marché pour
l’Epargne
Figure 2.5 : L'élaboration du SCR et des Fonds Propres éligibles sur
l'analyse des résultats de l'exercice QIS 5 au 31/12/2009
EPARGNE
Principaux risque de marché
.
capital de risque action
30% vb action
-73% par le mécanisme de la participation aux bénéfices (lors de la valorisation des PM) qui transfert d'une partie des pertes à l'assuré
905 M€
En Epargne
Autres
Immo : 7%
capital de risque immobilier
25% vb immo
.
2
-20 % effet diversification
725 M€
Risque spread : 26%
3 444M€
capital de risque taux
4.3% vb taux
SCR (net) de marché
avant effet de
diversification
Risque action : 52% SCR
marché
SCR de marché
après diversification
capital de risque spread
selon rating et duration
Risque taux : 12% SCR
marché
Autres risques de marché
54 M€
SCR de souscription vie
après diversification
21 M€
SCR de contrepartie
Agrégation des SCR avec effet de diversification : -7%
1
1089 M€
Fonds Propres éligibles
% des Fonds Propres
éligibles
Capital social
44%
Primes liées au
capital social
20%
90% du SCR avant eff et
diversif ication et agrégation
SCR opérationnel
3
800 M€
590 M€
risque de marché
SCR avant ajustement
impôt différé et SCR
opérationnel
SCR
Autres réserves
PMVL placements
actifs
PMVL réassurances
Réserve de Réconciliation
à l'actif
PM-BE-Risk margin-3%
profits sur primes
risques de souscription
risque de contrepartie
1%
67%
-1%
-50%
Autres retraitements*
Profits sur primes futures
-19%
5%
Emprunts sub (TSDD)
28%
PMVL impôts différés
(actifs/passifs) => 4%
8%**
Emprunts sub (TSDI)
*différence entre "autres réserves" (principalement : 17%) et celle de la valorisation des titres subordonnés (vision éco S2 vs S1) et isolement des impôts différés
**cap à 15% du SCR pour éléments T3 (impôts différés et TSDI ici) soit 15/100*590 en T3 car surcouvert en TSDI
39
1
La constitution du SCR de marché en Epargne
Le SCR de marché (net) en Epargne bénéficie d’une forte diminution (-79 %) des
chocs appliqués initialement (SCR de marché brut) car le mécanisme de la
participation aux bénéfices revalorisant les provisions mathématiques (engagements
envers les assurés : cf 1.2.2.4) absorbe une partie des pertes : la diminution de la
richesse initiale n’affecte donc pas directement les Fonds Propres économiques.
Par ailleurs, bien que la poche actions ne représente que 10 % des titres, le montant
en capital représente 52 % du SCR de marché compte tenu du choc appliqué.
Cette étape exhibe la complexité des mécanismes en Epargne qui aboutissent à la
valorisation du passif économique et notamment des Fonds Propres économiques. Il
est le résultat du déclenchement d’un enchaînement d’options du Passif non
subordonné (rachats dynamiques, taux minima garantis, provisions pour exigibilité,
provisions pour dépréciation durable,…) qui montre que la NAV ne saurait être une
fonction linéaire de la valeur de marché du portefeuille de placements.
2
Le poids du SCR de marché en Epargne
Le SCR de marché en Epargne constitue 90 % du SCR avant agrégation du SCR
opérationnel et effet diversification (par agrégation suivant la matrice de corrélation
des risques).
Le SCR en Epargne est donc principalement affecté par les risques de marché : ce
constat résulte de deux effets :
•
Le premier provient de la valorisation "Best Estimate" du passif non
subordonné dont la taille est sensible au niveau de richesse initiale et à la
volatilité des actifs risqués (volatilité implicite autour de 25 % au 31/12/2009
pour les actions). Sur des scénarios défavorables, il y a notamment un
déclenchement de prestations suite à une situation dégradée qui proviennent
de rachats dynamiques à partir d'un seuil défini sur le différentiel entre taux
commercial attendu et produits financiers réalisés. S'ajoutent d'autres effets
qui détériorent ou modifient les produits financiers comme la provision pour
risque d'exigibilité (cf annexe) et les plans de réassurances mis en œuvre.
•
La deuxième raison provient des chocs appliqués aux risques de souscription
qui sont moins impactant que ceux appliqués aux risques de marché dans le
processus de valorisation de passif "Best Estimate" en Épargne. (Par exemple,
choc de +-10 % des décès pour le module risque de décès)
3
Les Fonds Propres éligibles sous solvabilité 2 en Epargne
Le taux de couverture (ratio Fonds Propres éligibles sur SCR) de la majorité des
assureurs français sur le périmètre Epargne varie dans l’intervalle [160 %,190 %].
40
L’analyse du schéma montre que, via la réserve de réconciliation, les plus ou moins
values des Provisions techniques (« Best Estimate » contre valeur comptable)
représentent au 31/12/2009 60 % des Fonds Propres éligibles (Fonds Propres
couvrant le SCR). La valorisation « Best Estimate » du Passif en Epargne étant
sensible à l’ensemble des calibrages associés aux risques de marché (volatilités
implicites des options servant au calibrage des valeurs financières diffusées et
niveaux des courbes des taux) comme vu en chapitre 1 , le calibrage des risques de
marché a un impact prépondérant dans l’estimation des Fonds Propres éligibles.
Afin d’illustrer et quantifier l’impact des calibrages des risques de marché, une étude
de la sensibilité du taux de couverture au niveau de la volatilité action (28 %->35%)
puis au niveau de la courbe des taux (central+150bps) ont été réalisées.
Elles révèlent l’importance de la maîtrise des calibrages :
La hausse de la volatilité des actions de 25 % entraîne une baisse de 24 % du taux
de couverture : ce constat résulte de la combinaison de deux effets :
•
La fonte des éléments éligibles (-3 %) due à une augmentation du passif Best
Estimate (et donc une baisse en parallèle des résultats actualisés (Value In
Force)) qui impacte la réserve de réconciliation
•
La hausse de 11 % du SCR qui provient principalement de celle du SCR action
(550M€ contre 478 M€ en situation centrale)
La translation à la hausse de 150 bps de la courbe des taux entraîne une baisse de
14% malgré la diminution moindre du SCR : la raison tient à la fonte des éléments
éligibles consécutive à l’augmentation du passif « best estimate ».
Conclusion Chapitre 2
En Épargne, le taux de couverture témoigne donc du rôle prépondérant du
calibrage du risque de marché sous Solvabilité 2 puisque les deux
composantes SCR et Fonds Propres éligibles en sont fonction.
L’ensemble des deux premières parties ont permis de montrer le rôle dominant du
générateur de scénarios dans le calibrage des facteurs de risque de marché en
Epargne sous solvabilité 2, que ce soit avec la méthode Formule standard ou avec
celle Modèle Interne Partiel.
Le chapitre 3 traite des raisons qui militent en faveur du développement d'un modèle
interne : nous montrerons aussi que l'ensemble des problématiques relatives à son
calibrage est intrinsèquement lié aux différents choix portant sur le générateur de
scénarios.
41
Deuxième partie : le Modèle Interne en Épargne
42
3 Le calibrage du modèle interne périmètre risque de
marché
Le développement d’un modèle interne (partiel bien souvent) est motivé pour
plusieurs raisons :
•
Tout d’abord, la méthode de la formule standard suppose des hypothèses
fortes souvent non vérifiées :
o
o
o
o
o
o
•
Hypothèses des lois des distributions des facteurs de risque non
vérifiées
Hypothèse de la monotonie des Fonds Propres économiques aux
facteurs de risque non nécessairement vérifiée
Principe du calibrage des facteurs de risque élaboré sur l’hypothèse
erronée (surtout en Epargne) de la linéarité des Fonds Propres
économiques aux facteurs de risques
Corrélation linéaire des capitaux de risque difficile à justifier
(problématique des extrema)
Niveau des corrélations des capitaux de risque difficile à estimer
Quid du facteur de risque volatilité action ?
Les méthodes modèles internes reflètent davantage le profile de risque
spécifique à l’entreprise pour deux raisons principales :
o
o
Suivant la méthodologie employée, la distribution des Fonds Propres
économiques peut être représentée.
Les calibrages des risques de marché sont issus directement et
exclusivement des scénarios économiques ; les corrélations et facteurs
de risques de marché sont ainsi directement embarqués et mieux
représentés dans les extrêmes : ils sont calibrés et représentés en
amont du modèle. Les aléas sont modélisés par les scénarios
financiers dont les calibrages sont élaborés sur les données de marché
; la méthode ne saurait présupposer des lois sur le comportement des
Fonds Propres économiques.
L’objet de ce chapitre est d’étayer les motivations du développement d’un modèle
interne.
43
3.1 Les limites de la méthode Formule Standard
L’uniformité des chocs spécifiés aux assureurs induit nécessairement des
simplifications empêchant la représentation du profil de risque auquel chacun des
assureurs est exposé : par exemple, étant uniquement calibré sur un même et seul
indice action (le MSCI world), le capital de risque requis action en Formule standard,
SCR action, ne permet pas un calibrage profilé au portefeuille de l’assuré : la VaR
99,5% des rendements du MSCI world n’est pas forcément égale à la VaR 99,5 %
de ceux du CAC 40 ou de l’ Eurostoxx 50, indice potentiel d’exposition de l’assureur.
Par ailleurs, un portefeuille mixte pourrait être tout à fait souhaitable pour une
meilleure représentation du benchmark de l’entreprise.
Les limites de la méthode Formule Standard portent en plus sur les hypothèses
fortes qu’elle suppose :
•
La loi gaussienne des facteurs de risque (distribution des rendements, taux...)
n'est pas évidente dans la mesure où les facteurs de risque de marché ne
suivent pas une loi normale : la volatilité de volatilité constatée sur le marché
des actions suggère l'emploi d'un modèle à volatilité stochastique par
exemple.
•
Les Fonds Propres économiques (« Net Asset Value ») ne sont pas linéaires
avec les facteurs de risque : un accroissement de 50 % des indices actions
n’induit pas un accroissement ou une baisse proportionnelle à 50 % des
Fonds Propres.
Une étude menée sur le facteur de risque niveau courbe des taux le confirme : nous
avons simulé 6 jeux de 1000 scénarios économiques risque neutre calibrés au
31/12/2010, avec même graine, sur des niveaux de courbes différentes (simples
translations de la courbe des taux nominaux) afin de mettre en évidence le
comportement non linéaire des postes du passif économique.
Voici les résultats obtenus sur NAV et PVFP (valeur actuelle des profits futurs), qui
démontrent bien l’hypothèse erronée de la Formule Standard.
44
Figure 3.1 Illustration de la non linéarité des Fonds Propres économiques
avec le facteur de risque courbe des taux
Evolution de la variation absolue de postes des Fonds Propres économiques en M€ selon le
facteur de risque niveau de la courbe des taux
Résultat attendu si linéarité de la PVFP aux
facteurs de risque courbe des taux
Valeur réelle de la variation absolue de PVFP par
rapport à la PVFP issue de courbe de tx court
70bps
700
Valeur réelle de la variation absolue de NAV par
rapport à la NAV issue de courbe de tx court
70bps
600
500
Résultat attendu si linéarité de la NAV aux
facteurs de risque courbe des taux
400
300
200
100
0,5%
1,0%
1,20%
1,50%
2,0%
Variation absolue de la courbe des taux par
rapport à celle de taux court 70 bps
Figure 3.2 La non linéarité des Fonds Propres économiques en chiffre
Inversion de la tendance : après une augmentation supérieure à celle
attendue si son comportement était linéaire à la courbe des taux, la NAV
devient à partir de ce seuil plus faible que celle attendue si la NAV était
affine à la courbe des taux.
Translation de la courbe
des taux par rapport à
celle initiale de taux
court à 70 bps
0,5%
1,0%
1,20%
1,50%
2,0%
En M€
Variation absolue de NAV Résultat attendu si linéarité de
par rapport à la NAV
la NAV au facteur de risque
issue de courbe de tx
courbe des taux
court 70bps
253
253
366
366
416
411
462
479
570
592
Translation de la courbe
des taux par rapport à
celle initiale de taux
court à 70 bps
0,5%
1,0%
1,20%
1,50%
2,0%
En M€
Variation absolue de
Résultat attendu si linéarité de
PVFP par rapport à la
la PVFP au facteur de risque
PVFP issue de courbe de courbe des taux
tx court 70bps
166
166
238
238
270
267
301
310
372
382
Après une remontée des taux permettant de servir les taux garantis, les
options (rachats dynamiques,...) se déclenchent faisant diminuer les
Fonds Propres.
14438,57942
En Epargne, la linéarité de la NAV à la courbe des taux n'est pas
vraie compte tenu des options embarquées
45
Figures 3.3 Courbe des taux forward de l’étude menée
Les courbes des taux Forward testées
8.00%
7.00%
Forward de la courbe de taux
court 70 bps
6.00%
Forward de la courbe initiale
des taux + 50 bps
5.00%
Forward de la courbe initiale
des taux + 100 bps
4.00%
3.00%
Forward de la courbe initiale
des taux + 120 bps
2.00%
Forward de la courbe initiale
des taux + 150 bps
1.00%
Forward de la courbe +200
bps
0.00%
1
142 283 424 565 706 847 988 1129 1270 1411
mois
L’allure des courbes taux forward (taux forward de maturité 1 mois annualisés)
s’explique par l’introduction d’une prime de liquidité sur taux spot iso-méthode QIS 5
(courbe jaune) : cf chapitre 4 pour plus de détails.
Les limites portent aussi sur la méthode mise en œuvre :
•
La bonne appréciation des risques est limitée compte tenu des effets de
diversification / agrégation entre risques pris en compte hors modèle
•
La méthode ne permet pas de disposer d’une distribution de valeur
économique de passif
3.1.1 Les hypothèses fortes de la gaussienne des facteurs de risque et
de la linéarité des Fonds Propres économiques à ces facteurs
3.1.1.1 Exposé
Nous reprenons ce qui a été déjà plus ou moins introduit précédemment.
46
La méthode de la formule standard suppose l’hypothèse de la distribution
gaussienne du vecteur formé des facteurs de risque.
Cette hypothèse est nécessaire pour plusieurs raisons :
•
La première assure une structure de dépendance caractérisée par une matrice
de corrélation linéaire : l’avantage est d’obtenir la dépendance de ses
marginales modélisée de façon simple et représentée en totalité par des
corrélations linéaires.
•
La seconde est la propriété de stabilité par transformation linéaire qui est utile
sous l’hypothèse supplémentaire d’une relation linéaire entre variables
aléatoires financières et Fonds Propres économiques : les Fonds Propres
économiques sont supposés être assimilables à un portefeuille de placements
ce qui ne sauraient être en Epargne.
Ces deux propriétés des vecteurs gaussiens sont nécessaires à l’objectif visé :
•
Le choix d’une méthodologie bottum-up par agrégation inter intra modulaire
via des matrices de corrélations linéaires
•
Estimer des capitaux de risque dont le calibrage est effectué depuis les
variables financières : cela suppose une équivalence (rendue possible avec
l’ajout de l’hypothèse d’une relation linéaire entre Fonds Propres économiques
et variables financières) entre capitaux de risque calibrés sur quantile à 0,5 %
et capitaux de risque calibrés depuis le quantile à 0,5 % des variables
financières. La monotonie des Fonds Propres économiques aux facteurs de
risque est cependant une condition suffisante pour valider le calcul des SCR
par module avant agrégation.
Pour résumer, les hypothèses conjointes de vecteur gaussien des variables
financières et de la linéarité des Fonds Propres économiques avec ces facteurs de
risque de marché permettent de légitimer le processus de la constitution des
capitaux de risque en Formule Standard qui se fait en 3 étapes :
•
Etape 1 : estimation des quantiles à 0,5 % des variables financières.
•
Etape 2 : application des chocs principalement sur les valeurs de marché des
placements afin d'en déduire les capitaux de risque associés. Pour valider
cette équivalence, l'estimation des SCR par module de risque depuis ces
quantiles à 0,5 % des variables financières nécessite la propriété de la
monotonie des Fonds Propres économiques avec les facteurs de risque.
•
Etape 3 : Les hypothèses conjointes de vecteur gaussien des facteurs de
risque et d'une relation monotone entre Fonds Propres économiques et
variables financières (assimiler les Fonds Propres économiques a un
portefeuille de placements)sont requises pour légitimer l'agrégation des
modules de risque via une matrice de corrélation linéaire des capitaux de
risque. Il y a dès lors bien un respect du calibrage du SCR de marché.
47
Cette hypothèse d’une distribution gaussienne des variables financières trouve ses
limites dans la mesure où les distributions des rendements actions, immobilier, taux,
taux risqués ne suivent pas des lois normales sur le marché (présence de volatilité
de volatilité, de skewness) qui nécessitent une modélisation spécifiques pour chacun
de ces actifs via des modèles autres que normaux.
De plus, la linéarité de la fonction ALM qui lie les facteurs de risque aux Fonds
Propres économiques est une hypothèse non vérifiée en Epargne contrairement à la
Prévoyance (cf 2.4.2 et 2.4.3) où ce serait davantage vrai en négligeant
l’actualisation :
•
En effet, en Epargne, la « NAV » (ou Fonds Propres économiques) ne peut
pas être déduite directement de la valeur de marché des placements par une
simple fonction linéaire (basée sur la répartition linéaire du portefeuille de
placements), puisque, comme vu au chapitre 1, le mécanisme exige une
revalorisation du passif des assurés qui est fonction des engagements
techniques, des caractéristiques du comportement des assurés (valeur
actuelle des prestations qui dépend des rachats et décès) et de la
performance des titres. Les Fonds Propres économiques résultent donc de la
différence entre Valeur de Marché (VM) des placements et du passif Best
Estimate qui ne saurait être fonction linéaire des placements. En Epargne,
NAV = VM placements − BestEstimate où Best Estimate Passif n’est pas linéaire
de la Valeur de Marché (VM) des placements.
•
En Prévoyance, la NAV (ou Fonds Propres économiques) est déduite de façon
plus directe de la valeur de marché des placements puisque le passif non
subordonné n’est pas revalorisé de la performance des actifs comme en
Epargne : NAV = VM placements − BestEstimate où le Best Estimate Passif est
« plutôt » indépendant des variables financières en négligeant le phénomène
« actualisation des flux » : le passif non subordonné de la Prévoyance est en
effet exposé de façon presque exclusive aux risques de souscription
(pratiquement indépendants des risques de marché : corrélation à 25 % en
Formule standard entre risque de souscription et risque de marché).
3.1.1.2 Preuve des hypothèses fortes nécessaires à la validité de la Formule
Standard
En considérant uniquement deux facteurs de risque, nous allons démontrer la
nécessité de supposer conjointement les facteurs de risque de marché gaussiens et
les Fonds Propres économiques fonction linéaire de ses facteurs de risque de marché
pour valider la méthode « Formule Standard ». Cette démonstration est utile pour
identifier à quels instants sont requis les hypothèses lors du processus du calcul du
SCR méthode Formule Standard.
Notations :
NAV ( X 1 , X 2 ) t =1 : les Fonds Propres économiques à 1 an
48
( X 1 , X 2 ) : le vecteur de risque (rendement action et taux 10 ans par exemple)
q0,5% : le quantile à 0,5 % de la loi normale centrée réduite
PZC (0,1) : le prix zéro-coupon de maturité 1 an
σ i la volatilité du risque associé
ρ désigne la corrélation des capitaux de risque
Considérons donc les hypothèses requises pour légitimer la Formule Standard :
H1: ( X 1 , X 2 ) vecteur des facteurs de risque gaussien
H2 : NAV ( X 1 , X 2 ) = a × X 1 + b × X 2 + c
Nous avons par définition du capital de risque de marché:
SCRmarché = E ( NAV ( X 1 , X 2 ) t =0 ) − PZC (0,1) × VaR0,5% ( NAV ( X 1 , X 2 ) t =1 )
En l’absence d’opportunité d’arbitrage, la situation à un an s’écrit :
SCRmarché = PZC (0,1) × ( E ( NAV ( X 1 , X 2 ) t =1 − VaR0,5% ( NAV ( X 1 , X 2 ) t =1 )
soit
SCRmarché = PZC (0,1) × ( E (( NAV ( X 1 , X 2 ) t =1 − VaR0,5% ( NAV ( X 1 , X 2 ) t =1 )
Pour simplifier nous noterons NAV ( X 1 , X 2 ) t =1 par NAV ( X 1 , X 2 )
•
Lemme 1 : si deux variables aléatoires suivent une loi normale, à 1 an,
VaR0,5% ( X 1 ) = E ( X 1 ) + q0,5% × σ 1
VaR0,5% ( X 2 ) = E ( X 2 ) + q 0,5% × σ 2
•
Lemme 2: si deux variables aléatoires centrées forment un vecteur gaussien,
VaR0,5% (a × X 1 + b × X 2 ) = q0,5% × (a σ + b σ + 2 ρσ 1 σ 2 )
2
•
2
1
2
2
2
1
2
Lemme 3: si deux variables aléatoires forment un vecteur gaussien
et f linéaire, f ( X 1 , X 2 ) suit une loi normale
Ainsi,
SCRmarché = PZC (0,1) × VaR0,5% [ E ( NAV ( X 1 , X 2 )) − NAV ( X 1 , X 2 )]
= PZC (0,1) × VaR0,5% (a × E ( X 1 ) + b × E ( X 2 ) + c − (a × X 1 + b × X 2 + c)) d’après (H1)
= PZC (0,1) × VaR0,5% (a × ( E ( X 1 ) − X 1 ) + b × ( E ( X 2 ) − X 2 ))
49
Pour simplifier les notations, considérons X1 et X2 centrés sans perte de généralité
SCRmarché = − PZC (0,1) × VaR0,5% (a × X 1 + b × X 2 )
1
= − q0,5% × PZC (0,1) × (a 2σ 12 + b 2σ 22 + 2 ρσ 1 σ 2 ) 2 d' après le lemme L 2
1
2
= − PZC (0,1)(VaR0,5% (a × X 1 )) + (VaR0,5% (b × X 2 )) + 2 ρ × VaR0,5% (b × X 2 ) × VaR0,5% (a × X 1 ) ) (L2)
2
= −( SCR + SCR + 2 ρ × SCR1 × SCR2 )
2
1
2
2
2
1
2
d' après (H2)
où SCRi = PZC (0,1) × VaR0,5% ( NAV ( X i )) puisque X i est centré réduit.
D’où, l’expression de calcul de l’agrégation des SCR selon la méthode de la Formule
Standard : l’hypothèse des caractéristiques gaussiennes du vecteur des facteurs de
risque ( X 1 ,..., X n ) et celle de la linéarité des NAV avec ces facteurs de risque sont
nécessaires afin de valider la méthode d’agrégation inter et intra modulaires des
capitaux de risque par des matrices de corrélations linéaires.
En d’autres termes, la modélisation des dépendances en formule standard exige les
hypothèses fortes de vecteurs gaussiens des facteurs de risque et de linéarité des
Fonds Propres économiques en ces facteurs de risques.
3.1.2 L’hypothèse forte de la monotonie des Fonds Propres
économiques aux facteurs de risques de marché
3.1.2.1 Exposé
Le calibrage des capitaux de risque de marché s’effectue sur la VaR à 0,5 % des
variables financières comme montré dans la partie 2.2.2. Assimiler le quantile à
0,5% des valeurs financières à ceux de la VaR des Fonds Propres économiques
requière l’hypothèse forte de la monotonie de la « fonction Asset Liability
Management », autrement dit, la NAV est fonction monotone des risques encourus.
3.1.2.2 A quel moment cette hypothèse est nécessaire pour valider la
Formule Standard?
Cette condition se comprend et s’identifie aisément sur l’étude d’un risque.
Considérons un assureur de portefeuille investi exclusivement en actions, exposé
donc uniquement au risque action dans le module risque de marché sous le prisme
Solvabilité 2.
50
L’objectif de solvabilité 2 dans ce contexte est d’estimer le capital de risque de
marché associé à l’exposition action, montant correspondant à la différence entre
NAV centrale et celle du quantile à 0,5 % de la distribution des Fonds Propres
économiques (NAV) à un an : VaR0 ,5% ( NAV ( X 1 , X 2 ) t =1 )
Si f désigne la fonction ALM qui associe les Fonds Propres économiques à la valeur
de marché des placements actions X ,
NAV = f ( X )
Comme vu, le calibrage de la Formule Standard se fait sur les rendements actions
donc de façon indirecte puisqu’il n’est pas établi sur la NAV ; pour rappel, la VaR est
estimée sur la distribution de l’indice MSCI world qui détermine le choc appliqué à la
valeur de marché des placements X .
Notons que l’objectif premier sous solvabilité 2 est d’obtenir VaR0,5%(NAV).
Afin donc de valider le calibrage,
suppose implicitement l’égalité :
l’application de la méthode Formule Standard
VaR0,5% ( NAV ) = f (VaR0,5% ( X ))
D’où la monotonie de la fonction f sur le risque action.
La généralisation donnerait f ( X 1 ,..., X n ) est monotone en chacun des risques,
hypothèses non vérifiées en pratique dues à la complexité des options contenues
dans un modèle type Epargne : taux minimum garanti, revalorisation des provisions
par le mécanisme de participation aux bénéfices, provisions prudentielles,
phénomènes d’actualisation.
L’hypothèse de la monotonie est nécessaire pour justifier le calibrage du capital de
solvabilité requis par module de risque de marché sur le quantile fixé.
Remarque :
En formule standard Solvabilité 2 et sous le prisme risque de marché hors risque de
concentration, le vecteur X désigne les rendements actions, le niveau de la courbe
des taux, le rendement immobilier, les parités de change auquel l’assureur est
exposé, le niveau par rating et maturité des spreads.
51
3.1.3 Le risque de changement de volatilité action
3.1.3.1 Un module de risque non traité avec la méthode Formule Standard
Ces risques de marché qui servent à calibrer les scénarios économiques (volatilités
des actions et taux par exemple) ne font pas nécessairement l’objet d’un module
risque de marché en Formule Standard contrairement à la méthode SdS où
l’ensemble de ces risques seront pris simultanément en compte avec la sélection
d’un modèle action adéquat ; Cependant, le niveau de la volatilité des actions
impacte le « Best Estimate » des provisions techniques en Epargne qui se répercute
sur la réserve de réconciliation, élément des Fonds Propres éligibles.
Il a donc sous solvabilité 2 un impact sur le taux de couverture.
Autrement dit, le changement défavorable du niveau de volatilité des actions n’est
pas traité comme un risque sous Solvabilité 2 en Formule Standard s’il est
sélectionné un modèle action à volatilité constante puisqu’aucun module mesurant
l’impact d’un changement de volatilité action sur « Net Asset Value » n’existe.
Nous avons fait le choix d’un modèle action à volatilité stochastique (variation de la
volatilité en conséquence lors de la diffusion) car nous souhaitons capturer une
partie de ce facteur de risque même en Formule Standard.
3.1.3.2 Analyse de la loi des rendements Indice action Eurostoxx
Une analyse menée sur l’évolution de l’indice Eurostoxx 50, notre benchmark, sur les
dix dernières années (2001-2011) fait apparaître que la loi de distribution des
rendements ne peut pas être approximée par une loi normale (ce que suppose un
modèle simple type Black Scholes, à volatilité constante) comme en attestent le
graphe des rendements journaliers sur la période 2010-2011 et le tracé de la
distribution des rendements sur 2001-2010.
52
Figure 3.4 Rendements journaliers Eurostoxx 50 sur 2010- Août 2011
Figure 3.5 Distribution des rendements journaliers Eurostoxx 50
sur 2010- Août 2011
Cette densité ne semble pas gaussienne, un test de shapiro le confirme avec une pvalue très inférieure à 5 % (nous pouvons rejeter l’hypothèse de normalité avec un
taux d’erreur <5 %)
3.1.3.3 Analyse de la volatilité de l’Indice action Eurostoxx 50
Entre 2001 et septembre 2011, la corrélation entre la variation mensuelle de la
volatilité des rendements journaliers (pas de temps mensuel fenêtre de longueur 1
an) et les rendements mensuels est de -35.7%
53
Volatilité pas de temps mensuel, fenêtre 1an (estimée sur les relevés journaliers) et
rendements mensuels arithmétiques
Figure 3.6 Le phénomène « clustering » sur Eurostoxx 50 depuis 2001
Légende : en violet, la volatilité et en vert les rendements.
Les échelles ne sont pas respectées
Abscisse en mois
Le graphe illustre l’augmentation de la volatilité lorsque les rendements sont faibles
et inversement lorsqu’ils sont élevés. C’est le phénomène de clustering de volatilité.
Sur 2001 et 2011, la volatilité de la volatilité des rendements journaliers (sur fenêtre
de longueur 1 an, pas de temps mensuel) est de 10,3 %.
La volatilité de volatilité est donc estimée sur 108 volatilités elles-mêmes estimées
sur les relevés journaliers des rendements.
3.1.3.4 Quid de notre modèle action ?
La particularité de notre modèle action est d’introduire un aléa sur la volatilité des
rendements diffusés permettant ainsi d’introduire des variations de volatilités en
cohérence avec celle de marché (pour le détail du modèle utilisé, cf chapitre 4).
Notre modèle représente le phénomène de clustering de volatilité, à savoir le
phénomène d’une hausse de la variation de la volatilité lorsque les rendements sont
faibles et inversement dans le cas contraire : la corrélation entre l’aléa du processus
de rendements et celui du processus de la variation de la variance est en effet ciblée
en monde réel avec une valeur négative. En univers risque neutre, cette corrélation
54
négative est vérifiée ; le calibrage utilise cependant ce paramètre uniquement pour
retrouver les prix des options.
En risque neutre, univers de valorisation du passif économique, notre modèle a une
volatilité de volatilité de l’ordre de 2 % contre 10 % relevée sur la série Eurostoxx
comme indiqué supra. Un modèle action Black-Scholes ne permet pas d’introduire
d’aléa sur la volatilité : la sélection d’un tel modèle omet donc la représentation du
facteur de risque variation de la volatilité.
Enfin, notre modèle ne présuppose pas une loi normale des rendements.
3.2 Vers la nécessité de développer un modèle
interne?
3.2.1 Pourquoi développer un modèle interne ?
La question se pose notamment en Épargne pour estimer le SCR de marché.
Cette méthode plus complexe que la formule standard (appliquant pour rappel des chocs
prédéfinis et communs à tous les assureurs) doit permettre de représenter plus
précisément le SCR de l’assureur, elle est plus adaptée au profil de risque spécifique de
l’entreprise puisque :
•
Aucune hypothèse sur les lois des risques n’est supposée contrairement à la
Formule standard
•
Il est possible de représenter les corrélations dans les extrêmes de certains
risques de marché grâce notamment à la sélection de certains modèles
actions : ils diffusent des scénarios économiques qui permettent de
représenter la corrélation dans les extrêmes de deux actifs risqués (grâce à
un processus à volatilité systémique stochastique, un processus à saut et à la
structure de l’ensemble de la modélisation du générateur économique de
scénarios).
•
Surtout, la non linéarité avérée des options du passif (due majoritairement
aux taux garanties minima contenus dans les engagements et à certaines
provisions prudentielles type provisions pour risque d’exigibilité) requiert un
modèle interne qui représentera au mieux le comportement du modèle
Gestion Actif/Passif aux différents chocs modélisés par les scénarios
primaires.
Comme nous venons de le voir, les hypothèses très fortes et parfois non vérifiées
que requiert la Formule Standard nécessitent le développement d’un modèle interne
surtout en Epargne pour estimer le capital de solvabilité dû aux risques de
marché car :
55
•
Les variables financières ne sont pas modélisées par des lois normales afin de
respecter certaines propriétés observées sur le marché (impossibilité de taux
nominaux négatifs par exemple) et de modéliser la dépendance dans les
extrêmes.
•
La relation linéaire entre Fonds Propres économiques (NAV) et variables
financières n’est pas valable en Epargne, annulant l’équivalence entre
quantile à 0,5 % de la distribution des Fonds Propres économiques et celles
estimées depuis le quantile à 0,5 % en chacune des variables financières.
•
Le calibrage en Formule standard est effectué sur des indices qui peuvent ne
pas correspondre au Benchmark de l’entreprise d’assurances.
Remarque :
•
La méthode Formule Standard « Entity Specific » consiste à effectuer une
méthodologie proche à la Formule Standard (approche par chocs
instantanés) mais avec :
o
o
o
•
la possibilité de redéfinir les niveaux de chocs appliqués calibrés
suivant d’autres indices plus adaptés au benchmark de l’assureur que
ceux de la formule standard
redéfinir les niveaux des corrélations des capitaux de rsique à la
condition d’être en mesure de les justifier (travail difficile à mener
étant situé dans les extrêmes)
redéfinir l’architecture (à râteau par exemple)
La méthode Formule Standard « Entity Specific » ne permet pas de résoudre
les deux premières limites évoquées supra
3.2.2 Les facteurs de risque de marché en modèle interne
La méthode d’un modèle interne (SdS par exemple) peut permettre de couvrir un
périmètre plus large des facteurs de risque encourus par la société d’assurances : en
effet, outre les risques de marché traités avec la Formule Standard (mouvements
des taux, des rendements actifs risqués, des spreads, de liquidité, des parités, des
défauts des contreparties) il est possible en diffusant via le générateur de scénarios,
d’intégrer d’autres facteurs de risque comme la variation de la volatilité des actions à
un an. La formule standard ne traite que partiellement le risque de changements de
volatilité puisqu’aucun module n’y est consacré.
Avec la méthode Simulation dans la Simulation, il suffit de projeter les courbes à la
monnaie des volatilités implicites à un an pour actions et taux par exemple (sur
étude statistique, modèles GARCH,…) et de calibrer les scénarios en risque neutre
sur ces niveaux à un an. Cet atout n’est pas négligeable puisqu’en période de crise,
56
le niveau de la volatilité des actions est un facteur de risque important : pour
illustration, en période économique prospère, la volatilité implicite des options Call
de maturité 1 an et 5 ans de l’Eurostoxx se situent dans l’intervalle [12 %,17 %]
contre [22 %,28 %] en période de récession économique.
Cependant, l’intérêt de choquer le niveau de volatilité en période de crise est limité
dans la mesure où nous sommes déjà sur des niveaux extrêmes de volatilité.
Néanmoins, utiliser des modèles à volatilités stochastiques permet d’intégrer une
part d’aléa dans la variation de la volatilité et donc, par le choix du modèle de
diffusion des rendements action, de traiter la volatilité en tant que facteur de risque.
Cependant, si les exercices Solvabilité 2 se faisaient hors crise, affecter un choc à la
volatilité servant au calibrage du modèle serait à étudier.
Avant d’introduire les différents enjeux propres au générateur de scénarios, il est
nécessaire dans le cadre du développement d’un modèle interne (partiel) de définir
les notions projection en univers Risque Neutre et en univers Monde réel.
Pour résumer, comme nous le montrerons lors de l’analyse des modèles, il est
possible d’intégrer la modélisation d’un facteur de risque suivant la sélection du
modèle : il est possible de considérer qu’avec un modèle (pour taux ou action) à
volatilité stochastique, le facteur de risque variation de la volatilité est modélisé en
partie.
3.3 Le processus du calibrage du Modèle Interne
Le modèle interne doit permettre une juste mesure des risques de marché sous
Solvabilité 2 notamment sur le périmètre Epargne à la vue des limites de la Formule
Standard.
Le modèle interne peut être développé de façon partielle compte tenu notamment
de contraintes opérationnelles : dès lors, les risques traités hors périmètre interne
devront suivre la méthode Formule Standard et être intégré aux risques traités sous
modèle interne via une matrice de corrélation qui devra respecter les niveaux de la
Formule Standard (à l’exception d’être en mesure de légitimer d’autres niveaux,
justification difficile dans la mesure où les estimations de corrélations capitaux de
risques sont dans les extrêmes).
L’objet de cette partie est de :
•
Définir les cadres de projection et les facteurs de risques de marché qui
seront modélisés en modèle interne
•
Définir les hypothèses et problématiques liées au calibrage du modèle interne
•
Décrire le processus général de calibrage retenu du modèle interne
57
3.3.1 Rappel du principe du modèle interne
3.3.1.1 La simulation dans la simulation
Pour rappel, le principe du modèle interne est de développer une méthode
permettant d’estimer la distribution des Fonds Propres économiques (à un an dans le
cadre de solvabilité 2).
La méthode retenue est la simulation dans la simulation consistant en trois
principales étapes :
•
Etape 1 : diffusion des valeurs financières sur un an (rendements actions,
courbe des taux,…) calibrées en monde réel : ils sont dits scénarios primaires
•
Etape 2 : estimation des richesses à horizon 1 an : taux de plus ou moins
value latente à un an, pertes d’actifs suite à des défauts simulés…
•
Etape 3 : valorisation du bilan économique (cf 1.2) pour chacun des
scénarios primaires d’après des scénarios économiques « market consistent »
en chacun des points « scénarios primaires »
Les notions « monde réel et market consistent » sont développées ci-après.
58
Figure 3.7 La simulation dans la Simulation
Scénarios primaires
Scénarios en univers Monde Réel
Scénarios secondaires
Scénarios en univers Risque Neutre
Simulation 1
Bilan économique à 1 an
Actif 1,1
Passif 1,1
Valoriser grâce au jeu de scénarios secondaires
1,1 calibrés sur le scénario primaire 1
NAV 1,1
Placements
BE 1,1
Bilan économique initial
Actif 0
Passif 0
Simulation k
NAV 0
Bilan économique à 1 an
Actif 1,k
Passif 1,k
Placements
BE 0
Valoriser grâce au jeu de scénarios secondaires
1,k calibrés sur le scénario primaire k
Distribution de NAV à 1 an
NAV 1,k
Placements
BE 1,k
Nécessité de calibrer ce
jeu 1,k sur ce scénario
primaire k
Simulation 1000
Bilan économique à 1 an
Actif 1,1000 Passif 1,1000
Valoriser grâce au jeu de scénarios secondaires
1,1000 calibrés sur le scénario primaire 1000
NAV 1,1000
Placements
BE 1,1000
t=0
t=1 an
t=1an
t=30ans
Légende :
NAV : Fonds propres ou encore « Net Asset value »
BE: valeur économique du passif « Best Estimate »
A horizon un an, la distribution des « NAV » permet de déterminer le SCR en
retenant la différence actualisée à t=0 entre NAV centrale et celle correspondant à la
Value at Risk à 99,5 % à un an, correspondant bien au montant à détenir en Fonds
Propres pour faire face à un événement extrême dont la probabilité de réalisation est
de 0,5 % soit une fois tout les 200 ans.
En Epargne, la valorisation du bilan à horizon un an repose sur une projection des
flux pendant les 12 premiers mois via des scénarios économiques calibrés en monde
réel : à chaque scénario monde réel à horizon un est diffusé 1000 scénarios Market
Consistent sur un horizon donnée (typiquement 30/40 ans) afin de « pricer » le
bilan.
3.3.1.2 Introduction aux notions univers Monde Réel et Risque Neutre
Le principe des deux univers
•
Le Monde Réel est une probabilité utilisée pour choquer/prédir notre niveau
de richesse à horizon un an : il s’agit d’une probabilité subjective reposant
sur la vue de l’évolution future des conditions de marché ; elle est souvent
59
estimée à partir des données historiques des variables financières étudiées.
Elle peut aussi introduire des considérations macro-économiques.
•
Le Risque Neutre est une probabilité utilisée pour valoriser les postes du
bilan : elle a la propriété d’assurer l’absence d’opportunité d’arbitrage et
donc, de façon équivalente, d’assurer que tout actif rapporte le taux sans
risque.
Monde Réel : une première mesure de probabilité
•
Chaque actif dispose d’une prime de risque qui s’ajoute au taux sans risque
•
Les modèles peuvent être calibrés sur les données historiques du marché
o
o
o
•
Dépend du choix de la profondeur historique
Dépend de la fréquence des données
Dépend de la méthode retenue pour estimer/constituer les données
historiques
L’univers « Monde réel » s’inscrit dans le cadre d’un calibrage non unique :
o
o
Refléter au mieux la distribution de la variable (aplatissement,
asymétrie, queue de la courbe) qui varie aussi selon la profondeur
historique et le modèle sélectionné
Permet d’introduire ses « propres » vues
Risque neutre : une seconde mesure de probabilité
•
L’univers Risque Neutre est un cadre qui représente les anticipations de
marché
•
Hypothèses : Il y a absence d’opportunité d’arbitrage, justifiée par l’unicité
des prix de marché (marché en concurrence pure et parfaite) et complétude
des marchés.
•
Les modèles se calibrent sur les données du marché à la date de projection
•
Données du marché : volatilité implicites (ou prix) des options et courbe des
taux
o
o
•
Calls et Puts pour calibrer le modèle des actions
Swaptions /caps et courbe des taux pour calibrer les modèles de Taux
L’univers Risque Neutre s’inscrit dans un référentiel unique permettant une
meilleure comparabilité des résultats entre assureurs (homogénéisation des
méthodes). Tous les actifs rapportent en moyenne le taux sans risque
Il faut justifier cependant le choix de la courbe des taux : choix de la prime de
liquidité et du lissage dont l’impact est non négligeable.
60
Il est important de se donner le même référentiel pour valoriser les postes du passif
du bilan ; il y a ainsi consensus des acteurs du marché : l’univers Risque Neutre est
une convention « stochastique » exigée par les autorités (Autorité de Contrôle
Prudentielle et CEIOPS) pour la Formule Standard Solvabilité 2.
La méthode « simulation dans la simulation » pose la problématique de la
réconciliation à un an :
•
Quels modèles utilisés en risque neutre sans contrevenir aux modèles monde
réel sélectionnés pour générer les scénarios économiques à un an ?
•
Quelles données financières doivent être retenues à un an pour calibrer les
modèles risque neutre ?
3.3.2 Les problématiques liées à la réconciliation à horizon un an des
scénarios économiques
En Formule Standard, les projections se font en Risque Neutre puisqu’il s’agit de
valoriser le bilan économique depuis des chocs instantanés effectués sur les
richesses initiales ou sur les niveaux de taux.
En Modèle Interne Partiel, il est nécessaire de projeter les variables financières sur
un an en monde réel et de recalibrer en chacun de ces scénarios les scénarios risque
neutres. Ainsi, si 5000 scénarios monde réel sont diffusés, il est nécessaire de
recalibrer par exemple 1000 scénarios sur la situation à un an du scénario « i » et de
procéder ainsi pour tous les scénarios monde réel. On obtient 5000 x 1000 scénarios
Risque Neutre.
La réconciliation à horizon un an sous Solvabilité 2 pose les problématiques :
•
Des choix de modèles à retenir en monde réel et risque neutre qui doivent
permettre d’assurer une cohérence entre modèles lors du changement
d’univers
•
Des calibrages des modèles à un an en univers risque neutre : quelles
données financières doivent être retenues pour servir de calibrage aux
modèles ? Comment les estimer à horizon un an ?
61
3.3.2.1 La problématique des transitions de modèles lors du changement
d’univers
Il est présenté l’ensemble des combinaisons cohérentes entre-elles suivant les
considérations et hypothèses faites pour modéliser le comportement du facteur de
risque considéré.
Figure 3.8 Les combinaisons de modèles possibles
Choix des modèles de taux et actions
Calibrage en Monde Réel
0
H =1
H
Calibrage en univers Risque Neutre
Fin de projection
Black-Karasinski à deux facteurs
Modèle de taux
Black-Karasinski à deux facteurs
Libor Market Model : LMM
Heston-Merton
Heston-Merton
Black-Scholes
Black-Scholes
Black-Karasinski : modèle de taux court privilégié en monde réel
LMM : modèle de taux forward pour "pricing"
Modèle action
Légende :
flèche orange : modèle associé lors de la diffusion
flèche verte : les changements de modèle de taux lors du changement d'univers de projection
flèche violette : les changements de modèle action lors du changement d'univers de projection
Comment estimer la cohérence entre agencement des modèles choisis ?
Il suffit pour exprimer de façon concrète la problématique liée au choix de modèles
pour le modèle interne de l’illustrer par un exemple :
Traitons le cas d’un assureur ayant fait le choix d’un modèle action à volatilité
constante en univers monde réel puis à volatilité stochastique en univers risque
neutre : cet agencement paraît peu rationnel compte tenu de la cohérence entre les
principes des univers de projection successifs et les propriétés de ces modèles.
En effet, en univers monde réel, l’objectif visé est de représenter au mieux
l’évolution des rendements et donc par la même d’introduire des vues sur les
moments d’ordre 1, 2, 3 et 4 de la distribution des rendements. Seul un modèle à
volatilité stochastique le permet.
En univers risque neutre, il est possible en revanche de réduire la représentation des
propriétés des distributions et de se « contenter » de retrouver les prix des options
(principe des modèles « market consistent »). Dès lors, il est envisageable un
modèle action à volatilité constante ; bien-sûr, il y aurait perte de la représentativité
de certains facteurs de risque comme le facteur de risque volatilité (l’aléa sur la
volatilité ne serait pas modélisé compte tenu de l’absence de volatilité de volatilité du
modèle Black-Scholes).
Simplement, il s’agit ici d’un choix du périmètre des facteurs de risque modélisés et
non d’une incohérence entre modèle à contrario de l’exemple cité qui ne respecterait
pas les principes visés des univers.
62
Concernant les choix de nos modèles actions, ils s’orientent vers la représentativité
du facteur de risque volatilité action et donc nous préconisons un modèle HestonMerton à volatilité stochastique que ce soit en univers monde réel et univers risque
neutre :
•
•
En univers monde réel, le clustering de volatilité est représenté compte tenu
des propriétés du modèle Heston-Merton retenu introduisant une corrélation
négative entre le mouvement brownien du processus de rendement et celui
du processus de la variance : une baisse des rendements est suivie d’une
augmentation de la volatilité et inversement en cas de hausse des
rendements (comportement vérifié en phase de crise).
o
La prime de risque, la volatilité par terme et le skewness et Kurtosis de
la distribution des rendements sont aussi ciblés sur différents horizons.
o
Sur les hypothèses financières visées, il y aura dès lors une estimation
relativement précise de la distribution des richesses à un an du bilan, y
compris dans les queues de distribution en comparaison à un modèle
simple à volatilité constant. Cette étape est cruciale dans le calcul du
SCR puisque c’est sur la richesse projetée à un an dans les extrêmes
que seront valorisés les Fonds Propres économiques.
En univers risque neutre, le choix d’un modèle Heston-Merton permet de
représenter l’ensemble des options cachées du passif grâce à un calibrage
effectué sur une nappe de volatilité sur des strikes à la monnaie, hors et dans
la monnaie (options cachées : taux minimum garantis, provisions prudentielles
type Provisions pour Risque d’Exigibilité et Provision Dépréciation Durable…) ;
par ailleurs, le modèle paraît plus « market consistent » puisqu’il modélise une
volatilité présentant un aléa avéré dans les faits : certes, l’estimation de la
volatilité de la volatilité au 31/12/2010 donne une valeur inférieure à celle
constatée sur les séries historiques (2% vs 7%) mais le modèle a au moins la
propriété d’introduire un aléa sur la volatilité action, permettant ainsi de
considérer la représentativité de ce facteur de risque.
Concernant les choix de nos modèles taux, ils s’orientent vers la représentativité du
taux court en univers monde réel contre la modélisation des taux forward en univers
risque neutre. Ce choix se justifie compte tenu des propriétés des modèles (cf partie
4). L’idée générale peut se résumer ainsi :
•
La première année, il est important de modéliser le mouvement des taux
courts et longs termes puisqu’ils servent de « driver » au taux commercial
cible qui détermine le déclenchement des rachats dynamiques. Le taux court
terme sert aussi à estimer le taux servi aux assurés à un an. Il impacte donc
l’état des engagements à un an. Il est donc privilégié la bonne
représentativité des taux avec l’introduction d’une prime de risque (term
premium) affectant les taux longs. Le choix s’oriente vers un Black-Karasinski
à deux facteurs (cf partie 4 pour plus de détails).
•
Les années suivantes servent à valoriser le bilan en univers risque neutre
donc : dès lors, nous privilégions un modèle de taux risque neutre (Libor
Market Model) qui diffuse les taux forward modélisant de fait l’évolution des
63
prix zéro-coupons servant à la valorisation des futures obligations achetées ou
vendues et à l’actualisation des flux actif/passif. Par ailleurs, le modèle LMM a
la propriété de présenter moins de jeux de scénarios à taux explosifs qu’un
modèle Black-Karasinski (étude empirique sur quantiles).
3.3.2.2 La problématique du choix des calibrages des modèles univers
risque neutre
Dans l’idéal, les modèles risque neutre qui génèrent le jeu de scénarios secondaires
à horizon un an doivent être calibrés sur les données financières servant au
« pricing » (volatilité implicite plutôt que volatilité historique) en cette date.
On privilégiera la conservation des volatilités implicites initiales si les méthodes
d’estimation sont peu robustes ou démesurés compte tenu de la faible variation du
facteur de risque volatilité à un an.
La problématique des choix de calibrage peut se résumer ainsi :
Figure 3.9 Les combinaisons de calibrages possibles
Choix du calibrage selon les facteurs de risque associés : niveau, pente, courbure de la courbe et volatilités des taux
0
Calibrage en Monde Réel
scénarios primaires
PZC(0,t)
Vol implicites swaptions à t=0
Term Premium
ou
Calibrage risque de taux
H =1
Calibrage en univers Risque Neutre
scénarios secondaires
Fin de projection
H
PZC(H,t)
Volatilités implicites swaptions estimées à t=1
Term Premium nulle
Eventuellement celle à t=0
Eventuellement estimée sur historique de volatilités
implicites au sens de la plus probable à un an
PZC(0,t)
Volatilités estimées sur historique de volatilités implicites swaptions
Term Premium
Eventuellement déduite de la volatilité réalisée
ou
ou
PZC(0,t)
Volatilité historique des taux courts
Term Premium
ou
PZC(H,t)
Volatilités historiques des taux courts/ taux forward selon modèle
Term Premium nulle
PZC(0,t)
Absence de cible sur volatilité
Term Premium
Quid de la "market consistency" ?
Prime de risque
Volatilités implicites
Volatilités implicites des options estimées à t=1
Prime de risque nulle
cf supra
ou
Calibrage risque action
Prime de risque
Volatilité estimée sur historique de Volatilité implicite
ou
ou
Prime de risque
Volatilités estimées sur historique de volatilités réalisées
Légende :
Volatilités estimées sur historique de volatilités réalisées
Prime de risque nulle
flèche en rouge discontinue, approche non rationnelle
flèche orange discontinue, approche qui poserait des questions quant à la "mark et consistency"
Les flèches modélisent la transition des calibrages univers monde réel à univers risque neutre sur les données financières
PZC(t,T) : Prix Zéro-coupon à t de maturité T
64
De la même manière que lors de la problématique des choix de modèle pour le
modèle interne, nous allons expliquer les questions posées quant au sujet des
calibrages des modèles du générateur de scénarios économiques pour le modèle
interne sur un exemple concret avant de formaliser les choix possibles.
Traitons le cas d’un assureur ayant fait le choix d’un calibrage des volatilités du
modèle taux et action sur des volatilités implicites en univers monde réel et sur des
volatilités historiques réalisées en risque neutre : cet agencement paraît peu
rationnel compte tenu de la cohérence entre les principes des univers de projection
successifs et les hypothèses de calibrage des modèles.
En effet, en univers monde réel, l’objectif visé est de représenter au mieux les
volatilités qui se réaliseront directement sur les variables diffusées afin de
représenter au mieux l’évolution réelle des variables financières et donc par la même
d’introduire des vues sur les volatilités qui devraient être constatées. Seule une
étude du biais introduit entre volatilité réalisée sur historique et volatilité implicite
(anticipation de marché) permet d’y répondre.
Une approche puriste simplifiée dans l’idée consisterait donc à utiliser des volatilités
(que ce soit pour le modèle action ou taux) estimées sur historique en univers réelle
puisqu’il y a absence lors de cette étape de toute valorisation de bilan, déduire ainsi
l’état des richesses à un an les plus réalistes possibles ; puis, déduire à un an la
volatilité implicite de celle réalisée pendant l’année de diffusion sur le scénario
considéré et de calibrer dès lors le modèle risque neutre sur ce niveau de volatilité
implicite estimé à un an puisque les scénarios secondaires serviront à valoriser le
bilan.
La volonté de ce paragraphe est ici d’exprimer la problématique de la dualité de la
volatilité des facteurs de risque rendement action et taux qui peut se résumer ainsi :
Figure 3.10 volatilités réalisées vs volatilités implicites
Volatilité Taux
Volatilité Action
Dualité de la volatilité
=> Volatilité historique pour jeu primaire : en monde réel, les scénarios primaires servent à
déduire les flux actif/passif à un an : il n' y a pas de valorisation du bilan. La volatilité privilégiée
serait celle historique pour cette approche.**
=> Volatilité implicite à un an : les scénarios secondaires devraient être calibrés sur la volatilité
implicite pour valoriser le bilan
=> Approche puriste : déduction de la volatilité implicite à un an de celle historique (méthode de
régression linéaire,...)
=> Approche pratique : usage indifférent de la volatilité implicite pour les deux univers
**L'estimation de la volatilité historique se fait souvent par une méthode "Exponential weighted Moving Average"
Pour le calibrage des modèles de taux en univers monde réel, il est important d’être
calibré sur les courbes des taux de marché et de se définir une courbe des taux sans
65
risque identique à celle utilisée en risque neutre ; un arbitrage doit être fait entre
calibrage sur volatilités implicites des options de marché (type swaptions) et les
volatilités réalisées, la première consistant à supposer que la volatilité des taux est
celle des options implicites, la seconde privilégiant une estimation basée sur les
volatilités réalisées dans le passé. Surtout, l’approche en univers réel est de
représenter au mieux les niveaux des variables à un an.
Pour les calibrages des modèles de taux en univers risque neutre, il est nécessaire
d’être calibré sur les courbe des taux diffusées à un an respectives : la difficulté
réside dans l’estimation des volatilités implicites à un an puisqu’il est nécessaire en
risque neutre d’être calibré sur des prix d’options dès lors que les modèles le
permettent (à l’instar du modèle LMM).
Figure 3.11 Les données financières de calibrage du modèle de taux
Nécessité de recalibrer le modèle taux Risque Neutre générant les
jeux secondaires sur :
La courbe des taux diffusée à 1 an par le modèle générant le jeu de
scénarios primaires
ou/et (selon modèle)
Le niveau de volatilité à un an
=> choix privilégié de la volatilité à un an : volatilité implicite pour
une approche "pricing" en risque neutre
=> Méthode d' estimation de la volatilité implicite à un an ?
Pour le calibrage des modèles action en univers monde réel, un arbitrage doit être
fait entre calibrage sur volatilités implicites des options de marché (call ou put) et les
volatilités réalisées, la première consistant à supposer que la volatilité action est celle
des options implicites et privilégiant une homogénéisation des données financières,
la seconde privilégiant une estimation basée sur les volatilités réalisées dans le
passé.
Surtout, l’approche en univers réel est de représenter au mieux les niveaux des
variables à un an.
Pour les calibrages des modèles action en univers risque neutre, la difficulté réside
dans l’estimation des volatilités implicites à un an puisqu’il est nécessaire en risque
neutre d’être calibré sur des prix d’options.
De façon générale, une approche simple est d’utiliser les volatilités implicites à t= 0
pour calibrer le modèles risque neutre à un an sous l’hypothèse d’une variation
négligeable sur un an de ce facteur de risque.
66
3.3.3 Synthèse du processus de calibrage du modèle interne
Le calibrage du modèle interne suit un processus qui fixe l’ensemble des étapes à
suivre, du calibrage à la validation des scénarios économiques, de l’estimation des
richesses à un an du bilan économique à l’estimation de la distribution des Fonds
Propres économiques requérant la valorisation du bilan économique.
Figure 3.12 Le processus du calibrage du Modèle Interne
Processus du calibrage du modèle interne
Etape 0
calibrage du jeu de scénarios primaires
sur courbe des taux de marché et autres
facteurs de risque fixés
calibrage du modèle de taux nominaux Black-Karasinski à
deux facteurs sur courbe des taux de marché et volatilités*
calibrage du modèle de taux réel Vasicek à deux facteurs sur
courbe des taux réels et nominaux de marché
calibrage du modèle action Heston-Merton sur volatilités* et taux
nominaux
*cf paragraphe sur dualité de la volatilité
Etape 1
Etape 2
t=0
Critères de validation sur calibrage à
respecter sinon retour étape 0
Génération de N scénarios primaires
t=1 an
Etape 3
Critères de validation sur jeu à
respecter sinon retour étape 2
Etape 4
Sélection des scénarios primaires
dans les extrêmes
(selon une norme définie)
Etape 5
N calibrages de jeu de scénarios
secondaires pour chaque courbe des
taux et autres facteurs de risque fixés
Dans le cadre d'une méthode d'accélération de la
simulation dans la simulation
calibrage du modèle de taux nominaux LMM sur courbe des
taux à un an et volatilités implicites
calibrage du modèle de taux réel Vasicek à deux facteurs sur
taux réels et nominaux
calibrage du modèle action Heston-Merton sur volatilités
implicites
Etape 6
Critères de validation sur calibrage à
respecter sinon retour étape 4
t=1 an
t=1 an
Etape 7
N' x Génération d'un jeu de
scénarios secondaires calibré sur
courbe des taux atteinte à un an
Etape 8
Critères de validation sur jeu à
respecter sinon retour étape 7
t= 31 ans
Etape 9
Valorisation des Fonds Propres
économiques : distribution de la
"NAV" à un an (cadre solvabilité 2)
Etape 10
reporting des critères à surveiller pour
faciliter la compréhension des études
ALM
67
Le détail des critères de validation des scénarios économiques fait l’objet d’un
chapitre à part (chapitre 5).
Conclusion Chapitre 3
En Epargne, le développement d’un Modèle Interne semble indispensable
pour une bonne mesure des risques de marché sous Solvabilité 2.
Le processus du calibrage du Modèle Interne montre que celui-ci repose
essentiellement sur :
• Les propriétés des modèles sélectionnés
• Le calibrage des scénarios diffusés
• La procyclicité des marchés financiers
L’étude de la sensibilité des Fonds Propres économiques est à mener pour
confirmer et quantifier la théorie (cf chapitre 6).
68
Troisième partie : le générateur de scénarios économiques
69
4 Analyse des modèles et calibrages des scénarios
économiques
4.1 Principes généraux du générateur de scénarios
4.1.1 Rappel du rôle du générateur au sein du modèle ALM
Comme on a pu le voir dans les parties précédentes, le rôle du générateur de
scénarios économiques est central pour la valorisation des flux actifs et passifs.
On pourrait résumer le rôle des rendements et taux diffusés comme le support de la
richesse initiale embarquée dans le modèle actuariel ALM, sur lesquels se dérouleront
à chaque pas de temps les flux Actif et Passif en réponse aux évolutions de ces
grandeurs.
Figure 4.1 Le rôle du générateur de scénarios économiques en ALM
70
4.1.2 L’agencement des modèles
Figure 4.2 La structure du générateur de scénarios économiques
Les liens entre modèles
Rendement action
(excess return par Heston-Merton)
Rendement immobilier
(excess return par Black Scholes)
Taux nominaux
(LMM ou Black Karasinski
étendu à 2 facteurs)
Rendement Gestion Alternative
et Private Equity
(excess returns par Black -Scholes)
Obligations corporates
(spread de crédit par Jarrow
Lando Turnbull)
Inflation
(taux nominaux - taux réels)
Taux réel
(Vasicek à 2 facteurs)
Adaptation de source Barrie & Hibbert
Légende : les relations de corrélations sont représentées par les traits discontinus
L’ensemble des modèles sont centrés sur le modèle de taux nominal qui servent à
valoriser les obligations souveraines en premier lieu.
Ainsi, l’ensemble des modèles des autres classes d’actifs (hors taux réels) sont
calibrés sur les surplus de rendements (excess return) par rapport au taux nominaux.
4.1.3 La modélisation suivant les univers
La modélisation diffère en certains points suivant l’univers de projection considéré
compte tenu des objectifs visés et des contraintes à respecter.
•
En univers Risque Neutre, le traitement est effectué de manière à respecter
les prix des options. Les corrélations classiques (linéaires) entre les classes
d’actifs actions sont retenues car une modélisation calquée sur celle adoptée
en univers Monde Réel (cf infra) ne permettrait pas de retrouver ces prix
compte tenu de l’arbitrage entre corrélations et les volatilités implicites avec le
respect des prix des options.
71
•
En univers Monde Réel, les objectifs visés sont différents : l’approche n’est
plus d’être nécessairement « Market Consistent » et d’avoir une absence
d’opportunité d’arbitrage ; il s’agit de représenter au mieux l’évolution des
grandeurs suivant l’estimation des distributions des variables financières
déduites souvent depuis l’historique de séries.
La priorité est de modéliser les caractéristiques observées, à savoir :
•
Les niveaux de volatilités réalisées : elles sont par exemple plus faibles en
période de crise que celles implicites.
•
Les rendements moyens attendus qui peuvent différer du taux sans risque :
cela se fait au travers de l’incorporation d’une prime de risque.
•
La représentation des autres caractéristiques de la distribution des actions par
des valeurs cibles fixées sur le skewness (asymétrie de la distribution) et
kurtosis (aplatissement de la distribution).
•
La représentation des queues de distribution : ce n’est pas la méthode
retenue ici qui se fait au profit de la représentativité du skewness et kurtosis
avec le phénomène de clustering : la volatilité est élevée lorsque les
rendements sont faibles et inversement en cas de hausse.
•
La représentativité des corrélations dans les extrêmes entre classes d’actifs
actions notamment.
Ce dernier point requiert l’adoption d’une modélisation spécifique qui passe par une
approche par facteurs (proche de l’analyse en composant principale). Les corrélations
restent linéaires entre actions et autres variables financières (« excess return »
immobilier, taux réels et nominaux) par une matrice de corrélation qui lie les facteurs
aux bruits des autres processus stochastiques.
Le principe de la modélisation par facteurs repose sur le contrôle des corrélations par
des variables « cachées » indépendantes (les facteurs) communément partagées par
les actions de toutes économies. Ils sont modélisés par des processus à volatilités
stochastiques ou constantes : le modèle Heston-Merton développé en Monde réel a le
premier facteur à volatilité stochastique contre constant pour les cinq autres facteurs.
72
Figure 4.3 La modélisation des dépendances des actifs risqués
Facteur 1 (Heston Merton)
Prime de risque systématique nulle µi
Vol systémique
rendement Action 1
Volatilité du processus de Volatilité systémique σ1
estimée depuis la distribution des volatilité implicite de
maturité 1 mois
Directions spécifiques
Facteur 2 (volatilité
constante)
scénario 1
Modélisation
des risques
systémiques :
corrélations et
volatilités
rendement Action 2
Facteur 3 (volatilité
constante)
Facteur 4 (volatilité
constante)
2
Prime de risque totale = Σi βi µi + µs + Σf βf γf σf +γs σs
2
Facteur 5 (volatilité
constante)
2
2
Volatilité totale = √{Σf (βf σf ) + σs }
=> Modélisation des dépendances entre volatilités des
actions : idem pour les rendements cibles
Facteur 6 (volatilité
constante)
Modélisation
des caractères
spécifiques de la
distribution
Heston Merton
Prime de risque µs spécifique spécifié dans le
processus Heston depuis l'historique évalué avec un
EWMA
Volatilité du processus de volatilité spécifique σs
identique à celle systémique
4.2 Principes des hypothèses de calibrages sous
Solvabilité 2
4.2.1 Le calibrage QIS 5 du générateur de scénarios (Formule
Standard)
Chaque jeu de scénarios comprend au format Natixis Assurances :
•
Les rendements, dividendes, volatilités des actions, immobiliers, Private
Equity, Gestion Alternative, OPCVM Monétaire et OPCVM obligataire en pas
mensuels ; l’inflation est aussi modélisée.
•
La courbe des taux nominaux : taux de maturité 1mois, 3mois, 6mois, 1 an,
3ans, 5ans, 10ans, 30ans
•
La courbe des taux réels : taux de maturité 1mois, 3mois, 6mois, 1 an, 3ans,
5ans, 10ans, 30ans
73
Un jeu de scénarios a été effectué pour chacune des situations suivantes :
•
Scénarios en situation centrale avec courbe des taux fournies par CEIOPS *
•
Choc Hausse des Taux
•
Choc baisse des Taux
•
Choc de la prime de liquidité
*interpolation linéaires des Prix Zéros Coupons pour obtenir un pas de temps
mensuel
4.2.2 Les hypothèses QIS 5
Les scénarios sont simulés en univers Risque Neutre et Market Consistent
Les scénarios sont calibrés à la situation économique au 31/12/2009 (contexte QIS5)
•
Taux sans risque QIS 5 : taux swaps-10 bps. La courbe des taux
nominaux hors prime de liquidité (LP) à utiliser précisée par le CEIOPS
correspond aux swaps-10bp du marché pour la courbe hors LP
•
Taux sans risque habituel de marché : taux swaps ou taux souverain.
Les courbes des taux nominaux et réels sont calibrées sur les niveaux des
swaps
4.2.2.1 Ajout d’une prime de liquidité pour QIS 5 par type d’activité
L’exercice QIS 5 redéfinit un taux sans risque: à partir des taux swaps diminués de
10 bps, il y a ajout d’une prime de liquidité (LP) pour les taux de maturité inférieure à
20 ans selon le type d’activité développé
Exemple : pour les maturités inférieures à 15 ans,
LP (prévoyance)= 50% * 53bp contre LP (Epargne)= 75%*53bp au 31/12/2009
La volonté du CEIOPS est d’introduire la prise en compte du risque de liquidité dans
le passif. Tel que paramétré, il est considéré que l’illiquidité s’accroît lorsque l’activité
développée a une duration longue.
74
Figure 4.4 Comparaison des courbes des taux sans risque au 31/12/2010
4.2.2.2 Hypothèse sur la profondeur du marché
L’hypothèse des disponibilités des données du marché diffère suivant QIS 5 et
Barrie+Hibbert
L’exercice QIS 5 « considère » le marché moins profond.
Les hypothèses des « Unconditional Forward Rates » hors prime de liquidité diffèrent
en conséquence selon Barrie+Hibbert et CEIOPS
•
Il peut être usuel de considérer que les données du marché sont
disponibles jusqu’à 50 ans (à l’instar de Reuters et Bloomberg). Un taux
forward estimé (assimilable à un axiome) est fixé à 90 ans duquel est déduit
l’ensemble des forwards manquants par interpolation-extrapolation
(Méthode d’interpolation : spline cubique et méthode d’extrapolation : Nelson
Siegel)
•
Le QIS 5 considère que la profondeur du marché est de 30 ans ; un
taux forward est fixé à 90 ans duquel est déduit l’ensemble des forwards
manquants par extrapolation avec méthode Smith Wilson
Doit-on prendre en compte les données disponibles sur le marché de gré à gré
(OTC : Over The Counter) ?
4.2.3 Le principe des tests pratiqués pour valider les scénarios
économiques
Le principe des tests de « Market Consistency » consiste à vérifier que les
outputs des modèles sont conformes aux hypothèses initiales de marché en
risque neutre ; il en existe deux principaux : celui de la vérification des prix des
75
Calls (ou des volatilités implicites) et celui du test de martingalité des prix
actualisés.
4.2.3.1 « Market Consistency » tests : la valorisation des Calls/swaptions
Le test de vérification des options implicites (ou des prix des Calls/Puts pour
modèle action et swaptions/caps pour modèle taux) consiste à vérifier que le
niveau des rendements/taux diffusés correspondent à ceux anticipés par le
marché.
Concernant le Call, le test de validation de la « market consistency » du jeu de
scénarios se fait via Monte Carlo : à la date de maturité de l’option européenne,
nous actualisons les payoffs d’après les rendements projetés avec le cash
« rollup » pour en déduire le prix de départ de l’option considérée. On vérifie que
son niveau correspond à celui ayant servi à calibrer le modèle.
Pour les swaptions, nous pratiquons le test sur jeu de scénarios par Monte Carlo
du calcul de la volatilité implicite des swaptions payeuses convenant davantage
aux assureurs Epargne que celles receveuses : les maturités contrôlées sont 5
ans et 10 ans de « tenor » 10 ans (« tenor » : durée de l’option si celle-ci est
déclenchée ; cf annexe pour plus de détails).
Remarque : nous rajoutons un test similaire pour les volatilités implicites action.
4.2.3.2 Test de martingalité des prix actualisés
Les tests de martingalité sont utilisés pour valider la bonne risque neutralité du
modèle stochastique diffusant la variable financière.
Il s’agit d’un test basique d’absence d’opportunité d’arbitrage du modèle :
l’ensemble des actifs rapportent le même taux sans risque.
La propriété essentielle du test est de vérifier que, sous la mesure probabilité
risque neutre, la moyenne des valeurs projetées actualisées à toute date future
d’un actif est égale à sa valeur de départ : l’actualisation se faisant à partir de la
revalorisation du cash « rollup » à chaque date (“taux monétaire rollé”).
76
4.3 Analyse des modèles utilisés et hypothèses de
calibrage
4.3.1 Modèle action
4.3.1.1 Principe et dynamique du modèle
Le modèle à volatilités et sauts stochastiques (Heston-Merton) est utilisé en Risque
Neutre et Monde Réel
Le modèle d’Heston-Merton est défini par la formule suivante :
Où l’intensité du saut J suit une loi normale et les mouvements browniens ont une
corrélation ρ.
On interprète:
d et r comme le taux de dividendes et le taux de rendement de l’action ;
θ comme la variance long-terme ;
k la vitesse de retour à la moyenne du processus variance (CIR) ;
σv comme la volatilité de la variance.
Les deux principales propriétés de ce modèle sont :
La modélisation d’une volatilité stochastique ;
La modélisation de sauts.
Au contraire des modèles à volatilité locale qui tendent à aplatir le smile forward, les
modèles à volatilité stochastique ou à saut répliquent mieux la dynamique du smile.
En Risque Neutre, le calibrage est effectué sur la nappe de volatilités implicites des
options grâce à une volatilité stochastique et des sauts aléatoires :
•
Nappe de volatilités implicites : par Maturité et par Strike
•
Très haut degré de « Market Concistency » (attentes des autorités de
contrôle)
•
Obtention d’une évaluation du bilan en cohérence avec la profondeur des
données du marché (horizon de projection – maturité des options)
77
Figure 4.5 La nappe de volatilités implicites au 31/12/2010
des options de sous-jacent Eurostoxx 50
40,0%
35,0%
30,0%
35,0%-40,0%
25,0%
30,0%-35,0%
20,0%
25,0%-30,0%
15,0%
20,0%-25,0%
10,0%
15,0%-20,0%
5,0%
10,0%-15,0%
5,0%-10,0%
10
0,0%-5,0%
7
1,35
1,4
1,25
2
1,3
1,15
4
1,2
0,6
0,65
0,7
0,75
0,8
0,85
0,9
0,95
1
1,05
1,1
0,0%
0,75
0,25
En Monde Réel, l’asymétrie, l’aplatissement et les queue de la distribution des
rendements sont mieux représentés en comparaison à un modèle à volatilité
constante.
4.3.1.2 Propriétés du modèle de Heston avec un processus à saut
Le comportement du cours des actions suit un processus à volatilité stochastique.
Deux facteurs régissent les variations du prix : la volatilité et les sauts tous deux
stochastiques.
Le modèle basique de Heston suppose que le rendement de l’action est déterminé
par un processus stochastique faisant intervenir un mouvement brownien comme
variable et prenant pour paramètre une variance instantanée stochastique où celle-ci
suit parallèlement un processus Cox Ingersoll Rox.
Les mouvements browniens sont deux processus de Wiener liés par une correlation
ρ constante négative afin de représenter le clustering de volatilité : plus les
rendements augmentent, plus la volatilité qui suit est accrue. Inversement lors d’une
baisse.
Les sauts qui viennent impacter les prix des actions sont régis par une loi faisant
intervenir une occurrence de sauts de loi de Poisson et d’intensité log-normale : plus
précisément, les variations dues aux sauts de la valeur log du prix suivent une loi de
poisson composée : l’intensité est une loi de distribution normale et l’occurrence
d’apparition des sauts suit une loi de Poisson.
78
4.3.1.3 Inputs et paramètres
En Risque Neutre, le calibrage se fait sur une nappe de volatilités implicites d’options
de sous-jacent Eurostoxx (indice de benchmark de Natixis Assurances).
En Monde Réel, le calibrage se fait sur une courbe de volatilité à la monnaie (ATM).
Les autres paramètres liés au modèle Heston sont le taux sans risque, prime de
risque en monde réel, corrélations entre mouvements de volatilité et rendements,
volatilité de la variance, retour à la moyenne de la variance, vitesse du retour à la
moyenne du processus variance, valeur initiale de la variance.
D’autres paramètres caractérisent le modèle Merton.
4.3.1.4 Avantages
i. L’hypothèse de log-normalité des rendements n’est pas vérifiée sur le
marché : la volatilité de la volatilité n’est pas nulle et la corrélation de
la valeur du titre à sa volatilité n’est pas nulle (Skewness non nul).
D’où la nécessité d’introduire des modèles à volatilité stochastique
ii. En monde réel et risque neutre, le clustering de volatilité est
modélisé : lorsque les rendements sont élevés, la volatilité décroît et
inversement lors de variations de rendements négatives. Ce constat
peut être fait sur la série Eurostoxx 50 qui se vérifie lorsque l’on se
situe en bas de cycle, notre cas actuel. Cette caractéristique spécifique
est permise par l’introduction d’une corrélation négative entre le
mouvement brownien du processus de la variance et celui du
processus du cours.
iii. En monde réel, la volatilité stochastique monde réel capture le
skewness (dissymétrie des rendements) et le kurtosis (aplatissement
ou pointe) de la distribution des rendements. Il y a dès lors captation
de la corrélation entre rendements et mouvements de la variance
iv. En risque neutre, le modèle permet d’être « market consistent » avec
des options de maturités supérieures à 1 an (à mettre en rapport avec
la durée d’investissement des assureurs Épargne). Il introduit un aléa
sur la volatilité (volatilité de volatilité de l’ordre de 2 % vs 7 % sur
étude ESTOXX depuis 2001) permettant de capturer une partie
du facteur de risque variation de la volatilité.
v. L’obtention de la martingalité des prix actualisés du jeu de scénario en
pas de temps mensuel est facilitée avec un modèle Heston-Merton en
comparaison à un modèle Black-Scholes : l’expérience montre qu’un
écart au prix initial par jeu est souvent de l’ordre de 6 % au maximum
79
pour un modèle Heston-Merton contre 8 % - 9 % pour un modèle
Black-Scholes (à fin de projection).
vi. En univers monde réel, si deux économies sont modélisées (actions en
zone euro et en zone USA par exemple), une dépendance dans les
tails est représentée compte tenu de la configuration du modèle :
modélisation par facteur qui induit une volatilité totale action
subdivisée entre volatilité systémique et volatilité spécifique.
4.3.1.5 Limites
i. Non iso-méthode dans le traitement des corrélations : les chocs dus
aux sauts impactent les corrélations en monde réel des actions pour
répliquer des corrélations extrêmes mais ne les impactent pas en
risque neutre (corrélations constantes) : des difficultés à répliquer les
prix des options observés sur le marché se poserait (problème entre
arbitrage de la stabilité volatilité contre celle de la corrélation).
ii. Le calibrage risque neutre n’est pas effectué sur la représentation de la
distribution des rendements mais sur le critère exclusif du respect des
prix des options : cela induit des sauts dont l’intensité n’est pas
fonction des évènements extrêmes passés
iii. Il y a représentativité du caractère hétéroclite des rendements
mensuels et d’une volatilité accrue lors d’un marché baissier
(clustering de volatilité) au détriment de faisceaux des cours souvent
trop élevés pour être vraisemblables
4.3.1.6 Principe du calibrage
En Risque Neutre, aucune restriction sur les paramètres n’est faite et ils sont définis
afin d’optimiser la minimisation de l’écart aux prix de marché selon la formule
consacrée : RMSE = ∑ (Valeur _ marché − valeur _ modele )
t
t
2
t
N
Où les valeurs de modèle sont les prix des options obtenus par Monte Carlo.
En Monde Réel, l’approche est différente : les moments d’ordre 1 à 4 sont calculés et
les paramètres sont déduits des cibles fixées sur ces moments.
80
4.3.2 Modèle immobilier
Nous avons retenu un modèle classique de marché pour représenter les actifs
immobiliers compte tenu de la difficulté de modéliser des actifs illiquides. Notre
volonté ici est de représenter un aléa sur ces rendements en ciblant une volatilité
cohérente avce les indices de marché qui existent.
4.3.2.1 Principe et dynamique du modèle : Black-Scholes
Mouvement brownien géométrique à volatilité constante (15 %)
4.3.2.2 Propriétés / Précisions des inputs
Hypothèse : Normalité des rendements
Inputs : Volatilité constante
4.3.2.3 Limites
Hypothèse forte de la loi des rendements immobiliers
Immobilier : difficile à paramétrer compte tenu de la nature de la classe d’actif très
illiquide
81
4.3.3 Modèle taux nominaux en Monde Réel
4.3.3.1 Principe et dynamique du modèle : Black-Karasinski à 2 facteurs
Il s’agit d’un processus de retour à la moyenne
Les grandeurs diffusées par le modèle de Black-Karasinski et celui de Vasicek suivent
la même équation : ils sont définis par un processus de retour à la moyenne.
Le deuxième processus diffuse une perturbation du terme de la première équation
par un mouvement brownien. (Les processus de Wiener sont indépendants).
d ln rt = α1 (ln mt − ln rt )dt + σ 1 (dZ1 + γdt )
d ln mt = α 2 (ln µ t − ln mt )dt + σ 2 (dZ 2 + γdt )
Le premier processus est celui du taux court.
Le second processus est celui du taux moyen terme.
où
r0 valeur du taux court initial
m0 valeur du taux moyen terme initial
µt log du taux infini
α1 et α 2 les vitesses de retour à la moyenne
σ 1 et σ 2 les volatilités des processus respectifs
Z1 et Z2 deux mouvements browniens géométriques indépendants
γ contrôle la prime de risque (γ = 0 en risque neutre) puisqu’il permet
d’augmenter/diminuer le taux infini : s’il est négatif, le taux infini Monde Réel est
inférieur au taux infini en univers Risque Neutre et dès lors la prime de risque
arithmétique est positive (taux court rollé inférieur au taux nominal long terme) :
ln rt →
µ +γ(
∞
σ1 σ 2
+ )
α1 α 2
Modèle de taux court
•
A chaque pas de temps, la courbe des taux forward est reconstituée à partir
du taux court projeté sur l’hypothèse d’absence d’opportunité d’arbitrage
Modèle à deux facteurs
•
Le modèle à deux facteurs introduit deux mouvements browniens qui
permettent de mieux appréhender les corrélations observées sur le marché
entre les taux forward de maturité différente
82
o
o
Le premier mouvement brownien donne les chocs affectant en tout
point de toute échéance la courbe des rendements à l’échéance
Le deuxième mouvement brownien donne des chocs à court terme qui
n’affectent que très peu les segments à long terme de la courbe.
4.3.3.2 Hypothèse et inputs
Hypothèse de lognormalité de la distribution des taux courts
Données financières à utiliser (ce sont des outputs au modèle dont le calibrage
consiste à réduire les écarts au marché) :
•
Courbe des taux sans risque (ici, taux swaps ou rendements nominaux des
titres émis par les emprunts d’États)
•
Une volatilité implicite swaption
4.3.3.3 Avantages
i. Modèle générant des taux positifs
ii. Modèle à deux facteurs : meilleure appréhension des corrélations
observées sur le marché entre taux forwards de maturité différente
iii. Le calcul des moments se fait analytiquement à contrario de la
valorisation des zéro-coupons : il est dès lors possible de cibler des
volatilités et quantiles lors du calibrage en univers monde réel, un
avantage dans le cadre d’une simulation sur horizon 1 an pour le calcul
du SCR en modèle interne.
iv. Modèle communément utilisé dans les milieux financiers
4.3.3.4 Limites
i. Il n’existe pas pour ce modèle d’expressions analytiques pour la
valorisation des obligations et des options: d’où le recours à une
méthode par arbres binomiaux, coûteuse en temps de calculs.
ii. De façon générale, les modèles de Black ne sont à l’origine pas faits
pour générer des taux (bien que très utilisés comme tel en finance).
83
iii. Probabilité d’obtention de taux explosifs non négligeable compte tenu
de l’hypothèse de lognormalité des taux courts : il s’agit de remédier à
ce problème notamment dans un cadre ALM et sur des problématiques
de calibrage dans les extrema (calculs de Capital de Solvabilité sur des
quantiles à 99,5 %).
iv. Lors de l’étape du calibrage, les données financières initiales sont des
outputs du modèle à contrario du modèle LMM : il existe dès lors des
écarts entre la courbe taux spots initiale diffusée et celle de marché
(de l’ordre de 20 bps : cf critères de validation à respecter chapitre 5).
4.3.3.5 Principe du calibrage
Le calibrage de Black-Karasinski à deux facteurs s’effectue par arbres binomiaux
recombinant puisqu’il n’existe pas de formule analytique permettant de valoriser les
prix zéro-coupons et les prix des swaptions. Le prix d’un zéro coupon est donné par
−
E Q (e
n
∑ r (i∆t )
i =1
) , n fixé suivant la maturité donnée qui ne peut avoir une formule
analytique.
Il est possible d’exprimer le taux court r(t) suivant deux composantes de lois
normales qui vérifient r (t ) = x(t ) + y (t ) + ϕ (t ) avec ϕ (t ) exprimable en fonction des
paramètres de Black-Karasinski.
Or pour un arbre à une dimension, on peut simuler x(t) suivant une initialisation
x(0)=0 par les relations :
EQ ( x(t + ∆t ) / x(t )) = x(t )e −α∆t1 ≈ x(t )(1 − α 1∆t ) et EQ ( x(t + ∆t ) / x(t )) = x + ∆x(2 p − 1)
avec p la probabilité de changer d’état à t + ∆t vers x + ∆x
Il est aussi possible d’exprimer de la même façon la variation ∆x en fonction des
paramètres du processus de Black-Karasinski par la relation Var ( x (t + ∆t ) / x (t )) ≈ ∆x 2
Un arbre binomial recombinant à deux dimensions (donc quatre états et probabilité
pour chaque point) suit le même principe que celui à une dimension (probabilité
déduite avec l’information supplémentaire de la corrélation conditionnelle entre x(t)
et y(t)).
On déduit dès lors le calcul par Monte Carlo des prix zéro coupons de la courbe des
−
taux initiale suivant l’application numérique de la formule EQ (e
n
∑ r (i∆t )
i =1
).
Ainsi, le principe se résume selon :les probabilités correspondant aux évolutions du
taux court sont estimées sur les paramètres du modèle de diffusion puisqu’il existe
des formules d’approximations liant les paramètres du modèle aux moments :
ensuite, les prix déduits depuis cet arbre « simulé », les paramètres sont ajustés
84
selon une fonction minimisant l’écart aux prix zéro-coupons de la courbe des taux
initiale.
Figure 4.6 Synthèse des principes de calibrage du modèle
Black-Karasinski à deux facteurs
Principe du calibrage du modèle Black-Karasinski à deux facteurs (en univers monde réel)
étape 1
Collecte des prix zéro coupons des taux nominaux (taux swaps) et des volatilités implicites de marché des swaptions et des séries swaps depuis 1987
étape 2
Arbre binomial recombinant dont le principe est de simuler deux variables x(t) et y(t) avec quatre états possibles pour chaque point à t+1 qui peuvent être exprimés suivant les
paramètres du modèle 2 FBK et les valeurs prises à t , avec quatre probabilités associées qui sont fonction des paramètres du modèle 2 FBK et x(t) , y(t)
Vitesses de retour à la moyenne calibrée sur historique depuis un AR(1) des EWMA des volatilités implicites swaptions de maturité 1 an, 10 ans et 15 ans => paramètres fixés
Estimation des paramètres volatilités sur forme paramétrique Nelson-Siegel reliant les volatilités conditionnelles (dans un mois estimées avec un GARCH(1,1)) et celles
inconditionnelles (estimées sur EWMA des volatilités implicites swaptions de maturité 1 an, 10 ans et 15 ans)
Estimation de la prime de risque ("Term Premium") sur EWMA de la différence de rendement entre taux 10 ans souverains et taux courts
Estimation des paramètres volatilités, taux infini, m(0), r(0) avec vitesses de retour à la moyenne fixées par une fonction minimisant l'écart aux prix zéro-coupons déduits des
valeurs diffusées par l'arbre binomial à ceux de marché
* pour rappel, la courbe des taux initiale est un "output" du modèle
Principe du calibrage du modèle Black-Karasinski à deux facteurs (en univers risque neutre)
étape 1
Collecte des prix zéro coupons des taux nominaux (taux swaps) et des volatilités implicites de marché des swaptions
étape 2
Arbre binomial recombinant dont le principe est de simuler deux variables x(t) et y(t) avec quatre états possibles pour chaque point à t+1 qui peuvent être exprimés suivant les
paramètres du modèle 2 FBK et les valeurs prises à t , avec quatre probabilités associées qui sont fonction des paramètres du modèle 2 FBK et x(t) , y(t)
Vitesses de retour à la moyenne calibrée sur historique depuis un AR(1) des EWMA des volatilités implicites swaptions de maturité 1 an, 10 ans et 15 ans => paramètres fixés
Volatilités implicites swaptions
Estimation des paramètres volatilités, taux infini, m(0), r(0) avec vitesses de retour à la moyenne fixées par une fonction minimisant l'écart aux prix zéro-coupons déduits des
valeurs diffusées par l'arbre binomial à ceux de marché
* pour rappel, la courbe des taux initiale est un "output" du modèle
2 FBK : Black-Karasinski à deux facteurs
85
4.3.4 Modèle taux nominaux en Risque Neutre : LMM
4.3.4.1 Principe et dynamique du modèle : Libor Market Model à deux
facteurs
Le modèle Libor Market Model (LMM) appartient à la famille des modèles Heath
Jarrow Morton qui décrivent le comportement des taux Forwards instantanés.
Le LMM diffère d’un HJM dans la mesure où il modélise le taux discret LIBOR Forward
(par opposition à une composition continue).
Si Fk (t ) désigne le taux forward à t de maturité Tk an, il est lié au pas de temps
1 1
=
pour pas de temps mensuel ou h= 1 si pas de temps annuel) et aux prix
h 12
zéro-coupons PZC (t , Tk ) à t de maturité Tk par :
(
Fk (t ) =
PZC (t , Tk )
1
×(
− 1)
h PZC (t , Tk + h)
L’équation de diffusion est donnée pour un modèle à deux facteurs :
dFk (t )
= drift + σ k (t ) × ( β k1 (t )dWt1 + β k2 (t )dWt 2 )
Fk (t )
Où
ρ kl (t ) = β k1 × β l1 + β k2 × β l2 représente la corrélation entre taux Forward de maturité
différente
σ k (t ) la partie de la volatilité du taux forward
Ces deux paramètres servent à retrouver le prix des options implicites de
marché.
Remarque :
Le modèle est « time homogeneous », à savoir que la volatilité dépend du temps
restant et ne varie pas de façon déterministe avec le temps.
σ k (t ) = g (Tk − t ) où g est une fonction Nelson Siegel
(type α 1 + (α 2 + α 3 (t − Tk ))e −ω (t −T ) ) )
k
86
Figure 4.7 La structure de la volatilité des taux Forward du modèle LMM
Modèle LMM actuel : volatilité
donnée identique selon le temps
restant de vie du Forward
Forward \ t
F(t,1)
F(t,2)
F(t,3)
[ 0, 1]
σ1
σ2
σ3
[ 1, 2]
Expiré
σ1
σ2
[ 2, 3]
Expiré
Expiré
σ1
Paramètres du modèles LMM
Volatilités implicites 10Y
σi
calibrés sur
βi
.
.
Maturité
Un modèle LMM variant dans le temps serait défini par une volatilité déterministe
σ k (t ) = f (t ) × g (Tk − t ) permettant un meilleur fit des volatilités implicites
Principe
•
Les taux forward (des taux swaps) de maturités 1 an sont diffusés en
prenant en
compte la structure de volatilité instantanée et celle de
corrélation
•
Les Taux Zéro-Coupon sont déduits à chaque pas de temps
Notion de facteurs
•
Le nombre de facteurs correspond au nombre de coordonnées décomposant
le mouvement brownien dans une base orthogonale. Le mouvement brownien
est ici à deux dimensions (notion qui réfère à l’Analyse en Composante
Principale)
o Le premier facteur (et le plus important) explique les mouvements
de translation de la courbe des taux
o
Le second facteur explique les mouvements d’inversion de la
courbe : les premiers forward montent et les derniers diminuent.
87
Remarque :
Un troisième facteur aurait expliqué par exemple les mouvements de torsion de la
courbe : mouvements observés lorsque les taux courts et taux longs montent alors
que les taux à moyen terme diminuent
4.3.4.2 Hypothèses
Hypothèse de Log normalité des taux forward
La volatilité des taux forward est proportionnelle au taux forward afin d’assurer la
positivité des taux : si le forward tend vers 0, sa volatilité tend aussi vers 0.
Les corrélations entre forwards de maturités différentes varient uniquement en
fonction du temps.
4.3.4.3 Inputs
•
•
•
•
Courbe des taux forward de maturité 1 an
Prix des swaptions exprimés en volatilité
Choix de la structure de la volatilité des taux forward
Choix de la structure de corrélation des taux forward
4.3.4.4 Avantages
i. Flexibilité
En comparaison à un modèle affine, le modèle LMM a une plus forte decorrélations
des taux de maturité différente : la structure de la volatilité des taux d’intérêt et des
corrélations entre les taux de maturité différente introduisent des degrés de liberté
supplémentaires.
ii. Calibrage sur instruments très liquides
La courbe des taux forwards est un input direct au modèle contrairement à un
modèle affine où celui-ci est paramétré pour retrouver la courbe des taux en output à
l’instant initial.
Le principal apport du modèle LMM réside aussi dans son calibrage : celle-ci
s’effectue sur les prix des swaptions, instruments très liquides sur le marché grâce
88
aux corrélations entre taux forward (au détriment de celles constatées en Monde
Réel) et aux volatilités des taux forward du modèle.
La construction du modèle permet de calibrer le modèle à partir d’une relation simple
entre volatilités implicites des swaptions et volatilités de chacun des forwards
(formule fermée).
Figure 4.8 Synthèse des « market consistency » sur options suivant les
modèles de taux
Adapté d’un document Barrie & Hibbert
iii. Modélisation des véritables variables de marché : sur la courbe forward
L’apport par rapport à un modèle classique type Black Karasinski à 2 facteurs du LMM
est de diffuser des taux forward permettant ainsi de spécifier le comportement de
différents points de la courbe des taux. Black Karasinski quant à lui ne dispose pas de
89
cette propriété, la courbe entière des taux étant déduites des taux courts par la seule
hypothèse de non arbitrage.
4.3.4.5 Limites
i. L’hypothèse de log normalité des taux induit des probabilités non
négligeables d’apparition de taux explosifs lors de la diffusion à long
terme.
ii. La volatilité réalisée des taux et les corrélations entre taux forward de
maturité différente ne servent pas au calibrage de celles observées sur
marché mais permettent exclusivement de représenter les volatilités
implicites des swaptions.
iii. Approximations choisies pour paramétrer le modèle :
a. Le choix de la structure de corrélation entre taux forward est une clef du
modèle.
b. Il est nécessaire de spécifier une structure pour la volatilité instantanée
c. Le modèle suggère une volatilité des taux forward proportionnelle au taux
forward. La justification sur des études de taux de maturité à long terme est
difficile.
d. Approximation car hypothèse sous-jacente de lognormalité des taux swaps
lors du pricing des swaptions (utilisation d’un modèle lognormal où le drift est
négligé lors de la phase de calibrage) en contradiction avec celle des taux
forward (générés par le modèle LMM)
4.3.4.6 Principe du calibrage
Nonobstant la contradiction entre hypothèse de lognormalité des taux swap forward
faite par le marché pour valoriser les swaptions et celle de la lognormalité des taux
courts forward du modèle LMM, le modèle LMM a l’avantage de posséder des
paramètres facilement exprimables en fonction des données de marché :
90
Figure 4.9 Synthèse du calibrage du modèle « Libor Market Model »
Principe du calibrage du LMM (en univers risque neutre)
étape 1
Collecte des données des volatilités implicites de marché des swaptions
étape 2
Lier le processus 1 diffusant les taux forward (LMM) à celui (processus 2) servant à la valorisation du taux swap forward et donc de la volatilité swaption afin d'en déduire le
paramétrage du modèle LMM
Taux swap forward issu d'un modèle lognormal (processus 2) dont la volatilité implicite des swaptions est l'intégrale de la variance instantanée du taux swap forward
Ecriture des taux swap forward comme une pondération de taux long forward (issu du LMM) : contradiction ici entre hypothèse de lognormalité des taux swap forward
et lognormalité du taux court forward
Par le lemme d'Ito, obtention de la variance instantanée du taux swap forward en fonction des paramètres du modèle LMM (par égalisation des processus 1 et 2)
Formule approximant la volatilité implicite swaptions à la volatilité du taux swap forward exprimé en fonction des paramètres du modèle LMM (approximation de la formule de
Hull & White)
étape 3
Spécification de la forme paramétrique de la structure de volatilité et des corrélations du modèle LMM (paramètres au modèle)
étape 4
Fonction minimisant l'écart entre volatilités implicites swaptions de marché et volatilités implicites swaptions exprimés en fonction des paramètres du modèle LMM
Processus 2 :
dS α ,β (t )
Sα , β (t )
= drift + sα , β (t )dWα ,β (t ) et
Avec le taux swap forward définit par Sα ,β (t ) =
P(t , Tα ) − P(t , Tβ )
β
(cf annexe pour
∑ P(Tα , T ) × Γ
i =α +1
i
i
plus de détails) et le taux forward diffusé par le LMM définit supra selon
Fk (t ) =
PZC (t , Tk )
1
×(
− 1) avec PZC(t,Tk) le prix zéro-coupon à t de maturité Tk.
h PZC (t , Tk + h)
91
4.3.5 Modèle inflation
4.3.5.1 Principe de la modélisation
L’inflation est modélisée comme la différence entre taux nominaux et taux réels.
Les taux réels suivent un modèle Vasicek à deux facteurs.
drt = α 1 (mt − rt )dt + σ 1 (dZ1 + γdt )
dmt = α 2 ( µ t − mt )dt + σ 2 (dZ 2 + γdt )
où chacun des paramètres a la même signification que pour le modèle BlackKarasinski à deux facteurs décrits supra.
Il s’agit d’un modèle de taux court qui suit un processus de retour à la moyenne dont
l’une des propriétés majeures est de générer des taux potentiellement négatifs. (D’où
son usage possible uniquement pour les taux réels et non les taux nominaux)
S’agissant des autres notions, elles sont similaires au modèle Black-Karasinski.
4.3.5.2 Hypothèses
Hypothèse de normalité des taux d’intérêt réels
4.3.5.3 Données financières utilisées
La valeur initiale du taux court terme est déduite des OATi d’indice inflation CPI
4.3.5.4 Avantages
i. Modèle à deux facteurs : permet de davantage représenter la courbe
initiale des taux spot.
ii. Modèle communément utilisé dans les milieux financiers.
92
4.3.5.5 Limites
i. Hypothèse de normalité des taux réels non nécessairement vérifiée
ii. Absence de calibrage sur les volatilités implicites des options liées à
l’inflation
iii. Approximations choisies pour paramétrer le modèle
a. La volatilité dépend uniquement du temps (approximation car de nombreux
travaux montrent le caractère aléatoire de la volatilité des taux courts)
b. La génération de taux courts négatifs dépend du paramétrage du modèle.
4.3.5.6 Principe du calibrage
Les « inputs » sont préalablement lissés lorsque cela s’avère nécessaire (parfois les
données sont déjà lissées par la banque centrale)
Figure 4.10 Synthèse du calibrage du modèle Vasicek à deux facteurs
Principe du calibrage du modèle Vasicek à deux facteurs (en univers risque neutre et univers monde réel)
étape 1
Collecte des prix zéro coupons indexés inflation CPI
étape 2
Formule liant les prix zéro-coupons aux paramètres du modèle
Vitesses de retour à la moyenne calibrée sur historique depuis un AR(1) sur EWMA de volatilités => paramètres ensuite fixés
Estimation des paramètres volatilités, taux infini, m(0), r(0) avec vitesses de retour à la moyenne fixées par une fonction minimisant l'écart aux prix
Détermination des paramètres taux infini et volatilités à des niveaux plausibles (intervalles) sur les plages de valeurs déterminées précedemment
Estimation des paramètres r(0) et m(0) pour minimiser la fonction d'optimisation
* avec la contrainte du respect de la martingalité de l'inflation actualisée en projection univers risque neutre : paramétrage fait en parallèle de celui des taux nominaux
93
4.3.6 Modèle risque de crédit
Le risque de crédit matérialise trois types de risque associé à la richesse du
portefeuille d’obligations « corporate » (dettes émises par une entreprise) et celle
associée au Crédit Default Swap (CDS : non développé dans cette partie puisque
nous ne portons pas ce type de protection contre le risque de défaut en
portefeuille).
Le principe général est de modéliser l’évolution de la valeur de marché d’un
portefeuille composé d’obligations corporates.
4.3.6.1 Définition du spread de crédit en termes de modélisation
Les trois risques expliquant les variations de richesse dues au risque de crédit du
portefeuille d’obligations sont :
•
Le risque de changement de notation : une obligation corporate peut changer
de classe de ratings selon des agences de notation (Moody’s, Satndard and
Poor’s…) : de AAA (les plus sures) à C avant l’état de défaut
•
Le risque de défaut de l’émetteur : le prêteur ne percevra alors qu’une partie
du remboursement défini par le taux de recouvrement
•
Le risque d’écartement des spreads : il est expliqué par la variation des
rendements des spreads de marché au sein d’une même classe de ratings
Le Spread lié au risque de crédit modélise :
Figure 4.11 Les composantes du spread de crédit
Ecartement des spreads
Probabilité de changements de notations
Risque de faillite de l'émetteur
Il existe deux grandes approches pour traiter ce type de risque en univers risque
neutre adaptable en univers monde réel :
•
Les modèles structurelles (type Merton) qui modélisent la variation de la dette
de l’émetteur : le modèle requiert la connaissance du bilan de l’entreprise
émettrice et un traitement par ligne des obligations : cette approche est donc
peu envisageable opérationnellement pour un portefeuille à poche obligataire
de taille importante. Par ailleurs, les spreads obtenus conduisent à des
spreads court-termes inférieurs à ceux de marché.
94
•
Les modèles à formes réduites qui consistent à valoriser les obligations
corporate selon des modèles simulant les changements d’état des obligations
en portefeuille (défaut et notation) et des modèles diffusant les variations des
spreads (dues aux évolutions des hypothèses de marché de probabilités de
défaut et à celles éventuellement relatives à la liquidité).
4.3.6.2 La modélisation de la valorisation des obligations corporate
L’approche retenue est issue du modèle de Jarrow-Lando-Turnbull qui modélise
initialement de façon déterministe l’évolution des spreads ; elle est cependant
étendue dans la mesure où elle permet d’introduire la modélisation stochastique de
l’écartement des spreads.
Que ce soit dans un cadre d’étude Monde Réel ou Univers Risque Neutre, la
valorisation d’une obligation s’effectue dans l’univers Risque Neutre.
Le prix d’une obligation corporate à un instant futur t (valorisée en Risque Neutre y
compris dans un cadre Monde Réel) est donné par :
Oblig k (t , T ) =
∑ Pr oba
r =′ AAA, D}
k →r
(t 0 , t ) ×
∑C
k
k =′t +1;T −t }
× PZC r (t , k ) + Pr oba k → D (t 0 , t ) × r ×
∑C
k
k =′t +1;T − t }
× PZC r (t , k )
Où
•
Pr oba k → r (t 0 , t ) désigne la probabilité cumulée de passer au rating r à t de
l’obligation (de maturité T) et rating k à t0 (initialement) sous la probabilité
Risque Neutre Q
•
Ck est le coupon en t = k et si la maturité est atteinte, CT le coupon
augmenté du principal
•
PZC r (t , k ) est le prix zéro-coupons d’une obligation risquée de rating r à
l’instant t de maturité k (définie ci-après)
Concernant le retraitement des coupons, ils valent à t :
Coupon (t) = C t × (1 − (1 − r )) × Pr oba k → r (t 0 , t )
La valorisation d’une obligation risquée résulte de la combinaison de la modélisation
de :
•
•
L’écartement des spreads via les termes PZC r (t , k )
Les probabilités de changements de notations en univers Risque Neutre via
les termes Pr oba k → r (t 0 , t )
95
4.3.6.3 La modélisation de l’écartement des spreads
Que ce soit dans un cadre d’étude Monde Réel ou Univers Risque Neutre, le pricing
d’un Prix zéro coupon risqué s’effectue dans l’univers Risque Neutre.
Le prix d’un zéro coupons risqué Corp PZC(corporate) de rating k à l’instant t et de
maturité T est extrait directement du processus Λ(s) modélisant l’écartement des
spreads ; Si I est la fonction indicatrice associée à l’instant de défaut Г et la maturité
T le prix est donné par :
PZC r (t , k ) = E (e
−
∫ r ( s ) ds
s =′ t ; T }
Avec E ( I (Γ < T )) = e
−
( I (Γ > T ) + r × I (Γ < T )) / Ft )
∫ Λ×Π ( s ) ds
s =′ t ;T }
Ou encore exprimée autrement avec l’hypothèse simplificatrice dans notre cas de
l’indépendance entre processus de taux nominaux et de l’intensité de défaut,
Modélisation de l’écartement des spreads :
PZC k (t , T ) = PZC (t , T ) × (1 + (r − 1) × Pr oba k → D (Γ < T ))
Où
PZC (t , T ) désigne le prix zéro coupon souverain : taux sans risque issu
directement d’un modèle de taux classique type LMM ou Black-Karasinski à deux
facteurs
r le taux de recouvrement : 1- r correspond donc au taux de Loss Given Default
Pr oba k → D (Γ < T )) = E ( I (Γ < T )) est la probabilité de faire défaut avant la date
d’échéance T (état D) pour une obligation zéro coupon corporate de maturité T
et notée k initialement à t
Cette expression prend bien sens en termes de cashflow espéré d’après les
probabilités de défaut :
Le flux est de 1 avec probabilité 1 − Pr oba k → D (Γ < T )) contre un taux de
recouvrement de r avec probabilité Pr oba k → D (Γ < T )) .
La probabilité Pr oba k → D (Γ < T )) est issue de la matrice de changements d’états qui
est impactée par un processus πk(t) = π(t) (scalaire par simplification dans notre
cas) via le choc sur le générateur Λ définie infra.
4.3.6.4 La modélisation des changements d’états
La construction des probabilités de changements de rating s’effectue comme suit :
96
Les probabilités de changements de notations sont formalisées par une matrice dont
les états (notations AAA à C et défaut) en ligne sont ceux en début de période et en
colonne ceux d’arrivé. Ces probabilités sont initialement extraites de la matrice
évaluée par l’agence de notation Moody’s dont l’état de défaut est inséré.
Le point de départ est la matrice de transition annuelle :
Figure 4.12 La matrice de probabilité de changements d’état
AAA
AA
A
BBB
BB
B
CCC
AAA
94,0%
2,0%
1,6%
1,2%
0,4%
0,0%
0,0%
AA
5,7%
90,0%
3,7%
1,0%
0,7%
0,7%
0,1%
A
0,2%
7,5%
89,9%
5,3%
1,0%
1,0%
0,1%
BBB
0,0%
0,2%
4,0%
87,0%
6,0%
1,5%
0,2%
BB
0,0%
0,2%
0,2%
5,0%
82,0%
5,0%
5,0%
B
0,0%
0,2%
0,2%
5,0%
5,0%
79,0%
8,0%
CCC
0,0%
0,1%
0,2%
0,3%
0,4%
5,0%
74,0%
Defaut
0,0%
0,1%
0,2%
0,5%
2,0%
4,7%
12,5%
Pourcentages à titre illustratif
La matrice ci-dessus d’après le modèle Jarrow-Lando-Turnbull est liée par la relation :
Pr oba k →r (0,1) = (e Λ ) k ,r où Λ est une matrice dite « le générateur » qui comporte
entre autres l’intensité de défaut.
Puisque cette matrice vérifie la propriété de Markov, on a la relation qui suit :
Pr oba k →r (t , T ) = (e Λ (T −t ) ) k ,r où Pr oba k →r (t , T ) désigne la probabilité cumulée de
changement de notation (notée k initialement à t pour devenir de rating r à T)
•
En univers Monde Réel, les probabilités sous P de transitions sont de Markov
et donc les changements de notations et probabilités de défauts évoluent de
façon déterministe : elles servent uniquement à déterminer l’état d’un
portefeuille d’obligations corporate à chaque instant futur juste avant son
pricing et n’interviennent pas dans la formule du pricing des obligations.
Notamment, elles permettent de déduire à chaque pas de temps les
obligations ayant faits défauts sous la probabilité P.
•
En univers Risque Neutre, la matrice initiale de transition est impactée via un
processus Cox-Ingersoll-Ross choquant le générateur Λ.
Ainsi, si πt suit un CIR, les matrices de transitions évoluent selon :
Pr oba k →r (t ) = (e ΛΠ t ) k ,r
97
Figure 4.13 L’usage des matrices de transitions
Monde Réel
Risque Neutre
Valorisation de l'obligation
Simulation des transitions
Matrice de transitions Risque Neutre
Matrice de transitions Risque Neutre
Matrice de transitions Monde Réel
Matrice de transitions Risque Neutre
Les simulations des transitions s’effectuent comme suit selon l’univers de projection :
Figure 4.14 Les lois des matrices de transitions suivant les univers
Monde Réel
Risque Neutre
Loi Normale calibrée sur la
matrice de changement de
probabilité initiale extraite de
Moody's
Matrice impactée
par un générateur
choqué par un
processus CIR
A
Figure 4.15 La modélisation du risque de crédit suivant les univers
En univers Risque Neutre
Matrice de transition Q à
t=0
AAA
AA
A
BBB
BB
B
CCC
Défaut
Matrice de transition Q à
t=1
AAA
AA
A
BBB
BB
B
CCC
Défaut
AAA
AA
A
BBB
BB
B
CCC
Défaut
En univers Monde Réel
Matrice de transition P à
t=0
AAA
AA
A
BBB
BB
B
CCC
Défaut
Matrice de transition Q à
t=1
AAA
Evolution des notations
du portefeuille
AAA
Pricing des obligations
AA
A
BBB
BB
B
CCC
Défaut
AA
A
BBB
BB
B
CCC
Défaut
98
La matrice de transition utilisée pour la valorisation n’est plus markovienne : faire
évoluer un portefeuille en run off est donc possible et le procédé requiert le calcul
des probabilités cumulées par récurrence.
La probabilité de passer à la notation r à t pour une obligation notée k initialement à
t0 est :
Pr oba k →r (t 0 , t ) =
∑ Pr oba
r =′ AAA , D }
k →r
(t 0 , t − 1) × Pr oba k →r (t )
Où Pr oba k →r (t ) = (e Λ×Π (t ) ) k ,r
Remarque :
Les émetteurs sont corrélés entre-deux ainsi qu’avec le mouvement brownien
commun à l’ensemble des actifs (hors taux) qui représente la corrélation commune
intra-secteur des modèles (fixé à 35%) aux économies.
4.3.6.5 L’interprétation de la méthodologie en termes de spread
Le spread de crédit lié à l’écartement des spreads (corporate PZC) est identique en
Monde réel et en Risque Neutre : il est supérieur à celui obtenu par le pricing sous les
probabilités Monde Réel P (break even spreads) car il incorpore les défauts
inattendus valorisés par le marché riscophobe qui s’ajoute à l’effet partie des défauts
attendus (break even spreads).
Ainsi, en univers Monde Réel, le pricing se faisant avec la matrice de transition sous
Q de générateur ΛQ = πt x ΛP, il est introduit une prime de risque de crédit en
univers Monde Réel contrôlé implicitement par le processus CIR π(t) via l’utilisation
des probabilités sous Risque Neutre lors du pricing des obligations : en effet, les
probabilités de défauts pour simuler les transitions (qui précèdent le processus de
valorisation) sont plus grandes en univers Risque Neutre qu’en Monde Réel
permettant :
•
L’obtention d’une prime de risque de crédit via le processus π(t) en Univers
Monde Réel par la différence des probabilités utilisées respectivement pour
simuler les changements d’état des obligations pour faire évoluer l’état du
portefeuille (probabilité P) vs simuler les changements d’état des obligations
pour valoriser les obligations (probabilité Q) : en univers réel, la probabilité de
défaut simulant le changement d’état (sous P) étant plus faible que celle en
univers Risque Neutre (sous Q) alors que parallèlement les valorisations se
font sous les probabilités Q, il y a création d’une prime de risque de crédit ; il
est par ailleurs identifiable entre le spread break even (corp PZC sous P dont
l’évolution est déterministe) < spread de crédit lié à l’écartement des spreads
(corp PZC sous Q dont l’évolution est stochastique)
99
•
L’annulation de la prime de risque de crédit en univers Risque Neutre
4.3.6.6 Le calibrage des spreads de crédit
En RN, le spread de crédit est modélisé de façon stochastique : la matrice de
transition est affectée indirectement par un processus stochastique calibré sur
l’obligation noté A et de maturité 7 ans.
Le processus CIR se calibre depuis les prix zéro corporates (écartements des spreads)
Argmin { ( PCZC πA 0 (0,7) − PCZC Amarché (0,7) 2 }
Le calibrage appelle :
La Matrice de probabilité de changements d’états depuis Moodys
mais modifiée pour introduire l'état de défaut
Calibrage d’un processus CIR :
•
•
•
•
Retour à la moyenne calibrée sur la moyenne historique
depuis 1930 des speads de rating A et maturité 7 ans
mais lissée par exponentielle. Le retour à la moyenne est
estimé sur base d’une technique EWMA (exponential
weighted moving average : cf annexe) de l’historique des
spreads dont le principe est d'accorder plus de poids aux
données récentes du marché
Calibrage de la volatilité CIR : volalité estimée avec
méthode EWMA
Calibrage de la vitesse du retour à la moyenne : déduit d’un
AR(1) sur l’EWMA de la volatilité
Valeur initiale du CIR : π 0 depuis l'interpolation des Option
adjusted Spread du marché où seules les corporates de
rating A et maturité 7 ans sont retenues
4.3.6.7 Limites
i. Cette modélisation permet d’être « market consistent » en Risque
Neutre avec les spreads des obligations A et de maturité 7 ans. Ainsi, via
cet aléa, une volatilité des spreads est introduite ; le niveau de spread
correspondrait cependant davantage à notre portefeuille s’il était calibré
sur des obligations de rating A et de maturités 4-5 ans.
100
ii. En Risque Neutre, la limitation du choc à un scalaire calibré sur une
obligation spécifique (pour un seul rating donné) qui affecte de la même
manière toutes les composantes de la matrice de changement de ratings
repose sur une hypothèse forte : les volatilités des spreads de différents
ratings sont identiques ; surtout, ces spreads sont parfaitement corrélés
entre-eux.
iii. La prime de risque de crédit introduite implicitement en Monde réel par
une matrice de transition déterministe contre une valorisation avec une
matrice de transition stochastique ne permet de contrôler la martingalité
des obligations risquées
iv.
Suivant les objectifs visés, le calibrage doit s’adapter : viser les quantiles
dans le cadre de solvabilité 2 lors de la simulation du jeu de scénarios
primaires (Monde Réel), calibrage dans les extrêmes peu évident, contre
une approche plus standard dans le cadre MCEV
4.3.7 La modélisation des dépendances entre variables
4.3.7.1 Les corrélations en Risque Neutre des actifs risqués
Les corrélations en Risque Neutre sont constantes et ne sont donc pas
impactées par des sauts stochastiques.
Il a été décidé de modéliser ainsi les corrélations car l’impact de sauts affectant
simultanément la volatilité et les corrélations ne permettait pas de retrouver les prix
des options en date initiale (le souci prépondérant en Risque Neutre étant d’être
« Market Consistent »).
Le niveau cible des corrélations Risque Neutre est issu de celui observé sur le marché
(identique au monde réel).
La considération de la problématique des corrélations entre actifs risqués est limitée
pour notre part puisque seule une classe d’actifs actions est diffusée sur le
benchmark Eurostoxx 50.
4.3.7.2 Les corrélations en Monde réel des actifs risqués
Les phénomènes constatés en Monde Réel sont :
•
Clustering de volatilité constaté
101
•
Augmentation des corrélations dans les extrêmes accompagnées de fortes
volatilités
La modélisation des corrélations :
•
Elles sont stochastiques car deux actifs risqués actions issus de deux
économies différentes possèdent une volatilité et corrélation systémiques
représentées par un modèle Heston-Merton (cf Figure 4.2)
•
La volonté est de représenter au mieux les événements extrêmes compte
tenu de la valorisation du bilan sur quantile à 99,5 % dans le cadre Solvabilité
2.
La considération de la problématique des corrélations entre actifs risqués est limitée
pour notre part puisque seule une classe d’actifs actions est diffusée calibrée sur
notre benchmark Eurostoxx 50.
4.3.7.3 Corrélations entre mouvements de volatilités et rendements du
modèle Heston-Merton
La corrélation est négative entre volatilités et rendements actions pour représenter le
phénomène de clustering de volatilité observé en bas de cycle.
4.3.7.4 Corrélations entre taux nominaux/réels et actions
L’estimation des corrélations entre les rendements excédentaires et les taux est
effectuée.
Le calibrage des corrélations est fait d’après les paramètres des modèles
stochastiques (valeur cible à 100 ans vs 30 ans de projection).
L’estimation des corrélations sur jeu montre un non respect des cibles fixées ; une
décorrélation entre taux 10 ans et rendement action est constatée sur jeu sur horizon
30 ans contre une valeur cible à -19 %.
Nous n’imposons pas pour le moment de critères sur les corrélations, privilégiant la
représentativité du caractère hétéroclite des rendements actions (arbitrage entre
volatilité stochastique et corrélation).
102
Conclusion Chapitre 4
Nous avons expliqué les propriétés des modèles retenus et les principes
des modélisations suivant les univers de projection.
Nous avons aussi développé les raisons qui nous ont amenées à
sélectionner les modèles Heston-Merton pour la diffusion des rendements
actions et celui du Libor Market Model pour le modèle de taux nominaux.
Nous avons clairement identifié leurs limites respectives, notamment
s’agissant des problématiques d’extrema.
Les calibrages Risque Neutre empêchent une bonne représentation des
distributions des variables financières des titres. Les paramètres des
modèles servent à retrouver les prix des options : pour certains modèles,
les paramètres sont nombreux et constituent des degrés de libertés qui
peuvent parfois perdre leur signification initiale (cf les corrélations des
taux forward du modèle LMM).
Il s’agit désormais de décrire les critères de validation des calibrages,
utiles au processus de calibrage du modèle interne décrit au chapitre 3.
103
5 Validation des scénarios économiques
Les parties précédentes ont montré le rôle crucial des scénarios économiques dans la
valorisation des Fonds Propres économiques (Net Asset Value), étape commune aux
deux orientations méthode Formule Standard et méthodes Modèle Interne : pour
rappel, la Formule Standard repose sur l’évaluation de différence de « NAV » entre
situations centrale et stressée par facteur de risque, les méthodes Modèle Interne
reposent quant à elles sur l’évaluation de la distribution des NAV dont les corrélations
des facteurs de risque de marché sont issues exclusivement des scénarios
économiques.
Ainsi, il est essentiel de disposer de contrôle des scénarios économiques afin de vérifier
leur qualité et le respect des hypothèses des calibrages des modèles de diffusion.
En Formule Standard, l’étude se fait sur le périmètre univers Risque Neutre puisqu’il
s’agit uniquement de valorisations du bilan économique sur un jeu de scénarios.
En Modèle Interne, le contrôle doit se faire sur le périmètre Monde Réel et Risque
Neutre comte tenu de la diffusion des scénarios dans ces deux univers comme expliqué
en chapitre 3.
Ainsi, l’objet de ce chapitre est d’exposer les tests pratiqués afin de valider et contrôler
les scénarios économiques dans le cadre Solvabilité 2 en univers Risque Neutre et
Monde réel.
5.1 La validation des scénarios en univers Risque
Neutre
La validation des scénarios économiques en univers Risque Neutre s’inscrit dans le
cadre de la valorisation du bilan économique, qui est suffisante sous la méthode
Formule Standard.
L’approche Risque Neutre repose sur l’hypothèse d’un unique rendement moyen (le
taux sans risque) des titres. Le choix de cet univers pour la valorisation du bilan
économique et du capital de solvabilité requis sous Solvabilité 2 s’inscrit dans le cadre
d’une uniformisation et objectivation des hypothèses prises par l’ensemble des
assureurs/réassureurs. Il ne peut donc y avoir des rendements moyens spécifiques à
certaines classes d’actifs, empêchant dès lors, à contrario d’une approche Monde Réel,
tout calibrage de modèles basé exclusivement sur la représentativité des densités
observées.
Aussi, les modèles utilisés dans l’Univers Risque Neutre ont pour objectif d’être le plus
« Market Consistent », à savoir être capables de retrouver les prix des options du
marché au détriment d’une approche plus réaliste qui tenterait de représenter des
propriétés plus fines sur les données observées.
104
De façon non exhaustive, on pourrait résumer cette problématique par l’opposition
Risque Neutre contre Monde Réel par:
Figure 5.1 Le calibrage Risque Neutre contre Monde Réel
Hypothèses des calibrages en Risque Neutre
Hypothèses des calibrages en Monde réel
Une unique courbe des taux sans risque
Volatilités implicites
distributions spécifiques des actifs
Volatilités réalisées
5.1.1 Synthèse des critères de validation à respecter
Les tests usuels à mener sont :
i.
Le contrôle de la martingalité des indices actualisés afin de vérifier la
bonne risque neutralité : tous les actifs rapportent le taux sans risque
(absence d’opportunité d’arbitrage)
E ( S t × Dt ) = P (0, t )
Où E représente l’espérance (qui se traduit par la moyenne sur
scénarios par la méthode Monte Carlo), St , la valeur de l’indice en
base 1 à la date initiale, Dt, le facteur d’actualisation basée sur les
taux courts rollés jusqu’en date t et P(0,t) le prix Zéro-Coupon associé
à la courbe des taux initiale.
ii.
Le contrôle de la « Market Consistency » : les paramètres des modèles
de diffusion des scénarios économiques respectent les hypothèses
financières de marché à la date de projection.
iii.
Vérifier la cohérence des extrema des variables financières projetées
sur l’ensemble des scénarios : les modèles actuariels développés sont
en effet sensibles à ces valeurs avec rejet de jeux selon des seuils
fixés.
iv.
Vérifier la moyenne des rendements de l’ensemble des classes d’actifs
v.
Identifier les niveaux de volatilités (« standard deviation » sur
scénario) à chaque pas de temps sur graphe notamment pour les
actions, immobiliers et dividendes associés
vi.
Visualiser la moyenne des dividendes action et immobilier sur
l’ensemble des scénarios et pas de temps
vii.
Estimer les corrélations entre
immobilier/taux, taux/inflation
action/taux,
action/immobilier,
105
Les critères de validation retenus interviennent aux étapes de calibrage et aux
étapes de validation des jeux de scénarios (cf chapitre 3 décrivant le processus de
calibrage du modèle interne). Ils se résument ainsi :
Figure 5.2 Critères de validation des calibrages des jeux de scénarios en
univers Risque Neutre
CRITERES DE VALIDATION DES CALIBRAGES DES JEUX DE SCENARIOS ECONOMIQUES GENERES EN UNIVERS RISQUE NEUTRE
Etape 6 du processus de calibrage du Modèle Interne
Critères à respecter
Courbe des taux nominaux
Commentaires
écart à celle de date de projection inférieur à 20 bps*
Pour contrôler le respect des hypothèses de marché à
date de projection
Courbe des taux réels
écart à celle de date de projection inférieur à 10 bps pour les maturités
Pour contrôler le respect des hypothèses de marché à
inférieures à 10 ans puis écart inférieur à 20 bps pour les maturités
date de projection ; l'écart toléré à la courbe des taux
supérieures à 10 ans ; pour la courbe des taux nominaux assurant aussi le nominaux est important la première année compte tenu
calibrage de l'inflation, l'écart doit être inférieur à 30 bps pour toute maturité d'une inflation cible court terme estimée sur base
à exception de celle à un an où l'écart toléré est de 50 bps
d'experts qui diffèrent des prix OATi
"Market
consistency" des Volatilité implicite swaptions payeuses du calibrage
Pour contrôler le respect des hypothèses de marché à
écart absolu au marché inférieur à 80 bps
taux et actions maturité 5 ans et "tenor" 10 ans
date de projection
Volatilité implicite swaptions payeuses du calibrage
Pour contrôler le respect des hypothèses de marché à
écart absolu au marché inférieur à 80 bps
maturité 5 ans et "tenor" 10 ans
date de projection
Volatilités implicites action du calibrage maturité 5 ans
Pour contrôler le respect des hypothèses de marché à
écart à celle de marché t=0 inférieur à 70 bps
date de projection
Volatilités implicites action maturité 10 ans
Pour contrôler le respect des hypothèses de marché à
écart à celle de marché t=0 inférieur à 70 bps
date de projection
*Modèle LMM en risque neutre : absence d'écart, la courbe étant un "input" du modèle
Etape 6 du processus de calibrage du modèle interne : validation du calibrage risque
neutre
106
Figure 5.3 Critères de validation des jeux de scénarios en univers Risque
Neutre
CRITERES DE VALIDATION DES JEUX DE SCENARIOS ECONOMIQUES GENERES EN UNIVERS RISQUE NEUTRE
Etape 8 du processus de calibrage du Modèle Interne
Critères à respecter
Stabilité des
Nombre de scénarios par jeu
résultats
* NAV" : Net Asset Value" , "VIF" : "Value In Force" ou somme des résultats actualisés
Taux forward 1 an
quantile 99% taux spot 10 ans à fin de projection
Commentaires
1000
< 50 %
< 52 %
Indice actions avec dividendes réinvestis estimés à chaque
pas de temps en base 1 initialement
compris dans l'intervalle [0,001 ; 1000]
Contrôle des
extrema
Indice immobilier avec dividendes réinvestis estimés à
chaque pas de temps en base 1 initialement
compris dans l'intervalle [0,001 ; 1000]
Moyennes annualisées des rendements mensuels action immobilier - Private Equity - Gestion alternative - OPCVM
monétaire - OPCVM obligataire - taux nominaux diffusés sur
sur scénarios et pas de temps
Moyenne des indices actions actualisés en date t=0 pour
chaque pas de temps sur prix zéro coupons issus de la
courbe initiale des taux nominaux
écart à 1 inférieur à 4 % les quinze premières années puis < 6 % sur le reste
de la projection**
Moyenne des indices actions actualisés en date t=0 pour
chaque pas de temps sur prix zéro coupons issus de la
courbe initiale des taux nominaux
dans l'intervalle de confiance à 95 % empirique associé
Moyenne des indices immobiliers actualisés en date t=0
pour chaque pas de temps sur prix zéro coupons issus de la
courbe initiale des taux nominaux
Moyenne des indices immobiliers actualisés en date t=0
pour chaque pas de temps sur prix zéro coupons issus de la
courbe initiale des taux nominaux
Contrôle de
l'absence
d'opportunité
d'arbitrage
Moyenne des indices gestions alternatives actualisés en
date t=0 pour chaque pas de temps sur prix zéro coupons
issus de la courbe initiale des taux nominaux
Cap en amont des taux afin de limiter les taux spot
nominaux diffusés
Afin de limiter le nombre de scénarios à caractère
déterministe
Pour éviter des incohérences économiques sur les
rendements cumulés :pas de contraintes avant l'
automatisation de la génération pour optimiser par la suite
contraintes opérationnelles et celles de vraisemblance des
valeurs
Pour éviter des incohérences économiques sur les
rendements cumulés :pas de contraintes avant l'
automatisation de la génération pour optimiser par la suite
contraintes opérationnelles et celles de vraisemblance des
valeurs
Afin d'assurer un contrôle des moyennes des rendements
diffusés : en univers risque neutre, tous les actifs rapportent
le taux sans risque
Pour vérifier un adossement Actif/Passif supérieur à 99%
Pour contrôler la qualité de la martingalité
Pour vérifier un adossement Actif/Passif supérieur à 99,6%
écart à 1 inférieur à 4 %
Pour contrôler la qualité de la martingalité
dans l'intervalle de confiance à 95 % empirique associé
Pour contrôler la qualité de la martingalité
dans l'intervalle de confiance à 95 % empirique associé
Moyenne des indices "Private Equity"actualisés en date t=0
pour chaque pas de temps sur prix zéro coupons issus de la
courbe initiale des taux nominaux
écart à 1 inférieur à 40 %
Martingalité vérifiée
Moyenne des indices OPCVM monétaires actualisés en
date t=0 pour chaque pas de temps sur prix zéro coupons
issus de la courbe initiale des taux nominaux
écart à 1 inférieur à 2 %
Martingalité vérifiée
écart à 1 inférieur à 4 %
Martingalité vérifiée
Moyenne des indices inflations actualisés en date t=0 sur
prix zéro coupons réels de la courbe des taux initiale de
maturité associée au pas de temps pour chaque pas de
temps
Moyenne des Prix zéros coupons diffusés actualisés en
date t=0 pour chaque pas de temps sur prix zéro coupons
issus de la courbe initiale des taux nominaux
Moyenne de l'inverse du "cash rollup" diffusés en date t=0
pour chaque pas de temps sur prix zéro coupons issus de la
courbe initiale des taux nominaux
Moyenne des "payoffs" des prix des call actualisés en date
t=0 de maturité 1 an, 2 ans, 3 ans, 4 ans et 5 ans
Contrôle de la
"market
consistency"
Toutes égales à 40 bps près
cf étude de la convergence des résultats sur martingalité et
étude sur mouvements "NAV" et "VIF"*
Volatilités implicites des options de sous-jacent ESTOXX 50
de maturité 3 ans à 10 ans issue du jeu
écart à 1 inférieur à 1 %
Très martingals d'après le calibrage et modèle utilisé : pas
de problématique
<1%
Très martingals d'après le calibrage et modèle utilisé : pas
de problématique
Pour contrôler le respect des hypothèses de marché à date
dans l'intervalle de confiance à 95 % empirique associé pour au moins 4 des 5 de projection sur critère des Orientations Nationales des
autorités de Contrôle (cf QIS 5)
options et écart absolu au marché inférieur à 15%
écart à celle de calibrage inférieur à 2 %**
Volatilité implicite swaptions payeuses maturité 5 ans et
écart au marché inférieur à 2%*
"tenor" 10 ans issue du jeu
Volatilité implicite swaptions payeuses maturité 10 ans et
écart au marché inférieur à 2%*
"tenor" 10 ans issue du jeu
*Seuil fixé sur la base des calibrages effectués par Barrie+Hibbert et sur la base de l'étude interne de la convergence des volatilités implicites suivant le nombre
de scénarios par jeu
**Seuils fixés d'après une étude mesurant l'effet qualité de la martingalité sur l'adossement Actif/Passif et sur une objectivation opérationnelle
Pour contrôler le respect des hypothèses de marché à date
de projection sur critère des Orientations Nationales des
autorités de Contrôle (cf QIS 5)
Pour contrôler le respect des hypothèses de marché à date
de projection
Pour contrôler le respect des hypothèses de marché à date
de projection
Etape 8 du processus de calibrage du modèle interne : validation du jeu de
scénarios risque neutre
107
5.1.1.1 Le contrôle de la martingalité
Les critères pour l’indice action à respecter sont le respect de l’égalité:
E ( S t × Dt )
=1
P (0, t )
Où E représente l’espérance (qui se traduit par la moyenne sur scénarios si
Méthode Monte Carlo), St, la valeur de l’indice en base 1 à la date initiale, Dt, le
facteur d’actualisation basée sur les taux courts rollés jusqu’en date t et P(0,t) le
prix Zéro-Coupon associé à la courbe des taux nominaux initiale.
Remarque :
Pour l’inflation, il s’agit de vérifier :
E ( I t × Dt )
= 1 où It, la valeur de l’indice
Pr (0, t )
inflation en base 1 à la date initiale et Pr le prix Zéro-coupon issu de la courbe des
taux réels.
Pour les prix Zéro-coupons, il s’agit de vérifier :
E ( P (t , T ) × Dt )
=1
P (0, T + t )
où P (t , T ) désigne le prix Zéro-coupons de maturité associé T à la date t.
Les Prix Zéro-coupons diffusés sont ceux de maturité 1mois, 3mois, 6mois, 1an,
3ans, 5ans, 10ans, 30ans à respecter
Les critères de validation des jeux à respecter sont détaillés dans le tableau supra.
108
Présentation des résultats :
Figure 5.4 Test d’absence d’opportunité d’arbitrage des Prix Actions
Les prix actualisés de ce jeu de scénarios issus du modèle Heston-Merton sont bien
martingales et respectent le critère de l’évolution dans l’intervalle empirique de
confiance à 95%. Il est à l’étude le calcul d’un intervalle de confiance à formule
fermée et la stabilité de l’intervalle de confiance selon le jeu de scénarios.
Par ailleurs, la contrainte imposée sur un écart à 1 (prix en base 1) dans l’intervalle
[0,4%] les quinze premières années puis [0,6%] les années suivantes est vérifiée.
Cette contrainte supplémentaire est imposée pour minimiser le désadossement
Actif/Passif dû à la sur/sous martingalité des prix, clairement identifié dans nos flux.
Notre écart est dès lors inférieur à 1%.
Ce jeu vérifie les critères de validation portant sur l’absence d’opportunité
d’arbitrage.
109
Figure 5.5 Test d’absence d’opportunité d’arbitrage des Prix Zéro coupons
taux courts « rollés » et indices inflations
L’inverse du cash « rollup » est bien égal en moyenne au prix zéro-coupon associé.
L’inflation est en revanche moins martingale étant donné sa modélisation calibrée
sur une différence entre taux nominaux et taux réel rendant sa diffusion plus
instable que celle d’un taux nominal issu d’un unique processus.
Les critères sont respectés (cf tableau supra).
110
Figure 5.6 Test d’absence d’opportunité d’arbitrage des Prix Zéro coupons
Les prix-zéro coupons actualisés sont très martingales. Aucune problématique
relevée.
Remarque :
Issu d’une même table d’aléa (même graine pour modèle action), la martingalité
des prix actualisés actions restent la même quelque soit le modèle de taux utilisé.
5.1.1.2 Le contrôle de la « Market Consistency »
Le contrôle de la « Market Consistency » consiste à vérifier que les prix des options
sont retrouvés depuis les scénarios économiques. Il s’effectue via la méthode Monte
Carlo et s’opère sur le périmètre retreint aux actions (Indice Eurostoxx) et taux
nominaux (swaptions) étant donné l’absence d’option sur les autres classes d’actifs
peu liquides et très spécifiques (Immobilier, Private Equity, Gestion alternative).
Le contrôle de la « market consistency » n’a de sens que dans le cadre d’une
projection risque neutre à date t=0 ; à horizon un an, cette notion est moins évidente
les hypothèses étant modifiées (courbe de taux différente de celle actuelle
notamment). Ainsi, il existe une problématique quant à l’estimation des volatilités
implicites (cf partie 3 pour discussion). En revanche, le respect de l’absence
111
d’opportunité d’arbitrage doit être vérifié. En d’autre terme, la martingalité des
scénarios reste une contrainte y compris à horizon un an.
Cette problématique du calibrage à horizon un an réfère au calcul du capital de
solvabilité sous Solvabilité 2 (SCR) en modèle interne où il y a effectivement
génération de scénarios risque neutre à partir d’horizon 1 an.
Indice Action
Les critères pour l’indice action à respecter sont le respect de l’égalité:
E (( S t − K t ) + × Dt ) = Prix Call
t
Où
E représente l’espérance (qui se traduit par la moyenne sur scénarios si Méthode
Monte Carlo)
S t , la valeur de l’indice en base 1 à la date initiale
Dt , le facteur d’actualisation basée sur les taux courts rollés jusqu’en date t
K t le strike à la monnaie Forward
Prix Call
t
le prix de l’option Call* de maturité t.
*cf annexe pour la définition d’un Call
Remarque :
Le contrôle s’effectue sur les maturités 1 an, 2 ans, 3 ans, 4 ans et 5 ans pour
l’Eurostoxx 50(arrêt à 5 ans compte tenu de la profondeur du marché des call pour
cet indice sous-jacent)
En théorie, compte tenu de la relation de la parité Call-Put, les volatilités implicites
devraient être les mêmes.
La tolérance de l’écart à l’égalité définie ci-dessus est donnée dans le tableau supra.
Présentation des résultats :
112
Figure 5.7 Test de market consistency action (prix des Call)
Les prix de marché sont situés dans l’intervalle de confiance à 95% de ceux des call
issus du modèle (par méthode Monte Carlo). L’écart est inférieur à 1 % sur quatre
des cinq maturité grâce au modèle Heston-Merton calibré initialement sur la nappe
de volatilité.
Produits de taux
Le contrôle de la « Market Consistency » pour les courbes des taux nominaux diffusés
consiste (outre à respecter la martingalité des prix zéro-coupons actualisés et celle du
déflateur) à vérifier que les prix des swaptions (cf annexe pour la définition) sont
retrouvés depuis les scénarios économiques.
Les tolérances d’écart entre volatilités implicites estimées issues des jeux (via Monte
Carlo) aux volatilités implicites des swaptions de marché sont définies dans le tableau
supra.
Présentation des résultats swaptions payeuses « tenor » 10 ans à la monnaie ci-après
(cf étude extrema)
Remarque :
113
Il est à noter que le contrôle des prix des options sur inflations (cap inflation) pour
l’indice inflation est possible mais il n’est pas pour le moment réalisé puisque le
calibrage du modèle Vasicek à deux facteurs n’est effectué que sur le niveau de la
courbe des taux réels estimée depuis les obligations indexées sur inflation CPI ; les
vitesses de retour à la moyenne sont estimées sur l’historique de séries.
Le modèle est calibré pour assurer l’absence d’opportunité d’arbitrage de l’inflation.
5.1.1.3 Le contrôle de la cohérence des extrema des taux
Le contrôle de la cohérence des extrema dans une volonté d’être « Market
Consistency » est important notamment lors de l’usage de modèles de taux et
d’actions qui peuvent engendrer des valeurs diffusées dont la probabilité de
réalisation est quasi-impossible : ces valeurs ne peuvent être admises dans un
modèle actuariel Gestion Actif/Passif (type Epargne essentiellement).
De plus, dans un cadre de calcul de SCR en modèle interne, il est nécessaire d’avoir
un contrôle des scénarios dans les extrêmes, plus particulièrement ceux à horizon 1
an qui vont servir de base de calibrage pour des projections en univers risque neutre
afin de valoriser le bilan à cet instant.
Le modèle LMM (utilisé en univers Risque Neutre) et celui de Black-Karasinski à deux
facteurs étendu (univers Monde Réel) supposent la log normalité des taux nominaux
forward pour le premier, celui des taux courts pour le second qui ont pour effet de
diffuser dans certains scénarios des valeurs extrêmes non admissibles dans une
optique « ALM » : la probabilité d’obtenir des taux spot 10 ans à horizon 30 ans de
l’ordre de 300% est non nulle.
Surtout, une analyse menée sur équations permet d’expliquer l’explosion des taux à
long terme lorsqu’ils suivent une loi log normale :
La moyenne du « cash rollup » continuement composé est divergente puisqu’il
correspond à l’exponentiel de l’exponentiel d’une loi normal et cette divergence
s’accroît avec l’horizon de projection.
C (T ) = e e où x =
x
∫ r (t )dt avec r (t ) de loi normale
t =∞
<C> =
ex
−x
∫ p( x) × e dx où p(x) densité d’une loi normale décroît en e .
2
Aussi, la convention adoptée pour modéliser le cash « rollup » est de le composer de
façon discrète avec un modèle Black-Karasinski à deux facteurs (avec un LMM, la
composition est discrète) dans le cadre d’étude ALM qui évite une problématique de
divergence des facteurs d’actualisation moyen.
C (T ) = 1 + e x
114
Il n’en reste pas moins que la problématique est reportée sur les taux moyens.
En conséquence, les taux nominaux sont capés à 50% (plus précisément les taux
forward pour modèle LMM et moyenne long terme pour Black-Karasinski) en amont
du modèle et l’acceptation des scénarios se fait sur des niveaux économiquement
plausibles estimés à 20% (niveau toléré élevé dans le cadre d’une crise des dettes
souveraines) ; le respect de la « market consistency » sur swaptions doit être par
ailleurs bien vérifié.
L’introduction de ce seuil maximal (cap) n’a pas d’effet sur la « market consistency ».
L’impact intervient en effet qu’à partir du seuil de 10% comme en témoignent les
graphes ci-dessous qui illustrent l’étude menée sur un jeu de scénario dont la table
d’aléas est identique.
Il ressort surtout qu’un seuil maximal à 20% est négligeable en termes d’impact sur
« market consistency » devant celui de l’erreur dû à l’échantillon (« sampling
error ») : écart inférieur à 1% pour un cap à 20% vs 2% pour le « sampling error ».
En revanche, le seuil de 10% a des conséquences sur la « market consistency »
comme le montre les graphes ci-dessous.
Présentation des résultats du calibrage pour un LMM avec taux forward capés à
1000%, puis 50% puis 20% et 10%.
Sur swaptions payeuse de « tenor » 10 ans à la monnaie (contrôle sur swaptions
payeuses plutôt que receveuses car elles sont davantage assimilables à un fond
garanti investi en obligations, type Epargne donc : cf annexe)
Figure 5.8 La « market consistency » des taux suivant un seuil
maximal imposé sur taux
Mettre un cap à 10 % impacte la market consistency des taux nominaux : le seuil de
20% est en revanche sans conséquence.
Sur volatilités implicites actions (les modèles actions étant centrés sur les taux
nominaux, il est nécessaire de vérifier leur « market consistency »)
115
Figure 5.9 La « market consistency » des actions suivant un seuil suivant
un seuil maximal imposé sur taux
volatilités implicites modèle
Call à la monnaie
avec modèle action Heston-Merton
modèle taux LMM
0,32
0,3
0,28
0,26
0,24
0,22
0,2
0,18
0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
sans_cap
cap à 50%
cap à 20%
cap à 10%
1
16 31 46 61 76 91 106 121 136 151 166 181 196 211 226 241 256 271 286 301 316 331 346
temps en mois
Mettre un seuil maximal à 10 % impacte la « market consistency » des actions : le
seuil de 20% est en revanche sans conséquence.
Les résultats du calibrage pour un Black-Karasinski à deux facteurs des taux courts
capés à 1000%, puis 50% puis 20% et 10% aboutissent aux mêmes conclusions
que dans le cas d’un modèle de taux forward LMM :
116
Figure 5.10 La « market consistency » des taux suivant un seuil maximal
imposé sur taux
swaptions à la monnaie "tenor" 10 ans
avec modèle action Heston-Merton
modèle taux Black-Karasinski
0,28
0,26
0,24
volatilités implicites modèle
0,22
0,2
0,18
0,16
sans cap
0,14
cap à 20%
0,12
cap à 10%
0,1
0,08
0,06
0,04
0,02
0
1
16 31 46 61 76 91 106 121 136 151 166 181 196 211 226 241 256 271 286 301 316 331 346
temps en mois
117
Figure 5.11 La « market consistency » des actions suivant un seuil maximal
imposé sur taux
volatilités implicites modèle
Call à la monnaie
avec modèle action Heston-Merton
modèle taux Black-Karasinski
0,34
0,32
0,3
0,28
0,26
0,24
0,22
0,2
0,18
0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
sans cap
cap à 20%
cap à 10%
1
16 31 46 61 76 91 106 121 136 151 166 181 196 211 226 241 256 271 286 301 316 331 346
temps en mois
Les tests menés montrent que l’application de cap sur taux n’influe pas la
martingalité des prix actualisés des actions.
Par ailleurs, il est contrôlé le nombre de scénarios impactés par le cap (donnant de
fait à ces scénarios un caractère déterministe) : en vue des recalibrages à 1 an dans
les extrêmes dans le cadre du calcul du SCR en modèle interne et la volonté d’être
économiquement cohérent, le jeu sur 1000 scénarios est refusé dès lors qu’un
scénario présente un taux 10 ans supérieur à 20% à horizon1 an et le jeu est refusé
au-delà de 10 scénarios sur horizon 30 ans impacté par le cap à 50% (quantile à
99% du taux nominal de maturité 10 ans dans 30 ans égal à 50%).
Les scénarios sont ainsi bien garantis à caractère stochastique dans au moins 99%
des cas notamment dans un cadre « market consistent ».
118
Figure 5.12 Graphe sans seuil maximal des taux 10 ans diffusés par
un LMM
Le modèle est calibré sur swaptions et courbe des taux swaps à fin décembre 2010
en univers risque neutre
Figure 5.13 Graphe sans seuil maximal des taux 10 ans diffusés par
un Black-Karasinski à deux facteurs
Le modèle est calibré sur swaptions et courbe des taux swaps à fin décembre 2010
en univers risque neutre
Le choix d’un LMM plutôt qu’un Black-Karasinski à deux facteurs apparaît justifier
pour limiter le nombre de scénarios à taux trop élevés qui augmentent avec le temps.
119
Cependant, il apparaît une évolution très vraisemblable sur les premières années de
projection (faisceau réduit les premières années).
En effet, le quantile à 99% à 30 ans des taux de maturité 10 ans est inférieur à 30%
avec un modèle LMM contre un quantile à 99% proche de 50% pour un modèle
Black-Karasinski à deux facteurs ; d’autres études sur d’autres jeux de scénarios le
confirment.
En d’autres termes, 1% des taux sont supérieurs à 50% à horizon 30 ans avec un
modèle affine (Black-Karasinski) alors que moins de 1% des taux sont supérieurs à
30% à horizon 30 ans avec un LMM. D’où l’intérêt de ce dernier modèle en univers
risque neutre, les taux générés étant utilisés pour estimer le taux servi dans le
modèle ALM.
L’impact « ALM » est limité en termes de valorisation des actifs réinvestis puisque les
réinvestissements se font à ces taux et que le facteur d’actualisation annule l’effet
taux de coupons élevés.
Figure 5.14 Graphe sans seuil maximal des taux 120 ans diffusés par
un Black-Karasinski à deux facteurs
Le modèle est calibré sur swaptions et courbe des taux swaps à fin décembre 2010
en univers risque monde réel
Il apparaît donc que la courbe des taux diffusés sur des horizons court terme
(inférieur ou égal à 1 an) est contrôlée, puis les niveaux s’écartent de façon
exponentielle par rapport à leur moyenne.
Un Black Karasinski peut donc être utilisé pour générer une courbe des taux à un an
en monde réel en vue d’un recalibrage du modèle LMM à un an sur ces courbes (dans
le cadre du calcul du SCR en modèle interne).
Remarque :
120
Il n’y a pas d’impact sur la martingalité des actions de la mise en place d’un seuil
maximal sur taux, compte tenu du choix d’agencement du modèle action centré sur
les taux nominaux.
5.1.1.4 Le contrôle des extrema des cours actions et immobiliers
Concernant le modèle action à volatilité stochastique (Heston-Merton), le modèle est
construit sur un processus à saut stochastique (Merton) qui impacte le niveau de
l’indice action de façon indépendante au modèle Heston qui impacte le niveau de
l’indice en base initialement :
St = St
Merton
× St
Heston
Où
S t est la valeur de l’indice action à t,
St
Merton
la composante due au modèle Merton
St
Heston
celle due à la contribution du modèle Heston.
Or, en univers Risque Neutre, le modèle Merton (processus de saut) est calibré de
façon à être « Market Consistent » avec la nappe de volatilité implicite ; en
conséquence, le modèle action peut introduire des valeurs aberrantes en l’absence
d’un calibrage sur la distribution des rendements.
Le besoin de recourir à un processus à saut en univers Risque Neutre est justifié dans
la mesure où utiliser un modèle à volatilité stochastique « gonfle » le cours moyen
des actions et ne permet pas de retrouver les prix des calls de marché. En
conséquence, introduire un processus à saut dont l’intensité est de moyenne négative
permet de faire diminuer le niveau et de retrouver ces prix.
Le contrôle du niveau des indices se fait au travers des critères de validation des jeux
de scénarios décrits dans le tableau situé en début de partie 5. Des contraintes sur
les rendements cumulés sont imposés pour les actifs actions et immobiliers.
Par ailleurs, comme il sera détaillé en fin de partie, d’autres critères seront surveillés ;
notamment, il s’agit de :
121
i. La visualisation du faisceau des niveaux des cours
Figure 5.15 Graphes des cours actifs risqués Action avec un
modèle Heston Merton et immobilier avec Black-Scholes
La visualisation de cours élevés pour certains scénarios n’est pas
étonnante puisque l’emploi d’un modèle action à volatilité stochastique
est à queues de distribution élevées. Cependant, il serait erroné de
n’affecter cet effet qu’aux processus de saut puisque le cours immobilier
présente des valeurs extrêmes comparables. Pour le moment, nous
n’imposons pas de contraintes sur les rendements cumulés : elles seront
estimées après l’automatisation de la génération des jeux afin
d’optimiser celle-ci d’après des contraintes opérationnelles et de
vraisemblance économique des valeurs diffusées. Une première
contrainte d’intervalle est momentanément fixée définie dans le tableau
de synthèse figurant en début de ce chapitre.
122
ii. Des quantiles à 0.5% du cours à horizon 1 an
Figure 5.16 Zoom du graphe 5.14
5.1.1.5 Le contrôle de la moyenne des rendements
Le contrôle du niveau des moyennes annualisées (et de l’unicité de ce niveau dans le
cadre risque neutre) sur l’ensemble des scénarios et pas de temps est effectué pour
chacun des indices diffusés avec une tolérance d’écart entre chaque moyenne de
0,4%.
Ce contrôle intervient dans la mesure où les calibrages sont effectués à partir des
prix zéro-coupons : pour le modèle LMM, le calibrage est centré sur les forward issus
de façon directe des prix zéros coupons ; les calibrages sur prix des options
s’effectuent à partir des prix zéro-coupons et niveaux de l’indice action.
Quant au contrôle des prix des options et aux tests de martingalité pratiqués, ils
résultent de moyennes effectuées à partir de prix zéro-coupons.
Il est donc utile de vérifier que le niveau moyen des rendements des différents
indices est cohérent pour chacun d’entre-deux :
En effet, le contrôle de la moyenne des prix zéro-coupons E ( S t × Dt ) = P (0, t )
effectué en i) ne signifie pas pour autant que les rendements sont égaux en
moyenne.
L’écart toléré des niveaux moyens de rendements annualisés des actifs risqués sur
toute la projection est de 0.4 % entre tous les rendements actifs.
123
Figure 5.17 Les moyennes des rendements annualisés des
actifs
L’allure des rendements annualisés montre le caractère centré des valeurs sur la
courbe des taux sans risque (nous sommes en univers risque neutre).
Le graphe montre aussi la très grande volatilité des moyennes des
actions : elle est principalement attribuée au caractère stochastique de la
volatilité des actions puisque l’indice Private Equity présente une
volatilité des rendements moyens moins dispersée (en rouge) que celle
des rendements moyens actions (en violet) malgré une diffusion via un
modèle Black-Scholes de volatilité constante à 50%.
5.1.1.6 Les niveaux de volatilités
La volatilité est un facteur de risque de marché en ALM (Asset Liability
Management). Le contrôle de leur niveau et la compréhension des différentes
valeurs obtenues en fonction des modèles utilisés sont essentiels.
Concernant la volatilité des taux, le calcul de la volatilité des rendements
obligataires à chaque pas de temps (rendements obligataires estimés depuis
l’évolution de la valeur de marché du prix zéro-coupons diffusés entre chaque
instant) montre le respect de la proportionnalité de la volatilité en fonction du
niveau des taux comme le suggère la dynamique du modèle LMM.
124
Figure 5.18 La volatilité des rendements obligataires
Concernant la volatilité des actions, il apparaît trois types de volatilité :
•
La volatilité verticale correspond à l’écart type estimé sur les scénarios à
chaque pas de temps. La signification donnée à cette volatilité est la mesure
de la propension des rendements diffusés à s’écarter de leur moyenne
diffusée ; elle a donc une importance sous une vision ALM.
•
La volatilité horizontale ou encore réalisée des rendements diffusés sur un
horizon donné est estimée par la moyenne sur les scénarios des écart-types
pour chaque scénario des rendements diffusés. La signification à donner à
cette volatilité est à rapprocher de la volatilité historique : elle varie suivant
la fenêtre fixée.
•
La volatilité implicite est celle servant au calibrage des modèles : elle est
estimée de façon indirecte si l’on utilise un modèle type Heston-Merton qui
est en effet calibré sur les prix des options. Elle est déduite des prix des
options par l’inversion de la formule de Black.
125
Figure 5.19 Le concept de volatilités verticales contre volatilité horizontale
Les rendements actions et leur volatilité
t=0
t= horizon fixé
volatilités horizontales sur chaque scénarios
Volatilité horizontale
Scenario 1
Volatilité verticale
Scénarios 5
L’usage d’un modèle simple type Black Scholes qui ne fait intervenir qu’une unique
volatilité dans son modèle (modèle à volatilité constante) a l’avantage de faire
correspondre les notions de ces trois volatilités décrites supra.
En revanche, l’usage d’un modèle à volatilité stochastique induit une différentiation
de ces valeurs :
•
En Risque Neutre, la volatilité verticale est celle à regarder et est supérieure à
celle de marché dans la mesure où le modèle est construit sur une volatilité
de volatilité et que la distribution n’est pas représentée. Le calibrage
s’effectue en effet sur les prix (cf graphe ci-dessous)
•
La volatilité implicite est déduite de façon indirecte sur les modèles et
implique une contradiction entre les lois suivis : le modèle Heston-Merton est
utilisée pour éviter l’hypothèse forte et erronée de la normalité des
rendements actions mais est calibrée sur les volatilités implicites déduites par
inversion de la formule de Black Scholes (qui suppose la normalité des
rendements) sur les prix des options estimés via Monte Carlo.
126
Figure 5.20 Résultats sur un jeu de 1000 scénarios des calculs de la
volatilité horizontale contre celles verticales (univers Risque Neutre)
•
La volatilité horizontale évolue par terme et est utilisée en Monde Réel pour
cibler le comportement de la distribution (méthode pari passu d’un calibrage
sur série historique).
Figure 5.21 Résultats sur un jeu de 1000 scénarios des calculs de la
volatilité (Univers Monde Réel)
127
5.1.1.7 Les corrélations cibles
En Risque Neutre, les corrélations sont traitées par une matrice de corrélations
linéaires (de Pearson) :
De façon systématique, les corrélations cibles correspondent aux corrélations
atteintes à long terme (typiquement 100 ans) : elles ont pour objectif de
représenter celles dont l’horizon d’investissements est adapté avec l’Assurance
Épargne et en cohérence avec un comportement structurelle. Elles ne reflètent donc
pas nécessairement les corrélations actuelles du marché. Les cibles ainsi fixées ne
devraient pas varier de façon significative lors de leur actualisation trimestrielle.
La méthode adoptée d’estimation des corrélations est une « exponentially weighted
moving correlation » EWMC qui permet de davantage prendre en compte les
données récentes de marché tout en assurant leur lissage (cf annexe).
Les corrélations sont estimées depuis l’ « excess » return qui désigne le rendement
supplémentaire par rapport au taux court nominal (log rendements – taux court de
maturité 3 mois) puisque le bruit du modèle action correspond au surplus de
rendement.
Les corrélations cibles sont :
Figure 5.22 Les corrélations ciblées
En annexe figure le détail des hypothèses.
Remarque :
En Monde Réel, les corrélations cibles sont les mêmes que celles déterminés pour
l’univers Risque Neutre, l’analyse ayant été porté sur les données historiques.
Simplement, la modélisation diffère afin de représenter des corrélations dans les
extrêmes entre classes d’actions. Concernant les corrélations entre action et autres
variables, elles sont linéaires entre les facteurs de risque (cf configuration du
modèle action en Monde Réel partie 3.1.3)
Les limites de la représentativité des corrélations :
128
Compte tenu de l’emploi de modèles à fortes composantes stochastiques (modèle
action avec volatilité stochastique et modèle de taux à 2 facteurs), le respect des
cibles des corrélations est difficile. Aussi, le calibrage est effectué suivant le respect
des critères suivant :
•
Les corrélations cibles entre action/taux courts et action/obligation10Y sont
contenues dans l’intervalle défini par les quantiles 25 % et 75 % de la
distribution des corrélations (estimée sur la simulation de 100 000 scénarios
dont 100 échantillons indépendants de 1000 scénarios sont extraits et dont
est calculé pour chacun d’entre deux les corrélations à horizon 30 ans). Le
même critère est associé pour l’immobilier.
Autre point d’attention : les corrélations ne reflètent pas de façon générale celle
dans les extrêmes. Ceci s’avère en plusieurs points :
•
Les corrélations cibles ne sont pas effectuées sur des niveaux représentatifs
des corrélations dans les queues de distribution mais sur comme expliqué
supra d’après une méthode EWMC sur des séries historiques dont la
longueur de la fenêtre est d’au moins 30 années.
•
Les quatre corrélations linéaires entre excess return action/taux court
(nominal et réel) et excess return action/ obligation 10 Y ( OATet OATi) ne
permettent pas de modéliser de façon spécifique la distribution jointe dans
les extrêmes comme pourrait le faire une approche par copules.
•
En Univers Risque Neutre, la modélisation des corrélations entre actions
d’indices distincts ne permet pas une représentativité dans les extrêmes à
contrario de l’univers Monde Réel compte tenu de l’arbitrage entre respect
du prix des options et configuration des modèles de volatilités.
•
Néanmoins, lorsqu’un scénario présente un comportement dans les
extrêmes, le modèle action permet de représenter une évolution dans le
temps spécifique à ces niveaux par le biais de la volatilité stochastique qui
représente les clustering de volatilité : une volatilité élevée est suivie par
une volatilité élevée et vis versa.
•
Par ailleurs, la modélisation en Monde réel permet de représenter une
corrélation dans les extrêmes entre actions par la modélisation d’un facteur
à volatilité stochastique commun. Pour rappel, la modélisation en monde
réel introduit en effet deux types de volatilités : l’une spécifique et l’autre
commune à l’ensemble des économies.
La synthèse des critères à surveiller en univers risque neutre figure en annexe.
129
5.1.2 Etude de la convergence des scénarios économiques
L’étude de la convergence des scénarios économiques est nécessaire : l’objectif est
d’estimer le nombre de scénarios nécessaire par jeu. Elle doit être menée sous deux
prismes afin de faire le lien entre stabilité de la valorisation d’un produit (ici le bilan
économique) et celle du respect des hypothèses de calibrage.
Cette étude repose donc sur deux approches complémentaires : l’une s’affère aux
écarts d’échantillonnage (ou encore appelé « sampling error ») sur « Net Asset
Value », l’autre est purement limité au périmètre lié à la qualité des scénarios.
Cette section développe l’aspect lié à la convergence des scénarios en terme de
martingalité et « market consistency ». L’étude liée à la sensibilité des Fonds
Propres économiques à l’échantillon du jeu de scénarios est rappelée en chapitre 6.
Il apparaît normal de vérifier la qualité des scénarios économiques avant
d’envisager l’étude des écarts d’échantillonnage du bilan économique sur des
scénarios économiques de qualité équivalente (entendre « ayant été validés selon
les critères définis au 3.1.1.1 »).
Les calibrages étant réalisés en amont à partir de jeu de 5000 scénarios, ce nombre
peut donc être considéré comme le nombre limite pour estimer une convergence
suffisante des scénarios. Pour confirmer ce point, il est généré un jeu avec 10 000
scénarios.
Ainsi 2 x quatre nombres de jeux sont étudiés : 500, 1000, 5000 et 10 000
scénarios issus de la même graine d’aléas.
130
Figure 5.23 Résultats de l’étude de la convergence du nombre nécessaire de
scénarios par jeu sur les critères de « market consistency »
Jeu 1 (scénarios issus de la même graine d’aléas) :
Martingalité des indices actions actualisés
avec modèle action Heston-Merton
modèle taux LMM
1,06
1,04
en base 1
1,02
10000 scénarios
5000 scénarios
2000 scénarios
1000 scénarios
500 scénarios
1
0,98
0,96
0,94
0,92
1
17 33 49 65 81 97 113 129 145 161 177 193 209 225 241 257 273 289 305 321 337 353
temps en mois
Jeu 2 (scénarios issus de la même graine d’aléas mais différente du jeu 1) :
Martingalité des indices actions actualisés
avec modèle action Heston-Merton
modèle taux LMM
1,06
1,04
1,02
en base 1
1
10000 scénarios
5000 scénarios
2000 scénarios
1000 scénarios
500 scénarios
0,98
0,96
0,94
0,92
0,9
0,88
1
17 33 49 65 81 97 113 129 145 161 177 193 209 225 241 257 273 289 305 321 337 353
temps en mois
Les résultats des tests de la martingalité des prix actualisés actions révèlent que
jouer 5000 ou 10 000 scénarios donnent des résultats très proches en terme
d’estimation de la qualité de l’absence d’opportunité d’arbitrage du jeu.
Un jeu de 1000 scénarios est plus stable qu’un comprenant 500 scénarios sur le
long de la projection mais présente une différence non négligeable par rapport aux
jeux de 5000 et 10 000 scénarios. En revanche, un jeu de 2000 scénarios
n’apparaît pas suffisant pour améliorer la convergence d’un jeu de 1000 scénarios.
131
Jeu 1 :
volatilités implicites modèle
Call à la monnaie
avec modèle action Heston-Merton
modèle taux LMM
0,34
0,32
0,3
0,28
0,26
0,24
0,22
0,2
0,18
0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
10000 scénarios
5000 scénarios
2000 scénarios
1000 scénarios
500 scénarios
1
17 33 49 65 81 97 113 129 145 161 177 193 209 225 241 257 273 289 305 321 337 353
temps en mois
Jeu 2 :
volatilités implicites modèle
Call à la monnaie
avec modèle action Heston-Merton
modèle taux LMM
0,32
0,3
0,28
0,26
0,24
0,22
0,2
0,18
0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
10000 scénarios
5000 scénarios
2000 scénarios
1000 scénarios
500 scénarios
1
17 33 49 65 81 97 113 129 145 161 177 193 209 225 241 257 273 289 305 321 337 353
temps en mois
132
Jeu 1 :
volatilités implicites modèle
swaptions à la monnaie "tenor" 10 ans
avec modèle action Heston-Merton
modèle taux LMM
0,38
0,36
0,34
0,32
0,3
0,28
0,26
0,24
0,22
0,2
0,18
0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
10000 scénarios
5000 scénarios
2000 scénarios
1000 scénarios
500 scénarios
1
17 33 49 65 81 97 113 129 145 161 177 193 209 225 241 257 273 289 305 321 337 353
temps en mois
Jeu 2 :
volatilités implicites modèle
swaptions à la monnaie "tenor" 10 ans
avec modèle action Heston-Merton
modèle taux LMM
0,4
0,38
0,36
0,34
0,32
0,3
0,28
0,26
0,24
0,22
0,2
0,18
0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
10000 scénarios
5000 scénarios
2000 scénarios
1000 scénarios
500 scénarios
1
17 33 49 65 81 97 113 129 145 161 177 193 209 225 241 257 273 289 305 321 337 353
temps en mois
Concernant la « market consistency » des jeux que ce soit pour les taux (test
réalisé sur swaption de « tenor » 10 ans) ou les actions (test réalisé sur call à la
monnaie), les résultats sont très proches pour les jeux de 5000 et 10 000
scénarios. Le « sampling error » est dans le cas le moins favorable inférieur à 2%.
Cependant, des jeux de 1000 scénarios et 500 scénarios fournissent des résultats
très similaires aux jeux de référence.
Aussi, concernant les critères statistiques de « market consistency », la martingalité
est le critère le plus contraignant.
133
5000 scénarios apparaît être le nombre limite et suffisant pour la stabilité des
résultats statistiques.
Dans une approche opérationnelle notamment dans le cadre de solvabilité 2, un jeu
de 1000 scénarios apparaît souhaitable. Afin de valider la suffisance de ce nombre,
il est important d’estimer la stabilité de la « Net Asset Value » ou encore appelé
Fonds Propres économiques. Cet aspect est rappelé au chapitre 6.
5.2 Validation des scénarios en univers Monde Réel
L’étude de la validation des jeux de scénarios économiques en monde réel n’est pas
terminée. Il est cependant exposé l’avancement des travaux afin de montrer les
exigences différentes d’une approche risque neutre contre une approche monde
réel.
5.2.1 Les densités des rendements actions et produits de taux
L’approche Monde Réel est de représenter au mieux nos propres anticipations :
celles-ci se fondent sur les données représentatives de notre benchmark précisées
dans notre mandat de gestion ou/et sur celles représentatives de notre portefeuille
réel : pour rappel, le calibrage des modèles se base sur les valeurs observées
historiquement en prenant davantage en considération les données les plus
récentes par l’intermédiaire de méthodes adaptées de façon à objectiver le
paramétrage.
Afin de valider les scénarios Monde Réel, les contrôles mis en place consistent à
vérifier la cohérence des niveaux de valeurs diffusés (contrôle des extrema et
moyenne), le comportement de ces valeurs (volatilités, skewness et kurtosis) et à
mesurer de façon qualitative, par graphe, les écarts entre densités diffusées, celles
réalisées dans le passé suivant différentes fenêtres sur un pas de temps mensuel.
5.2.2 Synthèse des critères de validation des jeux de scénarios
économiques en univers monde réel
Voici les critères pour le moment identifié qui doivent être validés :
134
Figure 5.24 Critères de validation des calibrages et jeux
en univers Monde Réel
CRITERES DE VALIDATION DU CALIBRAGE DU JEU DE SCENARIOS ECONOMIQUES GENERES EN UNIVERS MONDE REEL
Etape 1 du processus de calibrage du Modèle Interne
Critères à respecter
Commentaires
Etude à mener
CRITERES DE VALIDATION DU JEU DE SCENARIOS ECONOMIQUES GENERES EN UNIVERS MONDE REEL
Etape 3 du processus de calibrage du Modèle Interne
Critères à respecter
Stabilité des
Nombre de scénarios par jeu
résultats
* NAV" : Net Asset Value" , "VIF" : "Value In Force" ou somme des résultats actualisés
Taux forward 1 an
quantile 99% taux spot 10 ans à fin de projection
Contrôle des
extrema
Contrôle des
hypothèses sur
prime de risque
Courbe de volatilité 1 an à 10 ans
Contrôle de la
volatilité action
Courbe de volatilité 1 an à 10 ans
Contrôle de la
volatilité action
Contrôle de la
volatilité
immobilier
1000
< 50%
< 48%
Rendements cumulés actions avec dividendes
< 1000%
réinvestis estimés à chaque pas de temps
Rendements cumulés immobiliers avec dividendes
< 1000%
réinvestis estimés à chaque pas de temps
Moyennes annualisées des rendements mensuels
différences respectives au taux 1 an de la courbe
action - immobilier - Private Equity - Gestion
alternative - OPCVM monétaire - OPCVM obligataire - des taux diffusée à 10 ans toutes égales à leur
prime de risque associée à 50 bps près
taux nominaux diffusés sur sur scénarios et pas de
temps
Taux générés à t=0
Contrôle du
calibrage de la
courbe des taux***
Contrôle de la
volatilité
immobilier
Commentaires
Courbe de volatilité 1 an à 10 ans
Courbe de volatilité 1 an à 10 ans
écart à la courbe des taux inférieur à 10bps
écart des volatilités verticales**** réalisées 1 an
et 10 ans à celle du calibrage (fixée sur étude : cf
dossier de calibrage fourni ou étude interne) à 1%
près
écart des volatilités horizontales**** réalisées à 1
an puis 10 ans à celle du calibrage (fixée sur
étude : cf dossier de calibrage fourni ou étude
interne) à 1% près
cf étude de la convergence des résultats sur
martingalité et étude sur mouvements "NAV" et "VIF"*
Cap en amont des taux afin de limiter les taux spot
nominaux diffusés
Afin de limiter le nombre de scénarios à caractère
déterministe
Pour éviter des incohérences économiques
Pour éviter des incohérences économiques
Afin d'assurer un contrôle des moyennes des
rendements diffusés : en univers monde réel, les actifs
risqués prennent des hypothèses de rendements
spécifiques à leur niveau de risque
Pour vérifier cohérence calibrage et courbe issue du
jeu : la courbe initiale des taux est un "output" du
modèle Black-Karasinski
Pour vérifier le respect des hypothèses établies
Pour contrôler le respect des hypothèses établies
écart des volatilités verticales**** réalisées 1 an Pour vérifier le respect des hypothèses établies
et 10 ans à celle du calibrage (fixée sur étude : cf
dossier de calibrage fourni ou étude interne) à 1%
près
écart des volatilités horizontales**** réalisées à 1 Pour vérifier le respect des hypothèses établies
an puis 10 ans à celle du calibrage (fixée sur
étude : cf dossier de calibrage fourni ou étude
interne) à 1% près
*Seuil fixé sur la base des calibrages effectués par Barrie+Hibbert et sur la base de l'étude interne de la convergence des volatilités implicites suivant le nombre de scénarios par jeu
**Seuils fixés d'après une étude mesurant l'effet qualité de la martingalité sur l'adossement Actif/Passif et sur une objectivation opérationnelle
***Le modèle Black -Karasinsk i est un "output" du jeu de scénarios
****Volatilité verticale : "standard deviation" sur scénarios
La synthèse des critères à surveiller des jeux de scénarios économiques en univers
monde réel figure en annexe.
135
Conclusion chapitre 5
Après avoir démontré l’utilité du développement d’un modèle interne en
Epargne pour une bonne valorisation des risques de marché, il a été
souligné le rôle central du générateur de scénarios économiques.
Ce chapitre a détaillé les critères de calibrage et de validations des jeux
de scénarios. Ces derniers s’inscrivent pleinement pour un usage modèle
interne sous Solvabilité 2, ORSA, MCEV, autant de contexte d’applications
de valorisations de Fonds Propres économiques, l’univers de valorisation
étant désormais par convention risque neutre.
Cependant, des limites et hypothèses sous-jacentes aux modèles ont été
mises en évidence. Pour une bonne compréhension de l’estimation des
risques valorisés, il est alors important de mettre en œuvre des tests de
sensibilité des Fonds Propres économiques aux différents paramètres,
modèles de diffusion et méthodes retenus. Ainsi, les erreurs de modèles
seront limitées.
136
6 La sensibilité des Fonds Propres économiques aux
scénarios
L’objectif de l’étude de la sensibilité des Fonds Propres économiques aux scénarios
économiques est double :
•
Le premier est lié aux limites exposées lors des analyses menées en chapitre 4
et chapitre 5 qui ont montré les différentes difficultés et hypothèses fortes sousjacentes aux modèles : problématiques d’extrema, de convergence, de
calibrage, et d’hypothèses faites des lois suivis par les différents facteurs de
risque.
•
Le second tient à la compréhension de la sensibilité des Fonds Propres
économiques à l’aléa même (« sampling error » notamment).
Il est dès lors nécessaire dans ce contexte d’étudier les sensibilités des Fonds
Propres économiques aux différents périmètres liés aux paramétrages des scénarios
économiques.
Nous avons étudié pour ce chapitre la sensibilité de la « Net Asset value » (ou
Fonds Propres économiques) sur :
•
La sensibilité à l’échantillon du jeu de scénarios (« sampling error ») : pour deux
jeux de scénarios vérifiant les critères de validation, quelle est la part de
variation des résultats des Fonds Propres économiques ? Cette analyse permet
ainsi de mesurer la stabilité des résultats.
137
6.1 La sensibilité des Fonds Propres économiques à
l’échantillon de jeu
Pour étudier la stabilité des résultats selon le jeu de scénarios utilisé, il est
important de mener une analyse portant sur les fluctuations possibles autour d’une
valeur stable.
Dans le cadre Solvabilité 2, la stabilité des Fonds Propres économiques aux jeux est
importante. C’est l’objet d’étude de cette partie.
Le procédé retenu pour mener l’étude est le suivant :
•
Génération de 5 jeux de 1000 scénarios « market consistent » et de qualité
similaire en terme d’absence d’opportunité d’arbitrage action : c’est cette
dernière qui engendre des désadossements de bilan Actif/Passif qui
impactent donc la valeur des Fonds Propres (ces écarts bilan sont affectés
de façon prudentielle au passif.)
•
Évaluation de la Net Asset Value (ou Fonds Propres) pour chaque jeu.
•
Évaluation des écarts d’adossement Actif/Passif attribués principalement à la
qualité de la martingalité des prix actualisés actions des jeux de scénarios.
•
Évaluation de la Net Asset Value centrale comme moyenne des cinq « Net
Asset Values » estimées précédemment : elle correspond à un bon
estimateur de la valeur « réelle » des Fonds Propres économiques
puisqu’elle est dès lors estimée sur 5000 scénarios (nombre suffisant
d’après l’étude réalisée sur la convergence de scénarios).
•
Évaluation des fluctuations des cinq « NAV » autour de celle calculée sur
5000 scénarios dite centrale.
Nous utilisons un modèle Heston Merton pour générer les rendements actions et un
modèle LMM pour diffuser les taux nominaux. Seule la graine de l’aléa change.
Le critère validant les jeux porte sur la martingalité (ou test d’absence d’opportunité
d’arbitrage action) des prix actualisés actions qui affecte les écarts d’adossement
Actif/Passif. Les autres hypothèses de « market consistency » sont vérifiées.
138
Figure 6.2 Les résultats des tests d’absence d’opportunité d’arbitrage
des jeux étudiés
Test d'absence d'opportunité d'arbitrage
1.06
1.04
1.02
Martingalité prix actualisés
action jeu1
1
Martingalité prix actualisés
action jeu2
0.98
Martingalité prix actualisés
action jeu3
0.96
Martingalité prix actualisés
action jeu4
0.94
Martingalité prix actualisés
action jeu5
0.92
0.9
1
28 55 82 109 136 163 190 217 244 271 298 325 352
Comme décrit en chapitre 5 dans le tableau de synthèse présentant les critères de
validation des jeux de scénarios univers risque neutre, la condition sur le test
d’absence d’opportunité d’arbitrage action est vérifiée : écart à 1 (prix action en
base 1 initialement) autour de 4%.
Ce critère assure bien un désadossement Actif/Passif inférieur à 40 bps par rapport
à la valeur marché de l’actif puisque tous les jeux présentent bien un écart
adossement de bilan inférieur à 31 bps en valeur de marché des actifs.
Par ailleurs, si l’écart à 1 au test d’absence d’opportunité d’arbitrage était de 10% à
horizon 30 ans, l’écart d’adossement en valeur de marché de l’Actif serait de 50 bps.
Le seuil fixé à 4% est optimal car il permet de prendre en considération les
problématiques opérationnelles (valider dans des temps de calculs raisonnables les
jeux). Un modèle action Heston Merton est utilisé : par expérience, les jeux diffusés
avec un modèle Black-Scholes de « qualité martingale » égale sont plus difficiles à
obtenir.
Les résultats des fluctuations des Fonds Propres économiques sont les suivants :
139
Figure 6.3 Les résultats des sensibilités des Fonds Propres à l’échantillon
des jeux
Jeu 1
jeu 2
Jeu 3
Jeu 4
Jeu 5
Ecart relatif à la "NAV" centrale
-0.01%
-0.36%
0.03%
-0.92%
1.26%
Ecart relatif à la "PVFP" centrale
0.18%
-1.09%
0.17%
-3.59%
4.34%
Les jeux 4 et 5 sont ceux qui présentent un écart par rapport à la NAV centrale
proche ou supérieur à 1% : la qualité de la martingalité contribue à cet écart mais
ne l’explique pas totalement puisque le jeu 2 présente un test d’absence
d’opportunité d’arbitrage meilleur (ou du moins tout aussi bon) que le jeu 1 alors
que son écart à la NAV centrale est plus élevé que celui du jeu 1. Une partie de la
fluctuation est due au « sampling error », autrement dit à l’échantillon sélectionné.
La fluctuation d’une « NAV » d’un jeu de 1000 scénarios due à « l’erreur »
d’échantillon fluctue dans l’intervalle [0 % ; 0,40 %] par rapport à un bon
estimateur de la NAV.
La même analyse peut être menée sur les PVFP qui représentent la valeur actuelle
des Profits Futurs (Present Value of Future Profits) : l’écart est plus important car ce
poste du passif est de taille plus fine que la « NAV » ; par ailleurs, sa sensibilité au
performance de l’actif est élevée.
La fluctuation d’une « PVFP» d’un jeu de 1000 scénarios due à « l’erreur »
d’échantillon fluctue dans l’intervalle [0 % ; 2 %] par rapport à un bon estimateur
de la PVFP (en attribuant la moitié à la qualité de la martingalité des prix actualisés
des actions).
Nous pouvons donc en déduire que les critères d’absence d’opportunité
d’arbitrage imposés assurent une stabilité élevée des résultats.
6.2 Les sensibilités des Fonds Propres économiques
à mener
D’autres sensibilités sont à mener. On peut notamment citer quelques-unes qui
seront menées prochainement :
•
La sensibilité aux modèles retenus afin d’en déduire une comparabilité des
résultats suivant les hypothèses sélectionnées :
Figure 6.4 La « NAV » suivant la sélection des modèles
Sensibilité des Fonds Propres aux modèles
Action\Taux
LMM
Black-Karasinski
Black-Scholes
p
p'
Heston-Merton
p''
p'''
140
•
La sensibilité au choix de calibrage du modèle action : y-a-t-il un réel intérêt à
représenter une nappe de volatilité sensée modéliser les options cachées plutôt
que d’être calibré uniquement sur un point de volatilité implicite à la monnaie?
•
La sensibilité à la méthode d’interpolation de la courbe des taux initiale,
méthode qui assure le passage du pas de temps annuel à celui mensuel.
•
La sensibilité au seuil maximal fixé des taux : y-a-t-il un impact sur résultats lors
de la mise en place d’un seuil maximal des taux à 20% contre 50% ?
Remarque :
Une étude de la sensibilité des Fonds Propres économiques ou « Net asset Value »
a été réalisée au niveau de la courbe des taux : cette analyse a servi en chapitre 3
pour illustrer la non linéarité des Fonds Propres économiques au facteur de risque
niveau de la courbe des taux afin de justifier le développement d’un modèle interne
pour une bonne représentativité des risques sous Solvabilité 2.
Conclusion Chapitre 6
La conclusion du chapitre 6 se fera sous forme d’une discussion quant à
l’intérêt d’uniformiser les jeux de scénarios.
En Epargne, la méthode Formule Standard nécessite des hypothèses
fortes sur les facteurs de risque de marché qui ne sont souvent pas
vérifiées.
L’ensemble des analyses menées tout au long de ce mémoire montre le
rôle central des hypothèses retenues pour calibrer les modèles de
diffusion dans l’évaluation des Fonds Propres économiques ; elles
impactent de fait le niveau du SCR final notamment en Epargne où le
risque de marché est dominant.
Dès lors, puisque la méthode Formule Standard sous Solvabilité 2 a pour
objet d’uniformiser les hypothèses de calibrage afin de faciliter les
comparabilités de résultats entre assureurs européens, l’intérêt de livrer
des jeux de scénarios par indice sous l’égide de l’organisme EIOPA
semble apparaître en cohérence avec cette volonté d’harmoniser les
hypothèses retenues par chacun des acteurs. Serait-ce donc à envisager ?
En revanche, dans un cadre ORSA ou Modèle Interne, il apparaît clair que
développer ses calibrages en interne est nécessaire pour estimer au
mieux les risques selon les vues de l’entreprise et ses propres
compréhensions données aux calibrages.
Ces deux approches duales peuvent permettre de davantage structurer
l’évaluation du capital réglementaire de risque requis, qui représentera en
2013 un coût en capital non négligeable pour les assureurs.
141
Conclusion
La réforme Solvabilité 2 normalise les Fonds Propres économiques du bilan
prudentiel : elle impose aux assureurs dès 2014 des capitaux de risque estimés
d’après leurs activités développées et les politiques d’investissements spécifiques à
chaque société d’Assurances.
Les risques de marché sont prédominants en Epargne où il s’avère que la
complexité des interactions Actif/Passif motive le développement d’un modèle
interne pour estimer le capital réglementaire requis sous Solvabilité 2. Il apparaît en
effet des limites à la valorisation des capitaux de risque de marché au travers de la
méthode Formule Standard : celle-ci se justifiant sur les hypothèses fortes de
facteurs de risque gaussiens et d’une linéarité des Fonds Propres économiques aux
facteurs de risque de marché.
Dès lors, l’analyse du processus conduisant à la valorisation des Fonds Propres
économiques montre le rôle central du générateur de scénarios économiques, tant
sur la sélection des modèles de diffusion que sur les hypothèses de calibrage
retenues.
Il est donc nécessaire de structurer les étapes menant au calibrage du modèle
interne, de définir le périmètre des enjeux qui s’imposent au calibrage, d’analyser
les modèles sélectionnés, légitimer et valider les calibrages et jeux de scénarios
d’après des critères clairement établis ; la martingalité des prix actualisés et la
justification du niveau des volatilités implicites sont requises en univers Risque
Neutre. Il s’agit aussi de définir précisément les limites des hypothèses sousjacentes aux modèles.
Pour cela, il apparaît important de mener des études de sensibilité des Fonds
Propres économiques aux différents facteurs liés aux paramétrages afin de limiter
les risques de modèles, risques qui existent d’autant plus dans un univers de crise
où les trajectoires sont difficilement prédictibles. Les tests effectués montrent en
effet une stabilité des Fonds Propres économiques aux jeux de scénarios et un bon
adossement Actif/Passif que sous le respect de critères normatifs.
En conclusion, l’analyse menée tout au long de ce mémoire montre les enjeux des
calibrages liés aux risques de marché dans le cadre Solvabilité 2 et souligne qu’une
maîtrise conjointe des modèles actuariels « ALM » et modèles stochastiques sont
désormais des exigences nouvelles et cruciales à l’orée de la mise en place de la
réforme Solvabilité 2.
142
ANNEXE
Subprime
Un Subprime est un crédit à risque accordé à un client qui ne présente pas toutes les
garanties nécessaires pour bénéficier des taux d’intérêts préférentiels. Aux Etats Unis,
il s’agit d’un crédit hypothécaire dont le logement de l’emprunteur est pris en
garantie en cas de défaut de paiement.
Or, les taux d’intérêt extrêmement bas pratiqués pendant des années par la Banque
centrale des Etats-Unis à partir de 2001 après la crise de la bulle Internet ont favorisé
l’endettement des ménages : en prêtant à taux bas et en permettant de recourir à
des crédits rechargeables (la hausse de la valeur du bien autorisait l’emprunteur à se
ré endetter du montant de la progression de la valeur de son patrimoine),
l’augmentation du taux directeur de la FED (1% en 2004 à plus de 5% en 2006) a eu
pour conséquence directe de pénaliser les emprunteurs : en effet, ces derniers ont
souvent emprunté à taux variable indexé sur le taux directeur de la FED. Or, la
défaillance de l’emprunteur se solde par une hypothèque sur le logement acheté.
Seulement, les prix de l’immobilier baissant, la vente du bien hypothéqué ne suffit
pas à compenser la défaillance de l’emprunteur. Ainsi, la valeur des habitations est
devenue inférieure à la valeur des crédits qu’elles étaient supposées garantir. L’afflux
des reventes des maisons hypothéquées a accéléré la baisse des prix de l’immobilier.
Dès lors, il y a eu un taux de non remboursement sur les crédits « subprime » qui
dépassait 15% à l’été 2007 et près de un million d’américains ont perdu à cette
époque leur logement.
Le phénomène déclencheur de la crise est le recours à la titrisation : la titrisation
consiste à transformer des crédits distribués par une banque en titres de créances
(obligations) qu’un investisseur peut acheter et vendre à tout moment. Les banques
émettrices des crédits créent des sociétés intermédiaires dans lesquelles ces crédits
constituent les actifs et qui émettent en contrepartie des obligations qui constituent
le passif. Les intérêts et les remboursements des crédits servent au paiement des
intérêts des obligations émises et à leur remboursement. Les avantages principaux
pour les banques de recourir à la titrisation est de partager les risques et de
permettre de favoriser la liquidité.
Ces avantages ont engendré des abus, abus qui ont considérablement amplifiés la
crise : les banques qui émettent des titres sont moins regardantes sur la qualité des
emprunteurs, puisque le risque qu’elles supportent est modéré : c’est l’aléa moral.
Cependant, la régulation des activités bancaires et d’assurance s’efforce d’empêcher
de tels mécanismes.
L’autre raison de l’amplification de la crise est l’opacité de la titrisation : la
démultiplication de ces titres et les différentes combinaisons opérées ont conduits à
rendre difficile l’identification des types de titres détenus par les investisseurs : ainsi,
par exemple, BNP Paribas déclarait dans un premier temps ne pas détenir de titres
toxiques mais le groupe est revenu sur sa déclaration suite à la découverte de la
détention de ces types de titres au sein de son portefeuille.
Autre facteur supplémentaire, les investisseurs qui ont acheté les obligations n’ont
pas tous acheté en payant comptant, mais en s’endettant à leur tour pour bénéficier
de l’effet de levier (mesure de gain espéré d’une opération financière par rapport à
l’investisseur de base) d’un endettement à bas taux d’intérêt.
Ces investisseurs, banques et hedge funds notamment ont opéré en quelque sorte
une titrisation au second degré en créant de nouveaux véhicules (« conduits ») dont
l’actif a été constitué par des obligations des véhicules de premier niveau et dont le
143
passif a été constitué par du papier commercial à court terme (appelés « Asset
Backed Commercial Paper » ou ABCP). Il en a été émis plus de 1000 milliards de $.
Il s’agit d’un mécanisme de « transformation bancaire » consistant à utiliser des
ressources à court terme pour effectuer des prêts à long terme.
Le contrôle des banques et notamment les règles de constitution d’un capital
prudentiel en fonction des crédits distribués visent à protéger les épargnants et
l’économie contre les risques liés à la transformation et à prévenir les paniques.
Cependant, la transformation s’effectuait sur le marché et non dans les banques. Ces
véhicules étaient contrôlés par leur créateur sans lui appartenir techniquement.
Comme les autres véhicules de titrisation, ils étaient en principe hors bilan. Du coup,
les règles communes du contrôle prudentiel bancaire ne leur sont pas appliquées.
QE ou création monétaire
Le quantitative easing ou création monétaire est une mesure consistant au rachat de
bons du Trésor à long terme par la banque. Le taux directeur fixé par la banque
centrale détermine la politique monétaire à court terme puisqu’il représente le taux
d’intérêt inter-bancaire: une lutte contre l’inflation ou contre une surchauffe de
l’économie se fera par une augmentation du taux directeur (les taux de crédit des
banques commerciales s’indexant sur cette évolution) favorisant l’épargne.
Inversement, pour relancer une économie, il suffira d’abaisser le taux directeur. Or,
lorsque les taux directeurs sont nuls (ce qui est le cas en Europe et aux USA) et que
parallèlement l’économie continue de s’essouffler, une mesure pour reprendre le
contrôle de la politique monétaire est alors la création de monnaie par l’achat de
titres à long terme (bons du Trésor, MBS) au secteur bancaire privé : cette opération
d’achat est financée par un crédit des banques commerciales à la banque centrale :
ainsi, la banque centrale accroît son bilan par une augmentation de son actif
représentée par ces bons du trésor et celle de son passif par les réserves
(accroissement de la monnaie). En retour, les banques commerciales reçoivent ainsi
une augmentation de liquidité via les avoirs nouvellement acquis et une réduction
équivalente de ses bons du trésor.
Ainsi deux effets du QE sont à rapporter eu égard les objectifs visés : un
accroissement de la liquidité sur le marché (relancement espéré de la consommation)
via les investissements des banques commerciales et une baisse des taux longs
permettant aux ménages d’emprunter plus facilement sur le long terme.
La baisse des taux longs s’expliquent par l’effet mécanique de l’offre et la demande :
en achetant des bons du trésor à long terme sur le marché secondaire, la banque
centrale contribue à l’augmentation de la valeur des ces bons et donc à une baisse du
rendement actuariel des obligations qui seront émises (valorisation sur marché
primaire).
Last Square Monte Carlo (méthode pour modèle interne)
Le Last Square Monte Carlo est un dérivé mixte de la méthode SdS et du replicating
portfolio pour estimer les fonds Propres économiques.
Son approche est d’estimer la fonction « liability » soit le best estimate des
engagements envers l’assuré par une régression polynomiale sur les valeurs actuelles
du passif à horizon un an : pour chaque point issu du scénario monde réel à horizon
un an, la moyenne sur cinq à dix scénarios secondaires (nombre suffisant) recalibrés
initialement sur le scénario monde réel donne une valeur actuelle moyenne du passif.
Les paramètres de la fonction polynomiale sont alors déduits pour « fitter » au mieux
ces points sur l’ensemble des scénarios primaires (monde réel).
144
L’avantage de cette méthode est de pouvoir estimer une fonction du passif apte à
refléter la sensibilité du passif aux facteurs de risque : il suffit en effet de procéder
aux chocs de ces derniers, de diffuser les scénarios mondes réels accordés sur ces
chocs, et de paramétrer/ajouter des paramètres pour que la fonction polynomiale
régresse au mieux les valeurs actuelles déduites des moyennes sur scénarios
secondaires en chacun des points des scénarios primaires.
Par ailleurs, outre la possibilité de créer une fonction du passif qui reflète la sensibilité
aux chocs (rendue possible par l’ajout autant que nécessaire de paramètres), elle
possède la propriété de converger (fonction polynomiale) et permet de
considérablement réduire les temps de calculs (atout opérationnel à ne pas négliger
en regard au SdS).
Schéma général du LSMC :
Valeurs Actuelles du passif (prestations par exemple)
.
.
.
.
.
.
.
.
.
.
Scénarios primaires
calibrés en monde réel
Scénarios calibrés market consistent en chaque point des scénarios primaires
Scénarios primaires monde réel avec facteur de risque choqué
(volatilité action/prime de risque) par exemple
Scénarios primaires monde réel central
. Points d'interpolation de la fonction polynomiale
145
Replicating Portfolio (méthode pour modèle interne)
Le replicating portfolio est proche de la méthode du Last Square Monte Carlo à la
différence que la régression de la fonction représentative du passif (des prestations
par exemple) se fait sur les flux et non sur les valeurs actuelles. Une telle méthode
présente des problèmes de convergence et la robustesse à la sensibilité des chocs sur
facteurs de risque n’est pas évidente.
Call européen
Un call européen est une option qui permet à l’acheteur de se protéger contre une
hausse du sous-jacent : l’achat du call à un strike K permet au détenteur à une date
donnée t et uniquement à cette date précise (la maturité de l’option) de recevoir la
différence entre le sous jacent St et le strike K si cette différence est positive. Sinon, il
ne perçoit rien.
A la monnaie signifie que le strike est égal au sous jacent.
Strike Forward à la monnaie : strike revalorisé au taux spot de la courbe initiale des
taux nominaux de maturité égale à la date d’exercice de l’option
« Exponential Weighted Moving Average » ou « EWMA »
S1 = Y1
S t = (1 − α )Yt −1 + αS t −1
2
où α =
avec N le nombre de périodes.
N +1
Swap de taux d’intérêt
Un swap de taux est un contrat qui consiste en l’échange de deux types de
paiements sur une période fixée prenant forme sous deux échéanciers de flux : l’un
variable, l’autre fixe déterminé contractuellement.
L’acheteur d’un swap de taux débutant à une date Tα recevra un taux fixe K x Гj à
chaque date Tj de l’intervalle {Tα+1 ,…,Tβ} où Гj correspond à la fraction d’année des
longueurs des intervalles de temps [Tj-1,Tj] ; l’acheteur devra en échange verser aux
mêmes dates le taux variable Fwd t (Ti −1 , Ti ) de maturité Tj issu de la courbe des taux
spots prévalant en Tj-1. Cela revient à percevoir la différence entre le taux fixe et le
taux variable.
Ainsi, le payoff actualisé en t< Tα d’un acheteur de swap est
β
D(t , T ) × Γ × ( Fwd (T
∑
α
i
i = +1
i
t
i −1
, Ti ) − K )
La valeur du contrat associée en t est donnée par :
β
E ( ∑ D(t , Ti ) × Γi × ( Fwd t (Ti −1 , Ti ) − K ))
i =α +1
conduisant en risque neutre à :
D(t , Tα ) ×
β
∑ P(Tα ,T ) × Γ × ( Fwd (Tα ) − K )
i =α +1
i
i
i
146
avec Γi × Fwd i (Tα ) =
P (Tα , Ti −1 )
−1
P (Tα , Ti )
Forward Swap de taux d’intérêt
Un Forward Swap de taux d’intérêt correspond à un contrat de swap de taux d’intérêt
dans le cas particulier où le taux fixe K est déterminé de façon à rendre le contrat
équitable à la date de valorisation pour l’acheteur et le vendeur du contrat de swap.
Cela se traduit donc par la nullité de la valeur actuelle du pay-off des taux échangés.
En reprenant les notations figurant dans la définition du swap de taux d’intérêt, le
taux forward swap vaut :
Sα ,β (t ) =
P (t , Tα ) − P (t , Tβ )
β
∑ P(Tα , T ) × Γ
i =α +1
i
i
Swaption
Une Swaption est une option de swap, c’est-à-dire un contrat qui permet d’acquérir le
droit et non l’obligation de procéder à une date donnée (la maturité de l’option) à un
swap de taux d’intérêt dont les caractéristiques ont été fixées à la date de
négociation de l’option. La particularité de cette option est que le sous-jacent est un
swap forward qui donc fixe les conditions du déclenchement de l’option à une date
donnée et ce, sur toute la durée de vie de l’option, contrairement à un cap où celui-ci
est une somme de caplets dont les flux perçus sont conditionnés à chaque date de
révision. Si l’option se déclenche, sa durée correspond souvent à la maturité du sousjacent (le « tenor »).
Pour formaliser l’intérêt d’une telle option, il suffit d’analyser les conditions du
déclenchement d’une swaption payeuse à la monnaie (strike = Sα ,β (0) l’instant nul
correspondant à la date d’achat de l’option) : si à la date de maturité Tα, le swap
forward de taux d’intérêt Sα ,β (Tα ) est supérieur au strike Sα ,β (0) , alors l’acheteur
de l’option payeuse percevra Sα ,β (Tα ) − Sα ,β (0) ; dans le cas contraire, il ne reçoit
aucun flux.
Le payoff actualisé en t=0 de l’option payeuse à la monnaie (strike = Sα, β(0)), de
date de maturité Tα et de durée de vie si déclenchée (tenor ou encore maturité du
sous-jacent swap forward souvent par convention) est
D(0, Tα ) × ( Sα ,β (Tα ) − K ) +
β
∑ P(Tα , T ) × Γ
i =α +1
i
i
Prix –Zéro Coupon
Il s’agit du prix d’une obligation qui couponne une unique fois au moment de son
remboursement :
Pour un titre de maturité T à l’instant t, pour un remboursement unitaire, son prix est
donné par PZC (t , T ) =
1
(1 + taux(t , T )) T −t
147
Provision pour risque d’exigibilité (PRE)
La PRE (Provision pour Risque d’Exigibilité) correspond à la provision destinée à faire
face aux engagements dans le cas de moins-value de l'ensemble des actifs R. 33220.
Une provision globale pour risque d'exigibilité doit être constituée dès lors que le total
des valeurs comptables nettes des actifs concernés devient supérieur au total de
leurs valeurs de réalisation.
De façon schématique, dans le cas d’une moins value latente, la PRE en fin d’exercice
correspond à celle en début d’exercice augmentée du tiers (ou de 1/duration du
passif) de la moins value latente de l’ensemble des actifs classés R-332-20 (nous
dotons donc à la PRE), sans que le montant de la PRE totale ne puisse excéder le
total de cette moins values latente. Deux autres situations peuvent se présenter :
- si ce montant dépasse la moins value latente, alors la PRE se limite au total de cette
moins value latente.
- si, en fin d’exercice une plus value des actifs classés R332-20 est constatée, alors la
PRE est nulle et la reprise de PRE correspond dans ce cas présent au montant de la
PRE de début d’exercice.
Il s’agit donc d’une option « cachée » du passif qui impacte les produits financiers.
Les corrélations cibles
Les données utilisées sont :
Indice action : FTSE All-World depuis 1971 si fréquence mensuelle, autre indice
depuis 1900 si fréquence annuelle puisque conditionné par la limite des données
disponibles.
Indice Bond : FT Benchmark Gov. Bonds de maturité 10 ans depuis 1971 si
fréquence mensuelle, autre indice depuis 1900 si fréquence annuelle puisque
conditionné par la limite des données disponibles.
Taux court réel : taux court nominaux diminué du taux d’inflation estimé à partir de
l’indice CPI.
Le paramètre poids de la technique EWMC est choisi de façon à refléter une
moyenne sur une fenêtre de 25 années. Ainsi, cette technique permet d’être en
cohérence avec une approche d’estimation de corrélations sur le long terme.
Estimation des corrélations cibles entre variation de taux courts nominaux (maturité
3 mois) et le surplus de rendements actions sur taux courts nominaux (excess log
return) :
L’EWMC est initialisée sur la moyenne des corrélations entre « excess return » de
l’indice action sur une fréquence mensuelle de 1959 à nos jours.
148
Estimation des corrélations cibles entre variation de surplus de rendements
d’obligations souveraines de maturité 10 ans et le surplus de rendements actions
sur taux courts nominaux (excess log return) :
L’EWMC est initialisée sur la médiane des corrélations entre excess return de l’indice
action et excess return de l’obligation souveraine sur une fréquence annuelle :
l’EWMC est effectuée ensuite sur une base mensuelle de 1900 à nos jours.
Estimation des corrélations cibles entre variation de taux courts réels (maturité 3
mois) et le surplus de rendements actions sur taux courts nominaux (excess log
return) :
L’EWMC est initialisée sur la moyenne des corrélations entre excess return de
l’indice action sur une fréquence mensuelle de 1959 à nos jours. Les données
représentatives du taux court réel sont constituées des taux court nominaux des
économies considérées privés du taux d’inflation réalisé. L’actualisation se fait sur
une base annuelle (estimation de la dernière corrélation sur 12 valeurs en
conséquence).
L’analyse des différentes valeurs pour chacune des économies conduit au choix de
la corrélation mutuelle à ces économies dans la modélisation : autour de -2%.
La corrélation est négative : on pourrait s’attendre à une corrélation positive entre
la baisse des taux réels et celle des excess return action dans la mesure où la chute
des taux réels trouve souvent sa cause dans une récession économique. Cependant,
les variations de taux nominaux étant corrélées négativement (pour raison
structurelle et dû aux dividendes actions assurant un revenu supérieur au taux
nominaux), si le cycle économique dessine une baisse des taux nominaux
accompagnée de celle des taux réels expliquée par une chute de l’inflation, alors la
corrélation sera bien négative.
Concernant les corrélations cibles avec l’immobilier, cette classe d’actif étant peu
liquides, les données disponibles sont faibles. Les estimations des corrélations sont
faites sur la base des Investment Property Databank depuis 1981 et sujettes à des
méthodes de lissage.
149
Synthèse des critères à surveiller pour des jeux risque neutre
CRITERES A SURVEILLER : REPORTING
Etape 10 du processus de calibrage du Modèle Interne
Commentaires
Critères à surveiller
Moyennes annualisées des rendements mensuels action - Permet une vision ALM des valeurs diffusées
immobilier - Private Equity - Gestion alternative - OPCVM
monétaire - OPCVM obligataire - taux nominaux diffusés
sur sur scénarios et pas de temps
Graphe des moyennes annualisées des rendements
Permet une vision ALM des valeurs diffusées
mensuels action - immobilier - Private Equity - Gestion
alternative - OPCVM monétaire - OPCVM obligataires sur
scénarios à chaque pas de temps
Graphe des moyennes annualisées des dividendes
Permet une vision ALM des valeurs diffusées
mensuels action et immobilier et inflations sur scénarios à
chaque pas de temps
Graphe des faisceaux des cours actions à chaque pas de Permet une vision SCR des valeurs diffusées (notamment quantiles à un an)
temps avec dividendes réinvestis avec quantile 99%,
99,5%, 0,5% et 1%
Contrôle des
statistiques
générales
Graphe des volatilités verticales* réalisées (annualisées)
des rendements mensuels actions, immobilier, autres
actifs risqués et taux 10 ans à chaque pas de temps
Permet de faciliter l'interprétation des résultats ALM issus des valeurs
diffusées dont le calibrage risque neutre n'est pas effectué sur la
représentation de ces grandeurs
Graphe des extrema, moyenne et quantile à 99,5% et
0,5% des taux 1 an et taux 10 ans à chaque pas de
temps
Permet une vision SCR des valeurs diffusées (notamment quantiles à un an)
Graphe des extrema, moyenne et quantile à 99,5% et
0,5% des rendements mensuels annualisés des actions,
immobilier à chaque pas de temps
Graphe de l'évolution de la moyenne des prix zéro
coupons par maturité diffusés sur l'ensemble de la
projection en Risque Neutre
Permet une vision SCR des valeurs diffusées (notamment quantiles à un an)
Tracé des volatilités horizontales** et verticales
(annualisées) sur toute la longueur de la projection avec
celles des volatilités implicites de calibrage
Permet de faciliter l'interprétation des résultats ALM
Aucune discontinuité significative ne devrait être observée
Estimation de la volatilité horizontale** sur fenêtre
Permet de faciliter l'interprétation des résultats ALM : vision monde réel
longueur 1an puis 10 ans des taux nominaux 1 an puis 10
ans diffusés depuis l'origine
Estimation de la volatilité verticale* (annualisée) à 1an
puis à 10 ans des rendements mensuels actions
Permet de faciliter l'interprétation des résultats ALM
Estimation de la volatilité verticale* (annualisée) à 1an
puis à 10 ans des taux 10 ans et 1 an
Permet de faciliter l'interprétation des résultats ALM
Visualisation de la courbe des taux et du rendement
Permet de visualiser le scénario sur lequel est calibré le SCR
action cumulé à 1 an associé au quantile 0,5% de la
distribution de la NAV.
*Volatilité verticale : "standard deviation" sur scénarios
**Volatilité horizontale : "standard deviation" sur le temps pour un même scénario
Graphe de la martingalité des prix actualisés actions,
immobilier, Private Equity, Gestion alternative, OPCVM
monétaire, OPCVM obligataire
Contrôle de
l'absence
d'opportunité
d'arbitrage
Graphe de la martingalité des prix zéro coupons
actualisés déduits des taux spots nominaux diffusés
Graphe de la martingalité du "cash rollup"
Graphe de la martingalité de l'inflation actualisée
Contrôle de la
"market
consistency"
Graphe des prix Call du modèle et intervalle de confiance
empirique associé et prix de marché de sous jacent
Graphe des volatilités implicites swaptions "tenor" 10 ans
à chaque pas de temps (donc de toute maturité) et
150
Synthèse des critères à surveiller pour des jeux univers monde réel
Voici les critères pour le moment identifiés qui doivent être pris en compte dans
l’analyse des études ALM :
CRITERES A SURVEILLER : REPORTING
Etape 10 du processus de calibrage du Modèle Interne
Commentaires
Critères à surveiller
Moyennes annualisées des rendements mensuels
Permet une vision ALM des valeurs diffusées
action - immobilier - Private Equity - Gestion
alternative - OPCVM monétaire - OPCVM obligataire taux nominaux diffusés sur sur scénarios et pas de
temps
Graphe des moyennes annualisées des rendements Permet une vision ALM des valeurs diffusées
mensuels action - immobilier - Private Equity Gestion alternative - OPCVM monétaire - OPCVM
obligataires sur scénarios à chaque pas de temps
Contrôle des
statistiques
générales
Graphe des moyennes annualisées des dividendes
mensuels action et immobilier et inflations sur
scénarios à chaque pas de temps
Permet une vision ALM des valeurs diffusées
Graphe des faisceaux des rendements cumulés
actions à chaque pas de temps avec dividendes
réinvestis avec quantile 99%, 99,5%, 0,5% et 1%
Permet une vision SCR des valeurs diffusées
(notamment quantiles à un an)
Graphe des volatilités verticales* réalisées
(annualisées) des rendements mensuels actions,
immobilier et taux 10 ans à chaque pas de temps
Permet de faciliter l'interprétation des résultats
ALM issus des valeurs diffusées dont le calibrage
risque neutre n'est pas effectué sur la
représentation de ces grandeurs
Graphe des extrema, moyenne et quantile à 99,5%
et 0,5% des rendements mensuels annualisés des
actions, immobilier et taux 10 ans à chaque pas de
temps
Permet une vision SCR des valeurs diffusées
(notamment quantiles à un an)
Graphe des extrema, moyenne et quantile à 99,5%
et 0,5% des taux 1 an et taux 10 ans à chaque pas
de temps
Estimation de la volatilité horizontale** sur fenêtre
longueur 10 ans de la volatilité glissante fréquence
mensuelle de fenêtre 1 an des rendements annuels
actions
Permet une vision SCR des valeurs diffusées
(notamment quantiles à un an)
Permet de faciliter l'interprétation des résultats
ALM : vision monde réel
Estimation de la volatilité horizontale** (annualisée)
sur fenêtre longueur 1an puis 10 ans des
rendements mensuels actions diffusés depuis
l'origine
Permet de faciliter l'interprétation des résultats
ALM : vision monde réel
Estimation de la volatilité horizontale** sur fenêtre
longueur 1an puis 10 ans des taux nominaux 1 an
puis 10 ans diffusés depuis l'origine
Permet de faciliter l'interprétation des résultats
ALM : vision monde réel
Estimation de la volatilité verticale* (annualisée) à
Permet de faciliter l'interprétation des résultats
1an puis à 10 ans des rendements mensuels actions ALM
Estimation de la volatilité verticale* (annualisée) à
1an puis à 10 ans des taux 10 ans et 1 an
Permet de faciliter l'interprétation des résultats
ALM
Estimation des skewness des rendements mensuels Permet de se représenter l'assymétrie de la
Estimation du kurtosis des rendements mensuels
Permet de se représenter l'aplatissement de la
actions à 1 an puis 10 ans****
distribution
*Volatilité verticale : "standard deviation" sur scénarios
**Volatilité horizontale : "standard deviation" sur le temps pour un même scénario
****Bien que le sk ewness et k urtosis soient des cibles du calibrage, ils ne sont pas des critères de rejet, le respect de l'ordre
1 et 2 des rendements étant considérés pour le moment comme suffisants
151
Bibliographie :
Documents internes
Spécifications fonctionnelles détaillées du modèle Epargne Natixis Assurances
Documents du CEIOPS (nouvellement EIOPA)
Spécifications techniques : Quantitative Impact Specifications 5
Consultation Papers 65, 69, 70.
http://ec.europa.eu/internal_market/insurance/Solvabilité/background_fr.htm
Articles spécialisés/documents de recherche
John HIBBERT (décembre 1998) document Barrie & Hibbert : “ A calibration of a 2
Factor Vasicek Model to Real & Nominal Term Structures”
David ROSEBURGH et Steven MORRISON (avril 2007) document Barrie & Hibbert :
“Approximating interest rate distribution in the 2 FBK Model”
Steven MORRISON (janvier 2007) document Barrie & Hibbert : “Implementation of
the extended 2 FBK Model”
Steven MORRISON, David REDFERN et David ANTONIO (juin 2009) document Barrie
& Hibbert : “Libor Market Model Market Consistent Calibration Methodology”
Ruosha LI (juin 2009) document Barrie+Hibbert : “Real-world key correlations : the
unconditional correlation between real short rate changes and equity excess return”
Graeme LAWSON (novembre 2008) document Barrie+Hibbert : “Stochastic Volatility
Jump Diffusion Calibration, Dynamics & Implementation”
Laurent DEVINEAU et Stéphane LOISEL Devineau-Loisel-RiskAggr-300720091.pdf :
« Risk Aggregation in Solvency II: how to converge the approaches of the internal
models and those of the standard formula ?”
Laurent DEVINEAU et Matthieu CHAUVIGNY (4 Août 2010) : « Replicating Portfolios :
techniques de calibrage pour le calcul du capital économique Solvabilité II »
Adam KOURSARIS (2010) Paris ERM conference organisée par Barrie & Hibbert :
“Nested Stochastic Simulation for Capital Calculation”
http://actudactuaires.typepad.com/laboratoire/2010/01/cp-70-caibrage-du-risque-despread.html
Damiano BRIGO et Fabio MERCURIO Springer Finance : “Interest Rate Models –
Theory and Practice”
152
Don H KIM: “The bond market term premium: what is it, and how can we measure
it?”
Articles de journaux et sites internet
Les ECHOS (12/11/2010) “La tourmente européenne en huit questions”
(lecercle.lesechos.fr/enterprises-secteurs/finance-marches/dossier/0201507109132la-tourmente-europeene-en-huit-questions-clefs-193634.php)
Les ECHOS (12/11/2010) “Quantitative Easing (2): Desperate measures for desperate
times?”(lecercle.lesechos.fr/node/31838)
http://blog.lefigaro.fr/economie/2011/08/la-dette-americaine-depasse-les-100-deson-pib.html
153
Téléchargement