Portefeuilles répliquant et calcul du capital économique en assurance vie: nouvelles approches de calibration TOUKOUROU Ademola Tuteur en entreprise: VISCUSO Jeremie Tuteur Pédagogique ISFA: Bienvenüe Alexis ISFA, Mars 2013 Résumé Dans le cadre de la mise en oeuvre sous Solvabilité 2 d’un modèle interne, les assureurs vie sont très souvent limités dans le choix d’une méthode efficace d’obtention de la distribution des fonds propres économiques à 1 an. En effet la méthode des simulations dans les simulations s’avère couteuse en temps de calcul et ne constitue pas une solution pérenne dans le cadre d’un processus de calcul trimestriel du SCR de marché. Le recours à des proxy pour l’évaluation des passifs est donc indispensable. Parmi les alternatives possibles au SdS classique, la méthode des replicating portfolio s’avère très efficace pour accélérer ces calculs et repose sur un principe assez simple : utiliser un portefeuille d’actifs financiers reproduisant la valeur économique des passifs. L’utilisation de cette méthode soulève toutefois de nombreuses interrogations dont deux cruciales qui vont nous intéresser particulièrement dans ce mémoire : – Comment choisit-t-on les actifs candidats qui vont composer le portefeuille connaissant la structure du portefeuille ? Une automatisation ou au moins une accélération de cette étape du processus est-t-elle possible ? – Une fois les actifs candidats choisis, quelle est la méthode de calibration la plus efficace des poids du portefeuille pour une estimation la plus précise de la Value-atrisk à 99,5% ? Nous présentons dans ce mémoire des pistes pour répondre à ces deux questions que nous avons développées dans le cadre de l’amélioration de la méhodologie d’AXA pour le calcul de son Solvency Capital Requirement (SCR) de marché. Mots clés : Solvabilité 2, modèle interne, régression PLS, régression LAR, Orthogonal Matching Pursuit, portefeuille répliquant, cashflow mismatch, simplexe, optimisation, générateur de scénario, modèle ALM, risque de marché, SCR. Abstract In the framework of the implementation of Solvency 2 internal model, life insurers are often limited in choosing an effective method for obtaining the one-year time horizon distribution of own funds. Indeed the classical full nested method is expensive in computation time and is not a permanent solution in the framework of calculating the market SCR on a quarterly basis. The use of proxy for the valuation of liabilities is essential. Among the possible alternatives to traditional full nested solution, the method of replicating portfolio is very effective in accelerating these calculations based on a simple concept : use a portfolio of financial assets reproducing the economic value of liabilities. The use of this method, however, raises many questions which are both crucial and that will particularly interest us in this paper : – How does one choose the candidates who will compose active portfolio knowing the structure of the liabilities ? Is an Automation or at least acceleration of this stage of the process possible ? – Once the assets candidates have been selected, what is the most efficient calibration method of the portfolio weights that will be the most accurate estimate of the 99.5 % value-at-risk ? We present in this paper ways to answer these two questions that we developed in the context of improving the AXA’s mehodology for computing the market SCR. Keywords : Solvency 2, internal model, Partial Least Square regression, Least Angle Regression, Orthogonal Matching Pursuit, portefeuille répliquant, cashflow mismatch, simplex method, optimisation, economic scenario generator, Asset Liability Management (ALM) model, market instruments, SCR. 2 Table des matières Remerciements 4 Introduction 5 I La directive Solvabilité 2 7 1 Rappels sur Solvabilité 1 8 2 Focus sur Solvabilité 2 2.1 Pilier 1 : Exigences en capital . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Pilier 2 : Activités de contrôle et de supervision . . . . . . . . . . . . . . 2.3 Pilier 3 : Discipline de marché . . . . . . . . . . . . . . . . . . . . . . . . 10 10 11 11 3 Modèle Interne vs Formule Standard 3.1 La formule standard . . . . . . . . . . . . . 3.2 Les approches par modèle interne . . . . . . 3.2.1 Les Simulations dans les simulations 3.2.2 L’accélérateur SdS . . . . . . . . . . 3.2.3 Le curve fitting . . . . . . . . . . . . 3.2.4 La méthode LSM . . . . . . . . . . . 12 14 16 16 16 17 19 II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La méthode des replicating portfolio 22 4 Généralités 4.1 Réplication parfaite à l’aide de Zéro-Coupons . . . . . . . . . . . . . . . 4.2 La participation aux bénéfices et les calls . . . . . . . . . . . . . . . . . . 23 24 24 5 Description de la méthode des replicating portfolio pour SCR à 1 an 5.1 Actifs candidats à la réplication . . . . . . . . . . . . . . . . 5.2 Résolution du programme d’optimisation . . . . . . . . . . . 5.3 Validation du portefeuille répliquant . . . . . . . . . . . . . 5.3.1 Validation statistique . . . . . . . . . . . . . . . . . . 5.3.2 Analyse de la structure générale du portefeuille . . . 5.3.3 Validation sur des sensibilités . . . . . . . . . . . . . 5.4 Application du portefeuille répliquant . . . . . . . . . . . . . 26 27 28 31 31 31 32 32 1 le calcul du . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III Applications à un portefeuille d’épargne Euros 33 6 Description du portefeuille 6.1 Le Modèle ALM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Modélisation du passif . . . . . . . . . . . . . . . . . . . . . 6.1.2 Modélisation de l’actif . . . . . . . . . . . . . . . . . . . . . 6.2 Le Générateur de scénario . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Les univers monde réel et risque-neutre . . . . . . . . . . . . 6.2.2 Le modèle Action . . . . . . . . . . . . . . . . . . . . . . . . 6.2.3 Le modèle de taux . . . . . . . . . . . . . . . . . . . . . . . 6.2.4 Discrétisation des processus . . . . . . . . . . . . . . . . . . 6.2.5 Génération des déflateurs . . . . . . . . . . . . . . . . . . . . 6.2.6 Test de martingalité . . . . . . . . . . . . . . . . . . . . . . 6.3 Calibration des portefeuilles : Réplication de passifs ou de marges ? 6.3.1 Portefeuille A . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.2 Portefeuille B . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.3 Portefeuille C . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.4 Calibration des portefeuilles : vision marges . . . . . . . . . 7 Développements réalisés 7.1 La régression Partial Least Square (PLS) . . . . . . . . . 7.1.1 Présentation de la méthode . . . . . . . . . . . . 7.1.2 Présentation des résultats . . . . . . . . . . . . . 7.2 CashFlow mismatch . . . . . . . . . . . . . . . . . . . . 7.2.1 Initialisation du problème . . . . . . . . . . . . . 7.2.2 Absolute CashFlow mismatch . . . . . . . . . . . 7.2.3 Conditional Value-at-risk mismatch . . . . . . . . 7.2.4 Conditional Value-at-risk and Absolute mismatch 7.2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . 7.3 Sélection automatique des instruments financiers . . . . . 7.3.1 Least Angle Regression . . . . . . . . . . . . . . . 7.3.2 Orthogonal matching pursuit . . . . . . . . . . . 7.3.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 34 35 35 36 36 37 38 40 40 40 41 42 44 45 46 . . . . . . . . . . . . . 48 48 48 55 58 59 61 65 67 69 70 71 77 87 Conclusion 89 Annexe 91 Bibliographie 121 2 Notations et Acronymes SCR ALM PLS LAR OMP MCO SdS LSMC SVD VaR CVaR ESG PRESS RSS Solvency Capital Requirement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Asset Liability Management . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Partial Least Square . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Least Angle Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Orthogonal Matching Pursuit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Moindres Carrés Ordinaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Simulations dans les Simulations Least Square Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Singular Value Decomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 Value-at-Risk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Conditional Value-at-Risk Economic Scenario Generator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 PRediction Error Sum of Squares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 Residual Sum of Square . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3 Remerciements Je tiens à remercier en premier lieu M. Jérémie VISCUSO, responsable de l’équipe portefeuille répliquant chez AXA, de m’avoir acceuilli au sein de son équipe et permis de me consacrer en grande partie à la rédaction de ce mémoire. Je lui témoigne toute ma gratitude pour l’attention qu’il a pu porter à mon travail. Mes remerciements s’adressent également aux membres de l’équipe pour leurs nombreux conseils et explications qui m’ont permis d’avancer dans ma réflexion sur les portefeuilles répliquants. Je tiens également à remercier l’ensemble des professeurs de l’Institut de Sciences Financières et d’Assurance (ISFA) pour ces enseignements qui m’ont conforté dans mon choix de travailler dans le monde de l’actuariat. Je remercie en particulier mon tuteur pédagogique M. Alexis BIENVENÜE pour ses conseils et sa relecture attentive de mon travail. Enfin, the last but not least, je remercie ma famille, et tout particulièrement mes parents pour le soutien qu’ils m’ont apporté pendant toute ma scolarité. 4 Introduction Dans le but de protéger les assurés et d’améliorer la gestion des risques dans le secteur de l’assurance, l’Union Européenne a décidé de mettre en place une nouvelle réforme , Solvabilité 2. Basée sur trois pilliers comme Bâle 2, cette réforme vise à garantir la solvabilité des assureurs. En effet, Solvabilité 2 impose aux compagnies d’assurance de détenir des fonds propres au moins supérieurs à la perte maximale possible sur un horizon de 1 an, avec un niveau de confiance de 99,5%. Ce calcul des fonds propres économiques s’avère souvent coûteux en temps de calcul notamment en assurance vie où les garanties proposées imposent aux compagnies de modéliser les interactions qui existent entre l’actif et le passif. La méthodologie des portefeuilles répliquants utilisée par AXA est l’une des méthodologies de calcul du capital économique en modèle interne qui se sont développées ces dernière années pour le calcul du SCR de marché notamment. Le principe de cette méthode est de répliquer la valeur économique des passifs par une combinaison linéaire d’instruments financiers facilement valorisables (idéalement en formule fermée) en effectuant notamment une régression des moindres carrés. L’objet de ce mémoire est de proposer des alternatives dans un premier temps à la réplication des passifs. Nous allons notamment nous intéresser directement aux flux de l’actionnaire, qui sont la variable qui nous intéresse dans la détermination de notre portefeuille répliquant. Dans un deuxième temps nous allons proposer différentes méthodes de régression alternatives à la régression des moindres carrés ordinaires. Dans la première partie du mémoire nous nous attacherons à présenter les enjeux règlementaires de la nouvelle directive, ainsi que les deux options principales dont disposent les assureurs européens pour évaluer la charge en capital au titre du risque de marché. Il s’agit de la méthodologie formule standard et de la méthologie modèle interne. La formule standard de Solvabilité 2 a été mise en oeuvre par l’EIOPA au fur et à mesure des différents exercices de QIS ( Quantitative Impact Study ) qui ont permis d’affiner la calibration des chocs. De par sa simplicité, la formule standard est donc un des moyens proposés pour évaluer sa charge en capital. Elle présente l’inconvénient de s’appliquer de manière identique à toutes les compagnies d’assurance, et ne permet donc pas à l’assureur d’avoir une vision précise des risques. L’alternative à la formule standard que représente le développement d’un modèle interne permet justement de palier à cette lacune. Nous présenterons donc dans cette première partie l’idée générale de la mise en oeuvre d’un modèle interne et mettrons en lumière la difficulté que représente cette approche dans le cas particulier de l’assurance vie et présenteront les solutions principales qui sont aujourd’hui à la disposition des assureurs pour contourner cette difficulté. 5 Dans la deuxième partie du mémoire nous présenterons plus en détail une des méthodes de calcul du capital économique : il s’agit de la méthode des portefeuilles répliquants. Une présentation sera faite des principales étapes qui sont nécessaires à la calibration d’un portefeuille répliquant et les outils d’analyse de la qualité de ces portefeuilles. Enfin la troisième partie présentera les développements qui ont été réalisés dans le cadre de cette étude. Ces développements concernent deux étapes cruciales dans la construction d’un portefeuille répliquant de bonne qualité. L’une d’entre elles correspond à la calibration des poids des instruments financiers qui constituent le portefeuille. La régression des moindres carrés classique présente certains inconvénients auxquels nous essaierons de remédier à travers diverses méthodes alternatives. La deuxième étape importante dans la construction d’un portefeuille est le choix des instruments candidats. Comme nous le montrerons dans la suite, cette étape peut s’avérer fastidieuse pour des portefeuilles présentant de multiples facteurs de risques. Nous allons présenter des méthodes qui vont permettre d’automatiser cette étape du processus et qui vont s’avérer plutôt efficaces pour avoir une première liste d’intruments financiers qui pourra par la suite être modifiée à la marge pour arriver à un portefeuille final satisfaisant en terme de qualité. 6 Première partie La directive Solvabilité 2 7 Chapitre 1 Rappels sur Solvabilité 1 La réforme Solvabilité 1 constitue le régime de solvabilité actuellement en vigueur. Elle a débuté par l’application de deux directives européennes, celle de 1973 pour l’assurance non-vie et celle de 1979 pour l’assurance vie. Elle impose aux compagnies d’assurance de détenir un montant de fonds propres minimal. Solvabilité I repose sur trois notions : – La marge de solvabilité qui est constituée par le patrimoine de l’organisme libre de tout engagement prévisible. – L’exigence de marge de solvabilité ou marge de solvabilité règlementaire qui est le montant en fonds propres que doit détenir une compagnie d’assurance. – Le fonds de garantie qui est le second seuil pour les ressources dont doit disposer l’entreprise. Les règles établies par Solvabilité 1 fixent : – Une exigence de composition des actifs en couverture des engagements. – La présentation annuelle d’un rapport de solvabilité. – La détermination d’une marge de solvabilité règlementaire. – La détermination du Fonds de Garantie Solvabilité I se caractérise par des méthodes simples de calcul et par sa robustesse, il offre aux sociétés d’assurance une vue d’ensemble sur le montant nécessaire des provisions et des méthodes pour comptabiliser les primes avec les provisions. Cependant ce projet présente quelques limites d’ordre qualitatives et quantitatives. – Limites quantitatives : la principale critique adressée au projet solvabilité 1 est qu’il n’opère pas de distinction entre les risques et l’impact de leur volatilité à l’intérieur des branches d’activités qui révèlent en réalité des profils de risque différents. En effet, la marge de solvabilité est déterminée selon des facteurs représentant les engagements de la société ou le volume d’activité des sociétés sans tenir compte des risques assumés par ces dernières. Les assureurs se trouvent donc dans l’obligation d’immobiliser plus de capitaux dans les provisions techniques ce qui peut freiner leurs projets d’investissement et anéantir leur marge de bénéfice. Une autre critique qui a été adressée à ce projet est que les formes de transfert de risques et les conséquences des corrélations des actifs et des passifs n’étaient pas étudiées. – Limites qualitatives : peuvent être résumées par l’absence de surveillance et de contrôle internes. En effet, Schuckmann.S(2007) affirme que le premier objectif de l’assurance est de réduire l’inconvénient informationnel. Selon le même auteur, les informations sur la santé financière d’une société d’assurance seraient asymétriquement distribuées. Ces problèmes résultant d’asymétrie antérieure de l’information pourraient être résolus par 8 la transparence croissante du marché ou en rassemblant des informations fiables sur l’assureur. 9 Chapitre 2 Focus sur Solvabilité 2 Dans l’esprit de Bâle II régulant les activités bancaires, la Commission Européenne souhaite améliorer l’évaluation et le contrôle des risques dans le secteur de l’assurance. Dans ce contexte, la directive Solvabilité II (Solvency II) est un projet de réglementation prudentielle s’appliquant à l’ensemble des compagnies d’assurance de l’Union Européenne. Rappelons qu’une directive est une décision de droit communautaire visant à favoriser l’harmonisation des législations nationales des États membres de l’Union Européenne. Contrairement au règlement européen qui s’impose directement aux ressortissants de l’Union, la directive n’a pas vocation à s’appliquer directement aux entreprises ou aux particuliers et nécessite une transposition en droit national. Solvabilité II porte deux grands objectifs. Le premier est de créer un marché de l’assurance unique, compétitif et ouvert à la concurrence à l’échelle européenne. Le second est de protéger davantage les assurés et les contreparties des compagnies. Le premier objectif découle du caractère européen de la réforme et de l’uniformisation des contraintes prudentielles au sein de chaque pays membre. L’harmonisation de la réglementation supprime les inégalités de référentiels réglementaires et permet la construction d’un marché unique et libre. Le second objectif est porté par l’idée qu’un assureur doit mieux gérer, connaître et évaluer ses risques. Dans une logique similaire à Bâle II, Solvabilité II se construit autour de trois piliers. 2.1 Pilier 1 : Exigences en capital Les assureurs et réassureurs européens devront disposer de fonds propres permettant de couvrir leur exposition aux risques assurantiels, de marché, de crédit et au risque opérationnel. Une approche standardisée à l’ensemble des acteurs européens a été développée à cet effet. Elle est communément appelée formule standard. Outre cette approche standardisée, les assureurs ont la possibilité de développer des modèles internes de façon à pouvoir quantifier au mieux leur exposition aux différents risques. Ces modèles doivent être validés par le régulateur européen, représenté en France par l’Autorité de Contrôle Prudentiel (ACP). L’ACP dispose donc pour ce faire de pouvoirs renforcés et peut en particulier imposer au cas par cas, des exigences en fonds propres différentes en fonction de la robustesse du modèle utilisé pour le calcul du besoin en fonds propres ou du niveau de fonds propres de l’entreprise. Le niveau de fonds propres requis équivaut à une Value-at-Risk à 99,5% sur un horizon de 1 an. 10 2.2 Pilier 2 : Activités de contrôle et de supervision Au sein de ce pilier seront fixées les normes qualitatives de suivi des risques en interne, il indiquera comment l’autorité de contrôle va exercer ses pouvoir de contrôle dans le contexte de Solvabilité 2. Le pilier 2 impose donc la mise en place de dispositif de gouvernance des risques en se servant du modèle défini dans le pilier 1. Un des grands enjeux du piler 2 est donc la mise en place du dispositif ORSA et la validation des modèles internes. 2.3 Pilier 3 : Discipline de marché Ce dernier pilier a pour objectif de définir les obligations de publications des entreprises d’assurance vis-à-vis des assurés, des investisseurs et des autorités de marché. Tous ces piliers sont bien évidemment liés entre eux et nous nous intéresserons principalement dans ce mémoire au pilier 1. Figure 2.1 – Structure de Solvabilité 2 11 Chapitre 3 Modèle Interne vs Formule Standard La définition du capital économique dans l’environnement Solvabilité II repose sur une vision économique du bilan de la compagnie : les actifs sont évalués en valeur de marché de façon market-consistent et les engagements c’est-à-dire que les provisions mathématiques doivent être calculées de façon best estimate : la valeur de ces engagements doit représenter la valeur réelle à l’instant de calcul. En ce sens, la construction du bilan économique constitue le pilier de la nouvelle réforme. En effet, du bilan économique vont dépendre plusieurs processus inhérents à l’activité d’une compagnie d’assurance : – le calcul du SCR et la détermination des fonds propres éligibles, qui représentent les éléments des fonds propres de la compagnie qui permettent de couvrir le capital de solvabilité SCR calculé en formule standard ou en modèle interne – le calcul de la MCEV et de la new business value qui permettent d’évaluer la capacité des contrats d’assurance vie à générer des profits futurs A chaque date t, il est possible de construire le bilan économique suivant : Bilan économique en t At F Pt V EPt Sous les notations : – At : valeur de marché de l’actif en t, – V EPt : valeur économique des passifs en t – F Pt : fonds propres économiques en t. Le bilan étant équilibré, on a la relation : F Pt = At − V EPt . Désignons par Ft la filtration permettant de caractériser à chaque date l’information financière disponible. La valeur de chacun des postes du bilan correspond à l’espérance sous la probabilité risque-neutre Q des cash-flows futurs actualisés. Soient : Ru – δu le facteur d’actualisation s’exprimant ainsi : δu = e− 0 ru du , ou ru désigne le taux d’intérêt sans risque – Pt : les cashflows de passifs (prestations, commissions, etc) en t – Rt : le résultat de la compagnie en t. – P (s, t) : le prix en s d’une obligation zéro coupon de maturité t 12 Figure 3.1 – Structure du bilan économique sous Solvabilité 2 Avec ces notations on a alors : " # X V EP0 = EQ δu Pu |F0 (3.1) u≥1 et, F P0 = EQ " X # δu Ru |F0 (3.2) u≥1 En projetant donc le bilan en t = 1 on a : " V EP1 = EQ # X δu Pu |F1 (3.3) u≥2 et, F P1 = EQ " X # δu Ru |F1 (3.4) u≥2 Le capital économique, défini par Solvabilité II, est le niveau minimal de fonds propres en date initiale permettant de satisfaire la contrainte : P (F P1 ≤ 0) = 0, 5%. Il vient donc : SCR = F P0 − P (0, 1).V aR99,5% (F P1 ) (3.5) où P (0, 1) est le prix d’une obligation zéro coupon. La distribution de la variable F P1 est donc essentielle au calcul du capital économique. Mais comme on l’a rappelé en introduction, cette distribution des fonds propres économiques est 13 très difficile à estimer puisqu’elle implique pour l’assureur un premier niveau de simulation qui permet de projeter la situation économique à l’horizon d’une année imposée par la directive pour l’estimation de la distribution des fonds propres. Un second niveau de simulation est nécessaire pour l’évaluation des engagements de l’assureur qui doivent comporter la valeur temps des options inclues dans les contrats d’assurance vie. Les assureurs disposent comme nous l’avons mentionné en introduction de deux principales options pour évaluer leur SCR : – Mettre en place un modèle interne afin d’évaluer le SCR : simulations dans les simulations – Evaluer le SCR en formule standard La mise en oeuvre de la formule standard ainsi que la calibration des chocs de marché notamment sont présentées dans la section suivante. Quant à la mise en place d’un modèle interne à proprement dit, les temps de calculs imposés par l’approche "directe" présentée ci-dessus rendent difficile la mise en oeuvre opérationnelle d’une telle méthodologie au sein des compagnies d’assurance. Les assureurs disposent de plusieurs alternatives pour mettre en oeuvre un modèle interne. En effet, depuis la mise en place de Solvabilité 2 plusieurs méthodes "simplifiées" ont été proposées notamment dans l’approche modèle interne pour le calcul du SCR afin d’optimiser les temps de calcul. On retrouve dans la littérature plusieurs méthodes pour y arriver : – la méthode de l’accélérateur SdS cf Devineau et Loisel – la méthode des portefeuilles répliquants – l’approche curve fitting – l’approche Least Square Monte Carlo Nous développerons brièvement le principe de ces méthodes dans cette partie du mémoire. La méthode des replicating portfolio qui fait l’objet de notre étude sera développée plus en détail dans la deuxième partie de ce mémoire. 3.1 La formule standard La deuxième option est l’approche par formule standard qui repose sur le calcul du capital économique par chocs instantanés sur chacun des risques pris en compte dans le cadre de Solvabilité 2. Les capitaux économiques ainsi obtenus sont agrégés via des matrices de corrélation. Le principe de la formule standard est donc, pour un risque R, de réévaluer le bilan suite à un choc instantané sur ce risque. Le capital économique correspond à la différence entre les fonds propres économiques en situation centrale et les fonds propres économiques en situation stressée. On a donc : [ = F P0 − F P0R SCR (3.6) où – F P0 désigne les fonds propres économiques en situation centrale – F P0R désigne les fonds propres économiques suite au choc instantané sur le risque R Comme on peut le constater sur le diagramme ci-dessus cette formule repose sur une approche modulaire du risque. Les charges en capital sont calculées unitairement puis agrégées à plusieurs niveaux suivant la formule suivante : SCR = SCROp + BSCR + Adj où – SCROp correspond au SCR opérationnel qui se calcule factoriellement 14 Figure 3.2 – Structure modulaire de la formule standard – Adj représente l’ajustement pour la capacité d’absorption des pertes par les provisions techniques Enfin la composante principale de cette somme est le BSCR qui repose sur la formule suivante : qP BSCR = i,j Corri,j SCRi SCRj + SCRIntangible Le calibrage des chocs qui a été réalisé pour correspondre à une Value-at-Risk (VaR) à 99,5% a beaucoup évolué au cours des dernières années et n’est toujours pas fixé. Nous allons nous intéresser dans cette section au calcul du SCR en formule standard pour le risque de marché. La contribution de ce module au SCR final est assez importante pour un assureur vie. Les risques pris en compte dans ce module sont les suivants : – Risque action – Risque de taux – Risque de spread – Risque de change – Risque d’illiquidité – Risque immobilier – Risque de concentration Les charges en capital calculées unitairement pour chacun des risques précédents sont ensuite agrégées via la matrice de corrélation suivante : Le choix du paramètre A dépend du scénario retenu dans le cadre du calcul de la charge en capital au titre du risque de taux : – Si le scénario haussier est retenu alors A=0 – Si le scénario baissier est retenu alors A=0.5 15 (i,j) Taux Action Immobilier Spread Concentration Change Prime contra-cyclique Taux 1 A A A 0 0.25 0 Action A 1 0.75 0.75 0 0.25 0 Immobilier A 0.75 1 0.5 0 0.25 0 Spread A 0.75 0.5 1 0 0.25 0 Concentration 0 0 0 0 1 0 0 Change 0.25 0.25 0.25 0.25 0 1 0 Prime contra-cyclique 0 0 0 0 0 0 1 Table 3.1 – Matrice de corrélation des risques de marché 3.2 Les approches par modèle interne Le point commun des approches présentées ci-dessous en dehors de celle classique des Simulations dans les simulations est qu’elles essayent de réduire au maximum les temps de calcul qu’impliqueraient un calcul de SCR par l’approche simulations dans les simulations. Chacune de ces méthodes par des moyens divers permet de réduire les simulations nécessaires et donc les temps de calcul, ce qui s’avère relativement efficace pour les compagnies dans le cadre d’une mise en oeuvre opérationnelle de modèles à priori théoriques. Le point clé évidemment est de maîtriser l’erreur commise quand on utilise une méthode et de pouvoir s’assurer que cette erreur n’est pas trop grande. 3.2.1 Les Simulations dans les simulations On rappelle que le but d’une évaluation du capital économique est de déteminer la distribution des fonds propres à un an F P1 que nous avons défini par ailleurs dans la première partie de ce mémoire. Le but final est donc de déterminer directement le quantile à 99,5% de la distribution à un an des fonds propres économiques. Cette méthode à l’avantage de fournir une estimation très précise du capital économique mais s’avère très coûteuse en temps de calcul et ne constitue donc pas une solution viable dans le cadre de processus à intégrer dans une compagnie d’assurance. On peut résumer le principe de cette approche en trois étapes : – Etape 1 : Diffusion des valeurs financières sur un an (rendements action, courbe des taux, ...) calibrées en monde réel. Ils sont dits scénarios primaires – Etape 2 : Estimation des richesses à horizon 1 an : plus ou moins value à 1 an, perte d’actifs suite à des défauts, – Etape 3 : Valorisation du bilan économique pour chacun des scénarios primaires d’après des scénarios économiques market consistent 3.2.2 L’accélérateur SdS Comme son nom l’indique le principe de cette méthode est d’accélérer le calcul du SCR en privilégiant les pires trajectoires dans la détermination de la queue de distribution des fonds propres. Cette sélection de trajectoire se calcule par rapport à des facteurs de risques et à l’aide d’une distance déterminée dans l’article de Loisel et Devineau. Cette méthode permet de réduire significativement les calculs en concentrant les simulations sur ces facteurs de risque. Pour résumer on peut dire que cette méthode repose sur les étapes suivantes : – Déterminer les principaux facteurs de risques – Définir une norme permettant de quantifier le risque de chacune des simulations primaires 16 Figure 3.3 – Illustration de l’approche SdS – Calculer la valeur des facteurs de risques pour chacune des simulations selon la norme choisie – Définir une norme permettant de quantifier le risque de chacune des simulations primaires – Isoler selon l’algorithme d’itération les situations les plus adverses – Réaliser les calculs sur ces trajectoires Toutefois l’ajout de facteurs de risque augmente la complexité de l’algorithme et donc aussi les temps de calculs. 3.2.3 Le curve fitting Le Best Estimate, et donc par conséquent les fonds propres est soumis à un nombre limité de risques. Le principe de l’approche curve fitting est, dans le même esprit que l’algorithme d’accélération présenté plus haut, d’interpoler la valeur du passif, sur un nombre limité de points importants des scénarios en monde réel. La valeur du best estimate est en réalité une fonction complexe d’un nombre limité de risk drivers définis par les scénarios économiques en monde réel. Dans ce cas, deux scénarios à peu près identiques vont conduire à la même valorisation du Best Estimate. Le but de l’approche curve fittinge est justement d’éviter d’utiliser deux fois les 1000 scénarios risque neutre pour avoir la même valeur de best estimate si on utilise l’approche simulation dans les simulations. Dans une première étape, on va donc valoriser le best estimate sous un certains nombre de stress instantanés. Le choix des stress doit être réalisé afin qu’ils couvrent largement les risques pour lesquels on souhaite évaluer la charge en capital. On réalise ensuite une interpolation à travers ce nombre limité de points. Une fois la méthode d’interpolation choisie 17 (polynomiale, par morceaux, etc) et mise en oeuvre on dispose d’une fonction qui nous donne une estimation rapide du best estimate en fonction d’un nombre de risks drivers limité. On peut donc facilement calculer la distribution des fonds propres qui va permettre d’évaluer le quantile à 99,5% . 18 2.png Figure 3.4 – Illustration de l’approche Curve Fitting 3.2.4 La méthode LSM Une façon de réduire le nombre de calculs en méthodologie modèle interne est de toujours faire des milliers de simulations en monde réel, mais de n’utiliser que quelques uns, ou même une seule simulation secondaire pour l’évaluation du bilan économique. Évidemment, cela va réduire le temps d’exécution pour les calculs, mais il est tout aussi évident que cette évaluation du bilan économique pour chaque scénario monde réel sera probablement inexacte. Toutefois, cette imprécision peut être efficacement corrigée par une régression relativement simple grâce à l’ensemble des évaluations inexactes dans tous les scénarios pour produire une courbe de régression. Cette courbe de régression est ensuite utilisée pour calculer la valeur du passif au lieu de simples évaluations inexactes. Ce procédé est connu sous le nom de «moindres carrés de Monte Carlo» (LSMC) en raison de la régression qui minimise la somme des carrés des erreurs entre les valeurs des simulations simples et les simulations de Monte Carlo stochastiques. Assez curieusement, cette approche relativement simple, qui ne nécessite pas de ressources informatiques massives, produit des résultats remarquablement précis. Dans cette section on se propose d’exposer le principe de l’approche Least Square Monte Carlo (LSMC) pour le calcul du SCR. L’idée de la méthode est de réduire significativement les nombres de simulations secondaires pour l’estimation du best estimate en recourant à une méthode de régression. En effet comme nous l’avons mentionné plus haut, la difficulté de l’évaluation du SCR provient de l’estimation de la quantité suivante en (4.4) : " # X F P1 = EQ δu Ru |F1 (3.7) u≥2 Ici, l’espérance conditionnelle représente la principale difficulté pour développer une technique appropriée de Monte-Carlo. Ceci est analogue à la valorisation d’options Bermudéenne, où les espérances conditionnelles impliquées dans les itérations de la programmation dynamique représentent également la principale difficulté pour le développement des techniques de MonteCarlo (cf. [8]). Une solution appropriée à ce problème a été proposée par [16], qui utilisent régression des moindres carrés sur un ensemble fini de fonctions de base pour approcher l’espérance conditionnelle. Comme l’a souligné [8], l’algorithme consiste plus précisément en deux différents types d’ap19 proximations. Dans la première étape d’approximation, l’espérance conditionnelle est remplacée par une combinaison linéaire finie de fonctions de base. Ici on va donc remplacer l’espérance conditionnelle F P1 par une combinaison linéaire finie de fonctions de bases (ek (Y1 ))k=1,··· ,M : X F P1 ≈ F P1M = αk .ek (Y1 ) (3.8) k=1 en supposant que la suite (ek (Y1 ))k≥1 est indépendante et complète dans l’espace de Hilbert L2 (Ω, σ(Y1 ), P). Les fonctions de bases (ek (Y1 ))k=1,··· ,M peuvent être par exemple les polyômes de Lagrange, les polynômes de Laguerre, polynômes de d’Hermite, les fonctions trigonométriques. [3] retient cette méthode mais en considérant que la base hilbertienne (ek (Y1 ))k=1,··· ,M est constituée de polynômes à 4 inconnues : – l’actif de la compagnie – la fonction de perte – le résultat de la première année – le taux court de la première année F P1 est une variable aléatoire dans l’espace de Hilbert L2 (Ω, σ(Y1 ), P) et on peut donc décomposer cette variable aléatoire sur une base de cet espace : F P1 = +∞ X αk ek (Y1 ) ≈ M X αk ek (Y1 ) = F P1M (Y1 ) (3.9) k=1 k=1 Il faut donc déterminer les coefficients αk . Pour cela on s’appuie sur la simulation de trajectoires des variables d’état, i = 1, · · · , n : (Yti )t=1,··· ,T Le long de chacune de ces trajectoires , on calcule P P Vi = j≥2 δ1i (j) × Xji , On peut alors construire un estimateur de α en posant : α bN = arg min N X P Vi − i=1 M X !2 αk ek (Y1i ) k=1 On obtient finalement l’approximation suivante : (M,N ) F P1 ≈ F P1 (Y1 ) = M X α bkN ek (Y1 ) (3.10) k=1 La seconde étape d’approximation plus classique correspond à l’utilisation de scénarios de Monte Carlo pour évaluer la distribution des fonds propres qui va nous permettre d’évaluer le quantile à 99,5%. 20 Figure 3.5 – Illustration de l’approche Least Square Monte Carlo 21 Deuxième partie La méthode des replicating portfolio 22 Chapitre 4 Généralités Les techniques de réplications sont à la base des méthodes qui ont contribué à l’essor des marchés à travers notamment la formule d’évaluation de Black et Scholes qui repose sur ce principe et plus généralement le problème de la valorisation market-consistent d’autres actifs. Rappelons ici brièvement le principe de la réplication. Notons (Ft )t≥0 la filtration qui caractérise l’information financière disponible à la date t et considérons Z une variable aléatoire FT -mesurable. On suppose également que l’économie est composée de d+1 actifs financiers de prix Xt = (Xt0 , Xt1 , · · · , Xtd ) à la date t et où Xt0 est diffusé comme suit : dXt0 = Xt0 rt dt, Xt0 = 1, où rt désigne le taux sans risque. Sous certaines hypothèses on peut construire un processus adapté wt = (wt0 , wt1 , · · · , wtd ) qui permet de répliquer la variable aléatoire Z satisfaisant les propriétés suivantes : w t Xt = w 0 X0 + wT X T = Z Rt 0 ws dXs ∀t ≤ T, p.s p.s Les composantes du processus wt représentent les poids de chacun des actifs dans un portefeuille auto-finançant répliquant la variable aléatoire Z. La valorisation par arbitrage permet donc de définir le prix R de l’instrument financier ayant T comme cashflow la variable Z comme suit : πt = wt Xt = e− t rs ds Z|Ft . Finalement, on peut retrouver la formule de Black et Scholes permettant de déterminer le prix d’un call de maturité T, de strike K et de sous-jacent Xt1 en valorisant le portefeuille répliquant les cashflows de la variable aléatoire Z = (XT1 − K)+ . Supposons que le taux sans risque est constant égal à r, et que sous la probabilité risque-neutre Q on a : dXt1 Xt1 = rdt + σdWt , où (Wt ) est un mouvement brownien sous Q. Alors la composition du portefeuille répliquant à tout instant t est le suivant : wt0 = −Ke−rT N (dt2 ) et, 23 wt1 = N (dt1 ), où, dt1 = √1 σ T −t 1 √ Xt 1 ln K + r + 2 σ2 .(T − t) , dt2 = dt1 − σ T − t N(.) est la fonction de répartition d’une loi normale centrée réduite. Le principe des portefeuilles répliquants repose principalement sur cette idée, à la seule différence qu’on s’intéresse dans ce cas à répliquer des flux liés à des passifs d’assurance. La réplication dépendra de la garantie proposée et notamment de la complexité des passifs de la compagnie d’assurance. Nous allons présenter quelques situations basiques dans lesquelles la réplication peut être effectuée parfaitement. 4.1 Réplication parfaite à l’aide de Zéro-Coupons Dans certains cas, notamment en assurance non-vie, on travaille sur des cash flows futurs garantis, c’est-à-dire qu’on connait exactement les montants qui devront être payés. Dans ce cas on a une indépendance entre la perfomance de l’actif et le passif de l’assureur. Il n’est donc pas nécessaire d’avoir un modèle ALM pour simuler sous plusieurs scénarios les cash flow futurs. Dans ce cas, le portefeuille sera constitué de zéro-coupons avec des nominaux et des maturités correspondant aux dates de paiement des flux futurs. Un seul scénario sera nécessaire pour fournir une réplication parfaite des passifs. 4.2 La participation aux bénéfices et les calls Certains contrats d’assurance-vie comportant des options peuvent se lire de manière optionnelle et donc faciliter la réplication à l’aide d’instruments financiers simples. Considérons par exemple un contrat d’assurance avec un taux garanti et une participation aux bénéfices. Dans ce contrat, l’assuré confie une prime à l’assureur et reçoit à maturité du contrat cette prime capitalisée au taux garanti ainsi qu’une participation aux bénéfices fixée à l’avance dans le contrat. Les caractéristiques du contrat sont les suivantes : – Maturité : 6 ans – Prime : 10 000 euros – Taux minimum garanti : 2% – Taux de participation aux bénéfices : 75% – Allocation d’actif : – 20% d’actions – 80% d’obligations à un taux de 3% Ce contrat très simplifié peut être parfaitement répliqué par un portefeuille d’actifs comprenant des zéro coupons et des options de type Call. En établissant la valeur à maturité du fonds ainsi que le montant minimum garanti, h i ST 6 FondsValue =10000 × 0.2 × S0 + 0.8 × (1 + 0.03) Guarantee = 10000 × (1 + 0.02)6 24 on a le payoff à maturité du contrat qui est défini comme suit : P ayOf f = Guarantee + 0.75 × max [F ondsV alue − Guarantee; 0] ST = Guarantee + 0.75 × max 10000 × 0.2 × + 10000 × 0.8 × (1 + 0.03)6 − 10000 × (1 + 0.0 S0 (1 + 0.02)6 − 0.8 × (1 + 0.03)6 ST − ;0 = Guarantee + 0.75 × 10000 × 0.2 × max S0 0.2 = α × ZC + β × Call En faisant l’application, on trouve α= 11 261.62 et β = 1500 , où ZC est un zéro coupon de maturité 6 ans avec un taux de 2% et Call représente la valeur d’un call de maturité 6 ans et de strike 85.5%. On voit donc que sur exemple assez simplifié, la réplication d’un contrat d’assurance peut se faire parfaitement à l’aide d’instruments financiers simples. Dans le cadre de contrats plus complexes avec des clauses de sortie anticipée par rachats ou mortalité par exemple, l’approche que nous avons employée ne sera plus possible. L’utilisation des simulations sera donc nécessaire pour trouver un portefeuille qui approche les passifs qu’on souhaite répliquer. 25 Chapitre 5 Description de la méthode des replicating portfolio pour le calcul du SCR à 1 an Un portefeuille répliquant d’un passif d’assurance est un portefeuille d’instruments financiers standards qui a la même valeur de marché "Market Consistent Value" et la même sensibilité aux différents facteurs de risque que le passif. Comme la méthode des simulations dans les simulations est très fastidieuse en raison de sa complexité (Cf première partie), la technique des portefeuilles répliquants est donc utilisée comme une approche alternative pour accélérer le calcul du capital économique au titre du risque de marché. L’évaluation des passifs est rendue possible en réduisant le passif d’assurance à des instruments financiers pour lesquels les informations de marché sont disponibles et des formules fermées existent 1 . Ainsi, la technique des portefeuilles répliquants permet un calcul opérationnel des exigences en capital de risque de marché. Une fois le portefeuille répliquant obtenu, il est utilisé pour obtenir la distribution des fonds propres économiques au titre des risques de marché au temps t= 1 année 2 . Dans ce contexte, les simulations monde réel sont réalisées au moyen d’un modèle VaR. Ensuite, chaque simulation risque neutre est utilisée pour évaluer la valeur de marché du portefeuille de réplication sur la base de formules fermées. La figure ci-dessous donne une explication graphique sur l’approche qui est utilisée dans l’évaluation du passif et de valeur pour les actionnaires en utilisant les portefeuilles répliquants. Pour créer un portefeuille répliquant il faut disposer d’un jeu de K instruments financiers candidats à la réplication. Le but est d’écrire la valeur présente des flux de passifs comme une combinaison linéaire de plusieurs instruments financiers. Il faut donc trouver des poids w = (w1 , w2 , · · · , wK ) qui représentent le minimum d’un programme d’optimisation. La construction d’un portefeuille répliquant se fait donc en trois étapes : – Etape 1 : Choix des instruments de réplication – Etape 2 : Résolution du programme d’optimisation 1. Selon cette approche, l’évaluation du passif est presque instantanée. Ceci permet l’introduction de techniques sophistiquées pour calculer le capital économique couvrant le risque de marché 2. Suite aux directives de l’EIOPA sur la construction des modèles internes qui vise à assurer une approche harmonisée de l’utilisation des modèles internes et à améliorer l’évaluation du profil de risque de l’entreprise d’assurance, le capital de risque de marché exigence correspond à une mesure de la VaR, avec un niveau de confiance de 99,5% sur une période d’un an calibré de façon à s’assurer que tous les les risques quantifiables auxquels les sociétés d’assurance-vie sont exposés sont pris en compte 26 Figure 5.1 – Illustration de l’approche RP – Etape 3 : Validation de la qualité du portefeuille 5.1 Actifs candidats à la réplication Le choix des actifs candidats à la réplication est la première étape dans la construction du portefeuille répliquant. Idéalement on s’intéresse à des actifs simples et disposant de formules fermées afin d’éviter le recours à des méthodes de type Monte Carlo 3 pour la valorisation. On choisira également des actifs qui sont exposés aux même risques que les passifs d’assurance. Cependant, la complexité des passifs d’assurance vie sont parfois difficilement réplicables à l’aide d’instruments financiers trop simples. En effet, l’usage d’instruments pas suffisament complexes peut conduire à une mauvaise réplication. Une solution serait ainsi de créer des actifs financiers spécifiques aux garanties qui nous intéressent. Nous verrons dans la suite du mémoire comment on peut essayer d’automatiser cette étape du processus de réplication. Des travaux pour automatiser cette étape de la construction du portefeuille répliquant ont été réalisés par Devineau et Chauvigny [9]. Les auteurs utilisent des formes paramétriques pour valoriser le passif et vont donc créer dans un premier temps des sous portefeuilles répliquant pour chaque terme de la forme paramétrique. Ensuite, tous les sous-portefeuilles sont agrégés en un seul pour obtenir le portefeuille répliquant final. En pratique, pour obtenir un portefeuille de qualité acceptable, on commence par calibrer un portefeuille composé uniquement de zéro coupon. Ensuite on ajoute des swaptions payeuses et receveuses pour capter la sensibilité des garanties aux rachats. Enfin on peut également rajouter des Indices equity ainsi que des Call et des Puts. La structure du passif et les particularités de chaque garantie peuvent conduire à utiliser des instruments financiers différents. 3. La méthode de Monte Carlo est un nom assez général pour toute approche de mesure du risque qui comporte des modèles de simulations stochastiques pour les changements des principaux facteurs de risque. La mise en oeuvre des simulations de Monte Carlo impliquent la création d’un grand nombre de scénarios possibles et la réévaluation des instruments financiers sous ces scénarios 27 5.2 Résolution du programme d’optimisation Grâce aux simulations des différentes variables économiques (obtenues via un générateur de scénarios économiques), il est possible par le biais d’un modèle ALM, de déterminer la valeur des flux de passif pour un scénario donné à un instant donné. La valeur actuelle de ce passif correspond à la somme actualisée des flux futurs, l’objectif étant de répliquer cette valeur présente. Soit L un passif d’assurance caractérisé par ses cash flows à la date t pour le scénario i : L.CF( i, t) où i = 1, · · · , n, t = 1, · · · , T. Si FI est un instrument financier candidat, F I.CF( i, t) ses flux et D( i, t) où i = 1, · · · n, t = 1, · · · T son déflateur. Formellement, construire un portefeuille répliquant c’est trouver la combinaison d’instruments financier F Ik , k = 1, · · · , K avec les poids respectifs wk , k = 1, · · · , K qui minimisent la norme : k F I.W − L k2 . La norme 4 kk2 utilisée ci-dessus est définie sur l’espace des cash flows qui sont modélisés mathématiquement par un vecteur de taille l’horizon T du passif d’assurance que l’on souhaite répliquer. Cette norme est appliquée à la valeur présente 5 des cashflows. Les flux du portefeuille répliquant s’écrivent : P RP.CF( i, t) = k wk F Ik .CF( i, t), i = 1, · · · n, t = 1, · · · T Avec les notations suivantes : w1 w2 W= ... , qui désigne le vecteur des poids de chacun des instruments dans le portefeuille, wK L.CF1 L.CF2 L= .. . qui désigne le vecteur des valeurs présentes des cash flows de passifs qu’on L.CFn souhaite répliquer, F I1,1 · · · F I1,K .. ... qui désigne la matrice dont les colonnes représentent les valeurs FI= ... . F In,1 · · · F In,K présentes des cash-flows liés à un instrument donné sur les n scénarios. On considère également que ∆ = (F I T F I) et µ = F I T L. Alors, la détermination du portefeuille répliquant revient à résoudre le problème d’optimisation suivant : W ∗ = min k F I.W − L k2 (5.2) W En réalité la résolution de ce problème d’optimisation revient à faire une régression des moindres carrés du vecteur L sur les données de la matrice FI. La solution de ce système est donc la suivante : w∗ = (F I T F I)−1 F I T L = ∆−1 µ (5.3) 4. La métrique naturelle pour définir cette norme est la distance euclidienne. 5. Nous avons décidé d’utilisé dans notre mémoire la métrique basée sur les valeurs présente en utilisant les déflateurs. Si L représente un passif d’assurance alors la valeur présente est définie comme suit : " # X 1 XX L = EQ L.CF( t)D( t) = L.CF( i, t)D( i, t), i = 1, · · · n, t = 1, · · · T (5.1) n i t t Une alternative peut être d’utiliser la valeur terminale des cashflows. 28 En effet les poids optimaux sont obtenus en minimisant la somme des carrés des résidus. La forme quadratique en le vecteur des poids w est définie par la fonction q suivante : q(w) = K X wk .wl . < F Ik , F Il > −2 k,l=1 K X wk . < F Ik , L > + < L, L > (5.4) k=1 En utilisant les notations matricielles, la fonction q peut donc se réécrire comme suit : q(w) = wT ∆w − 2wµ+ < L, L > (5.5) La matrice ∆ est symétrique et définie positive et la forme quadratique q est définie-positive en raison de la linéarité du produit scalaire . Le minimum de la fonction q est donc obtenu en dérivant simplement par rapport à w et en égalisant la dérivée à 0. On a donc : ∂w q(w) = 2∆.w − 2µ = 0 ⇐⇒ w∗ = ∆−1 µ (5.6) Comme on peut le constater, la solution optimale est conditionnée par l’inversibilité de la matrice (F I T F I). Cette matrice peut s’avérer non inversible dans les cas où on a de fortes corrélations entre les cash flows des instruments, notamment de la colinéarité. Nous verrons dans la suite du mémoire comment détecter cette colinéarité et analyser l’impact que cela peut avoir sur l’estimation des poids des instruments financiers. La complexité du calcul dépend donc uniquement 6 du nombre K des instruments financiers choisis puisque w est exprimée comme la solution d’équations linéaires en dimension K. Dans le cadre de la calibration d’un portefeuille répliquant, il peut s’avérer nécessaire d’imposer certaines contraintes que doit avoir le portefeuille. Une contrainte souvent imposée est la valeur de marché à l’instant initial du portefeuille répliquant qui doit être égale à la valeur initiale des passifs que l’on souhaite répliquer. On peut également vouloir imposer la valeur de marché du portefeuille répliquant dans le cas de situations de stress de marchés afin de rendre la calibration plus robuste. Un ensemble de p contraintes sera définie par une matrice B de dimensions p × n où n désigne le nombre d’instruments utilisés lors de la réplication ainsi qu’un vecteur colonne d. Chaque ligne de la matrice B représente la valeur de chacun des instruments financiers dans la situation de stress concernée. La ligne correspondante du vecteur d représente donc la valeur qu’on souhaite imposer pour l’instrument financier. La calibration du portefeuille revient donc à résoudre le problème d’optimisation suivant : W ∗ = min k F I.W − L k2 BW =d (5.7) La résolution de ce programme d’optimisation sous contraintes dans le cadre de la décomposition en valeur singulière se fait en utilisant les multiplicateurs de Lagrange. Afin de minimiser la fonction q des coefficients de pondération, les multiplicateur de Lagrange sont utilisés avec le modèle des moindres carrés ordinaires puisque les multiplicateurs de Lagrange fournissent une stratégie pour trouver les minima d’un système soumis à des contraintes et peuvent également être utilisés avec de multiples contraintes. On sait déjà que la solution des moindres carrés ordinaires avec contraintes est obtenue en minimisant la fonction q suivante : q(w) = wT ∆w − 2wµ+ < L, L > 6. La solution ne dépend pas du nombre de scénarios ni de l’horizon temporel. 29 En introduisant les multiplicateurs de Lagrange on cherche finalement à minimiser la fonction Q suivante : Q(w, λ) = q(w) + λ(wT B T − dT ) La solution de ce système revient à dériver Q par rapport à w et λ qui doit être égal à 0 : 0 0 0 ∂( w, λ)Q(w, λ) = ∆ w − µ = 0 (5.8) où ona, ∆ BT 0 ∆= B 0 w 0 w= λ µ 0 µ= dT 0 La solution w est donc définie telle que : 0 0 w = (∆ )−1 µ 0 L’ajout d’un ensemble de contraintes α tel que présenté ci-dessus conduit à un ensemble de K + α d’équations linéaires qui doivent être résolues. L’inclusion de plusieurs contraintes ne signifie pas que toutes les contraintes seront exactement remplies en raison du faible nombre d’instruments et de leurs caractéristiques. Dans une certaine mesure, les contraintes qui sont respectées dans la réplication fournissent une indication de la qualité du portefeuille de réplication. L’ajustement Singular Value Decomposition (SVD) Afin d’augmenter la stabilité numérique, la méthode des MCO a été enrichie avec la décomposition en valeurs singulières. Cette méthode pose que la matrice ∆ est diagonalisable de la manière suivante : ∆ = U.L.V où L est une matrice diagonale, et U et V sont deux matrices orthogonales. Cette approche fonctionne même si la matrice ∆ est singulière (c’est à dire qu’elle possède une ou plusieurs valeurs propres nulles). En outre, l’instabilité numérique créée par des valeurs propres très petites peut être améliorée en mettant à zéro les valeurs correspondantes avant inversion de la matrice. Le choix du seuil pour fixer la valeur propre à zéro est un choix critique pour l’équilibre entre la perte potentielle d’informations par rapport à la stabilité des résultats. 0 Cette opération s’effectue en remplaçant L par L , définie par : 0 Li,i = Li,i 0 L i,i si Li,i < M ax seuil alors Li,i = 0 La matrice inversée est donc la suivante : 0 ∆−1 = V (L )−1 U 30 Il est important de noter que le SVD aura une incidence sur le calcul du poids des instruments financiers dans les portefeuilles de réplication. En conséquence, l’utilisation d’un seuil très élevé (en ignorant un grand nombre de dimensions) va détériorer la qualité du portefeuille alors que l’utilisation d’un seuil trop bas (sans élimination de dimensions) pourrait conduire à une instabilité numérique. Le choix du seuil est donc une question critique, et est laissé à la discrétion de l’utilisateur. La recommandation est de commencer avec un seuil plutôt bas et de l’augmenter seulement si nécessaire. 5.3 Validation du portefeuille répliquant Plusieurs éléments vont nous permettre d’analyser la qualité du portefeuille : – Validation statistique de la régression – Analyse de la structure générale du portefeuille – Evaluation du pouvoir de prédiction à travers des tests de sensibilité du portefeuille à des chocs de marché 5.3.1 Validation statistique Plusieurs tests statistiques tels que le test de Kolmogorov Smirnov, peuvent servir à étudier la normalité de la distribution de l’erreur. Un indicateur utile est également le R2 qui représente un indicateur de la qualité d’une régression linéaire simple ou multiple. Il mesure l’adéquation entre le modèle et les données observées grâce à l’indicateur suivant : R2 = 1 − kY −Yb k2 kY −Y k2 où – – – Yb représente les valeurs estimées Y représente les valeurs observées Y représente le vecteur dont les composantes sont toutes égales et correspondent à la moyenne des valeurs observées Un seuil de R2 supérieur à 90% est imposé pour valider un modèle, au moins sur la qualité de la régression. En effet il faut rappeler que le R2 n’est qu’un indicateur de l’adéquation du modèle aux observations. Il ne nous indique donc pas les qualités prédictives du portefeuille répliquant qui sont celles qui nous intéressent dans ce mémoire. Pour cette raison la validation statistique du portefeuille doit être complétée par un test d’adéquation des prédictions dans des scénarios standards ou extrêmes. Un autre indicateur intéressant de la bonne qualité du portefeuille est l’analyse des résidus. Le modèle de régression étant basé sur l’hypothèse de normalité des résidus, il convient donc de tester la normalité des résidus à travers une analyse empirique de la distribution ou un QQ-plot. 5.3.2 Analyse de la structure générale du portefeuille L’idée ici est de vérifier que le portefeuille obtenu est facilement interprétable en termes de passifs d’assurance c’est à dire : – composé de zéro coupon et/ou de swaps liés au primes encaissées et aux engagements – composé de dérivés de taux tels que les swaptions ou les cap/floor qui reflètent le comportement dynamique des assurés 31 – composé d’expositions (directes ou via des dérivés) aux sous-jacents pour prendre en compte la sensibilité aux décisions d’allocation stratégique du portefeuille d’actifs en représentation des engagements du passif 5.3.3 Validation sur des sensibilités Il peut arriver qu’on obtienne un portefeuille présentant d’excellentes qualités statistiques en terme d’ajustement mais que la qualité de prédiction dans des situations différentes de celles qui ont prévalu lors de la calibration ne soit pas satisfaisante. Il est donc très important de tester la sensiblilité du portefeuille sur des chocs clés. En fonction des riques sous-jacents aux portefeuilles une liste de chocs peut être définie par la compagnie. On pourra notamment s’inspirer des chocs de la formule standard. 5.4 Application du portefeuille répliquant Les applications du portefeuille répliquant sont nombreuses pour un assureur : – Compréhension de la structure des passifs : Les portefeuilles répliquant, en ré-exprimant les passifs en termes d’instruments financiers, permettant d’améliorer la compréhension et la communication notamment avec les gestionnaires d’actif. De plus, les portefeuilles répliquant en mettant sur un pied d’égalité actif et passif, facilitent ainsi la gestion actif-passif. – Evaluation plus rapide des impacts de choc des marchés : Avant l’utilisation du portefeuille répliquant, le calcul des sensibilités du passif impliquait la génération de scénarios stochastiques ce qui est très coûteux en termes de puissance de calcul. Désormais, le portefeuille répliquant nous fournit les sensibilités avec beaucoup moins de calcul. En effet, un portefeuille répliquant est composé des instruments financiers standards dont les sensibilités peuvent se calculer grâce à des formules fermées. – Calcul de la distribution des fonds propres économiques : De même qu’il est possible d’obtenir à moindre coût des sensibilités, les calculs pour obtenir la distribution des fonds propres économiques, en particulier le calcul de SCR, peuvent se faire relativement rapidement par raport à une approche Simulations dans les Simulations. Cependant, il faut aussi noter que l’utilisation des portefeuilles répliquant reste limitée car la valeur et la dynamique du passif dépendent de l’allocation d ?actifs qui couvre ce passif. Dans ce cas, le portefeuille répliquant ne représente que le portefeuille sous-jacent pour les actifs qui sont pris en compte dans la réplication. Tout changement dans l’allocation d’actifs nécessite le calcul d’un nouveau portefeuille répliquant. 32 Troisième partie Applications à un portefeuille d’épargne Euros 33 Chapitre 6 Description du portefeuille Dans le cadre de cette étude nous avons dans un premier temps réalisé une implémentation de la méthodologie des simulations dans les simulations à l’aide d’un modèle ALM certes simplifié, mais qui comporte les caractéristiques principales d’un portefeuille Euros moyen d’une compagnie d’assurance vie. Les résultats obtenus nous permettront de pouvoir ainsi évaluer l’efficacité des différentes alternatives de modélisation présentées dans ce mémoire. Le modèle ALM comprend donc les caractéristiques qui assurent d’avoir l’optionnalité liée à un portefeuille classique d’euros en assurance vie. Il est également relié à un générateur de scénario économique qui va nous permettre de faire des projections aussi bien en univers risque neutre qu’en univers monde réel. 6.1 Le Modèle ALM Le modèle ALM est un outil de gestion actif/passif. La gestion actif/passif a été définie en 2002 par Piermay, Mathoulin et Cohen : La gestion actif/passif consiste d’une part à analyser la couverture des engagements d’un assureur ou d’un investisseur institutionnel par les actifs dans une perpective de déroulement dans le temps. Elle recouvre d’autre part l’ensemble des actions visant à piloter le bilan de l’institution. L’absence de de gestion actif-passif aussi bien au sens de l’analyse que de l’action est pour beaucoup dans les difficultés rencontrées par les assureurs et les fonds de pension au cours des quinze dernières années dans différents pays : couverture d’engagement certains par des espoirs de plus-values, prolongation de la tendance passée, absence d’examen de scénarios d’évolution des actifs et du passif. Le modèle ALM permet donc de modéliser l’actif et le passif ainsi que les différentes interactions qui peuvent exister entre ces deux derniers. IL permet aussi de prendre en compte les "management rule" qui peuvent être par exemple l’allocation d’actifs, la participation aux bénéfices ou encore la réalisation de plus ou moins values. On obtient alors sur un scénario de l’Economic Scenario Generator (ESG) l’ensemble des flux liés au portefeuille : – Produits financiers – Frais de gestion – Impôts – Prestations liées aux décès, rachats, etc. – Charges financières A partir de ces flux on obtient pour chaque scénario le résultat futur de l’assureur. Cela 34 constitue donc un outil de décision indispensable pour les assureur dans le cadre par exemble de lancement d’un nouveau produit ou de l’étude de la rentabilité des produits existants. Nous présentons dans la suite un modèle ALM simplifié qui a servi à la réalisation de ce mémoire. 6.1.1 Modélisation du passif Le passif a été modélisé de façon agrégée et le modèle prend en compte à la fois le nombre de polices et le montant des provisions mathématiques. Primes Futures : Les primes futures unitaires sont définies arbitrairement. Le montant de la prime future ainsi arbitrairement défini est ajusté en fonction du nombre de polices en cours. Les rachats : Les rachats sont modélisés annuellement et dépendent du montant des provisions techniques et du nombre de polices en cours en début de période. Les frais : Les frais ont été modélisés et dépendent du nombre de polices en cours. Taux minimum garanti : Un taux minimum garanti de 1% a été modélisé Taux de marché et comportement dynamique : Un taux de marché a été modélisé et correspond au taux zéro coupon à 5 ans et représente le taux attendu par les assurés. Par ailleurs un comportement dynamique des assurés a été modélisé. En fonction de la différence entre le taux servi et le taux attendu par les assurés, un taux de rachat conjoncturel est appliqué et varie entre -50% et +50%. Provisions techniques : Les provisions techniques sont calculées comme la valeur actualisée des flux futurs. 6.1.2 Modélisation de l’actif Deux types d’actifs sont modélisés : les actions et les obligations. Obligations : Le modèle ALM permet d’investir en cours de projection sur des obligations dont la maturité restante varie entre 1 et 10 ans. A chaque étape de la projection, la valeur de marché des obligations est calculée en utilisant la courbe des taux issue du générateur de scénario. La valeur comptable est calculée en fonction du montant acheté et vendu, et amortie selon une méthode actuarielle. La réserve de capitalisation n’a pas été modélisée. Les actions : La valeur de marché des actions est projetée dans le modèle en fonction du modèle action total return issu du générateur économique de scénario, en prenant en compte un taux de dividende de 2%. Enfin, 75% des plus ou moins values sont réalisées. Allocation de l’actif : L’allocationd’actif est fixe pendant toute la durée de la projection et basée sur la valeur de marché des actifs. Les actifs sont rebalancés à la fin de chaque période afin de respecter l’allocation suivante : 35 Catégorie d’actif Obligations Actions Total 6.2 % de la valeur de marché totale de l’actif 80% 20% 100% Le Générateur de scénario Le génération de scénarios représente avec le modèle ALM un pilier du modèle interne en assurance vie. L’ESG est un outil de simulation stochastique permettant comme son nom l’indique de généreur des scénarios économiques. Plus précisément il va permettre de simuler différentes variables économiques qui vont alimenter le modèle ALM : – Courbe des taux – Inflation – Rendement des indices actions – Immobiler – etc. La définition des modèles ainsi que le calibrage revêtent donc un caractère très important dans le processus de calibrage des portefeuilles répliquants. En effet du générateur de scénario vont dépendre les flux à répliquer. Le générateur de scénario joue donc un rôle central dans le calcul du SCR dans le sens où la directive Solvabilité 2 impose une logique de cohérence avec les valeurs de marché. La mise en oeuvre du générateur de scénarios constitue donc une étape cruciale et des test de market-consistency ( test de martingalité, reproduction de la courbe des taux sans risques, reproduction des paramètres de calibrage, etc.) doivent notamment être réalisés sur les scénarios générés afin de garantir leur qualité. On pourra se référer à [10] pour plus de détails sur l’importance du générateur de scénarios économiques. L’objet de ce mémoire étant principalement axé sur le processus de calibration des portefeuilles répliquants nous n’entrerons pas dans les détails de la mise en oeuvre du générateur de scénario qui a servi dans le cadre de notre étude. Nous présentons donc brièvement dans cette partie les modèles utilisés. 6.2.1 Les univers monde réel et risque-neutre La génération des scénarios économiques en assurance vie peut se faire sous deux probabilités distinctes en fonction de l’étude qui est menée : – L’univers monde réel correspond à une probabilité utilisée pour choquer ou prédire le niveau de richesse à un an. Il s’agit d’une probabilité subjective reposant sur la vue de l’évolution future des conditions de marché ; elle est souvent estimée à partir de données historiques des variables financières étudiées et permet notamment l’études de quantiles des variables d’intérêts. Sous la probabilité monde réel (ou historique) les rendements des actifs incluent une prime de risque – La probabilité risque neutre est une probabilité utilisée pour valoriser les postes du bilan : elle a la propriété d’assurer l’absence d’opportunité d’arbitrage. Sous la probabilité risque-neutre, tous les processus de prix évoluent en moyenne au taux sans risque Le générateur de scénarios économiques décrit dans cette section et qui a servi lors de cette étude permet de générer les variables économiques suivantes dans des scénarios monde réel 36 et risque neutres : – Les taux zéro coupon sur l’horizon de projection c’est-à-dire 25 ans – Les déflateurs ou facteurs d’actualisation stochastique – Le rendement de l’indice action sur la période Les scénarios sont donc générés sous certaines hypothèses sur les facteurs de risques suivants : – Le taux zéro-coupon 1 an – Le taux zéro-coupon 5 ans – Le taux zéro-coupon 15 ans – Le rendement annuel de l’action sur la période de projection – Le taux de rendement instantané rt Les hypothèses concernant les modèles utilisés en monde réels sont les suivants : – Les taux de rendements instantanés suivent une loi normale N (0, σsr ) – Les taux 1 an, 5 ans et 15 ans suivent respectivement des lois normales N (0, σyc1 ), N (0, σyc5 ) et N (0, σyc15 ) – Le rendement de l’action suit une loi normale N (1, σsh ) – la courbe des taux initiale est flat Concernant les projections en risque neutre l’hypothèse d’absence d’opportunité d’arbitrage est garantie par la martingalité des actifs actualisés du marché. Les actions suivent un modèle de Black et Scholes et les taux sont diffusés selon le modèle de Hull et White. 6.2.2 Le modèle Action Pour le modèle action on choisit le modèle classique de Black et Scholes qui présente l’avantage d’être simple et permet d’avoir des formules fermées relativement facilement. On définit (St )t≥0 le processus qui définit l’évolution de l’indice action en univers historique qui vérifie l’équation différentielle stochastique suivante : dSt = µSt dt + σSt dWt où : – µ représent la moyenne des rendements – σ la volatilité – W un mouvement brownien standard On peut alors montrer que : 1 2 St = S0 e(µ− 2 σ )t+σWt (6.1) (6.2) Sous la mesure risque-neutre P∗ , on a : dSt = St (rt dt + σS dWt∗ ), 0 ≤ t ≤ T. (6.3) où (Wt∗ )0≤t≤T est un mouvement brownien standard sous P∗ et rt représente le processus de taux simulé par l’ESG. En l’occurrence rt est diffusé selon le modèle de Hull et White. On a donc les équations stochastiques suivantes : dSt = rt dt + σsh dWt,1 St drt = (1 − art )dt + σdWt,2 < dWt,1 , dWt,2 > = φdt où σsh et φ sont respectivenment la volatilité de l’indice action et le coefficient de corrélation entre les taux courts et l’indice action. 37 La solution du système d’équation précédent est donc : 1 2 t + σwt ) St = S0 exp(rt t − σsh 2 6.2.3 (6.4) Le modèle de taux Le modèle de taux utilsé dans le cadre de notre générateur de scénario appartient à la classe des modèles dits HJM (Heath Jarrow Morton). Cette classe de modèle de taux admet que sous la probabilité risque neutre les zéros coupons suivent la dynamique suivante : dB(t, T ) = B(t, T )(rt dt + Γ(t, T )dwt où B(t, T ) est le prix d’une obligation zéro coupon, Γ(t, T ) une fonction de volatilité et wt un mouvement brownien. La solution de cette équation différentielle stochastique est donnée par : B(t, T ) = B(0, T )e Rt 0 rs ds+intt0 Γ(s,T )dws − 21 Rt 0 Γ(s,T )2 ds En prenant T = t, et en utilisant le fait que B(t, t) = 1, on a : Rt 1 = B(0, t)e 0 rs ds+intt0 Γ(s,t)dws − 21 Rt 0 Γ(s,t)2 ds En divisant les deux équations précédentes on obtient la relation finale suivante pour un zéro coupon : B(0, T ) R t rs ds+intt0 (Γ(s,T )−Γ(s,t))dws − 1 R t (Γ(s,T )2 −Γ(s,t)2 )ds 2 0 e0 (6.5) B(t, T ) = B(0, t) Les taux forward continus R(t, T ) entre T et T + θ à la date t est défini par : eθR(t,T ) = 1 B(T,T +θ) où B(T, T + θ) est la valeur d’un zéro coupon forward qui satisfait par absence d’opportunité d’arbitrage : B(T, T + θ) = B(t,T +θ) B(t,T ) En particulier, les taux courts s’écrivent : Rt Rt rt = f (0, t) − 0 γ(s, t)dws + 0 γ(s, t)Γ(s, T )ds Le modèle Hull et White suppose que sous la probabilité risque neutre, le taux court rt vérifie l’équation : drt = (1 − art )dt + σr dWt où : – Wt est un mouvement brownien – a est la vitesse de retour à la moyenne – σr est la volatilité des taux courts Le modèle Hull et White ainsi défini correspond à un cas particulier du modèle HJM où on a : γ(s, T ) = −σ(s) exp(−a(t − s)) En effet dans ce cas on : 38 Γ(s, T ) = −σ(s) 1−exp(−a(t−s)) a Cela implique que la valeur du taux court rt dans le modèle HJM est donnée par : Z t Z t 1 rt =f (0, t) + exp(−at) σ(s) exp(as)dWs + exp(−at) σ 2 (s) exp(as)ds a 0 Z t 0 1 − exp(−2at) σ 2 (s) exp(2as)ds a 0 En différenciant l’équation précédente on a donc : Z t ∂f (0, t) drt = dt + σ(t)dwt − a exp(−at) σ(s) exp(as)dWs dt− ∂t 0 Z t Z t 2 2 exp(−at) σ (s) exp(as)ds + 2 exp(−2at) σ (s) exp(2as) 0 0 d’où : drt + art dt = af (0, t)dt + ∂f (0,t) dt ∂t + R t 0 γ(s, t)2 ds dt + σ(t)dWt On en déduit que si la condition suivante est satisfaite, le modèle de Hull et White appartient à la classe des modèles HJM : Rt (0,t) + 0 γ(s, t)2 ds θ(t) = af (0, t) + ∂f∂t Nous venons donc de démontrer qu’avec un choix adapté de γ(s, t), le modèle de Hull et White fait partie de la classe des modèles dits HJM. En tant que tel il s’ajuste mécaniquement à la courbe des taux initiale qui est déduite par interpolation linéaire des taux en entrée du modèle (les taux 1 ans, 5 ans et 15 ans) et constitue donc un input au modèle. C’est une caractéristique qui sera essentielle lorsqu’il faudra valoriser le portefeuille répliquant. Le modèle ainsi défini, on peut maintenant évaluer le prix des zéro-coupons. En effet l’équation différentielle stochastique suivante : Z t ∂f (0, t) drt = dt + σ(t)dwt − a exp(−at) σ(s) exp(as)dWs dt− ∂t 0 Z t Z t 2 2 σ (s) exp(2as) exp(−at) σ (s) exp(as)ds + 2 exp(−2at) 0 0 admet une unique solution donnée par : R t – rt = exp(−at)r0 + a1 (1 − exp(at)) + (σ − exp(−at)) 0 exp(as)dWs 2 – rt suit une loi normale : N (exp(−at)r0 + a1 (1 − exp(−at)), σ2a (1 − exp(−2at))) En utilisant la définition du prix d’un zéro coupon dans le modèle HJM, on obtient la distribution suivante pour les déflateurs P (s, t) = A(s, t) exp(−B(s, t)r(s)) où : – B(s, t) = – A(s, t) = 1−exp(−a(t−s)) a P (0,t) (0,S) exp −B(s, t) ∂ log(P P (0,s) ∂s − 39 σ 2 (exp(−a(t−s)))2 (exp(2as)−1) 4a3 6.2.4 Discrétisation des processus Sous la probabilité risque neutre le cours des actions est solution de l’équation de Black et Scholes qui admet pour unique solution : 2 ) St = St−1 exp(rt − 12 σsh En utilisant le schéma de discrétisation d’Euler on obtient les équations suivantes qui vont nous permettre de simuler l’évolution des taux courts et de l’indice action : rt = rt−1 (1 − a) + σsr .W1 p 2 St = St−1 exp(σsh .W1 + σsh 1 − ψ 2 N (0, 1)) − 21 σsh St est actualisée à l’étape t + 1 afin de garantir la martingalité des prix. 6.2.5 Génération des déflateurs Les déflateurs sont des coefficients d’actualisation stochastiques qui permettent la modélisation stochastique de certains facteurs économiques tout en travaillant en probabilité risque neutre. Pour chaque scénario monde réel s, le déflateur à l’instant t est donné par la formule suivante : 1 D(s, t) = ZC(t, T )− T − 1 où ZC(t,T) est le prix à l’instant t d’un zéro coupon de maturité T, avec le modèle de Hull et White. Les prix des zéro coupons sont calculés à partir des données de chaque scénario monde réel. 6.2.6 Test de martingalité Le but de l’ESG dans le cadre de notre étude est de générer des scénarios qui permettront de valoriser le bilan économique de la compagnie. Ils serviront également à la création des portefeuilles répliquants pour le calcul du capital règlementaire. Il est donc indispensable de justifier la robustesse du modèle pour le faire valider dans le cadre de Solvabilité 2. Un contexte risque neutre est indispensable à la validité des modèles de diffusion et dans ce cadre la martingalité des prix actualisés de chacun des facteurs de risque garantit l’unicité de la probabilité risque neutre. Cette unicité garantit la complétude des marchés et donc l’absence d’opportunité d’arbitrage. Afin de garantir ces caractéristiques essentielles de l’ESG, des tests de martingalité sont donc effectués : P i 1 i i D (t)S (t) ≈ S(0) N où – Di (t) est le déflateur du scénario i à l’instant t – S i (t) est la valeur de l’action à l’instant t P i 1 i i D (t)CF (t) ≈ V (0) N où – CF i (t) est le cashflow du scénario i à l’instant t – V (0) est la valeur du passif à l’instant 0 40 6.3 Calibration des portefeuilles : Réplication de passifs ou de marges ? On s’interroge dans cette section sur la variable d’intérêt à utilser pour la calibration des portefeuilles. L’assureur dispose pour ce faire soit des cash flows du passifs c’est à dire les cash flows liés à l’assuré, soit des cash flows de marges qui sont liés à l’actionnaire. Pour répondre à cette problématique nous allons calibre diffférents portefeuilles en utilisant ces deux méthodologies. Cela nous permettra de valider le choix de la variable à utiliser pour la suite du mémoire. Avant de calibrer les portefeuilles répliquants nous allons calculer dans un premier temps le capital économique en utilisant une approche Simulations dans les Simulations. La simplicité du passif et donc du modèle ALM utilisé nous permet en effet de faire ce calcul et d’obtenir également la distribution des fonds propres économiques. Les simulations ont été réalisées avec le modèle ALM que nous venons de présenter. 5000 scénarios en monde réel ont été générés pour calculer la distribution des fonds propres. Pour chacun de ces 5000 scénarios, 1000 scénarios risque neutres ont été utilisés pour valoriser le bilan économique sur un horizon de 25 ans. En outre le modèle a également été utilisé pour évaluer le passif dans les situations de marché suivante : – Choc taux +100bps – Choc taux +100bps – Choc action -30% – Choc action +30% – Choc combiné +100bps/-30% – Choc combiné -100bps/-30% Ces sensibilités vont nous permettre de rendre plus robuste la calibration des portefeuilles répliquants. En effet on a les quatre premières sensibilités (action et taux) qui sont des sensibilités classiques dans le sens où on essaye de s’assurer que la sensibilité des portefeuilles obtenus aux principaux facteurs de risques soient identiques aux sensibilités du passif. Les deux dernières sensibilités quant à elle résultent de l’analyse des scénarios qui conduisent à des NAV extrêmes parmi les 5000 scénarios monde réel. Les résultats obtenus vont nous servir de référence afin d’évaluer l’efficacité des méthodologies développées dans la suite du mémoire. Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/-30% Choc combiné -100bps/-30% Valeur de marché de l’actif 100,4 96,7 104,5 107,0 93,8 90,1 97,9 Best Estimate 77,6 63,2 96,8 82,0 75,2 60,2 93,7 NAV 22,9 22,9 33,4 7,7 25,0 29,8 4,1 Table 6.1 – Valorisation du bilan Le graphique suivant nous permet de visualiser la distribution des fonds propres qui met en exergue l’optionnalité du portefeuille ainsi que l’asymétrie entre la queue de distribution 41 gauche et droite qui dénote l’asymétrie entre les assurés et l’actionnaire. Ce graphique représente la distribution de la Net Asset value ( NAV ) sur l’ensemble des 5000 scénarios et classés dans un ordre décroissant. Dans cette partie nous allons calibrer plusieurs portefeuilles Figure 6.1 – Distribution des fonds propres SdS en choisissant la méthodologie utilisée par AXA qui est la régression des moindres carrés ordinaire. Ces portefeuilles vont nous servir de référence pour évaluer la qualité des portefeuilles qu’on va obtenir avec les différentes méthodes qui vont être implémentées par la suite. Les instruments financiers utilisés sont les suivants : – Les zéro coupons – Les swaptions payeuses et receveuses – Les Calls et les Puts Ces trois classes d’actifs sont souvent utilisées pour la réplication de la plupart des portefeuilles du groupe AXA. Les zéros coupons pour la partie fixe de la garantie, les swaptions pour les rachats, et les Calls (ou Puts ) pour l’exposition aux actions. Des actifs un peu plus exotiques peuvent être toutefois ajoutés en fonction des caractéristiques spécifiques de certains portefeuilles. Par exemple dans le cas où l’inflation serait modélisé et que les cashflows du passif en dépendent, on pourrait ajouter à la liste précédente des zéros coupon inflation. 6.3.1 Portefeuille A Ce portefeuille a été calibré en utilsant les cash flow de passifs, aucune sensibilité n’a été forcée. Figure 6.2 – Qualité d’ajustement du portefeuille A Figure 6.3 – Distribution fonds propres Portefeuille A 42 BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,4 -2,4 -17,3 16,2 RP A 77,6 -14,4 19,1 4,4 -3,4 -17,5 15,2 Différence 0 0 +0,15 0 +1,0 +0,13 +0,9 Table 6.2 – Sensibilités Portefeuille A Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP A -53,1 -41,1 -18,3 -7,5 11,3 22,3 30,9 41,5 46,3 54,6 57 Différence 17,9 16,3 11,4 8,7 3,3 0 -2,8 -6,3 -8,2 -11,4 -12,3 Table 6.3 – Ecarts Portefeuille A La table 6.2 représente pour la situation de marché initiale et les différents chocs de marché la valeur du passif obtenue via le modèle ALM ainsi que la valeur du portefeuille répliquant. La troisième colonne représente la différence entre les deux valeurs précédentes. Ce tableau permet d’évaluer la robustesse de la calibration obtenue. En effet les écarts entre les sensibilités du portefeuille et les valeurs de marchés du passif pour ces sensibilités peuvent être considérées comme un critère de qualité. La figure 6.2 comporte deux figures. Celle de gauche représente un nuage de points composé en abcisse des 1000 valeurs présentes des cash flows du passif dans les 1000 scénarios utilisés pour la calibration du portefeuille et en ordonnées des 1000 valeurs présentes des cash flow du portefeuilles répliquant. Une réplication parfaite donnerait des points alignés sur la première bissectrice et nous permet donc d’évaluer la qualité de la réplication en observant l’alignement du nuage de points par rapport à cette première bissectrice. Il comporte notamment une indication sur le coefficient R2 de la régression. La figure de gauche est un histogramme de la distribution des erreurs de la réplication. La figure 6.3 représente deux graphiques. Le graphique rouge est la distribution des fonds propres ordonnée de la plus petite à la plus grande pour les 5000 scénarios monde réel utilisés. Le graphique bleu représente les valeurs du portefeuille A dans l’ordre des 5000 scénarios monde réel du graphique rouge. Enfin la table 6.3 représente dans le même esprit que la figure 6.1 les différents quantiles de la distribution des fonds propres selon une vision simulation dans les simulations et une seconde vision en utilisant le portefeuille A. La dernière colonne est la différence entre les deux valeurs précédentes. Notre attention se portera tout au long du mémoire particulièrement sur le quantile à 99,5%. Ici on a pour le portefeuille A une différence de 17,9 sur l’estimation du quantile à 99,5%, ce qui représente un écart assez conséquent. Cela est du essentiellement aux différentes sensibilités 43 qui ne sont pas consistantes comme on peut le voir dans le tableau 6.2. 6.3.2 Portefeuille B Le portefeuille B a été calibré en deux temps. Une première phase pendant laquelle on calibre le portefeuille sur des cashflows de passif obtenus via un jeu de scénarios orthogonaux. Les scénarios orthogonaux consistent en 500 scénarios monde réel. Les scénarios monde réel sont les sorties de l’ESG que nous avons présentées plus haut. Pour chacun de ces scénarios monde réel on projette le passif à des fins de valorisation sur 100 scénarios risque neutre. Les corrélations entre les facteurs de risque sont fixés à 0 sur l’ensemble des scenarios. Cela va nous permettre d’augmenter le budget d’information dans les cashflows utilisés en input de l’algorithme de calibration des poids du portefeuille répliquant. Ce procédé revient à faire du LSMC dans le sens où on réduit le nombre de simulations risque neutre avec un nombre de simulations monde réel plus important. Les poids obtenus pour chacun des instruments sur les scénarios orthogonaux sont utilisés dans un second temps pour calibrer le portefeuille sur les cash flows de passifs initiaux. Figure 6.4 – Qualité d’ajustement du portefeuille B Figure 6.5 – Distribution fonds propres Portefeuille B BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,4 -2,4 -17,3 16,2 RP B 77,6 -15,8 19,4 4,4 -5,3 -20,7 13,7 Différence 0 +1,5 -0,16 0 +2,87 +3,39 +2,51 Table 6.4 – Sensibilités Portefeuille B 44 Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP B -40,6 -30,6 -12,2 -3,2 12,9 23 31,7 42,5 47 55,5 58,6 Différence 5,4 5,8 5,3 4,4 1,7 -0,8 -3,6 -7,3 -8,8 -12,4 -13,9 Table 6.5 – Ecart Portefeuille B 6.3.3 Portefeuille C Le portefeuilles A et B ont de très bonnes propriétés statistiques, avec notamment des coefficients R2 plutôt satisfaisants mais ils présentent deux principaux défauts : – Leur pouvoir de prédiction n’est pas très satisfaisant au vu des valeurs des portefeuilles sur les différentes sensibilités – On remarque également au niveau de la queue de la distribution un mauvais ajustement Le portefeuille C a été calibré sur les cash flow de passif comme le portefeuille A, mais on a forcé ici les 5 premières sensibilités. On constate un R2 plus dégradé que celui du portefeuille A mais un ajustement à la distribution des fonds propres plutôt satisfaisant. Figure 6.6 – Qualité d’ajustement du portefeuille C Figure 6.7 – Distribution fonds propres Portefeuille C BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,4 -2,4 -17,3 16,2 RP C 77,6 -14,4 19,2 4,4 -2,4 -17,3 17,5 Différence 0 0 0 0 0 0 -1,32 Table 6.6 – Sensibilités Portefeuille C 45 Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP C -39,4 -34,7 -13,3 -4,3 13,1 22,6 30,5 40,9 45,4 53,8 57,6 Différence 4,2 9,9 6,4 5,6 1,6 -0,4 -2,4 -5,7 -7,2 -10,6 -12,9 Table 6.7 – Ecarts Portefeuille C On constate néanmoins, malgré la qualité d’ajustement à la distribution des fonds propres, une augmentation significative de la volatilité par rapport aux deux portefeuilles précédents. Cela est essentiellement dû au fait qu’on ait forcé certaines sensibilités. 6.3.4 Calibration des portefeuilles : vision marges Comme nous l’avons détaillé dans la première partie de ce mémoire, AXA utilise la technique des portefeuilles répliquants pour le calcul du capital économique basée sur une réplication des passifs. On peut néanmoins s’interroger sur ce choix de modélisation car la variable d’intérêt dans le calcul du capital économique est la marge de la compagnie. Il est donc plus judicieux de calibrer directement les portefeuilles sur les cashflow de marge plutôt que sur les passifs. En effet cette méthode permet de mieux maîtriser l’erreur commise dans l’estimation du capital économique. On suppose que l’ordre de grandeur du BE des passifs étant supérieur à celui des fonds propres, un écart dans l’estimation du passif produirait une erreur dans l’estimation du capital plus élevée que l’erreur qu’on obtiendrait si le même écart était constaté dans l’estimation des fonds propres. Devineau et Chauvigny démontrent bien ce raisonnement et en arrivent à la conclusion qu’une erreur de 1% dans l’estimation du passif peut conduire à plus de 20% d’erreur dans l’estimation du capital économique. Nous avons donc testé cette approche afin de pouvoir comparer les résultats qu’on obtient en terme de composition de portefeuilles mais également en terme d’estimation de certains quantiles de la distribution des fonds propres. Nous avons gardé les mêmes instruments financiers que ceux utilisés pour calibrer les portefeuilles sur les cashflows de passifs. En effet les fonds propres étants obtenus par différence entre la valeur de marché des actifs et le BE de passif, les instruments ayant servis à calibrer les passifs devraient être les mêmes. Les résultats sont détaillés en annexe pour chacun des portefeuilles. Une analyse de la distribution des portfeuilles calibrés sur les marges démontrent dans l’ensemble une qualité assez satisfisante. Néanmoins on ne constate pas une amélioration significative dans l’estimation du quantile à 99,5% notamment. On remarque que contrairement à la régression sur les cash flows de passif, la régression sur les marges tend à sous-estimer la charge en capital. Cela se voit très bien sur les graphiques où on note que la courbe rouge se situe en dessous de la courbe bleue au niveau de la queue de la distribution. On s’en rend compte sur les résultats obtenus avec le portefeuille A notamment (Cf Annexe). 46 Conclusion : La calibration d’un portefeuille en utilisant les cash flows de marges plûtôt que les cash flows de passifs n’améliore pas significativement la qualité de la préplication. En effet les résultats sur les sensibilités ainsi que la qualité de régression des portefeuilles ne montre pas une différence majeure entre ces deux méthodologies. Nous avons donc fait le choix pour la suite du mémoire d’utiliser les cash flows de passifs qui permettent une lecture plus intuitive des instruments financiers en termes de passifs d’assurance. 47 Chapitre 7 Développements réalisés 7.1 La régression PLS La méthode PLS est une méthode de régression linéaire de c variables réponses sur p variable explicatives toutes mesurées sur les même individus. Les tableaux des observations notés respectivement Y et X, de dimensions n × c et n × p. L’intérêt de la méthode comparée à la régression des moindres carrés ou la régression sur composantes principales, réside dans le fait que les composantes PLS sur les X, notées t, sont calculées dans le même temps que des régressions partielles sont exécutées. Cette simultanéité devrait leur conférer un meilleur pouvoir prédictif que cellui obtenu en utilisant la régression classique des moindres carrés ou une régression en composantes principales par exemple. Nous décrivons dans la suite les différentes étapes de calcul des coefficients de régression. Les résultats obtenus via cette méthode en la testant sur les portefeuilles A, B et C. 7.1.1 Présentation de la méthode Principe de l’algorithme et passage à l’écriture matricielle On considère que les vecteurs xj des variables explicatives et que le vecteur y de la variable à expliquer sont centrés. On note X la matrice individus × variables de dimension n × p. Dans le cadre des portefeuilles n représente donc le nombre de scénarios utilisés lors de la réplication et p le nombre d’instruments qui représentent ici nos variables explicatives. On va donc chercher le vecteur ah = (ah1 , · · · , ahp ) des coefficients du modèle de régression à h composantes. Première étape : On construit la première composante t1 comme une combinaison li0 néaire des p variables explicatives xj . Les coefficients wh = (w11 , · · · , w1J , · · · , a1p ) de cette combinaison linéaire cherchent à résumer le mieux possible les variables explicatives xj et à expliquer au mieux la variable y : t1 = w11 x1 + · · · + w1p xp cov(x ,y) w1j = √Pp j 2 j=1 cov (xj ,y) On effectue ensuite une régression simple de y sur t1 : y = c1 t1 + y1 où y1 est le vecteur des résidus et c1 est le coefficient de régression : 48 c1 = cov(y,t1 ) σt2 1 On en déduit donc une première équation de régression : y = c1 w11 x1 + · · · + c1 w1p xp + y1 | {z } | {z } a11 a1p On peut passer à l’écriture matricielle sachant que les vecteurs xj et y sont centrés : P 0 cov(xj , y) = ni=1 xij yi = xj y P 0 cov(y, t1 ) = ni=1 yi t1i = y t1 P 0 σt21 = ni=1 t1i t1i = t1 t1 d’où 0 w1 = X y kX 0 yk t1 = Xw1 0 c1 = y t1 0 t1 t1 a1 = c1 w1 Deuxième étape : On construit une deuxième composante t2 , non corrélée à t1 et expliquant bien le résidu y1 . Cette composante t2 sera une combinaion linéaire des résidus x1j des régressions simples des variables xj sur t1 : t2 = w21 x11 + · · · + w2p x1p cov(x ,y ) w2j = √Pp 1j2 1 j=1 cov (x1j ,y1 ) Pour calculer les résidus x1j , on réalise une régression linéaire de toutes les variables xj sur t1 : xj = p1jt1 + x1j où x1j est le vecteur des résidus et p1j est le coefficient de régression : p1j = cov(xj ,t1 ) σt2 1 d’où, x1j = xj − p1j t1 On effectue ensuite une régression de y sur t1 et t2 : y = c1 t1 + c2 t2 + y2 où c1 est le coefficient de régression de la première étape et c2 est le coefficient de la régression simple de y1 sur t2 et y2 est le vecteur des résidus de cette régression : y1 = c2 t2 + y2 d’où 49 c2 = cov(y1 ,t2 ) σt2 2 Nous verrons dans la suite comment calculer le vecteur a2 des coefficients de l’équation de régression : y = a21 x1 + · · · + a2p xp + y2 En passant à l’écriture matricielle, et en sachant que les x1j ety1 sont centrés et en notant X1 = (x11 , · · · , x1p ) la matrice des résidus x1j : 0 X t1 0 kt1 t1 k p1 = 0 X1 = X − t1 p1 y1 = y − c1 t1 0 w2 = X1 y1 0 kX1 y1 k t2 = X1 w2 0 y1 t2 0 t2 t2 c2 = Etapes suivantes : Cette procédure itérative peut se poursuivre en utilisant de la même manière les résidus y2 et x21 , · · · , x2p . Le nombre de composantes t1 , · · · , tH à retenir peut être déterminé en utilisant un critère de validation croisée qui sera présenté dans la suite de cette section. L’utilisation de cette méthode de régression requiert donc un critère d’arrêt de la boucle en sachant que nombre de variables latentes final ne doit évidemment pas dépasser le rang de la matrice A. L’idéal est de ne pas avoir un surajustement afin de ne pas dégrader le pouvoir de prédiction du modèle, ce qui est l’objectif du portefeuille répliquant. L’algorithme L’algorithme suivant décrit dans [23] a donc été implémenté dans l’outil de calibration : Etape 1 : X0 = Xet y0 = y Etape 2 : Pour h = 1, · · · , H : Etape 2.1 : Calcul du vecteur wh = (wh1 , · · · , whj , · · · , whp ) 0 Xh−1 yh−1 wh = 0 k Xh−1 yh−1 k (7.1) Etape 2.2 : Calcul de la composante th th = Xh−1 wh (7.2) Etape 2.3 : Calcul du coefficient de régression ch de yh−1 sur th 0 y th ch = h−1 0 th th (7.3) Etape 2.4 : Calcul du vecteur yh des résidus de la régression de yh−1 sur th yh = yh−1 − ch th 50 (7.4) Etape 2.5 : Calcul du vecteur ph des coefficients des régressions de xhj sur th 0 X th ph = h−1 0 k th th k (7.5) Etape 2.6 : Calcul de la matrice Xh des vecteurs des résidus des régressions de xhj sur th 0 Xh = Xh−1 − th ph (7.6) Calcul des coefficients de régression Comme on peut le constater, l’algorithme présenté ci-dessus ne calcule pas de manière explicite les coefficients de régression ah du modèle à h composantes : y = ah1 x1 + · · · + ahp xp + yh = Xah + yh En effet on peut monter que : ah = c1 w1∗ + · · · + ch wh∗ (7.7) 0 où Ch = (c1 , · · · , ch ) est le vecteur des coefficients des régressions linéaires sur les h composantes, et Wh∗ = (w1∗ , · · · , wh∗ ) est la matrice des h vecteurs wh∗ vérifiant : ∗ ∗ th = wh1 x1 + · · · + whp xp = Xwh∗ (7.8) On peut montrer que le vecteur wh∗ est défini par la formule de récurrence suivante : wh∗ = wh − h−1 X 0 wk∗ (pk wh ) (7.9) k=1 Il suffit alors de rajouter à l’étape 2 de l’algoritme présenté plus haut les étapes 2.7 et 2.8 suivantes : Etape 2.7 : wh∗ = wh Pour k = 1, · · · , h 0 wh∗ = wh − wk∗ (pk wh ) Etape 2.8 : ah = Wh∗ Ch Pour retrouver la formule [4] à partir de [5], on sait que : y = c1 t1 + · · · + ch th + yh th = Xwh∗ d’où y = c1 Xw1∗ + · · · + ch Xwh∗ + yh = X (c1 w1∗ + · · · + ch wh∗ ) +yh | {z } ah Pour retrouver la formule de récurrence 7.9 on procède comme suit : – Le calcul de w1∗ est immédiat cart1 = X w1 |{z} w1∗ 51 – Pour trouver w2∗ , on cherche w2∗ tel que t2 = Xw2∗ . On a : t2 = X1 w2 0 = (X − t1 p1 )w2 0 = (X − Xw1 p1 )w2 0 = X(w2 − w1 p1 w2 ) | {z } w2∗ – Pour trouver w3∗ , on procède de la même manière : t 2 = X2 w 3 0 = (X1 − t2 p2 )w3 0 0 = (X − t1 p1 − t2 p2 )w3 0 0 = X(w3 − w1 (p1 w3 ) − w2∗ (p2 w3 )) | {z } w3∗ Donc en généralisant à une étape h quelconque de l’algorthme on retrouve facilement 7.9. Choix du nombre de composantes par validation croisée (PRediction Error Sum of Squares (PRESS)) La procédure de validation croisée pour le choix du nombre de composantes présentée par [23] est la suivante. A chaque étape h et donc pour chaque nouvelle composante th on calcule le critère suivant : Q2h = 1 − P RESSh RSSh−1 Pn 2 Pour h = 1, on a RSS0 = i=1 (yi − yi ) . Une nouvelle composante th est significative 2 et donc conservée si Qh ≥ 0.0975 . Ce seuil peut être également fixé à 0.05 si la taille de l’échantillon est inférieur à 100 et 0 si la taille de l’échantillon est supérieure à 100. On définit donc les critères RSSh et P RESSh qui sont calculés en utilisant le modèle de régression de y sur les h composantes suivant, y = c1 t1 + · · · + ch t∗h +yh | {z } (7.10) yc h pour calculer la prédiction ybh = y − yh . Donc pour chaque observation i : – on calcule la prédiction yc hi deyi à l’aide du modèle 7.10 obtenu en utilisant toutes les observations – on calcule la prédiction y[ h(−i) de yi à l’aide du modèle 7.10 obtenu sans utiliser l’observation i Les critères RSSh ( Residual Sum of Square) et P RESSh (PRediction Error Sum of Squares) sont alors définis par : P 2 RSSh = ni=1 (yi − yc hi ) et, P RESSh = Pn i=1 (yi 52 2 − y[ h(−i) ) Régression PLS avec contraintes linéaires Comme nous l’avons rappellé dans la première partie de ce mémoire, le programme d’optimisation que nous essayons de résoudre peut présenter des contraintes linéaires. Nous allons décrire dans les lignes qui suivent une méthode qui va nous permettre de nous ramener à un programme d’optimisation classique auquel on pourra appliquer la régression PLS définie plus haut. Avec les notations décrites dans la première partie, on souhaite résoudre une programme d’optimisation de la forme suivante : W ∗ = min k F I.W − L k BW =d Si on applique la décomposition QR (Cf Sectioin suivante ) à la matrice B T telle que : R p T T Q B = 0 n-p et on définit les matrices A1 , A2 , les vecteurs Y et Z tels que : F I.Q = A1 A2 p n-p Y p T et Q W = Z n-p On a alors B = RT QT et BW = RT QT W = RT T ; et (F I.Q)(QT W ) = F I.W = A1 Y + A2 Z. Avec ces notations notre problème initial peut être reformulé comme suit : min k A1 Y + A2 Z − L k RT Y =d L’équation RT Y = d permet de trouver la solution Y et Z est obtenu en se ramenant à un problème d’optimisation classique sans contraintes : min k A2 Z − (L − A1 Y ) k z La solution de notre problème initial avec contraintes est donc défini comme suit : Y ∗ W =Q Z La décomposition QR Il existe plusieurs moyens de décomposer une matrice quelconque ( décomposition SVD, LU, etc...) et l’une des plus utilisée est la décomposition QR. Théorème 1 Soit A une matrice orthogonale quelconque de Mn,m (C). Alors, ∃Q ∈ Mm,m une matrice orthogonale, ∃M ∈ Mn,m (C) une matrice triangulaire supérieure telles que A=QR 53 Cette décomposition est souvent utilisée pour résoudre des problèmes linéaires de la forme : Ax=B En effet, Ax = B ⇐⇒ QRx = B ⇐⇒ Rx = QT b. Cette dernière équation est beaucoup plus facile à résoudre du fait de la triangularité de la matrice R. Plusieurs méthodes existent pour réaliser cette décomposition : – L’orthogonalisation de Gram-shimdt – Les matrices de HouseHolder – La méthode de Givens Nous avons choisi la méthode de Householder qui permet de décomposer notre matrice originale par des itérations sucessives où on multiplie à chaque fois la matrice A par une matrice de Householder Hi . Une matrice de Householder est une matrice orthogonale qui applique l’opération suivante sur un vecteur quelconque : x x x 0 H x = 0 x 0 L’algorithme suivant permet de réaliser cette opération élémentaire qui servira à la décomposition QR : Soit x ∈ Rn , la fonction suivante calcule le vecteur v ∈ Rn tel que v(1) = 1 et β ∈ R tel que P = In − βvv T est orthogonal et P x =k x k2 e1 Fonction : [v,β] = house (x) n = longueur(x) 0 σ = x(2 : n) x(2 : n) 1 v= x(2 :n) si σ = 0 β=0 sinon p µ = x(1)2 + σ si x(1) <= 0 v(1) = x(1) − µ sinon −σ v(1) = x(1)+mu fin Si 2v(1)2 β = σ+v(1) 2 v v = v(1) fin Si Grâce à cet algorithme on peut maintenant définir l’algorithme de la décomposition QR : Pour j = 1, · · · ; n [v, β] = house(A(j : m, j)) 0 A(j : m, j : n) = (Im−j+1 − βvv )A(j : m, j : n) si j < m A(j + 1 : m, j) = v(2 : m − j + 1) fin Si fin For 54 7.1.2 Présentation des résultats La méthode PLS a été implémentée 1 dans l’outil de calibration afin de comparer les résultas qu’on obtient en termes de qualité de portefeuilles. Dans un premier temps on a utilisé les mêmes portefeuilles que ceux utilisés au début de cette partie. On ne constate pas une amélioration significative des résultats par rapport à l’ancienne méthode sur le quantile spécifique à 99,5%. Les résultats peuvent être qualifiés d’identiques sur l’ensemble de la distribution. En effet, cela s’explique par le fait que la méthode PLS converge quasiment vers la solution des moindres carrés. Cependant on remarque que la méthode PLS gère relativement bien la colinéarité qui peut exister entre les cash flow des actifs du portefeuille répliquant. En effet, la méthodologie actuelle utilisée par AXA gère les problèmes de colinéarité en utilisant la décomposition SVD et, avec la régression PLS, on arrive sans aucun ajustement à avoir des résultats presque identiques et même meilleurs pour certains portefeuilles. Portefeuille A Les inputs qui ont servi à calibrer ce portefeuille sont identiques à ceux du précédent portefeuille A décrit au début de cette partie. 15 variables latentes ont été nécessaires à l’algorithme PLS sur un nombre initial de 45 instruments. Figure 7.1 – Qualité d’ajustement du portefeuille A Figure 7.2 – Distribution fonds propres Portefeuille A BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,4 -2,4 -17,3 16,2 RP A 77,6 -14,25 19,11 4,38 -3,23 -17,17 15,50 Différence 0 -0,07 +0,09 +0,04 +0,83 -0,15 +0,68 Table 7.1 – Sensibilités Portefeuille A Les résultats obtenus sont quasiment identiques sur l’ensemble de la distribution par rapport aux résultats obtenus par la régression des moindres carrés avec l’ajustement SVD utilisé pour prendre en compte les effets de colinéarité entre les différents instruments financiers. Le quantile à 99,5% notamment est légèrement plus élevé. 1. La régression PLS ainsi que toutes les méthodes présentées dans ce chapitre ont été implémentées sous VBA Excel. Les codes VBA correspondants sont retranscrits en annexe. 55 Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP A -57,4 -44,8 -20,4 -9,1 10,6 21,8 30,6 41,2 46,1 54,1 56,5 Différence 22,2 20 13,5 10,4 4,1 0,4 -2,5 -5,9 -7,9 -11 -11,8 Table 7.2 – Ecarts Portefeuille A Portefeuille B La composition du portefeuille B ainsi que le mode de calibration sont identiques à ceux utilisés pour la calibration du pourtefeuille B de référence. 13 variables latentes ont été utilisées par l’algorithme PLS sur un nombre initial de 39 instruments. L’estimation du quantile à 99,5% est meilleure par rapport à la méthodologie basée sur la régression des moindres carrés avec ajustement SVD. Figure 7.3 – Qualité d’ajustement du portefeuille B Figure 7.4 – Distribution fonds propres Portefeuille B BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,4 -2,4 -17,3 16,2 RP B 77,6 -13,76 18,29 4,46 -4,9 -18,3 12,94 Différence 0 -0,56 +0,91 -0,03 +2,51 +0,97 +3,23 Table 7.3 – Sensibilités Portefeuille B Portefeuille C Le portefeuille C a été calibré sur les cash flow de passif comme le portefeuille A, mais on a forcé ici les 5 premières sensibilités en utilisant une version de la régression PLS avec contraintes. On constate un R2 plus dégradé que celui du portefeuille A mais un ajustement 56 Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP B -37,6 -28,4 -9,6 -1 14,7 23,9 30,9 38,4 41,8 46,5 48,9 Différence 2,4 3,6 2,7 2,2 -0,1 -1,7 -2,8 -3,2 -3,6 -3,3 -4,2 Table 7.4 – Ecarts Portefeuille B à la distribution des fonds propres plutôt satisfaisant avec une estimation de la VaR à 99,5% très bonne et identique à la méthode des moindres carrés avec l’ajustement SVD. Figure 7.5 – Qualité d’ajustement du portefeuille C Figure 7.6 – Distribution fonds propres Portefeuille C BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,4 -2,3 -17,3 16,1 RP C 77,6 -14 19,2 4,4 -2 -17 17,5 Différence 0 0 0 0 0 0 -1,3 Table 7.5 – Sensibilités Portefeuille C On constate néanmoins, malgré la qualité d’ajustement à la distribution des fonds propres, une augmentation significative de la volatilité. Cela est essentiellement dû au fait qu’on ait forcé certaines sensibilités. Choix du nombre de variables latentes Le choix du nombre de variables latentes des portefeuilles présentés ci-dessus a été réalisé sur la base du critère Q2h présenté plus haut. Un des inconvénients majeurs de cette approche est le temps de calibration en utilisant ce critère. En effet le calcul du PRESS à chaque étape de l’algorithme augmente significativement le temps de calcul. Une alternative à ce critère d’arrêt serait de se baser soit sur le RSS ou le R2 . On constate que le critère Q2h est à peu 57 Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP C -39,5 -35,3 -13,2 -4,3 12,7 21,7 29,4 39,4 43,7 52,2 56,4 Différence 4,3 10,5 6,3 5,5 2,0 0,5 -1,3 -4,2 -5,5 -9,0 -11,7 Table 7.6 – Ecarts Portefeuille C près équivalent à celui du R2 car, dès que Q2h passe en dessous de 0, les valeurs du Residual Sum of Square (RSS) et du R2 se stabilise. Une alternative acceptable serait donc de définir un critère d’arrêt sur le R2 ou le RSS dès qu’il se stabilise à un niveau, i.e, la différence de valeur de ces indicateurs entre deux étapes dépasse un certain seuil défini par l’utilisateur. Ce raisonnement se justifie heuristiquement par l’analyse de l’évolution du P RESSh , du RSSh , du R2 et du Q2h en fonction du nombre de variables latentes. Les graphes suivants illustrent notre propos pour le portefeuille A par exemple. Figure 7.7 – Evolution du P RESSh et du RSSh en fonction du nombre de variables latentes 7.2 Figure 7.8 – Evolution du R2 et du Q2h en fonction du nombre de variables latentes CashFlow mismatch La méthodologie développée dans cette partie est fortement inspirée de [7] qui propose une approche différente dans la calibration des poids d’un portefeuille répliquant dans un cadre plus général que celui de l’assurance. Nous avons donc adapté le modèle proposé à celui du calibrage des portefeuilles répliquants dans le cadre de l’étude qui nous intéresse. En effet, jusqu’ici les méthodes de réplication que nous avons implémentée ont toujours cherché à minimiser l’écart entre les cashflows du portefeuille et les passifs qu’on souhaite répliquer. De fait, cette approche qu’on pourrait qualifier de "classique" présente certains inconvenients : – On n’a aucun moyen de contrôler à quel point le portefeuille doit matcher les cash flows de passif. Cette approche de l’optimisation va donc fournir uniquement le meilleur 58 portefeuille qu’on peut avoir étant donné les instruments fournis en entrée du programme de minimisation. – Le processus de réplication utilisant une régression Moindres Carrés Ordinaires (MCO) classique ne permet pas de de vérifier a priori si les instruments financiers utilisés sont de bons candidats pour le portefeuille de passifs qu’on souhaite répliquer, même si l’écart minimum est atteint en termes d’erreur de réplication. On peut imaginer que l’écart minimum atteint demeure à un niveau très élevé. – La valorisation du portefeuille est faite séparément du processus de réplication. En effet le processus de calibration classique qui utilise la régression des moindres carrés ordinaires ne prend pas en compte le coût du portefeuille de réplication. Cette situation est problématique, car si il y a plusieurs portefeuilles d’actifs qui sont en mesure de répliquer les passifs, alors, du point de vue des prix, on préférerait le portefeuille le moins couteux. [7] propose donc une nouvelle approche pour calibrer le portefeuille de réplication en imposant des contraintes sur les écarts de cashflows. Cette méthode permet de pallier aux inconvénients de l’approche "classique" de calibration utilisée jusque là. Nous allons d’abord présenter le programme proposé par [7] et dans un second temps exposer comment nous l’avons adapté à la réplication des passifs en assurance vie. 7.2.1 Initialisation du problème Bien que nous ayons obtenu le portefeuille de réplication en utilisant un critère de minimisation de la fonction objectif, on propose ici d’imposer les contraintes sur les écarts de cashflows afin de trouver le portefeuille avec le coût minimal de réplication. Cela donne le problème d’optimisation suivant : " # XX k k arg min E xi Ct,i dt (7.11) x t∈T i∈A sous les contraintes suivantes pour chaque time bucket t : " # X k k f (xi Ct,i − Ct,j ) ≤ σt (7.12) i∈A,j∈L avec – – – – – les notations suivantes : x représente le vecteur des poids des instruments financiers dans le portefeuille A représente l’ensemble de nos instruments financiers Ct,i représente les cashflow de l’instrument financier i dt représente le facteur d’actualisation f est une fonction qui indique comment on souhaite que le matching des cashflows soit réalisé. Nous verrons plus loin des exemples de fonction qui peuvent être utilisées. L’interprétation économique de ce modèle est de trouver le portefeuille d’actifs le moins coûteux parmi l’ensemble des solutions possibles qui réplique au mieux les passifs en conformité avec les contraintes de faisabilité (σ)Tt=1 définies par l’utilisateur. Contrairement à l’optimisation classique basée sur les moindres carrés ordinaires, l’exigence sur la qualité de l’ajustement du portefeuille de réplication est contrôlée explicitement ici en réglant le niveau de tolérance défini par les (σ)Tt=1 . En outre, en raison des contraintes 7.12 qui constituent la région de faisabilité du problème, un problème avec un ensemble de solutions vide indique simplement soit un mauvais choix de portefeuille de réplication soit un choix inapproprié du niveau de 59 tolérance. Puisque l’un des principaux problèmes de réplication des passifs est la sélection des instruments appropriés pour la réplication, cette caractéristique du modèle est plutôt appréciable. En effet, dans ce modèle d’optimisation, le contrôle de faisabilité est intégré dans le processus de calibration à la différence de l’optimisation basée sur la régression des moindres carrés ordinaires, où le niveau de tolérance du portefeuille optimum ne peut être découvert qu’après avoir calibré le portefeuille. Pour résoudre le problème d’optimisation défini par 7.11 et 7.12, nous utilisons une approche par scénarios. En remplaçant l’espérance 7.11 par la moyenne empirique sur les 1000 scénarios, nous pouvons représenter le problème d’optimisation comme suit : " # n 1 X XX k k arg min xi Ct,i dt (7.13) x n k=1 t∈T i∈A sous les contraintes : n 1X f (ukt (x)) ≤ σt n k=1 (7.14) où pour chaque time bucket t on a : X ukt (x) = k k (xi Ct,i − Ct,j ) (7.15) i∈A,j∈L pour t ∈ T , et k = 1, · · · , n. Dans le cadre de notre étude et afin de pouvoir comparer les résultats obtenus ici avec ceux obtenus précédemment, nous allons travailler ici avec les cashfows en present value : cela revient à se limiter à une unique time bucket. On peut donc reformuler le problème de minimisation de la manière suivante : " # n X X 1 arg min xi P Vik (7.16) x n k=1 i∈A sous les contraintes : n 1X f (uk (x)) ≤ σ n k=1 (7.17) où pour k = 1, · · · , n on a : uk (x) = X (xi P Vik − Lk ) (7.18) i∈A avec les notations suivantes : – n représente le nombre de scénarios utilisés pour la calibration – A représente l’ensemble de nos instruments financiers – σ représente le seuil de tolérance – P Vik représente la valeur présente des cashflow de l’instrument i dans le scénario k Le choix de la fonction f sera bien sûr l’élément déterminant du programme d’optimisation. Le but sera de choisir une fonction f qui permette d’écrire le programme sous une forme linéaire. En effet, la particularité ici va être le fait qu’on va résoudre le problème en utilisant la programmation linéaire, notamment la méthode du simplexe (Cf [21]). 60 7.2.2 Absolute CashFlow mismatch Le premier choix évident de la fonction f en 7.17 est la fonction valeur absolue. Ce choix pénalise les écarts positifs et négatifs de façon égale et représente le total des écarts accumulé à travers tous les scénarios. En utilisant la fonction valeur absolue on a donc 7.17 qui devient : n 1X k |u (x))| ≤ σ n k=1 En introduisant la variable auxiliaire v k , la contrainte 7.19 se traduit comme suit : Pn v k ≤ nσ k=1 −v k + uk ≤ 0 −v k − uk ≤ 0 −v k ≤ 0 (7.19) (7.20) La fonction objectif 7.16 et les contraintes définies en 7.20 définissent un programme linéaire qu’on peut résoudre en utilisant la méthode du simplexe. On peut déjà tester ici les résultats de cette méthode en termes de calibrage d’un portefeuille répliquant. On a testé la méthode dans le cas d’un portefeuille sans contraintes (Portefeuille A1 et A2) et un portefeuille avec cinq contraintes (Portefeuille C1 et C2). Les mêmes instruments ont été utilisés que les portefeuilles A et C présentés plus haut : Portefeuille Portefeuille A1 Portefeuille A2 Portefeuille C1 Portefeuille C2 σ 6 5,3 8 9 Table 7.7 – Valeur du paramètre σ pour chaque portefeuille Figure 7.9 – Qualité d’ajustement du portefeuille A1 Figure 7.10 – Distribution fonds propres Portefeuille A1 61 BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,42 -2,39 -17,33 16,2 RP A1 77,6 -15,51 19,1 4,17 -4,36 -19,61 14,41 Différence 0 +1,18 +0,10 0,24 +1,96 +2,27 +1,76 Table 7.8 – Sensibilités Portefeuille A1 Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP A1 -43,9 -33,5 -13,9 -4,3 12,7 23,0 31,4 41,8 46,5 55,0 57,3 Différence 8,7 8,7 7,0 5,5 2,0 -0,7 -3,3 -6,6 -8,3 -11,8 -12,6 Table 7.9 – Ecarts Portefeuille A1 Figure 7.11 – Qualité d’ajustement du portefeuille A2 Figure 7.12 – Distribution fonds propres Portefeuille A2 62 BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,11 4,42 -2,39 -17,33 16,2 RP A2 77,6 -14,65 19,1 5,06 -3,55 -17,95 15,25 Différence 0 +0,32 +0,09 -0,63 +1,15 +0,62 +0,92 Table 7.10 – Sensibilités Portefeuille A2 Les résultats sont plutôt satisfaisants sur les deux portefeuilles avec des coefficients R2 plutôt élevés. On remarque également des poids nuls pour certains instruments en comparaison de la valeur qu’ils avaient pour le cas initial. Cela laisse supposer que cette méthodologie opère en quelque sorte une sélection des instruments. Les sensibilités sont meilleures et on obtient des résultats très satisfaisants sur la queue de la distribution pour le portefeuille A1. Malgré un coefficient σ moins élevé pour le portefeuille A2 par rapport au portefeuille A1, les résultats du portefeuille A1 sont beaucoup plus satisfaisants. Un coefficient σ trop bas peut donc conduire à des écarts très importants en termes d’estimation du quantile à 99,5%. Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP A2 -57,9 -45,8 -20,8 -9,6 10,3 21,9 31,2 42,4 47,4 55,9 58,1 Différence 22,7 21,0 13,9 10,8 4,4 0,3 -3,1 -7,2 -9,2 -12,7 -13,4 Table 7.11 – Ecarts Portefeuille A2 Figure 7.13 – Qualité d’ajustement du portefeuille C1 Figure 7.14 – Distribution fonds propres Portefeuille C1 63 BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,42 -2,39 -17,33 16,2 RP C1 77,6 -14,3 19,2 4,42 -2,39 -17,33 17,51 Différence 0 0 0 0 0 0 -1,3 Table 7.12 – Sensibilités Portefeuille C1 Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP C1 -36,8 -30,8 -11,3 -3,1 12,9 21,8 29,4 39,2 43,3 50,6 54,0 Différence 1,6 6 4,4 4,3 1,8 0,4 -1,3 -4 -5,1 -7,4 -9,3 Table 7.13 – Ecarts Portefeuille C1 Figure 7.15 – Qualité d’ajustement du portefeuille C2 Figure 7.16 – Distribution fonds propres Portefeuille C2 64 BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,42 -2,39 -17,33 16,2 RP C2 77,6 -14,3 19,2 4,42 -2,39 -17,33 17,50 Différence 0 0 0 0 0 0 -1,3 Table 7.14 – Sensibilités Portefeuille C2 Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP C2 -39,9 -34,1 -13,2 -4,4 12,6 22 29,9 40,3 44,6 52,9 55,9 Différence 4,7 9,3 6,3 5,6 2,1 0,2 -1,8 -5,1 -6,4 -9,7 -11,2 Table 7.15 – Ecarts Portefeuille C2 La méthode du simplexe étant optimisée pour les contraintes linéaires, l’ajout des contraintes de sensibilité se fait assez naturellement en rajoutant des contraintes d’égalité au programme d’optimisation représenté par 7.16 et 7.20. Il faut également noter que le programme d’optimisation permet de rajouter des contrainte moins coercitives sur les coefficients en définissant des seuils de tolérance pour le niveau d’erreur que l’utilisateur peut accepter sur les différentes sensibilités. Comme dans les sections précédentes l’ajout des contraintes dégrade le coefficient R2 mais donne des résultats très satisfaisants en améliorant l’estimation du quantile à 99,5%. Comme remarqué précédemment le coefficient σ lorqu’il est trop bas donne de moins bons résultats sur la distribution et plus particlièrement dans l’estimation du quantile à 99,5%. 7.2.3 Conditional Value-at-risk mismatch Les contraintes basées sur la somme de la valeur absolue des écarts ne capturent pas les écarts importants dans la queue de la distribution des erreurs. En effet, ce type de contrainte s’applique sur l’ensemble de la distribution, ce qui n’empêche pas d’avoir des écarts importants (aussi bien positifs que négatifs) dans certains scénarios. On peut illustrer ce type d’écart en réalisant un QQ-plot de l’erreur de réplication des portefeuilles A1 et C2 par exemple : On peut remarquer pour le portefeuille A1 un écartement de la bissectrice dans la queue gauche de la distribution des erreurs tandis que pour le portefeuille C2 cet écartement est encore plus accentué des deux côtés de la distribution. Du fait de l’utilisation qui est faite des portefeuilles répliquants, c’est-à-dire un proxy pour le calcul de la distribution des fonds propres économiques, ce type d’écart peut dégrader l’estimation de la VaR. Le but de cette partie est de pallier justement à ce type de problématiques. 65 Figure 7.17 – QQ-Plot Distribution des erreurs du portefeuille C2 (sans CVaR Mismatch) Figure 7.18 – QQ-Plot Distribution des erreurs du portefeuille A1 (sans CVaR Mismatch) Pour mesurer les écarts de cashflow dans la queue de la distribution, nous considérons la Conditional Value-At-Risk. La CVaR est une mesure de risque généralement utilisée dans le secteur financier et souvent préférée à la VaR par les gestionnaires de risques en raison de sa cohérence intrinsèque (voir Artzner et al (1997)). Une mesure de risque cohérente est également une mesure de risque convexe, ce qui est une propriété importante dans le cadre de problèmes d’optimisation. Soit β1 et β2 les deux paramètres qui définissent à combien de scénarios vont s’appliquer la contrainte pour chacun des côtés de la distribution des écarts de cashflows. Puis, comme pour la VaR, nous définissons deux percentiles correspondants α1 (x, β1 ) et α2 (x, β2 ) tels que : α1 (x, β1 ) = sup {u|P [−u(x, y) ≥ u] ≤ β1 } α2 (x, β2 ) = sup {u|P [u(x, y) ≥ u] ≤ β2 } où x est le vecteur des poids de nos instruments financiers et y représente l’aléa dont dépend la fonction u qui correspond aux écarts de cashflow. En supposant que le vecteur y a une fonction de densité de probabilité conjointe p(y), nous pouvons maintenant définir la VaR conditionnelle des écarts de cashflow comme suit : R g(β1 ) = −u(x,y)≥α1 (x,β1 ) u(x, y)p(y)dy R g(β2 ) = u(x,y)≥α2 (x,β2 ) u(x, y)p(y)dy En utilisant la même technique que Rockafellar et Uryasev (2000) [22] et Krokhmal et al (2002) [15], la VaR conditionnelle peut être approchée à l’aide d’un ensemble de n scénarios de simulation comme suit : P g(x, γ1 ) = γ1 + (1−β1 1 )n nk=1 [−uk − γ1 ]+ P g(xγ2 ) = γ2 + (1−β1 2 )n nk=1 [uk − γ2 ]+ où la fonction [.]+ est définie comme suit : x si x≥0 + [x] = 0 sinon 66 La VaR conditionnelle des écarts de cashflow peut donc être controlée en rajoutant des contraintes au problème initial 7.16 : g(β1 ) ≤ σ1 g(β2 ) ≤ σ2 Ces contraintes se traduisent donc comme suit en rajoutant des variables auxiliaires zik pour k = 1, · · · , n et i = 1, 2 : z1k ≥ −uk − γ1 z1k ≥ 0 P n −γ − 1 k 1 k=1 z1 ≥ σ1 (1−β1 )n (7.21) z2k ≥ uk − γ2 z2k ≥ 0 P n −γ − 1 k 2 k=1 z2 ≥ σ2 (1−β2 )n 7.2.4 Conditional Value-at-risk and Absolute mismatch On a vu dans la section précédente que les contraintes que nous avons définies ne peuvent être utiles qu’une fois combinées avec les contraintes sur les écarts de cashflow absolu. Nous allons donc tester dans cette dernière partie un programme d’optimisation regroupant toutes les contraintes qu’on a définies précédemment : " # XX k k arg min E xi Ct,i dt (7.22) x t∈T i∈A sous les contraintes : Pn vk v + uk v k − uk −v k z1k z1k P n −γ1 − (1−β1 1 )n k=1 z1k z2k z2k P n −γ2 − (1−β1 2 )n k=1 z2k k=1 k ≤ nσ ≤0 ≤0 ≤0 ≥ −uk − γ1 ≥0 ≥ σ1 ≥ uk − γ2 ≥0 ≥ σ2 (7.23) La difficulté dans cette partie a été de trouver les coefficients σ1 et σ2 adaptés au problème. En effet, une contrainte pas assez forte va fausser le programme d’optimisation dans le sens où les VaR solutions du programme ne correspondent pas aux VaR réelles des écarts. A contrario, avec une contrainte trop forte, l’algorithme du simplexe ne trouve pas de solution ce qui peut être une conséquence du choix de la contrainte ou du choix des instruments candidats. On peut le constater dans le tableau où nous avons testé plusieurs valeurs pour σ1 et σ2 . Nous n’allons pas présenter ici les résultats des différents tests qui ont été réalisés. On réussit au final à améliorer les deux portefeuilles précédents tout en améliorant également l’erreur au niveau des queues de la distribution. Les paramètres du programme d’optimisation pour ces deux portefeuilles sont les suivants : 67 – β1 = β2 = 99, 5%, on impose ainsi des contraintes sur les deux côtés de la distribution des erreurs. – On garde les valeurs de σ identiques à celles des portefeuilles obtenus pour les contraintes absolues uniquement : donc σ = 6 pour le portefeuille sans contraintes de sensibilité et σ = 9 pour le portefeuille avec contraintes – Pour le portefeuille sans contraintes, on a σ1 = 29, 97 et σ2 = 67 – Pour le portefeuille avec contraintes, on a σ1 = σ2 = 38. Premièrement, on a une amélioration des QQ-plot qui se traduit par un écartement moins significatif dans la queue de la distribution : Figure 7.19 – QQ-Plot Distribution des erreurs du portefeuille C2 (avec CVaR Mismatch) Figure 7.20 – QQ-Plot Distribution des erreurs du portefeuille A1 (avec CVaR Mismatch) Ensuite en faisant une analyse plus classique des deux portefeuilles, on a une amélioration à la fois sur les sensibilités pour le portefeuille sans contraintes et sur la distribution des fonds propres économiques : Figure 7.21 – Qualité d’ajustement du portefeuille A1 (avec CVaR Mismatch) Figure 7.22 – Distribution fonds propres Portefeuille A1 (avec CVaR Mismatch) 68 BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,42 -2,39 -17,33 16,2 RP A1 77,6 -15,18 18,92 4,77 -4,27 -19,20 14,33 Différence 0 +0,85 +0,29 -0,34 +1,87 +1,87 +1,84 Table 7.16 – Sensibilités Portefeuille A1 (avec CVaR Mismatch) Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP A1 -43,5 -33,5 -14,3 -4,7 12,3 22,7 31,4 42,3 47,0 55,3 58,2 Différence 8,3 8,5 7,4 5,9 2,4 -0,5 -3,3 -7,1 -8,8 -12,2 -13,5 Table 7.17 – Ecarts Portefeuille A1 (avec CVaR Mismatch) Figure 7.23 – Qualité d’ajustement du portefeuille C2 (avec CVaR Mismatch) 7.2.5 Figure 7.24 – Distribution fonds propres Portefeuille C2 (avec CVaR Mismatch) Conclusion Pour conclure avec cette partie, on peut remarquer au travers des différents résultats que l’approche de calibration basée sur une optimisation du coût du portefeuille répliquant avec des contraintes présente plusieurs avantages. En effet, la forme du programme d’optimisation permet à l’utilisateur d’imposer toutes sortes de contraintes linéaires (égalités ou inégalités) au programme. Cela constitue un avantage dans le sens où on gagne en termes de flexibilité et on peut notamment rendre la calibration plus robuste. Ensuite le programme présente également un avantage par rapport à la régression MCO classique qui réside dans les problèmes que l’on peut rencontrer sur la colinéarité qui peut exister entre les différents instruments financiers 69 BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,42 -2,39 -17,33 16,2 RP C2 77,6 -14,3 19,2 4,42 -2,39 -17,33 17,50 Différence 0 0 0 0 0 0 -1,34 Table 7.18 – Sensibilités Portefeuille C2 (avec CVaR Mismatch) Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP C2 -35,4 -29,8 -10,7 -2,6 12,9 22,0 29,7 39,9 44,3 51,9 55,5 Différence 0,2 5,0 3,8 3,8 1,8 0,3 -1,6 -4,7 -6,1 -8,7 -10,8 Table 7.19 – Ecarts Portefeuille C2 (avec CVaR Mismatch) essentiellement due au fait qu’on travaille en present value. En effet quand on analyse les différents portefeuilles obtenus avec cette méthodologie, on s’aperçoit que la composition des portefeuilles est la même mais les poids de plusieurs instruments financiers sont nuls. De plus l’hypothèse d’indépendance entre les instruments candidats qui est très souhaitable lorsqu’on fait une régression des MCO classique, n’est plus une contrainte ici. Enfin cette méthode de calibration présente l’avantage de permettre à l’utilisateur d’avoir un contrôle sur l’erreur qu’il commet aussi bien sur l’ensemble de la distribution des erreurs que dans la queue de la distribution pour les écarts anormaux. Toutefois, cette méthode peut s’avérer coûteuse en temps de calcul si on souhaite calibrer des portefeuilles qui ont été simulés sur plus de 1000 scénarios car comme on a pu le voir le nombre de contraintes dépend du nombre de scénarios utilisés pour la calibration. La méthode du simplexe peut donc présenter une réelle limite à ce niveau là. Une solution pourrait être d’utiliser au lieu de l’algorithme du simplexe, un algorithme de type point intérieur plus adapté à des données de grande taille. 7.3 Sélection automatique des instruments financiers Comme nous pouvons le constater dans la théorie de portefeuille de réplication, la qualité de l’ajustement de la réplication dépend fortement de l’ensemble sélectionné des instruments financiers. Théoriquement, il est possible de répliquer parfaitement un flux en utilisant un très grand nombre d’instruments financiers. En effet la structure linéaire du système nous permet de trouver les poids si le nombre d’instruments est plus grand ou égal au nombre de scénarios. En pratique, cela est impossible car pour chaque portefeuille d’assurance, le nombre de scé70 narios utilisés pour calculer la valeur de marché est souvent très grand (1000 dans le cadre de notre étude). Donc trouver plus de 1000 instruments financiers simples et indépendants est quasiment impossible. L’enjeu de la calibration est donc de sélectionner les bons instruments financiers pour trouver un portefeuille répliquant de bonne qualité. Afin de faire une bonne sélection, une bonne connaissance du passif est essentielle. Cependant, le comportement du passif ou des marges est souvent très complexe ce qui oblige à faire plusieurs essais avant d’obtenir un portefeuille approprié. Jusqu’à présent, ces tests ont été effectués manuellement et ils ralentissent la création d’un portefeuille de réplication. En effet certaines entités du groupe AXA qui utilisent les portefeuilles répliquants se plaignent de devoir en moyenne consacrer une journée à la calibration d’un portefeuille donné. Et une entité dispose en moyenne d’une dizaine de portefeuilles. Le but de cette partie est de proposer un algorithme de sélection qui permette d’accélérer cette étape du processus de création d’un portefeuille répliquant en s’inspirant des méthodes de sélection de variables. L’objet de cette partie sera donc de définir un algorithme qui permette de classifier nos instruments financiers, afin d’identifier lesquels sont les plus importants pour une qualité de régression optimale de nos cashflows. En utilisant deux procédures différentes de sélection de variables nous allons automatiser le choix des portefeuilles répliquant en suivant les différentes étapes suivantes : – Définition des intruments financiers pouvant répliquer le passif – Génération d’une pré-liste d’instruments à partir de la liste des catégories définies préalablement. L’avantage de la méthode se situe là : en effet on a pas ici à préciser exactement les caractéristiques des instruments mais seulement des intervalles auxquels les strikes peuvent appartenir. – Vérification de la cohérence de l’algorithme dans des situations de réplication parfaite, de surréplication ou de sous réplication – Mise en oeuvre de l’algorithme de sélection : les variables ici sont nos instruments financiers La procédure ainsi définie sera appliquée pour deux algorithmes de sélection différents mais peut s’appliquer avec n’importe quel algorithme de sélection de variable. Nous allons nous intéresser dans ce mémoire à deux de ces algorithmes. 7.3.1 Least Angle Regression Nous allons présenter d’abord les principes de l’algorithme Least Angle Regression (LAR) qui est une généralisation de plusieurs méthodes de sélection. En effet, on peut montrer qu’une modification de l’algorithme LAR conduit à la méthode LASSO ainsi qu’à la méthode StepWise. Après avoir présenté comment cela a été implémenté au sein de l’outil de réplication nous présenterons les résultas des différentes méthodes sur le portefeuille qui fait l’objet de notre étude. Principe de l’algorithme En se basant sur la théorie de la sélection, une sélection itérative pourrait être utilisée pour automatiser la création d’un portefeuille répliquant. Une méthode très classique est la Forward Selection. Il s’agit d’une méthode qui procède également étape par étape : à chaque étape, l’algorithme choisit la variable la plus corrélée avec le résidu et définit le nouveau résidu 71 orthogonalement à l’ensemble des variables sélectionnées. Cette méthode est efficace mais trop agressive et élimine certaines variables utiles. Afin de rendre la sélection plus robuste, nous avons utilisé une autre méthode itérative, dérivée de la méthode Forward Selection, à savoir la régression LAR ( Least Angle Regression). La méthode LAR est une méthode de sélection des variables qui procède étape par étape. Soit Y la variable qu’on veut régresser (dans notre cas les cash flow de passif ou de marge), et x1 , · · · , xp un ensemble de variables prédictives ( dans notre cas cela correspond à nos p instruments financiers ). Les prédicteurs seront sélectionnés un à un suivant la procédure décrite dans les lignes qui suivent. Nous allons traiter un exemple pour le cas de deux prédicteurs. Notons µ la réponse, on a µ = β1 x1 + β2 x2 . L’algorithme commence par β1 = β2 = 0 et µ0 = 0. On choisit x1 car sa corrélation avec y est plus grande que celle de x2 . Posons µ1 = µ0 + γ1 x1 avec γ1 qui est choisi tel que Corr(y − µ1 , x1 ) = Corr(y − µ1 , x2 ) . Soit u2 le vecteur unitaire équiangulaire (la bissectrice) entre x1 et x2 et posons µ2 = µ1 + γ2 x2 , pour cet exemple, γ2 est choisi tel que µ2 soit égal à la projection ȳ de y sur le plan formé par x1 et x2 (Figure 7.25). Pour le cas avec plus de deux prédicteurs, γ2 doit être la plus petite valeur tel qu’il existe x3 ayant la même corrélation avec y − µ2 que x1 et x2 , soit Corr(y−µ2 , x1 ) = Corr(y−µ2 , x2 ) = Corr(y−µ2 , x3 ). Nous allons décrire plus précisément Figure 7.25 – Description géométrique de l’algorithme LAR pour p=2 prédicteurs l’algorithme dans la section suivante. Description de l’algorithme Avec les notations de la section précédente, on suppose dans cette partie que les p prédicteurs sont linéairement indépendants. Le vecteur β = (β1 , · · · , βp ) définit un vecteur µ de prédiction. Soit A un sous-ensemble de l’ensemble {1, · · · , p} des indices de nos prédicteurs, qui représente l’ensemble des prédicteurs choisis à une étape de l’algorithme. 0 c = X (y − µA ) représente le vecteur des corrélations entre les résidus et les prédicteurs appartenant à l’ensemble A. Pour tout j ∈ A, on a |cj | = max{|cl |} = C, et |sj | = sign{cj }, l sj désignant si le j prédicteur sélectionné est positivement ou négativement corrélé au résidu. On définit alors les matrices suivantes : XA = (· · · , sj xj , · · · )j∈A 0 GA = XA XA 0 −1/2 AA = (1A G−1 A 1A ) 72 où 1A est un vecteur de 1 dont la longueur est le cardinal de l’ensemble A. Alors le vecteur équiangulaire uA est défini comme suit : u A = XA w A où wA = AA G−1 A 1A . Ce vecteur est l’unique vecteur formant des angles égaux avec les prédicteurs appartenant à l’ensemble A. On définit enfin la matrice suivante : 0 (· · · , ai , · · · )1≤i≤p = a = X uA On peut alors décrire l’algorithme LAR. Supposons qu’on est à l’étape k et que k variables aient déjà été sélectionnées, on a alors cardinal(A) = k. On calcule alors c, C, GA , AA , uA et a comme décrits précédemment. L’étape suivante de l’algorithme LAR met le vecteur de prédiction à jour tel que : µA + = µA + γ b uA où, + γ b : minc { j∈A C − cj C + cj , } AA − aj AA + aj et la fonction min+ (.) est défini comme suit : min(a, b) a min+ (a, b) = b 0 si si si si a ≥ 0 et b ≥ 0 b < 0 et a ≥ 0 a < 0 et b ≥ 0 a < 0 et b < 0 En fait, si on définit µ(γ) = µA + γuA pour γ > 0, le vecteur des corrélations du j prédicteur est : 0 0 cj (γ) = xj (y − µ(γ)) = xj (y − µA − γuA ) = cj − γaj Pour j ∈ A , on a : |cj (γ)| = C − γAA C−c C+c Pour j ∈ Ac , on sait que cj (γ) atteint sa valeur maximale pour γ = AA −ajj ou γ = AA +ajj . On choisit alors la plus petite valeur positive des deux qui nous permet d’identifier la nouvelle variable b j qui rejoint l’ensemble A. On a alors : A = A ∪ {b j} et C = C − γ bAA . On passe alors à l’étape suivante de l’algorithme. Présentation des résultats LAR La question qui se pose maintenant est comment appliquer cet algorithme à la sélection des instruments financiers pour un portefeuille répliquant. Comme nous pouvons constater qu’après m étapes, LAR retrouve exactement la solution des moindres carrés ordinaires. Nous n’avons pas intérêt à prendre tous les instruments. L’idée est donc d’introduire une condition d’arrêt. Lorsque cette condition est satisfaite, la procédure s’arrête. 73 Instrument Zero Coupon Zero Coupon Zero Coupon Zero Coupon Zero Coupon Floor Cap Receiver Swaption Payer Swaption Equity Index Call Base Index EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-Eq Curr EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR Term1 3 5 6 13 16 7 10 20 1 1 Term2 Strike 5 5 5 5 2% 5% 2, 10% 3, 75% 130% Poids Initial 12248 3934 48664 3327 11825 1254 11812 4041 1793 791 Table 7.20 – Composition de l’indice de CashFlows Avant de tester LAR sur le portefeuille de passifs nous avons voulu tester l’efficacité de l’algorithme dans des cas très simples. Pour cela on a créé un indice de cashflows à partir d’une dizaine d’instruments financiers avec des poids différents définis dans le tableau cidessous : Etape de réplication parfaite Ici, on propose en entrée de l’algorithme les instruments financiers qui ont servi à la composition de l’indice. LAR retrouve bien les poids initiaux de chacun des instruments en les sélectionnant dans l’ordre suivant : Etape 1 2 3 4 5 6 7 8 9 10 Instrument Zero Coupon Zero Coupon Zero Coupon Zero Coupon Receiver Swaption Equity Index Call Cap Zero Coupon Floor Payer Swaption Base Index EUR-05Y EUR-Eq EUR-05Y EUR-05Y EUR-05Y Curr EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR Term1 3 16 13 6 20 1 10 5 7 1 Term2 Strike 5 5 2, 10% 130% 5% 5 5 2% 3, 75% Poids Trouvé 12248 11825 3327 48664 4041 791 11812 3934 1254 1793 Table 7.21 – Instruments sélectionnés dans l’ordre de LAR Etape de sur-réplication Nous avons montré ainsi qu’on pouvait répliquer de manière exacte un indice créé à partir d’un nombre donné d’instruments financiers par ces mêmes instuments financiers. Nous allons à présent tester l’efficacité de LAR en mettant en entrée de l’algorithme les instruments financiers ayant servi à la composition de l’indice ainsi que des instruments financiers parasites. L’efficacité de l’algorithme se mesurera au nombre d’instruments financiers parasites ayant été sélectionnés qui devra être très bas. Même si ces instruments étaient sélectionnés une qualité appréciable de l’algorithme serait de trouver des poids nuls pour ces instruments. On rajoute aux instruments candidats des instruments financiers parasites qui dans notre exemple sont des Floor de différents strikes. Ci-dessous les instruments sélectionnés par LAR dans l’ordre : On peut constater au vu de ces résultats que LAR sélectionne assez bien les instruments tant qu’on a pas atteint une réplication parfaite en terme de R2 . Cependant les instruments financiers n’appartenant pas à l’indice de départ même s’ils sont sélectionnés avant d’atteindre 74 R2 0,27 0,29 0,81 0,996 0,99 0,99 0,99 0,99 0,99 1 Etape 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Instrument Zero Coupon Zero Coupon Zero Coupon Zero Coupon Receiver Swaption Equity Index Call Floor Cap Zero Coupon Floor Floor Payer Swaption Floor Floor Floor Floor Floor Floor Base Index EUR-05Y EUR-Eq EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y Curr EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR Term1 3 16 13 6 20 1 10 10 5 7 4 1 13 2 15 1 4 3 Term2 Strike 5 5 5 2, 10% 130% 2% 5% 5 5 5 5 5 5 5 5 5 2% 3% 3, 75% 2% 3% 2% 2% 2% 2% Poids Trouvé 12248 11825 3327 48664 4041 791 11812 11812 3934 1254 0 0 0 0 0 0 0 0 Table 7.22 – Instruments sélectionnés dans l’ordre de LAR un coefficient R2 de 1, ont de toute façon un poids de 0 dans le portefeuille calibré. Nous avons effectué d’autre tests avec un nombre plus important d’instruments financiers parasites. Les résultats montrent que LAR sélectionne toujours les bons instruments et affecte des poids de 0 aux instruments financiers qui ne composent pas l’indice de départ. Etape de sous-réplication Les deux précedentes étapes de réplication parfaite et de surréplication ont permis de valider l’efficacité de LAR uniquement en termes de sélection d’instruments financiers dans des univers parfaits i.e l’indice de cash flow qu’on a créé correspond à une combinaison linéaire parfaite des cash flows d’instruments financiers connus. Dans la suite nous allons nous placer dans un univers non parfait dans le sens où l’indice cible ( dans la pratique les cashflows de passif d’un assureur) n’est plus une combinaison parfaite des instruments servant à la réplication. Pour ce faire on a bruité l’indice de cashflows précédent à l’aide d’une variable aléatoire qui dans ce cas est une loi normale centrée de variance 10. La procédure de sélection avec un indice de cashflow ainsi bruité a été testée en utilisant LAR : On remarque que malgré le bruitage, l’ordre de sélection des instruments est le même. Seul le calibrage des poids est différent. L’analyse des poids finaux sur plusieurs calibrations montre des résultats légèrement différents en termes de poids des instruments financiers de base ayant servi à la composition de l’indice. Mais globalement l’écart entre les poids trouvés et les poids initiaux du portefeuille n’est pas très siginificatif. En outre on constate que avec des niveaux de variance plus élevés la précision des poids trouvés se dégrade encore plus, ce qui semble assez logique. Nous avons ainsi montré l’efficacité de l’algorithme en termes de sélection d’instruments. Nous allons donc tester LAR sur le portefeuille de passif qui fait l’objet de notre étude. Nous avons mis à l’entrée de LAR les instruments suivants : – Des Zéro Coupon pour répliquer le taux garanti – Des swaptions dont le strike va varier autour du taux garanti pour représenter la parti75 R2 0,27 0,29 0,81 0,996 0,997 0,99 0,99 0,99 0,99 0,99 0,99 1 1 1 1 1 1 1 Etape 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Instrument Zero Coupon Zero Coupon Zero Coupon Zero Coupon Receiver Swaption Equity Index Call Floor Cap Zero Coupon Floor Floor Payer Swaption Floor Floor Floor Floor Floor Floor Base Index EUR-05Y EUR-Eq EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y Curr EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR Term1 3 16 13 6 20 1 10 10 5 7 4 1 13 2 15 1 4 3 Term2 Strike 5 5 5 2, 10% 130% 2% 5% 5 5 5 5 5 5 5 5 5 2% 3% 3, 75% 2% 3% 2% 2% 2% 2% Poids Trouvé 12339,57 11822 3339,84 48866,98 4022,51 778,52 -16,51 11828,95 3631,65 1319,46 -123,65 1749,82 50,76 155,96 -34,32 -69,77 -70,01 -4,58 Table 7.23 – Instruments sélectionnés dans l’ordre de LAR (CashFlows bruités) cipation aux bénéfices lors de l’augmentation des taux d’intérêt – Des calls ainsi que le sous-jacent associé pour représenter l’exposition aux indices actions Les instruments ont été générés en prenant toutes les combinaisons possibles à partir des caractéristiques du passif que l’on souhaite répliquer (horizon de projection, sous-jacents utilisés pour la projection du passif, etc) et en grillageant notamment les strikes à partir des intervalles définis ci-dessous : Zero Coupon Receiver Swaption Payer Swaption Equity Index Equity Index Call Borne Inf Strike Borne Sup Strike Pas 0,05% 0,05% 4% 4% 0,10% 0,10% 20% 150% 10% Table 7.24 – Paramètres Instruments Un total de 854 instruments ont donc été ainsi générés et vont servir d’inputs à LAR. La condition d’arrêt de l’algorithme n’a pas encore été définie. Nous avons effectué des premiers tests en mettant une condition d’arrêt sur le nombre d’instruments. Les tests à 50 et 100 n’ont pas été concluants. En effet, on peut noter sur la figure ci-dessous que l’ajustement dans la queue de la distribution n’est pas très bonne avec des écarts sur le quantile à 99,5% de 21,1 et 24,8 respectivement pour les portefeuilles de 50 et 100 instruments sélectionnés par LAR. Nous présentons ici un portefeuille fourni par LAR où 150 instruments ont été sélectionnés. Ce portefeuille fournit de très bons résultats que nous présentons dans les lignes suivantes. 76 R2 0,27 0,29 0,81 0,99 0,99 0,99 0,99 0,99 0,99 0,99 0,99 0,99 0,99 0,99 0,99 0,99 0,99 0,99 Figure 7.26 – Distribution fonds propres Portefeuille LAR (50 Ins) Figure 7.27 – Distribution fonds propres Portefeuille LAR (100 Ins) Figure 7.28 – Qualité d’ajustement du portefeuille LAR Figure 7.29 – Distribution fonds propres Portefeuille LAR Aucune contrainte n’a été forcée et la qualité du portefeuille en termes d’ajustement de la distribution est meilleure que tous les portefeuilles obtenus jusque là dans notre mémoire. En effet, on remarque un très bon ajustement de la distribution. En testant LAR avec plus d’instruments on constate une dégradation de la qualité du portefeuille à 250 instruments par exemple. Cela nous suggère qu’il existe un nombre d’instruments optimal qui doit être défini à l’aide d’un critère d’arrêt pertinent. 7.3.2 Orthogonal matching pursuit Le Matching Pursuit et sa variante orthogonale , le Matching Pursuit Orthogonal (Orthogonal Matching Pursuit (OMP)) sont deux méthodes classiques largement utilisées dans différents domaines du traitement du signal : approximation, débruitage, problèmes inverses, détections, séparation de sources, etc. Le problème de base où apparaissent ces deux algorithmes est le suivant : On dispose d’un signal Y et d’un dictionnaire de signaux X=(Xi )0≤i≤p de la taille de Y et on souhaite écrire Y comme une combinaison linéaire d’éléments Xi de X ou au moins approcher Y par une telle combinaison linéaire. Le MP propose une approche simple : on estime l’atome Xi0 le plus corrélé à Y, on soustrait à Y sa projection sur Xi0 , et on recommence l’opération sur le résidu Y − λXi0 tant qu’une certaine condition d’arrêt n’est pas respectée. Un des inconvénients de cette méthode réside dans le fait que l’algrithme MP peut sélectionner plusieurs fois le même atome Xi0 . OMP 77 BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,42 -2,39 -17,33 16,2 RP LAR 77,6 -14,41 19,75 4,71 -3,31 -17,39 16,06 Différence 0 0,09 -0,55 -0,29 +0,92 0,06 +0,11 Table 7.25 – Sensibilités Portefeuille LAR Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP LAR -38,6 -32,4 -13,7 -5,8 10,8 22,1 31,9 44,2 49,8 59,1 62,5 Différence 3,4 7,6 6,8 7,0 3,9 0,1 -3,8 -9,0 -11,6 -15,9 -17,8 Table 7.26 – Ecarts Portefeuille LAR répond à cette limite en sélectionnant également un à un les atomes Xi , mais la projection s’effectue cette fois sur l’ensemble des atomes sélectionnés. Quand Y s’écrit comme une combinaison linéaire des atomes Xi c’est-à-dire dans un cas non aléatoire, OMP peut converger assez rapidement vers une erreur nulle. Il convient de rappeler que cette catégorie d’algorithme s’applique à des problèmes sous déterminés, c’est à dire quand le nombre de signaux est plus important que le nombre d’observations. On se propose dans cette section d’adapter cet algorithme au cas des portefeuilles répliquants. Les signaux élémentaires correspondent dans ce cas aux instruments financiers et le signal à reconstituer est représenté par le vecteur des cashflows. Dans un premier temps nous allons générer un nombre très importants d’instruments financiers qui serviront d’input à OMP et l’algorithme nous permettra de sélectionner les instruments appropriés et d’obtenir les poids associés. Principe de l’algorithme Soit Γn l’ensemble qui définit les éléments non nuls du vecteur poids des instruments financiers, c’est à dire que Γn = {i : wi 6= 0} où wi est le i élément du vecteur w. L’ensemble Γn va nous permettre de définir la matrice ΦΓn qui est une sous-matrice de la matrice des cashs-flows initiaux Φ. De même wΓn va représenter un sous-vecteur de w. Les colonnes de Φ sont notées φi , et on suppose que k φi k= 1. Avec les notations définies précédemment on peut décrire l’algorithme OMP qui consiste à construire itération par itération l’ensemble Γn en rajoutant à chaque étape un nouvel indice. Après une mise à jour de Γn , l’erreur de réplication est évaluée comme suit : ≈b n ≈ ΦΓn wΓnn = ΦΓn Φ†Γn 78 (7.24) où Φ†Γn est la pseudo-inverse de Monroe ΦΓn . La pseudo-inverse de Monroe est une façon générique de trouver les ou la solution(s) d’une équation linéaire du type : Ay = b où b ∈ Rm , y ∈ Rn et A ∈ Rm×n La matrice A† permet de trouver la solution yb = A† b et possède certaines propriétés : – AA† A = A – A† AA† = A† – (AA† )T = AA† – (A† A)T = A† A Dans le cadre de l’algorithme OMP, les propriété qui vont nous intéresser sont celles de la solution yb. En effet : – si m=n alors A† = A−1 – si m>n la solution yb minimise l’écart des distances : k Ay − b k et correspond donc à la solution des moindres carrés. – si m<n, il existe en général une infinité de solutions. La solution yb sera celle qui minimise la quantité suivante : kyk † En effet ΦΓn ΦΓn est l’approximation de x en utilisant des combinaisons linéaires des colonnes de ΦΓn . La procédure de sélection des instruments est fortement inspirée de l’algorithme Matching Pursuit présentée dans [5]. A chaque itération, OMP calcule une nouvelle approximation du signal x bn . L’erreur d’approximation rn = x−b xn est alors utilisée à la prochaine itération pour déterminer le nouvel élément à ajouter. La sélection est basée sur les produits scalaires entre les résidus rn et les vecteurs des colonnes φi de Φ. En effet, on a : αin = φTi rn (7.25) Le nouvel élément est celui pour lequel αin est le plus grand : inmax = argi max |αin | (7.26) Γn+1 = Γn ∪ inmax (7.27) et donc, On notera ici la similitude de l’algorithme avec celui du LAR. On peut donc résumer OMP suivant les étapes suivantes : Etape 1 : r0 = x, z 0 = 0, γ0 = Etape 2 : Pour n = 1, · · · , nIns et tant que la condition d’arrêt n’est pas satisfaite : Etape 2.1 : Calcul du vecteur des scalaires αi αi = φTi rn−1 pour tout i ∈ Γn−1 (7.28) Etape 2.2 : Détermination du nouvel élément imax à ajouter imax = argi max |αin | (7.29) Γn = Γn−1 ∪ inmax (7.30) 79 Etape 2.3 : Mise à jour de QΓn et RΓn tel que QΓn RΓn = ΦΓn , QTΓn QΓn = I et RΓn est une matrice triangulaire supérieure. Etape 2.4 : Mise à jour du vecteur z : on suppose que q est la nouvelle colonne ajoutée à la matrice QΓn zΓn = zΓn ; q T x (7.31) Etape 2.5 : Mise à jour du vecteur rn des erreurs de réplication rn = rn−1 − q T xq (7.32) wΓn = RΓ−1n zΓn (7.33) Etape 3 : Présentation des résultats OMP Afin de tester l’efficacité de l’algorithme, nous avons effectué des opérations similaires que celles effectuées avec l’algorithme LAR c’est-à-dire tester l’algorithme dans les trois situations suivantes : – Etape de réplication parfaite – Etape de sur-réplication – Etape de sous-réplication Réplication parfaite Ici on propose en entrée de l’algorithme les instruments financiers qui ont servi à la composition de l’indice. OMP retrouve bien les poids initiaux de chacun des instruments en les sélectionnant dans l’ordre suivant : Etape 1 2 3 4 5 6 7 8 9 10 Instrument Zero Coupon Zero Coupon Zero Coupon Receiver Swaption Equity Index Call Cap Zero Coupon Floor Payer Swaption Zero Coupon Base Index EUR-05Y EUR-Eq EUR-05Y EUR-05Y EUR-05Y Curr EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR Term1 3 16 6 20 1 10 13 7 1 5 Term2 Strike 5 5 2, 10% 130% 5% 5 5 2% 3, 75% Poids Trouvé 12248 11825 48664 4041 791 11812 3327 1254 1793 3934 Table 7.27 – Instruments sélectionnés dans l’ordre de OMP Sur Réplication Nous avons montré qu’on pouvait répliquer de manière exacte un indice créé à partir d’un nombre donné d’instruments financiers par ces mêmes instuments financiers. Nous allons à présent tester l’efficacité de OMP en mettant en entrée de l’algorithme non seulement les instruments financiers ayant servi à la composition de l’indice mais également des instruments financiers parasites. L’efficacité de l’algorithme se mesurera au nombre d’instruments financiers parasites ayant été sélectionnés qui devra être très bas. Même si ces instruments étaient sélectionnés une qualité appréciable de l’algorithme serait de trouver des poids nuls pour ces instruments. On rajoute aux instruments candidats des instruments parasites (qui ne composent pas l’indice de départ) qui sont ici des Floor de différentes caractéristiques. On retrouve ci-dessous les instruments sélectionnés par OMP dans l’ordre : 80 R2 43,15% 94,35% 99,61% 99,81% 99,84% 99,98% 99,99% 99,99% 99,99% 100% Etape 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Instrument Zero Coupon Zero Coupon Zero Coupon Receiver Swaption Equity Index Call Cap Zero Coupon Floor Payer Swaption Zero Coupon Floor Floor Floor Floor Floor Floor Floor Floor Base Index EUR-05Y EUR-Eq EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y Curr EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR Term1 3 16 6 20 1 10 13 7 1 5 13 2 4 4 15 1 10 3 Term2 Strike 5 5 2, 10% 130% 5% 5 5 2% 3, 75% 5 5 5 5 5 5 5 5 2% 3% 3% 2% 2% 2% 2% 2% Poids Trouvé 12248 11825 48664 4041 791 11812 3327 1254 1793 3934 0 0 0 0 0 0 0 0 Table 7.28 – Instruments sélectionnés dans l’ordre de OMP On peut constater au vu de ces résultats que OMP sélectionne assez bien les instruments tant qu’on n’a pas atteint une réplication parfaite en termes de R2 , mais par contre les instruments financiers n’appartenant pas à l’indice de départ même s’ils sont sélectionnés avant d’atteindre un coefficient R2 de 1 ont de toute façon un poids de 0 dans le portefeuille calibré. En outre, comparé à LAR, l’OMP sélectionne mieux les instruments financiers. En effet, les tests effectués avec un nombre plus important d’instruments financiers nous montrent que les dix premiers instruments sélectionnés par OMP sont toujours ceux qui composent l’indice de départ contrairement à LAR qui ne sélectionne pas toujours les dix instruments financiers de base au bout des dix premières itérations de l’algorithme. Sous Réplication Les deux précedentes étapes de réplication parfaite et de surréplication ont permis de valider l’efficacité de OMP dans un univers parfait. Dans la suite, nous allons nous placer dans un univers non parfait dans le sens où l’indice cible ( dans la pratique les cashflows de passif d’un assureur) n’est plus une combinaison linéaire parfaite des instruments servant à la réplication. Pour ce faire on a créé des indices de cashflow bruités avec lesquels nous avons testé OMP (comme précédemment avec LAR) : Le bruitage a été réalisé à l’aide d’une loi normale centrée de variance 10. On remarque que malgré le bruitage, OMP sélectionne d’abord les instruments ayant servi à créer l’indice avant les instruments parasites. Seul le calibrage des poids est différent. L’analyse des poids finaux sur plusieurs calibrations ( avec des variances plus importantes de la loi normale ayant servi à bruiter les casflows) montre des résultats légèrement différents en termes de poids des instruments financiers de base ayant servi à la composition de l’indice. Plus la variance de la variable ayant servi à bruiter les cashflows est élevée, plus on remarque une déviation des poids finaux par rapport aux poids initiaux ayant servi à la création de l’indice. OMP a été testé avec la même liste d’instruments que celle utilisée pour LAR. Nous avons testé l’algorithme comme avec LAR pour une sélection de 50 puis de 100 instruments. Les résultats sont les mêmes au niveau de l’estimation de la VaR à 99,5% avec des écarts assez 81 R2 43,15% 94,35% 99,61% 99,81% 99,84% 99,98% 99,99% 99,99% 99,99% 100% 100% 100% 100% 100% 100% 100% 100% 100% Etape 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Instrument Zero Coupon Zero Coupon Zero Coupon Receiver Swaption Equity Index Call Cap Zero Coupon Floor Payer Swaption Zero Coupon Floor Floor Floor Floor Floor Floor Floor Floor Base Index EUR-05Y EUR-Eq EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y Curr EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR Term1 3 16 6 20 1 10 13 7 1 5 13 2 4 4 15 1 10 3 Term2 Strike 5 5 2, 10% 130% 5% 5 5 2% 3, 75% 5 5 5 5 5 5 5 5 2% 3% 3% 2% 2% 2% 2% 2% Poids Trouvé 12250,81 11834 48654 4060,37 792,99 11807 3310 1247,75 1806,57 3954,27 10,71 47,73 -16,64 64,09 -26,91 -46,37 -1,86 -48,34 Table 7.29 – Instruments sélectionnés dans l’ordre de OMP significatifs de 23,7 et de 23,6 respectivement. Cela est cohérent avec les portefeuilles de même taille sélectionnés par LAR. On remarque sur la distribution des fonds propres générés par ces deux portefeuilles un écartement dans la queue de la distribution : Figure 7.30 – Distribution fonds propres Portefeuille OMP (50 Ins) Figure 7.31 – Distribution fonds propres Portefeuille OMP (100 Ins) En choisissant comme pour l’algorithme LAR un nombre d’instruments de 150, on aboutit à un portefeuille de meilleure qualité. Les résultats en termes de sensibilités et d’ajustement à la distribution des fonds propres sont présentés ci-dessous : Condition d’arrêt de l’OMP : analyse de la colinéarité Les résultats obtenus dans la section précédente nous ont montré que OMP est très efficace à condition d’imposer une condition d’arrêt optimale. En effet, si l’algorithme sélectionne trop peu d’instruments, on ne récupère pas assez d’informations ce qui dégrade la qualité du portefeuille. A contrario, si on en sélectionne trop on risque à partir d’un moment dans l’algorithme de sélection de ne répliquer que le bruit résiduel. 82 R2 43,15% 94,35% 99,61% 99,81% 99,84% 99,98% 99,99% 99,99% 99,99% 99,99% 99,99% 99,99% 99,99% 99,99% 99,99% 99,99% 99,99% 99,99% Figure 7.32 – Qualité d’ajustement du portefeuille OMP Figure 7.33 – Distribution fonds propres Portefeuille OMP BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% DFA 77,6 -14,3 19,2 4,42 -2,39 -17,33 16,2 RP OMP 77,6 -14,47 21,02 4,58 -3,41 -17,52 17,22 Différence 0 0,14 -1,8 -0,16 +1,02 0,19 -1,04 Table 7.30 – Sensibilités Portefeuille OMP L’analyse des itérations des différents algorithmes montre une forte colinéarité des nouveaux instruments ajoutés par rapport à ceux déjà sélectionnés. L’idée de la condition d’arrêt qui a été développée est justement d’arrêter l’algorithme dès qu’on atteint un niveau trop important de colinéarité. Nous allons définir dans la suite ce qu’on entend par là. Sur le plan statistique auquel on se limite ici, l’existence d’une colinéarité approximative, appelée colinéarité statistique, peut pertuber les estimations des poids de nos instruments. Plusieurs conséquences peuvent découler d’une telle colinéarité statistique : – les coefficients de régression peuvent être élevés en valeur absolue – les signes peuvent être contraires à l’intuition, ce qui peut être assez problématique dans le cadre de l’usage qu’on fait des portefeuilles répliquants – les variances des estimateurs peuvent être élevées La colinéarité statistique crée donc des difficultés importantes dans l’interprétation des résultats. Il convient donc de pouvoir mesurer cette colinéarité statistique. Une première mesure de cette colinéarité statistique est le facteur d’inflation fj défini par : fj = 1 1−Rj2 où Rj2 est le coefficient de corrélation multiple obtenu en effectuant la régression d’une variable Xj par le reste des variables explicatives. Le facteur d’inflation fj est donc d’autant plus grand que la la variable Xj est corrélée à une combinaison linéaire des autres variables explicatives. Cependant la difficulté majeure pour l’utilisation de cette mesure est de déterminer le seuil à partir duquel on estime que cet indicateur est élevé ou pas. Le coefficient de corrélation multiple peut toutefois permettre de définir un critère d’arrêt. En effet, ce critère serait basé sur le calcul à chaque étape de l’algorithme du coefficient de corrélation multiple du nouvel instrument financier par rapport aux instruments déjà choisis à chaque itération de l’OMP. 83 Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP OMP -31,5 -28,2 -15,9 -9,1 8,6 22,2 33,6 46,8 51,6 59,4 61,5 Différence -3,7 3,4 9,0 10,3 6,0 0 -5,5 -11,6 -13,4 -16,2 -16,8 Table 7.31 – Ecarts Portefeuille OMP L’algorithme OMP peut donc être modifié de la façon suivante afin d’introduire un critère d’arrêt lié à la colinéraité des instruments choisis avec comme indicateur de la colinéarité le coefficient de corrélation multiple : – à chaque ajout d’un nouvel instrument, on effectue une régression des CashFLows du nouvel instrument par rapport aux instruments déjà choisis – Un seuil de x% sur le R2 de cette régression (équivalent au coefficient de corrélation multiple) permet de définir si le nouvel instrument est colinéaire aux instruments déjà sélectionnés. Les instruments ayant été identifiés comme colinéaires ne seront pas pris en compte dans la liste finale des instruments sélectionnés – L’algorithme s’arrête si à partir d’un moment il sélectionne un nombre NbN d’instruments colinéaires à la suite Plusieurs combinaisons ont été testées pour le couple (x,NbN), et les résultats démontrent une bonne estimation de la VaR à 99,5% et plus généralement un bon ajustement à la distribution des fonds propres pour le couple (99%,5). Toutefois on peut constater que la définition d’un critère d’arrêt s’avère très difficile car les paramètres (x, NbN) qu’on a défini ici pourraient ne pas être concluants pour d’autre type de portefeuilles. L’algorithme OMP doit donc être utilisé avec précaution et necéssite de la part de l’utilisateur une bonne connaissance du portefeuille. Pour compléter cette analyse de la colinéarité statistique nous allons nous inspirer de [4] qui propose deux principaux outils d’analyse et de détection de la colinéarité. Le premier consiste à utiliser la décomposition SVD de la matrice X, et le second consiste en la décomposition de la variance des coefficients estimés grâce notamment à la décomposition SVD. La décomposition SVD Toute matrice X ∈ M(n, p) de n observations et de p variables peut être décomposée comme suit : X = U DV T où U T U = V T V = Ip , et D est la matrice diagonale dont les éléments tous positifs µk , k = 1, · · · , p, sont appelés valeurs singulières de X. Pour les besoins de l’analyse de la colinéarité, on suppose que la matrice X est réduite. Les auteurs démontrent que les très petites de valeurs µk , indiquent une dépendance de cette varable par rapport à une autre. Le degré de cette 84 Valeur singulière µ1 µ2 .. . V ar(b1 ) π11 π21 .. . µp πp1 Proportions de V ar(b2 ) · · · V ar(bp ) π12 ··· π1p π22 ··· π2p .. .. .. . . . πp2 ··· πpp Table 7.32 – Décomposition de la variance dépendance sera donc déterminé par rapport à la valeur maximale µmax . On définit donc : µmax (7.34) ηk = µk Les résultats dans [4] indiquent que les faibles dépendances correspondent à des valeurs de ηk entre 0 et 10, quand les dépendances moyennes et fortes correspondent à des valeurs de ηk entre 30 et 100. La décomposition de la variance des coefficients de régression Comme on a vu précédemment, une valeur singulière trop petite par rapport à la valeur singulière maximum indique une certaine dépendance. Dans cette partie on se propose d’établir à quel point cette dépendance influe sur l’estimation des poids des instruments dans l’hypothèse où ces poids ont été estimés selon la méthode des moindres carrés. Cela est le cas pour l’algoritme OMP dans le sens où la solution finale (une fois les instruments candidats choisis) est la solution des MCO. Cette décomposition peut être considérée comme un bon outil d’analyse de la qualité de l’estimation des poids. La matrice de variance-covariance de l’estimateur des moindres carrés b = (X T X)−1 X T est σ 2 (X T X)−1 , où σ 2 est la variance de l’erreur du modèle y = Xβ + . En utilisant la décomposition SVD, X = U DV T , la matrice de variance-covariance s’écrit donc : V (b) = σ 2 (X T X)−1 = σ 2 V D−2 V T (7.35) où la part de la variance due à la composant k est : var(bk ) = σ 2 2 X vkj j µ2j (7.36) avec V ≡ (vij ). L’équation précédente décompose la variance de l’estimateur bk en une somme de composantes associées chacune à une valeur singulière µj . On peut donc décomposer la variance totale de l’estimateur bk en définissant pour chaque valeur singulière une proportion qui correspond à sa contribution à la variance totale de l’estimateur. On définit donc les coefficients de décomposition de la variance comme suit : πjk ≡ φkj , φk k, j = 1, · · · , p (7.37) P v2 où φkj ≡ µkj2 et φk ≡ pj=1 φkj , k = 1, · · · , p j Cette décomposition de la variance est mieux résumée dans le tableau suivant : Ce tableau peut être un outil complémentaire à l’analyse de la qualité d’un portefeuille et permet ainsi de 85 déterminer ou au moins d’identifier les problèmes de colinéarité entre les actifs qui composent un portefeuille répliquant. De plus, on a ainsi une idée de l’impact de chaque valeur singulière, et donc de chaque instrument financier sur l’estimation des poids du portefeuilles. Deux conditions seront nécessaires pour identifier la colinéarité entre les régresseurs ( dans notre cas les instruments financiers candidats ) : – Il faut que les valeurs ηk soient supérieures à 30 – et que la contribution de cette variable soit supérieure à 0.5 pour au moins deux estimateurs bk La construction d’un critère d’arrêt sur la base de ces deux critères s’avère toutefois assez difficile en terme de calibration des paramètres. On préfèrera donc le critère d’arrêt définit plus haut. Toutefois cette analyse peut servir à améliorer l’ajustement SVD qui est fait lors de la régression MCO. La valeur propre liée à une valeur singulière ne serait annulée que si les deux conditions plus haut sont remplies. Nous avons testé l’ajustement SVD ainsi défini sur le portefeuille OMP sélectionné précédemment : Figure 7.34 – Qualité d’ajustement du portefeuille OMP (avec SVD) BE Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% Figure 7.35 – Distribution fonds propres Portefeuille OMP (avec SVD) DFA 77,6 -14,3 19,2 4,42 -2,39 -17,33 16,2 RP OMP 77,6 -14,79 21,48 4,18 -3,29 -17,74 17,80 Différence 0 0,46 -2,27 0,24 +0,90 0,41 -1,62 Table 7.33 – Sensibilités Portefeuille OMP (avec SVD) Puisque la liste des instruments est identique, seuls les poids affectés aux instruments financiers sont différents. Les sensibilités sont globalement pareilles et on note une amélioration de l’estimation de la VaR à 99,5% avec une différence de seulement 0,3 en valeur absolue. Le pourcentage de décomposition SVD est de 2% ce qui représente environ 3 valeurs propres qui ont été annulées. Encore une fois ici, le choix des seuils de 30 pour les coefficients ηk et de 50% pour le pourcentage de variance sont laissés à la discrétion de l’utilisateur. Ces seuils peuvent être très différents en fonction de la nature des prédicteurs utilisés dans le modèle de régression. 86 Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% SdS -35,2 -24,8 -6,9 1,2 14,7 22,2 28,1 35,2 38,2 43,2 44,7 RP OMP -34,8 -31,0 -17,9 -10,3 8,0 22,3 34,1 47,5 52,2 59,4 61,4 Différence -0,3 6,2 11,0 11,5 6,7 -0,1 -6,0 -12,3 -14,0 -16,3 -16,7 Table 7.34 – Ecarts Portefeuille OMP (avec SVD) 7.3.3 Conclusion Pour conclure avec cette partie, on voit que les indicateurs de qualité sont assez bons pour les deux portefeuilles sélectionnés par OMP et LAR. En effet, les coefficients R2 sont très bons, et les différentes sensibilités sont également très bonnes. Cependant, le résultat nous fournit des informations très intéressantes au niveau des éléments sélectionnés. – D’abord, on a tout les zéro coupons qui servent à répliquer le taux garanti. – Ensuite, les deux algorithmes de sélection choisissent des calls dans la monnaie ( ayant un strike entre 50% et 100%). Le choix des calls dans la monnaie correspond à nos attentes car on veut des instruments permettant à la fois une protection contre une baisse importante des indices boursiers et une sensibilité assez linéaire au mouvement des actions en cas de hausse. – En ce qui concerne les swaptions, les deux algorithmes ont sélectionné des instruments qui nous permettent de fixer l’exposition au taux d’intérêt. – Dans le cas d’une baisse des taux, l’assuré va avoir la possiblité d’investir dans son contrat d’assurance vie en maintenant son taux garanti élevé. Il bénéficie de la baisse des taux, ceci est reflété par les receiver swaptions. – Dans le cas d’une hausse de taux au dessus de 1%, nous pouvons utiliser des payer swaption pour pouvoir répliquer la participation aux bénéfices de l’assuré. Donc, on constate que LAR et OMP choisissent exactement les instruments financiers dont le strike correspond à ce que l’on attend avec notamment des receiver swaption de strike bas et des payer swaption de strike élevé. Il apparait ainsi, à la suite de ce travail, qu’il est possible d’utiliser une sélection itérative par l’algorithme LAR ou OMP pour construire un portefeuille répliquant satisfaisant les critères de qualité. De ce point de vue, nous pouvons envisager une amélioration au niveau des procédures de construction des portefeuilles répliquants. Par ailleurs, les deux algorithmes reposent quasiment sur la corrélation des instruments avec le passif : on peut très bien avoir des instruments financiers très corrélés au passif mais qui n’ont pas d’explications cohérentes. Il est donc indispensable de s’appuyer sur les connaissances de l’utilisateur pour sélectionner les instruments financiers convenables. En outre, les algorithmes tels que LAR et OMP possèdent une autre limite liée au critère de sélection basée sur la corrélation : comme l’algorithme fait la sélection sur un critère corrélation, il n’est pas évident que les sensibilités soient bien répliquées. Alors, il reste à trouver un moyen pour tenir compte des contraintes, au moins des contraintes linéaires, dans 87 la procédure de sélection de l’algorithme. 88 Conclusion Suite au développement du nouveau cadre réglementaire Solvabilité II, les techniques de réplication de portefeuilles connaissent un véritable essor en assurance vie. En effet, ces techniques permettent de traduire dans un même langage les actifs et les passifs du bilan d’un assureur, ainsi que leurs risques. Ces techniques de réplication, relativement complexes, font l’appel à l’expertise et à la connaissance des engagements de l’assureur. La méthode de sélection des instruments financier développée dans ce mémoire, basée sur les algoritmes Least Angle Regression et Orthogonal Matching Pursuit peut se révéler être une aide précieuse de la réplication. Elle permet d’identifier en amont les instruments financiers simples qui permettent d’obtenir un bon portefeuille répliquant. De ce fait, elle accélère sensiblement le processus de réplication de portefeuille. De plus la méthode étant itérative, il est possible pour l’utilisateur de sélectionner dès le départ un très grand nombre d’instruments, 200 sur 1000 par exemple et pour calibrer le portefeuille de n’utiliser que les 50 premiers ou 100 premiers. Cela permet de ne pas perdre du temps à relancer l’algorithme plusieurs fois. Il faut noter toutefois certaines limites à cette méthodologie notamment sur la liste des instruments. Il faut rappeller que le jugement de l’utilisateur sera toujours nécessaire pour analyser les sorties de l’algorithme et ajuster éventuellement les résultats obtenus. Néanmoins, il est important de noter que ces techniques (LAR et OMP) doivent être utilisées avec précaution et les résultats finaux doivent s’appuyer non seulement sur ces techniques mais aussi sur la connaissance et l’expertise de l’utilisateur. On s’est également intéressé dans ce mémoire à la calibration des portefeuilles à proprement parler. Les deux méthodologies qui ont été testées (régression PLS et CashFlow mismatch) nous ont permis de pallier à certains aspects qui pouvaient rendre la régression classique des moindres carrés pas assez robuste. On a vu que la régression PLS était efficace pour traiter la colinéarité. On a pu vérifier cela en constatant que les résultats en termes de sensibilité et d’ajustement à la distribution des fonds propres sont plutôt équivalents à la méthode classique avec ajustement des valeurs propres via la décomposition SVD. En outre, la régression par minimisation des écarts de cashflows par scénarios nous a fournis de très bons résultats et permet notamment à l’utilsateur une meilleure compréhension du processus de calibration en lui permettant de choisir des seuils de tolérance pour contrôler l’erreur de régression. Cette méthode de calibration permet par ailleurs de valider la liste des actifs candidats fournis en entrée. Enfin, le travail de comparaison qui a été fait dans l’estimation de la VaR à 99,5% par rapport à une VaR SdS calculée avec un modèle ALM simplifié nous a permis d’évaluer l’efficacité de ces différentes méthodes. Cependant, dans la réalité ce type de comparaison n’est 89 pas possible. Une suite au travail qui a été réalisé dans ce mémoire pourrait donc être de réfléchir à l’estimation de l’erreur que l’on commet dans le calcul du SCR lorsqu’on utilise comme proxy de passif les portefeuilles répliquants, et plus généralement les deux autres proxy que sont le curve fitting et le Least Square Monte Carlo. En effet pour chacun de ces proxy on est confronté à deux principales erreurs : – la première concerne l’hypothèse de "complétude" selon laquelle la valeur de marché des passifs peut être exprimée comme une combinaison linéaire des fonctions de base choisies lors de la régression. Cette erreur pourrait être qualifiée d’erreur d’incomplétude car dans la pratique une telle combinaison linéaire n’existe pas. En principe, l’erreur d’incomplétude peut être définie comme un ajustement théorique construit à partir des fonctions de base moins la valeur de marché du passif calculé via le proxy. – La deuxière erreur est un type d’erreur plus classique dans le cadre de simulations et concerne les simulations. Cette erreur qu’on pourrait qualifier d’erreur d’échantillonnage se produit parce que l’estimation des coefficients du portefeuille répliquant ( et plus généralement les coefficients de régression qui sont calculés dans le cas du Curve Fitting ou du Least Square Monte Carlo) sont effectués à l’aide de simulations de Monte Carlo. Cela introduit de l’incertitude pour les résultats. L’erreur d’échantillonnage peut être définie comme la différence entre l’estimation théorique du meilleur ajustement à partir des instruments de base et l’ajustement estimé en utilisant un nombre fini de scénarios. Une suite logique aux travaux qui ont été présentés dans ce mémoire serait de mesurer ces deux types d’erreurs et d’évaluer l’impact qu’elles ont sur l’estimation du capital économique. 90 Annexe Composition des portefeuilles et poids associés 91 92 Idx 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 Instrument ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon Receiver Swaption Receiver Swaption Receiver Swaption Receiver Swaption Receiver Swaption Receiver Swaption Receiver Swaption Payer Swaption Payer Swaption Payer Swaption Payer Swaption Payer Swaption Payer Swaption Payer Swaption EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq Base Index Term1 1 3 5 7 10 13 15 17 20 23 25 1 4 7 10 13 15 20 1 4 7 10 13 15 20 1 3 5 7 10 13 15 17 20 22 1 3 5 7 10 13 15 17 20 22 5 5 5 5 5 5 5 5 5 5 5 5 5 5 Term2 0,021 0,021 0,021 0,021 0,021 0,021 0,021 0,0375 0,0375 0,0375 0,0375 0,0375 0,0375 0,038 1,08 1,08 1,08 1,08 1,08 1,08 1,08 1,08 1,08 1,08 0,75 0,75 0,75 0,75 0,75 0,75 0,75 0,75 0,75 0,75 Strike OLS -10,69 -0,66 -5,26 -9,98 -13,75 9,86 18,72 52,11 66,38 35,13 8,93 15,42 33,54 68,38 47,01 38,18 2,77 28,92 40,14 12,13 -18,05 -22,28 21,4 7,75 31,4 -0,09 -1,44 1,84 0,9 3,12 0,77 4,56 0,01 2,86 -1,06 18,91 15,29 0,57 -7,69 -5,8 -10,18 -18,52 -0,27 -26,99 -7,16 OLS Marge 98,03 -8,5 -11,37 -5,4 2,95 -23,5 -41,45 -22,31 19,87 16,75 -16,02 -47,15 -17,61 -60,31 0,95 -15,99 -8,99 -20,19 61,03 -18,09 -4,32 -29 -36,94 5,06 10,93 -3,75 -2,32 1,09 0,08 2,24 0,85 2,62 0,13 2,5 -0,95 2,86 13,51 -2,52 4,36 -14,82 -10,71 -10,15 -23,75 -26,3 -25,93 Table 7.35 – Composition et Poids du portefeuille A Curr EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR PLS -2,91 -14,09 -14,4 -5,56 2,67 8,63 24,36 50,06 55,6 36,09 10,48 6,54 36,72 59,98 41,71 32,97 12,51 36,61 13,68 21,33 -3,85 -12,87 15,33 1,39 22,48 0,22 -1,59 1,84 0,88 3,08 0,81 4,58 -0,07 2,87 -1,05 20,45 14,34 0,79 -8,01 -6,43 -9,42 -17,82 0,65 -26,95 -9,01 RP A1 -27,28 0 0 -17,77 0 0 0 164,16 0 0 35,93 0 0 0 0 0 78,47 0 0 0 0 0 0 0 0 -2,99 -2,85 2 2,18 2,74 1,38 3,53 1,4 3,1 0,43 0 18,16 0 -3,65 3,58 0 -31,29 -19,85 0 -15,01 RP A2 0 0 -41,31 0 0 54,09 0 0 107,51 0 28,04 0 29,01 63,72 40,16 55,78 0 30,59 0 0 0 0 0 0 0 1,26 -1,74 1,56 1,71 3,01 2,06 2,94 2 0,75 1,37 22,81 10,79 4,38 -8,39 -4,34 -10,99 -11,13 -5,46 -26,2 -7,32 RP A1 (avec Cvar) -25,09 0 0 0 1,85 0 0 0 187,94 0 -12,13 0 0 0 0 107,67 0 0 0 0 0 0 0 0 0 0,75 0,32 0,29 0,06 2,65 3,44 2,06 3,31 2,96 -1,57 0 21,08 0 -5,54 1,07 0 -34,82 0 -27,75 0 93 Idx 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 Instrument ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon Receiver Swaption Receiver Swaption Receiver Swaption Receiver Swaption Receiver Swaption Receiver Swaption Payer Swaption Payer Swaption Payer Swaption Payer Swaption Payer Swaption Payer Swaption EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq Base Index Term1 1 3 5 7 10 13 15 17 20 23 25 4 7 10 13 15 20 4 7 10 13 15 20 7 10 13 15 17 20 22 5 7 10 13 15 17 20 22 25 5 5 5 5 5 5 5 5 5 5 5 5 Term2 0,023 0,023 0,023 0,023 0,023 0,023 0,05 0,05 0,05 0,05 0,05 0,05 1,2 1,2 1,2 1,2 1,2 1,2 1,2 0,68 0,68 0,68 0,68 0,68 0,68 0,68 0,68 0,68 Strike OLS -17,52 -13,22 -6,95 0,25 11,41 21,33 26,58 30,61 34,32 35,8 35,85 3,97 5,86 6,46 5,95 5,09 2,38 -1,16 -2,93 -4,13 -4,5 -4,23 -2,88 1,5 2,44 1,98 1,33 1,97 0,94 1,73 -7,42 -7,77 -7,22 -6,5 -6,54 -7,04 -8,85 -10 -11,32 OLS Marge 43,76 26,48 8,73 -2,6 -13,09 -16,24 -14,84 -11,16 -5,58 -2,6 -4,2 -15,8 -27,9 -36,74 -41,94 -42,16 -39,73 0,24 -4,34 -10,47 -16,28 -18,63 -18,94 -1,06 1,37 1,41 1,01 1,66 0,92 1,85 10,49 -6,79 -13,16 -14,49 -15,36 -16,79 -20,6 -17,87 -14,6 Table 7.36 – Composition et Poids du portefeuille B Curr EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR PLS -0,77 -123,23 77,5 4,56 -4,15 16,47 16,46 49,5 85,92 74,12 -34,04 -42,05 2,85 12,81 9,24 -6,8 27,13 121,71 59,94 27,19 18,34 41,8 77,1 1,7 2,48 2,05 1,33 1,98 0,97 1,59 14,2 -3,57 -16,51 -14,94 -12,94 -14,31 -11,41 -10,68 3,4 PLS Marge 28,79 16,9 13,22 -11,03 -22,87 -10,21 0,14 8,46 20,02 8,73 -28,39 -77,97 -98,11 -85,08 -55,6 -44,43 -25,27 14,99 21,65 23,21 28,04 34,7 46,31 -1,1 1,43 1,42 1,03 1,59 1 1,83 8,83 -9,07 -12,92 -12,95 -8,85 -18,23 -21,36 -23,49 -12,04 94 Idx 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Instrument ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon ZeroCoupon Receiver Swaption Receiver Swaption Receiver Swaption Receiver Swaption Receiver Swaption Receiver Swaption Payer Swaption Payer Swaption Payer Swaption Payer Swaption Payer Swaption Payer Swaption EquityIndex EquityIndex EquityIndex EquityIndex EquityIndex EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Call EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EquityIndex Put EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-05Y EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq EUR-Eq Base Index Term1 1 3 5 7 10 13 15 17 20 23 25 1 4 7 10 13 15 1 4 7 10 13 15 1 5 10 15 20 1 3 5 7 10 13 15 17 20 22 25 1 3 5 7 10 13 15 17 20 22 25 5 5 5 5 5 5 5 5 5 5 5 5 1 1 1 1 1 Term2 1,3 1,3 1,3 1,3 1,3 1,3 1,3 1,3 1,3 1,3 1,3 0,8 0,8 0,8 0,8 0,8 0,8 0,8 0,8 0,8 0,8 0,8 0,04 0,04 0,04 0,04 0,04 0,04 0,015 0,015 0,015 0,015 0,015 0,015 Strike OLS -42,79 -14,47 -30,54 -41,54 2,73 29,92 10,46 30,55 68,75 38,13 -14,01 208,06 -53,49 -12,2 16,48 33,63 -16 14,91 -12,74 8,23 17,72 30,28 28,51 35 10,2 17,68 19,76 18,01 -80,51 6,08 -7,21 0,55 -14,73 1,66 -17,2 0,36 -14,28 -1,07 -0,5 73,14 40,61 24 6,33 21,3 1,2 8,37 8,57 16,08 -15,91 21,98 OLS Marge 88,48 -30,38 -53,3 -76,46 -30,89 -0,48 -10,39 10,52 48,6 5,01 -60,72 190,47 -159,16 -112,21 -66,57 -2,96 -108,13 180,42 -174,08 -60,8 -31,62 38,27 35,15 65,71 14,32 15,66 4,27 7,68 -154,32 11,96 -9,24 0,21 -12,64 1,62 -3,27 1,08 -3,01 -1,86 -0,66 109,83 72,2 40,37 20,05 16,27 -3,29 7,92 -4,12 10,98 -40,19 27,67 Table 7.37 – Composition et Poids du portefeuille C Curr EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR EUR PLS -15,36 -51,56 -38,04 -40,5 -4,25 8,59 23,88 54,07 60,18 40,97 -11,58 130,62 -15,43 -23,46 5,16 44,83 -36,16 86,57 -16,07 1,1 13,53 49,74 47,28 36,89 10,03 17,52 13,72 23,81 -84,11 4,84 -7,12 0,21 -14,31 1,6 -11,17 0,55 -20,24 -0,91 -0,57 78,07 40,18 23,45 8,4 20,64 -3,51 7,87 5 26,22 -22,19 22,93 RP C1 -96,11 0 0 0 0 0 0 93,08 0 0 40,87 143,99 -49,74 0 0 0 0 134,18 0 0 0 0 7,6 27,66 8,27 13,49 24,32 17,76 -62,09 3,22 -6,02 2,31 -10,56 2,13 -22,18 2,05 -14,94 -2,91 1,45 51,98 41,46 21,35 7,41 19,72 0 16,69 0 27,01 -22,9 24,74 RP C2 -80,63 0 0 0 0 0 0 87,58 0 0 31,81 110,73 0 0 0 0 0 105,88 0 0 0 0 0 24,8 11,26 8,88 24,26 14,62 -49,71 3,43 -2,79 -3,24 -10,08 3,23 -16,69 -3,58 -11,8 -1,18 0,35 28,46 63,39 0 33,36 0 16,4 0 0 0 0 33,04 RP C2 (Avec Cvar) -85,11 0 0 0 0 0 0 87,95 0 0 35,49 105,66 0 0 0 0 0 125,12 0 0 0 0 0 21,05 7,2 17,8 24,35 15,95 -43,16 3,61 -3,42 1,73 -17,48 2,31 -18,83 -5,09 -8,77 -1,99 -0,33 39,33 25,24 0 28,72 36,9 0 0 34,1 0 0 11,91 Résultats de la régression OLS sur les marges Portefeuille A Figure 7.36 – Distribution Portefeuille A Figure 7.37 – Qualité d’ajustement du portefeuille A Portefeuille B Figure 7.38 – Distribution Portefeuille B Portefeuille C 95 Figure 7.39 – Qualité d’ajustement du portefeuille B Figure 7.40 – Distribution Portefeuille C Figure 7.41 – Qualité d’ajustement du portefeuille C 96 97 RP A -16,1 -11,3 1,1 6,3 15,1 19,9 23,7 28,4 30,4 33,7 34,9 Différence -27,3 -21,5 -13,3 -9,6 -3,6 0,0 2,7 5,6 6,7 8,7 9,5 RP B -42,9 -33,4 -12,6 -4 10,4 17,6 22,8 28,9 31,3 35,0 36,6 Différence -0,6 0,6 0,4 0,7 1,0 2,3 3,5 5,0 5,8 7,4 7,8 RP C -37,4 -28,9 -10 -2,2 12,7 20,6 26,4 33,0 36,3 57,0 66,6 RP A 19,5 9,68 -12,41 3,27 -4,41 5,96 9-17,66 Différence 0 +0,74 -1,80 +0,63 +1,97 +0,91 -0,09 RP B 19,5 8,55 -12,12 4,16 -5,3 3,94 -18,24 Différence 0 +1,86 -2,09 -0,25 +2,85 +2,93 +0,49 Table 7.39 – Sensibilités des Portefeuilles calibrés sur les marges DFA 19,5 10,42 -14,21 3,9 -2,44 6,88 -17,74 RP C 19,5 10,42 -14,21 3,9 -2,44 6,88 -15,48 Différence -6,1 -3,9 -2,2 -1,1 -1,2 -0,7 0,0 0,9 0,7 -14,6 -22,3 Table 7.38 – Récapitulatif de la distribution des portefeuilles SdS -43,5 -32,8 -12,2 -3,3 11,5 19,9 26,4 33,9 37 42,4 44,4 Situation initiale Choc taux +100bps Choc de taux -100bps Choc action +30% Choc action -30% Choc combiné +100bps/+30% Choc combiné -100bps/-30% Quantile 99,5% 99% 95% 90% 70% 50% 30% 10% 5% 1% 0,5% Différence 0 0 0 0 0 0 -2,27 Code VBA Algorithme Régression PLS Public Sub P L S A l g o r i t h m _ s a n s P R E S S _ a v e c _ c o n t r a i n t e s v 1 (x , y , Bc , dc , scn , nIns , nbc , a , w ) ’ PLS Algorithm without stopping condition : user have to precise number of Latent variables Application . Scre enUpda ting = False Dim i , j , l , m , n As Integer ’ Dim scn , nIns , nbc , a , w Dim val1 , val2 , Rss , Press As Double Dim tmp , tmp1 , tmp2 , tmp3 , tmp4 , tmp5 , tmpQ , tmpY , A1 , A2 Dim tX , tY , wh , wb , q , qb , qbb , B , C , wbis , ttbis , tbis , qbis , tXbis , tYbis , u , p m = 0 ’ ’’’ Construction du èproblme sans contraintes Call Call Call Call trsp ( Bc , nbc , nIns , tmp1 ) fullqrdcp ( tmp1 , nIns , nbc , tmpQ , tmp4 , tmp5 ) trsp ( tmp5 , nbc , nbc , tmp2 ) TriResolve ( tmp2 , nbc , nbc , dc , tmpY ) Call prod (x , scn , nIns , tmpQ , nIns , nIns , tmp5 ) ReDim A1 (1 To scn , 1 To nbc ) ReDim A2 (1 To scn , 1 To nIns - nbc ) For i = 1 To scn For j = 1 To nIns If j <= nbc Then A1 (i , j ) = tmp5 (i , j ) If j > nbc Then A2 (i , j - nbc ) = tmp5 (i , j ) Next j Next i Call prod ( A1 , scn , nbc , tmpY , nbc , 1 , tmp2 ) nIns = nIns - nbc ReDim x (1 To scn , 1 To nIns ) For i = 1 To scn For j = 1 To nIns x (i , j ) = A2 (i , j ) Next j Next i For i = 1 To scn y (i , 1) = y (i , 1) - tmp2 (i , 1) Next i ReDim wb (1 To nIns , 1 To a ) ReDim wh (1 To nIns , 1 To a ) ReDim qb (1 To a ) ReDim qbb (1 To a , 1) ReDim pb (1 To nIns , 1 To a ) ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ DEBUT ALGORITHME PLS ’’’’’’’’’’’’’’’’’’’’’’’’’’’ For k = 1 To a ’ Calcul du RSS If k - 1 = 0 Then Rss = ( std (y , scn ) ^ 2) * scn Else Rss = norm (y , scn ) ^ 2 End If ’ Calcul Call Call Call de wk trsp (x , scn , nIns , tX ) trsp (y , scn , 1 , tY ) prod ( tX , nIns , scn , y , scn , 1 , tmp1 ) 98 tmp = norm ( tmp1 , nIns ) Call scalprod ( tmp1 , nIns , 1 , 1 / tmp , w ) ’ ’’’ Mise à jour de la matrice W For i = 1 To nIns wb (i , k ) = w (i , 1) Next i ’ ’’’ Calcul de la nouvelle composante tk Call prod (x , scn , nIns , w , nIns , 1 , T ) ’ ’’’ Mettre à jour la matrice T ’ ’’’ Calcul de pk : vecteur des coefficients de érgression de X sur tk Call prod ( tX , nIns , scn , T , scn , 1 , tmp1 ) Call trsp (T , scn , 1 , tt ) Call prod ( tt , 1 , scn , T , scn , 1 , tmp2 ) Call scalprod ( tmp1 , nIns , 1 , 1 / tmp2 (1 , 1) , p ) ’ ’’’ Mettre à jour la matrice P For i = 1 To nIns pb (i , k ) = p (i , 1) Next i ’ ’’’ Mise à jour de la matrice des érsidus X Call trsp (p , nIns , 1 , tmp1 ) Call prod (T , scn , 1 , tmp1 , 1 , nIns , tmp2 ) For i = 1 To scn For j = 1 To nIns x (i , j ) = x (i , j ) - tmp2 (i , j ) Next j Next i ’ ’’’ Calcul de qk : coefficient de érgression de y sur tk Call prod ( tY , 1 , scn , T , scn , 1 , tmp1 ) Call prod ( tt , 1 , scn , T , scn , 1 , tmp2 ) q = tmp1 (1 , 1) / tmp2 (1 , 1) ’ ’’’ Mettre à jour le vecteur Q qb ( k ) = q qbb (k , 1) = q ’ ’’’ Calcul de uk Call scalprod (y , scn , 1 , 1 / q , u ) ’ ’’’ Mise à jour de Y Call scalprod (T , scn , 1 , q , tmp1 ) For i = 1 To scn y (i , 1) = y (i , 1) - tmp1 (i , 1) Next i ’ ’’’ calcul de wh : sert à avoir les coefficients ah de érgression élis aux composantes de x For i = 1 To nIns wh (i , k ) = w (i , 1) Next i For i = 1 To k - 1 ReDim tmp1 (1 To nIns , 1) For j = 1 To nIns tmp1 (j , 1) = pb (j , i ) Next j Call trsp ( tmp1 , nIns , 1 , tmp3 ) Call prod ( tmp3 , 1 , nIns , w , nIns , 1 , tmp1 ) ReDim tmp2 (1 To nIns , 1) For j = 1 To nIns 99 tmp2 (j , 1) = wh (j , i ) Next j Call scalprod ( tmp2 , nIns , 1 , tmp1 (1 , 1) , tmp4 ) For j = 1 To nIns wh (j , k ) = wh (j , k ) - tmp4 (j , 1) Next j Next i Next k ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ FIN ALGORITHME PLS ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’’’ Calcul du vecteur des coefficients de la érgression Call prod ( wh , nIns , a , qbb , n , 1 , tmp2 ) ’ ’’’ Construction de la solution du èproblme avec contraintes ReDim tmp1 (1 To nIns + nbc , 1) For i = 1 To nbc tmp1 (i , 1) = tmpY (i , 1) Next i For i = nbc + 1 To nIns + nbc tmp1 (i , 1) = tmp2 ( i - nbc , 1) Next i Call prod ( tmpQ , nIns + nbc , nIns + nbc , tmp1 , nIns + nbc , 1 , tmp2 ) ReDim w (1 To nIns + nbc ) ’ ’’’ Construction du vecteur des poids w For i = 1 To nIns + nbc Worksheets ( "éDonnes " ) . Cells (2 + i , 1) . Value = tmp2 (i , 1) w ( i ) = tmp2 (i , 1) Next i nIns = nIns + nbc Application . Scre enUpda ting = True End Sub Algorithme Cash Flow Mismatch Public Sub simplx (a , m , n , m1 , m2 , m3 , icase , izrov , iposv ) Dim i , ip , i_s , k , kh , kp , nl1 As Integer Dim l1 , l3 Dim q1 , bmax As Double Dim EPS EPS = 1e -06 If ( m <> m1 + m2 + m3 ) Then GoTo err1 ReDim l1 (1 To n + 1) ReDim l3 (1 To m ) ’ ReDim l3 (0 To m ) ’ l1 ’ l3 nl1 For = ivector (1 , n + 1) = ivector (1 , m ) = n k = 1 To n l1 ( k ) = k izrov ( k ) = k Next k For i = 1 To m If a ( i + 1 , 1) < 0 Then GoTo err2 iposv ( i ) = n + i Next i If ( m2 + m3 ) Then 100 For i = 1 To m2 l3 ( i ) = 1 Next i For k = 1 To n + 1 q1 = 0 For i = m1 + 1 To m q1 = q1 + a ( i + 1 , k ) Next i a ( m + 2 , k ) = - q1 Next k Do While 0 = 0 Call simp1 (a , m + 1 , l1 , nl1 , 0 , kp , bmax ) If ( bmax <= EPS And a ( m + 2 , 1) < - EPS ) Then icase = -1 Exit Sub ’ ’’’ A REFORMULER Else If ( bmax <= EPS And a ( m + 2 , 1) <= EPS ) Then For ip = m1 + m2 + 1 To m If iposv ( ip ) = ip + n Then Call simp1 (a , ip , l1 , nl1 , 1 , kp , bmax ) If bmax > EPS Then GoTo one End If Next ip For i = m1 + 1 To m1 + m2 If l3 ( i - m1 ) = 1 Then For k = 1 To n + 1 a ( i + 1 , k ) = -a ( i + 1 , k ) Next k End If Next i Exit Do End If End If Call simp2 (a , m , n , ip , kp ) If ip = 0 Then icase = -1 Exit Sub End If one : Call simp3 (a , m + 1 , n , ip , kp ) If iposv ( ip ) >= n + m1 + m2 + 1 Then For k = 1 To nl1 If l1 ( k ) = kp Then Exit For Next k nl1 = nl1 - 1 For i_s = k To nl1 l1 ( i_s ) = l1 ( i_s + 1) Next i_s Else kh = iposv ( ip ) - m1 - n If kh >= 1 Then If l3 ( kh ) Then l3 ( kh ) = 0 a ( m + 2 , kp + 1) = a ( m + 2 , kp + 1) + 1 For i = 1 To m + 2 a (i , kp + 1) = -a (i , kp + 1) Next i End If End If End If i_s = izrov ( kp ) izrov ( kp ) = iposv ( ip ) iposv ( ip ) = i_s Loop End If While 0 = 0 Call simp1 (a , 0 , l1 , nl1 , 0 , kp , bmax ) If bmax <= EPS Then icase = 0 Exit Sub End If Call simp2 (a , m , n , ip , kp ) 101 If ip = 0 Then icase = 1 Exit Sub End If Call simp3 (a , m , n , ip , kp ) i_s = izrov ( kp ) izrov ( kp ) = iposv ( ip ) iposv ( ip ) = i_s Wend err1 : MsgBox " Bad input constraints counts in simplx " err2 : MsgBox " Bad input table in simplx " End Sub Public Sub simp1 (a , mm , ll , nll , iabf , kp , bmax ) Dim k As Integer Dim test As Double Dim EPS EPS = 1e -06 If nll <= 0 Then bmax = 0 Else kp = ll (1) bmax = a ( mm + 1 , kp + 1) For k = 2 To nll If iabf = 0 Then test = a ( mm + 1 , ll ( k ) + 1) - bmax Else test = Abs ( a ( mm + 1 , ll ( k ) + 1) ) - Abs ( bmax ) End If If ( test > 0) Then bmax = a ( mm + 1 , ll ( k ) + 1) kp = ll ( k ) End If Next k End If End Sub Public Sub simp2 (a , m , n , ip , kp ) Dim k , i As Integer Dim qp , q0 , q , q1 As Double Dim EPS EPS = 1e -06 ip = 0 For i = 1 To m If a ( i + 1 , kp + 1) < - EPS Then Exit For Next i If i > m Then Exit Sub q1 = -a ( i + 1 , 1) / a ( i + 1 , kp + 1) ip = i For i = ip + 1 To m If a ( i + 1 , kp + 1) < - EPS Then q = -a ( i + 1 , 1) / a ( i + 1 , kp + 1) If q < q1 Then ip = i q1 = q Else If q = q1 Then For k = 1 To n qp = -a ( ip + 1 , k + 1) / a ( ip + 1 , kp + 1) q0 = -a ( i + 1 , k + 1) / a ( i + 1 , kp + 1) If q0 <> qp Then Exit For Next k If q0 < qp Then ip = i End If End If End If Next i End Sub 102 Public Sub simp3 (a , i1 , k1 , ip , kp ) Dim kk , ii As Integer Dim piv As Double piv = 1 / a ( ip + 1 , kp + 1) For ii = 1 To i1 + 1 If ii - 1 <> ip Then a ( ii , kp + 1) = a ( ii , kp + 1) * piv For kk = 1 To k1 + 1 If kk - 1 <> kp Then a ( ii , kk ) = a ( ii , kk ) - a ( ip + 1 , kk ) * a ( ii , kp + 1) Next kk End If Next ii For kk = 1 To k1 + 1 If kk - 1 <> kp Then a ( ip + 1 , kk ) = -a ( ip + 1 , kk ) * piv Next kk a ( ip + 1 , kp + 1) = piv End Sub Public Sub P o r t C _ a b s o l u t e M i s m a t c h () Application . Scre enUpda ting = False Dim a , m , n , m1 , m2 , m3 , icase , sum , sigma , liab , cfl , Bc , dc , nbc scn = 1000 nIns = 50 nbc = 6 ReDim liab (1 To scn ) ReDim cfl (1 To scn , 1 To nIns ) ReDim Bc (1 To nbc , 1 To nIns ) ReDim dc (1 To nbc , 1) If nbc <> 0 Then For i = 1 To nbc For j = 1 To nIns Bc (i , j ) = Worksheets ( " Contraintes " ) . Cells (1 + i , j ) . Value Next j dc (i , 1) = Worksheets ( " Contraintes " ) . Cells (30 + i , 1) . Value Next i End If n = scn + nIns * 2 m1 = 1 + scn m2 = scn m3 = nbc For i = 1 To scn For j = 1 To nIns cfl (i , j ) = Worksheets ( "éDonnes " ) . Cells (2 + i , 3 + j ) . Value Next j liab ( i ) = Worksheets ( "éDonnes " ) . Cells (2 + i , 2) . Value Next i sigma = 9 m = m1 + m2 + m3 ReDim a (1 To m + 2 , 1 To n + 1) For i = 1 To m + 2 For j = 1 To n + 1 a (i , j ) = 0 Next j Next i ’ ’’’’ Objective function a (1 , 1) = 0 For i = 2 To nIns + 1 sum = 0 For j = 1 To scn sum = sum + cfl (j , i - 1) Next j a (1 , i ) = - sum / scn a (1 , i + nIns ) = sum / scn Next i 103 For i = 2 * nIns + 2 To scn + 2 * nIns + 1 a (1 , i ) = 0 Next i ’ ’’’’’ First inequality a (2 , 1) = scn * sigma For i = 2 To nIns + 1 a (2 , i ) = 0 a (2 , i + nIns ) = 0 Next i For i = 2 * nIns + 2 To scn + 2 * nIns + 1 a (2 , i ) = -1 Next i For k = 1 To scn If liab ( k ) >= 0 Then ’ inferior inequality a (2 + k , 1) = liab ( k ) For i = 2 To nIns + 1 a (2 + k , i ) = - cfl (k , i - 1) a (2 + k , i + nIns ) = cfl (k , i - 1) Next i a (2 + k , 2 * nIns + 1 + k ) = 1 ’ superior inequality a (2 + k + scn , 1) = liab ( k ) For i = 2 To nIns + 1 a (2 + k + scn , i ) = - cfl (k , i - 1) a (2 + k + scn , i + nIns ) = cfl (k , i - 1) Next i a (2 + k + scn , 2 * nIns + 1 + k ) = -1 Else ’ inferior inequality a (2 + k , 1) = - liab ( k ) For i = 2 To nIns + 1 a (2 + k , i ) = cfl (k , i - 1) a (2 + k , i + nIns ) = - cfl (k , i - 1) Next i a (2 + k , 2 * nIns + 1 + k ) = 1 ’ ’’’’’’ attention ’ superior inequality a (2 + k + scn , 1) = - liab ( k ) For i = 2 To nIns + 1 a (2 + k + scn , i ) = cfl (k , i - 1) a (2 + k + scn , i + nIns ) = - cfl (k , i - 1) Next i a (2 + k + scn , 2 * nIns + 1 + k ) = -1 End If Next k For j = 1 To nbc If dc (j , 1) >= 0 Then a (2 + 2 * scn + j , 1) = dc (j , 1) For i = 2 To nIns + 1 a (2 + 2 * scn + j , i ) = - Bc (j , i - 1) a (2 + 2 * scn + j , i + nIns ) = Bc (j , i - 1) Next i For i = 2 * nIns + 2 To scn + 2 * nIns + 1 ’a (2 + 2 * scn + 1 , i ) = 0 a (2 + 2 * scn + j , i ) = 0 Next i Else a (2 + 2 * scn + j , 1) = - dc (j , 1) For i = 2 To nIns + 1 a (2 + 2 * scn + j , i ) = Bc (j , i - 1) a (2 + 2 * scn + j , i + nIns ) = - Bc (j , i - 1) Next i For i = 2 * nIns + 2 To scn + 2 * nIns + 1 ’a (2 + 2 * scn + 1 , i ) = 0 a (2 + 2 * scn + j , i ) = 0 Next i 104 End If Next j ReDim izrov (1 To n ) ReDim iposv (1 To m ) Call simplx (a , m , n , m1 , m2 , m3 , icase , izrov , iposv ) Worksheets ( " Simplexe " ) . Activate Range ( " B3 : D3000 " ) . ClearContents If icase = 0 Then For i = 1 To m + 2 Worksheets ( " Simplexe " ) . Cells (2 + i , 2) . Value = i If i <= m Then Worksheets ( " Simplexe " ) . Cells (2 + i , 3) . Value = iposv ( i ) Worksheets ( " Simplexe " ) . Cells (2 + i , 4) . Value = a (i , 1) Next i End If Application . Scre enUpda ting = True End Sub Public Sub P o r t C _ C V a r _ A b s o l u t e M i s m a t c h () Application . Scre enUpda ting = False Dim a , m , n , m1 , m2 , m3 , icase , sum , sigma , liab , cfl , Bc , dc , nbc scn = 1000 nIns = 50 nbc = 6 ReDim liab (1 To scn ) ReDim cfl (1 To scn , 1 To nIns ) ReDim Bc (1 To nbc , 1 To nIns ) ReDim dc (1 To nbc , 1) If nbc <> 0 Then For i = 1 To nbc For j = 1 To nIns Bc (i , j ) = Worksheets ( " Contraintes " ) . Cells (1 + i , j ) . Value Next j dc (i , 1) = Worksheets ( " Contraintes " ) . Cells (30 + i , 1) . Value Next i End If n = scn + nIns * 2 + 2 * scn + 2 m1 = 1 + scn m2 = scn m3 = nbc m1_bis = 2 + scn m2_bis = scn For i = 1 To scn For j = 1 To nIns cfl (i , j ) = Worksheets ( "éDonnes " ) . Cells (2 + i , 3 + j ) . Value Next j liab ( i ) = Worksheets ( "éDonnes " ) . Cells (2 + i , 2) . Value Next i sigma = 9 sigma_1 = 38 sigma_2 = 38 beta_1 = 0.995 beta_2 = 0.995 m = m1 + m1_bis + m2 + m2_bis + m3 ’ one : 105 ReDim a (1 To m + 2 , 1 To n + 1) For i = 1 To m + 2 For j = 1 To n + 1 a (i , j ) = 0 Next j Next i ’ ’’’’ Objective function a (1 , 1) = 0 For i = 2 To nIns + 1 sum = 0 For j = 1 To scn sum = sum + cfl (j , i - 1) Next j a (1 , i ) = - sum / scn a (1 , i + nIns ) = sum / scn Next i For i = 2 * nIns + 2 To scn + 2 * nIns + 1 a (1 , i ) = 0 Next i ’ ’’’’’ 2 First inequalities : CVar mismatch a (2 , 1) = sigma_1 ’a (2 , 2 * nIns + 2) = 1 a (2 , 2 * nIns + 2) = -1 a (2 , 2 * nIns + 3) = 0 For i = 2 * nIns + 4 To 2 * nIns + 3 + scn a (2 , i ) = -1 / ((1 - beta_1 ) * scn ) ’a (2 , i ) = -1 / ( beta_1 * scn ) Next i a (3 , 1) = sigma_2 a (3 , 2 * nIns + 2) a (3 , 2 * nIns + 3) For i = 2 * nIns + a (3 , i ) = -1 / Next i ’ ’’’’’’’’’’’’’’’’’ = 0 = -1 3 + scn + 1 To 2 * nIns + 3 + 2 * scn ((1 - beta_2 ) * scn ) ’ ’’’’’ Third Inequality : Absolute mismatch a (4 , 1) = scn * sigma For i = 2 To nIns + 1 a (4 , i ) = 0 a (4 , i + nIns ) = 0 Next i For i = 2 * nIns + 3 + 2 * scn + 1 To 2 * nIns + 3 + 3 * scn a (4 , i ) = -1 Next i ’ ’’’’’’ Absolute Mismatch linked Inequalities For k = 1 To scn If liab ( k ) >= 0 Then ’ inferior inequality a (4 + k , 1) = liab ( k ) For i = 2 To nIns + 1 a (4 + k , i ) = - cfl (k , i - 1) a (4 + k , i + nIns ) = cfl (k , i - 1) Next i a (4 + k , 2 * nIns + 3 + 2 * scn + k ) = 1 ’ superior inequality a (4 + k + 2 * scn , 1) = liab ( k ) For i = 2 To nIns + 1 a (4 + k + 2 * scn , i ) = - cfl (k , i - 1) a (4 + k + 2 * scn , i + nIns ) = cfl (k , i - 1) Next i a (4 + k + 2 * scn , 2 * nIns + 3 + 2 * scn + k ) = -1 Else ’ inferior inequality a (4 + k , 1) = - liab ( k ) 106 For i = 2 To a (4 + k , a (4 + k , Next i a (4 + k , 2 * nIns + 1 i ) = cfl (k , i - 1) i + nIns ) = - cfl (k , i - 1) nIns + 3 + 2 * scn + k ) = 1 ’ superior inequality a (4 + k + 2 * scn , 1) = - liab ( k ) For i = 2 To nIns + 1 a (4 + k + 2 * scn , i ) = cfl (k , i - 1) a (4 + k + 2 * scn , i + nIns ) = - cfl (k , i - 1) Next i a (4 + k + 2 * scn , 2 * nIns + 3 + 2 * scn + k ) = -1 End If Next k ’ ’’’’’’ CVAr Mismatch linked Inequalities For k = 1 To scn If liab ( k ) >= 0 Then ’ inferior inequality a (3 + m1 + k , 1) = liab ( k ) For i = 2 To nIns + 1 a (3 + m1 + k , i ) = - cfl (k , i - 1) a (3 + m1 + k , i + nIns ) = cfl (k , i - 1) Next i a (3 + m1 + k , 2 * nIns + 1 + 1) = 0 a (3 + m1 + k , 2 * nIns + 1 + 2) = 1 a (3 + m1 + k , 2 * nIns + 3 + k + scn ) = 1 ’ superior inequality a (4 + k + 3 * scn , 1) = liab ( k ) For i = 2 To nIns + 1 a (4 + k + 3 * scn , i ) = - cfl (k , i - 1) a (4 + k + 3 * scn , i + nIns ) = cfl (k , i - 1) Next i a (4 + k + 3 * scn , 2 * nIns + 1 + 1) = -1 a (4 + k + 3 * scn , 2 * nIns + 1 + 2) = 0 a (4 + k + 3 * scn , 2 * nIns + 3 + k ) = -1 Else ’ inferior inequality a (3 + m1 + k , 1) = - liab ( k ) For i = 2 To nIns + 1 a (3 + m1 + k , i ) = cfl (k , i - 1) a (3 + m1 + k , i + nIns ) = - cfl (k , i - 1) Next i a (3 + m1 + k , 2 * nIns + 1 + 1) = 1 a (3 + m1 + k , 2 * nIns + 1 + 2) = 0 a (3 + m1 + k , 2 * nIns + 3 + k ) = 1 ’ superior inequality a (4 + k + 3 * scn , 1) = - liab ( k ) For i = 2 To nIns + 1 a (4 + k + 3 * scn , i ) = cfl (k , i - 1) a (4 + k + 3 * scn , i + nIns ) = - cfl (k , i - 1) Next i a (4 + k + 3 * scn , 2 * nIns + 1 + 1) = 0 a (4 + k + 3 * scn , 2 * nIns + 1 + 2) = -1 a (4 + k + 3 * scn , 2 * nIns + 3 + k + scn ) = -1 End If Next k If nbc <> 0 Then For j = 1 To nbc If dc (j , 1) >= 0 Then ’a (2 + 2 * scn + 1 , 1) = Worksheets (" Contraintes ") . Cells (31 , 1) . Value a (4 + m1 + m1_bis + m2 + m2_bis - 3 + j , 1) = dc (j , 1) For i = 2 To nIns + 1 ’a (2 + 2 * scn + 1 , i ) = - Worksheets (" Contraintes ") . Cells (2 , i - 1) . Value ’a (2 + 2 * scn + 1 , i + nIns ) = Worksheets (" Contraintes ") . Cells (2 , i - 1) . Value a (4 + m1 + m1_bis + m2 + m2_bis - 3 + j , i ) = - Bc (j , i - 1) a (4 + m1 + m1_bis + m2 + m2_bis - 3 + j , i + nIns ) = Bc (j , i - 1) 107 Next i Else ’a (2 + 2 * scn + 1 , 1) = Worksheets (" Contraintes ") . Cells (31 , 1) . Value a (4 + m1 + m1_bis + m2 + m2_bis - 3 + j , 1) = - dc (j , 1) For i = 2 To nIns + 1 ’a (2 + 2 * scn + 1 , i ) = - Worksheets (" Contraintes ") . Cells (2 , i - 1) . Value ’a (2 + 2 * scn + 1 , i + nIns ) = Worksheets (" Contraintes ") . Cells (2 , i - 1) . Value a (4 + m1 + m1_bis + m2 + m2_bis - 3 + j , i ) = Bc (j , i - 1) a (4 + m1 + m1_bis + m2 + m2_bis - 3 + j , i + nIns ) = - Bc (j , i - 1) Next i End If Next j End If ReDim izrov (1 To n ) ReDim iposv (1 To m ) Call simplx (a , m , n , m1 + m1_bis , m2 + m2_bis , m3 , icase , izrov , iposv ) Worksheets ( " Simplexe " ) . Activate Range ( " B3 : D8000 " ) . ClearContents If icase = 0 Then For i = 1 To m + 2 Worksheets ( " Simplexe " ) . Cells (2 + i , 2) . Value = i If i <= m Then Worksheets ( " Simplexe " ) . Cells (2 + i , 3) . Value = iposv ( i ) Worksheets ( " Simplexe " ) . Cells (2 + i , 4) . Value = a (i , 1) Next i End If Application . Scre enUpda ting = True End Sub Algorithme LAR Public Sub LARS_Proc (x , y , scn , nIns , cnt , w , Active ) Application . Scre enUpda ting = False Dim i , ii , j , l , m , k , nVar , ind , addvar , min_i As Integer Dim val1 , val2 , Rss , Press , min_plus , Cmax , Ctest , t_prev , t_now , sum As Double Dim tmp , tmp1 , tmp2 , tmp3 , tmp4 , tmp5 , tmpQ , tmpY , A1 , A2 , gA , xA , xj , txA , wtemp , Replicating , c Dim tX , tY , wa , a , aa , ua , mu , mu_old , beta , beta_t , beta_tmp , rup , r , tr , CActive , SignA , gamma , gamma_bis Dim SignOK ReDim mu (1 To scn , 1) ReDim mu_old (1 To scn , 1) ReDim wtemp (1 To nIns , 1) ’ ’’ Ini tializ ation For i = 1 To scn mu (i , 1) = 0 mu_old (i , 1) = 0 Next i m = nIns If m <= scn - 1 Then m = nIns ReDim ReDim ReDim ReDim Active (1 To nIns ) CActive (1 To nIns ) SignA (1 To nIns ) NotUsed (1 To nIns ) ReDim gamma (1 To nIns ) ReDim beta (1 To nIns , 1 To nIns ) ReDim beta_t (1 To nIns , 1 To nIns ) ’ ReDim gamma (1 To nIns ) 108 ’ ReDim beta (1 To nIns , 1 To nIns ) For i = 1 To nIns Active ( i ) = 0 CActive ( i ) = 1 For k = 1 To nIns beta (i , k ) = 0 beta_t (i , k ) = 0 Next k SignA ( i ) = 0 Next i nVar = 0 SignOK = 1 i = 0 Call trsp (x , scn , nIns , tX ) Worksheets ( wks_au_selec ) . Activate Range ( " M8 : S1000 " ) . ClearContents ’ ’’’ ********************** Main LARS loop While nVar < m i = i + 1 ReDim tmp2 (1 To scn , 1) For j = 1 To scn tmp2 (j , 1) = y (j , 1) - mu (j , 1) Next j Call prod ( tX , nIns , scn , tmp2 , scn , 1 , c ) ’ Calculate current correlation Call AbsoluteMax (c , nIns , Cmax , ind ) ’ Find the maximum absolute current correlation ’ Worksheets ("éDonnes ") . Cells (50 + i , 1) . Value = Cmax If i = 1 Then addvar = ind If SignOK Then nVar = nVar + 1 Active ( nVar ) = addvar CActive ( addvar ) = 0 SignA ( addvar ) = Sgn ( c ( addvar , 1) ) End If ’ add the new variable to active set ’ remove the variable from the inactive set If nVar = 1 Then Call ExtractX (x , scn , nIns , Active , SignA , nVar , xA , xj ) Call trsp ( xA , scn , nVar , txA ) Call prod ( txA , nVar , scn , xA , scn , nVar , gA ) ReDim r (1 , 1) r (1 , 1) = gA (1 , 1) ^ 0.5 aa = (1 / gA (1 , 1) ) ^ ( -0.5) ReDim wa (1 To nVar , 1) wa (1 , 1) = aa * 1 / gA (1 , 1) Call scalprod ( xA , scn , nVar , wa (1 , 1) , ua ) Call prod ( tX , nIns , scn , ua , scn , nVar , a ) Else Call ExtractX (x , scn , nIns , Active , SignA , nVar , xA , xj ) If SignOK Then Call cholupdate (r , nVar , scn , xA , rup ) ’ Extract the new XA matrix ’ Update the Cholesky matrix Else ’ Call ’ Call End If ReDim r (1 For k = 1 downdate (r , nVar , scn , xA , rup , delete ) downdatebis (r , nVar , scn , xA , rup , delete ) To nVar , 1 To nVar ) To nVar 109 ’ Downdate the Cholesky matrix ’ Downdate the Cholesky matrix For j = 1 To nVar r (k , j ) = rup (k , j ) Next j Next k ’ If i = 10 Then scn = scn / 0 ’ If SignOK = 0 Then scn = scn / 0 ReDim tmp1 (1 To nVar , 1) For j = 1 To nVar tmp1 (j , 1) = 1 Next j Call trsp ( tmp1 , nVar , 1 , tmp2 ) Call trsp (r , nVar , nVar , tr ) Call TriResolve (r , nVar , nVar , tmp1 , tmp3 ) Call TriResolveUp ( tr , nVar , nVar , tmp3 , tmp ) Call prod ( tmp2 , 1 , nVar , tmp , nVar , 1 , tmp4 ) aa = (1 / tmp4 (1 , 1) ) ^ 0.5 ’ Computes A Call scalprod ( tmp , nVar , 1 , aa , wa ) Call prod ( xA , scn , nVar , wa , nVar , 1 , ua ) Call prod ( tX , nIns , scn , ua , scn , 1 , a ) End If ’ Computes wA vector ’ Computes the equiangular vector uA ReDim beta_tmp (1 To nIns , 1) For j = 1 To nIns beta_tmp (j , 1) = 0 Next j ’ Calcultes new gamma coeeficient and find the new variable to join the active set If nVar = m Then gamma ( i ) = Cmax / aa Else ’k = 0 ReDim gamma_bis (1 To nIns , 1 To 2) For j = 1 To nIns If CActive ( j ) = 1 Then If aa - a (j , 1) <> 0 Then gamma_bis (j , 1) = ( Cmax - c (j , 1) ) / ( aa - a (j , 1) ) ’ gamma_bis (j , 1) = ( Cmax - c (j , 1) ) / ( aa - a (j , 1) ) gamma_bis (j , 2) = ( Cmax + c (j , 1) ) / ( aa + a (j , 1) ) ’ Else ’ gamma_bis (j , 1) = 1 E +15 ’ gamma_bis (j , 2) = 1 E +15 End If Next j Call minplus ( gamma_bis , nIns , CActive , min_plus , min_i ) gamma ( i ) = min_plus addvar = min_i End If ’ update the coefficient estimates Call scalprod ( wa , nVar , 1 , gamma ( i ) , tmp1 ) For j = 1 To nVar beta_tmp (j , 1) = tmp1 (j , 1) Next j ’ update the predictor estimates Call scalprod ( ua , scn , 1 , gamma ( i ) , tmp1 ) For j = 1 To scn mu_old (j , 1) = mu (j , 1) mu (j , 1) = mu_old (j , 1) + tmp1 (j , 1) Next j 110 For j = 1 To nIns beta (i , j ) = beta_tmp (j , 1) Next j ’ ’ ’’ ’ ’’ ’ ’’ Historique des R2 For k = 1 To nIns ’ Worksheets ("éDonnes ") . Cells (2 + k , 1) . Value = 0 wtemp (k , 1) = 0 Next k For k = 1 To nIns sum = 0 For j = 1 To i sum = sum + beta (j , k ) Next j If Active ( k ) <> 0 Then wtemp ( Active ( k ) , 1) = sum * SignA ( Active ( k ) ) Next k Call prod (x , scn , nIns , wtemp , nIns , 1 , Replicating ) Worksheets ( wks_au_selec ) . Cells (7 + i , 13) . Value = CalculateR2 (y , Replicating , scn ) Worksheets ( wks_au_selec ) . Cells (7 + i , 12) . Value = nVar ’ ’’’’’’’’’’’’’’’’’’’’’ If nVar = cnt Then nVar = nVar + m End If Wend If nVar <> m Then nVar = nVar - m ReDim w (1 To nIns ) For k = 1 To nIns w(k) = 0 Next k For k = 1 To nVar sum = 0 For j = 1 To i sum = sum + beta (j , k ) Next j ’ Worksheets ("éDonnes ") . Cells (2 + Active ( k ) , 1) . Value = sum * SignA ( Active ( k ) ) w ( Active ( k ) ) = sum * SignA ( Active ( k ) ) Next k Application . Scre enUpda ting = True End Sub Algorithme OMP Public Sub OMP_Proc (x , y , scn , nIns , cnt , w , Activebis ) Application . Scre enUpda ting = False Dim i , ii , j , l , m , n , nVar , k , ind As Integer Dim val1 , val2 , Rss , Press , min_plus , Cmax , Ctest , t_prev , t_now , sumt , sumtt As Double Dim tmp , tmp1 , tmp2 , tmp3 , tmp4 , tmp5 , xA , List_ind Dim r , Active , CActive , z , z_t , rn , qn , q , s , sbis ’ ’’ ReDim ReDim ReDim ReDim ReDim Ini tializ ation CActive (1 To nIns ) Active (1 To nIns ) Activebis (1 To nIns ) r (1 To scn , 1) z (1 To nIns ) 111 nVar = nIns For i = 1 To nIns CActive ( i ) = i Active ( i ) = 0 Activebis ( i ) = 0 Next i For i = 1 To scn r (i , 1) = y (i , 1) Next i Worksheets ( wks_au_selec ) . Activate Range ( " L8 : S4000 " ) . ClearContents ’ ’’’ ********************** Main OMP loop While Not n >= nIns n = n + 1 Call Call Call Call ExtractXbis (x , scn , nIns , CActive , nVar , xA , List_ind ) trsp ( xA , scn , nVar , tmp1 ) prod ( tmp1 , nVar , scn , r , scn , 1 , tmp2 ) AbsoluteMaxb is ( tmp2 , nVar , Cmax , ind , List_ind ) nVar = nVar - 1 CActive ( ind ) = 0 Active ( ind ) = 1 Activebis ( nIns - nVar ) = ind ’ ’’’’’’’’’’’’’’’’’’’’’ Call ExtractXter (x , scn , nIns , Activebis , nIns - nVar , xA ) Call MGSqrdcp ( xA , scn , nIns - nVar , qn , rn , q ) Call trsp (q , scn , 1 , tmp1 ) Call prod ( tmp1 , 1 , scn , y , scn , 1 , tmp ) z ( nIns - nVar ) = tmp (1 , 1) Call scalprod (q , scn , 1 , tmp (1 , 1) , tmp2 ) For i = 1 To scn r (i , 1) = r (i , 1) - tmp2 (i , 1) Next i ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ ’ R2 calculation ReDim z_t (1 To n , 1) For i = 1 To n z_t (i , 1) = z ( i ) Next i Call TriResolveUp ( rn , n , n , z_t , s ) ReDim sbis (1 To nIns , 1) For i = 1 To nIns sbis (i , 1) = 0 Next i For i = 1 To n sbis ( Activebis ( i ) , 1) = s (i , 1) Next i Call prod (x , scn , nIns , sbis , nIns , 1 , tmp ) Worksheets ( wks_au_selec ) . Cells (7 + n , 13) . Value = CalculateR2 (y , tmp , scn ) Worksheets ( wks_au_selec ) . Cells (7 + n , 12) . Value = n If n = cnt Then n = n + nIns Wend If n <> nIns Then n = n - nIns 112 ReDim w (1 To nIns ) ReDim z_t (1 To n , 1) For i = 1 To n z_t (i , 1) = z ( i ) Next i Call TriResolveUp ( rn , n , n , z_t , s ) ReDim sbis (1 To nIns , 1) For i = 1 To nIns sbis (i , 1) = 0 w(i) = 0 Next i For i = 1 To n sbis ( Activebis ( i ) , 1) = s (i , 1) w ( Activebis ( i ) ) = s (i , 1) Next i Application . Scre enUpda ting = True End Sub Instruments Financiers Notations On considère les notations suivantes : – R(t, T ) est le taux discrétisé d’un zéro coupon de maturité T à l’instant t – Rc(t, T ) est le taux continu d’un zéro coupon de maturité T à l’instant t 1 – D(t, T ) = 1+R(t,T − T le déflateur de maturité T à l’instant t ) – Dc(t, T ) = e−Rc(t,T )T le déflateur de maturité T à l’instant t D(0,T ) – Libor(T ) = D(0,T −1 le taux d’intérêt à court terme T dérivé de la courbe des taux +1) spot – N (.) est la fonction de répartition de la loi normale Les volatilités sont déduites des trajectoires en sortie de l’ESG : Zéro coupon Le détenteur d’un zéro coupon de maturité t1 et de nominal 1 reçoit une unité dans la monnaie du zéro coupon : CF(t)= 1 si t = t1 , CF(t)= 0 sinon Valorisation Si t1 n’est pas un entier, on définit le taux d’intérêt d’un zéro coupon de maturité t1 est défini comme suit : R(0, t1 ) = (1 − (t1 − Ent(t1 )))R(0, Ent(t1 )) + (t1 − Ent(t1 )R(0, Ent(t1 ) + 1) où Ent(.) désigne la fonction partie entière. Le prix du zéro coupon est : ZC(t1 ) = 1 1+R(0,t1 )−t1 113 Forward swap Le détenteur d’un forward swap de maturité t1 et de ténor t2 paye un un taux d’intérêt variable et reçoit un taux d’intérêt fixe K à t1 + 1 et jusqu’à t1 + t2 . Pour payer le taux court le détenteur du forward swap peut entrer dans un forward swap et payer le le taux fixe par taux S(t1 , t2 ) et recevoir le taux variable : CF(t)= K − S(t1 , t2 ) si t1 + 1 ≤ t ≤ t1 + t2 , CF(t)= 0 sinon Valorisation Le prix P est le suivant : K.P V0 − ZC(t1 ) + ZC(t1 + t2 ) oùP V0 = Pt1 +t2 t1 ZC(i) Call/Put Le détenteur d’un call Européen de maturité t1 et de strike K a le droit d’acheter le sous-jacent à la date de maturité t1 au prix K. Les cashflow sont donc définis comme suit : CF(t)= max(0; S(t) − K) si t = t1 , CF(t)= 0 sinon Valorisation Si on désigne par S le prix du sous-jacent à l’instant 0 et σeq la volatilité implicite de d’une option de maturité t1 , alors Le prix P est le suivant : P = S.N (d1 ) − K.exp(−Rc (0, t1 )t1 ).N (d2 où d1 = σ2 S ln( K )+t1 (Rc (0,t1 ) 2eq √ ) σsw i √ , d2 = d1 − σeq t1 . Les options sur indices actions ou immobilier permettent de prendre en compte les flux liés au caractère optionnel de l’engagement de l’assureur avec le mécanisme de la participation aux bénéfices. Put Le détenteur d’un put Européen de maturité t1 et de strike K a le droit de vendre le sous-jacent à la date de maturité t1 au prix K. Les cashflow sont donc définis comme suit : CF(t)= max(0; K − S(t)) si t = t1 , CF(t)= 0 sinon Valorisation Si on désigne par S le prix du sous-jacent à l’instant 0 et σeq la volatilité implicite de d’une option de maturité t1 , alors Le prix P est le suivant : P = −S.N (−d1 ) + K.exp(−Rc (0, t1 )t1 ).N (−d2 où d1 = S ln( K )+t1 (Rc (0,t1 ) √ σsw i 2 σeq 2 ) √ , d2 = d1 − σeq t1 . Les options sur indices actions ou immobilier permettent de prendre en compte les flux liés au caractère optionnel de l’engagement de l’assureur avec le mécanisme de la participation aux bénéfices. 114 Floor Le détenteur d’un floor de date de départ t1 , de ténor t2 et de strike K recevra à partir de t1 + 1 et ce jusqu’à t1 + t2 la différence positive entre le strike et taux swap. Les cashflow sont donc définis comme suit : CF(t)= max(K − S(t, T ); 0) si t1 + 1 ≤ t ≤ t1 + t2 , CF(t)= 0 sinon Valorisation Si on désigne par σsw la volatilité implicite de la swaption, alors Le prix P est le suivant : Pt1 +t2 P = i=t ZC(i).[−F wdAdj(i).N (−d1,i ) + K.N (−d2,i )] 1 +1 où d1,i = ln( iσ 2 F wdAdj(i) )+ 2sw K √ σsw i √ , d2,i = d1,i − σsw i. F wdAdj(i) = F wd(i) + ConvAdj(i), 2 2 .Conv(i) , ConvAdj(i) = − 2i . σsw .F wd(i) Dur(i) T +1 Conv(i) = T. (1+F wd(i)) T +2 + Dur(i) = −T (1+F wd(i))T +1 F wd(i) = ZC(i)−ZC(i+T ) Pi+T . j=i+1 ZC(j) − PT PT j=1 j=1 j+1 F wd(i).j. (1+F wd(i)) j+2 , j F wd(i). (1+F wd(i)) j+1 , Ces instruments permettent de prendre en compte la sensibilité des rachats aux variations des taux de marché. Cap Le détenteur d’un floor de date de départ t1 , de ténor t2 et de strike K recevra à partir de t1 + 1 et ce jusqu’à t1 + t2 la différence positive entre le taux swap et le strike. Les cashflow sont donc définis comme suit : CF(t)= max(S(t, T ) − K; 0) si t1 + 1 ≤ t ≤ t1 + t2 , CF(t)= 0 sinon Valorisation Si on désigne par σsw la volatilité implicite de la swaption, alors Le prix P est le suivant : Pt1 +t2 P = i=t ZC(i).[F wdAdj(i).N (d1,i ) − K.N (d2,i )] 1 +1 avec les même notations que pour la valorisation des floors Ces instruments permettent de prendre en compte la sensibilité des rachats aux variations des taux de marché. Swaption receveuse Le détenteur d’une swaption receveuse de maturité t1 et de ténor t2 a le droit d’entrer à t1 dans un contrat de swap receveur où il paierait un taux variable et percevrait le taux fixe K. Le détenteur de la swaption receveuse exercera l’option uniquement si les conditions garanties 115 sont plus attractives que les conditions prévalant à la date d’échéance de l’option. Dans ce cas le détenteur de l’option entrerait dans un swap payeur à t1 où il paierait le taux fixe S(t1 , t2 ) et recevrait le taux variable. Les flux de taux variable s’annulent et on a donc les cashflow qui peuvent être décrit comme suit : CF(t)= max(K − S(t1 , t2 ); 0) si t1 + 1 ≤ t ≤ t1 + t2 , CF(t)= 0 sinon Valorisation Si on désigne par σsw la volatilité implicite de la swaption, alors Le prix P est le suivant : P = P V0 [−S.N (d1 ) + K.N (−d2 )] où P V0 = S= Pt1 +t2 t1 ZC(i), ZC(t1 )−ZC(t1 +t2 ) , P V0 t σ2 √ ln( S )+ 1 sw d1 = Kσsw √t12 , d2 = d1 − σsw t1 . Ces instruments permettent de prendre en compte la sensibilité des rachats aux variations des taux de marché. Swaption payeuse Le détenteur d’une swaption payeuse de maturité t1 et de ténor t2 a le droit d’entrer à t1 dans un contrat de swap payeur où il percevrait un taux variable et paierait le taux fixe K. Le détenteur de la swaption payeuse exercera l’option uniquement si les conditions garanties sont plus attractives que les conditions prévalant à la date d’échéance de l’option. Dans ce cas le détenteur de l’option entrerait dans un swap receveur à t1 où il percevrait le taux fixe S(t1 , t2 ) et paierait le taux variable. Les flux de taux variable s’annulent et on a donc les cashflow qui peuvent être décrit comme suit : CF(t)= max(S(t1 , t2 ) − K; 0) si t1 + 1 ≤ t ≤ t1 + t2 , CF(t)= 0 sinon Valorisation Si on désigne par σsw la volatilité implicite de la swaption, alors Le prix P est le suivant : P = P V0 [S.N (d1 ) − K.N (d2 )] avec les même notations que dans le cas de la valorisation d’une swaption receveuse. Ces instruments permettent de prendre en compte la sensibilité des rachats aux variations des taux de marché. 116 Table des figures 2.1 Structure de Solvabilité 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 3.1 3.2 3.3 3.4 3.5 Structure du bilan économique sous Solvabilité 2 . . Structure modulaire de la formule standard . . . . . Illustration de l’approche SdS . . . . . . . . . . . . Illustration de l’approche Curve Fitting . . . . . . . Illustration de l’approche Least Square Monte Carlo . . . . . 13 15 17 19 21 5.1 Illustration de l’approche RP . . . . . . . . . . . . . . . . . . . . . . . . . . 27 6.1 6.2 6.3 6.4 6.5 6.6 6.7 Distribution des fonds propres SdS . . . Qualité d’ajustement du portefeuille A . Distribution fonds propres Portefeuille A Qualité d’ajustement du portefeuille B . Distribution fonds propres Portefeuille B Qualité d’ajustement du portefeuille C . Distribution fonds propres Portefeuille C 42 42 42 44 44 45 45 7.1 7.2 7.3 7.4 7.5 7.6 7.7 7.8 7.9 7.10 7.11 7.12 7.13 7.14 7.15 7.16 7.17 7.18 7.19 7.20 7.21 Qualité d’ajustement du portefeuille A . . . . . . . . . . . . . . . . . . . . Distribution fonds propres Portefeuille A . . . . . . . . . . . . . . . . . . . Qualité d’ajustement du portefeuille B . . . . . . . . . . . . . . . . . . . . Distribution fonds propres Portefeuille B . . . . . . . . . . . . . . . . . . . Qualité d’ajustement du portefeuille C . . . . . . . . . . . . . . . . . . . . Distribution fonds propres Portefeuille C . . . . . . . . . . . . . . . . . . . Evolution du P RESSh et du RSSh en fonction du nombre de variables latentes Evolution du R2 et du Q2h en fonction du nombre de variables latentes . . . Qualité d’ajustement du portefeuille A1 . . . . . . . . . . . . . . . . . . . Distribution fonds propres Portefeuille A1 . . . . . . . . . . . . . . . . . . . Qualité d’ajustement du portefeuille A2 . . . . . . . . . . . . . . . . . . . Distribution fonds propres Portefeuille A2 . . . . . . . . . . . . . . . . . . . Qualité d’ajustement du portefeuille C1 . . . . . . . . . . . . . . . . . . . Distribution fonds propres Portefeuille C1 . . . . . . . . . . . . . . . . . . . Qualité d’ajustement du portefeuille C2 . . . . . . . . . . . . . . . . . . . Distribution fonds propres Portefeuille C2 . . . . . . . . . . . . . . . . . . QQ-Plot Distribution des erreurs du portefeuille C2 (sans CVaR Mismatch) . QQ-Plot Distribution des erreurs du portefeuille A1 (sans CVaR Mismatch) . QQ-Plot Distribution des erreurs du portefeuille C2 (avec CVaR Mismatch) QQ-Plot Distribution des erreurs du portefeuille A1 (avec CVaR Mismatch) Qualité d’ajustement du portefeuille A1 (avec CVaR Mismatch) . . . . . . . 117 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 55 56 56 57 57 58 58 61 61 62 62 63 63 64 64 66 66 68 68 68 7.22 7.23 7.24 7.25 7.26 7.27 7.28 7.29 7.30 7.31 7.32 7.33 7.34 7.35 7.36 7.37 7.38 7.39 7.40 7.41 Distribution fonds propres Portefeuille A1 (avec CVaR Mismatch) . Qualité d’ajustement du portefeuille C2 (avec CVaR Mismatch) . . Distribution fonds propres Portefeuille C2 (avec CVaR Mismatch) . Description géométrique de l’algorithme LAR pour p=2 prédicteurs Distribution fonds propres Portefeuille LAR (50 Ins) . . . . . . . . Distribution fonds propres Portefeuille LAR (100 Ins) . . . . . . . Qualité d’ajustement du portefeuille LAR . . . . . . . . . . . . . . Distribution fonds propres Portefeuille LAR . . . . . . . . . . . . . Distribution fonds propres Portefeuille OMP (50 Ins) . . . . . . . Distribution fonds propres Portefeuille OMP (100 Ins) . . . . . . . Qualité d’ajustement du portefeuille OMP . . . . . . . . . . . . . Distribution fonds propres Portefeuille OMP . . . . . . . . . . . . Qualité d’ajustement du portefeuille OMP (avec SVD) . . . . . . Distribution fonds propres Portefeuille OMP (avec SVD) . . . . . . Distribution Portefeuille A . . . . . . . . . . . . . . . . . . . . . . Qualité d’ajustement du portefeuille A . . . . . . . . . . . . . . . Distribution Portefeuille B . . . . . . . . . . . . . . . . . . . . . . Qualité d’ajustement du portefeuille B . . . . . . . . . . . . . . . Distribution Portefeuille C . . . . . . . . . . . . . . . . . . . . . . Qualité d’ajustement du portefeuille C . . . . . . . . . . . . . . . 118 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 69 69 72 77 77 77 77 82 82 83 83 86 86 95 95 95 96 96 96 Liste des tableaux 3.1 Matrice de corrélation des risques de marché . . . . . . . . . . . . . . . . . 16 6.1 6.2 6.3 6.4 6.5 6.6 6.7 Valorisation du bilan . Sensibilités Portefeuille Ecarts Portefeuille A . Sensibilités Portefeuille Ecart Portefeuille B . Sensibilités Portefeuille Ecarts Portefeuille C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 43 43 44 45 45 46 7.1 7.2 7.3 7.4 7.5 7.6 7.7 7.8 7.9 7.10 7.11 7.12 7.13 7.14 7.15 7.16 7.17 7.18 7.19 7.20 7.21 7.22 7.23 7.24 7.25 7.26 7.27 7.28 Sensibilités Portefeuille A . . . . . . . . . . . . . . . . . . . . . Ecarts Portefeuille A . . . . . . . . . . . . . . . . . . . . . . . . Sensibilités Portefeuille B . . . . . . . . . . . . . . . . . . . . . Ecarts Portefeuille B . . . . . . . . . . . . . . . . . . . . . . . . Sensibilités Portefeuille C . . . . . . . . . . . . . . . . . . . . . Ecarts Portefeuille C . . . . . . . . . . . . . . . . . . . . . . . Valeur du paramètre σ pour chaque portefeuille . . . . . . . . . . Sensibilités Portefeuille A1 . . . . . . . . . . . . . . . . . . . . . Ecarts Portefeuille A1 . . . . . . . . . . . . . . . . . . . . . . . Sensibilités Portefeuille A2 . . . . . . . . . . . . . . . . . . . . . Ecarts Portefeuille A2 . . . . . . . . . . . . . . . . . . . . . . . Sensibilités Portefeuille C1 . . . . . . . . . . . . . . . . . . . . . Ecarts Portefeuille C1 . . . . . . . . . . . . . . . . . . . . . . . Sensibilités Portefeuille C2 . . . . . . . . . . . . . . . . . . . . . Ecarts Portefeuille C2 . . . . . . . . . . . . . . . . . . . . . . . Sensibilités Portefeuille A1 (avec CVaR Mismatch) . . . . . . . . Ecarts Portefeuille A1 (avec CVaR Mismatch) . . . . . . . . . . Sensibilités Portefeuille C2 (avec CVaR Mismatch) . . . . . . . . Ecarts Portefeuille C2 (avec CVaR Mismatch) . . . . . . . . . . Composition de l’indice de CashFlows . . . . . . . . . . . . . . . Instruments sélectionnés dans l’ordre de LAR . . . . . . . . . . . Instruments sélectionnés dans l’ordre de LAR . . . . . . . . . . . Instruments sélectionnés dans l’ordre de LAR (CashFlows bruités) Paramètres Instruments . . . . . . . . . . . . . . . . . . . . . . Sensibilités Portefeuille LAR . . . . . . . . . . . . . . . . . . . . Ecarts Portefeuille LAR . . . . . . . . . . . . . . . . . . . . . . Instruments sélectionnés dans l’ordre de OMP . . . . . . . . . . Instruments sélectionnés dans l’ordre de OMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 56 56 57 57 58 61 62 62 63 63 64 64 65 65 69 69 70 70 74 74 75 76 76 78 78 80 81 . . A . . B . . C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.29 7.30 7.31 7.32 7.33 7.34 7.35 7.36 7.37 7.38 7.39 Instruments sélectionnés dans l’ordre de OMP . . Sensibilités Portefeuille OMP . . . . . . . . . . . Ecarts Portefeuille OMP . . . . . . . . . . . . . . Décomposition de la variance . . . . . . . . . . . Sensibilités Portefeuille OMP (avec SVD) . . . . . Ecarts Portefeuille OMP (avec SVD) . . . . . . . Composition et Poids du portefeuille A . . . . . . Composition et Poids du portefeuille B . . . . . . Composition et Poids du portefeuille C . . . . . . Récapitulatif de la distribution des portefeuilles . . Sensibilités des Portefeuilles calibrés sur les marges 120 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 83 84 85 86 87 92 93 94 97 97 Bibliographie [1] Natixis Assurances. Normes de calcul du scr de marche, document interne. 2011. [2] Natixis Assurances. Specifications fonctionelles detaillees du modele de natixis assurances, document interne. 2011. [3] D. Bauer, D. Bergmann, and A. Reuss. Solvency ii and nested simulation - a least-squares monte carlo approach. 2009. [4] David A. Besley, E. Kuh, and R.E. Welsch. Regression diagnostics : identifying influential data and sources of collinearity. 1980. [5] Thomas Blumensath and Mike E. Davies. On the difference between orthogonal matching pursuit and orthogonal least squares, 2007. [6] T. T. Cai and Lie Wang. Orthogonal Matching Pursuit for Sparse Signal Recovery With Noise. Information Theory, IEEE Transactions on, 57(7) :4680–4688, July 2011. [7] Wei Chen and Jimmy Skoglund. Cashflow replication with mismatch constraints. Journal of Risk, 14 :115–128, 2012. [8] E. Clement, D. Lamberton, and P. Protter. An economic overview of risk-based capital requirements for the property-liability insurance industry. Journal of Insurance Regulation, 11 :427-447, 1994. [9] L. Devineau and M. Chauvigny. Replicating portfolios : techniques de calibrage pour le calcul du capital economique solvabilite 2. 2009. c 2? [10] Maxime Druais. Pourquoi et comment calibrer le risque de marche sous solvabilità le role centrale du generateur de scenarios economiques. 2012. [11] Bradley Efron, Trevor Hastie, Iain Johnstone, and Robert Tibshirani. Least angle regression. Annals of Statistics, 32 :407–499, 2004. [12] EIOPA. Qis 5 technical specifications. 2009. [13] EIOPA. Draft technical implementing measures. 2011. [14] Gene H. Golub and Charles F. Van Loan. Matrix computations (3rd ed.). Johns Hopkins University Press, Baltimore, MD, USA, 1996. [15] Pavlo Krokhmal, Jonas Palmquist, and Stanislav Uryasev. Portfolio optimization with conditional value-at-risk objective and constraints. JOURNAL OF RISK, 4 :11–27, 2002. [16] F.A. Longstaff and E.S. Schwartz. Valuing american options by simulation : A simple least-squares approach. The Review of Financial Studies, 14 :113-147, 2001. [17] Stephane Mallat and Zhifeng Zhang. Matching pursuit with time-frequency dictionaries. IEEE Transactions on Signal Processing, 41 :3397–3415, 1993. [18] European Parliament. Directive 85/611/eec. 1985. 121 [19] European Parliament. Directive 2006/48/eec. 2006. [20] European Parliament. Directive 2009/138/ec. 2009. [21] William H. Press, Saul A. Teukolsky, William T. Vetterling, and Brian P. Flannery. Numerical Recipes 3rd Edition : The Art of Scientific Computing. Cambridge University Press, New York, NY, USA, 3 edition, 2007. [22] R. Tyrrell Rockafellar and Stanislav Uryasev. Optimization of conditional value-at-risk. Journal of Risk, 2 :21–41, 2000. [23] M. Tenenhaus. La regression pls, theorie et pratique. 1998. [24] Robert Tibshirani. Regression shrinkage and selection via the lasso. Journal of the Royal Statistical Society, Series B, 58 :267–288, 1994. 122