![](//s1.studylibfr.com/store/data-gzf/c5e0bab56a2060c6368bee6e9a0a9557/1/007442207.htmlex.zip/bg3.jpg)
COPULES ET RISQUES MULTIPLES 3
affirmation d’Anscombe ((4)), « the only type of bivariate distribution with
which most of us feel familiar (other than the joint distribution of a pair of
independent random variables) is the bivariate normal distribution ». Aussi,
avant d’étudier les lois multivariées générales, il convient de bien comprendre la
construction du vecteur Gaussien.
En dimension d,X= (X1,··· , Xd)admet une distribution Gaussienne si
et seulement si, pour tout a∈Rd,a0Xsuit une loi normale (univariée). Un
vecteur Gaussien est alors caractérisé par deux paramètres, µ= [µi]i=1,··· ,d
(correspondant à l’espérance, E(X)) et Σ= [Σi,j ]i,j=1,··· ,d (correspondant à
la variance Var(X)). Comme les lois marginales d’un vecteur Gaussien sont
également Gaussienne, N(µi,Σi,i), la structure de dépendance, qui, ajoutée aux
comportements marginaux permet de décrire la loi jointe est alors caractérisée
par une matrice de corrélation, R= [ri,j ]i,j=1,··· ,d, où Σi,j =ri,j pΣi,iΣj,j , en
notant que ri,i = 1. Autrement dit, la structure de dépendance, en dimension
d≥2, est caractérisée par un ensemble de dépendances deux à deux, ri,j .
En allant un peu plus loin, l’introduction de la dépendance à l’aide de cette
matrice de corrélation permet de mieux comprendre comment passer d’un vec-
teur indépendant à un vecteur corrélé. En utilisant la décomposition de Cho-
lesky, on a que si X⊥
0= (X⊥
0,1,··· , X⊥
0,d)est un vecteur Gaussien centré réduit
à composantes indépenddantes, alors X=µ+AX⊥
0est un vecteur Gaussien
N(µ,AA0), où Aest une matrice triangulaire inférieure, correspondant à la dé-
composition de Cholesky de la matrice Σ(c’est-à-dire AA0=Σ). On retrouve,
avec cette relation, une propriété énoncée par Rosenblatt, à savoir qu’une loi
multivariée peut s’écrire à l’aide des lois conditionnelles itérées (on parle parfois
de chain rule, ou de la transformation de Rosenblatt, introduite dans (81)),
f(x1, x2,··· , xd) = f1(x1)·f2|1(x2|x1)·f3|2,1(x3|x2, x1)···
···fd|d−1,··· ,2,1(xd|xd−1,··· , x2, x1).
Nous verrons réapparaître ces différentes idées régulièrement dans ce chapitre.
6.1.3 Plan du chapitre
Après cette rapide introduction, nous reviendrons dans la section 6.2 sur les
concepts importants pour modéliser des vecteurs aléatoires, en particulier les
classes de Fréchet (c’est à dire les classes de lois jointes dont les lois marginales
sont données), mais aussi deux formes de symmétrie : par rotation (on parlera
de lois sphériques, et par extension elliptiques) et par permutation des marges
(on parlera d’échangeabilité). La section 6.3 posera les bases sur les copules,
en dimension 2tout d’abord, puis en dimension plus grande ensuite. Nous pré-
senterons des propriétés algébriques de l’espace des copules, tout en présentant
quelques extensions importantes lors de l’agrégation des risques ou de l’étude
de problèmes de vieillissmenet (avec les quasi-copules, et les semi-copules). La
section 6.4 verra une présentation des principales familles de copules, à com-
mencer par les grands familles que sont les copules elliptiques, les copules Ar-