Représentation de Jordan 1 Nombre de vecteurs propres 2

publicité
Représentation de Jordan
Soit M une matrice carrée réelle de dimension n. On suppose dans ce projet
que le polynôme caractéristique de M a n racines réelles. Certaines racines sont
multiples.
1
Nombre de vecteurs propres
On note di l’ordre de multiplicité de la valeur propre di dans le polynôme caractéristique.
1. Compter les vecteurs propres et comparer à la dimension.
2. Compter les vecteurs propres et comparer à la dimension.
2
Propriétés du déterminant
Nous étudions comment le déterminant varie lorsqu’on modifie les colonnes de
la matrice M . On note M 1 , . . . M n les vecteurs colonnes de la matrice et on
définit Det(M 1 , . . . M n ) = det(M )
1. Forme alternée. L’échange revient à ajouter la transposition (i, j) à
toutes les permutations de la formule du déterminant.
2. Le déterminant est égal à son opposé par la question précédente.
3. Utiliser la formule des mineurs par rapport à la colonne.
4. On sort du déterminant le coefficient de proportionalité et on a deux
colonnes identiques.
5. On utilise la linéarité par rapport à cette colonne pour écrire le déteminant
comme une somme de déterminant à colonnes identiques.
6. On utilise la linéarité par rapport à chaque colonne pour établir la première
formule (identique au développement d’un produit de n sommes de taille
n). On élimine tous les déterminants où deux ki sont identiques. Il
ne reste que des multiindices ki formant des permutations des indices
(1, . . . , n). Pour chacun de ces termes on réordonne les colonnes de M
dans les déterminant au prix du signe de la permutation. On sort la constante Det(M 1 , . . . , M n ) des sommations et on reconnait le déterminant
de N .
1
7. Dans la formule du déterminant, tous les coefficients ai,σ(i) où i appartient
à {1, . . . , k} et σ(i) appartient à {n−k +1, . . . , n} sont nuls. Il ne reste que
les transpositions qui sont un produit d’une transposition des k premiers
indices et d’une transposition des n − k derniers.
3
Théorème de Cayley-Hamilton
On peut associer à un polynôme une fonction qui transforme une matrice en
une matrice. Il suffit d’utiliser le fait que les fonctions puissances sont définies
pour les matrices. Ces polynômes de matrice ont des propriétés plus faibles que
les polynômes sur le corps R.
1. Elle associe à toute matrice une matrice constante élément neutre de la
multiplication.
2. 0 et In sont solutions.
Le théorème de Cayley-Hamilton énonce que le polynôme caractéristique de M
s’annule pour la matrice M . Pour démontrer le théorème, il suffit de démontrer
le résultat équivalent pour l’application linéaire qui correspond à la matrice dans
une base fixée. Soit p(X) = an X n + · · · + a0 le polynôme caractéristique de M .
Soit f l’application représentée par M dans la base (e1 , . . . , en ). On va montrer
que p(X) s’annule pour la fonction f . On définit
p(f ) = an f n + · · · + a0 Id
où les puissances correspondent à la composition (par exemple f 2 = f ◦ f ) et
Id à l’application linéaire identité qui à x associe x. On va montrer que p(f )
est la fonction nulle. Pour cela on montre que p(f )(x) = 0 quel que soit x.
Considérons d’abord un x tel que (x, f (x), f n−1 (x)) est une base de E.
1. Seule l’image du dernier vecteur nécessite l’introduction de coordonnées.
c’est la matrice compagnon du polynôme
2. La forme particulière de la matrice permet un calcul rapide : on obtient
un polynôme dont les coefficients sont les coefficients apparaissant dans la
dernière colonne de N .
3. Calculer à partir des puissances successives de f (x) qui apparaissent dans
la matrice N .
4. Formule de changement de base et propriété du déterminant par rapport
au produit.
5. q et p sont égaux.
Considérons maintenant un x tel que (x, f (x), . . . , f k−1 (x)) est libre, mais pas
(x, f (x), . . . , f k (x)) avec 0 < k < n.
2
1. On complète le système (x, f (x), . . . , f k−1 (x)) pour former une base.
2. Formule du déterminant par bloc.
3. Montrer que r(f )(x) = 0. En déduire que p(f )(x) = 0. En conclure que
p(f ) est la fonction nulle. Il faut traiter aussi x = 0.
4
Polynôme minimal
On appelle polynôme minimal d’une matrice M , un polynôme de degré minimal
qui s’annule sur la matrice.
1. Calculer l’image d’un vecteur propre par le polynôme ou chaque valeur
propre est racine simple.
2. Calculer les puissances de matrice à l’aide de la relation M = P DP −1
pour se rapporter au cas précédent.
5
Cas d’une seule valeur propre multiple et un
bloc de Jordan
1. Il existe un vecteur w tel que (f − λId)n−1 (w) n’est pas nul, sinon (X −
λ)n−1 serait un polynôme annulant f et donc M .
2. Aucun de ces vecteurs n’est nul sinon le dernier serait nul; Former une
combinaison linéaire nulle de ces vecteurs et faire opérer les puissances de
(f − λId) pour conclure que les coefficients sont nuls.
3. Deux diagonales constantes.
6
Cas d’une seule valeur propre multiple et diagonale de blocs de Jordan
1. Définition des vecteurs propres et du polynôme minimal.
2. Regarder l’effet de la composition sur le noyau.
3. A chaque inclusion, définir un supplémentaire.
4. Les Ui sont des espaces dont les vecteurs non nuls mettent exactement k
itérations pour arriver en 0.
5. Les ek,1
sont le résultat de l’avant dernière itération avant d’atteindre
1
k,dk
0. Si le système (ek,1
) n’est pas libre, il y a une combinaison
i , . . . , ei
linéaire nulle à coefficient non nuls. La même combinaison linéaire des
k,dk
(ek,1
) atteint alors 0 en k − i itérations, ce qui est interdit. La
k , . . . , ek
3
notation ek,j
i se décompose en k, numéro du Uk dans lequel la base originale
a été choisie, j numéro d’ordre dans cette base, i rappelle l’appartenance
du vecteur à Ui et est également le nombre d’itération pour atteindre 0.
6. Chaque couche (i fixé) est libre et les Ui sont supplémentaires.
7. Comme auparavant chaque couche des itérés des vecteurs de Ul est libre
sinon on a la même contradiction (construction d’un vecteur de Ul dont
l’itéré devient nul avant l’itération l. Le cas des vecteurs se trouvant dans
les espaces Ui avec i > l n’ a pas besoin d’être retraité.
8. On remplit les espaces Ui les uns après les autres.
9. Pour avoir une forme particulière, il faut ranger les vecteurs de la façon
l,1
suivante : fixer un indice supérieur (l, j) et mettre à la suite (el,1
1 , . . . , (el .
On voit apparaı̂tre un bloc de Jordan de taille l.
7
Calcul de l’exponentielle
Soit A et B deux matrices carrées. On
P rappelle qu’on peut définir une norme
matricielle par kAk∞ = maxj=1,...,n | i=1,...,n ai,j |
1. Soit directement sur la formule; soit en montrant que kAk∞ = supX kAXk∞ /kXk∞
pour la norme kXk∞ = max |xi |.
2. Comme pour les réels la série est absolument convergente, et l’espace des
matrices est complet.
3. Calcul formellement équivalent à celui sur les réels et termes de reste
contrôlés par les normes.
4. Utiliser la diagonalisation ; les puissances et l’exponentielle d’une matrice
diagonale sont simples à calculer.
5. La matrice est surdiagonale, donc sa puissance n est nulle. L’exponentielle
est triangulaire.
6. Remarquer que les matrices D et S commutent.
8
Application aux systèmes d’équations différentielles
linéaires
1. Oui, on peut revenir à la définition par le taux d’accroissement et utiliser
la formule exponentielle de produit pour revenir au taux d’accroissement
en zéro.
2. Exponentielle de coefficient a;
4
3. Ce n’est possible que quand a1,2 ou a2,1 est nul.
4. La dérivée du produit exp(tA)X consiste à dériver uniquement l’exponentielle.
5. Les solutions dans la base de diagonalisation sont linéaires, le changement
de base produit les combinaisons linéaires.
6. Les solutions dans la base de Jordan sont de ce type et la matrice de
passage conserve les formes polynomiales.
5
Téléchargement