Daniel Alibert - Cours et exercices corrigés - volume 6

publicité
Daniel Alibert – Cours et Exercices corrigés – Volume 6
1
Daniel ALIBERT
Espaces vectoriels. Applications linéaires. Matrices.
Diagonalisation et trigonalisation.
Objectifs :
Savoir chercher une base d’un espace vectoriel, d’un noyau, d’une image.
Déterminer une matrice associée à une application linéaire. Savoir calculer
avec des matrices : somme, produit, déterminant.
Savoir résoudre un système d’équations linéaires : calcul, prévision et
contrôle de l’ensemble des solutions.
Savoir diagonaliser une matrice carrée : valeurs propres, vecteurs propres.
Savoir réduire à la forme triangulaire une matrice non diagonalisable.
.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
2
Organisation, mode d'emploi
Cet ouvrage, comme tous ceux de la série, a été conçu en vue d'un usage
pratique simple.
Il s'agit d'un livre d'exercices corrigés, avec rappels de cours.
Il ne se substitue en aucune façon à un cours de mathématiques complet,
il doit au contraire l'accompagner en fournissant des exemples illustratifs,
et des exercices pour aider à l'assimilation du cours.
Ce livre a été écrit pour des étudiants de première et seconde années des
Licences de sciences, dans les parcours où les mathématiques tiennent une
place importante.
Il est le fruit de nombreuses années d'enseignement auprès de ces
étudiants, et de l'observation des difficultés qu'ils rencontrent dans l'abord
des mathématiques au niveau du premier cycle des universités :
- difficulté à valoriser les nombreuses connaissances mathématiques dont
ils disposent lorsqu'ils quittent le lycée,
- difficulté pour comprendre un énoncé, une définition, dès lors qu'ils
mettent en jeu des objets abstraits, alors que c'est la nature même des
mathématiques de le faire,
- difficulté de conception et de rédaction de raisonnements même simples,
- manque de méthodes de base de résolution des problèmes.
L'ambition de cet ouvrage est de contribuer à la résolution de ces
difficultés aux côtés des enseignants.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
3
Ce livre comporte quatre parties.
La première, intitulée "A Savoir", rassemble les définitions et résultats qui
sont utilisés dans les exercices qui suivent. Elle ne contient ni
démonstration, ni exemple.
La seconde est intitulée "Pour Voir" : son rôle est de présenter des
exemples de toutes les définitions, et de tous les résultats de la partie
précédente, en ne faisant référence qu'aux connaissances qu'un étudiant
abordant le chapitre considéré a nécessairement déjà rencontré (souvent
des objets et résultats abordés avant le baccalauréat). La moitié environ de
ces exemples sont développés complètement, pour éclairer la définition ou
l'énoncé correspondant. L'autre moitié est formée d'énoncés intitulés
"exemple à traiter" : il s'agit de questions permettant au lecteur de réfléchir
de manière active à d'autres exemples très proches des précédents. Ils sont
suivis immédiatement d'explications détaillées.
La troisième partie est intitulée "Pour Comprendre et Utiliser" : des
énoncés d'exercices y sont rassemblés, en référence à des objectifs. Ces
énoncés comportent des renvois de trois sortes :
(☺) pour obtenir des indications pour résoudre la question,
( ) lorsqu'une méthode plus générale est décrite,
( ) renvoie à une entrée du lexique.
Tous les exercices sont corrigés de manière très détaillée dans la partie
3 - 2. Au cours de la rédaction, on a souvent proposé au lecteur qui
souhaiterait approfondir, ou élargir, sa réflexion, des questions
complémentaires (QC), également corrigées de façon détaillée.
La quatrième partie, "Pour Chercher", rassemble les indications, les
méthodes, et le lexique.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
4
Certains livres d'exercices comportent un grand nombre d'exercices assez
voisins, privilégiant un aspect "entraînement" dans le travail de l'étudiant
en mathématiques. Ce n'est pas le choix qui a été fait ici : les exemples à
traiter, les exercices et les questions complémentaires proposés abordent
des aspects variés d'une question du niveau du L1 L2 de sciences pour
l'éclairer de diverses manières et ainsi aider à sa compréhension.
Le lecteur est invité, à propos de chacun d'entre eux, à s'interroger sur ce
qu'il a de général (on l'y aide par quelques commentaires)
Daniel Alibert – Cours et Exercices corrigés – Volume 6
Table des matières
1 A Savoir........................................................................... 9
1-1 Espaces vectoriels ........................................... 9
1-2 Applications linéaires .................................... 15
1-3 Matrices, déterminants .................................. 18
1-4 Réduction, polynômes annulateurs ............... 24
2 Pour Voir ....................................................................... 35
2-1 Espaces vectoriels ......................................... 35
2-2 Applications linéaires .................................... 59
2-3 Matrices, déterminants .................................. 67
2-4 Réduction, polynômes annulateurs ............... 79
3 Pour Comprendre et Utiliser ......................................... 97
3-1 Énoncés des exercices ................................... 97
3-2 Corrigés des exercices ................................. 111
3-3 Corrigés des questions complémentaires .... 165
4 Pour Chercher .............................................................. 169
4-1 Indications pour les exercices ..................... 169
4-2 Méthodes ..................................................... 171
4-3 Lexique........................................................ 175
5
Daniel Alibert – Cours et Exercices corrigés – Volume 6
1
6
A Savoir
Dans cette partie, on rappelle rapidement les principales définitions et les
principaux énoncés utilisés. Voir votre cours pour les démonstrations.
Vous trouverez des exemples dans la partie 2*Pour Voir.
1-1 Espaces vectoriels
Définition
Soit (K, +K , ∞ K) un corps, et (E , +E) un groupe commutatif.
Une structure d' espace vectoriel sur K est définie sur le groupe E par la
donnée d'une loi externe de K sur E, c'est-à-dire d'une application :
K × E → E, (α, x) → α. x
satisfaisant aux propriétés suivantes :
1) Pour tout α de K, tout x et tout y de E, on a l'égalité :
α. (x +E y) = (α. x) +E (α. y) .
2) Pour tout α et tout β de K, et tout x de E, on a l'égalité :
(α +K β) . x = (α. x) +E (β . x) .
3) Pour tout α et tout β de K, et tout x de E, on a l'égalité :
(α × K β) . x = α. (β . x) .
4) Soit 1K l'élément neutre de la multiplication de K. Pour tout x de E, on
a l'égalité :
1K . x = x .
On dira aussi que E est un K- Espace Vectoriel. Les éléments de K sont
souvent appelés les scalaires, et les éléments de E des vecteurs.
Dans les applications, le corps sera le plus souvent R (ou C).
Propriétés élémentaires découlant de la structure d'espace vectoriel :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
7
On note 0K, et 0E les éléments neutres de +K et +E. Pour tout vecteur x
on a l'égalité :
0K . x = 0E .
Si on note –x l'opposé du vecteur x dans E, et –1K l'opposé de 1K dans
K, on a pour tout x de E l'égalité :
(–1K) . x = –x .
Dans la suite, on ne mentionnera plus en indice l'ensemble
correspondant à une loi, ou un élément particulier (comme +E, ou 0K),
le contexte permettant de lever l'ambiguïté qui pourrait en résulter :
+ désigne aussi bien la loi d'addition de E que celle de K…
Définition
Soit E un ensemble. Une famille d'éléments de E, indexée par l'ensemble
I est une application f : I → E. Par commodité dans les calculs, on note
par exemple (zi)i∈Ι une telle application, et l'élément zi, qui serait noté dans
d'autres contextes f(i), est appelé l'élément d'indice i.
On notera bien que I n'est pas nécessairement un ensemble fini.
La famille (zi)i∈Ι n'est pas la même chose que l'ensemble {zi | i∈I}.
Soit E un K-espace vectoriel, I un ensemble d'indices, soit (ζi)i∈Ι une
famille d'éléments de K ayant la propriété suivante (la famille est appelée
"famille presque nulle") :
"l'ensemble des éléments i tels que ζi soit différent de 0 est fini".
Soit (zi)i∈Ι une famille d'éléments de E indexée par I,
L'élément de E défini par :
z = ∑ζ i .z i
i∈I
est la combinaison linéaire de la famille (zi)i∈Ι associée à la famille (ζi)i∈Ι
: cette somme a bien un sens, puisque par hypothèse seul un nombre fini
de termes ne sont pas nuls.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
8
Définition
Soit E un K- espace vectoriel, et F une partie de E.
On dit que F est un sous-espace vectoriel de E si :
1) (F, +) est un sous-groupe de (E, +).
2) La loi externe se restreint à F, c'est-à-dire en une application :
K × F → F,
ayant les propriétés 1) à 4) exigées pour les espaces vectoriels.
Proposition
Une partie F d'un espace vectoriel E est un sous-espace vectoriel si et
seulement si les trois conditions suivantes sont vérifiées :
1) Pour tout x et tout y de F, x + y est un élément de F,
2) Pour tout x de F, et tout α de K, α.x est un élément de F,
3) 0E est un élément de F.
Soit E un espace vectoriel, (Fi)i∈Ι des sous-espaces de E, en nombre fini
ou non, et F l'intersection des sous-espaces vectoriels Fi.
Alors F est un sous-espace vectoriel de E.
Par contre le résultat analogue n'est pas vrai pour la réunion de sousespaces vectoriels.
Soit A une partie de E, il existe un plus petit sous-espace vectoriel (pour
la relation d'inclusion) contenant A. Ce sous-espace est l'intersection de
tous les sous-espaces vectoriels contenant A.
Définition
Le plus petit sous-espace contenant A s'appelle le sous-espace vectoriel
engendré par A. On le note vect(A).
Le sous-espace vect(A) est l'ensemble des combinaisons linéaires
d'éléments de A.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
9
Définition
Soient F et G des sous-espaces de E. On appelle somme de F et G, et on
note F + G le sous-espace vectoriel engendré par F ∪ G.
D'après la description générale donnée ci-dessus, on voit que F + G est
l'ensemble des sommes d'un élément de F et d'un élément de G.
Si de plus F ∩ G = {0}, on dit que F et G sont en somme directe, et on
note cette somme F ⊕ G.
Si F ⊕ G = E, on dit que F et G sont des sous-espaces vectoriels
supplémentaires.
Définition
On dit qu'une famille (zi)i∈Ι d'éléments d'un espace vectoriel E est une
famille génératrice de E si tout élément z de E peut s'écrire comme une
combinaison linéaire de (zi)i∈Ι pour une famille de scalaires (ζi)i∈Ι presque
nulle, c'est-à-dire sous la forme d'une somme d'un nombre fini d'éléments :
z = ∑ ζi z i .
i∈I
Définition
Soit (xi)i∈Ι une famille d'éléments d'un espace vectoriel E.
On dit que (xi)i∈Ι est une famille libre si pour toute famille presque nulle
d'éléments de K, (ξi)i∈Ι , l'implication suivante est vraie :
∑ξ x
i i
= 0 ⇒ ξi = 0 pour tout i de I.
i∈I
On dit encore que les éléments de la famille (xi)i∈Ι sont indépendants
(sous-entendu : entre eux).
Si la famille (xi)i∈Ι n'est pas libre, on dit qu'elle est liée. On dira aussi
que les éléments de la famille sont liés, ou dépendants.
Dans ce cas il existe une famille (ξi)i∈Ι presque nulle de scalaires non tous
nuls telle que :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
∑ξ x
i i
10
=0.
i∈I
Une telle relation est appelée une relation de dépendance entre les
éléments de la famille (xi)i∈Ι. Dans une famille liée, un élément au moins
est combinaison linéaire des autres.
Définition
Soit (xi)i∈Ι une famille libre, et E´ = vect((xi)i∈Ι). Pour le sous-espace E´,
la famille (xi)i∈Ι est donc une famille à la fois libre et génératrice.
Une telle famille est appelée une base de E´.
Soit (xi)i∈Ι une base de E, et x un vecteur quelconque. La famille étant
génératrice, x s'écrit comme une combinaison linéaire des (xi)i∈Ι, et la
famille étant libre les coefficients de la combinaison linéaire sont
déterminés de manière unique : on dit que ce sont les coordonnées de x
dans la base (xi)i∈Ι .
Théorème
(théorème de la dimension)
Soit E un espace vectoriel ayant une base à n éléments.
1) Toute base de E a n éléments.
2) Toute famille génératrice de E a au moins n éléments. Une telle famille
est une base si et seulement si elle a exactement n éléments.
3) Toute famille libre de E a au plus n éléments. Une telle famille est une
base si et seulement si elle a exactement n éléments.
L'entier n ainsi attaché à E s'appelle la dimension de E.
On note n = dim(E). On dit que E est de dimension finie.
L'espace réduit à 0 est de dimension 0.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
11
Théorème
(théorème de la base incomplète)
Soit E un espace vectoriel et (x1, … , xn) une famille génératrice de E.
Soit (y1, … ,ym) une famille libre, non génératrice de E.
Il existe des éléments (xi1, xi2, … , xik) de la famille (x1, … , xn) tels que
la famille (y1, … ,ym , xi1, xi2, … , xik) soit une base de E.
En particulier cet énoncé montre qu'un espace ayant une famille
génératrice finie a une base finie.
Proposition
Soit E un espace vectoriel de dimension finie.
1) Tout sous-espace F de E est de dimension finie, et dim(F) ≤ dim(E).
Si dim(F) = dim(E), alors F = E.
2) Soient F et F´ des sous-espaces de E, on a la relation suivante :
dim(F + F´) = dim(F) + dim(F´) – dim(F ↔ F´).
3) Tout sous-espace F admet un supplémentaire F´ dans E.
On a l'égalité dim(F´) = dim(E) – dim(F).
1-2 Applications linéaires
Définition
Soient E et F des espaces vectoriels sur un corps K, et f une application de
E dans F. On dit que f est une application linéaire si les propriétés
suivantes sont vérifiées :
1) Pour tout x et tout y de E, on a l'égalité :
f(x + y) = f(x) + f(y).
2) Pour tout x de E, et tout α de K, on a l'égalité :
f(α.x) = α.f(x).
Daniel Alibert – Cours et Exercices corrigés – Volume 6
12
Une application linéaire f a les propriétés suivantes.
Si 0E est l'élément neutre de E, et 0F l'élément neutre de F :
f(0E) = 0F.
L'image d'une combinaison linéaire :
a0x0 + … + anxn
est la combinaison linéaire :
a0f(x0) + … + anf(xn ).
On note L (E, F) l'ensemble des applications linéaires de E dans F.
On peut munir L (E, F) d'une structure d'espace vectoriel, en définissant la
somme de deux applications linéaires, et le produit d'une application par
un scalaire de la manière usuelle :
(f + g)(x) = f(x) + g(x),
(αf)(x) = α.f(x).
Si E = F, on notera plus simplement L(E). On dit alors qu'un élément de
L(E) est un endomorphisme de E.
Proposition
Soit f : E --. F une application linéaire, E´ un sous-espace de E, et F´ un
sous-espace de F. Alors f(E´) est un sous-espace vectoriel de F et f-1(F´)
est un sous-espace vectoriel de E.
En particulier pour E´ = E, on note Im(f) le sous-espace f(E), appelé
l'image de f.
On note Ker(f) le sous-espace f-1(0), appelé le noyau de f.
Proposition
Une application linéaire f est surjective si et seulement si Im(f) = F, et f est
injective si et seulement si Ker(f) = 0.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
13
Proposition
1) Soit f : E → F une application linéaire.
Si (xi)i∈Ι est une famille génératrice d'un sous-espace E´ de E
(E´ = vect((xi)i∈Ι)) alors (f(xi))i∈Ι est une famille génératrice de f(E´).
2) Soit g une autre application linéaire de E dans F.
Si (xi)i∈Ι est une famille génératrice de E, et si pour tout i∈Ι on a l'égalité :
f(xi) = g(xi),
alors les applications f et g sont égales.
Proposition
Soit f : E → F une application linéaire, (xi)i∈I une famille de E, et (f(xi))i∈I
la famille de F image de la famille (xi)i∈I.
1) Si (xi)i∈I est liée, (f(xi))i∈I est liée.
2) De plus si f est injective, si (xi)i∈I est libre, (f(xi))i∈I est libre.
Proposition
Soit f : E → F une application linéaire.
1) Si f est injective, et F de dimension finie, alors E est de dimension finie
et dim(E) ≤ dim(F).
2) Si f est surjective, et E de dimension finie, alors F est de dimension finie
et dim(E) ≥ dim(F).
3) Si f est bijective, et E ou F de dimension finie, l'autre espace est aussi
de dimension finie, et dim(E) = dim(F).
4) Si E et F sont de dimension finie, on a l'égalité :
dim(E) = dim(Ker(f)) + dim(Im(f)).
Conséquence importante : soit f un endomorphisme de E, espace de
dimension finie, alors les trois conditions suivantes sont équivalentes :
* f est injective,
** f est surjective,
Daniel Alibert – Cours et Exercices corrigés – Volume 6
14
*** f est bijective .
Des espaces vectoriels ayant la même dimension, soit n, sont
isomorphes, en particulier isomorphes à Rn.
La dimension de Im(f) s'appelle le rang de f, noté rg(f).
L'égalité 4), sous la forme :
rg(f) = dim(E) – dim(Ker(f))
s'appelle parfois le théorème du rang.
1-3 Matrices, déterminants
Définitions générales, matrices.
Soient p et q des entiers strictement positifs. On appelle matrice de type
(p, q), à coefficients dans le corps K, un tableau à p lignes et q colonnes
d'éléments de K. On désigne un terme en donnant le numéro de la ligne,
puis le numéro de la colonne.
On note Mp, q(K) l'ensemble des matrices à p lignes et q colonnes.
Addition des matrices : Soit A = (aij) et B = (bij) des éléments de Mpq(K),
on appelle somme de A et B, et on désigne par A + B, la matrice C = (cij)
définie par :
cij = aij + bij.
L'élément neutre est la matrice notée 0, dont tous les termes sont nuls.
Produit par un scalaire : Soit A = (aij) une matrice, et α un élément de
K. Le produit de A par α est la matrice notée αA, dont le terme général est
α aij.
Produit de deux matrices : Soient p, q, r des entiers non nuls, A = (aij)
un élément de Mpq(K), B = (bjk) un élément de Mqr(K).
On appelle produit de A par B, et on note AB la matrice de type (p, r),
C = (ci,k), définie par :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
15
j =q
cik = ∑ aij .b jk .
j =1
Ce produit n'est donc pas, en général, interne, et définit une application :
Mpq(K) ∞ Mqr(K) --. Mpr(K) .
On vérifie que cette loi est associative, et distributive à gauche comme à
droite sur l'addition.
Dans le cas où les deux dimensions sont égales, soit n, on note plutôt
Mn(K), à la place de Mnn(K). Le produit de deux matrices définit alors une
loi de composition interne dans Mn(K). De plus elle possède un élément
neutre, noté In, ou simplement I, qui est la matrice dont tous les termes
sont nuls, à l'exception de ceux de la diagonale qui valent 1.
Ce produit n'est pas commutatif et des éléments non nuls peuvent avoir un
produit nul.
On vérifie enfin que pour α dans K, A et B dans Mn(K), on a les égalités :
(αA)B = α (AB) = A (αB).
L'ensemble Mp,q(K) est un K-espace vectoriel.
A toute matrice M =(mi,j) de Mpq(K) on associe une application linéaire
f de Kq dans Kp. On parlera, par abus, de noyau de la matrice M, d'image
de la matrice M, de rang de M, en pensant à f. Le rang d'une matrice est le
nombre maximum de vecteurs-colonnes indépendants.
Inversement, dans le cas d'espaces de dimension finie, on peut associer
à toute application linéaire une matrice, moyennant le choix de bases dans
les espaces considérés :
Soit u : E → E´ une application linéaire, B = (e1, e2, … , en) une base de
E, B´ = ( e´1, e´2, … , e´p) une base de E´.
La matrice associée à u dans les bases B et B´, soit M = M(u, B, B´) s'écrit
en mettant en colonnes les coordonnées dans B´ des images par u des
vecteurs de la base B.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
16
Les vecteurs colonnes de M forment une famille génératrice de Im(u).
Dans le cas particulier ou E = E´, on choisit toujours B = B´.
La matrice d'une application composée est le produit des matrices
correspondantes.
Si un endomorphisme u d'un espace de dimension finie a pour matrice
A1 par rapport à une base B1, sa matrice A2 par rapport à une base B2 est
donnée par :
A2 = P-1 A1 P
où P est la matrice de passage de la base B1 à la base B2.
Les colonnes de P sont formées des coordonnées des vecteurs de B2
rapportés à B1.
Si X1 représente la matrice des coordonnées d'un vecteur par rapport à la
base B1 et X2 par rapport à la base B2, alors :
X1 = PX2.
On dit que les matrices A1 et A2 sont des matrices semblables. Elles
représentent le même endomorphisme, dans des bases différentes.
Soit M une matrice, à p lignes et q colonnes. La transposée de M est la
matrice à q lignes et p colonnes obtenue à partir de M en échangeant les
lignes et les colonnes.
Systèmes d'équations linéaires
Un système d'équations linéaires est formé de n équations linéaires, à m
inconnues. On convient que les termes contenant les inconnues figurent au
premier membre des équations, et que les données connues figurent au
second membre. Les solutions d'un tel système sont des m-uples de
scalaires qui vérifient toutes les équations. Un tel système est donné par
une matrice à n lignes et m colonnes, obtenue en rangeant en ligne les
coefficients des diverses inconnues dans une équation donnée, et un
vecteur à n composantes, contenant les seconds membres des différentes
équations.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
17
Un système linéaire équivaut à une seule équation matricielle dans laquelle
l'inconnue est un vecteur à m composantes.
Une méthode classique de résolution à connaître est la méthode du pivot
de Gauss, qui consiste à remplacer le système par un système équivalent,
mais de forme triangulaire.
Calcul de
déterminant
Il existe une définition générale du déterminant d'un endomorphisme,
que nous ne rappelons pas.
On définit également le déterminant d'une matrice carrée.
Soit u un endomorphisme d'un espace vectoriel E de dimension finie, et A
la matrice associée à u dans une base choisie de E. Le déterminant de A
est indépendant du choix de cette base, c'est le déterminant de u.
Enfin, on parle du déterminant d'un système de n équations à n
inconnues, c'est le déterminant de la matrice formée des coefficients de ce
système.
On indique comment calculer, pratiquement, le déterminant d'une
matrice carrée. On le fait de proche en proche :
matrice 2x2 :
  a b  a b
det  
  =
= ad − bc.
  c d  c d
matrice 3x3 (règle de Sarrus). On opère à partir du tableau :
a
a' a" a
a'
b b' b" b b'
c c' c" c c'
selon la règle :
Les alignements descendant (de gauche à droite) donnent les
produits affectés de + : ab´c´´ + a´b´´c + a´´bc',
Les alignements montant donnent les produits affectés de – :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
18
–cb´a´´ – c´b´´a – c´´ba',
a
a′
a ′′
b b ′ b ′′ = ab' c" +a' b"c + a" bc' −cb' a"−c' b"a − c" ba' .
c c′ c ′′
Attention : la règle de Sarrus ne s’applique qu’au cas 3 × 3.
Cas général : on se ramène aux cas précédents par :
Développement par rapport à une ligne :
Les expressions placées en facteur des coefficients d'une ligne
comme :
a
a′
a ′′
b ′ b ′′
b b ′′
b
− a′
+ a ′′
b b ′ b ′′ = a
c′ c′ ′
c c′′
c
c c′ c ′′
b′
c′
,
sont appelés les cofacteurs des termes de la matrice auxquels ils
sont associés. En général, pour définir le cofacteur d'un terme
d'une matrice (ici b´, entouré d'un crochet), on procède comme
suit : effacer dans la matrice la ligne et la colonne du terme choisi,
a
a′
a′′
b
c
b′
c′
b′′
c′′
calculer le déterminant de la matrice (n-1, n-1) ainsi obtenue :
a
a′ ′
c c′ ′
= ac´´ – ca´´,
multiplier le nombre obtenu par (–1) élevé à la puissance p + q si
le terme de la matrice supprimé se situe dans la ligne numéro p et
la colonne numéro q (sur l'exemple 2 + 2).
Daniel Alibert – Cours et Exercices corrigés – Volume 6
19
Transformation d’un
déterminant avant
calcul.
Il est recommandé d’essayer de simplifier un déterminant avant de le
calculer. On utilisera les résultats suivants :
Ajouter à une ligne (colonne) un multiple d’une autre ligne (colonne) ne
change pas la valeur d’un déterminant.
Échanger deux lignes (ou deux colonnes) change le signe d’un
déterminant, pas sa valeur absolue.
Un déterminant ayant deux lignes (ou deux colonnes) proportionnelles
est égal à 0.
Le déterminant d’une somme de matrice n’est pas la somme des
déterminants de chacune d’elles.
Le déterminant d’un produit de matrices est le produit des
déterminants de chacune.
On a l’égalité, pour des matrices carrées A et B :
det(A B) = det(B A).
Le déterminant d'une matrice carrée et celui de sa transposée sont égaux.
Proposition
1) Une matrice carrée est inversible si et seulement si son déterminant est
différent de 0.
2) Un système de n équations à n inconnues admet une solution unique si
et seulement si son déterminant est différent de 0.
Plus généralement, le rang d'une matrice est la dimension du plus grand
déterminant non nul qu'on peut extraire de cette matrice.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
20
1-4 Réduction des matrices carrées, Polynômes
annulateurs
Définition
Soit u : E → E une application linéaire d’un espace vectoriel E dans luimême. On dit qu’un vecteur V est un vecteur propre de u si :
u(V) est colinéaire à V.
Dans ce cas, il existe un scalaire λ vérifiant u(V) = λ.V.
Soit A une matrice (n, n). On peut lui associer une application linéaire
u de Rn dans lui-même. Les vecteurs propres de A sont, par définition, les
vecteurs propres de u.
Définition
Soit u : E → E une application linéaire d’un espace vectoriel E dans luimême. On dit qu’un scalaire t est une valeur propre pour u s’il existe un
vecteur non nul V qui vérifie :
u(V) = t.V.
On dit que V est un vecteur propre relatif à la valeur propre t.
L'ensemble des vecteurs propres relatifs à une valeur propre donnée t
est un sous-espace vectoriel, qu'on appelle le sous-espace propre relatif à
t.
(
Des vecteurs propres V1,V2 ,…Vp
) appartenant
à des sous-espaces
propres deux à deux distincts forment toujours une famille libre.
Si t est une valeur propre de l'endomorphisme u de E, le sous-espace
propre associé est Et = Ker(u − t.IdE ) . Il en résulte qu'une valeur propre
est un réel t tel que u – t.IdE soit non inversible.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
21
On suppose dorénavant que les espaces vectoriels considérés sont de
dimension finie.
Un scalaire t est valeur propre de l'endomorphisme u si et seulement si
le déterminant de u – t.Id est nul.
Les valeurs propres sont les solutions de l'équation polynomiale :
det(u – X. IdE) = 0.
Le polynôme figurant au premier membre de cette équation s'appelle le
polynôme caractéristique de u.
Si A est la matrice de u dans une base quelconque, le polynôme
caractéristique est :
P(X) = det(A – X. Id).
Rappelons qu'on appelle ordre de multiplicité d'une racine α d'un
polynôme P la plus grande puissance de (X – α) qui divise P(X).
Un polynôme de degré n a au plus n racines, comptées avec leur ordre de
multiplicité. Il peut n'avoir aucune racine dans le corps K. S'il a
exactement n racines dans le corps K, on dit qu'il est scindé sur K.
Dans la suite, le corps de base K est R ou C.
Si un polynôme n'est pas toujours scindé sur R, il est par contre toujours
scindé sur C.
Théorème
(Cayley-Hamilton)
Soit M une matrice carrée et PM(X) son polynôme caractéristique.
On a l'égalité entre matrices (n, n) :
PM(M) = 0.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
22
Définition
Soit M une matrice carrée. On appelle polynôme annulateur de M tout
polynôme P tel que P(M) = 0.
Le polynôme caractéristique est un polynôme annulateur.
L'ensemble des polynômes annulateurs d'une matrice est un idéal de
l'anneau des polynômes. Cet ensemble est égal à l'ensemble des multiples
d'un même polynôme, unitaire et de degré minimal, appelé le polynôme
minimal de la matrice.
Le polynôme minimal est un diviseur du polynôme caractéristique.
Proposition
Soit u un endomorphisme d'un espace vectoriel de dimension finie E, t une
valeur propre, de multiplicité m(t), et Et le sous-espace propre relatif à t,
de dimension d(t). On a la relation suivante :
1 ≤ d(t) ≤ m(t).
Définition
Une matrice carrée est dite diagonalisable si elle est semblable à une
matrice diagonale.
Elle est dite trigonalisable si elle est semblable à une matrice triangulaire.
Théorème
Une matrice est diagonalisable si et seulement si :
1) Son polynôme caractéristique est scindé.
2) Pour toute valeur propre t, on a l'égalité :
d(t) = m(t).
Corollaire
Une matrice (n , n) qui a n valeurs propres distinctes est diagonalisable.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
23
Diagonalisation
Dans la pratique, on effectue la démarche suivante :
Calculer le polynôme caractéristique de la matrice.
Chercher les racines de ce polynôme, sur R en général, ou C.
Nous supposons dans la suite que le polynôme est scindé.
Pour chaque valeur propre t, on note m(t) la multiplicité.
Déterminer une base du sous-espace propre associé.
Soit d(t) sa dimension. Vérifier que m(t) = d(t).
Passer à la valeur propre suivante.
En juxtaposant les bases des différents sous-espaces propres, on obtient
une base formée de vecteurs propres. Dans cette nouvelle base, la matrice
est diagonale.
Proposition
Soit A une matrice carrée, P son polynôme caractéristique et M son
polynôme minimal.
1) Les polynômes P et M ont les mêmes racines, réelles ou complexes.
2) La matrice A est diagonalisable si et seulement si le polynôme M n'a
que des racines simples.
Définition
Soit A une matrice carrée. Soit t une valeur propre de A, et m(t) sa
multiplicité. On appelle sous-espace caractéristique de A associé à t le
sous-espace :
Ft = Ker[(A – t.I)m(t)].
Le sous-espace propre relatif à t est une partie du sous-espace
caractéristique.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
24
Proposition
Soit A une matrice carrée dont le polynôme caractéristique est scindé.
1) La somme des sous-espaces caractéristiques est directe, et égale à
l'espace vectoriel tout entier.
2) Chaque sous-espace caractéristique est stable par A.
3) Chaque sous-espace caractéristique est de dimension égale à la
multiplicité de la valeur propre correspondante.
Théorème
Une matrice carrée est trigonalisable si et seulement si son polynôme
caractéristique est scindé.
Sur C, toute matrice carrée est trigonalisable.
Trigonalisation
Dans la pratique, on effectue la démarche suivante.
Calculer le polynôme caractéristique de la matrice.
Chercher les racines de ce polynôme, sur R en général, ou C.
Nous supposons dans la suite que le polynôme est scindé.
Pour chaque valeur propre t, on note m(t) la multiplicité.
Déterminer une base du sous-espace propre associé.
Soit d(t) sa dimension.
Si m(t) = d(t), passer à une autre valeur propre.
Si m(t) > d(t), compléter la famille de vecteurs
propres obtenue par m(t) – d(t) vecteurs "pseudopropres" calculés par la méthode indiquée cidessous.
Passer à la valeur propre suivante.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
25
En juxtaposant les différentes familles de vecteurs propres ou pseudopropres obtenues pour chaque valeur propre, on obtient une nouvelle base
dans laquelle la matrice est triangulaire.
Calcul des vecteurs pseudopropres
Soit A une matrice carrée ayant une valeur propre t d'ordre m, dont le sousespace propre associé Et est de dimension d, d < m.
Soit (V1, …,Vd) une base de Et.
Ces vecteurs sont des solutions indépendantes de l'équation :
(A – t.I).V = 0.
Chercher des solutions indépendantes de l'équation :
(A – t.I).W = α1V1 + … + αd Vd,
dans laquelle α1, …, αd, sont des paramètres quelconques.
On écrira une base du sous-espace des solutions en complétant la famille
(V1, …,Vd).
Soit (V1, …,Vd, Wd+1, …,Wd+k) (k ≥ 1) une telle base.
NB : C'est une base du sous-espace vectoriel :
Ker[(A – t.I)2] = (A – t.I)-1[Ker(A – t.I)].
Si d + k = m, le calcul est terminé.
Si d + k < m, poursuivre le calcul de manière analogue à partir de cette
nouvelle famille libre.
Chercher des solutions indépendantes de l'équation :
(A – t.I).W = α1V1 + … + αd Vd + αd+1Wd+1 + …+ αd+kWd+k
dans laquelle α1, …, αd+k, sont des paramètres quelconques.
On écrira une base du sous-espace des solutions en complétant la famille
(V1, …,Vd, Wd+1, …,Wd+k).
Soit (V1, …,Vd, Wd+1, …,Wd+k, Wd+k+1, …,Wd+k+p) (p ≥ 1) une telle base.
NB : C'est une base du sous-espace vectoriel :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
26
Ker[(A – t.I)3] = (A – t.I)-1[Ker(A – t.I)2].
Si d + k + p = m, le calcul est terminé.
Si d + k + p < m, poursuivre le calcul de manière analogue à partir de cette
nouvelle famille libre.
Puissances d'une matrice
carrée
Une matrice carrée A dont le polynôme caractéristique est scindé est
semblable à une matrice triangulaire A´.
Si P est la matrice de passage, A = P.A´.P-1, et, plus généralement :
Am = P. A´m.P-1.
Il suffit donc de savoir calculer une puissance d'une matrice triangulaire.
Les techniques développées plus haut permettent d'obtenir, plus
précisément, A´ comme la somme d'une matrice diagonale et d'une matrice
nilpotente, qui commutent. On peut donc appliquer la formule du binôme
de Newton pour calculer une puissance de A´. On se ramène alors au calcul
d'une puissance d'une matrice diagonale, ce qui est évident, et au calcul
d'une puissance d'une matrice nilpotente, qui est limité à un petit nombre
de calculs (dans la pratique).
Daniel Alibert – Cours et Exercices corrigés – Volume 6
2
27
Pour Voir
Dans cette partie, on présente des exemples simples des notions ou
résultats abordés dans la partie précédente. Ils sont suivis de questions très
élémentaires pour vérifier votre compréhension.
2-1 Espaces vectoriels
"Soit (K, +K , × K ) un corps, et (E , +E ) un groupe commutatif. Une structure d' espace
vectoriel sur K est définie sur le groupe E par la donnée d'une loi externe de K sur E,
c'est-à-dire d'une application K × E → E satisfaisant aux propriétés suivantes…"
exemple 1
On note Kn, l'ensemble des n-uples d'éléments de K :
x = (x1, x2 , … , xn-1, xn).
On définit sur Kn une loi interne, notée +, en posant :
x = (x1, x2 , … , xn-1, xn),
y = (y1, y2 , … , yn-1, yn),
x + y = (x1 + y1, x2 + y2 , … , xn-1 + yn-1, xn + yn).
On définit une loi externe :
K × Kn → Kn
en posant pour α un élément de K et x = (x1, x2 , … , xn-1, xn) :
α. x = (α.x1, α.x2 , … , α.xn-1, α.xn).
On vérifie qu'on obtient bien ainsi une structure de K-espace vectoriel sur
Kn.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
28
exemple 2
(à traiter)
Soit E un espace vectoriel sur un corps K, et A un ensemble quelconque
non vide. L'ensemble F (A , E) des applications de A dans E a une structure
"naturelle" d'espace vectoriel. Quelles sont les opérations ?
# réponse
La somme de deux applications se définit par :
(f + g)(x) = f(x) + g(x).
Le produit externe d'une application par un scalaire de K se définit par :
(α.f)(x) = α.f(x).
"Soit E un ensemble. Une famille d'éléments de E, indexée par l'ensemble I est une
application f : I → E. "
exemple 3
L'application :
u : N → N,
i → 2i ,
définit une famille :
ui = 2i .
exemple 4
(à traiter)
Donner l'exemple d'une famille de R2 indexée par R.
# réponse
On peut proposer par exemple ((cos(θ), sin(θ))θ ∈ R.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
29
"La famille (zi)i∈Ι n'est pas la même chose que l'ensemble : {zi | i∈I}."
exemple 5
La famille infinie de Z, indexée par N, définie par :
zi = (– 1)i,
correspond à l'ensemble fini :
{– 1, 1}.
exemple 6
(à traiter)
Pour la famille de C indexée par N, définie par :
yk = ik,
(i est la racine carrée de – 1, comme d'habitude)
quel est l'ensemble des valeurs ?
# réponse
Les valeurs sont y0 = 1, y1 = i, y2 = – 1, y3 = – i, y4 = 1 … donc l'ensemble
des valeurs est :
{1, i, – 1, – i}.
"Soit E un K-espace vectoriel, I un ensemble d'indices, une famille d'éléments de K telle
que l'ensemble des éléments i tels que ζi soit différent de 0 est fini est appelée famille
presque nulle."
exemple 7
La famille d'entiers indexée par [0 , 1] définie par :
zx = E(x) (partie entière)
est une famille presque nulle, puisque zx = 0 sauf si x = 1.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
30
exemple 8
(à traiter)
La famille de complexes indexée par N définie par :
up = i p + 1
est-elle presque nulle ?
# réponse
Non. Les termes de la famille dont l'indice est de la forme 4k + 2 sont nuls,
c'est-à-dire une infinité de termes, mais une infinité d'entre eux sont non
nuls, par exemple ceux d'indice 4k, qui valent tous 2.
"L'élément de E défini par z =
∑ζ .z
i
i∈I
i
est la combinaison linéaire de la famille (zi)i∈Ι
associée à la famille (ζi)i∈Ι"
exemple 9
A partir de l'exemple 7, on peut, pour toute famille de vecteurs Vx, indexée
par [0 , 1], définir la combinaison linéaire :
∑z V .
x x
x ∈[0 , 1]
exemple 10
(à traiter)
Donner une expression plus simple de la combinaison linéaire donnée dans
l'exemple 9.
# réponse
Seul z1 n'est pas nul, et vaut 1, donc
∑z V
x x
x ∈[0 , 1]
= V1.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
31
"On dit que F est un sous-espace vectoriel de E si -1) (F,+) est un sous-groupe de (E,+),
-2) La loi externe se restreint à F, c'est-à-dire en une application K × F →. F, ayant les
propriétés 1) à 4) exigées pour les espaces vectoriels."
exemple 11
Dans l'espace vectoriel R3, le sous-ensemble :
F = {(x, y, z) | x + y + z = 0}
qui est un plan, est un sous-espace vectoriel.
On vérifie facilement toutes les conditions. Par exemple :
si x + y + z = 0, et x´ + y´ + z´ = 0,
alors (x + x´) + (y + y´) + (z + z´) = 0.
Donc F est stable pour l'addition. Dans F l'addition est bien associative,
commutative, admet (0, 0, 0) comme élément neutre (0 + 0 + 0 = 0), et tout
vecteur a un symétrique (si x + y + z = 0, – x + (– y) + (– z) = 0).
Les conditions sur la loi externe se vérifient de même. En particulier si α
est un scalaire, et (x, y, z) un élément de F, alors :
αx + αy + αz = α(x + y + z) = 0.
exemple 12
(à traiter)
Dans l'espace vectoriel R3, le sous-ensemble :
G = {(x, y, z) | x + y + z = 1}
qui est un plan, est-il un sous-espace vectoriel ?
# réponse
La réponse est non. Par exemple G n'est pas stable pour l'addition :
si x + y + z = 1, et x´ + y´ + z´ = 1,
alors (x + x´) + (y + y´) + (z + z´) = 2.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
32
"Une partie F d'un espace vectoriel E est un sous-espace vectoriel si et seulement si les
trois conditions suivantes sont vérifiées : 1) Pour tout x et tout y de F, x + y est un élément
de F, 2) Pour tout x de F, et tout α de K, α.x est un élément de F, 3) 0E est un élément de
F."
exemple 13
On a vérifié ces trois propriétés sur F, ci-dessus.
Il faut connaître un petit catalogue de "grands" espaces vectoriels, les
autres espaces considérés dans la pratique étant le plus souvent des sousespaces de ceux-ci :
Espaces Rn, Cn :
droites, plans, sous-espaces engendrés par quelques vecteurs donnés, ou
définis par quelques équations linéaires…
Espace des fonctions d'un ensemble I dans C, ou R, F(I , R) :
suites réelles ou complexes, suites convergentes,
fonctions continues, dérivables, paires, impaires, dont une ou plusieurs
dérivées vérifient des conditions linéaires données…
Espace des polynômes à une indéterminée : R[X], C[X] :
polynômes pairs, impairs, ayant une racine donnée, dont les coefficients
vérifient une relation linéaire donnée, de degré inférieur ou égal à un
entier donné…
Espaces de matrices Mp,q :
matrices symétriques, triangulaires…
exemple 14
(à traiter)
La troisième condition est-elle vraiment indispensable ?
Que pensez-vous du raisonnement suivant :
Supposons les deux premières conditions vérifiées. Soit x un vecteur dans
F, et α = – 1. D'après la condition 2, (– 1)x est un élément de F, c'est-à-
Daniel Alibert – Cours et Exercices corrigés – Volume 6
33
dire – x ∈ F. D'après la condition 1, x + (– x) est un élément de F, c'est-àdire 0 ∈ F.
Conclusion : la condition 3 est conséquence des deux premières
conditions, il est inutile de la demander.
# réponse
Le raisonnement ci-dessus est exact, sauf sa conclusion. En effet la phrase
"soit x un vecteur dans F" contient une hypothèse, c'est que F n'est pas
vide, hypothèse qui n'est pas contenue dans les conditions 1 et 2.
Le raisonnement établit qu'on peut remplacer la condition 3 par la
condition 3´ :
"F n'est pas vide".
"L'intersection de sous-espaces vectoriels est un sous-espace vectoriel, par contre le
résultat analogue n'est pas toujours vrai pour la réunion de sous-espaces vectoriels."
exemple 15
Si E est le plan R2, F le sous-espace {(x, y) | x = y}, G le sous-espace {(x,
y) | x = –y, l'union de ces deux droites n'est pas un sous-espace vectoriel.
Ainsi, (1, 1) ∈ F ∪ G, (1, –1) ∈ F ∪ G, et leur somme (2, 0) n'appartient
ni à F ni à G, donc n'appartient pas à F ∪ G.
exemple 16
(à traiter)
Dans l'espace des fonctions de R dans R, on note P le sous-espace des
fonctions paires, et I le sous-espace des fonctions impaires. L'union de ces
deux sous-espaces vectoriels est-elle un sous-espace vectoriel ?
# réponse
Non. Il suffit de considérer la somme d'une fonction paire, par exemple :
x → x2
Daniel Alibert – Cours et Exercices corrigés – Volume 6
34
et d'une fonction impaire :
x → x 3.
Cette somme :
x → x 2 + x3 ,
n'est ni paire, ni impaire.
"Soit A une partie de E, il existe un plus petit sous-espace vectoriel (pour la relation
d'inclusion) contenant A. Ce sous-espace est l'intersection de tous les sous-espaces
vectoriels contenant A."
exemple 17
Dans le plan R2, le plus petit sous-espace contenant (0, 0) et (1, 1), contient
donc tous les multiples de (1, 1) par un scalaire, soit l'ensemble :
∆ = {(x, x) | x ∈ R}.
Comme ∆ est un sous-espace vectoriel du plan, c'est le plus petit.
exemple 18
(à traiter)
Traiter le même problème pour le plus petit sous-espace contenant les deux
points A = (1, 1) et B = (1, –1).
# réponse
Si vous avez répondu "la droite AB", vous avez tort, car cette droite n'est
pas un sous-espace vectoriel de R2.
Si A et B sont dans un sous-espace vectoriel, alors la somme et la
différence y sont aussi, soit (2, 0) et (0, 2). En fait, comme un sous-espace
vectoriel est stable par multiplication, on peut multiplier par 1/2, donc (1,
0) et (0, 1) sont dans le plus petit sous-espace contenant A et B. Par stabilité
par combinaison linéaire, on voit que pour tout x et tout y, le vecteur x (1,
0) + y (0, 1) = (x , y) est dans le plus petit sous-espace contenant A et B.
Le plus petit sous-espace est donc le plan tout entier.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
35
"Le sous-espace vect(A) est l'ensemble des combinaisons linéaires d'éléments de A."
exemple 19
Les deux raisonnements particuliers faits ci-dessus utilisent précisément
cette remarque.
exemple 20
(à traiter)
Déterminer vect(A), pour la partie A de R[X] suivante :
A = {X2p | p entier naturel quelconque}.
# réponse
Les combinaisons linéaires de cette famille infinie de vecteurs sont tous
les polynômes pairs.
"Soient F et G des sous-espaces de E. On appelle somme de F et G, et on note F + G le
sous-espace vectoriel engendré par F ≈ G."
exemple 21
Dans l'exemple 15, F + G contient le sous-espace engendré par (1, 1) et (1,
–1), c'est donc R2 (cf. exemple 18).
exemple 22
(à traiter)
Dans l'exemple 16, déterminer I + P.
# réponse
C'est donc le sous-espace vectoriel engendré par les fonctions paires et les
fonctions impaires. On sait que toute fonction est somme d'une fonction
paire et d'une fonction impaire. Il en résulte que :
I + P = F([–1 , 1], R).
Daniel Alibert – Cours et Exercices corrigés – Volume 6
36
"Si de plus F ∩ G = {0}, on dit que F et G sont en somme directe, et on note cette
somme F ⊕ G ."
exemple 23
Une fonction f sur [– 1 , 1], à valeurs réelles, qui est à la fois paire et
impaire est la fonction nulle :
∀x, f(x) = f(–x),
∀x, f(x) = – f(–x),
donc :
∀x, f(x) = – f(x),
d'où :
∀x, f(x) = 0.
Les sous-espaces I et P sont en somme directe.
exemple 24
(à traiter)
Dans l'espace vectoriel R[X], formé des polynômes à coefficients réels, le
sous-espace des polynômes qui ont pour racine 0 et le sous-espace des
polynômes qui ont pour racine 1 sont-ils en somme directe ?
# réponse
Un polynôme qui a 0 et 1 pour racines est-il nul ? Non, bien sûr, par
exemple le polynôme :
X(X – 1)
est dans ce cas.
Par contre, si on pose la même question pour l'espace vectoriel des
polynômes de degré au plus 1, la réponse est oui.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
37
"Si F ⊕ G = E, on dit que F et G sont des sous-espaces vectoriels supplémentaires."
exemple 25
Dans l'exemple 23, d'après 22, I et P sont supplémentaires.
exemple 26
(à traiter)
Dans l'espace vectoriel F(R ,R), les sous-espaces formés respectivement
des fonctions constantes, et des fonctions valant 0 en 0 sont
supplémentaires.
# réponse
Pour l'intersection : si une fonction est constante et nulle en 0, elle est nulle
partout.
Pour la somme : soit f une fonction quelconque, et a = f(0). On définit une
fonction g et une fonction h par :
∀ x ∈ R, g(x) = f(x) – a, ∀ x ∈ R, h(x) = a,
la fonction g est bien nulle en 0, et la fonction h est bien constante, et on a
de plus :
∀ x ∈ R, f(x) = g(x) + h(x).
"On dit qu'une famille (zi)i∈Ι d'éléments d' un espace vectoriel E est une famille
génératrice de E si tout élément z de E peut s'écrire comme une combinaison linéaire de
(zi)i∈Ι pour une famille de scalaires (ζi)i∈Ι presque nulle."
exemple 27
Dans l'espace vectoriel des polynômes à coefficients complexes, C[X], la
famille infinie des monômes (Xk)k∈N, est génératrice : en effet, tout
polynôme est combinaison linéaire d'une sous-famille finie de cette
famille.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
38
exemple 28
(à traiter)
Dans R2, la famille (Vi)1≤i≤4 définie par :
V1 = (1, 0), V2 = (1, –1), V3 = (0, 1), V4 = (–1, 1),
est-elle génératrice ?
# réponse
Oui, bien sûr. On peut donner deux arguments (au moins) :
Calcul direct. Soit V = (a, b) un vecteur de R2, on peut écrire :
(a, b) = (a, 0) + (1, –1) + (0, b) + (–1, 1),
V = aV1 + V2 + bV3 + V4,
donc tout vecteur est combinaison linéaire des quatre vecteurs de la
famille.
Raisonnement général : la famille (Vi)1≤i≤4 contient une sous-famille
clairement génératrice, la famille (V1, V3), donc elle est génératrice.
"On dit qu'une famille (xi)i∈Ι est une famille libre si pour toute famille presque nulle
d'éléments de K, (ξi)i∈Ι, l'implication suivante est vraie :
ξi xi = 0 ⇒ ξi = 0 pour
∑
i∈I
tout i de I."
exemple 29
La famille (Vi)1≤i≤4 de l'exemple précédent n'est pas libre, puisque :
0 = 0.V1 + V2 + 0.V3 + V4,
donc il existe une combinaison linéaire nulle dont tous les coefficients ne
sont pas nuls.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
39
exemple 30
(à traiter)
Dans F(R, R), soient f une fonction paire, non nulle, et g une fonction
impaire, non nulle. Vérifier que la famille (f, g) est libre.
# réponse
Deux arguments possibles.
Soient α et β des réels tels que :
α.f + β.g = 0,
c'est-à-dire :
∀ x ∈ R, αf(x) + βg(x) = 0.
S'il existe un réel, soit a tel que f(a) ≠ 0, et g(a) = 0, on en déduit que :
αf(a) = 0, donc α = 0,
et comme il existe b tel que g(b) ≠ 0, on déduit que β = 0.
S'il n'existe pas de réel tel que a, soit t tel que f(t) ≠ 0, et g(t) ≠ 0, on peut
écrire :
αf(t) + βg(t) = 0,
de plus :
αf(–t) + βg(–t) = 0,
donc :
αf(t) – βg(t) = 0.
On déduit, en ajoutant la première et la dernière égalité :
2αf(t) = 0,
Et, en les soustrayant :
2βg(t) = 0,
donc, comme f(t) ≠ 0, et g(t) ≠ 0, α = β = 0.
Supposons, par l'absurde, que α ≠ 0. Alors :
f=
β
g,
α
Daniel Alibert – Cours et Exercices corrigés – Volume 6
40
donc f est, comme g, impaire, ce qui est faux car f est paire, et non nulle.
On déduit que α = 0, et de même β = 0.
Noter la méthode employée, plus rapide ici : si une famille n'est pas libre,
un des termes au moins s'exprime en fonction linéaire des autres.
"Si la famille (xi)i∈Ι n'est pas libre, on dit qu'elle est liée. On dira aussi que les éléments
de la famille sont liés, ou dépendants. Dans ce cas il existe une famille (ξi)i∈Ι presque
nulle de scalaires non tous nuls telle que
∑ξ x
i i
= 0 ."
i∈I
exemple 31
La famille (Vi)1≤i≤4 de l'exemple 28 est liée.
exemple 32
(à traiter)
La famille des polynômes à coefficients réels :
X, X – 1, X – 2
est-elle liée ?
# réponse
Peut-on trouver des réels a, b, c, non tous nuls, tels que :
aX + b(X – 1) + c(X – 2) = 0.
On voit que pour annuler le terme constant il faut :
– b – 2c = 0,
par exemple b = 2, c = –1, et pour annuler le coefficient de X :
a + b + c = 0,
soit, si b = 2 et c = – 1, a = – 1.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
41
"Une famille libre et génératrice est appelée une base."
exemple 33
L'ensemble des nombres complexes, C, est un espace vectoriel sur R, pour
les opérations usuelles. Une base de cet espace vectoriel est, par exemple,
la famille (1, i).
exemple 34
(à traiter)
Dans le même espace vectoriel, la famille (i, j) est-elle une base ?
(rappel : j désigne le complexe −
1
3
).
+i
2
2
# réponse
La réponse est oui, d'après les théorèmes généraux sur les espaces de
dimension finie.
Plus directement, on peut vérifier que cette famille est libre :
αi + βj = 0,
impliquerait, si α ≠ 0 :
i=
β
j,
α
donc, comme α et β sont des réels :
arg(i) = arg(j),
ce qui est faux, bien entendu.
Cette famille est aussi génératrice. Soit z = a + ib, un nombre complexe
quelconque. Peut-on l'écrire :
z = αi + βj,
α et β étant réels. Cela revient à résoudre les équations :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
42

1
 a = − β,
2


3
 b = α + 2 β.
d'où β = – 2a, et α = b − a 3 . La famille est bien génératrice.
En conclusion, c'est bien une base de C sur R.
"Soit E un espace vectoriel ayant une base à n éléments. 1) Toute base de E a n éléments."
exemple 35
Nous avons vu, pour l'espace vectoriel C sur R, une base à deux éléments
(i, j). Toute autre base a exactement deux éléments, par exemple (1, i).
exemple 36
(à traiter)
Y-a-t-il une base à trois éléments dans R2 ?
# réponse
La réponse est non, en remarquant qu'on connaît dans cet espace vectoriel
une base à deux éléments, la base :
((1, 0), (0, 1)).
"2) Toute famille génératrice de E a au moins n éléments. Une telle famille est une base
si et seulement si elle a exactement n éléments."
exemple 37
Énoncé très important, en particulier pour sa deuxième partie, qui évite des
calculs. Ainsi, sachant que R2 a une base à deux éléments sur R, on peut
déduire que la famille :
((1, –1), (1, 1))
est une base en montrant simplement que cette famille est génératrice :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
(a, b) =
43
a+ b
a−b
(1, 1) +
(1, −1).
2
2
exemple 38
(à traiter)
L'espace vectoriel R3 a-t-il une famille génératrice à deux éléments, à
quatre éléments ?
# réponse
Pour deux, la réponse est non, puisque cet espace a une base à trois
éléments :
((1, 0, 0), (0, 1, 0), (0, 0, 1)).
Pour quatre, la réponse est oui. Il suffit de compléter une famille
génératrice avec un vecteur quelconque :
((1, 0, 0), (0, 1, 0), (0, 0, 1), (1, 1, 1)).
"3) Toute famille libre de E a au plus n éléments. Une telle famille est une base si et
seulement si elle a exactement n éléments."
exemple 39
Énoncé très important, en particulier pour sa deuxième partie, qui évite des
calculs. Ainsi, si on sait que C a une base à deux éléments sur R, on peut
traiter l'exemple 34 en montrant simplement que la famille (i, j) est libre.
exemple 40
(à traiter)
L'espace vectoriel R3 a-t-il une famille libre à deux éléments, à quatre
éléments ?
# réponse
Daniel Alibert – Cours et Exercices corrigés – Volume 6
44
Pour deux, la réponse est oui, il suffit de prendre une sous-famille à deux
éléments d'une famille libre :
((1, 0, 0), (0, 0, 1)).
Pour quatre, la réponse est non : dans R3, quatre vecteurs sont toujours
dépendants.
"L'entier n ainsi attaché à E s'appelle la dimension de E. "
exemple 41
Les exemples précédents montrent qu'il est très important de connaître la
dimension des espaces vectoriels avec lesquels on travaille. Par exemple :
dim(Rn) = n,
dimR(C) = 2.
exemple 42
(à traiter)
On note Rk[X] l'espace vectoriel formé des polynômes à coefficients réels
de degré au plus k, et du polynôme nul. Quelle est sa dimension ?
# réponse
Il faut trouver une base de ce sous-espace. Une famille est clairement
génératrice :
(Xp)0≤p≤k.
Il suffit de montrer qu'elle est libre, ce qui est évident puisqu'un polynôme
est nul si et seulement si tous ses coefficients sont nuls.
On conclut :
dim(Rk[X]) = k + 1.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
45
"Soit E un espace vectoriel et (x1, … , xn) une famille génératrice de E. Soit (y1, … , ym)
une famille libre, non génératrice de E. Il existe des éléments (xi , … , xi ) de la famille
1
k
(x1, … , xn) tels que la famille (y1, … , ym , xi , … , xi ) soit une base de E."
1
k
exemple 43
Dans de nombreux cas, la famille génératrice (xi) est une base connue de
l'espace vectoriel, et la famille libre (yj) est une base d'un sous-espace
vectoriel. Cet énoncé permet d'affirmer l'existence d'une base de l'espace
contenant la base connue du sous-espace, tout en donnant une méthode
pour la trouver.
Si E = R3[X], on cherche une base de E contenant la famille libre :
(X – 1), (X – 1)2.
Cette famille est libre car les polynômes qui y figurent sont de degrés
différents. Pour la compléter, on a la possibilité d'essayer des vecteurs de
la base (1, X, X2, X3). On procède de proche en proche :
1, (X – 1), (X – 1)2
est une famille libre, pour la même raison de degrés, non génératrice (la
dimension est 4, donc les familles génératrices ont au moins quatre
termes). On lui applique à nouveau la même méthode :
1, (X – 1), (X – 1)2, X3
est libre, et comme elle a 4 termes et que la dimension est 4, c'est bien une
base.
exemple 44
(à traiter)
Dans R3, trouver une base contenant les vecteurs suivants :
A = (1, –1, 1), B = (1, 1, –1),
après avoir vérifié qu'ils forment bien une famille libre.
# réponse
Daniel Alibert – Cours et Exercices corrigés – Volume 6
46
Ces vecteurs ne sont pas proportionnels donc sont indépendants (argument
valable seulement pour deux vecteurs).
D'après le théorème de la base incomplète, il est certain que l'un, au moins,
des trois vecteurs de la base :
u = (1, 0, 0), v = (0, 1, 0), w = (0, 0, 1)
est indépendant des deux donnés. Il suffit de procéder à quelques essais :
A + B = 2u,
donc u ne convient pas.
Par contre, si v = α A + β B, alors :
0=α+β
1=–α+β
0 = α – β,
et les deux dernières égalités sont incompatibles, α et β n'existent pas.
En conclusion, (A, B, v) forment une base de R3.
"Soit E un espace vectoriel de dimension finie. 1) Tout sous-espace F de E est de
dimension finie, et dim(F) ≤ dim(E). Si dim(F) = dim(E), alors F = E."
exemple 45
Résultat très important, puisqu'il permet de conclure à l'égalité de deux
ensembles, s'ils sont des espaces vectoriels, autrement que par une double
inclusion.
Soit E = R2[X], et F = {Q ∈ E | il existe P ∈E, Q = P + P´ + P´´}, en notant
P´ le polynôme dérivé de P, et P´´ le polynôme dérivé de P´.
Les polynômes suivants appartiennent à F :
Q1 = 1 (prendre P = 1),
Q2 = X + 1 (prendre P = X),
Q3 = X2 + 2X + 2 (prendre P = X2).
Daniel Alibert – Cours et Exercices corrigés – Volume 6
47
Ces trois polynômes sont indépendants, puisque leurs degrés sont
différents, donc F contient une famille libre de trois éléments, donc la
dimension de F est au moins 3. Comme elle est au plus égale à celle de E,
qui vaut 3, on conclut :
dim(F) = dim(E) = 3.
Il en résulte que F = E : tout polynôme de degré au plus 2 est somme d'un
polynôme bien choisi et de ses deux premières dérivées.
exemple 46
(à traiter)
Dans R3, soit F le sous-espace formé par les vecteurs (a, b, c) tels qu'il
existe trois réels x, y, z vérifiant :
a = x + y + 2z
b = y + 2z
c = z.
Montrer, par une méthode analogue, que F = R3.
# réponse
Si on choisit (1, 0, 0), on obtient le vecteur (1, 0, 0), pour (0, 1, 0), on
obtient (1, 1, 0), enfin, pour (0, 0, 1), on obtient (2, 2, 1).
On vérifie facilement que la famille :
(1, 0, 0), (1, 1, 0), (2, 2, 1)
est libre, donc la dimension de F est au moins 3, donc c'est 3, et E = F.
"2) Soient F et F´ des sous-espaces de E, on a la relation suivante : dim(F + F´) = dim(F)
+ dim(F´) – dim(F ∩ F´)."
exemple 47
Dans R3, les plans :
F = vect((1, 1, 0), (0, 1, 1)), F´ = vect((1, 2, 1), (1, 0, 1))
Daniel Alibert – Cours et Exercices corrigés – Volume 6
48
ont pour somme R3.
On remarque d'abord que (1, 0, 1) ∉ F, donc F´ n'est pas contenu dans F,
donc F ≠ F´.
Leur intersection, est de dimension au moins 1, puisque :
dim(F + F´) ≤ 3 ⇒ 2 + 2 – dim(F ∩ F´) ≤ 3,
mais elle n'est pas de dimension 2, puisqu'elle serait alors égale à F et à F´
d'après le résultat précédent, et que F ≠ F´.
Donc dim(F ∩ F´) = 1, et dim(F + F´) = 3.
exemple 48
(à traiter)
Dans R4, quelles sont les dimensions possibles de l'intersection de deux
plans (sous-espaces de dimension 2) ?
# réponse
On part de dim(F + F´) ≤ dim(R4) = 4, d'où :
dim(F) + dim(F´) – dim(F ∩ F´) ≤ 4, et :
0 = 2 + 2 – 4 ≤ dim(F ∩ F´).
D'autre part, F ∩ F´ est un sous-espace de F et de F´, donc sa dimension
est au plus 2. En conclusion, dans R4, deux plans peuvent se couper en un
seul point (F ∩ F´ = {0}), en une droite, ou être égaux.
"3) Tout sous-espace F admet un supplémentaire F´ dans E. On a l'égalité dim(F´) =
dim(E) – dim(F)."
exemple 49
Cette condition n'est pas suffisante. Dans R3, le plan :
F = vect((1, 0, 0), (0, 1, 1)),
et la droite :
F´ = vect((1, 1, 1)),
Daniel Alibert – Cours et Exercices corrigés – Volume 6
49
ne sont pas supplémentaires, quoique dim(F) + dim(F´) = 3.
En effet, F´ est engendré par la somme des deux vecteurs qui engendrent
F, donc F´ ⊂ F.
exemple 50
(à traiter)
Un supplémentaire n'est pas unique : soit D une droite du plan R2, et D'
une droite du plan distincte de D. Démontrer que D et D' sont
supplémentaires.
# réponse
L'intersection de deux droites est de dimension 0 ou 1.
Si la dimension est 1, les deux droites sont égales :
dim(D ∩ D´) = dim(D) = dim(D´),
d'où :
D = D ∩ D´ = D´.
L'intersection de deux droites distinctes est donc {0}.
Il en résulte que la somme de deux droites distinctes est de dimension 2.
En conclusion, dans un plan, deux droites distinctes sont supplémentaires.
2-2 Applications linéaires
"Soient E et F des espaces vectoriels sur un corps K, et f une application de E dans F. On
dit que f est une application linéaire si les propriétés suivantes sont vérifiées : 1) pour
tout x et tout y de E, on a l'égalité f(x + y) = f(x) + f(y), 2) pour tout x de E, et tout α de
K, on a l'égalité f(α.x) = α.f(x)."
exemple 51
Si E = R4, (ou Kn en général), une application linéaire sera souvent
exprimée en fonction des coordonnées d'un vecteur quelconque.
Par exemple :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
50
(a1, a2, a3, a4) → (a1 – a4, a2 + a3).
Autre exemple :
(a1, a2, a3, a4) → (a1 * a4, a2 + a3).
Autre exemple :
(a1, a2, a3, a4) → (a1 – a4, a2 + 1).
Le premier exemple est bien une application linéaire, le second et le
troisième n'en sont pas, car les expressions qui figurent au second membre
ne sont pas linéaires. Ainsi a1 * a4 n'est pas une expression linéaire par
rapport à a1 et a4 et a2 + 1 n'est pas une expression linéaire par rapport à
a2.
exemple 52
(à traiter)
Les applications de R2[X] dans R2[X] définies par :
f : aX2 + bX + c → (a + b + c)X2 + cX + b,
g : aX2 + bX + c → (a * b + c)X2 + cX + b,
h : aX2 + bX + c → (a + b + 1)X2 + cX + b,
sont-elles linéaires ?
# réponse
Par analogie avec la remarque précédente, on peut prévoir que f est linéaire
(les coefficients du polynôme image d'un polynôme P sont des expressions
linéaires par rapport aux coefficients de P), alors que g ne l'est pas (à cause
du produit a * b) et h non plus (à cause de a + b + 1).
C'est bien ce qu'on vérifie en appliquant la définition de la linéarité.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
51
"0n note Im(f) le sous-espace f(E), appelé l'image de f."
exemple 53
L'image de f est l'ensemble des valeurs prises par f. C'est l'ensemble des
vecteurs V tels que l'équation f(X) = V ait une solution dans E.
Dans l'exemple 45, on a considéré l'image F de l'application linéaire de
R2[X] dans lui-même donnée par P → P + P´ + P´´.
On a vérifié que l'image est R2[X].
exemple 54
(à traiter)
Déterminer Im(f) pour l'application f de l'exemple 52.
# réponse
L'application est f : aX2 + bX + c → (a + b + c)X2 + cX + b.
Procédons comme en 45-46 :
f(1) = X2 + X
f(X) = X2 + 1
f(X2) = X2.
Les polynômes X2 + X, X2 + 1, X2 sont dans Im(f), donc X et 1 aussi, donc
Im(f) contient une famille libre de 3 éléments, sa dimension est au moins
3, donc c'est 3, et :
Im(f) = R2[X].
"On note Ker(f) le sous-espace f-1(0), appelé le noyau de f."
exemple 55
Le noyau est l'ensemble des solutions de l'équation f(V) = 0.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
52
Rappelons que pour résoudre une équation f(V) = W, où W est un vecteur
connu, il suffit de connaître une solution, soit V0, de cette équation, et le
noyau de f. L'ensemble des solutions est alors :
V0 + Ker(f).
Le noyau de l'application :
f : R3 → R2
(x, y, z) → (x – y, y – z)
est obtenu en résolvant les équations :
x–y=0
y – z = 0,
soit x = y = z. On écrira :
Ker(f) = {(x, x, x) | x R}.
Une base de Ker(f) est le vecteur (1, 1, 1).
Pour résoudre f(V) = (1, 1), il suffit alors de trouver un antécédent de (1, 1).
Par exemple (1, 0, –1). L'ensemble des solutions de f(V) = (1, 1) est donc
:
{(1 + x, x, –1 + x) | x ∈ R}.
exemple 56
(à traiter)
Déterminer le noyau de l'application linéaire :
H : R2[X] --. R
P → P(0) + P(1).
On en donnera une base.
# réponse
Soit P = a + bX + cX2 un polynôme du noyau. Il vérifie l'équation :
a + a + b + c = 0,
c = – b – 2a,
Daniel Alibert – Cours et Exercices corrigés – Volume 6
53
donc :
P = a(1 – 2X2) + b(X – X2).
Les polynômes (1 – 2X2) et (X – X2) sont des éléments du noyau, ils
constituent d'après ce résultat une famille génératrice de Ker(H). On
vérifie facilement qu'ils sont indépendants (ils ne sont pas proportionnels),
donc ils constituent une base de Ker(H).
"Une application linéaire f est surjective si et seulement si Im(f) = F, et f est injective si
et seulement si Ker(f) = 0."
exemple 57
Exemple 54 : f est surjective.
exemple 58
(à traiter)
Parmi les exemples précédents (53 à 56), quelles sont les applications
linéaires injectives ?
# réponse
Les applications linéaires des exemples 55 et 56 ne sont pas injectives : on
a trouvé que leur noyau n'est pas égal à 0. Pour 53, on pourrait conclure
par le théorème du rang. Directement, on écrit :
P = a + bX + cX2,
P appartient au noyau si P + P´ + P´´ = 0 :
a + bX + cX2 + b + 2cX + 2c = 0,
donc :
a + b + 2c = 0,
b + 2c = 0,
c = 0,
d'où a = b = c = 0, P = 0. L'application est injective.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
54
Pour 54, on écrira :
(a + b + c)X2 + cX + b = 0,
soit :
a + b + c = 0,
c = 0,
b = 0,
d'où a = b = c = 0. L'application est injective.
"1) Soit f : E --. F une application linéaire. Si (xi)i∈Ι est une famille génératrice de E
alors (f(xi))i∈Ι est une famille génératrice de Im(f)."
exemple 59
On a utilisé cette propriété pour déterminer Im(f) dans l'exemple 54.
exemple 60
(à traiter)
Reprendre l'exemple 55. Chercher une famille génératrice de Im(f). Est-ce
une base ? En déduire Im(f).
# réponse
On rappelle que f est définie par :
(x, y, z) → (x – y, y – z).
On calcule l'image d'une base (qui est une famille génératrice) :
f(1, 0, 0) = (1, 0)
f(0, 1, 0) = (–1, 1)
f(0, 0, 1) = (0, –1).
Ce n'est certainement pas une base, puisque dans R2 il n'y a pas de famille
libre de plus de 2 éléments. On voit que les deux premiers vecteurs (par
exemple) sont indépendants, donc Im(f) est de dimension 2, donc égale à
R2 .
Daniel Alibert – Cours et Exercices corrigés – Volume 6
55
"Si f est injective, si (xi)i∈I est libre, (f(xi))i∈I est libre."
exemple 61
C'était le cas de 54. L'image d'une base par une application f injective (et
linéaire) est une base de Im(f).
exemple 62
(à traiter)
Déduire qu'une application linéaire de R3 dans R2 n'est jamais injective.
# réponse
Sinon l'image de la famille libre (1, 0, 0), (0, 1, 0), (0, 0, 1) serait libre dans
R2 ce qui est impossible.
"Soit f : E → F une application linéaire. Si f est injective, et F de dimension finie, alors E
est de dimension finie et dim(E) ≤ dim(F)."
exemple 63
Voir 62. Cet énoncé permet de contrôler le résultat d'un calcul : si la
dimension de E est supérieure à celle de F, le noyau de f n'est pas 0.
exemple 64
(à traiter)
La réciproque : "Si dim(E) ≤ dim(F) alors f est injective" est-elle vraie ?
# réponse
Non, bien entendu. Par exemple :
f : R2 → R3
(x, y) → (x – y, 0, 0)
a pour noyau :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
56
{(x, x) | x ∈ R} = vect((1, 1)).
"Si f est surjective, et E de dimension finie, alors F est de dimension finie et
dim(E) ≥ dim(F)."
exemple 65
On fera les mêmes remarques :
Il n'y a pas d'application linéaire surjective de R2 dans R4.
Une équation f(X) = V ne peut pas avoir de solution quel que soit V si
dim(E) < dim(F).
exemple 66
(à traiter)
Que pensez-vous de la réciproque : "Si dim(E) ≥ dim(F) alors f est
surjective ".
# réponse
Elle est fausse également :
f : R3 → R2
(a, b, c) →∞ (a + b + c, a + b + c)
a pour image la droite :
{(x, x) | x ∈ R} = vect((1, 1)).
"Si E et F sont de dimension finie, on a l'égalité :
dim(Im(f))."
dim(E) = dim(Ker(f)) +
exemple 67
Relation très importante, puisqu'elle évite un calcul lorsqu'on cherche les
dimensions de l'image et du noyau. Voir 58.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
57
exemple 68
(à traiter)
Reprendre l'exemple 55 (voir 60). Déterminer Im(f) en calculant sa
dimension.
# réponse
On a vu que dim(Ker(f)) = 1, d'où dim(Im(f)) = 2, et comme Im(f) ⊂ R2,
Im(f) = R2.
"Conséquence importante : soit f un endomorphisme de E, espace de dimension finie,
alors les trois conditions suivantes sont équivalentes * f est injective ** f est surjective
*** f est bijective ."
exemple 69
Dans l'exemple 53 (45), on a vu que l'application était surjective, on peut
en déduire qu'elle est bijective. L'équation différentielle :
P + P´ + P´´ = Q
a une solution unique dans R2[X], quel que soit Q dans R2[X].
exemple 70
(à traiter)
Vérifier que l'application de R2 dans R2 :
(a, b) → (a + 3b, 2a – b)
est une bijection.
# réponse
Le noyau est manifestement (0, 0), donc l'application est injective, donc
bijective.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
58
2-3 Matrices, déterminants
Produit de deux matrices
exemple 71
Le produit :
 0 1   1 0  0 0


=
.
 0 0   0 0  0 0
Noter que le produit de matrices non nulles peut être nul.
exemple 72
(à traiter)
Pour la matrice M suivante, calculer M2, M3 :
0 1 2 


M =  0 0 −1 .


0 0 0 
# réponse
On observe le cas d'une matrice non nulle, nilpotente (une puissance de
cette matrice est nulle).
M2
 0 1 2   0 1 2   0 0 −1


 

=  0 0 −1  0 0 −1 =  0 0 0 


 

0 0 0  0 0 0  0 0 0 
 0 1 2   0 0 −1  0 0 0


 

M =  0 0 −1  0 0 0  =  0 0 0 .


 

 0 0 0   0 0 0   0 0 0
3
Daniel Alibert – Cours et Exercices corrigés – Volume 6
59
"A toute matrice M = (mi,j) de Mpq(K) on associe une application linéaire f de Kq dans
Kp."
exemple 73
Un vecteur est représenté par une matrice-colonne (à une seule colonne),
et l'application linéaire est définie par le produit de matrices :
 1 0


M =  −2 3 


 4 −1
d'où l'application :
1
 x

  a  −2
 y

4

0
x 
  x 

3    =  −2x + 3y .
  y 

−1
 4x − y 
exemple 74
(à traiter)
Écrire, par identification, la matrice qui correspond à l'application linéaire
:
(a, b, c) → (a + c, b – c).
# réponse
C'est une matrice (2, 3) :
1 0

0 1
1
.
−1
Daniel Alibert – Cours et Exercices corrigés – Volume 6
60
"Inversement, dans le cas d'espaces de dimension finie, on peut associer à toute
application linéaire une matrice, moyennant le choix de bases dans les espaces
considérés."
exemple 75
Dans la base canonique de R2[X], (1, X, X2), la matrice de l'application de
l'exemple 45 :
P → P + P´ + P´´
s'écrit en mettant en colonne les coefficients des images des vecteurs de
base :
1→1
X→1+X
2
X → 2 + 2X + X2
d'où :
 1 1 2


 0 1 2 .


 0 0 1
exemple 76
(à traiter)
Écrire, dans les bases canoniques de R3 et de R2, la matrice de l'application
linéaire de 55.
Rappel : la base canonique de Rk est formée des k-uples qui ont toutes
leurs composantes nulles sauf une, rangés depuis e1 = (1, 0…, 0) jusqu'à
ek = (0, 0…, 1).
# réponse
L'application considérée est :
(x, y, z) → (x – y, y – z)
donc :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
61
(1, 0, 0) → (1, 0)
(0, 1, 0) → (–1, 1)
(0, 0, 1) → (0, –1).
D'où la matrice :
1

0
−1 0 
.
1 −1
"Soit M une matrice, à p lignes et q colonnes. La transposée de M est la matrice à q
lignes et p colonnes obtenue à partir de M en échangeant les lignes et les colonnes."
exemple 77
La transposée de la matrice ci-dessus est :
1 0


 −1 1  .


 0 −1
exemple 78
(à traiter)
Existe-t-il des matrices égales à leur transposée ? Si oui, donner un
exemple.
# réponse
Ce sont nécessairement des matrices carrées. Il faut que les lignes et les
colonnes de même numéro soient identiques. Par exemple :
1

2

0
0

−2 3  .

3 −1
2
"Un système d'équations linéaires est donné par une matrice à n lignes et m colonnes,
obtenue en rangeant en ligne les coefficients des diverses inconnues dans une équation
Daniel Alibert – Cours et Exercices corrigés – Volume 6
62
donnée, et un vecteur à n composantes, contenant les seconds membres des différentes
équations. Un système linéaire équivaut à une seule équation matricielle dans laquelle
l'inconnue est un vecteur à m composantes."
exemple 79
Le système de trois équations à deux inconnues :
x − y = 1

 x + 2y = 3

 2x + y = 4
équivaut à l'équation matricielle :
MX = A,
avec :
 1 −1
 1
 x


 
M =  1 2  , X =   , A =  3 .
y
 


 
2 1 
 4
exemple 80
(à traiter)
Écrire le système d'équations linéaires équivalent à :
 1 2 0  a   1 

   
 −2 0 1  b  =  1  .

   
 −1 3 2  c   2 
# réponse
Il suffit d'effectuer le produit, on obtient les trois équations à trois
inconnues :

a + 2b =1

−2a + c =1


 −a + 3b + 2c = 2
Daniel Alibert – Cours et Exercices corrigés – Volume 6
63
"Une méthode classique de résolution à connaître est la méthode du pivot de Gauss, qui
consiste à remplacer le système par un système équivalent, mais de forme triangulaire."
exemple 81
Un système de forme triangulaire est un système dans lequel le nombre
d'inconnues figurant dans les équations successives diminue de un (au
moins) en passant d'une équation à l'équation suivante.
Trois possibilités existent.
Premier cas :

a + 2b =1

−2a + c =1


 −a + 3b + 2c = 2
on conserve la première équation, puis on élimine l'inconnue a des deux
autres par des combinaisons de lignes. Ici, on peut ajouter le produit par 2
de la première équation à la seconde, et la première équation à la troisième
:
 a + 2b = 1

 4b + c = 3

 5b + 2c = 3.
Ce nouveau système est équivalent au premier, il a les mêmes solutions.
On conserve maintenant les deux premières équations, et on élimine b de
la dernière équation en calculant 4 × (troisième équation) – 5 × (deuxième)
:
 a + 2b =1

 4b + c = 3

3c = −2.

On résout maintenant les diverses équations en commençant par la
dernière, qui n'a qu'une inconnue, puis, c étant connu, la deuxième, qui n'a
plus qu'une inconnue, enfin on calcule a.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
64
exemple 82
(à traiter)
Second cas.
Par une méthode analogue, transformer le système suivant :

a + 2b = 1

 a + 6b + c = 4

2a + 2c = −3

 −a + 6b + 3c = 6.
Conclure, quant à sa résolution.
# réponse
Le système, triangulé par la même méthode, est équivalent à :
 a + 2b =1

 4b + c = 3

3c = −2

c =1.

Ce nouveau système comprend plusieurs équations ne contenant que
l'inconnue c. Soit ces équations sont équivalentes (proportionnelles), soit
elles sont incompatibles. Le premier cas conduit à l'élimination d'équations
superflues, puis à une résolution identique à celle du premier exemple (82),
le second cas permet de conclure que le système n'a pas de solution. C'est
ce second cas que l'on observe ici.
exemple 83
(à traiter)
Troisième cas.
Transformer le système suivant, et terminer sa résolution :

a + 2b + c + d = 1

−a + 2b − 2d = 2


 2a + 4b + 5c + 4d = 0.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
65
# réponse
Le système, après trigonalisation, est équivalent au suivant :
 a + 2b + c + d =1

4b + c − d = 3


3c + 2d = −2.

On voit qu'on n'a pas pu aboutir à une dernière équation à une seule
inconnue. Il y aura donc des inconnues ayant une valeur quelconque, et
d'autres s'exprimant en fonction des premières.
On fixe autant de valeurs arbitraires que nécessaire pour que la dernière
équation n'ait plus qu'une inconnue à calculer.
Ici, fixons d arbitrairement. On peut alors calculer c, puis b, puis a, en
fonction de cette valeur de d. L'ensemble des solutions dépendra d'un
paramètre.
"Calculs de déterminants."
exemple 84
Calculons par développement par rapport à la première ligne :
1
2 −1
D= 0 1
−2 0
3.
2
On obtient :
D=
1 3
0 3 0 1
−2
−
0 2
−2 2 −2 0
=2 −2 ×6−2
= −12.
exemple 85
(à traiter)
Calculer de même, par développement par rapport à une colonne :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
66
−1
3
2
H= 1
3
0
−2
−4 .
1
# réponse
La deuxième colonne comporte un zéro, on la choisit donc pour le
développement :
H = −3
−1 2
1 −4
+2
3 1
1 −4
= −3 ×13 + 2 × 2
= −35.
NB : on aurait pu calculer ces deux déterminants par la formule de Sarrus.
"Transformation d’un déterminant avant calcul."
exemple 86
On a vu sur l'exemple simple qui précède que la présence de 0 abrège le
calcul. Encore faut-il que les 0 soient dans une même ligne ou une même
colonne. On peut en faire apparaître par des opérations élémentaires :
A=
−1
2
1
4
−1 2
1
2
−2
1
0
1
1
0
=
0
0
−1
2
−3 1
0
1
0
0
5
4
1
3
5
8
0 −4 −3
5
= −5 3
8
0 −4 −3
=5
1
1
5
= 5( −3 + 20) = 85.
−4 −3
Daniel Alibert – Cours et Exercices corrigés – Volume 6
67
Utiliser, si possible, la présence d'un coefficient égal à 1 ou -1, ce qui évite
l'apparition de dénominateur.
exemple 87
(à traiter)
Faire d'abord apparaître un 1 dans le terme de la première ligne et première
colonne, puis calculer le déterminant :
B=
3
2
−1
2
0
2
2
−4
4
1
−5
.
1
−5
2
1
0
# réponse
3 2 −1 2
1 2 −1 2
1 2 −1 2
0 2 4 −5 −2 2 4 −5 0 6
2 −1
B=
=
=
2 −4 1 1
6 −4 1 1
0 −16 7 −11
−5 2 1 0
−7 2 1 0
0 16 −6 14
6
2 −1
0
0
−1
−82 −15
−82 −15
= −16 7 −11 = −82 −15 −11 = −
=−
100 22
18
7
16 −6 14
100 22 14
=−
−46 −1
= 46 × 7 − 18 = 304.
18 7
Bien entendu, de multiples possibilités de simplification peuvent être
choisies, pour parvenir au même résultat.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
68
"Une matrice carrée est inversible si et seulement si son déterminant est différent de 0."
exemple 88
La matrice suivante est inversible :
 1 2
M =
.
 −1 −1
En effet, son déterminant est 1. L'inverse de cette matrice est :
 −1 −2
M −1 = 
.
1 1
On verra en exercice comment calculer l'inverse d'une matrice.
exemple 89
(à traiter)
Vérifier que M-1 est bien la matrice inverse de M.
# réponse
On calcule le produit M.M-1 :
 1 2   −1 −2  −1 + 2 −2 + 2  1 0 
M.M−1 = 

=
=
.
2 −1   0 1 
 −1 −1  1 1   1−1
"Un système de n équations à n inconnues admet une solution unique si et seulement si
son déterminant est différent de 0."
exemple 90
Reprenons le système de 81. Son déterminant est :
1
2 0
1 2 0
4 1
−2 0 1 = 0 4 1 =
= 8 − 5 = 3.
5 2
−1 3 2 0 5 2
On a bien vérifié qu'il avait une solution unique.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
69
exemple 91
(à traiter)
Le système suivant a-t-il une solution unique ? Le résoudre.

a + 2b + c + d = 1

−a + 2b − 2d = 2

 2a + 4b + 5c + 4d = 0

4b + c − d = 3

# réponse
Le déterminant est :
1
2 1
1
1 2 1
1
4 1 −1 4 1 −1
−1 2 0 −2 0 4 1 −1
=
= 0 3 2 = 0 3 2 = 0.
2 4 5 4
0 0 3 2
4 1 −1 0 0 0
0 4 1 −1 0 4 1 −1
Il n'y a donc pas une solution unique.
Les transformations opérées sur les lignes du déterminant sont celles de la
méthode du pivot. Le système est donc équivalent à :
 a + 2b + c + d =1

4b + c − d = 3


3c + 2d = −2

On fixe d arbitrairement, et on calcule ensuite c, b, a :
−2 − 2d
,
3
2 + 2d
3+d +
3 = 11+ 5d ,
b=
4
12
2 + 2d 11+ 5d
1 7
a = 1− d +
−
= − − d.
3
6
6 6
c=
Daniel Alibert – Cours et Exercices corrigés – Volume 6
70
2-4 Réduction des matrices carrées. Polynômes annulateurs
"Soit u : E --. E une application linéaire d’un espace vectoriel E dans lui-même. On dit
qu’un vecteur V est un vecteur propre de u si u(V) est colinéaire à V."
exemple 92
Soit E l'espace vectoriel des fonctions indéfiniment dérivables sur R, et u
l'application de dérivation, qui est, bien sûr, linéaire. Une fonction f est
une fonction propre si la dérivée f´ est proportionnelle à f, il existe un réel
k tel que :
∀ x ∈ R, f´(x) = k f(x).
On voit que ces fonctions sont les fonctions exponentielles :
f(x) = Cekx.
exemple 93
(à traiter)
Soit E = R2[X], l'espace des polynômes à coefficients réels de degré au
plus 2. Si l'application linéaire u est définie par :
u(P) = P(0) + P(1)X,
quels sont les "polynômes propres" ?
# réponse
Un polynôme propre P doit vérifier une égalité :
kP = P(0) + P(1)X,
k étant un réel.
Il y a bien sûr le cas du polynôme nul.
Supposons d'abord k ≠ 0.
En dehors de P = 0, on voit que nécessairement P doit être de degré au plus
1, soit P = a + bX. Les coefficients a et b doivent vérifier :
ka + kbX = a + (a + b)X,
Daniel Alibert – Cours et Exercices corrigés – Volume 6
71
ka + kbX = a + (a + b)X,
donc :
ka = a,
kb = a + b.
On cherche s'il y a des solutions avec k = 1 :
a = a,
b = a + b,
donc a = 0, et b quelconque :
P = bX.
Si k ≠ 1, alors a = 0, et b = 0, donc P = 0.
Supposons maintenant k = 0.
Le polynôme P doit alors vérifier :
P(0) = P(1) = 0,
donc :
P = CX(X – 1),
C étant une constante réelle quelconque.
En conclusion, il y a deux familles de vecteurs propres :
P = bX,
P = CX(X – 1).
"Soit u : E --. E une application linéaire d’un espace vectoriel E dans lui-même. On dit
qu’un scalaire t est une valeur propre pour u s’il existe un vecteur propre non nul V qui
vérifie :
u(V) = t.V."
exemple 94
Dans l'exemple 92, les valeurs propres sont tous les réels.
exemple 95
(à traiter)
Quelles sont les valeurs propres dans l'exemple 93 ?
Daniel Alibert – Cours et Exercices corrigés – Volume 6
72
# réponse
On a vu que l'on n'obtient des vecteurs propres non nuls seulement dans
deux cas : pour k = 1, et pour k = 0. Ce sont les deux valeurs propres.
"L'ensemble des vecteurs propres relatifs à une valeur propre donnée t est un sous-espace
vectoriel, qu'on appelle le sous-espace propre relatif à t."
exemple 96
Dans l'exemple 93, il y a deux sous-espaces propres, chacun est de
dimension 1 :
pour t = 0, vect(X(1 – X)),
pour t = 1, vect(X).
exemple 97
(à traiter)
Quels sont les sous-espaces propres dans l'exemple 92 ?
# réponse
Il y en a une infinité, correspondant à chaque réel. Chacun est de dimension
1:
pour t = k, vect(ekx).
"Des vecteurs propres appartenant à des sous-espaces propres deux à deux distincts
forment toujours une famille libre."
exemple 98
Dans l'exemple 92 : les fonctions données par eax, et ebx, a ≠ b, sont
linéairement indépendantes.
En effet si on a pour tout x :
α eax + β ebx = 0,
Daniel Alibert – Cours et Exercices corrigés – Volume 6
73
on déduit (avec x = 0, puis en dérivant en 0) :
α + β = 0,
aα + bβ = 0,
donc, comme a ≠ b, α = β = 0.
exemple 99
(à traiter)
Vérifier cette indépendance des vecteurs propres pour l'exemple 93.
# réponse
C'est clair dans ce cas, puisque les polynômes sont de degré 1 pour la
valeur propre 1, et de degré 2 pour la valeur propre 0.
"Les valeurs propres sont les solutions de l'équation polynomiale : det(u – X. IdE) = 0."
exemple 100
Le cas de l'exemple 92 n'entre pas dans ce résultat, puisque l'espace
vectoriel considéré n'est pas de dimension finie.
exemple 101
(à traiter)
Vérifier dans le cas de l'exemple 93.
On choisira une base, puis on calculera le déterminant.
# réponse
Dans la base usuelle (1, X, X2), la matrice de u est :
 1 0 0


A =  1 1 1 .


 0 0 0
Daniel Alibert – Cours et Exercices corrigés – Volume 6
74
L'équation caractéristique est :
1− X
0
1
1−X
0
0
0
1 = 0,
−X
−(1 − X) X = 0.
2
On retrouve bien les valeurs propres 0 (multiplicité 1) et 1 (multiplicité 2).
"Soit M une matrice carrée et PM(X) son polynôme caractéristique. On a l'égalité entre
matrices (n, n), PM(M) = 0."
exemple 102
Dans l'exemple précédent, on a :
PA(X) = – (X – 1)2X,
PA (A) = −(A − I )2 A
  1 0 0  1 0 0   2  1

 
 
= −  1 1 1 −  0 1 0    1
  0 0 0  0 0 1    0
 
 

 0 0 0  0 0 0  1 0



= − 1 0 1   1 0 1   1 1
 0 0 −1  0 0 −1  0 0



0 0

1 1
0 0 
0

1
0
 0 0 0   1 0 0  0 0 0


 

= − 0 0 −1  1 1 1  =  0 0 0  .
 0 0 1   0 0 0  0 0 0


 

exemple 103
(à traiter)
Vérifier ce résultat général pour une matrice (2, 2) quelconque.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
75
# réponse
Pour une matrice (2, 2) :
 a b
M =
,
 c d
le polynôme caractéristique est :
pM(X) = X2 – (a + d)X + (ad – bc).
On doit calculer :
 a b  a b
 a b
 1 0
p M (M) = 

 − (a + d)
 + (ad − bc)

 c d  c d
 c d
 0 1
 a2 + bc b(a + d)  a (a + d) b(a + d)   ad − bc
0 

−


+


= 

2
ad − bc
 c(a + d) d + bc   c(a + d) d(a + d)   0
 0 0
=
.
 0 0
"Soit u un endomorphisme d'un espace vectoriel de dimension finie E, t une valeur propre,
de multiplicité m(t), et Et le sous-espace propre relatif à t, de dimension d(t). On a la
relation suivante :
1 ≤ d(t) ≤ m(t)."
exemple 104
Dans l'exemple 93, on a bien :
d(0) = 1, m(0) = 2
d(1) = 1 = m(1).
exemple 105
(à traiter)
Chercher les valeurs propres et les sous-espaces propres de la matrice :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
 1 0 1


B =  1 1 1 .


 0 0 0
# réponse
L'équation caractéristique est :
1− X
0
1
0
1− X
0
1
1 = −(1 − X)2 X = 0,
−X
donc les valeurs propres sont les mêmes que dans l'exemple 93 :
0, avec multiplicité 1
1, avec multiplicité 2.
Pour les sous-espaces propres :
t = 0, la dimension ne peut être que 1 :
 1 0 1   a  0 

   
 1 1 1   b =  0  ,

   
 0 0 0   c  0 
a +c= 0
a + b + c = 0.
On déduit b = 0, a = –c, le sous-espace propre est vect((1, 0, –1)).
t=1:
 1 0 1   a  a 

   
 1 1 1   b =  b  ,
 0 0 0   c  c 

   
a +c= a
a +b+c= b
0 = c.
On déduit c = 0, a = 0, le sous-espace propre est vect((0, 1, 0).
76
Daniel Alibert – Cours et Exercices corrigés – Volume 6
77
"Une matrice est diagonalisable si et seulement si : 1) Son polynôme caractéristique est
scindé 2) Pour toute valeur propre t, on a l'égalité d(t) = m(t)."
exemple 106
La matrice de l'exemple 105 n'est pas diagonalisable, ni celle de l'exemple
104.
exemple 107
(à traiter)
La matrice suivante est-elle diagonalisable :
 −2 5

.
 −1 2
# réponse
L'équation caractéristique est :
X2 + 1 = 0.
On voit donc que la question est insuffisamment précise.
Sur R, le polynôme n'est pas scindé, donc la matrice n'est pas
diagonalisable.
Sur C, le polynôme est scindé, et a deux racines simples, donc la matrice
est diagonalisable.
"Méthode de diagonalisation."
exemple 108
Diagonaliser une matrice c'est
Déterminer si elle est diagonalisable, en cherchant les valeurs propres,
les sous-espaces propres,
Daniel Alibert – Cours et Exercices corrigés – Volume 6
78
Si la matrice est diagonalisable, écrire la matrice de passage d'un
changement de base convenable (nouvelle base formée de vecteurs
propres).
Enfin écrire la matrice diagonale semblable à la matrice donnée
correspondant à la matrice de passage choisie.
exemple 109
(à traiter)
Appliquer cette démarche à la matrice :
 1 0 0


A =  −2 −1 −2  .


 0 0 1
# réponse
Équation caractéristique :
1− X
−2
0
0
0
−1 − X −2 = (−1 − X)(1 − X)2 = 0.
0
1− X
Les valeurs propres sont donc 1, de multiplicité 2, et – 1, de multiplicité 1.
Pour t = 1, le sous-espace est déterminé par les équations :
 1 0 0   a  a 

   
 −2 −1 −2   b =  b ,
 0 0 1   c  c 

   
a =a
−2a − b − 2c = b
c = c.
Donc a et c sont arbitraires, et b = – a – c. Les vecteurs propres s'écrivent
:
(a, – a – c, c) = a (1, – 1, 0) + c (0, – 1, 1),
Daniel Alibert – Cours et Exercices corrigés – Volume 6
79
donc le sous-espace est de dimension 2, de base ((1, – 1, 0), (0, –1, 1)).
On sait donc que la matrice est diagonalisable puisque, pour l'autre valeur
propre, simple, la dimension du sous-espace propre est nécessairement
égale à la multiplicité.
Cherchons une base du sous-espace propre relatif à la valeur propre – 1 :
 1 0 0   a
 a

 
 
 −2 −1 −2   b = − b ,
 0 0 1   c
 c

 
 
a = −a
−2a − b − 2c = −b
c = −c.
Donc a = c = 0, et b est arbitraire. Les vecteurs propres sont de la forme
générale b (0, 1, 0).
La matrice de passage a comme vecteurs-colonnes les vecteurs des bases
des sous-espaces propres, par exemple, en plaçant d'abord les vecteurs
propres correspondant à 1 :
 1 0 0


P =  −1 −1 1 .


 0 1 0
La matrice semblable, diagonale, qui correspond à cette matrice de
passage, doit s'écrire sans calcul : les valeurs propres sont à ranger dans la
diagonale, dans le même ordre que les vecteurs propres :
1 0 0 


D =  0 1 0 .


 0 0 −1
"Soit A une matrice carrée, P son polynôme caractéristique et M son polynôme minimal.
1) M divise P, 2) Les polynômes P et M ont les mêmes racines, réelles ou complexes, 3)
Daniel Alibert – Cours et Exercices corrigés – Volume 6
80
La matrice A est diagonalisable si et seulement si le polynôme M n'a que des racines
simples."
exemple 110
On suppose qu'une matrice A, (3, 3), a pour polynôme caractéristique :
P = – (1 – X)2(1 + X).
Quels choix sont possibles pour le polynôme minimal ?
En raison des points 1) et 2), deux choix seulement :
M = P, et A n'est pas diagonalisable,
M = (X – 1)(X + 1), et A est diagonalisable.
exemple 111
(à traiter)
Écrire le polynôme minimal dans les cas des exemples 104, 105, 109.
# réponse
Pour la matrice :
 1 0 0


 1 1 1


 0 0 0
qui n'est pas diagonalisable, le polynôme minimal est égal à l'opposé du
polynôme caractéristique, (X – 1)2X.
Pour la matrice :
 1 0 1


 1 1 1


 0 0 0
la réponse est la même.
Enfin, pour la matrice :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
81
 1 0
0


 −2 −1 −2 


1
 0 0
qui est diagonalisable, M = (X – 1)(X + 1).
"Démarche de trigonalisation."
exemple 112
Prenons l'exemple de la matrice :
 1 0 0


M =  1 1 1 .


 0 0 0
On sait (exemples 93-104) qu'elle a deux valeurs propres, 0, de multiplicité
1, et 1 de multiplicité 2.
Pour la première valeur propre, t = 0 :
 1 0 0   a  0 

   
 1 1 1   b =  0 

   
 0 0 0   c  0 
a=0
a + b + c = 0.
Donc ce sous-espace a pour base (0, 1, – 1).
Pour la valeur propre 1 :
 1 0 0   a  a 

   
 1 1 1   b =  b 
 0 0 0   c  c 

   
a=a
a +b+c= b
0 = c.
Donc a = c = 0, et b est arbitraire. Une base est (0, 1, 0).
Daniel Alibert – Cours et Exercices corrigés – Volume 6
82
Il faut donc compléter par un vecteur pseudo-propre relatif à la valeur
propre 1. Ses coordonnées vérifient :
 1 0 0   a  a 
 0

   
 
 1 1 1   b =  b  + α 1
 0 0 0   c  c 
 0

   
 
a=a
a +b +c= b +α
0 = c.
Donc c = 0, b est arbitraire et a = α.
L'ensemble des solutions est donné par :
(α, 0, 0) + (0, b, 0)
Pour obtenir un vecteur indépendant de (0, 1, 0), on prend α ≠ 0, par
exemple α = 1, d'où le vecteur pseudo-propre :
(1, 0, 0).
La matrice de passage est, en plaçant d'abord la valeur propre 0, puis la
valeur propre 1 :
 0 0 1


P =  1 1 0 .


 −1 0 0 
On écrit la matrice triangulaire correspondant à ce choix : d'abord, dans
la diagonale, les valeurs propres, à la place correspondant aux vecteurs
propres. Ensuite, au-dessus de la diagonale, pour les colonnes
correspondant aux vecteurs pseudo-propres, on utilise les résultats des
calculs : si V = (0, 1, 0) est le vecteur propre, et W = (1, 0, 0) le vecteur
pseudo-propre obtenu avec b = 0, et α = 1, on a la relation :
MW = W + αV,
donc α se trouve dans la troisième colonne, seconde ligne.
La matrice trigonalisée (ou triangularisée) est :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
 0 0 0


T =  0 1 1 .


 0 0 1
exemple 113
(à traiter)
Appliquer la même démarche à la matrice :
 1 0 1


B =  1 1 1 .


 0 0 0
# réponse
(voir 105).Les valeurs propres sont :
0, avec multiplicité 1,
1, avec multiplicité 2.
Pour la valeur propre 0, le sous-espace propre est vect((1, 0, –1)).
Pour la valeur propre 1, le sous-espace propre est vect((0, 1, 0).
On cherche un vecteur pseudo-propre pour 1 :
 1 0 1   a  a 
 0

   
 
 1 1 1   b =  b  + α 1 ,
 0 0 0   c  c 
 0

   
 
a +c= a
a +b +c= b +α
0 = c.
Donc c = 0, b est arbitraire et a = α. Les solutions sont :
(α, 0, 0) + (0, b, 0).
On obtient un vecteur indépendant du vecteur propre par α = 1, b = 0.
La matrice de passage peut s'écrire :
83
Daniel Alibert – Cours et Exercices corrigés – Volume 6
84
0 1 1 


P = 1 0 0 .


 0 0 −1
La matrice triangulaire associée est :
 1 1 0


T =  0 1 0 .


 0 0 0
"Calcul des puissances d'une matrice carrée."
exemple 114
Une première méthode passe par la connaissance d'un polynôme
annulateur, si possible le polynôme minimal. Reprenons l'exemple 109 :
1

S =  −2

0
0

−1 −2 ,

0 1
0
dont le polynôme minimal est (111) X2 – 1.
Cela signifie que :
S2 = I.
On en déduit que si n = 2p, Sn = I, et si n = 2p + 1, Sn = S.
exemple 115
(à traiter)
Une autre méthode passe par la réduction de la matrice à la forme
diagonale, si possible, ou triangulaire. Reprendre le cas de 112, et calculer
l'expression de la puissance n-ème de cette matrice.
# réponse
Rappelons que :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
1

M =1

0
0

T =0

0
85
0 0

1 1

0 0
0 0

1 1

0 1
On écrit :
 0 0 0  0 0 0

 

T =  0 1 0 +  0 0 1 = D + N.

 

 0 0 1  0 0 0
Les matrices D et N commutent, de plus N2 = 0, donc :
(D + N)n = Dn + nDn-1N.
On trouve donc :
 0 0 0 n
 0 0 0 n −1  0 0 0 




 
T n =  0 1 0  + n  0 1 0  0 0 1 



 

 0 0 1
 0 0 1  0 0 0 
 0 0 0
 0 0 0  0 0 0





=  0 1 0  + n 0 1 0  0 0 1





 0 0 1
 0 0 1  0 0 0
 0 0 0   0 0 0  0 0 0 

 
 

=  0 1 0  +  0 0 n =  0 1 n  .

 
 

 0 0 1   0 0 0  0 0 1 
Il faut ensuite calculer l'inverse de la matrice P pour faire le changement
de base :
Mn = PTnP-1.
Ici, on trouve :
Daniel Alibert – Cours et Exercices corrigés – Volume 6
P −1
 0 0 −1


=  0 1 1 ,


1 0 0 
 0 0 1  0 0 0   0 0 −1




M =  1 1 0  0 1 n   0 1 1  ,




 −1 0 0  0 0 1   1 0 0 
n
 0 0 1  0 0 −1  1 0 0


 

=  0 1 n  0 1 1  =  n 1 1 .


 

 0 0 0  1 0 0   0 0 0
Penser à vérifier, au moins, que pour n = 1 la formule donne M.
86
Daniel Alibert – Cours et Exercices corrigés – Volume 6
3
87
Pour Comprendre
et Utiliser
3-1 Énoncés des exercices
Savoir résoudre un système d'équations linéaires.
Applications : Savoir montrer qu'une famille de vecteurs
est libre, ou trouver une relation de dépendance. Savoir
montrer qu'un vecteur appartient au sous-espace engendré
par une famille de vecteurs donnée, chercher les vecteurs
du noyau, les équations de l'image d'une application
linéaire.
exercice 1
Méthode du pivot.
Résoudre le système d'équations linéaires suivant, en discutant selon les
valeurs du paramètre réel m (☺).

x + (2m −1)y − m 2z + (m 2 + m)t = m

 x +(2m +1)y +( m 2 − 2m −1)z + (2m 2 − 4m)t = −m +1


3

x + 2my − mz + (m 2 − m)t = m
2


2x + 4my − (2m + 1)z + (m 2 − m)t =1

☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
88
exercice 2
Famille libre.
Les familles suivantes de vecteurs sont-elles libres ( )? (☺) ( )
1) Dans R3 : V1 = (−1, 1, 2), V2 = (2, − 2, 1),V3 = (0, 1, 2).
2) Dans R4 :
A1 = (1, 1, 1, t ), A2 = (1, 1, t, 1), A 3 = (1, t, 1, 1), A 4 = (t, 1, 1, 1).
Discuter selon les valeurs de t.
3) Dans F(R, R), les fonctions définies par les expressions :
cos(x), sin(x), cos2(x), sin2(x), cos(2x).
4) Dans R2[X] : X(X + 1), X(X – 1), X(X – 2), X(X – 3).
exercice 3
Relation de dépendance.( )
1) Expliquer pourquoi les vecteurs suivants sont liés (
relation de dépendance entre eux (☺)( ) :
), et donner une
W1 = (1, 0, 1, 2u), W2 = (u, 1, 0, 1), W3 = (1, u, 1, 0),
W4 = (−u, 1, 1, 1), W5 = (1, 1, u, 1), W6 = (1, u, 1, - 1).
2) Démontrer que le vecteur W appartient au sous-espace engendré par les
vecteurs V1, V2, V3 (☺) :
W
= ( 1 , 2 , 3 , 3 ), V 1 = ( 1 , − 1 , 0 , 0 ), V
2
= ( − 1 , 2 , 1 , 1 ), V 3 = ( 2 , 1 , 2 , 3 ).
3) Soit E un espace vectoriel, (xk)1≤k≤n une famille de vecteurs de E, et F
le sous-espace engendré par cette famille. Démontrer que la famille
(xk)1≤k≤n est liée ( ) si et seulement si il existe une sous-famille qui
engendre ( ) encore F ( ).
exercice 4
Vecteurs d'un noyau.
Chercher la forme des vecteurs du noyau (
indiquée, dans les cas suivants :
) de l'application linéaire
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
89
1) De C∞(R) dans lui-même (☺) : u(f) = f´´ – f´ – f.
2) De R3[X] dans R2[X] (☺) : v(P) = P´ – XP´´.
3) De R4 dans lui-même (☺) :
φ(x, y, z, t) = (2x – y + z + 2t, x + 2y – z – t, y – 3z + t, x + z).
exercice 5
Relations entre les vecteurs d'une image.
Donner, sous forme de relations linéaires, une condition nécessaire et
suffisante pour qu'un vecteur appartienne à l'image de l'application linéaire
( ) dans les cas suivants :
1) De R3 dans R4 (☺) :
u(a, b, c) = (a – b – c, a + 2b – c, 2a – b + 3c, – a + b + 2c).
2) De R3[X] dans R2[X] (☺) : v(P) = P´ – XP´´.
3) De R4 dans lui-même (☺) :
φ(x, y, z, t) = (2x – y + z + 2t, x + 2y – z – t, y – 3z + t, x + z).
Savoir chercher une base d'un sous-espace vectoriel :
sous-espace donné par des équations, sous-espace donné
par des générateurs, intersection, somme de sous-espaces,
supplémentaire.
exercice 6
Sous-espace donné par des équations.( )
Dans chaque cas, donner une base ( ) du sous-espace vectoriel E défini
par les équations linéaires proposées (☺).
1) Dans R4, E est défini par :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
90
2) Dans R3, E est défini par :
 2b + c = 0

 a − 3b + 3c = 0

 −a + b − 4c = 0
3) R2[X], E(m) est défini par :
P(−1) + P(1)X + P(0)X2 = m × P(X).
4) Bilan.
E peut-il être vide ?
Si E est défini par p équations à n inconnues, dans quel cas est-on certain
que E n'est pas égal à {0} ?
exercice 7
Sous-espace donné par des générateurs.( )
Dans chaque cas, donner une base du sous-espace vectoriel F engendré
( ) par les vecteurs indiqués.
1) Dans R3[X], F est engendré par :
P1 = X3 − X +1, P2 = X3 + X −1, P3 = X − 1, P4 = X +1.
2) Dans R3, F est engendré par :
V1 = (1, −1, 2), V2 = (1, 1, 1), V3 = (2, 2, − 3), V4 = (0, 1, 1).
3) Dans F(R, R), F est engendré par (fa)a∈R , où fa(x) = cos(x + a).
4) Bilan. Pour un sous-espace d'un espace de dimension ( ) n, engendré
( ) par p vecteurs, que peut-on prévoir sur la dimension du sous-espace,
c'est-à-dire le nombre de termes d'une base, avant de faire les calculs ?
 x + 2 y − z + t = 2t − y + x

2 x + y + z − t = x + t
3 y + 3 z + t = x − z

☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
91
exercice 8
Intersection de sous-espaces.
Donner une base de l'intersection des sous-espaces E et F ci-dessous.
1) Dans R5, E = vect(V1, V2, V3), F = vect(W1, W2, W3) :
V1 = (1, 2, 1, –1, 0), V2 = (0, 0, 1, 2, 1)
V3 = (0, 1, –1, 0, 2), W1 = (1, 1, 1, 1, 1)
W2 = (1, 0, 0, – 2, – 3), W3 = (1, 1, 0, – 2, 0)
5
2) Dans R , E = vect(V1, V2, V3), ci-dessus, et F est défini par les équations
linéaires :
x – y – z + t + u = 0,
2x + y – z – t + u = 0.
5
3) Dans R , F est le sous-espace de la question 2), et E est défini par les
équations linéaires :
x + y – z – t + 2u = 0,
x + 2y – z + t – 2u = 0.
4) Bilan. Dans chaque cas, dire ce que l'on pouvait prévoir, avant de faire
les calculs, sur la dimension ( ) de l'intersection. Essayer de généraliser
en énonçant des règles pratiques, et simples à partir de la dimension de
l'espace "ambiant", du nombre de générateurs ( ) de chaque sousespace, ou du nombre d'équations.
Ces règles visent à un contrôle de la dimension ( ) (majoration,
minoration), mais pas nécessairement à un calcul.
exercice 9
Somme de sous-espaces.
Dans les trois cas de l'exercice précédent, donner une base ( ) de E + F.
Peut-on donner des indications a priori, sur la dimension de la somme
( )?
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
92
exercice 10
Supplémentaire ( ) d'un sous-espace.( )
1) Dans les deux cas de l'exercice 8, donner une base d'un supplémentaire
de E dans R5.
Que pouvait-on prévoir avant de faire les calculs ?
Essayer de donner une règle pratique générale.
2) Soit T un espace vectoriel, f une application linéaire surjective de T dans
R, et K le noyau de f.
2-1) Expliquer pourquoi K ≠ T.
2-2) Soit V un vecteur de T n'appartenant pas à K. Démontrer que vect(V)
est un supplémentaire de K dans T.
2-3) Donner deux exemples de cette situation, l'un où T est de dimension
finie, l'autre où T n'est pas de dimension finie ( ) ( ).
Calculer avec des matrices. Quelques types de matrices
: inversibles, nilpotentes, symétriques, antisymétriques,
orthogonales. Associer une matrice à une application
linéaire.
exercice 11
Calcul matriciel.
1) Dans l'espace vectoriel Mn(R) des matrices carrées d'ordre n, réelles, on
distingue les matrices élémentaires, notées Ei,j, i et j étant compris entre 1
et n. Dans chacune de ces matrices, tous les termes sont nuls, sauf un, celui
situé dans la ligne i et la colonne j, qui vaut 1.
Vérifier que la famille (Ei,j)(i,j)∈ [1..n]x[1..n] est une base ( ) de Mn (R), et
que le produit de deux matrices de la famille est soit 0, soit une matrice de
la famille.
2) Soit Zn le centre de Mn(R), c'est-à-dire l'ensemble des matrices qui
commutent avec toute matrice de type (n , n).
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
93
Démontrer qu'une matrice A appartient à Zn si et seulement si elle
commute avec toutes les matrices élémentaires.
En déduire quelles sont les matrices du centre (☺).
3) Soit A une matrice réelle (2, 2), non multiple de la matrice identique I.
On note C(A) l'ensemble des matrices (2, 2), M, qui commutent avec A,
c'est-à-dire telles que AM = MA, c'est le centralisateur de A.
Vérifier que C(A) est un sous-espace vectoriel de M2(R) (☺).
En discutant selon les coefficients de A, démontrer que ce sous-espace
vectoriel est de dimension 2 (☺).
En déduire que (I, A) en est une base.
Corollaire : démontrer que toute puissance de A est combinaison linéaire
de A et de I. Exprimer A2, A3 en fonction de A et de I.
exercice 12
Matrices inversibles, nilpotentes.
1) On note GLn(R) le sous-ensemble de Mn,n(R), formé des matrices
inversibles. On l'appelle le groupe linéaire d'ordre n.
Est-ce un sous-espace vectoriel ?
Démontrer que pour toute matrice élémentaire Ei,j, la matrice I + Ei,j est
inversible (☺).
Montrer que son inverse est de la forme :
I + αEi,j,
α étant un réel que l'on précisera (distinguer i = j et i≠ j).
Déterminer le centralisateur de GLn(R), c'est-à-dire l'ensemble des
matrices qui commutent avec toute matrice inversible.
2) Le calcul de l'inverse d'une matrice inversible A peut s'aborder de deux
manière ( ) :
Si on connaît un polynôme annulateur, il aura nécessairement un terme
constant non nul. A partir de cette remarque, calculer l'inverse de la
matrice de l'exemple 109 (☺).
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
94
Sinon, on résout un système formel Y = AX, en calculant X en fonction
de Y. On identifie alors le résultat avec X = A-1Y.
Calculer de cette manière, après avoir vérifié qu'elle est inversible
(déterminant), l'inverse de :
1

 −1
P=
1

0
1
0
1
1
−1

1 1
.
−1 0 

−1 1 
0
3) Une matrice est nilpotente si elle a une puissance nulle. On note ici
Nn(R) le sous-ensemble de Mn(R), formé des matrices nilpotentes.
Pour une matrice nilpotente P, on dit que P est nilpotente d'indice k si Pk
est la matrice nulle et, k = 1 ou Pk-1 n'est pas nulle.
Donner des exemples d'éléments de N2(R), non nuls, d'indices 1 et 2.
Pouvez-vous en trouver d'indice 3 ?
Le sous-ensemble Nn(R) est-il un sous-espace vectoriel ?
Dans Nn(R) soit P une matrice nilpotente d'indice k. Soit V un vecteur
de Rn (matrice colonne) tel que Pk-1V ne soit pas nul. Démontrer que la
famille :
V, PV, P2V, …, Pk-1V
est une famille libre. Déduire que k ≤ n.
Plus généralement, soit H un supplémentaire du noyau de Pk-1, r sa
dimension et V1, V2, …, Vr une famille libre de H. Démontrer que :
V1, PV1, P2V1, …, Pk-1V1, …,Vr, PVr, P2Vr, …, Pk-1Vr
est une famille libre.
Dans cette famille, les vecteurs autres que les Vj forment une famille
libre de Ker(Pk-1). Compléter cette famille libre en une base de Ker(Pk-1),
et écrire la matrice de P dans la base de Rn obtenue en juxtaposant la base
de H et la base de Ker(Pk-1).
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
95
exercice 13
Matrices symétriques, antisymétriques, orthogonales.
On appelle matrice symétrique une matrice égale à sa transposée, et
matrice antisymétrique une matrice opposée à sa transposée. Enfin, on
appelle matrice orthogonale une matrice dont la transposée est l'inverse.
Ce sont des matrices carrées.
On note S(n) (resp. A(n), O(n)) l'ensemble des matrices réelles
symétriques de type (n, n) (resp. antisymétriques, orthogonales).
1) Écrire la forme générale des éléments de S(2), A(2), O(2).
2) Ces sous-ensembles sont-ils des sous-espaces vectoriels de M2,2(R) ?
Généraliser. Le cas échéant, donner la dimension des sous-espaces.
3) Démontrer que S(n) et A(n) sont supplémentaires.
4) On suppose maintenant n = 3. Pour tout V = (x, y, z), vecteur de R3, on
note ||V|| sa longueur : V = x 2 + y 2 + z2 .
On rappelle que le produit scalaire de deux vecteurs de R3, V = (x, y, z) et
V' = (x', y', z') est le réel <V , V'> = xx' + yy' + zz'.
Démontrer que si A est orthogonale, alors pour tout V et tout V', on a :
<AV , AV'> = <V , V'> (☺).
Déduire que, quelle que soit la matrice orthogonale A de O(3), on a pour
tout vecteur V : ||AV|| = ||V||.
On dit que A est la matrice d'une isométrie.
exercice 14
Matrice associée à une application linéaire, dans des bases données.
Changement de base.
Lorsqu'une application linéaire est donnée, en dimension finie, il est
souvent (pas toujours) utile de la représenter par une matrice pour
transformer le problème posé en un problème "standard" de calcul
matriciel.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
96
1) Soit u l'application linéaire de R3[X] dans lui-même obtenue en
associant à un polynôme P le polynôme :
P(0) + P´(0) X + P(0) X2 + P´(0) X3.
Écrire la matrice de cette application dans la base (1, X, X2, X3).
Déduire le noyau et l'image de cette application.
2) Montrer que la famille suivante de fonctions sur R est une famille libre
:
s1 : x → sin(x)ex, c1 : x → cos(x)ex,
s2 : x → sin(x)e2x, c2 : x → cos(x)e2x.
Soit E l'espace vectoriel qu'elle engendre, et D l'application de dérivation.
Démontrer que D est un endomorphisme de E. Quelle est sa matrice
dans la base ci-dessus ?
Démontrer que cette matrice est inversible, et calculer son inverse ( ).
En déduire une formule générale de calcul d'une primitive d'une fonction
:
f(x) = α1sin(x)ex + β1cos(x)ex + α2sin(x)e2x + β2cos(x)e2x.
3) Dans R3[X], on utilise généralement la base B1 = (1, X, X2, X3).
D'autres peuvent être utiles dans certains cas, comme :
B2 = (1, X – 1, (X – 1)2, (X – 1)3).
Écrire la matrice P de passage ( ) de la première base dans la seconde.
Calculer son inverse Q ( ).
Soit H = a + bX + cX2 + dX3, un polynôme. Écrire l'expression de H en
décomposition sur la base B2 (formule de Taylor en 1).
Soit f l'application linéaire de R3[X] dans lui-même définie par :
A → (X – 1)2A´´ + (X – 1)A´ + A + A(1).
Écrire la matrice de f dans la base B1, et en déduire sa matrice dans la base
B2, à l'aide de P et Q. Vérifier en calculant directement cette matrice.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
97
Savoir réduire une matrice carrée : diagonalisation,
trigonalisation.
exercice 15
Valeurs propres, diagonalisation. ( )
1) Les techniques à mettre en oeuvre dans la pratique sont :
calcul d'un déterminant.
résolution d'une équation algébrique.
écriture d'une base d'un sous-espace vectoriel défini par des équations
linéaires.
Pour chacune des matrices ci-dessous, vérifier qu'elle est diagonalisable,
donner une base formée de vecteurs propres, et la matrice diagonale
correspondante.
 3 1 0
 3 1 −1
 2 1 −1






0
A =  −1 1 −1 , B =  −1 1 1  , C =  0 1






 −1 −1 2 
 0 1 2
 −1 −1 2 
 0 1 −1 0 
 0 0 −1 −1




1 2
1 1
1 2
1 1
D =
, E =
0 −2 0 −2 
0 −1 0 −1




 −1 0 −1 0 
 −1 0 −1 0 
 −1 0

 −2 1
F=
2 −2

 −2 2
2
 0 −1 1 1 



2 2
 0 −1 0 0 
, G =
.
−1 0
1 −1 0 1 



2 1
 0 0 0 −1
2
2) Soit A une matrice de type (n , n) ayant toutes ses valeurs propres
distinctes. On étudie le centralisateur de A.
2-1) On suppose d'abord que A est diagonale.
Montrer que C(A) est formé de toutes les matrices diagonales.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
98
2-2) Dans le cas général, soit M une matrice de C(A). Montrer que M est
diagonalisable par tout changement de base qui diagonalise A : on dit que
ces matrices sont simultanément diagonalisables.
2-3) Démontrer que C(A) est un espace vectoriel de dimension n (☺), et
qu'il admet comme base les n matrices I, A, A2, …, An-1.
2-4) Que peut-on dire si A est diagonalisable, mais si les valeurs propres
de A ne sont pas distinctes deux à deux ?
3) On dit qu'une matrice A est idempotente s'il existe un entier p,
strictement positif, tel que Ap = I. Démontrer que toute matrice
idempotente est diagonalisable sur C (☺).
exercice 16
Trigonalisation. ( )
1) Pour chacune des matrices ci-dessous, vérifier qu'elle est trigonalisable,
donner une base formée de vecteurs propres et pseudo-propres, et la
matrice triangulaire correspondante.
 3 1 −1
 2 1 0
 0 −3 4 






A =  −2 0 1  , B =  −1 0 0  , C =  2 6 −6






 0 1 2
 1 1 1
0 1 0 
 5 −1 −7 −7
 −3 1



 6 −2 −6 −6
 −3 0
D =
, E =

−7 5 5
1
−2 0



 8 −6 −8 −4
 −3 1
2 2

3 2
.
1 3

3 1
2) On se place ici sur C. Soit A une matrice de type (n, n).
Soit B une matrice du centralisateur de A.
2-1) Montrer que tout sous-espace propre de A est stable par B.
2-2) En déduire que A et B ont au moins un vecteur propre en commun.
2-3) Soit V un vecteur propre commun. On considère une base de Cn de la
forme :
V, V2,…, Vn.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
99
Montrer que les endomorphismes de matrices A et B ont, après ce
changement de base, des matrices de la forme :
α
A′ = 
0
A

β
 , B′ = 
1
0

 ,
1
B
où A1 et B1 sont des matrices de type (n – 1, n – 1) qui commutent.
Déduire que A et B sont simultanément trigonalisables.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
100
3-2 Corrigés des exercices
exercice 1-C
La méthode du pivot évite le calcul du déterminant (ou permet de le
calculer simplement) :

x + ( 2 m − 1) y − m 2 z + ( m 2 + m ) t

2
2
 2 y + ( 2 m − 2 m − 1) z + ( m − 5 m ) t


3 

y +  m ² − m  z + ( − 2 m )t

2 


 2 y + ( 2 m ² − 2 m − 1) z + ( − m ² − 3 m ) t
 x + ( 2 m − 1) y − m 2 z + ( m 2 + m ) t

3 


y +  m ² − m  z − 2 mt

2 



( m − 1) z + ( m 2 − m ) t


( − 2 m ² + 2 m )t
=m
= −2m + 1
=0
= 1 − 2m
= m
= 0
= −2m + 1
= 0
Discussion :
Si – m2 + m ≠ 0, il y a une solution unique, puisque le déterminant est
non nul ; on peut aussi simplement remarquer que la dernière équation
permet de tirer t = 0, puis z, puisque m ≠ 1, enfin, y et x.
La solution est :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
101
Si m = 0, le système obtenu après élimination est le suivant. On voit que
t est indéterminé. La solution est donnée par un calcul simple. On trouve
l'ensemble des vecteurs de la forme :
(0, 0, – 1, t).






x
−
−
0
y
y
=
=
z
=
t
=
0
0
1
0
Si m = 1, la dernière équation ne détermine pas t, qui est quelconque, mais
la troisième équation n'a pas de solution :
0=
1
,
2
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
102
donc le système n'a pas de solution.
(QC-1) Quel est le déterminant du système ? Retrouver la discussion.
exercice 2-C
1) Si la combinaison linéaire :
xV1 + yV2 + zV3
est égale à 0, les coefficients x, y, z vérifient un système d'équations
linéaires :
− x + 2y = 0
x − 2y + z = 0
2 x + y + 2 z = 0,
qu'il faut résoudre. On trouve, par la méthode du pivot par exemple :
Remarquer que maxima n'écrit pas toujours les seconds membres, dans ce
cas ils sont égaux à 0.
D'où z = 0 et ensuite facilement y = 0 et x = 0.
On peut aussi utiliser maxima par la fonction "echelon" :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
103
Donc les vecteurs sont libres.
2) On procède de même, mais pour utiliser maxima, il faut avoir recours à
la fonction "triangularize", car maxima ne teste pas si une expression peut
s'annuler avant de diviser (calcul formel) : comparer
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
104
On voit que les trois dernières équations sont réduites à 0 = 0 si t = 1. Il
y a donc d'autres solutions que la solution nulle. La famille n'est pas libre.
Si t = – 3, la dernière équation ne détermine pas le dernier coefficient.
La famille n'est pas libre.
Si t ≠ 0, et t ≠ – 3, le système a une seule solution, la solution triviale,
puisque les coefficients de la diagonale ne sont pas nuls.
3) C'est une situation où il faut procéder "à la main", sans aide d'un logiciel.
Il faut bien avoir conscience que les vecteurs sont des fonctions, et que le
vecteur 0 est la fonction qui associe à tout x le réel 0.
La relation à examiner est la suivante. Existe-t-il des réels non tous nuls,
α, β, γ, δ, ε tels que, pour tout x réel :
α cos(x) + β sin(x) + γ cos2(x) + δ sin2(x) + ε cos(2x) = 0.
Des connaissances en trigonométrie sont utiles, mais non indispensables.
D'une façon générale, on traite l'indépendance de fonctions en donnant à
la variable des valeurs particulières qui simplifient, si possible, les
équations. Ici, évidemment, on essaie x = 0 :
α + γ + ε = 0.
De même, pour π/2 :
β + δ – ε = 0.
Pour – π/2 :
– β + δ – ε = 0.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
105
On obtient donc β = 0, et δ = ε.
Pour π :
– α + γ + ε = 0.
On obtient donc α = 0, et γ = – ε.
En reportant dans l'équation de départ, on trouve :
ε (– cos2(x) + sin2(x) + cos(2x)) = 0.
Cette équation fait penser à la relation trigonométrique :
cos2(x) – sin2(x) = cos(2x).
Il en résulte que ε n'est pas nécessairement nul, donc la famille n'est pas
libre.
4) Dans un tel cas, on peut écrire l'équation :
α X(X + 1) + β X(X – 1) + γ X(X – 2) + δ X(X – 3) = 0
en faisant apparaître une base connue de l'espace vectoriel, ici 1, X, X2.
On obtient l'équation :
(α + β + γ + δ) X2 + (α – β – 2γ – 3 δ) X = 0,
d'où deux équations :
α+β+γ+δ=0
α – β – 2γ – 3 δ = 0.
Il y a donc d'autres solutions que la solution (0, 0, 0, 0), et la famille n'est
pas libre.
(QC-1) Donner un argument de dimension.
exercice 3-C
1) Dans R4, une famille de plus de quatre vecteurs est toujours liée.
Pour trouver une relation de dépendance, il suffit de résoudre l'équation
suivante :
aW1 + bW2 + cW3 + dW4 + eW5 + fW6 = 0.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
106
Elle se traduit par un système de 4 équations à 6 inconnues, que l'on peut
traiter par la méthode du pivot.
La relation obtenue est :
W6 (−2u4 + 6u 2 − 3u)+ W1 (−u3 + 2u − 1)+
W3 (1 + u + 2u4 − 6u 2 )+ W5 (u 2 )+ W2 (u 2 − u) = 0.
Précisons la méthode : placer dans une matrice les coordonnées des
vecteurs en ligne, et en dernière colonne le nom du vecteur. Effectuer le
pivot de Gauss, jusqu'à obtenir 0 dans une ligne pour tous les coefficients
sauf le dernier, qui est formel. Ce dernier coefficient est alors une
combinaison linéaire nulle des vecteurs du système.
2) Il faut écrire une relation de dépendance entre les quatre vecteurs de
l'énoncé, dans laquelle le coefficient de W n'est pas nul.
Le calcul conduit à la relation :
1
4
0 = V2 − W + V1 ,
3
3
soit :
W = 4V1 + 3V2 .
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
107
3) Supposons d'abord que la famille (xk)1≤k≤n est liée. Il existe alors une
relation de dépendance entre ces vecteurs, c'est-à-dire n scalaires non tous
nuls (αk)1≤k≤n tels que :
k= n
∑α
k xk
= 0.
k =1
Soit i un entier entre 1 et k, et supposons que le coefficient αi est différent
de 0. On peut alors exprimer le vecteur xi en fonction des autres vecteurs
de la famille :
k= n, k≠ i
∑
k =1
−
αk
xk = xi .
αi
Soit y un vecteur quelconque de F. Il est combinaison linéaire des vecteurs
de la famille (xk)1≤k≤n puisque celle-ci est génératrice. Il existe des réels
βk vérifiant :
k= n
∑β x
k k
= y.
k =1
En substituant la valeur de xi, on écrit :
k= n, k≠ i
∑
k =1


α
 β k − k β i  x k = y.
αi 

Tout vecteur de F est donc combinaison linéaire de la sous-famille :
(xk)1≤k≤n, k ≠ i
qui est donc une sous-famille génératrice de F.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
108
Réciproquement, supposons qu'une sous-famille de la famille (xk)1≤k≤n,
ne comprenant pas le vecteur xj, est une famille génératrice de F. Comme
(xk)1≤k≤n est une famille génératrice, chacun de ses éléments est un vecteur
de F, en particulier xj. Ce vecteur s'écrit donc comme combinaison linéaire
des vecteurs de la sous-famille. Il existe une famille de scalaires γk, k ≠ j,
vérifiant l'égalité :
k= n, k≠ j
∑γ
k xk
= x j.
k =1
Le coefficient de xj n'est pas nul, donc l'égalité écrite ci-dessus est bien
une relation de dépendance entre les vecteurs de la famille (xk)1≤k≤n, qui
est bien une famille liée.
exercice 4-C
1) Les fonctions f du noyau sont les solutions de l'équation différentielle :
f´´ – f´ – f = 0.
On lui associe l'équation caractéristique :
t2 – t – 1 = 0,
dont les solutions sont données par :
∆=1+4=5
t1 =
1+ 5
1− 5
, t2 =
.
2
2
L'ensemble des solutions est donc le sous-espace vectoriel engendré par
les deux fonctions exponentielles :
t x
t x
xa e 1 , xa e 2 .
2) En choisissant dans chacun des espaces vectoriels la base canonique, on
transforme ce calcul :
P = a + b X + c X2 + d X3,
v(P) = b + 2c X + 3d X2 – X(2c + 6d X)
v(P) =b – 3d X2.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
109
Il faut chercher les solutions du système d'équations linéaires :
b=0
– 3d = 0.
Les solutions sont évidemment les polynômes de la forme :
P = a + c X2.
Le noyau est le sous-espace vectoriel engendré par 1 et X2.
3) Dans ce cas, il suffit de résoudre le système d'équations linéaires :
 2x − y + z + 2t = 0

 x + 2y − z − t = 0

y − 3z + t = 0


x + z = 0.

Le noyau de φ est la droite engendrée par le vecteur (– 3, 5, 3, 4).
exercice 5-C
1) Soit (x, y, z, t) un vecteur de R4. Ce vecteur est dans l'image de
l'application u si et seulement si le système d'équations suivant a une
solution :
 a − b− c = x

 a + 2b − c = y

 2a − b + 3c = z
 −a + b + 2c = t.

Par la méthode du pivot, on fait apparaître d'éventuelles conditions entre
x, y, z, et t :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
110
Une condition nécessaire et suffisante pour que le système ait une solution
est donc :
3z – y – 20x – 15t = 0.
(QC-1) Dans ce cas, combien le système a-t-il de solutions ?
2) Reprenons le calcul de l'exercice précédent.
Dans les bases canoniques, v s'écrit :
P = a + b X + c X2 + d X3 ∞ v(P) = b – 3d X2.
L'équation qui caractérise l'image de P est donc, dans la base canonique :
si Q = α + βX + γX2, β = 0.
(QC-2) Comparer l'image et le noyau de v. Déduire la valeur de
l'application composée v o v.
3) La technique est la même que dans la question 1).
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
111
Une équation de ce sous-espace vectoriel est donc (en simplifiant par 4) :
-3d – c + b +a = 0.
(QC-3) Lorsque cette condition est vérifiée, le système a-t-il une solution
unique ? Donner une réponse d'ordre théorique, et une autre fondée sur
le calcul présenté ci-dessus.
exercice 6-C
Il faut chercher l'ensemble des solutions, c'est-à-dire la forme générale de
ces solutions, puis en tirer une base. Dans la pratique, les solutions
dépendront de paramètres arbitraires, et chacun d'eux correspond à un
vecteur de base.
1) Résolution du système :
En simplifiant, les solutions sont les vecteurs de la forme :
(33t, 6t, - t, 19t)
soit :
t.(33, 6, -1, 19),
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
112
donc une base du sous-espace est (33, 6, - 1, 19).
2) La démarche est la même.
Une base du sous-espace est (-9, -1, 2). Rappel : %r3 désigne une constante
quelconque.
3) Utilisons la base canonique de R2[X], 1, X, X2.
P = a + bX + cX2,
l'équation est :
(a – b + c) + (a + b + c) X + a X2 = m (a + bX + cX2)
soit :
a – b + c = ma
a + b + c = mb
a = mc.
Résolvons le système par la méthode de Gauss :
Discussion.
Si - m3 + 2 m2 - m -2 n'est pas nul, le système a pour seule
solution la solution nulle. Dans ce cas E(m) = {0}.
Est-il possible que - m3 + 2 m2 - m -2 = 0 ?
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
113
Il y a donc une solution réelle.
(QC-1) Pouviez-vous le prévoir, sans Maxima ?
Pour cette unique valeur de m, soit m0, on a les solutions :
a = m0 c
b = (1 + m0 – m02) c
et c est arbitraire.
Dans ce cas, le sous-espace E(m0) est une droite.
4) Bilan.
Bien entendu, si les équations proposées définissent bien un sous-espace
vectoriel, celui-ci n'est jamais vide. Il ne faut jamais arriver à la conclusion
qu'il n'y a pas de solution. Il y a au moins la solution nulle.
Pour prévoir si E n'est pas {0}, il faut se placer dans la théorie des
applications linéaires : un système de p équations à n inconnues correspond
à une application linéaire de Rn dans Rp. Le sous-espace défini par les
équations est le noyau de cette application linéaire.
Il y a un cas où l'on est sûr que le noyau n'est pas {0}, c'est-à-dire
l'application non injective, c'est celui où la dimension de l'espace de départ
est supérieure à la dimension de l'espace d'arrivée :
si n > p, E n'est pas égal à {0}.
exercice 7-C
En dimension finie, il y a deux démarches courantes pour trouver une base
à partir d'une famille génératrice.
La première utilise le théorème de la base incomplète : partant d'un
générateur non nul, donc libre, compléter progressivement une famille de
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
114
générateurs libre. On finit par obtenir une base. On traite de cette manière
la question 1.
La seconde utilise la remarque de l'exercice 3 : une famille génératrice
libre est une famille génératrice minimale. Dans cette méthode, on cherche
une relation de dépendance entre les générateurs, ce qui permet d'en
éliminer un, puis une relation de dépendance entre les générateurs restant,
et ainsi de suite jusqu'à l'obtention d'une famille génératrice et libre.
On traitera de cette manière la question 2.
1) Le polynôme P1 n'est pas nul. Le polynôme P2 n'est pas proportionnel à
P1, donc la famille (P1, P2) est libre. Pour voir si (P1, P2, P3) est libre, il
suffit de voir si P3 est combinaison linéaire des deux premiers :
P3 = a P1 + b P2 ,
X – 1 = a X3 – a X + a + b X3 + b X + b
a + b = 0,
–a+b=1
a + b = – 1.
Ces équations sont évidemment incompatibles donc (P1, P2, P3) est libre.
Pour voir si (P1, P2, P3, P4) est libre, il suffit de voir si P4 est combinaison
des trois précédents :
P4 = a P1 + b P2 + c P3,
3
X + 1 = a X – a X + a + b X3 + b X + b + c X – c
a + b = 0,
–a+b+c=1
a + b – c = 1,
donc c = – 1, b = 1, a = – 1. La famille est liée.
Une base de F est :
(X3 – X + 1, X3 + X – 1, X – 1).
2) Cherchons une relation entre les quatre vecteurs :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
115
La relation est :
10 V4 + 3 V3- 11 V2 + 5 V1 = 0.
Elle permet de tirer tout vecteur en fonction des autres.
(QC-1) Pouvait-on prévoir ce résultat pour des raisons de dimension ?
Éliminons V4.
On voit que les trois autres vecteurs sont indépendants :
3) La formule suivante est connue :
cos(x + a) = cos(x) cos(a) – sin(x) sin(a).
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
116
Elle montre que toute fonction fa est combinaison linéaire des fonctions
cosinus et sinus. Or f0(x) = cos(x) et f −π (x) = sin(x), donc ces deux
2
fonctions sont des éléments de la famille.
Il en résulte que :
F = vect(sin, cos).
Comme, de plus, il est facile de voir que cosinus et sinus ne sont pas
proportionnels, on voit que ces deux fonctions forment une base de F.
4) La dimension d d'un sous-espace ne dépasse pas celle de l'espace
ambiant, et par ailleurs le nombre de vecteurs d'une famille génératrice est
au moins égal à la dimension :
d ≤ min(p, n).
exercice 8-C
1) Un vecteur X est dans l'intersection si et seulement s'il est à la fois
combinaison linéaire des vecteurs Vi, et combinaison linéaire des vecteurs
Wj. Il faut donc résoudre l'équation :
a1V1 + a2V2 + a3V3 – b1W1 – b2W2 – b3W3 = 0.
On obtient :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
117
On trouve donc :
12 V2 + 4 V3 – 8 W1 + 4 W2 +4 W3 = 0
On voit que (a1, a2, a3) = s (0, 3, 1), s étant un réel quelconque, donc :
X = s (3 V2 + V3)
X = (0, s, 2s, 6s, 5s).
(QC-1) Vérifier qu'on obtient bien la même réponse à partir des inconnues
(bj).
2) Dans ce cas, il faut exprimer qu'un vecteur X combinaison des Vi vérifie
les équations de F.
Si X est dans E, il existe a, b, c tels que :
X = a V1 + b V2 + c V3
X = (a, 2a + c, a + b – c, – a + 2b, b + 2c).
En reportant dans les équations de F, on obtient :
a – 2a – c – a – b + c – a + 2b + b + 2c = 0
a + 4a + 2c – a – b + c + a – 2b + b + 2c = 0.
Le système à résoudre est :
– 3a + 2b + 2c = 0
5a – 2b + 5c = 0.
On trouve donc qu'il existe un réel t tel que :
X = –14 t V1 – 25 t V2 + 4 t V3
X = (– 14t, – 24t, – 43t, – 36t, – 17t)
donc l'intersection est la droite :
vect((– 14, – 24, – 43, – 36, – 17)).
3) Dans ce cas, l'intersection est définie par l'ensemble des équations de E
et de F :
x–y–z+t+u=0
2x + y – z – t + u = 0
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
118
x + y – z – t + 2u = 0
x + 2y – z + t – 2u = 0.
Les solutions :
L'intersection est encore un sous-espace de dimension 1, engendré par le
vecteur :
(2, 2, 5, 3, 2).
4) Règle générale : l'intersection étant contenu dans chacun des sousespaces vectoriels E et F, sa dimension est au plus la plus petite des
dimensions de E et de F.
Si un sous-espace est défini par des générateurs, sa dimension est au plus
égale au nombre de générateurs. S'il est défini par p équations dans un
espace ambiant de dimension n, il est de dimension au moins n – p.
Par ailleurs, en raison de la relation sur les dimensions, l'intersection a pour
dimension :
dim(E) + dim(F) – dim(E + F)
et comme E + F est un sous-espace vectoriel de l'espace ambiant, dont la
dimension est notée n, dim(E + F) ≤ n, donc l'intersection a au moins pour
dimension :
dim(E) + dim(F) – n.
En résumé :
min(dim(E), dim(F)) ≥ dim(E ∩ F) ≥ dim(E) + dim(F) – n
cas 1. Les sous-espaces E et F sont définis par trois générateurs, donc
leur dimension est au plus 3. Si on vérifie que la dimension est 3, on obtient
:
L'application de la règle donne :
3 ≥ dim(E ∩F) ≥ 1.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
119
cas 2. Ici, E est de dimension au plus 3. Pour F, qui est un noyau, le
théorème du rang indique que sa dimension est au moins 3.
Si on vérifie que E est de dimension 3, l'application de cette règle donne :
3 ≥ dim(E ∩ F) ≥ 1.
cas 3. On obtient encore la même relation, en vérifiant que E et F sont
de dimension 3.
exercice 9-C
La dimension de la somme peut se calculer à partir des dimensions des
espaces et de leur intersection. Dans les cas considérés, les sous-espaces
sont de dimension 3, et leur intersection est de dimension 1, donc la somme
est de dimension 5. Comme il s'agit d'un sous-espace de R5, la somme E +
F est, dans tous les cas, égale à R5.
Une base qui peut être choisie dans chacun de ces cas, est la base
canonique. Nous chercherons toutefois, pour en expliquer la technique,
une base correspondant plus directement aux données.
cas 1. On dispose directement d'une famille génératrice de E + F, en
réunissant les familles génératrices de E et de F. Cette famille génératrice
comporte 6 éléments. On sait qu'il y en a au plus 5 indépendants, puisque
l'espace ambiant est de dimension 5. Il s'agit donc d'un exercice du type de
l'exercice 7 (sous-espace donné par des générateurs).
Élimination d'un vecteur : insistons sur le fait qu'il ne faut pas procéder au
hasard, mais éliminer un vecteur qui s'exprime en fonction des autres
vecteurs.
On a vu que
12 V2 + 4 V3 – 8 W1 + 4 W2 +4 W3 = 0
donc on peut éliminer un quelconque des cinq vecteurs figurant dans cette
égalité, par exemple W3.
Les autres vecteurs forment une base de E + F.
cas 2, cas 3. Dans ces deux cas, il faut d'abord se ramener au cas 1, en
explicitant une base des sous-espaces donnés par des équations.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
120
exercice 10-C
1) En dimension finie, on cherche une base d'un supplémentaire d'un sousespace connu par le procédé de la base complémentaire : partant d'une base
du sous-espace, on la complète à l'aide d'éléments d'une base (ou même
d'une famille génératrice) de l'espace ambiant. Ici, on dispose donc de la
base canonique de R5.
Le problème est de vérifier, à chaque pas, si le nouveau vecteur est une
combinaison linéaire de ceux déjà retenus.
E = vect((1, 2, 1, – 1, 0), (0, 0, 1, 2, 1), (0, 1, – 1, 0, 2)).
essai de e1 = (1, 0, 0, 0, 0).
Ce vecteur est indépendant des trois vecteurs de base de E, comme on le
voit sans calcul sur la première coordonnée.
essai de e2 = (0, 1, 0, 0, 0).
On vérifie sans peine que ce vecteur est indépendant des quatre premiers,
donc on conclut que le sous-espace vect(e1, e2) est un supplémentaire du
sous-espace E dans R5.
E = {(x, y, z, t, u) | x + y – z – t + 2u = 0, x + 2y – z + t – 2u = 0}.
On a calculé ci-dessus une base.
E = vect((3, – 2, 0, 1, 0), (1, 0, 1, 0, 0), (– 6, 4, 0, 0, 1)).
essai de e1 = (1, 0, 0, 0, 0).
Ce vecteur est indépendant des trois vecteurs de base de E.
essai de e2 = (0, 1, 0, 0, 0).
On vérifie que ce vecteur est indépendant des quatre premiers, donc on
conclut que le sous-espace vect(e1, e2) est un supplémentaire du sousespace E dans R5.
QC-1) Faut-il s'étonner de ce résultat : les deux sous-espaces, quoique
différents, ont en commun un même supplémentaire. Donner une réponse
s'appuyant sur la théorie, et, si possible, une autre plus intuitive.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
121
Connaissant la dimension d'un sous-espace, on peut en déduire par
différence la dimension d'un supplémentaire, donc le nombre de vecteurs
de base à trouver.
De façon générale, il est utile de connaître d'abord une base du sous-espace
E avant d'en chercher un supplémentaire.
2)
2-1) Si K = T, l'image de f est {0}, alors que l'hypothèse précise que f est
surjective, donc Im(f) = R.
2-2) Montrons d'abord que K + vect(V) = T. Comme V n'appartient pas à
K, on sait que f(V) ≠ 0. Notons a ce réel.
Soit b un réel quelconque :
b=
b 
b
b
a = f(V) = f  V .
a 
a
a
On voit que tout réel est l'image d'un vecteur de vect(V).
Soit U un vecteur de T, d'après la remarque précédente, on voit qu'il existe
un vecteur de vect(V), soit αV, tel que f(U) = f(αV).
On en déduit :
f(U – αV) = 0,
donc U – αV est un élément du noyau, soit W :
U = αV + W.
Montrons maintenant que la somme est directe : si H est un vecteur de
vect(V) qui appartient au noyau, d'une part f(H) = 0, et d'autre part, il existe
un réel σ tel que H = σV, donc f(H) = σf(V) = 0, et comme f(V) ≠ 0, on a
σ = 0, donc H = 0.
2-3) En dimension finie, on peut prendre T = R2[X], et f(P) = P(0).
En dimension non finie, on prendra R[X] et l'application définie encore
par f(P) = P(0).
Bien entendu, ce ne sont que deux exemples parmi une infinité de
possibles.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
122
(QC-2) En dimension finie, traiter la question par des arguments de
dimension.
exercice 11-C
1) Les deux points sont sans difficulté. Toute matrice est, bien entendu,
combinaison linéaire des matrices élémentaires, et cette famille est libre :
(ai, j )= ∑ a ijEij.
1≤i≤n
1≤ j≤n
Le coefficient d'indices (α, β) du produit P des matrices Eij, et Ekm, s'écrit
:
t= n
Pαβ =
∑ (E ) (E
t=1
ij αt
)
km tβ .
Si α ≠ i, ou β ≠ m, tous les termes de cette somme sont nuls.
Si α = i et β = m, la somme s'écrit :
t=n
Pim =
∑ (E ) (E
t =1
ij it
)
km tm
donc si j = k, il y a un unique terme non nul dans la somme, le produit
(Eij)ij(Ejm)jm, qui vaut 1, et si j ≠ k, tous les produits figurant dans la somme
son nuls, puisqu'un des facteur au moins est nul.
On en déduit :
EijEjm = Eim,
EijEkm = 0, si j ≠ k.
2)
La relation AM = MA, pour une matrice M, est linéaire.
Si A est une matrice du centre, alors AE = EA pour toute matrice
élémentaire E.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
123
Réciproquement, si cette relation est vraie pour toute matrice élémentaire,
elle est vraie pour toute combinaison linéaire de matrices élémentaires,
c'est-à-dire pour toute matrice.
En préliminaire, on peut calculer les produits D = AEij et G = EijA pour
une matrice A quelconque.
Pour AEij, il est clair que les (j – 1) premières colonnes sont nulles, ainsi
que les (j + 1) dernières : Dkp = 0 si p ≠ j.
Pour un terme de la j-ième colonne on trouve :
Dkj = ak1(Eij)1j + … + akn(Eij)nj
Dkj = aki.
De manière imagée, ce produit à droite "extrait" la i-ième colonne de A, et
la place en j-ième colonne.
On montrerait de même que le produit à gauche "extrait" la j-ième ligne
de A et la place en i-ième ligne, le reste étant 0 :
Gik = ajk,
Gpk = 0 si p ≠ i.
Si le produit à gauche est égal au produit à droite, on trouve :
Gpk = Dpk,
donc tous les termes, sauf peut-être celui pour lequel p = i et k = j sont
nuls.
Gij = Dij
ajj = aii
apk = 0 si p ≠ k
En résumé, dans la colonne i, tous les termes non situés dans la diagonale
sont nuls, et de même pour les termes de la ligne j. De plus, les termes
diagonaux sont les mêmes. (Voir calcul de G – D ci-dessus).
Une matrice qui commute avec toutes les matrices élémentaires est donc
une matrice scalaire, c'est-à-dire de la forme λI, I étant la matrice identité.
Réciproquement, il est évident que ces matrices sont dans le centre.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
124
Zn = {λIn | λ ∈ R}.
3) L'application qui à une matrice M associe la matrice AM – MA est
clairement linéaire, et C(A) est son noyau. C'est bien un sous-espace
vectoriel.
Dans une base formée des matrices élémentaires, les équations qui
définissent le centralisateur sont :
 x y
 a b
M =
, A = 
,
 z t
 c d
ax + bz = ax + cy
cx + dz = az + ct
ay + bt = bx + dy
cy + dt = bz + dt.
Après simplification, le système devient :
cx + (d − a )z − ct = 0
−bx + (a − d)y + bt = 0
−cy + bz = 0.
Supposons c ≠ 0,
cx + (d − a )z − ct = 0
−cy + bz = 0
−bx + (a − d)y + bt = 0
Le système est équivalent à :
cx + (d – a)z – ct = 0
– cy + bz = 0.
L'ensemble des solutions est donc de dimension 2, dépendant des deux
paramètres z et t.
Si c = 0, le système devient :
(d − a)z = 0
bz = 0
−bx + (a − d)y + bt = 0.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
125
Dans ce cas, si d ≠ a, alors z = 0, et y s'exprime en fonction de deux
paramètres arbitraires x et t. L'ensemble des solutions est de dimension 2.
Si d = a, et b ≠ 0, on obtient :
z = 0, x = t, y arbitraire,
donc la dimension est 2.
Enfin si d = a, c = 0, b = 0, alors le système est trivial, et l'ensemble des
solutions est de dimension 4. Notons que ce cas est exclu par l'hypothèse
précisant que A n'est pas une matrice scalaire.
Il est évident que les matrices I et A sont dans le centralisateur de A.
d'après l'hypothèse, A n'est pas proportionnelle à I donc ces deux matrices
sont indépendantes. La dimension étant 2, cette famille libre de deux
éléments est une base.
Il est clair que toute puissance de A commute avec A, donc est une
élément du centralisateur de A. Toute puissance de A est donc
combinaison linéaire de A et I :
A2 = αA + βI,
soit :
 a 2 + bc b(a + d)
 a b
2
A =
,
 , A = 
2
 c d
 c(a + d) bc + d 
a 2 + bc = αa + β
b(a + d) = αb
c(a + d) = αc
bc + d 2 = αd + β
d'où on déduit d'abord α = a + d, β = bc – ad, et :
A2 = (a + d)A + (bc – ad)I.
Pour A3, on obtient :
A3 = (a + d)A2 + (bc – ad)A
A3 = (a + d)[(a + d)A + (bc – ad)I] + (bc – ad)A
A3 = [(a + d)2 + (bc – ad)]A + (a + d)(bc – ad)I.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
126
exercice 12-C
1) Il est clair que le groupe linéaire n'est pas un sous-espace vectoriel :
par exemple, il ne contient pas l'élément neutre. En effet la matrice 0 n'est
pas inversible.
Si i ≠ j, la matrice I + Eij est triangulaire, et sa diagonale est formée de
1, donc son déterminant vaut 1, elle est bien inversible.
Pour I + Eii, c'est une matrice diagonale, dont tous les termes de la
diagonale valent 1 sauf un, qui vaut 2, donc son déterminant est 2. Elle est
également inversible.
Supposons d'abord i = j. La matrice diagonale I + Eii a pour inverse la
1
2
matrice I − E ii , d'après le point précédent.
Pour i ≠ j, cherchons s'il est possible de trouver α tel que :
(I + Eij)(I + αEij) = I.
Cette équation s'écrit :
I + (α + 1)Eij + αEij2 = I.
Or Eij2 = 0 si i ≠ j, donc il faut résoudre :
(α + 1)Eij = 0,
d'où la solution évidente α = – 1.
Une matrice du centralisateur de GLn(R) commute avec les matrices de
la forme I + Eij, soit :
M(I + Eij) = (I + Eij)M
MEij = EijM,
donc les matrices du centralisateur du groupe linéaire commutent avec les
matrices élémentaires, donc avec toutes les matrices : ce sont les matrices
scalaires :
C(GLn(R)) = Zn.
2)
Cette matrice A a pour polynôme caractéristique :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
127
1 – X2,
donc, d'après le théorème de Cayley-Hamilton, A2 = I, cette matrice est
donc sa propre inverse.
Le déterminant de P est 1.
On peut le calculer par combinaison de lignes :
L2 + L1, puis L3-L1, donnent, sans changer le déterminant :
Ensuite L4-L2,
D'où le résultat.
Pour l'inverse, on résout le système Y = PX, soit, avec les notations
évidentes :
y1 = x1 + x2 − x4
y 2 = −x 1 + x 3 − x 4
y3 = x1 + x 2 − x3
y4 = x2 − x3 + x4 .
On obtient en identifiant les coefficients avec ceux de la matrice inverse,
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
 −1

−1  1
P =
0

 −1
128
−2 

0 −1 1 
.
1 1 −1

1 2 −1
1
3
Attention, dans cette opération, à l'ordre des termes yi au second membre.
3)
Une matrice nilpotente d'indice 1 est la matrice nulle. On peut trouver
des matrices nilpotentes d'indice 2 (non nulles, de carré nul) par
tâtonnement, ou à partir des relations que les coefficients doivent
satisfaire :
 a 2 + bc b(a + d)
 a b
2
A =
 ,
 , A = 
2
 c d
 c(a + d) d + bc 
a2 + bc = 0
b(a + d) = 0
c(a + d) = 0
d 2 + bc = 0.
On voit ainsi que si b = 0, alors a = d = 0, et c est quelconque, et de manière
analogue si c = 0, alors a = d = 0 et b est quelconque.
Deux exemples :
0
A1 = 
0
0
A2 = 
1
1
,
0
0
,
0
on peut aussi prendre a = – d = b = – c, par exemple :
 1 1
A3 = 
,
 −1 −1
on peut enfin utiliser la relation établie dans l'exercice 11 :
A2 = (a + d)A + (bc – ad)I.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
129
Si A2 = 0 :
(a + d)A + (bc – ad)I = 0,
ce qui permet de retrouver les exemples à partir de :
a+d=0
bc – ad = 0.
3
Si A = 0 :
[(a + d)2 + (bc – ad)]A + (a + d)(bc – ad)I = 0
(a + d)2 + (bc – ad) = 0
(a + d)(bc – ad) = 0,
donc a + d = 0 ou bc – ad = 0 d'après la deuxième équation.
Mais la première équation montre que si a + d = 0, alors bc – ad = 0, et
réciproquement.
En conclusion, si A3 = 0, alors a + d = bc – ad = 0. On voit que cela
implique A2 = 0, donc il n'existe pas de matrice (2, 2) d'indice 3.
Il est évident que la matrice 0 est nilpotente, et que le produit d'une
matrice nilpotente par un scalaire est encore une matrice nilpotente. Il reste
à examiner la somme de deux matrices nilpotentes :
 0 1
A1 + A 2 = 

 1 0
 0 1 2  1 0
.

 =
 0 1
 1 0
On voit sur cet exemple que la somme de deux matrices nilpotentes peut
ne pas être nilpotente, et même être inversible.
On conclut que Nn(R) n'est pas un sous-espace vectoriel.
On considère une équation :
α 0V + α1PV + … + α k −1P k −1V = 0.
Appliquons Pk-1 :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
130
α 0P k −1V + α1P kV + …+ α k−1P 2k −2 V = 0
α 0 P k−1V = 0,
puisque Pk = 0, et on déduit α0 = 0. De proche en proche, on voit que tous
les coefficients de la combinaison linéaire sont nuls, et que la famille est
bien libre.
Il s'agit d'une famille libre de k éléments dans un espace vectoriel de
dimension n, donc k ≤ n. On avait déjà constaté qu'il n'existe pas de matrice
(2, 2) nilpotente d'indice supérieur à 2.
On considère une équation :
α1,0V1 + α1,1PV1 +…+ α r,k −1P k −1Vr = 0
et on applique la même technique, en appliquant d'abord Pk-1 :
α1,0 P k−1V1 + α2, 0 Pk −1V2 +…+ α r, 0P k −1Vr = 0
(
)
P k −1 α1,0 V1 + α2, 0V2 +…+ α r,0 Vr = 0,
donc le vecteur α1,0V1 + α 2, 0V2 + …+ α r,0 Vr est un élément du noyau de
l'application Pk-1. Comme ce vecteur est également, par définition, un
élément d'un supplémentaire de ce noyau, il est nécessairement égal à 0.
En utilisant le fait que les vecteurs V1, …, Vr sont indépendants, on conclut
que les coefficients αi,0 sont tous nuls.
De proche en proche, on vérifie de même que les autres coefficients sont
nuls. La famille est bien libre.
Une sous famille d'une famille libre est libre donc la famille :
PV1, P 2 V1 … Pk −1Vr
est bien libre. C'est évidemment une famille de vecteurs de Ker(Pk-1).
Complétons-là comme indiqué, par des vecteurs W1, …, Ws en une base
de ker(Pk-1). La matrice de P s'écrit dans cette base sous une forme du type
suivant :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6













0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
131
a4 

b1 b2 b3 b4







y1 y2 y3 y4

z1 z2 z3 z4 
a1
a2
a3
les premières colonnes correspondant aux vecteurs de la famille ci-dessus,
et les dernières aux vecteurs Wi.
(La matrice ci-dessus suppose, à titre d'exemple, n = 8, P2 = 0, r = 2, s = 4).
exercice 13-C
1) Pour une matrice symétrique, les relations à vérifier sont :
 a b t
 a c
A =
, A = 
,
 c d
 b d
a =a
b=c
c= b
d =d
donc les matrices symétriques sont de la forme :
 a b
A =
.
 b d
De la même façon, on voit que les matrices antisymétriques sont de la
forme :
 0 −b
A =
.
b 0 
Pour les matrices orthogonales, on doit vérifier A.tA = I, et tA.A = I :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
132
a2 + b 2 =1
c2 + d 2 = 1
a 2 + c2 = 1
b2 + d2 = 1
ab + cd = 0
ac + bd = 0.
Il en résulte immédiatement :
a 2 = d2
c 2 = b2
et il faut discuter différents cas selon que :
a = d ou a = – d, b = c ou b = – c.
a = d = 0, b = 1 ou – 1, c = 1 ou – 1 :
 0 1   0 −1  0 1  0 −1

, 
, 
, 
.
 1 0   1 0   −1 0  −1 0 
b = c = 0, a = 1 ou – 1, d = 1 ou – 1 :
 1 0  1 0 

, 
,
 0 1   0 −1
 −1 0  −1 0 

, 
.
 0 1  0 −1
On suppose maintenant qu'aucune des inconnues n'est nulle.
a = d, donc par simplification b = – c = 1− d 2 , ou − 1 − d 2 :

d


2
 − 1− d

1− d 2 
,
d 

 d

2
 1− d

− 1− d 2 
.
d

a = – d, donc par simplification b = c = 1− d 2 , ou − 1 − d 2 :

 −d

2
 − 1− d

− 1 − d2 
,
d


 −d

2
 1− d
☺ indications pour résoudre - méthode -

1− d 2 
.
d 
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
133
(QC-1) Les deux premiers cas particuliers se retrouvent-ils dans les
formes générales ci-dessus ?
(QC-2) Remarquer d'après ces relations qu'il existe des réels α et β tels
que a = cos(α), c = sin(α), b = cos(β), d = sin(β). Quelle relation y-a-t-il
entre α et β ?
2) Les matrices symétriques et les matrices antisymétriques forment
clairement des sous-espaces vectoriels :
  1 0  0 1   0 0  
S(2) = vect  
, 
, 
  ,
  0 0  1 0   0 1  
  0 1 
A(2) = vect  
  .
  −1 0 
Leurs dimensions sont donc respectivement 3 et 1.
De façon générale, la transposition étant une opération linéaire, on voit que
S(n) est le noyau de l'application linéaire M →M – tM, et A(n) est le noyau
de l'application linéaire M → M + tM. Ce sont des sous-espaces vectoriels.
Bien entendu, O(n) n'est pas un sous-espace vectoriel puisqu'il ne contient
pas la matrice nulle, qui n'est pas inversible.
3) Si M appartient à l'intersection de A(n) et de S(n), elle vérifie :
M = tM, et M = – tM,
donc M = 0.
Soit A une matrice carrée quelconque. On vérifie facilement que les
matrices :
s(A) =
(
)
(
)
1
1
A+ t A , et a(A) = A− t A
2
2
sont respectivement symétrique et antisymétrique, et que leur somme est
la matrice A. On vérifie donc que toute matrice est somme d'une matrice
symétrique et d'une matrice antisymétrique. Les sous-espaces S(n) et A(n)
sont donc bien supplémentaires.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
134
4) Si on représente un vecteur par une matrice colonne, on voit qu'on a
l'égalité entre matrices à une ligne et une colonne :
tV.V' = (<V , V'>)
Le produit scalaire de A.V et A.V' se calcule donc par :
t(A.V).(A.V') = tV.tA.A.V',
donc, puisque tA.A = I :
t(A.V).(A.V') = tV.V',
<A.V , A.V'> = <V , V'>.
2
On remarque que ||V|| = <V , V>, donc :
||A.V|| = ||V||.
exercice 14-C
1) On calcule l'image de chaque vecteur de base, et on dispose ses
coefficients en colonnes :
1

0
0

0
0 0 0

1 0 0
.
0 0 0

1 0 0
Le noyau se calcule comme on l'a vu précédemment : on constate qu'il est
de dimension 2, engendré par X2, et X3.
On sait que l'image est engendrée par les vecteurs colonnes de la matrice,
soit (1, 0, 0, 0) et (0, 1, 0, 1), c'est-à-dire 1 et X + X3.
2) On considère comme d'habitude une combinaison linéaire :
α s1 + β s2 + χ c1 + δ c2 = 0,
α sin(x)ex + β sin(x)e2x + χ cos(x)ex + δ cos(x)e2x = 0,
pour tout x.
Pour x = 0, on obtient :
χ + δ = 0,
pour x = π :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
135
– χeπ – δe2π = 0,
donc χ = δ = 0.
Il reste à résoudre :
α sin(x)ex + β sin(x)e2x = 0, ∀ x
ce qui implique :
α ex + β e2x = 0,
si sin(x) ≠ 0, et même pour tout x par continuité.
Pour x = 0, on obtient :
α + β = 0,
et après dérivation, pour x = 0 :
α + 2β = 0,
donc α = β = 0. La famille est bien libre.
Les formules usuelles de dérivation donnent :
D(s1) = c1 + s1
D(c1) = – s1 + c1
D(s2) = c2 + 2s2
D(c2) = – s2 + 2c2.
L'application D est bien un endomorphisme de E. Sa matrice s'écrit, dans
la base (s1, c1, s2, c2) :
 1 −1 0 0 


1 1 0 0 
A =
.
0 0 2 −1


0 0 1 2 
Son déterminant est 10, donc la matrice est inversible.
Son inverse est :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
136
L'application réciproque de D permet de calculer une primitive de tout
élément de E :
 α1 + β1 
x  −α +β 
x

 cos(x)e +  1 1  cos(x)e +
 2 

2

 2α 2 + β2 
2 x  −α 2 + 2β 2 
2x

 cos(x)e + 
 cos(x)e .
5
5




3) La matrice P a pour colonnes les coordonnées des vecteurs de la seconde
base rapportés à la première :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
137
Les coordonnées de H dans l'ancienne base sont (a, b, c, d). Pour obtenir
les coordonnées dans la nouvelle base, on effectue le produit par Q :
On trouve :
H = (a + b + c + d) + (b + 2c + 3d) (X – 1) + (c + 3d) (X – 1)2 + d (X – 1)3
ce qui correspond bien à la formule de Taylor en 1 :
H(X) = H(1) + H ′(1)(X −1) +
H′′(1)
H ′′′(1)
(X −1) 2 +
( X −1)3.
2
6
Le calcul dans la base B1 donne la matrice F suivante (les vecteurs
colonnes sont les coordonnées des transformés des vecteurs de base par f),
on a ensuite calculé la matrice (notée G) dans la nouvelle base, par
composition avec les matrices P et Q, enfin l'image des vecteurs de la
nouvelle base permet de retrouver G, qui est plus simple que F :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
138
exercice 15-C
Les calculs ci-dessus se lisent de la manière suivante :
le polynôme caractéristique est -T3 + 6 T2 - 11 T + 6,
il a pour racines 1, 2, 3
soit trois racines distinctes, donc A est diagonalisable, une base de vecteurs
propres est donnée par le dernier calcul, par exemple :
pour la valeur propre 2, la multiplicité est 1, et un vecteur propre est
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
139
( 1, - 1, 0).
Les autres résultats sont donnés sans commentaire.
Pour B :
Pour C :
Pour les matrices (4, 4) :
Pour D :
Pour E :
Pour F :
Pour G :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
140
Pour E, F, G, certaines valeurs propres sont multiples, et on vérifie que la
dimension du sous-espace propre correspondant est égale à la multiplicité
de la valeur propre.
2) On interprète les matrices comme représentant les applications linéaires
de Cn dans lui-même, par rapport à la base canonique.
La matrice A est diagonalisable.
2-1) Il est clair que toutes les matrices diagonales commutent entre elles,
donc les matrices diagonales appartiennent à C(A). Réciproquement si M
est une matrice de C(A), soit ap un élément de la diagonale de A, dans la
colonne p. Notons Vp le vecteur de la base canonique correspondant :
AVp = ap Vp
MAVp = ap (MVp) = A(MVp)
donc MVp est un vecteur propre pour la valeur propre ap, donc MVp est
proportionnel à Vp (puisque chaque sous-espace propre de A est de
dimension 1). On déduit que Vp est également vecteur propre pour M.
La base (Vp) est donc une base de vecteurs propres pour M, donc M est
diagonale.
2-2) Le raisonnement précédent s'applique à une base quelconque de
vecteurs propres pour A, bien entendu. Après changement de base, la
matrice transformée de M doit être diagonale, donc M et A sont
simultanément diagonalisables.
2-3) C(A) est bien un sous-espace vectoriel. Si on se place dans une base
où A est diagonale, les matrices de C(A) correspondent à toutes les
matrices diagonales. Or l'espace vectoriel des matrices diagonales est de
dimension n. Donc dim(C(A)) = n.
Les puissances de A sont des éléments de C(A). Pour montrer que la
famille I, A, …, An-1 est une base de A, il suffit de montrer qu'elle est libre
ou génératrice.
S'il existait une combinaison linéaire de A nulle, avec au moins un
coefficient non nul :
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
141
α0I + … + αn-1An-1 = 0,
le polynôme minimal de A serait de degré au plus n – 1. Or ce polynôme
est égal au polynôme caractéristique (ou à son opposé), donc il est de degré
n. La famille I, A, …, An-1 est libre.
2-4) Plaçons-nous dans le cas où A est diagonale.
Le calcul précédent s'applique en partie :
AVp = ap Vp
MAVp = ap (MVp) = A(MVp)
donc MVp est un vecteur propre pour la valeur propre ap, donc MVp est
proportionnel à Vp.
Sauf la partie barrée, bien entendu, si ap n'est pas une valeur propre simple.
Cherchons donc un contre-exemple : il suffit de prendre A = I, et toutes les
matrices commutent avec I.
3) On raisonne sur le polynôme minimal. C'est un diviseur du polynôme :
Xp – 1,
or ce polynôme a toutes ses racines simples sur C :
2i(p −1)π 
 2 iπ


p
1, e ,…, e p .


Donc la matrice est diagonalisable sur C.
exercice 16-C
1) On donne sans commentaire les valeurs propres et les sous-espaces
propres correspondant. Rappelons qu'une matrice est trigonalisable si et
seulement si son polynôme caractéristique est scindé. On indique comment
interpréter le résultat des calculs pour expliciter une base formée de
vecteurs propres et de vecteurs pseudo-propres.
Matrice A.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
142
Pour A :
Il faut un vecteur pseudo-propre pour la valeur propre 1. On trouve ici, par
exemple :
W3 = (0, 1, 0), soit s = 1.
Avec V1 = (1, - 1, - 1), V2 = (1, – 1, 1), W3, comme nouvelle base, la
matrice A a pour matrice semblable la matrice :
 3 0 0


A ′ =  0 1 1 .


 0 0 1
Bien noter qu'aucun calcul n'est nécessaire, une fois les vecteurs choisis,
pour écrire A´. La diagonale contient les valeurs propres, et pour le vecteur
pseudo-propre, la relation AW3 = W3 + V2 (correspondant à s = 1) donne
la troisième colonne.
Matrice B.
Dans la recherche du vecteur pseudo-propre, l'élimination de Gauss
montre que la condition s = – t doit être remplie. Dans ce cas, on peut
prendre pour vecteurs de base :
V1 = (0, 0, 1), V2 = (– 1, 1, 0), W3 = (– 1, 0, 0) (avec s = 1).
La matrice semblable est :
 1 0 0


B ′ =  0 1 1 .


 0 0 1
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
143
Matrice C.
On voit, ci-dessous, qu'il faut calculer deux vecteurs pseudo-propres, que
l'on obtient en deux calculs successifs. On peut prendre la base :
V1 = (1, – 2, – 1), W2 = (1, – 1, 0) (s = 1),
W3 = (– 1, 0, 0) (s = 2, t = 0),
CW2 = W2 + V1, CW3 = W3 + W2.
La matrice obtenue est :
 2 1 0


C ′ =  0 2 1 .


 0 0 2
Matrices D et E. La démarche est la même, on donne ci-dessous les
calculs dans Maxima, les bases, et les matrices semblables triangulaires.
Pour D :
V1 = (1, 0, 1, 0), W2 = (0, – 1, 1, – 1) (t = 1)
V3 = (0, 0, 1, - 1), W4 = (– 1, – 1, 0, 0) (t = 2),
 −2 1 0 0 


 0 −2 0 0 
D′ = 
.
0
0 4 2


0 0 4
 0
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
144
Pour E :
V1 = (1, 1, 1, 1), V2 = (1, 0, 1, 0), W3 = (0, 1, – 1, 1) (s = 1)
W4 = (0, 0, 1, – 1) (s = 1, t = 0).
Matrice semblable :
2 0 0 0 


 0 −1 1 0 
E′ = 
.
0 0 −1 1 


 0 0 0 −1
2-1) Le calcul a été fait dans l'exercice précédent. Si V est un vecteur
propre de A pour la valeur propre α, on peut écrire :
AV = α V
BA V = α BV
A(BV) = α (BV)
donc BV est encore un vecteur propre pour la valeur propre α.
2-2) La restriction de B à un sous-espace propre de A est un
endomorphisme de ce sous-espace, il a donc au moins un vecteur propre
dans ce sous-espace. Ce vecteur propre ne correspond pas nécessairement
à la même valeur propre.
2-3) C'est clair d'après la remarque du 2-2). Le nombre β est l'une des
valeurs propres de la restriction de B au sous-espace propre de A.
En réitérant ce raisonnement, on conclut que A et B sont simultanément
trigonalisables.
☺ indications pour résoudre - méthode -
lexique
Daniel Alibert – Cours et Exercices corrigés – Volume 6
145
3-3 Corrigés des questions complémentaires
exercice 1-QC
On retrouve bien les valeurs m = 0 et m = 1 de la discussion.
exercice 2-QC
Dans un espace vectoriel de dimension 3, une famille de 4 éléments est
toujours liée. Le calcul reste indispensable pour trouver une relation de
dépendance entre les vecteurs.
exercice 5-QC
1) Le déterminant du système de 3 équations à trois inconnues qui reste
lorsque la condition est vérifiée est 15, donc non nul, il y a donc une unique
solution.
2) Le noyau et l'image sont égaux, égaux au sous-espace vectoriel :
vect(1, X2),
On en déduit que l'application composée de v avec elle-même est 0.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
146
3) En reprenant le calcul, on voit qu'il reste, dans le système réduit par la
méthode du pivot, une dernière équation à deux inconnues. L'ensemble des
solutions dépendra donc d'un paramètre réel arbitraire.
D'un point de vue théorique, si le système avait une solution unique,
l'application linéaire associée à la matrice des coefficients du système
(premiers membres) serait injective. Or une application injective de R4
dans lui-même est bijective, il devrait donc y avoir une solution pour tout
(a, b, c, d), ce qui n'est pas le cas.
exercice 6-QC
Le polynôme D(m) = 2 + m – 2m2 + m3 change de signe, puisqu'il est de
degré impair, donc il s'annule au moins une fois.
Le tableau de variation est le suivant :
D´(m) = 1 – 4m + 3m2,
qui s'annule pour m = 1 et m = 1/3,
1/3
1
+∞
m
–∞
D´
+
0
–
0
+
D
–∞
2
+∞
Il y a donc une seule racine, inférieure à 1.
exercice 7-QC
Dans R3, quatre vecteurs sont toujours liés, mais le sous-espace aurait pu
avoir une dimension plus petite.
exercice 8-QC
On voit que (b1, b2, b3) = t (– 2, 1, 1), donc :
X = t (–2 W1 + W2 + W3) = (0, – t, – 2t, – 6t, – 5t).
Daniel Alibert – Cours et Exercices corrigés – Volume 6
147
exercice 10-QC
1) On sait, d'après la théorie, qu'un sous-espace vectoriel a, en général, une
infinité de supplémentaires.
Il faut en avoir aussi une idée "intuitive" : dans un plan, par exemple, étant
donnée une droite passant par l'origine, il y a "beaucoup de place" pour
tracer d'autres droites distinctes de la première. Chacune sera un
supplémentaire. Retenir l'idée qu'un sous-espace vectoriel (différent de
l'espace lui-même) est "maigre".
2) Si n = dim(T), alors dim(K) = n – 1. Il est donc clair que K ≠ T. Si V
n'appartient pas à K, l'intersection de vect(V) et de K est le vecteur 0.
De plus la relation sur les dimensions montre que :
dim(vect(V) + K) = 1 + n – 1 = n,
donc vect(V) est un supplémentaire de K.
(Observer comment l'argument de dimension simplifie la preuve).
exercice 13-QC
1) On vérifie que les formules générales contiennent bien les cas
particuliers.
2) La relation ab + cd = 0 donne :
cos(α)cos(β) + sin(α)sin(β) = 0
cos(α – β) = 0.
Donc :
α =β+
π
+ kπ.
2
On obtient deux possibilités :
π
3π
, α=β + .
2
2
 cos(α) sin(α) 
 cos(α) −sin(α)
A1 = 
 , A2 = 
.
 sin(α) −cos(α)
 sin(α) cos(α) 
α =β+
Daniel Alibert – Cours et Exercices corrigés – Volume 6
4
148
Pour Chercher
4-1 Indications pour les exercices (☺)
exercice 1-I
Appliquer la méthode du pivot en évitant, si possible, de diviser par une
expression contenant le paramètre.
exercice 2-I
1) et 2) Écrire l'équation correspondante, résoudre avec la méthode du
pivot.
3) Idem, mais penser que les vecteurs sont des fonctions.
exercice 3-I
1) et 2) Écrire l'équation de dépendance, résoudre (méthode du pivot).
exercice 4-I
1) Technique usuelle : équation caractéristique.
2) Utiliser les bases canoniques pour transformer l'application en l'écrivant
avec les coefficients des polynômes.
3) Écrire, résoudre (pivot) le système d'équations linéaires.
exercice 5-I
1) Écrire u(a, b, c) = (x, y, z), résoudre, et trouver les conditions, sur le
vecteur (x, y, z), pour lesquelles il y a bien une solution.
2) Reprendre le calcul de l'exercice précédent.
3) Même méthode qu'en 1).
Daniel Alibert – Cours et Exercices corrigés – Volume 6
149
exercice 6-I
Chercher l'ensemble des solutions, éventuellement en fonction de
paramètres arbitraires. Déduire les bases.
exercice 11-I
2) Calculer le produit d'une matrice quelconque avec une matrice
élémentaire, à gauche, et à droite.
3) C(A) est un noyau. Résoudre le système en discutant.
exercice 12-I
1) Distinguer i ≠ j et i = j. Calculer le déterminant.
2) Utiliser le théorème de Cayley-Hamilton.
exercice 13-I
4) Écrire le produit scalaire comme le résultat d'un produit de matrices.
exercice 15-I
2) Penser à la dimension du sous-espace des matrices diagonales.
3) Condition nécessaire et suffisante sur les racines du polynôme minimal.
4-2 Méthodes ( )
Mode d'emploi de cette partie : vous trouverez d'abord une liste de
méthodes de résolution des types de questions présentées dans ce
volume ; par commodité, on a précisé ensuite à propos de chaque
exercice où une méthode a été indiquée par ( ) le (ou les) numéro
de la méthode concernée. S'agissant d'un discours sur les
mathématiques, et non d'un discours mathématique, on trouvera
naturel qu'il utilise les abus de langage usuels, les raccourcis
allusifs, et de façon générale qu'il se rapproche d'un discours oral
qui pourrait être tenu devant les étudiants.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
150
1-
Base d'un noyau. C'est le cas d'un sous-espace donné par des
équations.
2-
Base d'un sous-espace donné par équations. Résoudre le système
d'équations, en faisant apparaître d'éventuels paramètres arbitraires.
Séparer, dans l'expression, les différents paramètres. A chacun
correspond un vecteur de base.
3-
Base d'une image. Cas d'un sous-espace donné par des
générateurs.
4-
Base d'un sous-espace donné par générateurs (1). Extraire de la
famille génératrice une base, par élimination progressive des
vecteurs qui s'expriment comme combinaison linéaire des autres,
que l'on conserve. Lorsqu'on ne peut plus rien éliminer, on a obtenu
une base.
5-
Base d'un sous-espace donné par générateurs (2). Compléter
progressivement à partir d'un vecteur non nul pris dans la famille
génératrice, en lui adjoignant d'autres vecteurs de la famille et en
gardant toujours une famille libre. Lorsqu'on ne peut plus compléter,
on a obtenu une base.
6-
Base d'une intersection. Voir exercice 8 pour les 4 cas possibles.
7-
Base d'une somme. Voir exercice 9.
8-
Base d'un supplémentaire. En dimension finie, compléter une base
du sous-espace donné en une base de l'espace, par le procédé de la
Daniel Alibert – Cours et Exercices corrigés – Volume 6
151
base incomplète. Les vecteurs choisis pour compléter forment une
base du supplémentaire.
9-
Calculer l'inverse d'une matrice. Soit par la résolution d'un
système, soit à partir de la connaissance d'un polynôme annulateur.
Voir exercice 12.
10-
Calculer une puissance d'une matrice. Soit par réduction de la
matrice à la forme triangulaire (ou diagonale), puis changement de
base, soit à partir de la connaissance d'un polynôme annulateur. Voir
exemples 114 et 115.
11-
12-
Chercher si une famille finie est dépendante, libre. Poser
l'équation des familles libres αV + βW + γU … = 0. Résoudre en
transformant cette équation en un système d'équations linéaires (cas
de la dimension finie). S'il y a une solution différente de 0, la famille
est dépendante, et on obtient des relations, sinon, elle est libre.
Chercher si une famille est génératrice. Pour un vecteur
quelconque X, poser l'équation :
X = αV + βW + γU …
et voir si elle a une solution sans condition sur X. Dans ce cas la
famille est génératrice.
13-
Diagonaliser une matrice carrée. Voir page 27.
14-
Trigonaliser une matrice carrée. Voir page 28.
15-
Utiliser la dimension finie. Dans un espace de dimension n, pour
vérifier qu'une famille de n éléments est une base de E, il suffit de
vérifier soit qu'elle est libre, soit qu'elle est génératrice.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
16-
152
Utiliser la dimension finie. Dans un espace de dimension n, il est
équivalent, pour un endomorphisme, d'être
injectif, surjectif, ou bijectif.
Les méthodes dans les exercices :
ex. 2 : 11
ex. 5 : 3
ex. 8 : 6
ex. 12 : 9
ex. 3 : 11
ex. 6 : 2, 12, 15
ex. 9 : 7
ex. 15 : 13
ex. 4 : 1
ex. 7 : 4, 5, 15
ex. 10 : 8, 16
ex. 16 : 16
Daniel Alibert – Cours et Exercices corrigés – Volume 6
4-3 Lexique (
153
)
A
Application linéaire : une application d'un espace vectoriel dans un autre
qui vérifie f(x + y) = f(x) + f(y) et f(a.x) = a.f(x) pour tout vecteur x,
tout vecteur y et tout scalaire a.
B
Base : une famille est une base d'un espace vectoriel E si elle est libre, et
génératrice pour E.
C
Coordonnées : étant donnée une base, un vecteur s'écrit, de manière
unique, comme combinaison linéaire des vecteurs de base. Les
coefficients de cette combinaison linéaire sont les coordonnées du
vecteur sur la base.
D
Dépendante : pour une famille, synonyme de liée.
Dimension : dans un espace vectoriel ayant une famille génératrice finie,
toutes les bases ont le même nombre d'éléments, qui s'appelle la
dimension de l'espace vectoriel.
E
Engendrer : une famille engendre l'espace vectoriel E si cette famille est
génératrice pour E.
Endomorphisme : application linéaire d'un espace vectoriel dans luimême.
G
Génératrice : une famille de vecteurs est génératrice pour un espace
vectoriel E si tout vecteur de E est combinaison linéaire des vecteurs
de cette famille.
I
Indépendante : pour une famille, synonyme de libre.
Daniel Alibert – Cours et Exercices corrigés – Volume 6
154
Image (d'une application linéaire) : ensemble des images des vecteurs
de l'espace de départ par cette application.
L
Libre : une famille de vecteurs est libre si aucun d'entre eux n'est
combinaison linéaire des autres.
Liée : une famille est liée si elle n'est pas libre.
Linéaire : une application
N
Noyau (d'une application linéaire) : ensemble des vecteurs dont l'image
est égale à 0.
P
Passage (matrice de) : si B1 et B2 sont des bases d'un espace vectoriel, la
matrice de passage de B1 à B2 a pour colonnes les coordonnées des
vecteurs de B2 dans la base B1 (cf. p.20).
R
Rang (d'une application linéaire) : dimension de l'image de cette
application linéaire (si elle est de dimension finie).
S
Somme (de sous-espaces vectoriels) : la somme de F et G est l'ensemble
des vecteurs qui sont la somme d'un vecteur de F et d'un vecteur de
G.
Somme directe : la somme de F et G est directe si l'intersection de ces
deux sous-espaces vectoriels est {0}.
Supplémentaire (d'un sous-espace vectoriel) : si la somme des sousespaces F et G de E est directe, et si F + G = E, les sous-espaces F et
G sont supplémentaires.
Téléchargement