Cours d'algèbre linéaire Yannick Henrio 5 mars 2013 2 Table des matières 1 L'espace vectoriel Rn 1.1 1.2 1.3 1.4 Rn est un espace vectoriel sur Combinaisons linéaires . . . . Sous-espaces vectoriels de Rn Exercices du chapitre 1 . . . . R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dénition d'une matrice . . . . . . . . . . . . . . . . . Opérations élémentaires sur les lignes d'une matrice . Matrices échelonnées . . . . . . . . . . . . . . . . . . . Echelonnement d'une matrice . . . . . . . . . . . . . . 2.4.1 Enoncé du théorème d'existence . . . . . . . . 2.4.2 Méthode du pivot de Gauss . . . . . . . . . . . 2.4.3 Rang d'une matrice . . . . . . . . . . . . . . . Réduction d'une matrice échelonnée . . . . . . . . . . 2.5.1 Existence et unicité d'un échelonnement réduit 2.5.2 Méthode de réduction d'une matrice échelonnée Exercices du chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 La méthode du pivot de Gauss 2.1 2.2 2.3 2.4 2.5 2.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Résolution des systèmes linéaires 3.1 3.2 3.3 3.4 3.5 Généralités sur les systèmes linéaires . . . . . . . . . . . . . . . 3.1.1 Matrices associées à un système . . . . . . . . . . . . . . 3.1.2 Ensemble des solutions d'un système . . . . . . . . . . . Description de l'ensemble des solutions d'un système linéaire . Structure de l'ensemble des solutions d'un système . . . . . . . 3.3.1 Le cas particulier d'un système homogène : Noyau d'une 3.3.2 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . Quelques conséquences de la structure des solutions . . . . . . Exercices du chapitre 3 . . . . . . . . . . . . . . . . . . . . . . . 4 Familles de vecteurs de 4.1 4.2 4.3 4.4 4.5 4.6 4.7 Rn Généralités sur les familles de vecteurs de Rn . . . . . . . . Matrice d'une famille de vecteurs dans une base . . . . . . . Dimension d'un sous-espace vectoriel de Rn . . . . . . . . . Calcul d'une base de l'image d'une matrice et interprétation Compléter une famille libre en une base . . . . . . . . . . . Le théorème du rang . . . . . . . . . . . . . . . . . . . . . . Exercices du chapitre 4 . . . . . . . . . . . . . . . . . . . . . 3 . . . . . . du . . . . . . . . . . . . . . . . . . . . 1 1 1 2 3 5 5 5 6 6 6 7 7 8 8 8 9 11 11 11 12 12 14 14 14 15 16 17 17 18 19 19 20 20 21 4 TABLE DES MATIÈRES 5 Matrices 5.1 5.2 5.3 5.4 5.5 Mn,p est un espace vectoriel . . . . . . . . . . . . . . . . . Produit de deux matrices . . . . . . . . . . . . . . . . . . Matrices carrées inversibles . . . . . . . . . . . . . . . . . 5.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . 5.3.2 Matrice d'une opération élémentaire sur les lignes . 5.3.3 Critères d'inversibilité . . . . . . . . . . . . . . . . 5.3.4 Calcul de l'inverse : Méthode de Gauss-Jordan . . Calcul de l'image d'une matrice . . . . . . . . . . . . . . . Exercices du chapitre 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Espaces vectoriels de dimension nie et applications linéaires 6.1 6.2 Dimension nie . . . . . . . . . . . . . . 6.1.1 Généralités . . . . . . . . . . . . 6.1.2 Matrice d'une famille de vecteurs 6.1.3 Matrices de passage . . . . . . . Applications linéaires . . . . . . . . . . . 6.2.1 Généralités . . . . . . . . . . . . 6.2.2 Cas des dimensions nies . . . . . . . . . . dans . . . . . . . . . . . . . . . . . . . . . . . . une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 23 25 25 25 26 26 27 27 29 30 30 31 31 32 32 33 Chapitre 1 L'espace vectoriel Rn Soit n ≥ 1 un entier. On rappelle que Rn est l'ensemble des suites de réels ~u = (x1 , . . . , xn ). Les éléments de Rn seront appelés vecteurs de longueur n. Le réel xi est appelé i-ième coordonnée canonique du vecteur ~u. On notera ~0n = (0, . . . , 0) le vecteur nul de longueur n. 1.1 Rn est un espace vectoriel sur R. Soient ~u = (x1 , . . . , xn ) et ~v = (y1 , . . . , yn ) des vecteurs de Rn , et α un réel. On note ~u + ~v = (x1 + y1 , . . . , xn + yn ) On dénit ainsi une addition R × Rn (α, ~u) et α.~u = (α.x1 , . . . , α.xn ) R n × Rn → Rn et une action des scalaires sur les vecteurs (~u, ~v ) 7→ ~u + ~v → Rn . Ces opérations satisfont les 7→ α.~u Propriétés 1. (Rn , +, .) est un espace vectoriel sur R. Autrement dit, si ~u, ~v et w~ sont des vecteurs de Rn , et si α et β sont des scalaires, alors les assertions suivantes sont satisfaites : [EV1] [EV2] [EV3] [EV4] [EV5] [EV6] [EV7] [EV8] (~u + ~v ) + w ~ = ~u + (~v + w) ~ ~u + ~v = ~v + ~u ~u + ~0p = ~0p + ~u = ~u ~u + (−1).~u = ~0p α.(~u + ~v ) = α.~u + α.~v (α + β).~u = α.~u + β.~u (αβ).~u = α.(β.~u) 1.~u = ~u 1.2 Combinaisons linéaires Dénition 1. Soit p ≥ 1 un entier. Considérons une famille nie F = (~u1 , . . . , ~up ) de vecteurs de Rn . Une combinaison linéaire de la famille F est un vecteur de la forme p X αk .~uk = α1 .~u1 + · · · + αp .~up , k=1 1 avec (α1 , . . . , αp ) ∈ Rp 2 CHAPITRE 1. L'ESPACE VECTORIEL RN On note vect (F) l'ensemble des combinaisons linéaires de la famille F . Par convention, on pose également vect (∅) = {~0n }. vect (F) = { ~v ∈ Rn : ∃(α1 , . . . , αp ) ∈ Rp ~v = p X αk .~uk } k=1 Exemple 1. Si 1 ≤ i ≤ n, notons ~ei = (0, . . . , 0, 1, 0, . . . , 0) le vecteur de Rn dont toutes les coordonnées canoniques sont nulles, sauf la i-ième qui vaut 1. Si x1 , . . . , xn sont des réels, alors (x1 , . . . , xn ) = n X xi .~ei . On en déduit que tout vecteur de Rn est de manière unique combinaison i=1 linéaire de la famille (~e1 , . . . , ~en ). On appelle cette famille la base canonique de Rn . Exemple 2. Notons (~e1 , . . . , ~en ) la base canonique de Rn . Si 1 ≤ k ≤ n, alors vect (~e1 , . . . , ~ek ) = { (x1 , . . . , xn ) ∈ Rn : xk+1 = · · · = xn = 0 } En eet, si (α1 , . . . , αk ) ∈ Rk , alors k X αi .~ei = (α1 , . . . , αk , 0, . . . , 0), donc i=1 k X αi .~ei ∈ { (x1 , . . . , xn ) ∈ Rn : xk+1 = · · · = xn = 0 } i=1 Réciproquement, si ~u = (x1 , . . . , xn ) ∈ Rn satisfait xk+1 = · · · = xn = 0, alors ~u = (x1 , . . . , xk , 0, . . . , 0) = k X xi .~ei ∈ vect (~e1 , . . . , ~ek ) i=1 1.3 Sous-espaces vectoriels de Rn Un sous-espace trois conditions : ~0n ∈ V . [SEV1] vectoriel (parfois noté sev) de Rn [SEV2] ∀~u ∈ V ∀~v ∈ V (~u + ~v ) ∈ V [SEV3] ∀α ∈ R ∀~u ∈ V (α.~u) ∈ V est une partie V de Rn satisfaisant les Exemple 3. Rn est clairement un sous-espace vectoriel de Rn . L'ensemble {~0n } est lui aussi un sous-espace vectoriel de Rn . Proposition 1. Soit V un sous-espace vectoriel de Rn . Soit (~u1 , . . . , ~up ) une famille de vecteurs de V . Toute combinaison linéaire de la famille (~u1 , . . . , ~up ) appartient à V . Proposition 2. Soit (~u1 , . . . , ~up ) une famille de vecteurs de Rn . L'ensemble vect (~u1 , . . . , ~up ) est le plus petit sous-espace vectoriel contenant tous les ~uj . Précisément, [1] ∀j ∈ {1, . . . , p} ~uj ∈ vect (~u1 , . . . , ~up ). [2] vect (~u1 , . . . , ~up ) est un sous-espace vectoriel de Rn . [3] Si V est un sev de Rn contenant les vecteurs ~uj , alors vect (~u1 , . . . , ~up ) ⊂ V . 1.4. 3 EXERCICES DU CHAPITRE 1 Dénition 2. Soit V un sous-espace vectoriel de Rn . Une famille génératrice de V est une famille (~u1 , . . . , ~up ) de vecteurs de Rn telle que V = vect (~u1 , . . . , ~up ). Cela revient à dire que les vecteurs ~ui sont tous dans V et que tout vecteur de V peut s'écrire comme combinaison linéaire de la famille (~u1 , . . . , ~up ). Exemple 4. Posons F = { (x, y, z) ∈ R3 : x + 2y − 3z = 0 }. Alors F est un s.e.v. de R3 . En eet, SEV1 : 0 + 2.0 − 3.0 = 0 donc ~0 ∈ F . SEV2 : Supposons ~u = (x, y, z) ∈ F et ~v = (x0 , y 0 , z 0 ) ∈ F . Autrement dit, on a x + 2y − 3z = 0 et x0 + 2y0 − 3z 0 = 0. En additionnant ces deux équations, on obtient (x + x0 ) + 2(y + y 0 ) − 3(z + z 0 ) = (x + 2y − 3z) + (x0 + 2y 0 − 3z 0 ) = 0 + 0 = 0 Ainsi, ~u + ~v = (x + x0 , y + y0 , z + z 0 ) ∈ F . F est donc stable par addition. SEV3 : Supposons ~u = (x, y, z) ∈ F et α ∈ R. On a donc x + 2y − 3z = 0. En multipliant cette équation par le scalaire α, on obtient (αx) + 2(αy) − 3(αz) = α.(x + 2y − 3z) = α.0 = 0 Ainsi, α.~u = (αx, αy, αz) ∈ F . F est donc stable par multiplication par un scalaire. Remarquons qu'un vecteur de F s'écrit (−2y + 3z, y, z) = y.(−2, 1, 0) + z.(3, 0, 1). Ainsi tout vecteur de F est combinaison de la famille (~u1 = (−2, 1, 0), ~u2 = (3, 0, 1)). Par ailleurs, ~u1 ∈ F ( car (−2) + 2.1 − 3.0 = 0 ) et ~u2 ∈ F ( car 3 + 2.0 − 3.1 = 0 ). Ainsi la famille (~u1 , ~u2 ) est génératrice de F . Proposition 3. Soient V et W des sous-espaces vectoriels de Rn . Alors V ∩W est un sous-espace vectoriel de Rn . Dénition 3. Soient V et W des sous-espaces vectoriels de directe, et on note V ⊕ W , lorsque V ∩ W = {~0n }. Rn . On dit qu'ils sont en somme Proposition 4. Soient V et W des sous-espaces vectoriels de Rn . Alors l'ensemble V + W = { ~u ∈ Rn : ∃~v ∈ V ∃w ~ ∈ W ~u = ~v + w ~ } est un sous-espace vectoriel de Rn . Dénition 4. Soient V et W des sous-espaces vectoriels de mentaire de V si V ∩ W = {~0n } et V + W = Rn . Rn . On dit que W est un supplé- Proposition 5. Soit V un sous-espace vectoriel de Rn . Si W est un supplémentaire de V , alors ∀~u ∈ Rn ∃!(~v , w) ~ ∈V ×W ~u = ~v + w ~ 1.4 Exercices du chapitre 1 Exercice 1 : Considérons les vecteurs de R2 : ~u1 = (1, −1), ~u2 = (2, 3), ~u3 = (4, 5). 1. Calculer les combinaisons linéaires suivantes : 3~u1 +2~u2 −~u3 , −~u1 +5~u2 −4~u3 , 2~u1 +9~u2 −5~u3 , et ~u1 + ~u2 + 6~u3 . 2. Déduire d'un calcul précédent que ~u3 est combinaison linéaire de ~u1 et ~u2 . 3. En déduire que vect (~u1 , ~u2 , ~u3 ) = vect (~u1 , ~u2 ). 4 CHAPITRE 1. L'ESPACE VECTORIEL RN Exercice 2 : Parmi les parties suivantes de R3 , lesquelles sont des sous-espaces vectoriels de R ? Pour chacun de ces sous-espaces vectoriels, trouver une famille génératrice. 3 1. A = { (x, y, z) ∈ R3 : xyz = 0 }. 2. B = { (x, y, z) ∈ R3 : 3x + 2y + 5z = 0 }. 3. C = { (x, y, z) ∈ R3 : x + y + z = 4 }. 4. D = { (x, y, z) ∈ R3 : x + 2z = 0 et y − 3z = 0 }. Exercice 3 : Posons V = { (x, y, z) ∈ R3 : 8x − 18y + 7z = 0 }, ~u = (1, 2, 4) et ~v = (−3, 1, 6). 1. Vérier que V est un sous-espace vectoriel de R3 . 2. Vérier que ~u ∈ V et ~v ∈ V . 3. Montrer que (~u, ~v ) est une famille génératrice de V . Exercice 4 : Notons V = { (x, y) ∈ R2 : y = 0 } et W = { x, y) ∈ R2 : x = 0 }. 1. Représenter V et W dans le plan R2 . 2. Vérier que V et W sont des sous-espaces vectoriels de R2 . 3. La partie V ∪ W est-elle un sous-espace vectoriel de R2 ? Exercice 5 : Soient V et W deux sous-espaces vectoriels de Rn . On dénit un ensemble V + W = { ~u ∈ Rn : ∃~v ∈ V ∃w ~ ∈ W ~u = ~v + w ~ } 1. Montrer que V + W est un sous-espace vectoriel de Rn . 2. Soit (~v1 , . . . , ~vp ) une famille génératrice de V et (w ~ 1, . . . , w ~ q ) une famille génératrice de W . Montrer qu'alors (~v1 , . . . , ~vp , w ~ 1, . . . , w ~ q ) est une famille génératrice de V + W . Exercice 6 : Notons V l'ensemble des solutions du système à 5 − 2x3 − 8x5 x1 x2 − 5x3 + 3x5 x4 − x5 inconnues : = 0 = 0 = 0 1. Montrer que V est un sous-espace vectoriel de R5 . 2. Vérier que si ~v ∈ V , alors toutes les coordonnées canoniques de ~v ∈ V peuvent s'écrire en fonction des seules coordonnées x3 et x5 . En déduire la forme générale d'un vecteur de V . 3. Construire une famille génératrice à deux vecteurs de V . 4. Existe-t'il un vecteur ~u de V satisfaisant V = vect (~u) ? Chapitre 2 La méthode du pivot de Gauss 2.1 Dénition d'une matrice Dénition 5. Soient n > 0 etp > 0 des entiers. Une matrice A de taille (n, p) est un tableau A[1, 1] A= .. . ... A[1, p] .. . de nombres réels à n lignes et p colonnes. On note aussi souvent A[n, 1] . . . A[n, p] ai,j = A[i, j]. Si n = 1, on dira que A est un vecteur ligne. Si p = 1, on dira que A est un vecteur colonne. Si 1 ≤ i ≤ n, on note Li (A) = (A[i, 1] . . .A[i, p] ) la i-ième ligne de la matrice A. A[1, j] Si 1 ≤ j ≤ p, on note Cj (A) = .. . la j -ième colonne de la matrice A. A[n, j] Exemple 5. La matrice nulle 0n,p est la matrice de taille (n, p) dont tous les coecients sont nuls. Exemple 6. La matrice unité In de taille n est la matrice carrée de taille n dont tous les coecients non diagonaux sont nuls, et dont tous les coecients diagonaux sont égaux à 1 : 1 ... In = 0 0 1 On appelle symbole de Kronecker le réel δi,j déni par δi,j = 1 si i = j et δi,j = 0 sinon. On a alors 2 ∀(i, j) ∈ {1, . . . , n} In [i, j] = δi,j 2.2 Opérations élémentaires sur les lignes d'une matrice Il existe 3 types d'opérations élémentaires sur les lignes d'une matrice : Transvection, dilatation et permutation. Dénition 6. On se donne deux numéros de lignes i 6= k, et un scalaire λ quelconque. L'opération de transvection de rapport λ sur la ligne Li le long de la ligne Lk est l'opération notée Li ← Li + λLk consistant à remplacer la ligne Li par la ligne Li + λLk . 5 6 Exemple 7. CHAPITRE 2. 1 2 4 3 −2 7 L2 ← L2 − 2L1 LA MÉTHODE DU PIVOT DE GAUSS produit la matrice 1 0 −2 11 4 −5 . Dénition 7. On se donne un numéro de ligne i, et un scalaire non nul λ. L'opération de dilatation de rapport λ sur la ligne i, notée Li ← λ.Li , consiste à multiplier la ligne Li par le scalaire λ. 1 2 Exemple 8. 5 6 L2 ← 21 L2 1 1 produit la matrice 5 3 Dénition 8. On se donne deux numéros de lignes i 6= k. L'opération de permutation des lignes Li et Lk , notée Li ↔ Lk , consiste à échanger les lignes Li et Lk . Exemple 9. 0 1 8 9 L1 ↔ L2 produit la matrice 1 0 9 8 2.3 Matrices échelonnées Dénition 9. Soient A une matrice de taille (n, p), et k un entier satisfaisant 1 ≤ k ≤ n. Si la ligne Lk de A est nulle, on pose jk (A) = p. Sinon, on appelle pivot de la ligne Lk (A) son premier coecient non nul en partant de la gauche. On note alors jk (A) le nombre de zéros de la ligne situés à gauche du pivot. L'entier jk (A) sera nommé la profondeur de la ligne Lk (A). Remarquons tout de suite que la ligne Lk (A) est nulle si et seulement si jk (A) = p. 1 5 0 0 j1 = 1 j2 = 0 1 3 7 4 . Exemple 10. Nous avons entouré les pivots de la matrice 0 0 6 8 j3 = 2 0 0 0 j4 = 4 0 Dénition 10. Soit M une matrice de taille (n, p). Nous dirons que la matrice M est échelonnée si les deux conditions suivantes sont satisfaites : Ech1 La suite (j1 (M ), . . . , jn (M )) est croissante. Ech2 Si k est un entier tel que 1 ≤ k < n et jk (M ) < p, alors jk (M ) < jk+1 (M ). Les pivots sont donc rangés par ordre strictement croissant dans la matrice. En particulier, chaque colonne contient au plus un pivot. Une colonne d'une matrice échelonnée est dite principale si elle contient un pivot. Sinon, on dit que la colonne est auxiliaire. Nous noterons PM = { j ∈ {1, . . . , p} : Cj (M ) est principale } et AM = { j ∈ {1, . . . , p} : Cj (M ) est auxiliaire }. Exemple 11. La matrice de l'exemple précédent n'était pas échelonnée, carj2 < j1 . Si on échange 1 3 7 4 0 1 5 0 . les deux premières lignes, on obtient en revanche une matrice échelonnée : 0 0 6 8 Les 3 premières colonnes sont principales, la dernière est auxiliaire. 0 0 0 0 2.4 Echelonnement d'une matrice 2.4.1 Enoncé du théorème d'existence Dénition 11. Soit A une matrice. Un échelonnement de A est une matrice échelonnée B déduite de A par une suite d'opérations élémentaires sur les lignes. Théorème 1. Soit A une matrice de taille (n, p). Il existe au moins un échelonnement de A. 2.4. 7 ECHELONNEMENT D'UNE MATRICE 2.4.2 Méthode du pivot de Gauss Soit A une matrice non échelonnée de taille (n, p). En particulier, A est non nulle et possède donc des pivots. La notation M désignera une matrice variable. Au départ, M = A. En aboutissement de la méthode du pivot de Gauss, la variable M devient un échelonnement de A. Nous utilisons deux curseurs, l'un L pour les lignes de M et l'autre C pour ses colonnes. Au départ, L = L1 et C est le colonne la plus à gauche qui contient un pivot (autrement dit la première colonne non nulle). Notons a le coecient à l'intersection de la ligne L et de la colonne C . Si a = 0, soit i le numéro d'une ligne d'un pivot de la colonne C . En permutant les lignes Li et L, on se ramène au cas où a 6= 0. Soit b un autre pivot de la colonne C . Si i désigne le numéro b de ligne du pivot b, la transvection Li ← Li − .L nous ramène au cas où b = 0. En faisant cette a opération pour chaque pivot de la colonne C autre que a, on se ramène au cas où C ne contient que ce seul pivot. Si M n'est toujours pas échelonnée, on déplace le curseur de ligne d'un cran vers le bas, et le curseur de colonne vers la droite jusqu'à la colonne suivante contenant un pivot, et on recommence le processus jusqu'à obtenir l'échelonnement cherché. Exemple 12. Nous allons échelonner la matrice 2 3 6 −7 4 11 18 −18 L2 ← L2 − 2L1 . 2 3 6 0 L3 ← L3 − L1 L4 ← L4 + L1 −2 −13 −4 10 3 6 −7 2 0 5 6 −4 0 0 0 7 L4 ← L4 + 2L2 0 −10 2 3 2 3 6 −7 0 5 6 −4 0 0 0 7 L3 ↔ L4 0 0 14 −5 2 3 6 −7 0 5 6 −4 0 14 −5 0 0 0 0 7 suivante : Cette matrice est échelonnée. 2.4.3 Rang d'une matrice Proposition 6. Soit A une matrice de taille (n, p). Soient B et B 0 sont deux échelonnement de A. Alors PB = PB . 0 Dénition 12. Soit A une matrice de taille (n, p). Le nombre de pivots d'un échelonnement B de A est égal à cardPB , donc ne dépend pas du choix de cet échelonnement : On l'appelle le rang de la matrice A, noté rg(A). Exemple 13. Soit matrice : 1 A= 1 5 1 3 11 1 −5 −13 1 2 . 8 Pour calculer le rang de A, nous échelonnons la 8 CHAPITRE 2. LA MÉTHODE DU PIVOT DE GAUSS 1 1 1 1 1 3 −5 2 L2 ← L2 − L1 5 11 −13 8 L3 ← L3 − 5.L1 1 1 1 1 0 2 −6 1 0 6 −18 3 L ← L3 − 3.L2 3 1 1 1 1 0 2 −6 1 . Cette matrice échelonnée 0 0 0 0 contient 2 pivots, donc rg(A) = 2. Proposition 7. Soit A une matrice de taille (n, p). Alors, rg(A) ≤ min(n, p). Cela résulte du fait qu'il y a au plus un pivot par ligne et un pivot par colonne dans une matrice échelonnée. 2.5 Réduction d'une matrice échelonnée 2.5.1 Existence et unicité d'un échelonnement réduit Dénition 13. Soit A une matrice de taille (n, p). On dira que A est échelonnée réduite si A est échelonnée, si les pivots sont tous égaux à 1, et si chaque colonne principale de A ne possède qu'un seul coecient non nul : le pivot de cette colonne. Autrement dit, A est échelonnée et chaque colonne principale de A est un vecteur de la base canonique de Rn . Théorème 2. Soit A une matrice. Il existe un unique échelonnement réduit de A. 2.5.2 Méthode de réduction d'une matrice échelonnée Soit A une matrice échelonnée de taille (n, p). On commence avec M = A. Si M est nulle, elle est échelonnée réduite. Sinon, on place les curseurs de ligne L sur la dernière ligne non nulle de A et le curseur de colonne C sur la colonne portant le pivot de L. Soit a la valeur de ce pivot. On 1 eectue la dilatation Li ← Li pour se ramener au cas où a = 1. Puis, à l'aide de transvections a de la forme Li ← Li + λ.L, on annule tous les coecients dans la colonne C au-dessus du pivot. Si M n'est toujours pas réduite, on déplace le curseur de ligne L d'un cran vers le haut et le curseur de colonne C sur la colonne portant le pivot de L. On recommence alors le processus jusqu'à ce que la matrice soit réduite. Exemple 14. On part de la matrice échelonnée suivante. Remarquons qu'on peut mettre tous les pivots àla valeur 1 dès le départ. Nous n'indiquons que le curseur de colonne pour le pas 1 2 3 4 surcharger 0 −11 −13 −20 L2 ← −1/11 L2 1 0 0 1 0 0 1 0 0 2 1 0 2 1 0 0 1 0 0 0 16 39 L3 ← 1/16 L3 3 4 L1 ← L1 − 3.L3 13/11 20/11 L2 ← L2 − 13/11.L3 1 39/16 0 −53/16 L1 ← L1 − 2.L2 0 −17/16 1 39/16 0 −19/16 0 −17/16 . Cette matrice est échelonnée 1 39/16 réduite. 2.6. 9 EXERCICES DU CHAPITRE 2 2.6 Exercices du chapitre 2 Exercice 1 : Pour chacune des matrices Ai 0 0 A1 = 0 0 1 0 0 0 3 0 0 2 4 1 4 0 8 2 5 −8 1 0 A3 = 0 0 0 0 0 0 0 1 0 0 5 0 0 0 1 A5 = 13 23 2 27 48 ci-dessous, 0 1 2 0 7 0 0 0 −2 0 0 2 1 7 0 3 , A4 = 4 3 0 0 2 0 0 0 3 0 0 −8 −5 3 , A2 = 6 9 5 2 2 0 1 −7 3 7 15 2 −93 32 54 151 , A6 = −1 −165 56 92 263 −3 4 8 5 2 3 5 0 −8 −5 3 4 9 4 5 6 5 2 3 5 0 7 0 4 3 2 5 1 7 4 5 1 7 7 4 3 5 1) Donner les profondeurs des lignes de Ai . La matrice Ai est-elle échelonnée ? 2) Calculer un échelonnement Mi de Ai . 3) Déterminer les colonnes principales et les colonnes auxiliaires de Mi . 4) Donner le rang de Ai . 5) Calculer l'échelonnement réduit Bi de Ai . Exercice 2 : Soit M une matrice de taille (n, p). Si 1 ≤ q ≤ p, on note Mq la matrice formée des q premières colonnes de M . 1) Vérier que si 1 ≤ k ≤ n, alors jk (Mq ) = min(jk (M ), q). 2) En déduire que si M est échelonnée, alors Mq est échelonnée. Exercice 3 : Expliquer comment calculer un échelonnement d'une matrice quelconque seulement avec des transvections. Exercice 4 : Pour toute matrice A de taille (n, p) et pour tout q ∈ {1, . . . , p}, on note Vq (A) le sous-espace vectoriel engendré par les q premières colonnes de A. On note par ailleurs (~e1 , . . . , ~en ) la base canonique de Rn . 1. Vérier que ∀A ∈ Mn,p ∀q ∈ {1, . . . , p − 1} Vq (A) ⊂ Vq+1 (A). 2. Vérier que ∀A ∈ Mn,p ∀q ∈ {1, . . . , p − 1} Vq (A) = Vq+1 (A) ⇐⇒ Cq+1 (A) ∈ Vq (A). 3. On suppose ici que A est une matrice échelonnée réduite de taille (n, p). On note j0 (A) = 0. Vérier que si 0 ≤ k ≤ n − 1 et si jk (A) < q ≤ jk+1 (A), alors Vq (A) = vect (~e1 , . . . , ~ek ) 4. Soit A une matrice de taille (n, p) et B une matrice déduite de A par une opération élémentaire sur les lignes. Vérier que ∀q ∈ {1, . . . , p − 1} Vq (A) = Vq+1 (A) ⇐⇒ Vq (B) = Vq+1 (B). 5. En déduire une preuve de la proposition 6 du chapitre 2. 10 CHAPITRE 2. LA MÉTHODE DU PIVOT DE GAUSS Chapitre 3 Résolution des systèmes linéaires Soit p ≥ 1 un entier. Une forme équation linéaire d'inconnues (x1 , . . . , xp ) est une équation de la a1 .x1 + · · · + ap .xp = b Les ai et le coecient b sont des constantes réelles. Un système linéaire d'inconnues (x1 , . . . , xp ) est une suite nie d'équations linéaires en ces inconnues. Une solution du système est un vecteur de Rp solution de chacune des équations formant le système. On présente traditionnellement un tel système linéaire S à n équations comme suit : a1,1 x1 + . . . + a1,p xp = b1 .. S: . an,1 x1 + . . . + an,p xp = bn Exemple 15. Le système d'équations à deux équations et trois inconnues x, est linéaire : 2x 3x + y + 2y + 3z + 5z y et z ci-dessous = 21 = 32 3.1 Généralités sur les systèmes linéaires 3.1.1 Matrices associées à un système On reprend les notations précédentes. Notons A la matrice de taille (n, p) dont les coecients sont les ai,j , où 1 ≤ i ≤ n et 1 ≤ j ≤ p. On dit que A est la matrice du système S . On appelle matrice augmentée du système S la matrice de taille (n, p + 1) : a1,1 . . . a1,p b1 .. .. (A|b) = ... . . an,1 ... an,p bn Exemple 16. On reprend le système de l'exemple 15. Sa matrice est matrice augmentée est (A|b) = 2 1 3 3 2 5 21 32 11 . A = 2 3 1 2 3 5 . Sa 12 CHAPITRE 3. RÉSOLUTION DES SYSTÈMES LINÉAIRES 3.1.2 Ensemble des solutions d'un système L'ensemble des solutions du système S est la partie de Rp ci-dessous : Sol(S) = Sol(A|b) = { (t1 , . . . , tp ) ∈ Rp : ∀i ∈ {1, . . . , n} ai,1 t1 + · · · + ai,p tp = bi } Nous dirons d'un système S qu'il est compatible si Sol(S) 6= ∅. Proposition 8. Soient S et S 0 deux systèmes linéaires, de matrices augmentées (A|b) et (A0 |b0 ) respectivement. Si la matrice (A0 |b0 ) peut de déduire de (A|b) par une suite d'opérations élémentaires sur les lignes, alors Sol(S 0 ) = Sol(S). Exemple 17. Calculons l'ensemble des solutions du système de l'exemple 15 : On applique la méthode du pivot de Gauss pour obtenir une matrice échelonnée réduite. La proposition précédente assure que l'ensemble des solutions n'est pas modié par les opérations sur les lignes eectuées. 2 1 3 3 2 5 2 1 0 1/2 1 1/2 0 1 1 0 1 0 1 1 21 32 L2 ← L2 − 32 L1 3 21 L1 ← 1/2.L1 1/2 1/2 L2 ← 2.L2 L1 ← L1 − 1/2.L2 3/2 21/2 1 1 10 1 Ainsi, l'ensemble des solutions cherché est aussi l'ensemble des solutions du système x y + z + z = 10 = 1 ⇐⇒ x = y = 10 − z 1−z Donc Sol(S) = {(10 − z, 1 − z, z) : z ∈ R}. 3.2 Description de l'ensemble des solutions d'un système linéaire Lemme 1. Soit M une matrice échelonnée réduite de taille (n, p), et S = (M |b) un système de matrice M . Notons r le nombre X de pivots de la matrice M . Si 1 ≤ k ≤ r, la k -ième équation du système S s'écrit xj +1 + M [k, q]xq = bk . Si r + 1 ≤ k ≤ n, la k -ième équation du système k s'écrit 0 = bk . q∈AM Théorème 3. Soit M une matrice échelonnée réduite de taille (n, p). Si q ∈ PM , la colonne Cq possède un seul pivot, et on note iq le numéro de ligne de ce pivot. Soit b un vecteur de Rn . On note S le système de matrice augmentée (M |b). [1] Le système S est compatible si et seulement si, pour chaque ligne nulle Li de la matrice A, le coecient bi est nul. [2] Supposons S compatible. Si (tj )j∈A ∈ RA , il existe une unique solution du système satisfaisant xj = tj pour tout j ∈ AM . Ses coordonnées principales sont données par la formule X M M ∀q ∈ P xq = biq − M [iq , j].tj j∈AM (3.1) 3.2. DESCRIPTION DE L'ENSEMBLE DES SOLUTIONS D'UN SYSTÈME LINÉAIRE 13 Exemple 18. Nous allons résoudre le système linéaire d'inconnues x, y, z et t donné par x 3x 2x + + + y 3y 2y + z + z − z − − − 5t = 9t = t = 16 36 14 Nous commençons par mettre sa matrice sous forme échelonnée réduite : 1 3 2 1 0 0 1 0 0 1 3 2 1 0 0 1 0 0 1 1 −1 1 −2 −3 1 −2 0 1 0 0 1 0 0 1 0 0 1 0 0 1 1 0 0 1 0 −5 −9 −1 −5 6 9 −5 6 0 16 36 L2 ← L2 − 3L1 14 L ← L3 − 2L1 3 16 −12 −18 L ← L3 − 32 L2 3 16 −12 L2 ← − 21 L2 0 Ce dernier système est sous forme échelonnée. Les variables auxiliaires sont y et t. Les variables principales sont x et z . −5 −3 0 −2 −3 0 L1 ← L1 − L2 16 6 0 10 x 6 : On obtient 0 − 2t = 10 − 3t = 6 0 = 0 10 − y + 2t Ainsi (x, y, z, t) est solution du système si et seulement si xz = = 6 + 3t L'ensemble des solutions est donc { (10 − y + 2t, y, 6 + 3t, t) : (y, t) ∈ R2 }. + y z . Corollaire 1. Critère de compatibilité pour un système échelonné Soit S un système échelonné de matrice augmentée (A|b). Alors S est compatible si et seulement si, pour toute ligne nulle Li de la matrice A, le coecient bi correspondant au second membre est nul. Exemple 19. Nous allons vérier que le système patible : 1 1 3 2 −1 0 1 1 0 −1 0 1 1 1 0 −1 0 0 1 2 1 −4 1 7 2 1 −2 −10 2 9 1 2 −2 −10 0 −1 x + 3x + −x y 2y + z + z + z = 2 = −4 = 7 est incom- L2 ← L2 − 3L1 L3 ← L3 + L1 L3 ← L3 + L2 En regardant la dernière ligne, on obtient l'équation 0 = −1 qui n'a clairement pas de solution : Le système est bien incompatible. 14 CHAPITRE 3. RÉSOLUTION DES SYSTÈMES LINÉAIRES 3.3 Structure de l'ensemble des solutions d'un système 3.3.1 Le cas particulier d'un système homogène : Noyau d'une matrice Dénition 14. Un système linéaire est homogène lorsque tous ses seconds membres sont nuls. Théorème 4. Soit S un système linéaire homogène à p inconnues. Alors son ensemble des solutions est un sous-espace vectoriel de Rp . En particulier, S est compatible : Il admet la solution nulle. Dénition 15. Soit A une matrice de taille (n, p). On appelle noyau de A le sous-espace vectoriel de Rp formé des solutions du système (A|~0n ). On note ker(A) = Sol(A|~0n ) Théorème 5. Soit M une matrice échelonnée réduite de taille (n, p). Si j l'unique vecteur de ker(M ) satisfaisant xj = 1 et xl = 0 si l ∈ AM et l 6= j . ∀~s ∈ ker(M ) ∃!(tj )j∈AM ∈ RAM ~s = X ∈ AM , notons ~sj tj .~sj j∈AM Nous dirons que la famille (~sj )j∈AM est une base de ker(M ). Exemple 20. Considérons le système linéaire homogène de matrice échelonnée réduite : 1 0 0 0 1 0 −8 −3 0 2 −5 0 0 −9 0 4 1 −1 Les variables auxiliaires sont x3 , x4 et x6 . Construisons la base de solutions (~s3 , ~s4 , ~s6 ) donnée par le théorème précédent : Le vecteur ~s3 s'obtient en résolvant le système avec les conditions supplémentaires x3 = 1, x4 = 0 et x6 = 0. On trouve ~s3 = (8, 3, 1, 0, 0, 0). Le vecteur ~s4 s'obtient en résolvant le système avec les conditions supplémentaires x3 = 0, x4 = 1 et x6 = 0. On trouve ~s4 = (−2, 5, 0, 1, 0, 0). Le vecteur ~s6 s'obtient en résolvant le système avec les conditions supplémentaires x3 = 0, x4 = 0 et x6 = 1. On trouve ~s6 = (9, −4, 0, 0, 1, 1). 3.3.2 Cas général Dénition 16. Une partie D de Rp est un sous-espace ane de Rp s'il existe un vecteur ~u0 et un sous-espace vectoriel V de Rp tels que ∀~u ∈ Rp ~u ∈ D ⇐⇒ (~u − ~u0 ) ∈ V Nous dirons que D est le sous-espace ane de direction V passant par ~u0 . Théorème 6. Soit S un système linéaire, de matrice augmentée (A|b). Si ~s0 est une solution particulière de S , Sol(S) est le sous-espace ane de direction ker(A) passant par ~s0 . Compte tenu de la description des solutions d'un système homogène, on obtient nalement le 3.4. QUELQUES CONSÉQUENCES DE LA STRUCTURE DES SOLUTIONS 15 Théorème 7. Soit S un système linéaire compatible, de matrice augmentée (A|b) échelonnée réduite, de taille (n, p). Soit ~s0 = (x0 , . . . , xn ) l'unique solution du système S telle que xj = 0 si j ∈ A. Notons (~sj )j∈A la base de solutions de ker(A) construite au théorème 5. Alors Sol(S) = { ~s0 + X tj .~sj : (tj )j∈A ∈ RA } j∈A Ainsi, pour résoudre un système linéaire quelconque, il sut de le mettre sous forme échelonnée réduite. On lit directement sous cette forme une solution particulière s'il est compatible, et une base de solutions du système homogène associé. Exemple 21. Nous allons résoudre le système linéaire : x1 5x1 2x1 + 4x2 + x2 + x2 − 22x3 − 15x3 − 9x3 + x4 + x4 + 9x5 − 16x5 − 7x5 = 33 = 17 = 14 On sous forme échelonnée réduite : commence par mettre le système −22 1 −15 0 −9 1 4 −22 −19 95 −7 35 4 −22 −19 95 33 9 −16 17 L2 ← L2 − 5.L1 −7 14 L3 ← L3 − 2.L1 33 1 9 −5 −61 −148 7 −1 −25 −52 L ← L3 − 19 .L2 3 1 9 33 −5 −61 −148 L ← − 1 .L 2 2 19 16 48 48 L3 ← 19 0 0 − 16 .L3 19 19 19 33 4 −22 1 9 L ← L1 − L3 5 61 148 1 5 .L3 1 −5 L2 ← L2 − 19 19 19 19 3 0 0 0 1 −3 1 4 −22 0 12 30 L1 ← L1 − 4L2 0 1 −5 0 4 7 0 0 0 1 −3 3 1 0 −2 0 −4 2 0 1 −5 0 4 7 0 0 0 1 −3 3 1 5 2 1 0 0 1 0 0 1 0 4 1 1 Ce système échelonné n'a aucune ligne nulle, donc il est compatible. Une solution particulière est donnée en résolvant le système avec les conditions supplémentaires x3 = x5 = 0. On trouve ~s0 = (2, 7, 0, 3, 0). Par ailleurs, une base de solutions du système homogène associé est donnée par les vecteurs ~s3 = (2, 5, 1, 0, 0) et ~s5 = (4, −4, 0, 3, 1)). Les solutions du système sont donc les vecteurs de la forme : ~s0 + α.~s3 + β.~s5 = (2 + 2α + 4β, 7 + 5α − 4β, α, 3 + 3β, β) où α et β sont des scalaires quelconques. 3.4 Quelques conséquences de la structure des solutions Proposition 9. Soit S = (A|b) un système compatible à p inconnues. Alors S possède une seule solution si et seulement si rg(A) = p. 16 CHAPITRE 3. RÉSOLUTION DES SYSTÈMES LINÉAIRES Proposition 10. Soit A une matrice de taille (n, p). Tout système de matrice A est compatible si et seulement si rg(A) = n. 3.5 Exercices du chapitre 3 Exercice 1 : Pour chacun des systèmes ci-dessous, a) Déterminer s'il est compatible b) S'il est compatible, donner l'ensemble de ses solutions. c) S'il est compatible, donner une solution particulière et une base de solutions du système homogène associé x + 2y + 3z = 10 2x + y − z = 3 1. −x + 3y + 2z = 5 3x − 4y + 5z = 1 7x − 2y − 4z = 3 2. −x − 6y + 14z = 8 6x + 10y + 4z − 7t = −33 7x + 9y + 10z + 12t = 57 3. 4x + 5y + 6z + 8t = 38 6x1 + 6x2 + 2x3 − 58x4 + x5 = 53 3x1 + 3x2 + x3 − 29x4 + x5 = 31 4. 5x1 + 5x2 + 2x3 − 50x4 + x5 = 48 3x1 + 3x2 − 24x4 + x5 = 24 4x + 5y + 3z + 21y = 18 3x + 3y + 4z + 27t = 10 5. 2x + 2y + 3z + 20t = 10 18x + 22y + 15z + 104t = 85 Exercice 2 : Trouver tous les polynômes f (x) = ax3 + bx2 + cx + d satisfaisant f (−1) = 0, f (0) = 5, f (1) = 4 et f 0 (1) = 0. Exercice 3 : On considère un rectangle satisfaisant les conditions suivantes : Si on augmente de 5 m la largeur d'un rectangle et de 4 m sa longueur, son aire augmente de 180 m2 . Si on diminue sa largeur de 2 m et sa longueur de 3 m, l'aire diminue de 72 m2 . Calculez les dimensions du rectangle. Exercice 4 : Soit D un sous-espace ane de Rn de direction V . Vérier qu'alors ∀~v ∈ Rn ~v ∈ V ⇐⇒ ( ∃~u1 ∈ D ∃~u2 ∈ D ~v = ~u2 − ~u1 ) En déduire que la direction de D est entièrement déterminée par V . Exercice 5 : On note E l'ensemble des applications de f : R → R satisfaisant ∃(α, β) ∈ R2 ∀x ∈ R f (x) = α cos x + β sin x 1. Montrer que les scalaires α et β sont uniquement déterminés par f . 2. Vérier que toutes les fonctions f de E sont dérivables. π π 3. Montrer qu'il existe une unique fonction f de E telle que f ( ) = 1 et f 0 ( ) = 3. 4 6 Chapitre 4 Familles de vecteurs de Rn 4.1 Généralités sur les familles de vecteurs de Rn Fixons une famille F = (~u1 , . . . , ~up ) de vecteurs de Rn . Dénition 17. On dit que F est libre, ou encore linéairement indépendante, si ∀(α1 , . . . , αp ) ∈ Rp α1 .u1 + · · · + αp .up = ~0n ⇒ α1 = · · · = αp = 0 Autrement dit, la seule combinaison linéaire de la famille F donnant le vecteur nul est celle dont tous les coecients sont nuls. Par convention, la famille vide est libre. Dans le cas contraire, on dit que F est liée ou linéairement dépendante. Exemple 22. Notons ~u = (1, 1), ~v = (1, 2), et w~ = (1, 3). Nous allons vérier que la famille (~u, ~v ) est libre et que la famille (~u, ~v , w) ~ est liée : Pour voir le premier point, soient α et β des scalaires. Alors α.~u + β.~v = (α + β, α + 2β). Donc, si α.~u + β.~v = ~0, on a α + β = 0 et α + 2β = 0. On a alors β = (α + 2β) − (α + β) = 0 − 0 = 0 et ensuite α = α + 0 = α + β = 0. La famille (~u, ~v) est libre. Pour voir le second point, soient α, β et γ des scalaires. Alors α.~u + β.~v + γ.w~ = (α + β + γ, α + 2β + 3γ). Donc α.~u + β.~v + γ.w~ = ~0 si et seulement si (α, β, γ) est solution du système homogène de matrice : 1 1 1 0 1 0 1 1 2 3 L2 ← L2 − L1 1 1 L1 ← L1 − L2 . 1 2 0 −1 . 1 2 La colonne C3 est l'unique colonne auxiliaire. Une base de solutions du système est donné vecteur (1, −2, 1). En particulier, ~u − 2~v + w~ = ~0. La famille (~u, ~v, w) ~ est donc liée. par le Dénition 18. Soit V un sous-espace vectoriel de Rn contenant les vecteurs de la famille F . On rappelle que F est génératrice de V si de plus tout vecteur de V est combinaison linéaire de la famille F . On dit que F est une base de V si c'est une famille libre et génératrice de V . Par convention, pour V = {~0}, son unique base est la famille vide. Exemple 23. La base canonique de Rn est une base de Rn . 17 18 CHAPITRE 4. FAMILLES DE VECTEURS DE RN Théorème et dénition 1. Soit B = (~e1 , . . . , ~ed ) une base d'un sous-espace vectoriel V de Rn . Alors tout vecteur de V s'écrit de manière unique comme combinaison linéaire de la famille B : ∀~v ∈ V ∃!(α1 , . . . , αd ) ∈ Rd ~v = α1 .~e1 + · · · + αd .~ed Le scalaire αi est la i-ième coordonnée de ~v dans la base B. Exemple 24. Reprenons les notations de l'exemple 22. On a déjà vu que la famille (~u, ~v) est libre. Montrons qu'elle est également génératrice, autrement dit une base de R2 . Soit (x, y) ∈ R2 . Le vecteur (x, y) est combinaison linéaire de la famille (~u, ~v) si et seulement si il existe des scalaires α et β tels que (x, y) = α.~ u + β.~v = (α + β, α + 2β). Cela revient à dire que le système 1 1 x de matrice augmentée 1 2 y est compatible. Vérions le : 1 1 1 0 1 0 1 2 1 1 0 1 x y L2 ← L2 − L1 L1 ← L1 − L2 x y−x 2x − y y−x Ce système possède donc une unique solution : α = 2x−y et β = y −x. En particulier, on obtient ∀(x, y) ∈ R2 (x, y) = (2x − y).~u + (y − x).~v ∈ vect (~u, ~v ) Ainsi, la famille (~u, ~v) engendre R2 : C'est une base de R2 . Les coordonnées du vecteur (x, y) dans la base B = (~u, ~v) sont (2x − y) et (y − x) d'après l'équation ci-dessus. 4.2 Matrice d'une famille de vecteurs dans une base Fixons un sous-espace vectoriel V de Rn , et soit B = (~e1 , . . . , ~ed ) une base de V . Si F = (~v1 , . . . , ~vp ) est une famille de vecteurs de V , nous noterons ai,j la i-ième coordonnée du vecteur ~vj dans la base B , pour 1 ≤ i ≤ d et 1 ≤ j ≤ p. Autrement dit, ∀j ∈ {1, . . . , p} ~vj = d X ai,j .~ei i=1 On obtient ainsi une matrice de taille (d, p) notée MatB (~v1 , . . . , ~vp ) = (ai,j )1≤i≤d,1≤j≤p . Sa j -ième colonne donne les coordonnées du vecteur ~vj dans la base B . On dira que c'est la matrice de la famille F dans la base B de V . Exemple 25. On reprend la base B = (~u, ~v) de l'exemple 24. Posons w ~ 1 = (4, 7) et w ~ 2 = (5, 6). 1 4 Comme w~ 1 = 1.~u + 3.~v et w~ 1 = 4.~u + 1.~v, on obtient MatB (w~ 1 , w~ 2 ) = 3 1 . Proposition 11. Caractérisation matricielle des familles libres Soit V un sous-espace vectoriel de Rn , et soit B = (~e1 , . . . , ~ed ) une base de V . Si (~v1 , . . . , ~vp ) est une famille de vecteurs de V , soit A = MatB (~v1 , . . . , ~vp ). Les assertions suivantes sont équivalentes : [1] La famille (~v1 , . . . , ~vp ) est libre. [2] Le système homogène de matrice A possède une unique solution (la solution nulle). [3] rg(A) = p 4.3. DIMENSION D'UN SOUS-ESPACE VECTORIEL DE 19 RN Proposition 12. Caractérisation matricielle des familles génératrices Soit V un sous-espace vectoriel de Rn , et soit B = (~e1 , . . . , ~ed ) une base de V . Si (~v1 , . . . , ~vp ) est une famille de vecteurs de V , soit A = MatB (~v1 , . . . , ~vp ). Les assertions suivantes sont équivalentes : [1] La famille (~v1 , . . . , ~vp ) est génératrice de V . [2] Tout système de matrice A est compatible. [3] rg(A) = d Corollaire 2. Soit V un sous-espace vectoriel de Rn possédant une base à (~v1 , . . . , ~vp ) ∈ V p . Alors, [1] Si (~v1 , . . . , ~vp ) est une famille libre, alors p ≤ d. [2] Si (~v1 , . . . , ~vp ) est une famille génératrice de V , alors p ≥ d. d vecteurs. Soit 4.3 Dimension d'un sous-espace vectoriel de Rn Théorème 8. Soit V un sous-espace vectoriel de Rn . Il existe au moins une base de V . Théorème et dénition 2. Soit V un sev de Rn . Toutes les bases de V ont le même nombre d de vecteurs. On appelle ce nombre la dimension de V , et on note dim(V ) = d. Cela résulte immédiatement du corollaire 2. Exemple 26. dim(Rn ) = n car la base canonique de Rn contient n vecteurs. Proposition 13. Soient V et W des sev de Rn satisfaisant V [1] dim(V ) ≤ dim(W ). [2] Si dim(V ) = dim(W ), alors V = W . ⊂ W. Alors : 4.4 Calcul d'une base de l'image d'une matrice et interprétation du rang Dénition 19. Soit A une matrice de taille (n, p). On appelle image de la matrice espace vectoriel de Rn engendré par les vecteurs colonnes de A. On note A le sous- im(A) = vect ( C1 (A), . . . , Cp (A) ) Proposition 14. Soit A une matrice de taille (n, p) et ~v un vecteur colonne de Rn . Alors ~v ∈ im(A) ⇐⇒ le système (A|~v ) est compatible. En eet, (x1 , . . . , xp ) est une solution de (A|~v ) si et seulement si p X xj .Cj (A) = ~v . j=1 Théorème 9. Soit A une matrice de taille (n, p). Soit P l'ensemble des colonnes principales d'un échelonnement B de A. Alors ( Cj (A) )j∈P est une base de im(A). En particulier, dim im(A) = rg(A) 20 CHAPITRE 4. FAMILLES DE VECTEURS DE Exemple 27. Pour trouver une base de l'image de par échelonner : 1 1 1 1 0 0 1 3 2 −4 3 −1 −7 3 0 0 0 -1 2 1 L2 ← L2 − L1 −5 L3 ← L3 − L1 2 −1 −7 L ← L3 − 7.L2 3 5 2 −1 −1 On a P = {1, 2}, 0 0 1 A= 1 1 3 2 −4 5 4 −2 2 1 , −5 RN on commence 5 4 −2 5 −1 −7 donc ((1, 1, 1), (3, 2, −4)) est une base de im(A). 4.5 Compléter une famille libre en une base Théorème 10. Théorème de la base incomplète Soit V un sous-espace vectoriel de Rn . Soit B une base de V . Soit L une famille libre de V . Alors, on peut compléter L avec des vecteurs de la base B pour obtenir une base de V contenant cette famille libre. Exemple 28. La famille ( ~u = (1, 2, 3, 4) , ~v = (1, 1, 2, 5) ) est libre. On échelonne la matrice suivante dont l'image est égale à R4 : Ces 4 dernières colonnes forment la base canonique. 1 2 3 4 1 0 0 0 1 0 0 0 ~e2 1 1 0 0 0 1 0 1 0 0 L2 ← L2 − 2.L1 2 0 0 1 0 L3 ← L3 − 3.L1 L 5 0 0 0 1 4 ← L4 − 4.L1 1 1 0 0 0 −1 −2 1 0 0 −1 −3 0 1 0 L3 ← L3 − L2 1 −4 0 0 1 L ← L4 + L2 4 1 1 0 0 0 −1 −2 1 0 0 0 −1 −1 1 0 0 −6 1 0 1 L4 ← L4 − 6.L3 1 1 1 0 0 0 0 -1 −2 1 0 0 . On a P = {1, 2, 3, 4}. Donc, en notant ~e1 = (1, 0, 0, 0) 0 0 -1 −1 1 0 0 0 0 7 −6 1 = (0, 1, 0, 0), la famille (~u, ~v , ~e1 , ~e2 ) est une base de R4 qui complète la famille libre (~u, ~v ). 4.6 Le théorème du rang Théorème 11. Théorème du rang. Soit A une matrice de taille (n, p). Alors dim ker(A) + rg(A) = p et 4.7. 21 EXERCICES DU CHAPITRE 4 4.7 Exercices du chapitre 4 Exercice 1 : Pour chacune des familles de vecteur Fk F1 F2 F3 F4 =( =( =( =( de Rnk ci-dessous, (1, 2, 3) , (2, −3, 4) ), n1 = 3. (1, −5) , (3, 8), (7, −4) ), n2 = 2. (4, −5, 6) , (6, 2, 1), (0, −11, 16) ), n3 = 3. (1, 1, 1, 1) , (1, 2, 5, −9), (3, 2, 1, 4) ), n4 = 4. 1) Donner la matrice de la famille Fk dans la base canonique de Rnk . 2) Déterminer si la famille Fk est libre ou liée. 3) Si Fk est liée, donner une relation de dépendance linéaire entre ses vecteurs. 4) Déterminer si la famille Fk est génératrice de Rnk . 5) Si Fk n'est pas génératrice de Rnk , donner une condition nécessaire et susante pour qu'un vecteur de Rnk soit combinaison linéaire de la famille Fk . Exercice 2 : Soit F = (~u1 , ~u2 , ~u2 , ~u4 , ~u5 ), où ~u1 = (1, 2, 3, 4), ~u2 = (−1, 5, 0, 7), ~u3 = (1, 9, 6, 15), ~u4 = (4, 7, 3, 1), ~u5 = (4, 21, 9, 23) 1) Donner la matrice de la famille F dans la base canonique de R4 . 2) Donner une base de vect F . Quelle est 1 3 5 2 −3 Exercice 3 : A = 10 −7 13 0 2 −5 4 −6 5 3 sa dimension ? 5 7 1 −8 −2 6 1) Donner une base et la dimension de ker(A). 2) Compléter cette base de ker(A) en une base de R7 . Exercice 4 : Soit V un sous espace vectoriel de Rn et (e1 , . . . , ed ) une base de V . Soient (ed+1 , . . . , en ) une famille de vecteurs de Rn telle que la famille (e1 , . . . , en ) soit une base de Rn . Montrer que W = vect de V . (ed+1 , . . . , en ) est un supplémentaire 1 2 3 4 5 −2 1 0 6 7 . En utilisant le résultat précédent, trouver Exercice 5 : Soit A = 1 8 −5 4 6 −3 −19 21 2 −1 un supplémentaire W de im(A) dans R4 et un supplémentaire V de ker(A) dans R5 . 22 CHAPITRE 4. FAMILLES DE VECTEURS DE RN Chapitre 5 Matrices On note Mn,p l'ensemble des matrices de taille (n, p). Si n = p, on notera plus simplement Mn = Mn,n . 5.1 Mn,p est un espace vectoriel On dénit une addition sur Mn,p par : b1,1 . . . a1,1 . . . a1,p .. .. + .. . . . an,1 ... an,p bn,1 ... b1,p a1,1 + b1,1 .. = .. . . bn,p an,1 + bn,1 On dénit une multiplication externe par un scalaire λ par : λa1,1 . . . a1,1 . . . a1,p .. .. . .. = λ. . . λan,1 . . . an,1 . . . an,p ... ... a1,p + b1,p .. . an,p + bn,p λa1,p .. . λan,p Propriétés 2. Soient A, B et C des matrices de taille (n, p). Soient λ ∈ R et µ ∈ R. Alors, [1] (A + B) + C = A + (B + C). [2] [3] [4] [5] [6] [7] [8] A+B =B+A A + 0n,p = 0n,p + A = A A + (−1).A = 0n,p λ.(A + B) = λ.A + λ.B (λ + µ).A = λ.A + µ.A (λµ).A = λ.(µ.A) 1.A = A 5.2 Produit de deux matrices On va dénir un produit A.B de deux matrices A et B seulement si la condition suivante est satisfaite : Le nombre de colonnes de A coïncide avec le nombre de lignes de B . On commence par dénir le cas particulier où B est un vecteur colonne. 23 24 CHAPITRE 5. MATRICES Dénition 20. Soient n ≥ 1 et p ≥ 1 des entiers, on dénit une application Mn,p × Mp,1 −→ Mn,1 en posant (A , X ) 7−→ A.X p X A[1, j]xj j=1 .. .. A. ... = xj Cj (A) = xj . . = p j=1 j=1 X xp A[n, j] A[n, j]xj x1 p X p X A[1, j] j=1 On dit que A.X est le produit de la matrice A par la matrice colonne X . Exemple 29. 1 2 7 −3 2 6 −1 1 7 2 10 . 1 = (−1). + 1. + 2. = 2 −3 6 7 2 Propriétés 3. On considère deux matrices A et B de taille (n, p), deux vecteurs colonnes X et Y de hauteur p, et un scalaire λ ∈ R. Alors, [1] A.(X + Y ) = A.X + A.Y [2] (A + B).X = A.X + B.X [3] A.(λ.X) = λ.(A.X) = (λ.A).X Dénition 21. Soient n, p et q des entiers strictement positifs. Soient A une matrice de taille et B une matrice de taille (p, q). Si 1 ≤ k ≤ q, la colonne Ck (B) est de hauteur p, donc on peut former le vecteur colonne A.Ck (B)de hauteur n. Il existe une unique matrice notée A.B de taille (n, q) dont la k-ième colonne est A.Ck (B) pour 1 ≤ k ≤ q. On a ainsi construit une application (n, p) Mn,p (A × Mp,q , B ) −→ Mn,q 7−→ A.B Proposition 15. Calcul d'un produit de matrices. Soient n, p et q des entiers strictement positifs. Alors, si A ∈ Mn,p et ∀B ∈ Mp,q , ∀i ∈ {1, . . . , n} ∀j ∈ {1, . . . , q} (A.B)[i, j] = p X A[i, k].B[k, j] k=1 Exemple 30. Prenons 2 −2 7 de B est 1 A= 5 3 de A est 2. Le nombre de lignes peut présenter les calculs comme suit : 1 A= 5 3 2 −2 7 et B = 4 −2 −1 6 5 8 8 −5 . Le nombre de colonnes 2. On peut donc calculer la matrice produit A.B : On 4 −2 −1 6 5 8 8 −5 0 24 −2 11 −17 39 21 9 71 −2 50 −11 =B = A.B Par exemple, A.B[1, 1] = 1.4 + 2.(−2) = 4 − 4 = 0 et A.B[2, 3] = 5.5 + (−2).8 = 25 − 16 = 9. 5.3. 25 MATRICES CARRÉES INVERSIBLES Propriétés 4. Soient n, p, q et r des entiers strictement positifs. Alors [1] ∀A ∈ Mn,p ∀(B, C) ∈ Mp,q 2 A.(B + C) = A.B + A.C . [2] ∀(A, B) ∈ Mn,p 2 ∀C ∈ Mp,q (A + B).C = A.C + B.C [3] ∀λ ∈ R ∀A ∈ Mn,p ∀B ∈ Mp,q A.(λ.B) = λ.(A.B) = (λ.A).B [4] ∀A ∈ Mn,p ∀B ∈ Mp,q ∀C ∈ Mq,r [5] ∀A ∈ Mn,p In .A = A [6] ∀A ∈ Mn,p A.Ip = A (A.B).C = A.(B.C) 5.3 Matrices carrées inversibles 5.3.1 Généralités Proposition et dénition 1. Soit U une matrice carrée de taille n. On dit que U est inversible s'il existe une matrice V telle que U V = V U = In . La matrice V est alors unique et s'appelle l'inverse de U . On notera V = U −1 . Nous devons vérier l'unicité d'une matrice V satisfaisant U V = V U = In . Supposons que W soit une autre matrice carrée de taille n satisfaisant U W = W U = In . Alors W = W.In = W.(U.V ) = (W.U ).V = In .V = V Exemple 31. La matrice unité In est inversible, et est son propre inverse, car In2 = In . Exemple 32. Soit D une matrice diagonale. Autrement dit, D[i, j] = 0 si i 6= j . Alors inversible si et seulement si ∀i ∈ {1, . . . , n} D[i, i] 6= 0. De plus, dans ce cas, D[1, 1]−1 D−1 = 0 ... 0 D[n, n]−1 D est Proposition 16. Soient P et Q deux matrices inversibles de taille n. Alors P Q est inversible, d'inverse (P Q)−1 = Q−1 P −1 . En eet, (Q−1 P −1 )(P Q) = Q−1 (P −1 P )Q = Q−1 In Q = Q−1 Q = In et P Q(Q−1 P −1 ) = P (QQ−1 )P −1 = P In P −1 = P P −1 = In . La matrice Q−1 P −1 est donc l'inverse de la matrice P Q. Proposition 17. Soient U et V des matrices carrées de taille n. Alors U.V = In ⇔ V.U = In . 5.3.2 Matrice d'une opération élémentaire sur les lignes Dénition 22. La matrice d'une opération élémentaire sur les lignes est la matrice obtenue en appliquant cette opération à la matrice identité In . Proposition 18. Soit U la matrice d'une opération élémentaire sur les lignes. [1] La matrice U est inversible. [2] Soit A une matrice de taille (n, p). Le produit U A s'identie à la matrice déduite de A en eectuant cette opération élémentaire. Corollaire 3. Soit A une matrice de taille (n, p) et B un échelonnement de A. Il existe une matrice inversible U telle que B = U.A. 26 CHAPITRE 5. MATRICES 5.3.3 Critères d'inversibilité Théorème 12. Soit U une matrice carrée de taille n. Les assertions suivantes sont équivalentes : La matrice U est inversible. [2] Il existe une matrice carrée V telle que V.U = In . [3] ker(U ) = {~0n }. [4] rg(U ) = n. [5] im(U ) = Rn . [6] Il existe une matrice carrée V telle que U.V = In . [7] L'échelonnement réduit de U est la matrice In . En particulier, toute matrice inversible peut de décomposer en un produit de matrices d'opérations élémentaires sur les lignes. [1] Corollaire 4. Soient A et B deux matrices de taille (n, p). On peut déduire la matrice B de la matrice A par une suite d'opérations élémentaires sur les matrices si et seulement si il existe une matrice inversible U telle que B = U A. Corollaire 5. Soit A une matrice de taille (n, p). Il existe une matrice inversible U de taille n telle que U.A soit échelonnée. Pour calculer une telle matrice, on peut employer la méthode suivante : On forme la matrice (A|In ) et on opère sur les lignes jusqu'à obtenir une matrice (A0 |P ), où A0 est un échelonnement de A. La matrice P est inversible et satisfait P.A = A0 . 5.3.4 Calcul de l'inverse : Méthode de Gauss-Jordan Théorème 13. Soit U une matrice carrée inversible de taille n. On forme la matrice A = (U |In ) de taille (n, 2n). On applique à A la méthode du pivot de Gauss pour mettre la matrice U sous forme échelonnée réduite. On obtient alors la matrice A0 = (In |U −1 ). 1 2 3 Exemple 33. Soit U = 2 7 6 . Nous allons appliquer la méthode de Gauss-Jordan pour 3 1 5 vérier que U est inversible, et calculer son inverse : 1 2 3 1 0 0 2 7 6 0 1 0 L2 ← L2 − 2L1 3 1 5 0 0 1 L3 ← L3 − 3L1 1 0 0 1 2 3 0 3 0 −2 1 0 0 −5 −4 −3 0 1 L3 ← L3 + 53 L2 1 2 3 1 0 0 0 3 0 −2 1 0 L2 ← 1/3.L2 L3 ← −1/4.L3 0 0 −4 −19/3 5/3 1 Cette dernière matrice est échelonnée avec 3 pivots, donc de rang 3. Ainsi U est de rang 3, et donc inversible. On poursuit le pivot de Gauss pour obtenir L1 ← L1 − 3L3 1 2 3 1 0 0 0 1 0 −2/3 1/3 0 0 0 1 19/12 −5/12 −1/4 une matrice échelonnée réduite : 5.4. 1 0 0 1 0 0 27 CALCUL DE L'IMAGE D'UNE MATRICE 2 1 0 0 1 0 5/4 3/4 L1 ← L1 − 2L2 0 −15/4 0 −2/3 1/3 0 1 19/12 −5/12 −1/4 0 −29/12 7/12 3/4 −29/12 −2/3 1/3 0 . Ainsi, U −1 = −2/3 0 1 19/12 −5/12 −1/4 19/12 7/12 1/3 −5/12 3/4 0 −1/4 5.4 Calcul de l'image d'une matrice Théorème 14. Soit A une matrice de taille (n, p) de rang r. Soit U une matrice inversible de taille n telle que U A soit échelonnée. Alors im(A) = ker U [r + 1, 1] . . . .. . U [n, 1] ... U [r + 1, p] .. . U [n, n] 1 5 1 −6 Exemple 34. A = 1 5 . On commence par calculer U : 1 7 1 5 1 0 0 0 1 −6 0 1 0 0 L2 ← L2 − L1 1 5 0 0 1 0 L3 ← L3 − L1 L4 ← L4 − L1 1 7 0 0 0 1 1 5 1 0 0 0 0 −11 −1 1 0 0 0 0 −1 0 1 0 L ← 11.L4 + 2.L2 0 2 −1 0 0 1 4 1 5 1 0 0 0 0 −11 −1 1 0 0 0 0 −1 0 1 0 −13 2 0 11 0 0 −1 0 1 0 Ainsi, l'image de A est égale à ker −13 . Autrement 2 0 11 dit, x1 x2 x3 ∈ im(A) x4 ⇐⇒ −x1 + x3 = 0 et − 13x1 + 2x2 + 11x4 = 0 5.5 Exercices du chapitre 5 Exercice 1 : On considère les matrices suivantes : 2 3 A= 7 1 5 1 0 2 4 1 −5 , B = 2 3 3 0 7 0 −9 , C = 2 1 −2 5 6 1 5 8 4 0 4 0 28 CHAPITRE 5. MATRICES Calculer tous les produitsde matrices possiblesavec ces3 matrices. 2 3 Exercice 2 : Soit A = −5 6 et B = 72 14 . Calculer AB et BA. Le produit de matrices dans M2 est-ilcommutatif ? 0 1 2 Exercice 3 : Soit A = 0 0 5 . Calculer A2 et A3 . Que remarquez vous ? 0 0 0 Exercice 4 : Soient A et B des matrices tels que le produit AB ait un sens. Vérier que ker(B) ⊂ ker(AB) et que im(AB) ⊂ im(A) . 17 −240 96 Exercice 5 : Considérons la matrice A = 18 −269 108 . 42 −630 253 1) Vérier que A2 = I3 . 2) On pose V = ker(A − I3 ). Vérier que V est de dimension 2 et donner une base (~u1 , ~u2 ) de V . 3) On pose W = ker(A + I3 ). Vérier que W est de dimension 1 et donner une base ~u3 de W . 4) Vérier que B = (~u1 , ~u2 , ~u3 ) est une base de R3 . 5) Soit P de la base B dans la base canonique de R3 . Justier sans calcul que P est inversible, puis calculer P −1 . 6) Calculer D = P −1 AP . Que remarquez-vous ? Exercice 6 : Soit M une matrice carrée de taille d. On rappelle que M 0 = Id . 1) Vérier que, pour tout entier n ≥ 1, (Id + M ) n X (−1)k M k = Id + (−1)k+1 M k+1 . k=0 2) On suppose que M est nilpotente, c'est-à-dire qu'il existe un entier q ≥ 1 tel que M q = 0. Déduire de la question précédente qu'alors Id + M est inversible, et donner son inverse. 3 21 30 3) Soit A = −13 −98 −137 . Calculer A2 et A3 . En déduire que A est nilpotente. 9 68 95 4) Calculer (I3 + A)−1 sans utiliser la méthode de Gauss-Jordan. 1 5) Soit X = 0 . Vérier que B = (X, A.X, A2 .X) est une base de R3 . 0 6) Soit P la matrice de la base B dans la base canonique de R3 . Calculer P −1 avec la méthode de Gauss-Jordan, puis calculer B = P −1 AP . Chapitre 6 Espaces vectoriels de dimension nie et applications linéaires Dénition 23. Un espace vectoriel sur R est un ensemble E , muni d'une addition E×E → E (u, v) 7→ u + v ×E → E et d'une multiplication par un scalaire R(λ, qui satisfait les axiomes suivants : v) 7→ λ.v (EV1 ) L'addition est associative : ∀(u, v, w) ∈ E 3 (EV2 ) (u + v) + w = u + (v + w) L'addition est commutative : ∀(u, v) ∈ E 2 (EV3 ). L'addition possède un élément neutre noté 0E : ∃0E ∈ E ∀u ∈ E (EV4 ). u + 0E = 0E + u = u Tout vecteur possède un opposé : ∀u ∈ E ∃v ∈ E (EV5 ). u + v = v + u = 0E Distributivité par rapport à l'addition dans E ∀λ ∈ R ∀(u, v) ∈ E 2 (EV6 ). (λ + µ).u = λ.u + µ.u Associativité externe : ∀(λ, µ) ∈ R2 ∀u ∈ E (EV8 ). λ.(u + v) = λ.u + λ.v Distributivité par rapport à l'addition des scalaires : ∀(λ, µ) ∈ R2 ∀u ∈ E (EV7 ). v+u=u+v (λ.µ).u = λ.(µ.u) Action de l'unité : ∀u ∈ E 29 1.u = u 30CHAPITRE 6. ESPACES VECTORIELS DE DIMENSION FINIE ET APPLICATIONS LINÉAIRES Exemple 35. Un sous-espace vectoriel de Rn est un espace vectoriel sur R. Mn,p est un espace vectoriel sur R. Exemple 36. Soit X un ensemble quelconque. On rappelle que RX est l'ensemble des applications de X dans R. On dénit une addition sur RX par : ∀f ∈ RX ∀g ∈ RX ∀x ∈ X (f + g)(x) = f (x) + g(x) On dénit une multiplication externe sur RX par : ∀λ ∈ R ∀f ∈ RX ∀x ∈ X (λ.f )(x) = λf (x) Muni de ces opérations, RX est un espace vectoriel sur R. Proposition 19. Soit E un espace vectoriel sur R. Alors : [1] L'élément neutre pour l'addition dans E est unique. On l'appelle le vecteur nul de E . [2] ∀u ∈ E [3] 0.u = 0E Si u ∈ E , son opposé est égal à (−1).u. On le note −u. Dénition 24. Soit E un espace vectoriel sur R. Un sous-espace vectoriel de E est une partie V de E satisaisant les conditions : [SEV1] 0E ∈ V . [SEV2] ∀~u ∈ V ∀~v ∈ V (~u + ~v ) ∈ V [SEV3] ∀α ∈ R ∀~u ∈ V (α.~u) ∈ V 6.1 Dimension nie 6.1.1 Généralités Dénition 25. Soit E un espace vectoriel sur R. Pour tout entier on notera (u1 , . . . , up ) ∈ E p , p≥1 vect (u1 , . . . , up ) = { u ∈ E : ∃(α1 , . . . , αp ) ∈ Rp u = p X et pour toute famille αj .uj } j=1 l'ensemble des combinaisons linéaires de cette famille. Dénition 26. Soit E un espace vectoriel sur R et F vecteurs de E . [1] On dira que F est libre si ∀(α1 , . . . , αp ) ∈ Rp p X = (u1 , . . . , up ) ∈ E p une famille nie de αj .uj = 0E =⇒ α1 = · · · = αp = 0 j=1 On dira que F est génératrice de E si vect (u1 , . . . , up ) = E . [3] On dira que F est une base de E si c'est une famille libre et génératrice de E . [2] Dénition 27. Soit E un espace vectoriel sur R. On dit qu'il est de dimension nie lorsqu'il existe un entier p ≥ 1 et une famille (u1 , . . . , up ) ∈ E p génératrice de E . 6.1. 31 DIMENSION FINIE Théorème 15. Soit E un espace vectoriel sur R de dimension nie. Alors E admet une base nie. Démonstration. Soit d le nombre minimum de vecteurs d'une famille génératrice de E . Soit F = (v1 , . . . , vd ) une famille génératrice de E . Supposons que F soit linéairement dépendante. Soient d X (λ1 , . . . , λd ) ∈ Rd une famille non nulle de scalaires telle que λj vj = 0E . Soit m ∈ {1, . . . , d} j=1 tel que λm 6= 0. Alors vm = − X λj vj λm j6=m et donc vm ∈ vect (vj )j6=m . Mais alors (vj )j6=m est une famille génératrice de E à (d−1) vecteurs, ce qui contredit la dénition de d. Ainsi, F est libre. C'est donc une base nie de E . 6.1.2 Matrice d'une famille de vecteurs dans une base Dénition 28. Soit E un espace vectoriel sur R de dimension nie et B = (e1 , . . . , ed ) une base de E . Si F = (u1 , . . . , up ) ∈ E p est une famille de vecteurs de E , on appelle matrice de F dans la base B l'unique matrice M = MatB (F) de taille (d, p) telle que ∀j ∈ {1, . . . , p} uj = d X M [i, j].ei i=1 Autrement dit, la colonne Cj de M donne les coordonnées de uj dans la base B. Proposition 20. Soit E un espace vectoriel sur R de dimension nie et B = (e1 , . . . , ed ) une base de E . Si F = (u1 , . . . , up ) ∈ E p est une famille de vecteurs de E et si A = MatB (F), alors [1] La famille F est libre si et seulement si rg(A) = p. [2] La famille F est génératrice de E si et seulement si rg(A) = d. [3] La famille F est une base de E si et seulement si rg(A) = p = d. Corollaire 6. Soit E un espace vectoriel de dimension nie sur R. [1] Toutes les bases de E ont même nombre de vecteurs. Ce nombre est la dimension de E , notée dim E . [2] Soit V un sous-espace vectoriel de E . Alors V est de dimension nie et dim(V ) ≤ dim(E). De plus, si dim(V ) = dim(E), alors V = E . 6.1.3 Matrices de passage Dénition 29. Soit E un espace vectoriel de dimension nie sur R. Soient B et B0 deux bases de E . On appelle matrice de passage de B à B0 la matrice 0 PBB = MatB (B 0 ) Proposition 21. Soit E un espace vectoriel de dimension nie d sur R. Soient B, B0 et B” trois bases de E . [1] PBB = Id 0 [2] PBB” = PBB PBB” 0 [3] PBB 0 est inversible et (PBB )−1 = PBB0 . 0 32CHAPITRE 6. ESPACES VECTORIELS DE DIMENSION FINIE ET APPLICATIONS LINÉAIRES 6.2 Applications linéaires 6.2.1 Généralités Dénition 30. Soient E et F deux espaces vectoriels sur R. Une application linéaire de E vers F est une application f : E → F satisfaisant ∀(α, β) ∈ R2 ∀(u, v) ∈ E 2 f (α.u + β.v) = α.f (u) + β.f (v) En particulier, une application linéaire f : E → F satisfait toujours f (0E ) = 0F . Exemple 37. Soit V un sous-espace vectoriel de est clairement linéaire. Rn . Rn L'application d'inclusion V~u → 7→ ~u Exemple 38. Soit E un espace vectoriel. Si λ ∈ R, l'homothétie de rapport λ linéaire. E u → E 7 → λ.u est Exemple 39. Dans le plan muni d'une base orthonormée, la symétrie orthogonale par rapport à l'axe des abscisses envoie le vecteur de coordonnées (x, y) sur celui de coordonnées (x, −y). Cette symétrie est donc linéaire. −→ Mn,1 Exemple 40. Soit A une matrice de taille (n, p). Considérons l'application fA : Mp,1 . X 7−→ A.X C'est une application linéaire. En eet, si X et Y sont deux vecteurs colonne de hauteur p et si α et β sont des scalaires, on a fA (α.X+β.Y ) = A.(α.X+β.Y ) = A.(α.X)+A.(β.Y ) = α.(A.X)+β.(A.Y ) = α.fA (X)+β.fA (Y ) Proposition 22. Soient E , E 0 et E” trois espaces vectoriels sur R, f : E → E 0 une application linéaire et g : E 0 → E” une application linéaire. Alors g ◦f : E → E” est une application linéaire. Dénition 31. Soient E et F deux espaces vectoriels sur R et f une application linéaire de E vers F . On appelle noyau de f le sous-espace vectoriel de E : ker(f ) = { u ∈ E : f (u) = 0F } Proposition 23. Soient E et F deux espaces vectoriels sur R et E vers F . Alors, f est injective si et seulement si ker(f ) = {0E }. f une application linéaire de Dénition 32. Soient E et F deux espaces vectoriels sur R et f une application linéaire de E vers F . On appelle image de f le sous-espace vectoriel de F : im(f ) = { v ∈ F : ∃u ∈ E f (u) = v } Si F est de dimension nie, on appelle rang de f l'entier rg(f ) = dim im(f ). Proposition 24. Soient E et F deux espaces vectoriels sur R et E vers F . Alors, f est surjective si et seulement si im(f ) = F . f une application linéaire de 6.2. 33 APPLICATIONS LINÉAIRES 6.2.2 Cas des dimensions nies Dénition 33. Soient E et F deux espaces vectoriels de dimension nie sur R et f : E → F une application linéaire. Si BE = (e1 , . . . , ep ) est une base de E et si BF = (f1 , . . . , fn ) est une base de F , on notera E MatB BF (f ) = MatBF f (BE ) = MatBF (f (e1 ), . . . , f (ep )) Proposition 25. Soient E et F deux espaces vectoriels de dimension nie sur R, BE = (e1 , . . . , ep ) une base de E et BF = (f1 , . . . , fn ) une base de F . Soit f : E → F une application linéaire et A = MatBB (f ). Alors, si (x1 , . . . , xp ) ∈ Rp et (y1 , . . . , yn ) ∈ Rn E F x1 y1 p X yi .fi = f ( xj .ej ) ⇐⇒ ... = A. ... i=1 j=1 xp yn n X Théorème 16. Soient E et F deux espaces vectoriels de dimension nie sur R, BE une base de E et BF une base de F . Soit f : E → F une application linéaire et A = MatB B (f ). Alors, [1] rg(f ) = rg(A). E F [2] dim ker(f ) + rg(f ) = dim F Proposition 26. Soient E , F et G trois espaces vectoriels de dimension nie sur R, f : E → F une application linéaire et g : F → G une application linéaire. Soient BE , BF et BG des bases respectives de E , F et G. Alors, BF BE E MatB BG (g ◦ f ) = MatBG (g).MatBF (f ) Corollaire 7. Formule de changement de base Soient E et F deux espaces vectoriels de dimension nie sur R. Soient BE et BE0 deux bases de 0 . Soient BF et BF0 deux bases de F et Q la matrice de E et P la matrice de passage de BE à BE B 0 passage de BF à BF . Alors, si A = MatB (f ) et A0 = MatBB (f ), on a l'égalité matricielle E F A0 = Q−1 AP 0 E 0 F