L’indépendance linéaire Algèbre linéaire I — MATH 1057 F Julien Dompierre Département de mathématiques et d’informatique Université Laurentienne Sudbury, 18 janvier 2011 Rappel : système homogène Un système linéaire homogène comme 1 2 −3 x1 0 3 5 9 x2 = 0 5 9 3 x3 0 peut être mis sous la forme 1 x1 3 + x2 5 d’une équation vectorielle 2 −3 0 5 + x3 9 = 0 9 3 0 x1 0 L’équation vectorielle a la solution triviale x2 = 0 = 0. 0 x3 Mais est-ce la seule solution ? Indépendance linéaire (p. 65) Définition Un ensemble indicé de vecteurs {v1 , v2 , ..., vp } de IRn est dit linéairement indépendant si l’équation vectorielle x1 v1 + x2 v2 + · · · + xp vp = 0 n’admet que la solution triviale. Dépendance linéaire (p. 65) Définition Un ensemble indicé de vecteurs {v1 , v2 , ..., vp } de IRn est dit linéairement dépendant s’il existe des poids c1 , c2 , ..., cp non tous nuls tels que c1 v1 + c2 v2 + · · · + cp vp = 0. Définition L’équation c1 v1 + c2 v2 + · · · + cp vp = 0. où les poids c1 , c2 , ..., cp ne sont pas tous nuls est appelée une relation de dépendance linéaire entre les vecteurs v1 , v2 , ..., vp . (In)dépendance linéaire – Exemple −3 2 1 Exemple : Soit v1 = 3 , v2 = 5 , v3 = 9 . 9 3 5 a. Déterminez si {v1 , v2 , v3 } est linéairement indépendant. b. Si possible, donnez une relation de dépendance linéaire entre v1 , v2 et v3 . (In)dépendance linéaire – Exemple a. On doit déterminer si 0 est la seule solution de l’équation −3 0 2 1 9 = 0 . x1 3 + x2 5 + x3 0 9 3 5 On met la matrice augmentée sous forme échelonnée 1 2 −3 0 1 2 1 2 −3 0 3 5 9 0 ∼ 0 −1 18 0 ∼ 0 -1 5 9 3 0 0 −1 18 0 0 0 −3 0 18 0 0 0 x3 est une variable libre, donc il existe des solutions non triviales. {v1 , v2 , v3 } est un ensemble de vecteurs linéairement dépendants. (In)dépendance linéaire – Exemple b. On cherche une solution non triviale. échelonnée réduite. 1 0 33 0 1 −18 0 0 0 Les solutions sont On met sous forme 0 0 0 x1 = −33x3 x2 = 18x3 x3 est libre Une solution particulière est obtenue en prenant x3 = 1 (ou n’importe quel nombre non nul). Alors x1 = −33 et x2 = 18. −33v1 + 18v2 + 1v3 = 0 est une relation de dépendance linéaire. (In)dépendance linéaire et éq. matricielle Ax = 0 (p. 66) Si les vecteurs {v1 , v2 , v3 } sont les colonnes d’une matrice A, chaque relation de dépendance, par exemple −33v1 + 18v2 + 1v3 = 0, correspond à une solution non triviale de l’équation Ax = 0 1 2 −3 −33 0 3 5 9 18 = 0 0 5 9 3 1 Théorème Les colonnes d’une matrice A sont linéairement indépendantes si et seulement si l’équation Ax = 0 n’admet que la solution triviale. En utilisant la contraposée, ce théorème est équivalent à Théorème Les colonnes d’une matrice A sont linéairement dépendantes si et seulement si l’équation Ax = 0 admet des solutions non triviales. Les ensembles de un ou deux vecteurs (p. 67) Théorème Un ensemble qui ne contient qu’un vecteur — disons v — est linéairement indépendant si et seulement si v n’est pas le vecteur nul. Théorème Un ensemble de deux vecteurs {v1 , v2 } est linéairement dépendant si et seulement si l’un des vecteurs est un multiple scalaire de l’autre. L’ensemble est linéairement indépendant si et seulement si aucun des deux vecteurs n’est un multiple scalaire de l’autre. Vecteur nul et dépendance linéaire (p. 69) Théorème (9) Si le vecteur nul est l’un des vecteurs d’un ensemble S = {v1 , v2 , ..., vp } de IRn , alors l’ensemble S est linéairement dépendant. Démonstration. On renumérote les vecteurs de façon à ce que v1 = 0. Alors l’équation 1v1 + 0v2 + · · · + 0vp = 0 est une solution non nulle et montre que l’ensemble S est linéairement dépendant. Dépendance linéaire si p > n (p. 69) Théorème (8) Si un ensemble contient plus de vecteurs qu’il n’y a d’éléments dans chaque vecteur, alors cet ensemble est linéairement dépendant. Autrement dit, tout ensemble {v1 , v2 , ..., vp } de vecteurs dans IRn est linéairement dépendant si p > n. Démonstration. Soit la matrice A = v1 · · · vp . La matrice A est de taille n × p et l’équation matricielle Ax = 0 correspond à un système de n équations à p inconnues. Vu que p > n, il y a plus de variables que d’équations et donccertainement une variable libre. 1 0 0 ∗ ∗ A≈ 0 1 0 ∗ ∗ 0 0 1 ∗ ∗ L’équation Ax = 0 possède donc une solution non triviale et les colonnes de A sont linéairement dépendantes. Caractérisation des ensembles linéaires dépendants (p. 68) Théorème (7) Un ensemble indicé S = {v1 , v2 , ..., vp } de deux vecteurs ou plus est linéairement dépendant si et seulement si au moins l’un des vecteurs de S est une combinaison linéaire des autres. En fait, si S est linéairement dépendant et si v1 6= 0, alors un vj (avec j > 1) est une combinaison linéaire des vecteurs précédents, v1 , v2 , ..., vj−1 . Preuve théorème 7 (p. 70) Partie I : Si dépendance linéaire, alors combinaision linéaire. Supposons que l’ensemble {v1 , v2 , . . . , vm } est linéairement dépendant. Alors, il existe des scalaires c1 , c2 , . . . , cm non tous nuls tels que c1 v1 + c2 v2 + · · · + cm vm = 0. Supposons que c1 = 6 0. L’équation précédente peut être réécrite comme −cm −c2 v2 + · · · + vm . v1 = c1 c1 Et donc v1 est une combinaison linéaire des vecteurs v2 , . . . , vm . Preuve théorème 7 (p. 70) Partie II : Si combinaison linéaire, alors dépendance linéaire. Inversement, supposons que v1 est une combinaison linéaire des vecteurs v2 , . . . , vm . Alors, il existe des scalaires d2 , . . . , dm tels que v1 = d2 v2 + · · · + dm vm . L’équation précédente peut être réécrite comme 1v1 + (−d2 )v2 + · · · + (−dm )vm = 0. Et donc l’ensemble {v1 , v2 , . . . , vm } est linéairement dépendant, ce qui complète la preuve.