Systèmes Linéaires I Définitions II Systèmes

publicité
15 janvier 2014
Systèmes Linéaires
I Définitions
Définition 1
On appelle système linéaire de n équations à p inconnues (à coefficients dans K) tout ensemble d’équations de
la forme :


a1,1 x1 + a1,2 x2 + · · · + a1,p x p = b 1



 a2,1 x1 + a2,2 x2 + · · · + a2,p x p = b 2
(S ) :
..


.


 a x + a x +··· + a x = b
n,1 1
n,2 2
n,p p
n
Pour 1 É i É n et 1 É j É p, ai,j , b i ∈ K sont les coefficients, x j ∈ K les inconnues du système.
Le système est dit homogène si b 1 = b 2 = . . . = b n = 0.
Écriture matricielle : Avec les notations précédentes, on définit :

a1,1 a1,2 . . . a1,p
 a
 2,1 a2,2 . . . a2,p
A=
..
..
 ..
 .
.
.
an,1 an,2 . . . an,p
la matrice du système (S ) (ou H )). On note également :


x1
 x 
 2 

et
X =
 .. 
 . 
xp



 ∈ Mn,p (K)





B =


b1
b2
..
.
bn
Résoudre le système (S ) revient à résoudre l’équation matricielle :






(S ) : AX = B
Définition 2
On appelle système linéaire homogène associé au système (S ) le système : (H ) : AX = 0
II Systèmes équivalents et opérations élémentaires sur un système
Définition 3
Les opérations suivantes sont appelées opérations élémentaires sur le système :
1. Échanger deux lignes
2. Multiplier une ligne par un scalaire non nul
3. Remplacer la ligne L i par L i + λL j ce que l’on note souvent L i ← L i + λL j , avec λ ∈ K
Propositions 1
i) Deux systèmes sont dits équivalents si l’on passe de l’un à l’autre par une suite d’opérations élémentaires.
ii) Deux systèmes équivalents ont le même ensemble de solution.
Lycée Jean Perrin 2013/2014
1 / 10
15 janvier 2014
Remarque 1 : De la même façon, on dira que deux matrices sont équivalentes si l’on passe de l’une à l’autre par une
suite d’opérations élémentaires.
III Échelonnement et algorithme du pivot de Gauss-Jordan
Définition 4
Un système linéaire (ou une matrice) est dit échelonné si il vérifie les deux propriétés suivantes :
i) Si une ligne est entièrement nulle, les lignes suivantes sont nulles
ii) à partir de la deuxième ligne, dans chaque ligne non entièrement nulle, le premier coefficient non nul à
partir de la gauche est situé à droite du premier coefficient non nul de la ligne précédente.
Définition 5
Un système linéaire (ou une matrice) (S ) est dit triangulaire supérieur si i > j ⇒ ai,j = 0
Théorème 1 (Algorithme du pivot de Gauss)
Tout système linéaire ayant au moins un coefficient non nul est équivalent à un système échelonné
Définition 6
On appelle rang du système (S ) le nombre de ligne non nulles après échelonnement.
Mise en oeuvre (principe de démonstration) : algorithme de Jordan-Gauss
On considère un système de n équations à p inconnues dont on suppose qu’il admet au moins une solution :


a1,1 x1 + a1,2 x2 + · · · + a1,p x p = b 1
(L 1 )



 a2,1 x1 + a2,2 x2 + · · · + a2,p x p = b 2
(L 2 )
(S ) :
..


.


 a x + a x +··· + a x = b
(L n )
n,1 1
n,2 2
n,p p
n
On suppose a1,1 6= 0 par exemple (quitte à permuter les équations ou les inconnues). On remplace, pour 2 É i É n,
la ligne (L i ) par la ligne :
(L ′i ) = a1,1 (L i ) − ai,1 (L 1 )
On obtient alors un nouveau système :

a1,1 x1 + a1,2 x2 + · · · + a1,p x p = b 1



 ′

′
′


a2,2 x2 + a2,3
x3 + · · · + a2,p
x p = b 2′





′
′
′

 a3,2
x2 + a3,3
x3 + · · · + a3,p
x p = b 3′
(S 1 )

(∗)
:

.


..







 ′

′
′
x p = b n′
an,2 x2 + an,3 x3 + · · · + an,p
Il est clair que le système (S 1 ) est équivalent au précédent système (S ), car on peut reconstituer (L i ) à partir de
(L 1 ) et (L ′i ) par combinaisons linéaires.
On reprend le procédé avec le système (∗) (les (n − 1) dernières lignes du système (S 1 )). En itérant le procédé, on finit
par obtenir un système triangulaire du type :


α1,1 x1 + α1,2 x2 + · · · · · · · · · + α1,p x p = β1
(L 1 )




α2,2 x2 + · · · · · · · · · + α2,p x p = β2
(L 2 )
(S ′ ) :
..


.



αr,r xr + · · · + αr,p x p = βr (L r )
Lycée Jean Perrin 2013/2014
2 / 10
15 janvier 2014
où αi,i ∈ K∗ pour 1 É i É r . On pose alors :

α1,1 α1,2
 0
α2,2

A′ = 
..
 ..
.
 .
0
···
···
···
..
.
0
αr,r · · ·
α1,p
α2,p
..
.
αr,p









et B ′ = 


β1
β2
..
.
βp






Remarque 2 : Le système ainsi obtenu (S ′ ) : A ′ X = B ′ est donc équivalent au système (S ) : AX = B, et donc les
systèmes (S ′ ) et (S ) ont même rang d’après la remarque 2. Comme la matrice A ′ a clairement pour rang r , on a donc
les conséquences suivantes :
1. Le rang d’un système linéaire est le nombre de lignes non nulles restant après application du pivot de Gauss.
2. Le rang d’une matrice peut être déterminé en appliquant la méthode du pivot sur ses lignes (ou ses colonnes).
Exercice III.1 : Résoudre le système suivant par la méthode du pivot (on donnera au passage le rang du système et
la dimension du R-ev des solutions) :

x+y +z+t
= 1



x + 2y − z + 3t = 4
(S )
 x − y + 2z − 2t = 2


x + 3y − 3z + 5t = 7
Solution. Le système se résout par équivalences à l’aide de la méthode du pivot de Gauss. La première ligne en pivot sert à éliminer la variable x
dans les autres lignes à l’aide des opérations indiquées entre parenthèses :

x + y + z + t = 1 (L 1 )



y − 2z + 2t = 3 (L 2 − L 1 )
(S ) ⇔
−2y + z − 3t = 1 (L 3 − L 1 )



2y − 4z + 4t = 6 (L 4 − L 1 )
On élimine ensuite la variable y à l’aide de la deuxième ligne dans les lignes restantes :


 x + y + z + t = 1 (L 1 )

y − 2z + 2t = 3 (L 2 )
(S ) ⇔
−3z + t = 7 (L 3 + 2L 2 )



0 = 0 (L 4 − 2L 2 )
On constate qu’il ne reste que 3 lignes non nulles après application du pivot, ce qui prouve que le rang du système est 3 compte tenu de la remarque
2, et donc que le sous-espace vectoriel des solutions du système homogène associé est de dimension 1 d’après le théorème 2. Le système équivalent
obtenu est un système triangulaire dont les solutions se déduisent rapidement :

t
= 3z + 7
(L 3 )




(L 2 )
 y = 3 + 2z − 2t = 3 + 2z − 2(3z + 7)
= −4z − 11
(S ) ⇔


 x = 1 − y − z − t = 1 − (−4z − 11) − z − (3z + 7) (L 1 )


x = 5
(L 1 )
L’ensemble des solutions du système est donc :
S = {(5,−4λ − 11,λ,7 + 3λ),λ ∈ R}
On reconnait la forme des solutions du système S décrite au théorème 3, c’est à dire que toute solution est la somme d’une solution particulière
du système et d’une solution du système homogène asocié à ce système :
S = {(5,−11,0,7) + λ(0,−4,1,3) ,λ ∈ R} = {(5,−11,0,7)} + Vect(0;−4;1;3)
|
{z
} |
{z
}
X0
XH
Exemple 1 :

2x + 4y − z + t = 2


x − 2y + 3z − t = 1

 x+y+ z + t =0
2 2
⇔
⇔

 2x + 4y − z + t = 2
8y − 5z + 3t = 0

2y − 2z = −2

1

 x = −z +


3
8
t = −z −


3


y = z +1
(L 1 ) − 2(L 2 ) → L 2 )
(L 1 ) − 2(L 3 ) → (L 3 )
1
8
Ce système admet donc une infinité de solutions. On peut remarquer que ( , 1, 0, − ) est une solution particulière, et
3
3
que l’espace vectoriel des solutions de l’équation homogène associée est défini par :

 x = −z
t = −z

y =z
Lycée Jean Perrin 2013/2014
3 / 10
15 janvier 2014
(Il suffit de reprendre les équations du système, en enlevant les constantes). On remarque que le système comporte
p = 4 inconnues, et que son rang est r = 3 (il reste trois équations après application du pivot), donc d’après le théorème 2, l’espace vectoriel des solutions est de dimension p − r = 4 − 3 = 1 (c’est la droite vectorielle R(−1, 1, 1, −1)).
Finalement, on obtient l’ensemble des solutions de (S ) à l’aide du théorème 3 :
o
n¡ 1
8¢
, 1, 0, − + λ(−1, 1, 1, −1), λ ∈ R
3
3
Remarque 3 :
Par le même procédé, on peut déterminer le rang d’une matrice :






1 1 2
1 1 2
1 1 2
rg  −1 1 −1  = rg  0 2 1  = rg  0 2 1  = 2
0 0 0
0 6 3
−2 4 −1

1
Exercice III.2 : Discuter, suivant les valeurs de λ ∈ R, la

rang de la matrice :
 1
A= 2

1
3
1
2
1
3
1
4
1
3
1
4
λ





Exemple 2 :

 2x + 3y + z = 1
x+y −z =2

x + y + z = −1

 2x + 3y + z = 1
y + 3z = −3
⇔

4z = −6
(L 2 ) + 3(L 3 ) → (L 3 )

 2x + 3y + z = 1
y + 3z = −3
(L 1 ) − 2(L 2 ) → (L 2 )
⇔

y −z =3
(L 1 ) − 2(L 3 ) → (L 3 )

3


z =−


2


3
3
⇔
y = −3 + × 3 =

2
2




 2x = 1 − 9 + 3 = −2
2 2
µ
¶
3 3
Le système a donc pour unique solution −1, , − (son rang est égal à 3, c’est donc un système de Cramer).
2 2
Exemple où le système n’est pas de Cramer : On peut avoir deux cas de figure pour un même système homogène
associé, comme illustré dans les exemples suivants (on passe les détails de la résolution).
Exemples 3 : Les deux systèmes ci-dessous présentent la même partie homogène, la seule différence réside dans la
constante de la troisième équation :
• Premier cas :


4

 2x + y − z = 1
 x= z
5
x + 3y + z = 3
⇔
3



y = − z +1
4x + 7y + z = 7
5
• Deuxième cas :

 2x + y − z = 1
x + 3y + z = 3

4x + 7y + z = −1

 x + 3y + z = 3
5y + 3z = 5
⇔

5y + 3z = 13

 x + 3y + z = 3
5y + 3z = 5
⇔

0=8
Ces systèmes ont pour rang 2, et l’ensemble des solutions de leur système homogène associé (commun) est un
espace vectoriel de dimension 1. Seulement, le premier contient au moins une solution (on dit qu’il est compatible)
alors que le second n’en contient aucune (on dit qu’il est incompatible).
IV Résolution d’un système linéaire - Description de l’ensemble des solutions
Proposition 2
Tout système linéaire à n équations et p inconnues admet soit :
i) Une unique solution
ii) Aucune solution
iii) Une infinité de solution
Lycée Jean Perrin 2013/2014
4 / 10
15 janvier 2014
Définition 7
On dit que le système est de Cramer s’il admet une unique solution
Remarque 4 : Soit S un système linéaire de matrice A, et f : Kp → Kn l’application linéaire canoniquement associée à A. On constate que résoudre le système S (c’est à dire l’équation AX = B) équivaut à résoudre l’équation
f ((x1 , x2 , . . . , x p )) = (b 1 , b 2 , . . . , b n ) ou encore à déterminer f −1 ((b 1 , b 2 , . . . , b n )).
Théorème 2
Un système linéaire homogène de n équations à p inconnues admet toujours au moins une solution : la solution
nulle. De plus, si r est le rang du système, l’ensemble des solutions est un s.e.v. de dimension p − r de Kp .
Démonstration. On veut résoudre l’équation (H ) : AX = 0. On a vu que la résolution de (H ) est équivalente à la recherche de f −1 ((0,0,... ,0)) =
Ker f . Comme f est linéaire, Ker f est un s.e.v. de Kp . Or, d’après le théorème du rang :
dim Kp = dim Ker f + rg f
donc p = dim Ker f + r , et dim Ker f = p − r .
Remarques 5 :
1. Si r = p, le système admet une et une seule solution (la solution nulle). Pour qu’un système
linéaire homogène admette une solution non nulle, il faut et il suffit que r < p.
2. Une conséquence du théorème précédent est que deux systèmes équivalents ont même rang. En effet, les systèmes homogènes associés ont même ensemble de solutions.
Théorème 3
Supposons que le système (S ) : AX = B admette au moins une solution X 0 . Alors l’ensemble des solutions de
(S ) est :
{X = X 0 + X H , X H solution du système homogène associé (H ) : AX = 0}
Démonstration. On sait que X est solution de (S ) si et seulement si AX = B . Or, sachant que X 0 est solution de (S ) :
AX = B ⇔ AX − AX 0 = B − B = 0 ⇔ A(X − X 0 ) = 0
Donc X est solution de (S ) si et seulement si X − X 0 est solution de (H ), ce qui équivaut à :
X − X 0 = X H avec X H solution de (H )
où encore à X = X H + X 0 avec X H solution de (H ).
V Famille de vecteurs de Rn
V.A Familles libres de Rn
Définition 8
u p ) de vecteurs (ou des p
u2 , . . . , ~
u1 , ~
u ∈ Rn est combinaison linéaire de la famille (~
Dans Rn , on dit que le vecteur ~
u p ), s’il existe des réels λ1 , λ2 , . . . , λp tels que :
u2 , . . . , ~
vecteurs ~
u1 , ~
u=
n
X
λi ~
ui = λ1 ~
u1 + λ2 ~
up
u 2 + · · · + λp ~
i=1
~p ).
Cette écriture est également appelée décomposition du vecteur ~
u suivant la famille de vecteurs (~
u1 , ~
u2 , . . . , u
Exemples 4 :
1. Dans C (considéré comme R2 puisque z = a + ıb ∈ C ⇔ (a, b) ∈ R2 ), tout nombre est combinaison linéaire de 1 et
ı.
Lycée Jean Perrin 2013/2014
5 / 10
V.A Familles libres de Rn
15 janvier 2014
2. Dans R3 , ~
u = (x1 , x2 , x3 ) est toujours combinaison linéaire des vecteurs :
~
e 1 = (1, 0, 0),~
e 2 = (0, 1, 0),~
e 3 = (0, 0, 1)
e3
e 2 + x3~
e 1 + x2~
En effet, ~
u = x1~
Exercice V.1 :
1. Dans R2 , écrire ~
u = (3, 2) comme combinaison linéaire de ~
u1 = (1, −1) et ~
u2 = (1, 2).
2. Dans R3 , ~
u = (1, 1, 1) peut-il s’écrire comme combinaison linéaire de ~
u1 = (1, 1, 0) et ~
u2 = (0, 1, 1) ?
Remarque 6 : Il peut y avoir plusieurs combinaisons linéaires donnant le même vecteur. Par exemple dans R3 , ~
u=
(1, 4, −1) est combinaison linéaire des trois vecteurs :
~
e 1 = (1, 2, 0), ~
e 2 = (1, 0, 1) et ~
e 3 = (−1, 2, −2)
En effet on peut par exemple constater que ~
u =~
e 1 +~
e 2 +~
e 3 et que ~
u = 2~
e 1 −~
e 2 + 0~
e3.
Proposition 3
~p ) de vecteurs. Toute combiSoit n vecteurs ~
v 1 ,~
v 2 , . . . ,~
v n , tous combinaisons linéaires d’une famille (~
u1 , ~
u2 , . . . , u
~
~
naison linéaire u des vecteurs v 1 ,~
v 2 , . . . ,~
v n est également combinaison linéaire des vecteurs ~
u1 , ~
u2 , . . . , ~
up .
Démonstration. On montrera cette proposition dans le cas particulier n = 2 et p = 3.
Le passage au cas général ne présente pas de difficultés. On suppose que ~
v 1 et ~
v 2 sont combinaisons linéaires de ~
u 1 ,~
u 2 et ~
u 3 , et que ~
v est
combinaison linéaire de ~
v 1 et ~
v 2 . On pose alors :
~
v 1 = α1 ~
u 1 + α2 ~
u 2 + α3 ~
u 3 et ~
v 2 = β1 ~
u 1 + β2 ~
u 2 + β3 ~
u3
On calcule alors :
~
u
=
=
λα1 ~
u 1 + λα2 ~
u 2 + λα3 ~
u 3 + µβ1 ~
v 1 + µβ2 ~
u 2 + µβ3 ~
u3
~
u
=
(λα1 + µβ1 )~
u 1 + (λα2 + µβ2 )~
u 2 + (λα3 + µβ3 )~
u3
λ~
v 1 + µ~
v2
Donc ~
u est combinaison linéaire de ~
u 1 ,~
u 2 et ~
u3 .
Définition 9 (et propriété)
~p ) une famille de vecteurs de Rn . Les conditions suivantes sont équivalentes :
u2 , . . . , u
u1 , ~
Soit (~
(i) L’un des vecteurs ~
ui est combinaison linéaire des autres.
(ii) Il existe λ1 , λ2 , . . . , λp ∈ R qui ne sont pas tous nuls tels que :
λ1 ~
u1 + λ2 ~
u 2 + · · · + λp ~
u p =~0Rn
Dans ce cas, on dit que la famille (~
u1 , ~
u2 , . . . , ~
u p ) est liée, ou encore que les vecteurs ~
u1 , ~
u2 , . . . , ~
u p sont linéairement dépendants (ou liés).
Démonstration. Procédons par implications réciproques :
~i 0 combinaison linéaire des autres vecteurs, alors il existe des éléments α1 ,α2 ,... ,αi 0 −1 ,αi 0 +1 ,... ,αp
(i ) ⇒ (i i ) Supposons qu’il existe un vecteur u
tels que
p
X
~
αk ~
uk
ui0 =
k=1
k6=i 0
u + αi 0 +1 ~
u i 0 +1 ... + αp ~
u p =~0Rn , et on constate que la relation (i i ) est vérifiée.
Ainsi, α1 ~
u 1 + α2 ~
u 2 + ... ,αi 0 −1 ~
u i 0 −1 + (−1) ~
|{z} i 0
6=0
(i i ) ⇒ (i ) Supposons qu’il existe λ1 ,λ2 ,... ,λp ∈ K non tous nuls (avec par exemple λi 0 6= 0) tels que λ1 ~
u 1 +λ2 ~
u 2 +···+λp ~
u p =~0E . On a alors :
λi 0 ~
ui0 =
Ainsi, ~
ui0 =
Lycée Jean Perrin 2013/2014
p
X
k=1
k6=i 0
p
X
k=1
k6=i 0
Ã
!
λ
− k ~
u k , ce qui démontre (i ).
λi 0
6 / 10
(−λk )~
uk
V.A Familles libres de Rn
15 janvier 2014
Définition 10
Lorsque deux vecteurs sont liés, on dit qu’ils sont colinéaires.
Exemples 5 :
Dans R2 , les vecteurs (−1, 0) et (2, 0) sont liés, car :
2.(−1, 0) + 1.(2, 0) = (0, 0)
Remarques 7 :
1. Toute famille de vecteurs qui contient le vecteur nul est liée.
~p+1 , . . . , ~
2. Si (~
u1 , ~
u2 , . . . , ~
u p ) est liée, alors toute famille (~
u1 , ~
u2 , . . . , ~
up , u
u p+q ), obtenue à partir de la précédente en
ajoutant des éléments, est liée
Exemples 6 : Cherchons maintenant si la famille ((1, −1, 0), (1, 2, 0)) est liée dans R3 . Pour cela, il suffit de chercher
(λ, µ) 6= (0, 0) tels que :
λ(1, −1, 0) + µ(1, 2, 0) = (0, 0, 0)
½
λ+µ = 0
Cette condition entraîne alors
−λ + 2µ = 0
On démontre aisément que ce système a pour unique solution λ = µ = 0. La famille ((1, −1, 0), (1, 2, 0)) n’est donc pas
liée dans R3 .
Définition 11
~p ) est libre si elle n’est pas liée, c’est à dire que pour tous λ1 , λ2 , . . . , λp ∈ K non
u2 , . . . , u
u1 , ~
On dit que la famille (~
u p 6=~0E , ou encore par contraposée :
u 2 + · · · + λp ~
u1 + λ2 ~
tous nuls, on a : λ1 ~
¡
∀λ1 , λ2 , . . . , λp ∈ K,
¢
¢
λ1 ~
u1 + λ2 ~
u 2 + · · · + λp ~
u p =~0E ⇒ (λ1 = · · · = λp = 0
C’est à dire également qu’aucun vecteur n’est combinaison linéaire des autres.
u p sont linéairement indépendants.
u2 , . . . , ~
u1 , ~
On dit aussi que ~
Exemples 7 :
1. Un vecteur non nul forme une famille libre :
(~
u 6= 0 et λ.~
u =~0E ) ⇒ λ = 0
2. Dans R2 , (1, 0) et (0, 1) sont linéairement indépendants car :
λ.(1, 0) + µ.(0, 1) = (0, 0) ⇒ (λ, µ) = (0, 0) ⇒ (λ = µ = 0)
~2 , . . . , ~
Remarque 8 : Si (~
u1 , u
u p ) est une famille libre, toute famille extraite (~
u α1 , ~
u α2 , . . . , ~
uαk ) de celle-ci (avec 1 É α1 <
α2 < · · · < αk É p) est libre.
Théorème 4
~2 , . . . , u
~p ) une famille de p vecteurs de Rn . Soit ~
Soit n et p des naturels et (~
u1 , u
v 1 ,~
v 2 , . . . ,~
v p+1 (p + 1) vecteurs,
tous combinaisons linéaires de (~
u1 , ~
u2 , . . . , ~
u p ), autrement dit :
££
¤¤
∀j ∈ 1, p + 1 ,
~
vj =
p
X
k=1
Alors la famille (~
v 1 ,~
v 2 , . . . ,~
v n+1 ) est liée.
Démonstration. Nous allons démontrer ce résultat uniquement pour n = 1 et n = 2 :
Lycée Jean Perrin 2013/2014
7 / 10
α j ,k ~
uk
V.B Familles génératrices de Rn
15 janvier 2014
• n = 1 : Si ~
v 1 et ~
v 2 sont combinaisons linéaires du vecteur ~
u 1 , on a :
½
~
v 1 = α~
u1
~
v 2 = β~
u1
Si α = 0 ou β = 0, (~
v 1 ,~
v 2 ) est liée d’après la remarque 7. Sinon, on a β~
v 1 − α~
v 2 =~0E , avec β 6= 0 par exemple, donc (~
v 1 ,~
v 2 ) est encore liée.
• n = 2 : Si ~
v 1 ,~
v 2 et ~
v 3 sont combinaisons linéaires des vecteur ~
u 1 et ~
u 2 , on a :

v 1 = α1 ~
u 1 + α2 ~
u 2 (1)
 ~
~
v = β1 ~
u 1 + β2 ~
u2
(2)
 2
v 3 = γ1 u 1 + γ2 u 2
(3)
Si α1 = α2 = 0 ou β1 = β2 = 0 ou γ1 = γ2 = 0, (~
v 1 ,~
v 2 ,~
v 3 ) est liée d’après la remarque 7. Sinon, on peut supposer par exemple que γ2 6= 0, ce
qui permet d’éliminer ~
u 2 dans le système :
γ2 (1) − α2 (3)
⇒
γ2 ~
v 1 − α2 ~
v 3 = (γ2 α1 − γ1 α2 )~
u1
γ2 (2) − β2 (3)
⇒
γ2 ~
v 2 − β2 ~
v 3 = (γ2 β1 − γ1 β2 )~
u1
D’après le cas n = 1, la famille (γ2 ~
v 1 − α2 ~
v 3 ,γ2 ~
v 2 − β2 ~
v 3 ) est liée, donc ∃λ1 ,λ2 ∈ K, avec λ1 6= 0 par exemple tel que :
λ1 (γ2 ~
v 1 − α2 ~
v 3 ) + λ2 (γ2 ~
v 2 − β2 ~
v 3 ) =~0E
Ce qui donne alors :
(λ1 γ2 )~
v 1 + (λ2 γ2 )~
v 2 − (λ1 α2~
v 3 + λ2 β2 )~
v 3 =~0E
| {z }
6=0
Donc (~
v 1 ,~
v 2 ,~
v 3 ) est liée.
Exemples 8 :
1. Dans R2 , toute famille de trois vecteurs est liée, car ces vecteurs sont combinaisons linéaires des deux vecteurs
(1, 0) et (0, 1).
2. De même, dans R3 , toute famille de 4 vecteurs est liée, car ces vecteurs sont combinaisons linéaires des trois
vecteurs (1, 0, 0), (0, 1, 0) et (0, 0, 1). Plus généralement dans Rn , toute famille de n + 1 vecteurs est liée.
Proposition 4
~2 , . . . , ~
Si A est la matrice dont les colonnes sont les coordonnées de p vecteurs (~
u1 , u
u p ) de Rn les propriétés
suivantes sont équivalentes :
u p ) est libre
u2 , . . . , ~
u1 , ~
i) La famille (~
ii) Le système AX = 0 admet uniquement comme solution la solution triviale
iii) Le nombre de pivot est égal à p
Remarque 9 :
On a donc forcément p É n
V.B Familles génératrices de Rn
Définition 12
~2 , . . . , ~
Soit (~
u1 , ~
u2 , . . . , ~
u p ) une famille de vecteurs de Rn . On dit que (~
u1 , u
u p ) est une famille génératrice de Rn si
n
tout vecteur ~
u ∈ R est combinaison linéaire des vecteurs ~
u1 , ~
u2 , . . . , ~
up .
i.e. ∀~
u ∈ E , ∃λ1 , λ2 , . . . , λp ∈ K tels que ~
u=
p
X
λi ~
ui
i=1
Exemples 9 :
1. Dans R2 , (1, 0) et (0, 1) forment une famille génératrice car :
∀x, y ∈ R2 ,
(x, y) = x(1, 0) + y(0, 1)
2. Dans R2 , (1, 1) et (1, −1) forment une famille génératrice car :
∀x, y ∈ R2 ,
Lycée Jean Perrin 2013/2014
(x, y) =
x+y
x−y
(1, 1) +
(1, −1)
2
2
8 / 10
V.B Familles génératrices de Rn
15 janvier 2014
Remarque 10 : À quelle condition une famille de vecteurs de Rn est-elle génératrice ?
Si et seulement si le système AX = Y est compatible (admet au moins une solution ∀Y ∈ Rn ). Donc si et seulement
si rg(A) = n
Il faut nécessairement n É p
Proposition 5
~2 , . . . , ~
Si A est la matrice dont les colonnes sont les coordonnées de p vecteurs (~
u1 , u
u p ) de Rn les propriétés
suivantes sont équivalentes :
i) La famille (~
u1 , ~
u2 , . . . , ~
u p ) est une famille génératrice de Rn
ii) Le système AX = B est compatible
iii) Le nombre de pivot est égal à n
Lycée Jean Perrin 2013/2014
9 / 10
TABLE DES MATIÈRES
15 janvier 2014
Table des matières
I
Définitions
1
II Systèmes équivalents et opérations élémentaires sur un système
1
III Échelonnement et algorithme du pivot de Gauss-Jordan
2
IV Résolution d’un système linéaire - Description de l’ensemble des solutions
4
V Famille de vecteurs de Rn
V.A Familles libres de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
V.B Familles génératrices de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
5
8
Lycée Jean Perrin 2013/2014
10 / 10
Téléchargement