04 - Algèbre linéaire Notes de cours

publicité
Algèbre linéaire.
Chap. 04 : notes de cours.
Somme de sous-espaces vectoriels, sommes directes, sous-espaces vectoriels supplémentaires.
• Somme de sous-espaces vectoriels et définition alternative
• Somme directe de deux ou de plusieurs sous-espaces vectoriels, sous-espaces supplémentaires
• Existence d’un supplémentaire en dimension finie
• Théorème des quatre dimensions ou formule de Grassmann
• Décomposition en somme directe
• Propriété récursive des sommes directes
• Définition équivalente d’une somme directe, d’une décomposition en somme directe
• Caractérisation en dimension finie d’une décomposition en somme directe
• Base d’un espace vectoriel adaptée à un sous-espace vectoriel, à une somme directe de sous-espaces
vectoriels
Projecteurs.
• Projecteurs associés à deux sous-espaces vectoriels supplémentaires, propriétés de tels projecteurs
• Caractérisation des sous-espaces vectoriels définissant un projecteur
• Famille de projecteurs associée à une décomposition en somme directe, et généralisation des propriétés
précédentes
Trace d’une matrice carrée, d’un endomorphisme.
• Trace d’une matrice carrée et propriétés basiques de la trace des matrices carrées
• Trace d’un endomorphisme et trace d’un projecteur en dimension finie
Dual d’un espace vectoriel.
• Dual d’un espace vectoriel et dimension du dual pour un espace vectoriel de dimension finie
• Hyperplan (en dimension finie) et noyau des formes linéaires non nulles
• Equations d’un hyperplan
Déterminants.
• Le programme de PSI se borne à indiquer « exemples de déterminants » sans présentation théorique
• Déterminant d’une matrice triangulaire par blocs
• Caractérisation du rang d’une matrice par des déterminants extraits non nuls
Exemple des déterminants tridiagonaux : suites récurrentes linéaires à deux termes.
• Suite récurrente linéaire à deux termes, réelle ou complexe, équation caractéristique associée
• Structure de K-espace vectoriel des suites récurrentes linéaires à deux termes
• Expression des suites récurrentes linéaires à deux termes
• Définition d’un déterminant tridiagonal et calcul d’un déterminant tridiagonal
Chapitre 04 : Algèbre linéaire – Notes de cours.
-1-
Algèbre linéaire.
Chap. 04 : notes de cours.
Somme de sous-espaces vectoriels, sommes directes, sous-espaces vectoriels supplémentaires.
Théorème 9.1 et définition 9.1 : somme de sous-espaces vectoriels
Soit (E,+,.) un K-espace vectoriel, (Ei)1≤i≤n des sous-espaces vectoriels de E.
L’ensemble des vecteurs de E, s’écrivant comme sommes de vecteurs des différents sous-espaces Ei,
soit donc :
E1 + … + En = {x ∈ E, ∃ (x1, x2, …, xn) ∈ E1×E2×…×En, x = x1 + x 2 + ... + x n },
est un sous-espace vectoriel de E, appelé somme des sous-espaces vectoriels E1, …, En.
Remarque : autre définition d’une somme de sous-espaces vectoriels
Soit (E,+,.) un K-espace vectoriel, (Ei)1≤i≤n des sous-espaces vectoriels de E.
Alors : E1 + … + En = Vect(E1 ∪ … ∪ En).
C’est donc en particulier le plus petit sous-espace vectoriel de E contenant tous les sous-espaces
vectoriels E1, …, En.
Définition 9.2 : somme directe de deux ou de plusieurs sous-espaces vectoriels
Soit (E,+,.) un K-espace vectoriel, F et G des sous-espaces vectoriels de E.
On dit que la somme (F + G) est directe, si et seulement si on a : F ∩ G = {0}.
Lorsque la somme de F et de G est directe, elle est notée : F ⊕ G.
Plus généralement, soient E1, E2, …,En, des sous-espaces vectoriels de E.
On dit que la somme (E1 + … + En) est directe si et seulement si l’intersection de chaque Ei avec la
somme de tous les autres est réduite à {0}, soit :
∀ 1 ≤ i ≤ n, Ei ∩ (E1 + … + Ei-1 + Ei+1 + … + En) = {0}.
Dans ce cas, à nouveau, la somme de ces sous-espaces vectoriels se note : E1 ⊕ … ⊕ En.
Exemples :
4
• Dans , on considère :
4
F’ = {(x,y,z,t) ∈ , x + y + z + t = x − y + z − t = 0 },
F’’ = Vect((1,1,1,1)).
4
4
Ces deux ensembles sont clairement des sous-espaces vectoriels de
(inclus dans , non vide et stable par
combinaisons linéaires pour F’ et « sous-espace vectoriel engendré par… » pour F’’).
4
La somme (F’ + F’’) est alors définie comme l’ensemble des quadruplets u de réels (éléments de ) s’écrivant :
u = u '+u ' ' , avec : u’ ∈ F’, et u’’ ∈ G’’, c'est-à-dire :
u = ( x, y, z , t ) = ( x' , y ' , z ' , t ' ) + ( x' ' , y ' ' , z ' ' , t ' ' ) , avec :
x'+ y '+ z '+t ' = x'− y '+ z '−t ' = 0 , et :
∃ α ∈ , ( x ' ' , y ' ' , z ' ' , t ' ' ) = α .(1,1,1,1)
Ceci s’écrit aussi : ∀ u ∈ , (u ∈ (F’ + F’’)) ⇔ (∃ (u’,u’’) ∈ F’×F’’, u = u '+u ' ' ).
3
• Dans , on considère :
F = Vect((1,0,0)),
G = Vect((0,1,0)),
H = Vect((0,0,1)).
3
Ce sont bien des sous-espaces vectoriels de
comme sous-espaces vectoriels engendrés.
De plus (F + G + H) est l’ensemble des triplets u de réels s’écrivant :
u = v + w + x , avec : v ∈ F, w ∈ G, x ∈ H, c'est-à-dire tels que :
3
∃ (α,β,γ) ∈ , v = α .(1,0,0) , w = β .(0,1,0) , w = γ .(0,0,1) .
4
Autrement dit : ∀ u ∈ , (u ∈ (F + G + H)) ⇔ (∃ (α,β,γ) ∈ , u = α .(1,0,0) + β .(0,1,0) + γ .(0,0,1) = (α , β , γ ) ).
3
3
3
Finalement (F + G + H) est , puisqu’il est inclus dans
et que tout élément de
s’écrit sous cette forme.
• Dans n[X], avec : n ≥ 2, on considère :
3
3
F = Vect( ( X + 1) ),
n
G = {P ∈ n[X], P (0) = 0 }.
Là encore ce sont bien des sous-espaces vectoriels de n[X] pour les mêmes raisons qu’au-dessus.
(F + G) est alors l’ensemble des polynômes réels P de degré au plus n s’écrivant :
P = Q + R , avec : Q ∈ F, R ∈ G, c'est-à-dire tels que : ∃ α ∈ , Q = α .( X + 1) n , et : R (0) = 0 .
Autrement dit : ∀ P ∈
n[X],
(P ∈ (F + G)) ⇔ (∃ α ∈
Chapitre 04 : Algèbre linéaire – Notes de cours.
,∃R∈
n[X],
P = α .( X + 1) n + R , avec : R (0) = 0 ).
-2-
Définition 9.3 : sous-espaces supplémentaires
Soit (E,+,.) un K-espace vectoriel, F et G des sous-espaces vectoriels de E.
On dit que F et G sont supplémentaires dans E si et seulement si on a : E = F ⊕ G.
Théorème 9.3 : existence d’un supplémentaire en dimension finie
Soit (E,+,.) un K-espace vectoriel de dimension finie, F un sous-espace vectoriel de E.
Alors il existe un sous-espace vectoriel G de E, tel que : E = F ⊕ G.
On dit alors que G est un sous-espace vectoriel de E supplémentaire de F dans E.
On a de plus, pour tout supplémentaire G de F dans E : dim(G) = dim(E) – dim(F).
Théorème 9.4 : des quatre dimensions ou formule de Grassmann
Soit (E,+,.) un K-espace vectoriel, F et G des sous-espaces vectoriels de dimension finie de E.
Alors (F + G) est de dimension finie ainsi que F∩G, et :
dim(F + G) + dim(F∩G) = dim(F) + dim(G).
Définition 9.4 : décomposition d’un espace vectoriel en somme directe
Soit (E,+,.) un K-espace vectoriel, E1, …, En, des sous-espaces vectoriels de E.
On dit que E se décompose en somme directe suivant les sous-espaces vectoriels E1, …, En si et
seulement si : E = E1 ⊕ … ⊕ En.
Théorème 9.6 : définition équivalente d’une somme directe, d’une décomposition en somme directe
Soit (E,+,.) un K-espace vectoriel, E1, …, En, des sous-espaces vectoriels de E.
• La somme E1 + … + En est directe si et seulement si le vecteur nul de E admet comme unique
décomposition : 0 = 0 + ... + 0 , comme somme de vecteurs de E1, ..., En.
• E se décompose en somme directe suivant les sous-espaces vectoriels E1, …, En autrement dit on a :
E = E1 ⊕ … ⊕ En, si et seulement si tout vecteur de E se décompose de façon unique comme somme de
vecteurs de E1, …, En.
Remarque : propriété récursive des sommes directes
Soit (E,+,.) un K-espace vectoriel, E1, …, En, des sous-espaces vectoriels de E.
Si la somme (E1 + … + En) des n sous-espaces vectoriels est directe, alors la somme de (n – 1)
quelconques parmi eux l’est encore, et la somme d’une sous-famille quelconque de parmi les n aussi.
Théorème 9.7 : caractérisation en dimension finie d’une décomposition en somme directe
Soit (E,+,.) un K-espace vectoriel de dimension finie, E1, …, En, des sous-espaces vectoriels de E.
Alors les propriétés suivantes sont équivalentes :
• E = E1 ⊕ … ⊕ En,
• dim(E1 + … + En) = dim(E1) + … + dim(En), et : E = E1 + … + En,
• dim(E1 + … + En) = dim(E1) + … + dim(En), et la somme E1 + … + En est directe,
• on obtient une base de E en réunissant des bases choisies dans chaque Ei.
Exemples : on reprend les exemples précédents
4
• Dans , la somme (F’ + F’’) est directe.
En effet, si : 0 = u '+u ' ' , avec : u’ ∈ F’, et u’’ ∈ G’’, alors :
(0,0,0,0) = ( x' , y ' , z ' , t ' ) + ( x' ' , y ' ' , z ' ' , t ' ' ) , avec :
x'+ y '+ z '+t ' = x'− y '+ z '−t ' = 0 , et :
∃ α ∈ , ( x ' ' , y ' ' , z ' ' , t ' ' ) = α .(1,1,1,1) .
Donc : x '+α = 0 , y '+α = 0 , z '+α = 0 , t '+α = 0 , et : 0 = x'+ y '+ z '+t ' = −α − α − α − α = −4.α .
On en déduit que : α = 0 , puis : x ' = y ' = z ' = t ' = −α = 0 .
La seule façon de décomposer le vecteur nul suivant la somme (F’ + F’’) est donc sous la forme : 0 = 0 + 0 , et la
somme (F’ + F’’) est donc directe.
Ici, il est en fait plus simple d’étudier l’intersection F’ ∩ F’’, car :
4
∀ u ∈ , (u ∈ F’ ∩ F’’) ⇔ (∃ α ∈ , u = α .(1,1,1,1) = (α , α , α , α ) , et :
α + α + α + α = α − α + α − α = 0 ).
Il est alors immédiat que : α = 0 , puis : u = 0 , et enfin : F’ ∩ F’’ = {0}, et la somme est directe.
On peut enfin en déduire que : dim(F’ + F’’) = dim(F’) + dim(F’’) – dim(F’ ∩ F’’) = 2 + 1 – 0 = 3,
et je vous laisse le soin de démontrer que : dim(F’) = 2.
4
4
puisque :dim(F’ + F’’) ≠ 4 = dim( ).
Les sous-espaces vectoriels ne sont donc pas supplémentaires dans
3
• Dans , la somme (F + G + H) est encore directe car si : 0 = v + w + x , avec : v ∈ F, w ∈ G, x ∈ H, alors :
Chapitre 04 : Algèbre linéaire – Notes de cours.
-3-
∃ (α,β,γ) ∈
3
,
(0,0,0) = α .(1,0,0) + β .(0,1,0) + γ .(0,0,1) = (α , β , γ ) , et : α = β = γ = 0 .
La seule façon de décomposer le vecteur nul suivant la somme (F + G + H) est donc sous la forme : 0 = 0 + 0 + 0 ,
et la somme (F + G + H) est donc directe.
3
3
Et on a donc :
= F ⊕ G ⊕ H, puisque de plus :
= F + G + H, ou avec un argument de dimension.
• Dans n[X], la somme (F + G) est encore directe car si : 0 = Q + R , avec : Q ∈ F, R ∈ G, alors :
Q = α .( X + 1) n , et : R(0) = 0 , donc : 0 = α .( X + 1) n + R .
n
Donc en particulier : 0 = α .1 + R (0) = α , et en reportant : R = 0 .
∃α∈
,
Là encore la seule façon de décomposer le vecteur nul (ici le polynôme nul) en une somme de vecteurs de F et de
G est celle consistant à prendre deux fois le polynôme nul et la somme est bien directe.
On aurait pu aussi étudier l’intersection en écrivant :
= α .( X + 1) n , et : P (0) = 0 ).
n
Or : P (0) = α .1 = α , donc : α = 0 , et : P = 0 .
∀P∈
n[X],
(P ∈ F ∩ G) ⇔ (∃ α ∈ , P
Les deux espaces sont de plus supplémentaires car :
+ 1) n n’est pas le polynôme nul,
dim(F) = 1, puisque le polynôme ( X
n
dim(G) = n, car : ∀ P ∈
n[X],
P = ∑ a k . X k , (P ∈ G) ⇔ ( P (0) = a 0 = 0 ), d’où : G = Vect(Xn, …, X2, X).
k =0
Donc : dim(F + G) = dim(F) + dim(G) – dim(F ∩ G) = 1 + n – 0 = n + 1 = dim(
n[X]),
et : F ⊕ G =
n[X].
Définition 9.5 : base d’un espace vectoriel adaptée à un sous-espace vectoriel, à une somme
directe de sous-espaces vectoriels
Soit (E,+,.) un K-espace vectoriel de dimension finie, F un sous-espace vectoriel de E.
On dit qu’une base B de E est adaptée à F, si elle est obtenue comme réunion d’une base de F et
d’une base d’un supplémentaire de F dans E.
On dit qu’une base de E est adaptée à une décomposition de E en somme directe, si elle obtenue
comme réunion de bases de chacun des sous-espaces vectoriels concernés par cette somme directe.
Projecteurs.
Définition 10.1, théorèmes 10.1 et 10.2 : projecteurs associés à deux sous-espaces vectoriels
supplémentaires, caractérisation des projecteurs
• Si F et G sont des sous-espaces vectoriels supplémentaires d’un espace vectoriel E, pour tout vecteur
x de E, il existe un unique couple : (y,z) ∈ F×G, tel que : x = y + z.
On appelle alors projeté de x sur F parallèlement à G le vecteur : p(x) = y, et projeté de x sur G
parallèlement à F le vecteur : q(x) = z.
On définit ainsi deux endomorphismes de E appelés projecteurs associés à la décomposition en somme
directe : E = F ⊕ G.
• Ces applications ont les propriétés suivantes :
p ∈ L(E), q ∈ L(E),
pop = p , qoq = q , poq = qop = 0 , p + q = id E ,
ker(p) = Im(q) = G, ker(q) = Im(p) = F.
• Réciproquement, si p est un endomorphisme d’un espace vectoriel E vérifiant : pop = p , alors Im(p) et
ker(p) sont supplémentaires dans E, et p est le projecteur de E sur Im(p) parallèlement à ker(p).
• La propriété : pop = p , est donc pour un endomorphisme de E, caractéristique d’un projecteur de E.
Définition 10.2 et théorème 10.3 : famille de projecteurs associée à une décomposition en somme
directe
n
• Si E est un espace vectoriel se décomposant suivant la somme directe : E = ⊕ Ei .
i =1
On note pi le projecteur de E sur Ei parallèlement à la somme ( E1 ⊕ ... ⊕ E i −1 ⊕ E i +1 ⊕ ... ⊕ E n ).
La famille de projecteurs (pi)1≤i≤n est dite associée à la décomposition.
• Ces projecteurs ont les propriétés suivantes :
∀ 1 ≤ i ≤ n, pi2 = p i ,
∀ 1 ≤ i ≠ j ≤ n, pi op j = 0 ,
Chapitre 04 : Algèbre linéaire – Notes de cours.
-4-
p1 + ... + p n = id E .
Remarque :
Lorsqu’on veut effectivement calculer l’image d’un vecteur par un projecteur, cela revient souvent à
décomposer le vecteur suivant la somme directe définissant le projecteur…
Exemples : on reprend les exemples 2 et 3 précédents
3
• On a démontré que :
= F ⊕ G ⊕ H.
On dispose ainsi de trois projecteurs notés f, g et h associée à cette décomposition et :
3
∀ u ∈ , ∃ ! (uF, uG, uH) ∈ F×G×H, u = uF + uG + uH.
On a alors : f (u ) = u F , g (u ) = u G , h(u ) = u H .
u = ( x, y, z ) , alors : u F = (x,0,0) , u G = (0, y,0) , u H = (0,0, z ) .
D’où : f (u ) = ( x,0,0) , g (u ) = (0, y,0) , h(u ) = (0,0, z ) , et on a bien : f (u ) + g (u ) + h(u ) = u .
Or, si on note :
Chaque projecteur décrit la « composante » du vecteur u appartenant à chaque sous-espace de la somme directe.
• De même : n[X] = F ⊕ G.
Pour : P ∈
n[X],
on pose :
P = Q + R = α .( X + 1) n + R , et en évaluant en 0, en obtient :
P (0) = α .1n + R (0) = α , d’où : Q = P (0).( X + 1) n , et : R = P − P (0).( X + 1) n .
Si on appelle f et g les projecteurs sur F et G respectivement, on en déduit donc que :
f ( P ) = P (0).( X + 1) n , et : g ( P ) = P − P (0).( X + 1) n .
Trace d’une matrice carrée, d’un endomorphisme.
Définition 12.1, théorèmes 12.1 et 12.2 : trace d’une matrice carrée
• Pour une matrice carrée A, on définit la trace de A comme la somme des éléments diagonaux de A,
soit : tr ( A) =
n
∑a
i =1
i ,i
.
• L’application tr est une forme linéaire sur Mn(K).
La trace a de plus les propriétés suivantes :
• ∀ A ∈ Mn(K), tr ( A) = tr ( t A) .
• ∀ (A,B) ∈ Mn(K)², tr ( A.B ) = tr ( B. A) .
• Plus généralement, la trace d’un produit fini de matrices carrées est inchangée par permutation
circulaire des matrices dans le produit.
Théorème 12.3 et définition 12.2 : trace d’un endomorphisme, d’un projecteur
• La dernière propriété entraîne que la trace de la matrice représentative d’un endomorphisme d’espace
vectoriel de dimension finie dans une base de cet espace est indépendante de la base choisie.
• Cette valeur commune est notée tr(u), est appelée trace de l’endomorphisme u et elle vaut donc :
tr(u) = tr(mat(u,B)), où B est une base quelconque de l’espace.
• Si p est un projecteur d’un espace vectoriel E de dimension finie, alors : tr ( p ) = rg ( p ) .
Dual d’un espace vectoriel.
Définition 13.1 et théorème 13.1 : dual d’un espace, cas d’un espace de dimension finie
• Si E est un espace vectoriel, on appelle dual de E l’espace L(E,K), ensemble des formes linéaires sur
E et on le note E*.
• Si E est de dimension finie n, alors : dim(E*) = n = dim(E).
Définition 13.2, théorème 13.2 et 13.5 : noyau des formes linéaires non nulles, hyperplan, équations
d’un hyperplan
• Si E un espace vectoriel de dimension finie n, et ϕ est une forme linéaire non nulle sur E, alors ker(ϕ)
est un sous-espace vectoriel de E de dimension (n – 1), et est un hyperplan de E.
• Toute forme linéaire sur E qui s’annule sur : H = ker(ϕ), est alors proportionnelle à ϕ.
• Si : B = (e1, …,en) est une base de E, et H est un hyperplan de E, ∃ (a1,, … ,an) ∈ Kn, non tous nuls,
tels que : (x ∈ H) ⇔ ( a1 .x1 + ... + a n .x n = 0 ).
La dernière égalité est appelée « équation de H dans la base (e1, …, en) », et toute autre équation de H
Chapitre 04 : Algèbre linéaire – Notes de cours.
-5-
dans cette même base est proportionnelle à cette première équation.
Exemples :
4
• L’ensemble des quadruplets (0, y, z, t) est un hyperplan de .
En effet, il admet pour base ((0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)) qui est bien formée de 3 vecteurs, ou il a pour
4
équation dans la base canonique de
: x = 0, qui est bien du type : 1.x + 0. y + 0.z + 0.t = 0 .
• Dans n[X], l’ensemble des polynômes vérifiant : P(0) = 0, est un hyperplan.
2
n
En effet, c’est bien un sous-espace vectoriel de n[X], qui admet pour base (X, X , .., X ), comportant n vecteurs ou
il a pour équation dans la base canonique de n[X] : a 0 = 0 , soit : 1.a 0 + 0.a1 + ... + 0.a n = 0 .
• Dans Mn( ), les matrices de trace nulle forment un hyperplan.
En effet, ce sont celles qui vérifient l’équation :
a1,1 + a 2, 2 + ... + a n, n = 0 , soit bien une équation du type voulu
(toutes les autres coordonnées sont affectées d’un coefficient 0).
Déterminants.
Remarque générale :
La construction du déterminant sur Mn(K) ou sur En, où (E,+,.) est un K-espace vectoriel de dimension
n est différente en MPSI et PCSI.
La présentation faite dans la partie « cours complet » reprend la présentation théorique qui a pu être
faite en MPSI, et elle nécessite des notions délicates (notamment sur le groupe symétrique)
développées dans cette partie.
La présentation faite dans « Notes de cours (révisions de sup) » est conforme au programme de PCSI.
Le programme de PSI quant à lui se borne à indiquer « exemples de déterminants » sans présentation
théorique.
Définition et théorème : déterminant d’une matrice triangulaire par blocs
Soit : M ∈ Mn(K).
M est dite triangulaire supérieure par blocs lorsqu’elle se présente sous la forme :
 A B
 , où A et C sont des matrices carrées de tailles p×p et q×q, B une matrice de taille p×q,
M = 
0 C
avec : p + q = n , ou plus généralement :
 A1 * L * 


0 O O M 
M =
, où les matrices Ai sont des matrices carrées de taille pi×pi, avec :
M O O *


0 L 0 A 
k 

k
∑p
i =1
i
= n,
et les astérisques représentent des matrices quelconques mais de tailles adaptées.
Alors on a : det( M ) = det( A). det(C ) , dans le 1er cas et : det( M ) =
k
∏ det( A ) , dans le 2
ième
i
cas.
i =1
On parle aussi de matrices diagonales par blocs lorsque les astérisques sont des matrices nulles.
Exemple :
6 − 2
1 2 5


1 −1 2 − 2 1 
La matrice A =  0 0 − 1 1
4  , est triangulaire par blocs (deux blocs diagonaux) et :


0
1 
0 0 1
0 0

0
3
1 

−1 1 4
−1 1 4
1 2
1 5
det( A) =
. 1 0 1 = (−3). 0 1 5 = (−3).(−1).
= 3.(−14) = −42 .
1 −1
3 1
0 3 1
0 3 1
Remarque : caractérisation du rang par des déterminants extraits non nuls
Soit : A ∈ Mn,p( ).
Chapitre 04 : Algèbre linéaire – Notes de cours.
-6-
Alors le rang de A est la taille de la plus grande matrice carrée extraite de A inversible.
C’est aussi la taille du plus grand déterminant extrait de A non nul.
Exemple des déterminants tridiagonaux : suites récurrentes linéaires à deux termes.
Définitions 20.1, 20.2 : suite récurrente linéaire à deux termes, réelle ou complexe, équation
caractéristique associée
On appelle suite récurrente linéaire à deux termes une suite réelle ou complexe (un) telle que :
∃ (α,β) ∈ K2, avec : β ≠ 0, ∀ n ∈ , u n + 2 = α .u n +1 + β .u n .
On appelle équation caractéristique associée à cette suite l’équation : r 2 = α .r + β .
Théorème 20.2 : expression des suites récurrentes linéaires à deux termes
Soit : (α,β) ∈ K2, avec : β ≠ 0.
L’ensemble Eα,β des suites (un) de K qui vérifient la relation : ∀ n ∈ , (Rα,β) u n + 2 = α .u n +1 + β .u n , forme
un K-espace vectoriel de dimension 2.
Soit (un) un élément de Eα,β.
• si, dans le cas réel ou complexe, l’équation caractéristique associée admet deux racines distinctes r1
et r2 , il existe deux constantes réelles ou complexes a et b, telles que : ∀ n ∈ , u n = a.r1n + b.r2n .
• si, dans le cas réel ou complexe, l’équation caractéristique associée admet une racine double r, il
existe deux constantes réelles ou complexes a et b telles que : ∀ n ∈ , u n = ( a.n + b).r n .
• si, dans le cas réel, l’équation caractéristique associée admet deux racines complexes conjuguées
ρ .e ± i.θ , il existe deux constantes réelles a et b telles que : ∀ n ∈ , u n = ρ n .(a. cos(n.θ ) + b. sin(n.θ )) .
Exemples :
• Déterminer la suite de Fibonacci (Fn) telle que :
F0 = F1 = 1 , ∀ n ∈ , Fn + 2 = Fn +1 + Fn .
L’équation caractéristique attachée à une telle suite récurrente linéaire double est :
sont :
ϕ=
r 2 = r + 1 , dont les racines
1+ 5
1− 5
, et : ϕ ' =
.
2
2
Puisque ces racines sont distinctes, on peut affirmer que : ∃ (A,B) ∈
,∀n∈ ,
2
Fn = A.ϕ n + B.ϕ ' n , et on
détermine A et B à l’aide de F0 et F1.
F0 = A.ϕ 0 + B.ϕ ' 0 , soit : 1 = A + B , et : F1 = A.ϕ 1 + B.ϕ '1 , soit : 1 = A.ϕ + B.ϕ ' .
Pour cela, on écrit :
En résolvant le système obtenu, on trouve :
D’où : ∀ n ∈
,
Fn =
ϕ n +1 − ϕ ' n +1
A=
1− ϕ' 1+ 5
ϕ
−1+ 5
ϕ'
=
=
, puis : B =
=−
.
ϕ − ϕ ' 2. 5
5
2. 5
5
.
5
• Déterminer la suite (un) telle que :
u 0 = 0 , u1 = 1 , ∀ n ∈ , u n + 2 = 2.u n+1
− un .
r = 2.r − 1 , qui admet 1 comme racine double.
n
Donc : ∃ (A,B) ∈ , ∀ n ∈ , u n = ( A.n + B ).1 .
On évalue alors cette égalité pour : n = 0, et n = 1, ce qui donne : 0 = B , 1 = A + B , et finalement :
∀ n ∈ , un = n .
L’équation caractéristique est ici :
2
2
• Déterminer la suite (un) telle que :
u 0 = 0 , u1 = 1 , ∀ n ∈ , u n + 2 = 2.u n+1 − 2.u n .
L’équation caractéristique associée est cette fois : r = 2.r − 2 , qui admet pour racines :
2
Donc : ∃ (A,B) ∈
,∀n∈
2
,
n
 π
 π
u n = 2 .( A. cos n.  + B. sin  n. ) .
 4
 4
1 ± i = 2 .e
± i.
π
4
.
A l’aide de u0 et u1, on obtient :
Chapitre 04 : Algèbre linéaire – Notes de cours.
-7-
0
 π
 π
0 = u 0 = 2 .( A. cos 0.  + B. sin  0. ) , soit : A = 0 , puis :
 4
 4
1
 π
 π
1 = u1 = 2 .( A. cos1.  + B. sin 1. ) , soit : B = 1 , d’où :
 4
 4
n
 π
∀ n ∈ , u n = 2 . sin  n.  .
 4
Définition 20.3 : déterminant tridiagonal
Une matrice (ou un déterminant) est dite tridiagonale si et seulement si tous les coefficients de la matrice
sont nuls en dehors de la diagonale principale ainsi que les diagonales situées immédiatement audessus et en dessous de cette diagonale.
Théorème 20.3 : calcul d’un déterminant tridiagonal
Un déterminant tridiagonal se calcule par récurrence.
 a1

 c1
Plus précisément, si : An =  0

M
0

b1 0 L
O O O
O O O
O O O
L 0 c n −1



 , ∆ = det( A ) , vérifie la relation de récurrence :
n
n

bn −1 
a n 
0
M
0
∀ n ≥ 3, ∆ n = a n .∆ n −1 − bn −1 .c n −1 .∆ n − 2 .
En particulier si les ai, bi et ci sont des suites constantes, alors (∆n) constitue une suite récurrente
linéaire à deux termes vérifiant : ∀ n ≥ 1, ∆ n + 2 − a.∆ n +1 + b.c.∆ n = 0 .
On peut alors calculer la valeur de ∆n pour tout n à l’aide du théorème précédent.
Exemple :
4 3 0 L 0
1 O O O M
Calculer les déterminants tridiagonaux n×n suivants définis par : ∀ n ∈
On a : ∀ n ≥ 3,
*,
∆n = 0 O O O 0 .
M O O O 3
0 L 0 1 4
∆ n = 4.∆ n −1 − 1.3.∆ n −2 , et (∆n) constitue une suite récurrente linéaire double dont l’équation
r 2 − 4.r + 3 = 0 , et dont les racines sont 1 et 3.
n
n
2
Donc : ∃ (A,B) ∈ , ∀ n ∈ *, ∆ n = A.1 + B.3 .
caractéristique est :
La relation précédente pouvant se réécrire en : ∀ n ∈
*,
∆ n + 2 = 4.∆ n +1 − 1.3.∆ n , on utilise alors les valeurs de ∆1
et ∆2, pour obtenir :
∆ 1 = 4 = 4 = A.1 + B.3 = A + 3.B , et : ∆ 2 =
On en déduit alors :
6.B = 9 , soit : B =
∀n∈
*,
∆n =
4 3
1 4
= 13 = A.12 + B.3 2 = A + 9.B .
3
1
, et : A = − , d’où finalement :
2
2
3 n +1 − 1
.
2
Chapitre 04 : Algèbre linéaire – Notes de cours.
-8-
Téléchargement