Applications Définition 1.1 Une application f définie sur l’ensemble A et à valeurs dans l’ensemble B : f : A → B, est une loi qui fait correspondre à chaque élément a ∈ A un élément unique b ∈ B, noté f (a) et appelé image de a par f . Définition 1.2 Une application f : A → B est injective, ou encore est une injection, si et seulement si des éléments distincts de A ont des images distinctes dans B : a 6= a0 ∈ A ⇒ f (a) 6= f (a0 ) ∈ B, ou, de manière équivalente (contraposée), si et seulement si : f (a) = f (a0) ∈ B ⇒ a = a0 ∈ A. Définition 1.3 Une application f : A → B est surjective, ou encore est une surjection, si et seulement si chaque élément de B est l’image d’au moins un élément de A : ∀ b ∈ B, ∃ a ∈ A tel que b = f (a). Définition 1.4 Une application f : A → B injective et surjective est appelée bijective : ∀ b ∈ B, ∃ ! a ∈ A tel que b = f (a). On dit aussi qu’elle est une bijection. Lois de composition Définition 1.5 Une loi de composition interne > entre éléments d’un ensemble E est une application d’une partie A de E 2 (= E × E) dans E : not (a, b) ∈ A ⊆ E 2 ⇒ c = >(a, b) = a > b ∈ E. Lorsque A = E 2, la loi de composition interne est dite partout définie sur E. Définition 1.6 La loi interne > définie sur E est associative si et seulement si, pour tout triplet (a1 , a2 , a3 ) d’éléments de E, la relation suivante est satisfaite : (a1 > a2 ) > a3 = a1 > (a2 > a3 ). Théorème 1.1 Pour une loi interne > définie sur E et associative, toute combinaison d’éléments de E formée par application répétée de > ne dépend pas du groupement des éléments impliqués. Définition 1.7 La loi interne > définie sur E est commutative si et seulement si, pour tout couple (a1 , a2 ) d’éléments de E, la relation suivante est satisfaite : a1 > a 2 = a 2 > a 1 . Théorème 1.2 Si une loi interne > définie sur E est à la fois associative et commutative, toute combinaison d’éléments de E formée par application répétée de > ne dépend ni du groupement des éléments, ni de leur ordre. Définition 1.8 La loi interne > définie sur E possède un élément neutre, noté e ∈ E, si et seulement si, pour tout a ∈ E, on a : a > e = e > a = a. Théorème 1.3 Si une loi interne > définie sur E possède un élément neutre, alors il est unique. Définition 1.9 Pour une loi interne > définie sur E et possédant un élément neutre e, un élément a ∈ E est symétrisable s’il existe un élément a0 ∈ E tel que : a > a0 = a0 > a = e. On dit que a0 est un symétrique de a dans (E, >). Théorème 1.4 Pour une loi interne > définie sur E, associative et possédant un élément neutre e, un élément symétrisable admet un seul symétrique. Théorème 1.5 Pour une loi interne > définie sur E, associative et possédant un élément neutre e, le composé de deux éléments symétrisables est symétrisable, et son symétrique est le composé des symétriques dans l’ordre inverse. Définition 1.10 Pour une loi interne > définie sur E, un élément a ∈ E est simplifiable à droite si, pour tout x et tout y ∈ E : x > a = y > a ⇒ x = y. Il est simplifiable à gauche si, pour tout x et tout y ∈ E : a > x = a > y ⇒ x = y. Il est simplifiable s’il est simultanément simplifiable à gauche et à droite. Théorème 1.6 Pour une loi interne > définie sur E, associative et possédant un élément neutre e, tout élément symétrisable est simplifiable. Homomorphisme et isomorphisme de (E, >) dans (E 0, >0 ) Définition 1.11 Un homomorphisme de (E, >) dans (E 0, >0 ) est une application f de E dans E 0 telle que, pour tout (x, y) ∈ E 2, on a : f (x > y) = f (x) >0 f (y). Si l’application est bijective, l’homomorphisme est appelé isomorphisme. Théorème 1.7 Si f est un isomorphisme de (E, >) dans (E 0, >0 ), l’application réciproque f −1 est un isomorphisme de (E 0, >0 ) dans (E, >). Groupe Définition 1.12 Un groupe est un couple (G, >), c’est-à-dire un ensemble G muni d’une loi interne >, qui satisfait aux axiomes suivants : G1. La loi > est associative. G2. Il existe un élément neutre dans (G, >) : ∃ e ∈ G, ∀ a ∈ G, a > e = e > a = a. G3. Tout élément de (G, >) est symétrisable : ∀ a ∈ G, ∃ a0 ∈ G, a > a0 = a0 > a = e. Si, en outre, la loi > est commutative, on parlera d’un groupe commutatif. Théorème 1.8 Soit (G, >), un groupe. Pour tout (a, b) ∈ G2 , l’équation en x et celle en y : a>x=b et y > a = b, et y = b > a0 , ont chacune une solution unique : x = a0 > b respectivement, où a0 désigne le symétrique de a. De plus, si (G, >) est un groupe commutatif, ces solutions sont identiques : x = y. Anneau Définition 1.13 Étant donné deux lois internes > et ⊥ définies sur un ensemble E, la loi > est dite distributive à gauche par rapport à la loi ⊥ si, pour tout a, b et c ∈ E, on a : a > (b ⊥ c) = (a > b) ⊥ (a > c). Elle est distributive à droite si : (b ⊥ c) > a = (b > a) ⊥ (c > a). Elle est distributive si elle l’est à la fois à gauche et à droite. Définition 1.14 Un anneau est un triplet (A, +, ×), c’est-à-dire un ensemble A muni d’une addition et d’une multiplication, qui satisfait aux axiomes suivants : A1. (A, +) est un groupe commutatif (dont le neutre est noté 0 et appelé élément zéro). A2. La multiplication est associative. A3. La multiplication est distributive par rapport à l’addition. Si, en outre, la multiplication possède un élément neutre (noté 1 et appelé élément unité), l’anneau est dit unitaire, et si la multiplication est commutative, l’anneau est dit commutatif. Règle 1.1 (Distributivité généralisée) Soit (A, +, ×), un anneau, et soient a1 , a2 , . . . , am et b1 , b2, . . . , bn, des éléments de A. On a : (a1 + a2 + · · · + am )(b1 + b2 + · · · + bn ) = m X ai i=1 Règle 1.2 ! n X j=1 bj ! = m X n X ai bj . i=1 j=1 Dans un anneau (A, +, ×), la multiplication est distributive par rapport à la soustraction : a(b − c) = ab − ac, et (a − b)c = ac − bc, où a, b et c ∈ A. Règle 1.3 Dans un anneau (A, +, ×), le produit d’un élément quelconque par 0 est égal à 0 : a 0 = 0 c = 0, où a et c ∈ A. Règle 1.4 Dans un anneau (A, +, ×), la règle des signes de l’algèbre classique est valable : a(−c) = −ac, (−b)c = −bc et (−a)(−b) = ab, où a, b et c ∈ A. Définition 1.15 Soit (A, +, ×), un anneau. 1. S’il existe dans A des éléments a 6= 0 et b 6= 0 tels que ab = 0, ces éléments a et b sont appelés diviseurs de zéro. 2. Un anneau intègre est un anneau unitaire commutatif sans diviseurs de zéro. Théorème 1.9 Soit (A, +, ×), un anneau. Les éléments non nuls, non diviseurs de zéro, se confondent avec les éléments simplifiables pour la multiplication. Corps – Champ Définition 1.16 Un corps est un triplet (K, +, ×), c’est-à-dire un ensemble K muni d’une addition et d’une multiplication, qui satisfait aux axiomes suivants : X1. (K, +) est un groupe commutatif. X2. (K0, ×) est un groupe (où 0 désigne l’élément neutre pour l’addition et K0 désigne K moins cet élément). X3. La multiplication est distributive par rapport à l’addition. Si, en outre, la multiplication est commutative, (K0, ×) est un groupe commutatif et le corps est appelé champ. Théorème 1.10 Soit (K, +, ×), un corps. Pour tout (a, b) ∈ K 2, l’équation en x et celle en y : ax = b ya = b et (a 6= 0), ont chacune une solution unique. De plus, si (K, +, ×) est un champ, ces solutions sont identiques : x = y. Théorème 1.11 L’ensemble R2 muni des deux opérations + et × définies pour 0 0 tout (a, b) et (a , b ) ∈ R2 par : 0 0 0 0 (a, b) + (a , b ) = (a + a , b + b ), et 0 0 0 0 0 0 (a, b)(a , b ) = (aa − bb , ab + ba ), constitue un champ, appelé le champ des nombres complexes et noté C. 6 y r Aθ K A 3 z - x 0 Représentation géométrique de z = x + iy. 6 0 r Aθ K A Q Q Q−θ Q rQ 3 z - Q s Q ∗ z Complexe conjugué de z = reiθ . z1 + z2 6 z2 z1 3 - 0 Somme de deux nombres complexes z1 = x1 + iy1 et z2 = x2 + iy2 . z1 z2 6 K Aθ1 + θ2 A z A 2A z A1 1 θ θ A AA2 K AA 1 A K - 0 Produit de deux nombres complexes z1 = r1eiθ1 et z2 = r2eiθ2 . Espace vectoriel Définition 2.1 Un espace vectoriel E sur un champ de scalaires (K, +K , ×K ) est un ensemble d’éléments, appelés vecteurs, muni d’une opération d’addition vectorielle : V1 et V2 ∈ E ⇒ V1 +E V2 ∈ E, et d’une opération de multiplication scalaire : k∈K et V ∈E ⇒ k • V ∈ E, qui satisfait aux axiomes suivants : A1. (E, +E ) est un groupe commutatif. A2. La multiplication scalaire est telle que, pour tout (V1 , V2 ) ∈ E 2 et (k1, k2) ∈ K 2, on a : E1. (k1 ×K k2 ) • V1 = k1 • (k2 • V1 ). E2. 1 • V 1 = V1 E3. (k1 +K k2) • V 1 = (k1 • V1 ) +E (k2 • V1 ). E4. k1 • (V1 +E V2 ) = (k1 • V1 ) +E (k1 • V2 ). (où 1 est l’élément unité du champ K). R1 k (V1 − V2 ) = k V1 − k V2 . R2 (k1 − k2) V = k1 V − k2 V . R3 k 0E = 0E (où 0E désigne le vecteur nul). R4 0K V = 0E (où 0K désigne le scalaire nul). R5 k V = 0E ⇒ k = 0K ou V = 0E . R6 (−k) V = k (−V ) = −k V . 6 kz (k > 0) z 3 3 + r K A θ A - 0 kz (k < 0) Multiplication d’un nombre complexe z par un réel k > 0 ou k < 0. Sous-espace vectoriel Définition 2.2 Soit E, un espace vectoriel sur K. Un sous-ensemble non vide S de E est un sous-espace vectoriel de E si S est lui-même un espace vectoriel par rapport aux lois d’addition vectorielle et de multiplication scalaire définies sur E. Théorème 2.1 Soit E, un espace vectoriel sur K. Un sous-ensemble non vide S de E est un sous-espace vectoriel de E si et seulement si il est fermé pour l’addition vectorielle : (V, W ) ∈ S 2 ⇒ V + W ∈ S, et pour la multiplication scalaire : k∈K et V ∈S ⇒ k V ∈ S. ⇔ (V, W ) ∈ S 2 et (k, `) ∈ K 2 ⇒ k V + ` W ∈ S. Théorème 2.2 Soit E, un espace vectoriel sur K. L’intersection S1 ∩S2 de deux sous-espaces vectoriels S1 et S2 de E est un sous-espace vectoriel de E. Définition 2.3 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux sous-espaces vectoriels S1 et S2 de E est l’ensemble des vecteurs obtenus en faisant la somme d’un vecteur de S1 et d’un vecteur de S2 : S1 + S2 = {V1 + V2 | V1 ∈ S1 et V2 ∈ S2 }. Théorème 2.3 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux sous-espaces vectoriels S1 et S2 de E est un sous-espace vectoriel de E. Définition 2.4 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux sous-espaces vectoriels S1 et S2 de E est appelée directe et notée S1 ⊕ S2 si chaque vecteur V ∈ S1 + S2 peut être décomposé de manière unique en V = V1 + V2 avec V1 ∈ S1 et V2 ∈ S2. Théorème 2.4 Soit E, un espace vectoriel sur K. La somme S1 + S2 de deux sous-espaces vectoriels S1 et S2 de E est directe si et seulement si S1 ∩ S2 = {0E }. Partie génératrice Définition 2.5 Soit E, un espace vectoriel sur K. Une combinaison linéaire de m vecteurs V1 , V2 , . . . , Vm de E est un vecteur V ∈ E défini par : V = k 1 V1 + · · · + km Vm = m X ki V i , i=1 où k1, k2, . . . , km sont des scalaires ∈ K. Définition 2.6 Soit E, un espace vectoriel sur K, et F , une partie non vide de E. L’ensemble engendré par F , noté L(F ), est l’ensemble de toutes les combinaisons linéaires des vecteurs de F . La partie F est appelée partie génératrice de L(F ). Théorème 2.5 Soit E, un espace vectoriel sur K, et F , une partie non vide de E. L’ensemble L(F ) est un sous-espace vectoriel de E. Partie libre – Partie liée Définition 2.7 Soit E, un espace vectoriel sur K. Les m vecteurs V1 , V2 , . . . , Vm ∈ E sont dits linéairement indépendants si : m X ki V i = 0 E , ki ∈ K ⇒ k i = 0K , 1 ≤ i ≤ m. i=1 Les vecteurs V1 , V2 , . . . , Vm constituent alors une partie libre de E. Si l’égalité : m X ki V i = 0 E , ki ∈ K i=1 est possible avec des scalaires ki non tous nuls, les vecteurs V1, V2 , . . . , Vm sont dits linéairement dépendants et constituent une partie liée de E. P1 Un seul vecteur non nul constitue une partie libre. P2 Des vecteurs linéairement indépendants sont nécessairement non nuls. Théorème 2.6 Soit E, un espace vectoriel sur K. Les vecteurs V1 , V2 , . . . , Vm ∈ E, avec m ≥ 2, sont linéairement dépendants si et seulement si l’un d’entre eux est une combinaison linéaire de tous les autres. Théorème 2.7 Soit E, un espace vectoriel sur K. Les vecteurs non nuls V1 , V2, . . . , Vm ∈ E, avec m ≥ 2, sont linéairement dépendants si et seulement si l’un d’entre eux (excepté le premier), par exemple Vj (j > 1), est une combinaison linéaire des vecteurs précédents : Vj = j−1 X `i Vi . i=1 Théorème 2.8 Soit E, un espace vectoriel sur K. Si V ∈ E est une combinaison linéaire de m vecteurs linéairement indépendants V1 , V2 , . . . , Vm ∈ E : V = m X ki V i , i=1 alors les coefficients ki ∈ K sont uniques. Base – Dimension Définition 2.8 Soit E, un espace vectoriel sur K. Un ensemble de vecteurs V1 , V2 , . . . , Vm ∈ E est une base de E s’il constitue à la fois une partie libre et génératrice de E. Lemme 2.1 Soit E, un espace vectoriel sur K. Si, dans une partie génératrice {V1 , V2 , . . . , Vm } de E, un des vecteurs, par exemple V1 , est une combinaison linéaire des autres, alors E est engendré par l’ensemble {V2 , . . . , Vm} obtenu en supprimant V1 dans la partie génératrice initiale. Théorème 2.9 (Existence) Un espace vectoriel E sur K engendré de manière finie possède au moins une base. Lemme 2.2 Soit E, un espace vectoriel sur K, considérons une partie libre {W1, W2, . . . , Wn } de E et une partie génératrice {V1 , V2 , . . . , Vm } de E. Le nombre n de vecteurs linéairement indépendants ne peut surpasser le nombre m de vecteurs générateurs : n ≤ m. Théorème 2.10 (Unicité du nombre de vecteurs d’une base) Dans un es- pace vectoriel E sur K engendré de manière finie, toutes les bases ont le même nombre de vecteurs. Définition 2.9 Soit E, un espace vectoriel sur K. Le nombre commun de vecteurs des bases de E est appelé la dimension de l’espace vectoriel. Théorèmes relatifs aux notions de base et de dimension Théorème 2.11 Pour un espace vectoriel E sur K de dimension n, la dimension a trois significations équivalentes : 1. Le nombre de vecteurs d’une base. 2. Le nombre minimum de vecteurs d’une partie génératrice. 3. Le nombre maximum de vecteurs d’une partie libre. Théorème 2.12 Dans un espace vectoriel E sur K de dimension n : 1. Toute partie génératrice de n vecteurs est une base de E. 2. Toute partie libre de n vecteurs est une base de E. Théorème 2.13 Dans un espace vectoriel E sur K de dimension n : 1. Toute partie génératrice contient une base de E. 2. Toute partie libre est contenue dans une base de E. Dimension et sous-espace vectoriel Théorème 2.14 Soit E, un espace vectoriel sur K de dimension n. Si S est un sous-espace vectoriel de E, alors : dim S ≤ n. Si dim S = n, alors S est l’espace vectoriel E tout entier. Théorème 2.15 Dans un espace vectoriel E sur K de dimension finie, considérons deux sous-espaces vectoriels S1 et S2 de dimension p et q, respectivement, et tels que S1 ∩ S2 = {0E }. Si {V1, . . . , Vp } désigne une base de S1 et {W1, . . . , Wq } une base de S2 , alors l’ensemble de vecteurs {V1 , . . . , Vp , W1, . . . , Wq } constitue une base de S1 ⊕ S2. En particulier, on a : dim (S1 ⊕ S2 ) = dim S1 + dim S2 . Cas général (loi modulaire) : dim S1 + dim S2 = dim (S1 + S2) + dim (S1 ∩ S2 ). L’espace des coordonnées K n (par rapport à une base) Définition 2.10 Soient n ensembles Ai, i = 1, 2, . . . , n. Le produit cartésien des ensembles Ai , noté A1 × A2 × · · · × An , est un nouvel ensemble construit à partir des Ai et tel que chacun de ses éléments est un n-uplet dont la ième composante est dans Ai : A1 × A2 × · · · × An = {(x1, x2, . . . , xn ) | xi ∈ Ai , 1 ≤ i ≤ n}. Tout espace vectoriel E sur un champ K est isomorphe à l’espace K n des coordonnées (par rapport à une base quelconque de E). Application linéaire Définition 3.1 Étant donné deux espaces vectoriels E et F de dimension finie sur un même champ de scalaires K, on appelle application linéaire de E dans F tout homomorphisme f de l’espace vectoriel E dans l’espace vectoriel F , c’està-dire toute application f de E dans F qui conserve les deux opérations d’un espace vectoriel : L1. f (V + W ) = f (V ) + f (W ), L2. f (k V ) = k f (V ), pour tout V et W ∈ E et tout k ∈ K. ⇔ f (k V + ` W ) = k f (V ) + ` f (W ), pour tout V et W ∈ E et tout k et ` ∈ K. P1 L’image du vecteur nul de E par une application linéaire est le vecteur nul de F : f (0E ) = 0F . P2 Une application linéaire conserve les relations linéaires : ! n n X X ki f (Vi), ki V i = f i=1 où Vi ∈ E et ki ∈ K, 1 ≤ i ≤ n. i=1 Z6 V = (x, y, z) • (0, 0, 0) y Y+ x -X • f (V ) = (x, y, 0) Projection de R3 sur le plan (X, Y ). Image et noyau Définition 3.2 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires K. L’image d’une application linéaire f de E dans F est le sous-ensemble de F constitué des images des vecteurs de E : Imf = f (E) = {f (V ) ∈ F | V ∈ E}. Le noyau d’une application linéaire f de E dans F est le sous-ensemble de E constitué des vecteurs de E qui ont pour image le vecteur nul de F : Kerf = {V ∈ E | f (V ) = 0F }. Théorème 3.1 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires K. Pour une application linéaire f de E dans F , Imf est un sous-espace vectoriel de F et Kerf est un sous-espace vectoriel de E. Définition 3.3 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires K, et f , une application linéaire de E dans F . La dimension ρ du sous-espace Imf est appelée le rang de f et la dimension ν du sous-espace Kerf est appelée la nullité de f . Théorème 3.2 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires K. Si f est une application linéaire de E dans F avec E de dimension n, le rang ρ et la nullité ν de f sont reliés par la relation : ρ + ν = n. Corollaire 3.1 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires K. Pour une application linéaire f de E dans F , le rang de f (c’est-à-dire ρ), vérifie : ρ ≤ min{dim E, dim F }. Opérations sur les applications linéaires Définition 3.4 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires K, et soient f et g, deux applications linéaires de E dans F . La somme f + g des applications f et g est l’application qui associe à chaque vecteur V ∈ E le vecteur f (V ) + g(V ) ∈ F : (f + g)(V ) = f (V ) + g(V ). (1) Le produit k f de l’application f par le scalaire k ∈ K est l’application qui associe à chaque vecteur V ∈ E le vecteur k f (V ) ∈ F : (k f )(V ) = k f (V ). (2) L’ensemble LK (E, F ) des applications linéaires d’un espace vectoriel E dans un espace vectoriel F sur un même champ K muni des opérations d’addition vectorielle (1) et de multiplication scalaire (2) constitue un espace vectoriel sur K, noté LK (E, F ). Définition 3.5 Soient E, F et G, trois espaces vectoriels de dimension finie sur un même champ de scalaires K, et soient f , une application linéaire de E dans F , et h, une application linéaire de F dans G. Le composé h ◦ f des applications f et h est l’application de E dans G définie par : (h ◦ f )(V ) = h(f (V )), pour tout V ∈ E. (3) Dans le cas particulier où E = F = G, l’ensemble LK (E, E) des opérateurs linéaires sur E muni de l’addition (1) et de la loi de composition (3) constitue un anneau unitaire, mais pas un anneau intègre. Théorème 3.3 Soient E, F et G, trois espaces vectoriels de dimension finie sur un même champ de scalaires K, et soient f , une application linéaire de E dans F , et h, une application linéaire de F dans G. Le rang de h ◦ f vérifie : rang (h ◦ f ) ≤ min{rang h, rang f }. Application linéaire bijective Théorème 3.4 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires K, et f , une application linéaire de E dans F . L’application linéaire f est injective si et seulement si Kerf = {0E }. Théorème 3.5 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires K, et f , une application linéaire de E dans F . L’application linéaire f est surjective si et seulement si Im f = F . Théorème 3.6 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires K, et f , une application linéaire de E dans F . L’application linéaire f est bijective si et seulement si Kerf = {0E } et Im f = F . Dans ce cas : ρ = dim E = dim F. Définition 3.6 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires K. Une application linéaire f : E → F est inversible s’il existe une application linéaire f −1 : F → E telle que f −1 ◦ f = 1E et f ◦ f −1 = 1F . Théorème 3.7 Soient E et F , deux espaces vectoriels de dimension finie sur un même champ de scalaires K. Une application linéaire f : E → F est inversible si et seulement si elle est bijective. Représentation matricielle d’une application linéaire – En : espace vectoriel de dimension n sur K, – Fm : espace vectoriel de dimension m sur K, – BE = {V1, V2 , . . . , Vn } : base de En, – BF = {W1, W2, . . . , Wm } : base de Fm , – f : application linéaire de En dans Fm. Décomposition unique de V ∈ En dans BE : V = n X xj ∈ K. xj V j , (1) j=1 Par linéarité de f : f (V ) = n X xj f (Vj ). (2) j=1 ({f (V1), f (V2), . . . , f (Vn)} constitue une partie génératrice de Imf ) Décomposition unique de f (Vj ), 1 ≤ j ≤ n, dans BF : f (Vj ) = m X aij Wi, aij ∈ K. (3) i=1 (f complètement déterminée par les mn aij ∈ K) Matrice (représentation matricielle) de f par rapport à BE et BF : a11 a12 . . . a1n a21 a22 . . . a2n A= = [aij ] .. . . .. .. . am1 am2 . . . amn (colonne j de A contient les coordonnées de f (Vj ) dans BF ) (4) Théorème 4.1 Soient En et Fm , deux espaces vectoriels de dimension finie n et m, respectivement, sur un même champ de scalaires K, et soit LK (En, Fm ), l’ensemble des applications linéaires de En dans Fm . Si En et Fm sont rapportés à des bases BE et BF , respectivement, alors il existe une bijection entre LK (En, Fm) et l’ensemble des matrices d’éléments de K à m lignes et n colonnes. Généralités sur les matrices – Une matrice rectangulaire de dimensions m × n sur K, définie par (4), est un tableau à m lignes et à n colonnes d’éléments aij ∈ K. – Si m = n, la matrice est dite carrée d’ordre n. Ses éléments diagonaux sont ceux situés sur la diagonale principale, à savoir aii pour 1 ≤ i ≤ n. – Une matrice-colonne (encore appelée vecteur-colonne ou, plus brièvement, vecteur) est une matrice à une seule colonne (n = 1). – Une matrice-ligne (encore appelée vecteur-ligne) est une matrice à une seule ligne (m = 1). – Il découle du Théorème 4.1 que deux matrices A = [aij ] et B = [bij ] sont égales si et seulement si leurs éléments homologues sont égaux : A=B ⇔ aij = bij , ∀ i, j. Elles ont donc mêmes dimensions. – La transposée de la matrice A, notée AT , est la matrice obtenue en permutant lignes et colonnes : soit donc : a11 a21 . . . am1 a12 a22 . . . am2 AT = , .. . . .. .. . a1n a2n · · · amn AT = [a0ij ] avec a0ij = aji . La transposée d’une matrice de dimensions m × n est donc une matrice de dimensions n × m. En particulier, la transposée d’un vecteur(-colonne) est un vecteur-ligne et réciproquement. – Une matrice est symétrique si elle est égale à sa transposée : A = AT ⇔ aij = aji ∀ i, j. Elle est nécessairement carrée et ses éléments hors de la diagonale principale sont égaux deux à deux. – Dans le cas du champ des complexes C, on appelle matrice hermitienne e: une matrice A égale à sa transposée conjuguée, notée A e A=A ⇔ aij = a∗ji ∀ i, j. Une matrice hermitienne est nécessairement carrée et ses éléments diagonaux sont réels. Notons qu’une matrice hermitienne réelle est symétrique. Toute propriété démontrée pour les matrices hermitiennes complexes est donc valable pour les matrices symétriques réelles. Par contre la théorie des matrices symétriques complexes est différente de celle des matrices hermitiennes. – Les opérations de transposition et de transposition conjuguée sont involutives, c’est-à-dire qu’elles se détruisent lorsqu’elles sont appliquées deux fois : T ee AT = A et A = A. – Une matrice diagonale est une matrice carrée dont tous les éléments hors de la diagonale sont nuls : aij = 0K Elle est notée : pour i 6= j. a11 0K 0K a22 diag(a11 , a22 , . . . , ann ) = .. .. . . 0K 0K · · · 0K · · · 0K . . . . ... · · · ann Si tous les éléments diagonaux valent 1, on obtient la matrice unité d’ordre n: 1n = diag(1, 1, · · · , 1), qui correspond à 1En , l’opérateur linéaire unité sur En (rapporté à la base BE ) : 1En (V ) = V pour tout V ∈ En . En effet : 1En (Vj ) = Vj , 1 ≤ j ≤ n, implique : 1En (Vj ) = n X aij Vi avec i=1 pour 1 ≤ j ≤ n. aij = 0K pour i 6= j, a = 1, jj – Une matrice triangulaire inférieure est une matrice carrée dont tous les éléments au-dessus de la diagonale principale sont nuls : aij = 0K soit : a11 0K a21 a22 .. .. . . an1 an2 pour i < j, · · · 0K · · · 0K . . . . ... · · · ann De même, une matrice triangulaire supérieure est une matrice carrée dont tous les éléments en-dessous de la diagonale principale sont nuls : aij = 0K pour i > j, soit : a11 a12 0K a22 .. .. . . 0K 0K · · · a1n · · · a2n . . . . ... · · · ann De plus, une matrice triangulaire est dite normalisée si ses éléments diagonaux valent 1. – La matrice nulle 0m,n de dimensions m × n est la matrice dont tous les éléments sont nuls. Elle correspond à l’application nulle ω : En → Fm : ω(V ) = 0Fm pour tout V ∈ En. En effet : ω(Vj ) = 0Fm , 1 ≤ j ≤ n, implique : ω(Vj ) = m X aij Wi avec aij = 0K i=1 La matrice carrée nulle 0n,n sera notée 0n. ∀ i, j. – Une matrice est antisymétrique si elle est égale à l’opposé de sa transposée : A = −AT ⇔ aij = −aji ∀ i, j. Une matrice antisymétrique est nécessairement carrée et ses éléments diagonaux sont nuls. – Dans le cas du champ des complexes C, une matrice est dite antihermitienne si elle est égale à l’opposé de sa transposée conjuguée : e A = −A ⇔ aij = −a∗ji ∀ i, j. Elle est carrée et ses éléments diagonaux sont imaginaires purs. – Si A est une matrice symétrique réelle, alors la matrice B = i A est antihermitienne car : e = −i AT = −i A = −B. B – Si A est une matrice antisymétrique réelle, alors la matrice B = i A est hermitienne car : e = −i AT = i A = B. B Multiplication matricielle Le produit C = AB d’une matrice A = [aki] de dimensions ` × m par une matrice B = [bij ] de dimensions m × n est une matrice C = [ckj ] de dimensions ` × n telle que : m X ckj = aki bij , i=1 pour 1 ≤ k ≤ ` et 1 ≤ j ≤ n. Dans le cas particulier où m = n, l’ensemble MK (n) des matrices carrées d’ordre n muni de l’addition matricielle et de la multiplication matricielle constitue un anneau unitaire, mais pas un anneau intègre. Propriété 4.1 La matrice transposée d’un produit C = AB est le produit des matrices transposées dans l’ordre inverse : C T = B T AT . Propriété 4.2 Le produit de deux matrices triangulaires inférieures (supérieures) est une matrice triangulaire inférieure (supérieure). De plus, si les facteurs sont normalisés, le produit est normalisé. Propriété 4.3 Le produit de deux matrices diagonales est une matrice diagonale. De plus, ce produit est commutatif. Décomposition par blocs (sous-matrices) Il est parfois commode de décomposer une matrice en blocs, encore appelés sous-matrices. On obtient par exemple des matrices diagonales par blocs : A11 0p,n−p A = diag(A11, A22) = , 0n−p,p A22 où A, A11 et A22 sont des matrices carrées d’ordre n, p et n − p, respectivement. Les règles d’addition, de multiplication et de transposition s’étendent aux blocs. Ainsi, par exemple, le produit : m n donne : m n p q A11 A21 A12 A22 p q s B11 B21 s t B12 B22 t A11B11 + A12B21 A21B11 + A22B21 A11B12 + A12B22 A21B12 + A22B22 où les dimensions des différentes sous-matrices ont été indiquées. Le transposé du premier facteur donne : p q m T A11 AT12 n AT21 T A22 Rang – Matrice inverse Définition 4.1 Le rang d’une matrice est le nombre maximum de colonnes linéairement indépendantes. Théorème 4.2 Dans une matrice A = [aij ] de dimensions m × n, le nombre maximum de colonnes linéairement indépendantes est égal au nombre maximum de lignes linéairement indépendantes. Définition 4.2 Une matrice carrée d’ordre n est singulière si son rang r est inférieur à son ordre : r < n. Elle est non singulière, ou encore, régulière si son rang est égal à son ordre : r = n. Théorème 4.3 Le rang d’une matrice est l’ordre maximum d’une sous-matrice carrée non singulière. Théorème 4.4 Une matrice carrée est non singulière si et seulement si elle est la représentation matricielle d’une application linéaire bijective. Définition 4.3 Une matrice carrée A d’ordre n est inversible s’il existe une matrice carrée A−1 d’ordre n telle que AA−1 = A−1A = 1n . La matrice A−1 est appelée l’inverse de A. Une matrice carrée est non singulière si et seulement si elle est inversible. Propriété 4.4 La matrice inverse d’un produit C = AB est le produit des matrices inverses dans l’ordre inverse : C −1 = B −1A−1. Propriété 4.5 Le rang d’un produit de matrices est inférieur au rang de chaque facteur : rang AB ≤ min{rang A, rang B}. Changement de bases Soient : – En : espace vectoriel de dimension n sur K, – Fm : espace vectoriel de dimension m sur K, – BE = {V1, V2 , . . . , Vn } : base de En, – BF = {W1, W2, . . . , Wm } : base de Fm , – f : application linéaire de En dans Fm. – A : matrice de f par rapport à BE et BF . Soient : – B E = {V 1, V 2 , . . . , V n } : nouvelle base de En, – B F = {W 1 , W 2 , . . . , W m } : nouvelle base de Fm . −→ Matrice de f par rapport aux nouvelles bases B E et B F à partir de A : A = Q−1AP , où : – P = [pij ] est la matrice de transition (d’ordre n non singulière) de la base BE à la base B E : Vj = n X pij Vi , 1 ≤ j ≤ n, i=1 – Q = [qij ] est la matrice de transition (d’ordre m non singulière) de la base BF à la base B F : Wj = m X i=1 qij Wi, 1 ≤ j ≤ m. Matrices équivalentes et semblables Définition 4.4 Deux matrices A et B de dimensions m × n sont équivalentes, E ce qu’on note A = B, s’il existe une matrice carrée G non singulière d’ordre m et une matrice carrée H non singulière d’ordre n telles que A = GBH. Définition 4.5 Deux matrices A et B carrées d’ordre n sont semblables, ce S qu’on note A = B, s’il existe une matrice carrée G non singulière d’ordre n telle que A = GBG−1 .