Telechargé par ilyasanwar417

Fiches de Révision MPSI

publicité
Fiches de Révision
MPSI
TOME II - Mathématiques
Jean-Baptiste Théou
Creactive Commons - Version 0.1
Licence
J’ai décidé d’éditer cet ouvrage sous la licence Créative Commons suivante : CC-by-nc-sa.
Pour plus d’information :
http ://creativecommons.org/licenses/by-nc-sa/2.0/fr/.
Ce type de licence vous offre une grande liberté, tout en permettant de protéger mon travail contre
une utilisation commercial à mon insu par exemple.
Pour plus d’information sur vos droits, consultez le site de Créative Commons
i
Avant-propos
Il y a un plus d’un an, au milieu de ma SUP MP, j’ai décidé de faire mes fiches de révision à
l’aide de Latex, un "traitement de texte" très puissant. Il en résulte les fiches qui suivent. Je pense
que travailler sur des fiches de révision, totalement séparé de notre cours, est un énorme plus, et
réduit grandement la quantité de travail pour apprendre son cours, ce qui laisse plus de temps
pour les exercices. Mon experience en tout cas va dans ce sens, j’ai notablement progressé à l’aide
de ces fiches.
J’ai décidé de les rassembler sous forme d’un "livre", ou plutôt sous forme d’un recueil. Ce livre
à pour principal interet pour moi d’être transportable en cours. C’est cet interet qui m’a poussé à
faire ce livre.
Dans la philosophie de mes fiches de révision, ce livre est disponible gratuitement et librement
sur mon blog. Il est édité sous License Créative Commons. Vous pouvez librement adapter ce
libre à vos besoins, les sources Latex sont disponibles sur mon blog. Je pense que pour être en
accord avec la philosophie de ces fiches, il serai bien que si vous effectuez des modifications de
mon ouvrage, vous rendiez ces modifications disponible à tous. Je laisserai volontiers une place
pour vos modifications sur mon blog. Je pense sincèrement que ce serai vraiment profitable au
plus grand nombre, et dans la logique de mon travail.
J’ai hiérarchisé mon ouvrage de façon chronologique, tout en rassemblant les chapitres portant
sur le même sujet sous une même partie. Les parties sont rangées dans l’ordre "d’apparition" en
MPSI. J’ai mis en Annexe des petites fiches de méthodologie, qui peuvent s’avérer utiles.
Je vous souhaite une bonne lecture, et surtout une bonne réussite.
Jean-Baptiste Théou
iii
Remerciements
Je tient à remercier tout particulièrement Yann Guillou, ex Professeur de Physique-Chimie en
MPSI au Lycée Lesage, actuellement en poste en Guadeloupe, qui m’a permis de consolider mes
connaisances en physique et qui m’a ouvert les yeux sur la réalité de la physique et sur son histoire. Ces "digressions historiques" resterons de bons moments dans mon esprit, pour longtemps.
Je remercie aussi Paul Maheu, Professeur de Mathématiques en MPSI au Lycée Lesage, qui m’a
permis d’aquérir de solides connaisances en Mathématiques.
Sans eux, ce livre ne pourrai exister.
Pour finir, je me dois à mon avis d’insérer cette citation dans mon ouvrage, citation que nous a
donné Mr Guillou pour nos premiers coups de crayon en Prépa. Elle est à méditer ....
Je suis convaincu qu’il est plus bénéfique
pour un étudiant de retrouver des
démonstrations à partir de quelques
indications que de les lire et de les relire ....
Qu’il les lisent une fois, qu’il les
retrouvent souvent
S RINIVÂSA A IYANGÂR
R ÂMÂNUJAN(1886-1920)
v
Première partie
Fonctions de R dans R
1
Chapitre
1
R
1.1
Définitions
1.2
Structure
Définition 1 (R,+,×) est un corps totalement ordonnée. On dit qu’il est archimédien.
Définition 2 La relation "≤" est une relation d’ordre. Elle est :
→ Reflexive :
∀x ∈ R x ≤ x
→ Anti-symétrique :
∀(x, y) ∈ R2 si : (x ≤ y, y ≤ x), alors x = y
→ Transitive :
∀(x, y, z) ∈ R3 si : (x ≤ y, y ≤ z), alors x ≤ z
1.2.1
Majorant - Minorant
Soit A un ensemble
Majorant
Définition 3 Si M est un majorant de A, avec M ∈ A, alors :
M = M ax(A)
Définition 4 Si M est le plus petit des majorants de A, alors M est la borne supérieure de A :
M = Sup(A)
Propriété 1 Si A c R, si Max(A) existe, alors Sup(A) existe et :
Sup(A) = M ax(A)
Minorant
Définition 5 Si M est un minorant de A, avec M ∈ A, alors :
M = M in(A)
3
Définition 6 Si M est le plus grand des minorant de A, alors M est la borne inférieure de A :
M = Inf (A)
Propriété 2 Si A c R, si Min(A) existe, alors Inf(A) existe et :
M in(A) = Inf (A)
1.2.2
Borne supérieure - Borne inférieure
Propriété 3 Toute partie de R non vide et minorée possède une borne inférieure.
Propriété 4 Toute partie de R non vide et majorée possède une borne supérieure.
Propriété 5 Toute partie de Z non vide et majorée possède un plus grand éléments. (Max)
1.2.3
Partie bornée de R
Soit A une partie de E. On note ceci : A ∈ P (E).
A est bornée si et seulement si :
∃M ∈ R tq ∀a ∈ A, |a| ≤ M
Propriété 6 Propriété d’Archimède : Soient (x,y)∈ R et x>0, alors :
∃p ∈ Z tq y < px
1.2.4
Partie entière
Définition 7 Soit x ∈ R.
Il existe un unique entier p telque p≤ x<p+1
Cette entier p en la partie entière de x. On le note E(x).
Définition 8 En complément, on défini la partie décimale de x, notée D(x) :
D(x) = x − E(x)
1.2.5
Densité
Définition 9 Soit A une partie de R
A est dense dans R si, avec x 6= y :
∀(x, y) ∈ R2 ∃a ∈ A tq a ∈]x; y[
Propriété 7 Puisque l’espace des fractions rationnels, notée Q, est dense dans R, si x ∈ R, alors il existe
une suite de rationnelle qui converge vers x.
1.3
Partie de R
Définition 10 Soient (a,b)∈ R2 . On appelle segment d’extrémité a,b :
[a, b] = {x ∈ R/a ≤ x ≤ b}
Définition 11 Soit I une partie de R. I est un intervalle si :
∀x ∈ I, ∀y ∈ I, [x; y] c I
1.3.1
Sous-groupes de (R ;+)
Critère de reconnaissance des sous-groupes
Définition 12 Soit H une partie de R.
On dit de H est un sous-groupe de (R ;+) si (H ;+) est un groupe.
Propriété 8 H est un sous-groupe si et seulement si :
1- H c R et H non vide
2- ∀(x; y) ∈ H 2 , x − y ∈ H
Chapitre
2
Dérivation des fonctions de R dans R
2.1
Définitions
2.1.1
Définitions
Définition 13 Soit f définie sur un voisinage d’un réel a. f est dérivable en a si :
lim
x7→a
f (x) − f (a)
x−a
existe dans R
Si f est dérivable, cette limite est le nombre dérivée de f en a.
Propriété 9 Le nombre dérivé est la pente d’une droite passant par a. Cette droite est appelé tangente à la
courbe représentative de f au point d’abscisse a.
L’équation de cette tangente est :
y = f (a) + f 0 (a)(x − a)
2.1.2
Lien entre tangente et dérivabilité
Soit x ∈ Df .
Propriété 10 Si on peut écrire f(x) sous la forme :
f (x) = f (a) + A(x − a) + ε(x)(x − a)
avec :
lim ε(x) = 0
x→a
alors f est dérivable en a et f’(a) = A.
2.1.3
Continuité et dérivabilité
Propriété 11 Si f est dérivable en a, alors f est continue en a
Propriété 12 f est dérivable en a si et seulement si :

 f est dérivable à droite en a
f est dérivable à gauche en a
 0
fd (a) = fg0 (a)
7
2.1.4
Théorème de Rolle
Théorème 1 Si :

 f est continue sur [a,b]
f est dérivable sur ]a,b[

f (a) = f (b)
alors :
∃c ∈]a, b[ tq f 0 (c) = 0
2.1.5
Théorème des accroissement finies
Théorème 2 Si :
f est continue sur [a,b]
f est dérivable sur ]a,b[
alors :
∃c ∈]a, b[ tq
2.1.6
f (b) − f (a)
= f 0 (c)
b−a
Inégalité des accroissement finies
Théorème 3 Si :

 f est continue sur [a,b]
f est dérivable sur ]a,b[

f’ est borné sur ]a,b[
Soit M un majorant de |f’|, alors :
|f (b) − f (a)| ≤ M |b − a|
Conséquence
→ Si f est croissante sur I, alors f’(a) ≥ 0
→ Si f et g sont dérivable sur [a,b], avec : ∀x ∈ [a, b] f 0 (x) ≤ g 0 (x), alors :
f (b) − f (a) ≤ g(b) − g(a)
2.1.7
Classe d’une fonction
Soit f fonction, I un intervalle
Définition 14 f est de classe C n sur I si f (n) est définie et continue sur I
Opération
Propriété 13 Soit I un intervalle, soit n ∈ N .
La somme, le produit, la composé de fonction C n sur I, sont des fonctions C n sur I
2.1.8
Formulaire
∀n ∈ N , ∀x ∈ R :
nπ
)
2
nπ
sin(n) (x) = sin(x +
)
2
cos(n) (x) = cos(x +
2.1.9
Formule de Leinbniz
Soient f et g deux fonctions n fois dérivable sur I :
n)
(f g)
=
n X
n
k=0
k
f (k) .g (n−k)
Chapitre
3
Étude locale d’une fonction
3.1
3.1.1
Étude locale
Dominance - Équivalence - Négligeabilité
Soit a ∈ R ∪ {+∞, −∞}. Soient f et g deux fonctions définie au voisinage de a sauf peut être
en a.
Définition 15 On dit que f est dominée par g au voisinage de a si ∃Va , voisinage de a telque |
f
| soit
g
majorée de Va
(f (x) = 0(g(x))) ⇔ (∃Va , voisinage de a, ∃M ∈ R telque ∀x ∈ Va | f (x) |≤ M | g(x) |)
Définition 16 On dit que f est négligeable devant g au voisinage de a, si, pour a ∈ R :
∀ε > 0 ∃α > 0 telque ∀x ∈ ]a + α; a − α[ |f (x)| ≤ ε|g(x)|
On le note f (x) g(x) et f (x) = o(g(x)). On a :
(f (x) g(x)) ⇔ ( lim
x→a
f (x)
= 0)
g(x)
La définition est identique si a est infini
Définition 17 On dit que f est équivalent à g, si :
f (x) − g(x) g(x)
On note f (x) ∼ g(x). Et on a :
(f (x) ∼ g(x)) ⇔ ( lim
x→a
3.1.2
f (x)
= 1)
g(x)
Comparaison successives
Soit f,g,h trois fonctions défini au voisinage de a, sauf peut être en a.
Si :
→ Si f (x) g(x), g(x) h(x) alors :
f (x) h(x)
→ Si f (x) g(x), g(x) ∼ h(x) alors :
f (x) h(x)
11
→ Si f (x) ∼ g(x), g(x) h(x) alors :
f (x) h(x)
→ Si f (x) ∼ g(x), g(x) ∼ h(x) alors
f (x) ∼ g(x)
3.1.3
Échelle de comparaison
Au voisinage de 0 :
0 .. x2 x 1 ln(x) Au voisinage de ∞
0
3.1.4
1
x
√
1
1
1 1 ln(x) x x2 ex
2
x
x
Règles de Manipulation
Somme de deux fonctions
Si, au voisinage de a :

f (x) ∼ αu(x) 
g(x) ∼ βu(x)
Alors f (x) + g(x) ∼ (α + β)u(x)

α + β 6= 0
Produit, rapport, valeur absolu
f (x) ∼ u(x)
g(x) ∼ v(x)
Alors f (x) × g(x) ∼ u(x) × v(x)
De plus :
f (x)
u(x)
∼
g(x)
v(x)
Soit α un réel :
(f (x))α ∼ (u(x))α
| f (x) |∼| u(x) |
Changement de variable
Le changement de variable dans un équivalent est autorisé, mais pas la composé ne l’est pas.
Propriété 14 Si f (x) ∼ g(x), alors lima f et limb f ont même nature et si elles existent sont égales
3.1.5
Formule de Taylor avec reste de Young
Préliminaire
Théorème 4 Si ϕ est une fonction dérivable sur V0 , un voisinage de 0, et si
ϕ(0) = 0
Alors ϕ(x) = O(xn+1 )
∃n ∈ N telque si x → 0, ϕ0 (x) = O(xn )
Si ϕ est dérivable sur V0 et si :
ϕ(0) = 0
si x → 0, ϕ0 (x) = o(xn )
Alors si x → 0 ϕ(x) = o(xn+1 )
Formule de Taylor
Définition 18 Si f est de classe C n sur V0 , alors ∀x ∈ V0 :
f (x) = f (0) + f 0 (0)x + ... +
xn (n)
f (0) + o(xn )
n!
Si f est de classe C n sur un voisinage de a, Va , a ∈ R, alors ∀x ∈ Va :
f (x) = f (0) + ... +
(x − a)n (n)
f (a) + o((x − a)n )
n!
Chapitre
4
Développements limités
4.1
Notation de Landau
Définition 19 Si, lorsque x 7→ 0, f (x) g(x), on note :
f (x) = o(g(x))
Soit n,p entiers :
→ xn × o(xp ) = o(xn+p )
→ o(xn ) × o(xp ) = o(xn+p )
→ o(xn ) + o(xp ) = o(xinf (n,p) )
→ Si A est un réel fixé :
A × o(xn ) = o(xn )
4.2
Définitions
Définition 20 Soit f une fonction définie au voisinage de O.
On dit que f possède un développement limité d’ordre n si il ∃(a0 , ...an ) ∈ Rn telque :
f (x) − (a0 + a1 x + ... + an xn ) xn
donc, au voisinage de 0, f (x) = a0 + a1 x + ... + an xn + o(xn ).
Il y a unicité du développement limité.
On peut faire une combinaisons linéaire de développement limité.
Définition 21 On appelle partie principale du développement limité la fonction polynomiale suivant :
x 7→ a0 + a1 x + ... + an xn
4.3
Équivalence et développement limité
Définition 22 Si f possède un développement limité d’ordre n au voisinage de 0, si ∃k telque ak 6= 0,
notons p l’indice du 1er terme non nuls, alors, au voisinage de 0 :
f (x) ∼ ap xp
4.4
Régularité au voisinage de 0 et développement limité
Définition 23 Au voisinage de 0 :
→ f est de classe C 0 ⇔ ∃ un développement limité d’ordre O
15
→ f est dérivable ⇔ ∃ un développement limité d’ordre 1
f est de classe C 1 ⇒ ∃ un développement limité d’ordre 1
f est de classe C 2 ⇒ ∃ un développement limité d’ordre 2
4.5
Formule de Taylor-Young
Développement limités usuels
α(α − 1) 2
x + o(x2 )
2!
x2
x4
x6
cos(x) = 1 −
+
−
+ o(x6 )
2!
4!
6!
x3
x5
x7
sin(x) = 1 −
+
−
+ o(x7 )
3!
5!
7!
x2
x3
x4
ex = 1 + x +
+
+
+ o(x4 )
2!
3!
4!
1
= 1 + x + x2 + ... + xn + o(xn )
1−x
x2
x4
x2n
ch(x) = 1 +
+
+ ... +
+ o(x2n+1 )
2!
4!
2n!
x3
x5
x2n+1
sh(x) = 1 +
+
+ ... +
+ o(x2n+1 )
3!
5!
(2n + 1)!
x3
x2
ln(1 + x) = x −
+
+ o(x3 )
2
3
→ (1 + x)α = 1 + αx +
→
→
→
→
→
→
→
4.6
Dérivation et Intégration
Définition 24 Pour obtenir le développement limité de f’(x), on dérive terme à terme le développement
limité de f(x).
Pour obtenir le développement limité de F(x), une primitive de f(x), on intègre terme à terme :
Si f (x) = a0 + ... + an xn + o(xn ), alors :
F (x) = F (0) + a0 x + ... +
4.7
an n+1
x
+ o(xn+1 )
n+1
Développement limité au voisinage d’un réel a
Définition 25 Soit f fonction défini au voisinage de a. On dit que f possède, au voisinage de a, un développement limité d’ordre n si ∃P ∈ Rn [X] telque :
f (x) = λ0 + λ1 (x − a) + .... + λn (x − a)n + o((x − a)n )
De plus :
(f est dérivable en a)⇔ (f est défini en a,
et f possède au voisinage de a un développement limité d’ordre 1)
4.7.1
Tangente
Propriété 15 Si, au voisinage de a, f(x) = λ0 + λ1 (x − a) + o((x − a)), alors :
y = λ0 + λ1 (x − a)
est tangent à la courbe en a. Le terme suivant non nul détermine la position relative de la tangente par
rapport à la courbe.
4.8
Développement limité généralisé
Soit α ∈ R
Définition 26 Si au voisinage de 0, on peut écrire :
f (x) = λ0 xα + ... + λn xα+n + o(xα+n )
Alors ceci constitue un développement limité généralisé de f en 0.
Définition 27 Si x 7→ +∞, avec f défini au voisinage de +∞. Si on peut écrire :
f (x) = λ0 xα + .... + λn xα−n + o(xα−n )
Deuxième partie
Les suites
19
Chapitre
5
Suite numérique - Géneralité
5.1
Propriétés
5.1.1
Opérations
Soit (a),(b),(c) trois suites. On peut effectuer trois types d’opérations sur les suites :
→ Une somme :
((a) + (b) = (c)) ⇔ (∀n ∈ N a + b = c)
→ Un produit :
((a).(b) = (c)) ⇔ (∀n ∈ N a.b = c)
→ Un produit par un scalaire :
((a) = λ(c)) ⇔ (∀n ∈ N a = λc)
5.2
Suites particulière
5.2.1
Suite arithmétiques
Soit (un ) une suite arithmétiques :
n
X
uk = (n + 1).
k=0
5.2.2
u0 + un
2
Suite géométrique
Soit (un ) une suite géométrique, de raison q :
n
X
uk = u0 .
k=0
5.3
1 − q n+1
1−q
Suites vérifiant une relation de récurrence linéaire à coefficiants constants
Soit (un ) une suite vérifiant la récurrence :
un+2 = a.un+1 + b.un
Alors, on obtient l’équation caractéristique, en simplifiant par rn :
r2 = ar + b
21
Donc :
∃(A, B) ∈ <2 tq (un ) = A(r1 )n + B(r2 )n
Chapitre
6
Convergence des suite numériques
réelles
6.1
Suites convergentes
Définition 28 Soit (un )n≥0 une suite de nombre réels.
On dit que (un )n≥0 converge vers 0 si :
∀ε > 0, ∃n0 ∈ N tq ∀n ≥ n0 |un | < ε
Définition 29 Soit l ∈ R. La suite un converge vers l si :
∀ε > 0, ∃n0 ∈ N tq ∀n ≥ n0 |un − l| < ε
Les suites convergentes possède les propriétés suivantes :
→ Une suite constante est convergente
→ Une suite géométrique de raison a avec |a|<1 converge vers 0
1
→ La suite ( )n≥1 converge vers 0
n
→ Si (un ) converge vers une limite l, elle est unique.
→ Un suite (un ) converge vers 0 si et seulement si (|un |) converge vers 0
→ Une suite convergente est bornée
→ Si (an ) converge vers 0 et ∃n0 ∈ N tq ∀n ≥ n0 |un | ≤ |an |, alors (un ) converge vers 0
6.1.1
Caractérisation de la borne supérieur
On peut caractériser la borne supérieur d’un ensemble non vide et majorée à l’aide d’une suite.
Soit A une partie de R
( M est la borne supérieur de A ) ⇔
M est un majorant de A
∃(an ) tq ∀n ∈ Nan ∈ A et an converge vers M
23
6.1.2
Caractérisation d’une partie dense
Soit A une partie de R
( A est dense dans R) ⇔ (∀x ∈ R, ∃(un ) ∈ Rn , ∀n un ∈ A et an converge vers x)
6.1.3
Opération sur les suites convergentes
Nous avons les propriétés suivantes :
→ La somme de deux suites convergente est convergente, et la limite de la somme est la
somme des limites.
→ Le produit par une constante d’une suite convergente est convergente
→ Le produit d’une suite bornée par une suite convergente de limite nul est une suite convergente de limite nul.
→ Le produit d’une suite convergente par une suite convergente de limite nul est une suite
convergente de limite nul.
→ Le produit de deux suite convergentes est une suite convergente
→ Si (un ) est une suite convergente de terme tous non nuls, si l 6= 0, alors
1
l
1
converge vers
un
→ Si (un ) est une suite convergente de limite l, alors (|un |) converge vers |l|
6.1.4
Lien entre le signe de la limite et le signe des termes de la suite
→ Si l>0, alors ∃n0 ∈ N, tq ∀n ≥ n0 , un > 0
→ Si l<0, alors ∃n0 ∈ N, tq ∀n ≥ n0 , un < 0
→ Si ∃n0 ∈ N tq ∀n ≥ n0 , un < 0, alors l ≤ 0
→ Si ∃n0 ∈ N tq ∀n ≥ n0 , un > 0, alors l ≥ 0
De ces correspondances, on détermine les comparaisons entre deux suites convergentes.
6.1.5
Théorème d’encadrement
Si :

 (un ) converge vers l
(vn ) converge vers l

∃n0 ∈ N, ∀n ≥ n0 , un ≤ xn ≤ vn
Alors xn converge vers l.
6.1.6
Suite extraites
Propriété 16 Si (un ) converge, alors toutes ses suites extraites converge vers la même limite.
Propriété 17 Si :
(uϕ(n) ) et (uψ(n) ) converge vers la même limite
{ϕ(n) / n ∈ N} ∪ {ψ(n) / n ∈ N} = N
Alors la suite (un ) converge
6.2
6.2.1
Suites divergentes
Caractéristation des suites divergentes
Si :
(uϕ(n) ) et (uψ(n) ) converge vers des limites différentes
{ϕ(n) / n ∈ N} ∪ {ψ(n) / n ∈ N} = N
Alors la suite (un ) diverge
6.2.2
Suites qui diverge vers ±∞
Définition 30 Soit (un )n≥0 une suite de nombre réels.
On dit que (un )n≥0 diverge vers +∞ si :
∀A ∈ R+ , ∃n0 ∈ N tq ∀n ≥ n0 un > A
Définition 31 Soit (un )n≥0 une suite de nombre réels.
On dit que (un )n≥0 diverge vers −∞ si :
∀B ∈ R− , ∃n0 ∈ N tq ∀n ≥ n0 un < B
Propriétés
→ ((un ) diverge vers −∞) ⇔ ((−un ) diverge vers +∞)
→ La somme d’une suite bornée et d’une suite qui diverge vers +∞ diverge vers +∞
→ L’inverse d’une suite qui tend vers +∞ converge vers 0
6.2.3
Théorème de minoration
Théorème 5 Si (un ) et (vn ) sont deux suites telque :
(un ) diverge vers + ∞
∃n0 tq ∀n ≥ n0 un ≥ xn
Alors (xn ) diverge vers +∞
6.3
Suite monotone et convergente
Théorème 6 Soit (un ) une suite croissante.
Si elle est majorée, alors elle converge. Sinon, elle diverge vers +∞
Théorème 7 Soit (un ) une suite décroissante.
Si elle est minorée, alors elle converge. Sinon, elle diverge vers −∞
6.3.1
Suites adjacentes
Définition 32 Soient (un ) et (vn ) deux suites. Elle sont dites adjacentes si :
1. (un ) croissante
2. (vn ) décroissante
3. (un − vn ) converge vers 0
Propriété 18 Si (un ) et (vn ) sont adjacentes, alors elles convergent vers la même limite, notée l et :
∀n ∈ N, un ≤ l ≤ vn
6.3.2
Segments emboités
Définition 33 On considère une suite de segments. On dit que la suite est emboitée si :
∀n ∈ N [an+1 , bn+1 ] C [an , bn ]
Propriété 19 Nous avons les propriétés suivantes :
→ L’intersection de tous les intervalles d’une suites d’intervalle emboitée est non vide
→ Si la longeur de l’intervalle tend vers 0, alors l’intersection est un singleton
6.3.3
Théorème de Bolzano-Weierstrass
Théorème 8 De toutes suites réelle bornée, on peut extraire une suite convergente.
Chapitre
7
Suite à valeur complexe
7.1
Convergence
Définition 34 Soit (zn ) une suite à valeur complexe. On dit que cette suite converge vers λ si et seulement
si :
∀ε > 0, ∃n0 ∈ N tq ∀n ≥ n0 |un − λ| < ε
7.2
Partie réeles, partie imaginaire
Propriété 20 Si Re(zn ) converge vers a et Im(zn ) converge vers b, alors (zn ) converge vers a+ib.
7.3
Suites des modules et suites des arguments
Soit (zn ) la suite défini par :
∀n ∈ N zn = ρn eiθn
Propriété 21 Si :
(ρn ) converge vers a
(θn ) converge vers b
alors (zn ) converge vers aeib
Mais si la suite des arguments ne converge pas, la suite (zn ) peut quand meme converger.
7.4
7.4.1
Opération
Somme de deux suites convergente
Propriété 22 Soient (zn ) et (zn0 ) deux suites convergentes de limite λ et λ0 .
On obtient que (zn + zn0 ) converge vers λ + λ0
27
Chapitre
8
Etude des suites
8.1
Suite complexe
Soit (zn ) une suite de complexe
Propriété 23
((zn ) converge vers λ) ⇔ (|zn − λ| converge vers 0 )
Propriété 24
((zn ) converge vers λ) ⇔ (Re(zn ) converge vers Re(λ) et Im(zn ) converge vers Im(λ))
Propriété 25 Si (zn ) converge vers λ, alors (|zn |) converge vers |λ|.
Mais aucune information sur le comportement de l’argument.
Propriété 26 Si le module de zn converge vers R et que l’argument de zn converge vers α, alors (zn )
converge vers Reiα
Propriété 27 Soit (zn ) suite complexe défini par :
∀n ∈ N zn = an
Avec a ∈ C. Si :
→ a=0, (zn ) est une suite constante
→ a ∈ ]0,1[, (zn ) converge vers 0
→ |a| > 1, (zn ) diverge vers +∞
→ |a| = 1.
→ Si a 6= 1, alors la suite diverge
→ Si a = 1, (zn ) est une suite constante
8.2
Suites définies par récurrence
Définition 35 Soit f une fonction de R dans R, définie sur Df , et (un ) une suite définie telque :
u0 ∈ R
∀n, un+1 = f (un )
29
8.2.1
Existance de la suite
Propriété 28 Soit (un ) une suite de réel, défini par récurrence à l’aide de la fonction f.
(∀n, un existe) ⇐ (u0 ∈ Df et Df est stable par f)
(∀n, un existe) ⇐ (u0 ∈ Df et f (Df )CDf )
8.2.2
Sens de variation
Propriété 29 Soit (un ) une suite de réel, défini par récurrence à l’aide de la fonction f.
((un ) est croissante ) ⇔ (∀n ∈ N, un+1 ≥ un )
((un ) est croissante ) ⇔ (∀n ∈ N, f (un ) ≥ un )
En pratique, si ∀x ∈ I, f (x) ≥ x et si ∀n ∈ N, un ∈ I, alors (un ) est croissante.
8.2.3
Limite éventuelle
Si (un ) converge vers l et que f est continue en l, alors l = f(l)
8.3
Règle de d’Alembert
Soit (un ) une suite de réels positifs.
Supposons que :
lim
n→∞
un+1
=a
un
→ Si a ∈ [0, 1[, (un ) converge vers 0
→ Si a>1, (un ) diverge vers +∞
8.4
8.4.1
Comparaison des suites
Définitions
Définition 36 Soit (un ) et (vn ) deux suites à valeur réelle.
On dit que (vn ) domine (un ) si :
∃A ∈ R+ tq ∀n ∈ N |un | ≤ A.|vn |
On note un =O(vn )
Définition 37 On dit que (un ) est négligable devant (vn ) ou que (vn ) est préponderant devant (un ) si :
∀ε > 0 ∃n0 ∈ N tq ∀n ≥ n0 |un | ≤ ε|vn |
On note un vn ou un = o(vn )
Définition 38 On dit que (un ) est équivalent à (vn ) si (un − vn ) est négligable devant (vn )
8.4.2
Comparaison des suites de référence
Propriété 30 Soit (cn ) une suite telleque :
lim |cn | = +∞
n→+∞
Si (an ) converge vers 0, si (bn ) converge vers l, l6= 0, alors :
an bn cn
Comparaison des suites qui divergent vers +∞
Soit A > 1, α > 0 :
ln(n) nα An n! nn
Comparaion des suites qui converge vers 0
Soit B < 1, β < 0, alors :
0 B n nβ 1
ln(n)
Comparaion des suites convergente de limite non nul
Soient l,l’ deux réels non nuls.
Soient (un ) et (vn ) deux suites qui convergent respectivement vers l et l’.
Alors :
l
u n ∼ 0 vn
l
8.5
Règles d’utilisation des équivalents et négligabilité
Propriété 31 Soient (un ), (vn ) et (wn ) trois suites.
un vn et vn wn ⇒ un wn
un ∼ vn et vn ∼ wn ⇒ un ∼ wn
un ∼ vn et vn wn ⇒ un wn
un vn et vn ∼ wn ⇒ un wn
Propriété 32 Soient (un ), (vn ) deux suites et (an ), (bn ) deux autres suites.
Si :
(un ) ∼ (vn ) et (an ) ∼ (bn )
alors :
(un )(an ) ∼ (vn )(bn )
Ceci n’est pas vrai dans le cas de l’addition.
Propriété 33 Soient (un ), (vn ) et (an ) trois suites et λ, µ deux réels de somme non nuls.
Si :
(un ) ∼ λ(an ) et (vn ) ∼ λ(an )
Alors :
un + vn ∼ (λ + µ)an
Si la somme des deux réels est nul, nous n’avons aucun résultats.
α
Propriété 34 Si un ∼ vn , alors uα
n ∼ vn
Propriété des équivalents
Propriété 35 Soient un et vn deux suites telque un ∼ vn .
→ Si un diverge, alors vn diverge
→ Si un converge, alors vn converge vers la même limite
→ Si la limite de un en l’infini est l’infini, alors la limite de vn en l’infini est aussi l’infini
Troisième partie
Arcs Paramétré
33
Chapitre
9
Arcs Paramétrés et Arcs Polaire
9.1
Étude locale d’un arc
Définition 39 Soit τ un arc paramétré défini par (F,I), avec I un intervalle et F une fonction :
F : I → R2
t 7→ M (t)
x(t)
avec : M(t) =
y(t)
Propriété 36 Supposons que x et y soient de classe C n sur I, alors on dit que (τ ) est de classe C n
9.1.1
Point Régulier
−
→
−
→
dM
dM
→
−
(t0 ) 6= 0 , alors
(t0 ) est un vecteur directeur de la tangente au support de l’arc en
dt
dt
M(t0 ). On dit alors que M(t0 ) est un point régulier de l’arc.
Si
9.1.2
Point Singulier
−
→
dM
→
−
(t0 ) = 0 , alors M(t0 ) est un point singulier.
dt
Par application de la formule de Taylor, on obtient les deux entiers caractéristiques suivants.
Si
Premier entier caractéristique de (τ ) en M(t0 )
Définition 40 Notons p, si il existe :
p = M in{k/
alors
−
→
→
−
dk M
(t0 ) 6= O }
k
dt
−
→
dp M
(t0 ) est tangent à l’arc en M(t0 )
dtp
Deuxième entier caractéristique de (τ ) en M(t0 )
Notons q, si il existe :
q = M in{k/
−
→
−
→
dk M
dp M
(t
)
et
(t0 ) soient non colinéaire}
0
dtk
dtp
35
Coordonnée de M(t) dans un repère particulier
−
→
−
→
dq M
dp M
(t
),
(t0 ))
Soit R le repère défini par : (M (t0 ),
0
dtp
dtq
Dans ce repère, on obtient les coordonnées suivantes pour M(t) :

(t − t0 )p

 X(t) ∼
p!
(t
−
t0 )q

 Y (t) ∼
q!
On obtient donc :
→ p paire, q impaire : Point de rebroussement du première ordre
→ p paire, q paire : Point de rebroussement du deuxième ordre
→ p impaire, q paire : Point ordinaire
→ p impaire, q impaire : Point d’inflexion
9.2
9.2.1
Etude métrique des arc paramétré
Longeur d’un arc
Soit (τ ) un arc de classe C 1 sur I = [a,b], avec a < b.
\(b)) la longeur de l’arc (τ ) reliant M(a) à M(b). On obtient :
Soit l(M (a)M
Z
\(b)) =
l(M (a)M
b
||
a
9.2.2
−
→
dM
(t)||dt
dt
Abscisse curviligne
Soit τ un arc de classe C 1 sur un intervalle I.
On défini une abscisse curviligne avec :
1- Un point de l’arc, appelé origine.
2- Une orientation sur l’axe :
→ Le sens des t croissants
→ Ou le sens des t décroissants
Soit M(t0 ) l’origine de l’abcisse, soit s(t) l’abscisse du point M(t).
Z
t
s(t) = ε
t0
−
→
dM
||
(u)||du
dt
avec ε = ±1 selon l’orientation de l’axe.
On obtient aussi :
−
→
ds
dM
= ||
||.ε
dt
dt
s est un paramétrage du support de l’arc. De plus, on obtient :
−
→
dM
||
|| = 1
ds
Repère de Frenet en M(t)
−
→
→
−
dM
le premier vecteur de Frenet en M(t). On le calcul en utilisant le faite que :
On note T =
ds
−
→
−
→
dM
ε
dM
= −
→ .
M
ds
|| ddt
|| dt
→
−
→
− →
−
On note N l’unique vecteur vérifiant que (M(t), T , N ) soit un repère orthonormée directe, appelé
repère de Frenet en M(t).
−
→
− →
→
−
Soit ϕ = ( i , T )[2π], avec i vecteur horizontal passant par M(t).
Alors :
→
−
cos(ϕ)
T =
sin(ϕ)
→
−
N =
9.2.3
−sin(ϕ)
cos(ϕ)
Courbure d’un arc en un point
Définition 41 On défini le rayon de courbure en M(t), notée R, par :
R=
ds
dϕ
Définition 42 La courbure en M(t), notée γ, est défini par :
γ=
9.2.4
1
dϕ
=
=
R
ds
dϕ
dt
ds
dt
Formules de Frenet
→
− cos(ϕ)
→
− −sin(ϕ)
Soit T
et N
les deux vecteurs de la base de Frenet.
sin(ϕ)
cos(ϕ)
Sachant que :
→
−
→
−
dT
=N
dϕ
On obtient :
→
−
→
−
dT
= γN
ds
De meme, on obtient que :
→
−
→
−
dN
= −γ T
ds
Lien entre courbure, vitesse et accélération
−
→
→
−
→
−
dM
et v = || V ||.
Notons V =
dt
On obtient :
→
−
→
−
V = ε.v. T
→
−
dV
→
−
. Notons a =
. Alors :
dt
−
→
−
dv →
→
−
a = ε. . T + v 2 .γ. N
dt
De cette expression, on en déduit que :
γ = ε.
→
− −
Det( V , →
a)
3
v
9.3
Plan d’étude d’un arc paramétré
1- Domaine de définition
2- Réduction du domaine d’étude :
→ Periodicité
→ Symétrie
→ Partié
3- Dérivablité : Faire un double tableau de variation (un pour x, un pour y)
4- Tangentes
→ En un point régulier : Le vecteur de coordonée (x0 (t0 ), y 0 (t0 )) est tangent en t0 .
→ En un point singulier :
y 0 (t)
t7→t0 x0 (t)
lim
Ou on peut utiliser la méthode des entiers caractéristiques
→ En un point limite
y(t) − limy
lim
t7→t0 x(t)
t0
− limx
t0
5- Branches infinies : Si limx = +∞ et limy = +∞
t0
t0
y
→ lim
t0 x
→ ∞ : Branche de direction Oy
→ a∈R:
→ limy − ax :
t0
→ b ∈ R : y = ax+b asymptote
→ ∞ ou ∅ : Branche de direction ax
→ 0 : Branche de direction Ox
→ ∅ : Aucune méthode
6- Concavité :
→
−
−
→ Etude du signe de Det(→
v ; Γ)
→
−
−
→ L’angle (→
v ; Γ ) donne la position de la tangente
→ Les points d’inflexion sont les points de changements de concavité
7- Point double : On résoud le système suivant, d’inconnu (t,t’), avec t 6= t0 :
x(t) = x(t0 )
y(t) = y(t0 )
9.4
Arcs polaire
9.4.1
Liens polaire-cartésien
Soit (ρ,θ) les coordonnée de M, telque :
−−→
−
OM = ρ→
u (θ)
On obtient les coordonées cartérisien de M avec :
x = ρcos(θ)
y = ρsin(θ)
On a donc :
9.4.2
p
ρ = ± x2 + y 2
Equivalence et symétrie
Soit M (ρ, θ) = M (−ρ, θ + π) (cette égalité est vérifie pour tout point du plan) :
→ M1 symétrique de M par rapport à (Ox) si :
M1 (ρ, −θ + k2π/k ∈ Z)
→ M2 symétrique de M par rapport à (Oy) si :
M2 (ρ, π − θ)
→ M3 symétrique de M par rapport à l’origine si :
M3 (ρ, π + θ)
9.4.3
Étude des tangentes
→ Si ρ(θ) est dérivable en θ :
dM (θ)
est tangent en M(θ)
θ
avec :
dM (θ)
−
−
= ρ0 →
u + ρ→
v
θ
cos(x)
→
−
u (θ)
sin x
−sin(x)
→
−
v (θ)
cos x
−
→ Si ρ(θ) = 0 : →
u (θ) est tangent en 0
9.4.4
Etude d’une branche infini
Si :
lim ρ(θ) = ∞
θ7→θ0
−
Alors la courbe possède une branche infini de direction →
u (θ0 ). On réalise alors une étude dans le
→
−
→
−
repère (0, u (θ0 ), v (θ0 )) :
lim Y (θ)
θ7→θ0
avec Y (θ) = ρsin(θ − θ0 )
Chapitre
10
Les coniques
10.1
Définition
Définition 43 On appelle conique de foyer F, de directrice ∆ et d’excentricité e l’ensemble :
{M/e.distance(M, ∆) = M F }
10.1.1
Définitions bifocale d’une ellipse
Définition 44 Soit F et F’ les deux foyers de l’ellipse. On défini cette ellipse par :
( M appartient à l’ellipse ) ⇔ (M F + M F 0 = cte = 2.a)
avec a le demi-grand axe.
10.1.2
Définitions bifocale d’une hyperbole
Définition 45 Soit F et F’ les deux foyers de l’hyperbole. On défini cette hyperbole par :
( M appartient à l’hyperbole ) ⇔ (|M F − M F 0 | = cte = 2.a)
avec a la valeur absolue de la distance du point d’intersection entre l’axe 0x et l’hyperbole avec l’origine.
Définition 46 On appelle cercle principale d’une ellipse le cercle de centre O et de rayon a.
10.2
Les différentes coniques
10.2.1
L’ellipse
Une ellipse est définie par l’équation suivante :
x2
y2
+ 2 =1
2
a
b
Avec a>b, a est appelé le demi grand axe, et b le demi petit axe. On peut aussi paramétrer un point
M de l’ellipse par :
x(t) = acos(t)
y(t) = bsin(t)
Avec t l’angle entre l’axe Ox et OP, avec P le point correspondant à M sur le cercle principale de
l’ellipse. M est obtenir à partir de P à l’aide d’une affinité.
41
10.2.2
L’hyperbole
Une hyperbole est définie par l’équation suivante :
y2
x2
− 2 =1
2
a
b
Pour vérifier cette formule, on prend y=0, et on doit obtenir deux solutions. De plus, on obtient
les asymptotes en annulant 1. On peut aussi paramétrer un point M de l’hyperbole par :
x(t) = ach(t)
y(t) = bsh(t)
10.2.3
Parabole
L’équation réduite est :
y 2 = 2px
10.3
Équation polaire dans un repère de centre F
Soit M(ρ, θ), ∆ droite d’équation x = x∆ . L’équation générale est :
ρ=
ex∆
1 + ecos(θ)
avec e l’excentricité de la conique. Notons c l’abscisse de F.
→ Si e < 1 : C’est une ellipse. Nous avons donc les résultats suivants
→ e=
c
a
→ c2 = a2 − b2
→ x∆ =
a2
c
→ Si e = 1 : C’est une parabole.
→ Si e > 1 : C’est une hyperbole.
→ e=
c
a
→ c2 = a2 + b2
→ x∆ =
a2
c
Quatrième partie
Fonctions de R2 dans R
43
Chapitre
11
Fonctions de R2 dans R
11.1
Norme
Définition 47 Soit E un espace vectoriel.
n est une norme de E si :
n:E→R
telque :
→ ∀x ∈ E n(x) ≥ 0
→ ∀λ ∈ R, ∀x ∈ E, n(λx) = |λ|n(x)
→ ∀x ∈ E, n(x) = 0 ⇔ x = 0
→ ∀(x, y) ∈ E 2 n(x + y) ≤ n(x) + n(y)
Propriété 37 La norme euclidienne, notée ||(x, y)||2 est défini par :
p
∀(x, y) ∈ R2 ||(x, y)||2 = x2 + y 2
Définition 48 On défini la norme ||(x, y)||n par :
||(x, y)||n = (|x|n + |y|n )1/n
Définition 49 On défini la norme infini par :
∀(x, y) ∈ R2 ||(x, y)||∞ = M ax(|x|, |y|)
11.1.1
Boules
Définition 50 Soit n une norme sur E, soit x0 ∈ E, et r ∈ R+ .
On appelle Boule de centre x0 , de rayon r :
B(x0 , r) = {x ∈ E/n(x0 − x) ≤ r}
11.1.2
Norme équivalentes
Définition 51 Soient n1 , n2 deux normes sur E.
n1 et n2 sont dites équivalentes si il existe deux réels strictement positifs telque ∀x ∈ E :
αn2 (x) ≤ n1 (x) ≤ βn2 (x)
1
1
n1 (x) ≤ n2 (x) ≤ n1 (x)
β
α
Propriété 38 Dans un espace de dimension finie, toutes les normes sont équivalentes.
45
11.1.3
Convergence d’une suite
Soit (un ) une suite de vecteur de E :
→ On dit que (un ) converge vers 0 pour la norme n si la suite des réels (n(un )) converge vers
0
→ Si deux normes sont équivalente, toutes suites convergentes pour l’une est convergente
pour l’autre
→ Dans un espace de dimension finie, la définition de la convergence ne dépend pas de la
norme considéré.
Limite d’une fonction de R2 dans R
11.2
Définition 52 Soit A une partie de R2 , et n une norme de R2 .
Soit f une fonction de A dans R.
Soit (x0 , y0 ) ∈ A, et l un réel.
On dit que : lim f = l
(x0 ,y0 )
∀ε > 0 ∃α > 0 tq ∀(x, y) ∈ B((x0 , y0 ), α) : |f (x, y) − l| < ε
Propriété 39 Soit f et g deux fonction défini sur A :
→ La limite de la somme et la somme des limites.
→ La limite du produit et le produit des limites
→ Composition : Soit f : R2 → R et ϕ : R → R. Si lim f = l et si limϕ = m, alors :
(a,b)
l
lim ϕof = m
(a,b)
11.2.1
Théorème d’encadrement
Soient f,g,h fonctions défini sur A.
Si ∀(x, y) ∈ A :
h(x, y) ≤ f (x, y) ≤ g(x, y)
et si lim g = lim h = l, alors :
(a,b)
(a,b)
lim f = l
(a,b)
11.2.2
Caractérisation de la divergence
Si :
→ limx1 = a
t0
→ limy1 = b
t0
→ limx2 = a
α
→ limy2 = b
α
et lim f (x1 (t), y1 (t)) = l et lim f (x2 (y), y2 (u)) = l0 , avec l 6= l’, alors :
t→t0
u→α
lim f n’existe pas
(a,b)
11.2.3
Continuité
Définition 53 Si f est une fonction définie en (a,b) et sur un voisinage de (a,b), avec :
lim f = f (a, b)
(a,b)
Alors, on dit que f est continue en (a,b).
11.3
Dérivation
11.3.1
Dérivées partielles
Soit f fonction définie au voisinage de (a,b).
Définition 54 On appelle première dérivée partielle de f en (a,b) :
∂f
f (x, b) − f (a, b)
(a, b) = lim
x→a
∂x
x−a
Définition 55 On appelle deuxième dérivée partielle de f en (a,b) :
f (a, y) − f (a, b)
∂f
(a, b) = lim
y→b
∂y
y−b
11.3.2
Dérivée suivant un vecteur
−
−
Définition 56 Soit →
u (α, β) un vecteur de R2 . On défini le nombre dérivée de f en (a,b) suivant →
u , notée
−
d→
f
(a,
b),
par
:
u
f (a + α.t, b + β.t) − f (a, b)
−
d→
u f (a, b) = lim
t→0
t
11.3.3
Fonction de classe C 1
Définition 57 Soit A une partie de R2 . On dit que f est de classe C 1 sur A si :
→ f possède sur A deux dérivées partielles
→ Ces deux fonctions sont continue sur A
11.3.4
Développement limité d’ordre 1
Si f est de classe C 1 sur A, voisinage de (a,b), alors :
∀(x, y) ∈ A f (x, y) = f (a, b) +
∂f
∂f
(a, b).(x − a) +
(a, b).(y − b) + o(||(x, y) − (a, b)||)
∂x
∂y
−
Propriété 40 Soit →
u (α, β) et f une fonction de classe C 1 au voisinage de (a,b).
−
d→
u f = α.
∂f
∂f
(a, b) + β (a, b)
∂x
∂y
−
−
On en déduit que si f est de classe C 1 au voisinage de (a,b), alors ∀→
u ∈ R2 , d→
u f existe et est continue.
11.3.5
Plan tangent
Définition 58 On appelle plan tangent à la surface représentative d’une fonction de classe C 1 le plan
définie par le repère :
−
→ −
→
− , t→
−)
(M (a, b, f (a, b), t→
i
j
avec :

−
→ 
− =
t→
i
1
0



∂f
(a, b)
∂x


0
−
→ 

1
− =
t→

j
∂f
(a, b)
∂y
Vecteur normale au plan tangent
−
Définition 59 On défini un vecteur normale au plan tangent, notée →
n , par :
−−→
→
−
n = grad(f (x, y) − z)
11.3.6
Dérivées partielles d’ordre 2
Définition 60 Soit f définie sur une partie A de R2 .
∂f
Si
est défini sur A et possède des dérivées partielles, on les notes :
∂x
∂ ∂f
∂2f
=
.
2
∂x
∂x ∂x
∂2f
∂ ∂f
=
.
∂y∂x
∂y ∂x
Respectivement pour
∂f
, on obtient :
∂y
∂ ∂f
∂2f
=
.
∂y 2
∂y ∂y
∂2f
∂ ∂f
=
.
∂x∂y
∂x ∂y
Théorème 9 Si
∂2f
∂2f
et
sont continue sur A, alors :
∂x∂y ∂y∂x
∂2f
∂2f
=
∂x∂y
∂y∂x
11.3.7
Dérivée des composées
Premier type de composées
Soit f une fonction de classe C 1 de A dans R, avec AcR.
Soit ϕ une fonction dérivable sur R.
Soit g = ϕ o f.
g:A→R
(x, y) 7→ ϕ(f (x, y))
On obtient les dérivées partielles suivantes :
∂g
∂f
(x, y) =
(x, y).ϕ0 (f (x, y))
∂x
∂x
∂g
∂f
(x, y) =
(x, y).ϕ0 (f (x, y))
∂y
∂y
Second type de composées
Soit x,y deux fonctions de R dans R, dérivable sur R.
Soit f une fonction de R2 dans R, de classe C 1 sur R2 .
Soit ϕ la fonction définie par :
ϕ:R→R
t 7→ f (x(t), y(t))
On obtient, à l’aide d’un développement limité :
∀t : ϕ0 (t) = x0 (t).
∂f
∂f
(x(t), y(t)) + y 0 (t). (x(t), y(t))
∂x
∂y
Cinquième partie
Equations differentielles
49
Chapitre
12
Équation différentielle
12.1
Fonction exponentielle complexe
Soit :
f : t 7→ x(t) + iy(t) = ert
Avec r = a+ib.
On obtient, ∀t ∈ R :
f 0 (t) = rert
12.2
Équation différentielle
12.2.1
Première ordre
b
x
a
(∀x ∈ R ay (t) + by(t) = 0) ⇔ (∃K ∈ R, tq ∀x ∈ R y = Ke
)
−
0
12.2.2
Second ordre
On établie l’équation caractéristique, de la forme :
ax2 + bx + c = 0
On détermine ∆ et on obtient :
→ ∆>0:
∃(A, B) ∈ R2 tq ∀x ∈ R y(x) = Aer1 x + Ber2 x
→ ∆=0:
∃(A, B) ∈ R2 tq ∀x ∈ R y(x) = (Ax + B)er0 x
→ ∆ > 0 : Solution dans C, avec r0 = ±iω
∃(A, B) ∈ R2 tq ∀x ∈ R y(x) = (Acos(ωx) + Bsin(ωx))er0 x
12.3
Recherche d’une solution particulière
12.3.1
Second membre constant
Soit (E) l’équation différentielle suivante :
ay 00 + by 0 + cy = d
51
Si C 6= 0 :
y0 : x 7→
d
c
y0 : x 7→
d
x
b
est une solution particulière. Si C = 0 :
est une solution particulière
12.3.2
Second membre polynomiale
En géneral, on recherche un polynome de meme degrès. Soit :
y 00 + 3y = 2x + 1
On pose :
y0 : x 7→ ax + b
On dérive deux fois y0 et on remplace dans l’équation pour déterminer a et b
12.3.3
Second membre exponentielle
Si le second membre est de la forme :
x 7→ eαx
Alors on peut espérer une solution de la forme λeαx
12.4
Méthode de variation de la constante
Soit (E) l’équation différentielle suivante :
(E) : ay 0 (t) + by(t) = f (x)
On résoud l’équation sans second membre, plus on pose ∀x ∈ R :
z(x) =
y(x)
b
e− a x
b
⇔ y(x) = z(x)e− a x
Puis on injecte cette expression y(x) dans (E) pour déterminer z(x)
12.5
Principe de superposition
Soit (E) l’équation différentielle suivante :
(E) : ay 00 + by 0 + cy = f1 (x) + f2 (x)
On considere :
(E1 ) : ay 00 + by 0 + cy = 0
(E2 ) : ay 00 + by 0 + cy = f1 (x)
(E3 ) : ay 00 + by 0 + cy = f2 (x)
Soit y1 , y2 solutions respective de (E2 ) et (E3 ). La solution particuliere de (E) est y1 + y2
Chapitre
13
Équations différentielle linéaire
13.1
Généralité
Définition 61 On considère (E) l’équation d’inconnue la fonction y n fois dérivable sur une partie A de
R:
∀x ∈ A, an (x).y (n) (x) + ... + a0 .y(x) = b(x)
avec : an , .., a0 , b des fonctions définies sur A.
On dit que (E) est une équation differentielle linéaire d’ordre n.
Nota 1 On note cette équation :
(E) : ∀x ∈ A : an (x).y (n) + ... + a0 .y = b(x)
Propriété 41 L’ensemble des solutions de (E) est soit :
→ Vide
→ Un espace affine de direction l’espace vectoriel des solutions de l’équation sans second membre.
Si les coefficients sont constant.
L’ensemble des solutions est un espace de dimension n.
53
Chapitre
14
Équations différentielles linéaire
d’ordre 1
Définition 62 Soit A ∈ R.
Soit a,b,c trois fonctions définies sur A, et (E) :
(E) : a(x).y 0 + b(x).y = c(x)
(E0 ) : a(x).y 0 + b(x).y = 0
Si :
→ Si a et b sont continues sur A
→ A est un intervalle, notons le I
→ ∀x ∈ I a(x) 6= 0
Alors :
R
(E0 ) ⇔ (∃K ∈ R tq ∀x ∈ I y(x) = K.e
55
−b(x)
dx
a(x)
)
Sixième partie
Intégration
57
Chapitre
15
Intégration
Définition 63 L’intégrale d’une fonction est par définition un nombre.
Une primitive est une autre fonction.
15.1
Fonctions continues par morceaux
15.1.1
Subdivision
Soit [a,b] segment de R, avec a<b.
Définition 64 On appelle subdivision de [a,b], une liste vérifiant :
a = x0 < x1 < .... < xn = b
On note σ = (xi )a≤i≤n .
Le pas d’une subdivision, qui est la longueur d’intervalle la plus importante, est défini comme :
max |xi − xi−1 |
1≤i≤n
Si les intervalles sont tous de la mêmes longueurs, la subdivision est dite régulière. De plus, si σ
est celle d’une subdivision régulière de [a,b], alors :
∀k, xk = a + k
15.1.2
b−a
n
Fonction en escalier sur [a,b]
Soit f fonction définie sur [a,b].
Définition 65 On dit que f est en escalier si il existe une subdivision de [a,b] : (xi )0≤i≤n telle que :
∀i ∈ {1, ...n} , f est constante sur ]xi−1 ; xi [
Propriété 42 On défini les propriétés suivantes :
→ Une fonction en escalier est bornée
→ L’ensemble des fonctions en escalier sur [a,b] est un R-espace vectoriel
15.1.3
Fonction continue par morceaux
Soit f défini sur [a,b]
59
Définition 66 f est continue par morceaux sur [a,b] si :

∀i ∈ {1, 2, ..., n} f est continue sur ]xi−1 ; xi [


 ∀i ∈ {1, 2, ..., n} lim existe
x−
i


existe
 ∀i ∈ {0, 2, ..., n − 1} lim
+
xi
Propriété 43 On défini les propriétés suivantes :
→ Une fonction continue par morceaux est bornée
→ L’ensemble des fonctions continue par morceaux sur [a,b] est un espace vectoriel
→ Une fonction en escalier est continue par morceaux
→ Une fonction continue sur [a,b] est continue par morceaux
15.1.4
Approximation d’une fonction continue par morceaux par des fonctions en escalier
Soit f continue par morceaux sur [a,b] ( ce qui comprend les fonctions continues sur [a,b])
Définition 67
∃ε > 0 Il existe deux fonctions en escalier sur [a,b], ϕ et ψ telque
∀x ∈ [a, b] ϕ(x) ≤ f (x) ≤ ψ(x)
0 ≤ ψ(x) − ϕ(x) ≤ ε
15.2
Intégrale de Riemann
15.2.1
Intégrale d’une fonction en escalier
Définition 68 Soit ϕ fonction en escalier sur [a,b].
Notons (xi )0≤i≤n une subdivision adaptée à ϕ, et posons :
∀i ∈ {1, .., n} , ∀x ∈]xi−1 ; xi [ ϕ(x) = λi
L’intégrale sur [a,b] de ϕ est :
n
X
(xi − xi−1 )λi
Z
ϕ=
[a,b]
i=1
On note aussi cette intégrale de la façon suivante :
Si a < b, alors :
Z
Z
ϕ=
[a,b]
Si b < a :
b
ϕ
a
Z
a
Z
ϕ=
[a,b]
Convention :
Z
ϕ
b
b
Z
a
ϕ=−
a
ϕ
b
Z
a
ϕ=0
a
Propriété 44 Si ϕ et ψ sont deux fonctions en escalier sur [a,b].
Si λ et µ sont deux réels :
Z
Z
Z
λϕ + µϕ = λ
ϕ+µ
[a,b]
[a,b]
[a,b]
ψ
Propriété 45 Soient ϕ et ψ deux fonctions en escalier sur [a,b].
Si ∀x ∈ [a, b], ϕ(x) ≤ ψ(x), alors :
Z
Z
ϕ≤
[a,b]
ψ
[a,b]
De plus, si ϕ ≥ 0 sur [a,b] alors :
Z
ϕ≥0
[a,b]
15.3
Intégrale d’une fonction continue par morceaux
Soit f fonction continue par morceaux sur [a,b]. Notons :

E+ = {ϕ en escalier sur [a,b] /ϕ ≥ g}




 E− = {ϕ
nR en escalier suro[a,b] /ϕ ≤ g}
A =
ϕ/ϕ ∈ E+

 + nR[a,b]
o


 A− =
ϕ/ϕ ∈ E−
[a,b]
Propriété 46 Inf(A+ ) et Sup(A− ) existent et sont égaux
Définition 69 La valeur commune de ces deux réels est l’intégrale de Riemannsur [a,b] de f. On la note :
Z
f
[a,b]
15.3.1
Somme de Riemann
Propriété 47 Soit f fonction continue par morceaux sur [a,b].
R
Notons ∀n ∈ N : Alors (un )n≥0 et (vn )n≥0 converge vers [a,b] f
15.3.2
un =
vn =
n
b−a
b−a
n P k=1 f (a + k n )
n−1
b−a
b−a
k=0 f (a + k n )
n
P
Linéarité
Propriété 48 Soient λ,µ réels, f, g fonctions continues par morceaux.
Z
Z
Z
λϕ + µϕ = λ
ϕ+µ
ψ
[a,b]
15.3.3
[a,b]
[a,b]
Transmition de l’ordre
Propriété 49 Si f et g sont continue par morceaux et f ≤ g, alors :
Z
Z
f≤
g
[a,b]
15.3.4
[a,b]
Intégrale et valeur absolu
Propriété 50 Soit f fonction continue par morceaux sur [a,b], donc :
Z
Z
|f | ≥|
f|
[a,b]
[a,b]
15.3.5
Relation de Chasles
Propriété 51 Soit f continues par morceaux sur [a,b] et b ∈ [a, c].
Z
Z
Z
f=
f+
f
[a,c]
15.3.6
[a,b]
[b,c]
Inégalité de la moyenne
Propriété 52 Soit f,g continues par morceaux sur [a,b], g est bornée, avec a < b. Donc M = sup|g| existe.
[a,b]
Z
Z
|
f g| ≤ sup|g| ×
[a,b]
[a,b]
Définition 70
|f |
[a,b]
1 R
g est la valeur moyenne de g sur [a,b].
b − a [a,b]
Z
g = µ(b − a)
[a,b]
15.4
Intégrale et primitive d’une fonction continue
On obtient les propriétés suivant :

Rx
 Soit x ∈ I. f est continue sur I, donc a f existe
Rx
Si x0 est à l’intérieur de I, si f est continue
sur I, alors a f est aussi continue sur I
R

x
Si f est continue sur I, alors g : x 7→ a f est dérivable sur I et sa dérivé est f.
De la dernière propriété, on déduit que g est de classe C 1 sur I. En résumé, si f est de classe C n
alors g est de classe C n+1
Propriété 53 Si ϕ est une fonction positive et continue sur [a,b] d’inégalité nulle, alors :
ϕ=0
15.4.1
Utilisation des primitives d’une fonction continue
Définition 71 Soit f définie sur un intervalle I. Une primitive de f sur I, c’est une fonction dérivable sur I
dont la dérivée est f.
15.4.2
Ensemble des primitives d’une fonction continue
Soit f continue sur un intervalle I, si F est une primitive de f sur I, alors :
(G est une autre primitive de f sur I) ⇔ (∃K ∈ R tq ∀x ∈ I G(x) = F (x) + K)
Il en découle que :
Z
(F est une primitive de f sur I ) ⇔ (∃K ∈ R tq ∀x ∈ I F (x) =
x
f (t)dt + K)
a
Et que ∀(a, b)2 ∈ I 2
b
Z
f (t)dt = F (b) − F (a)
a
15.4.3
Notation
Définition 72 Si f est continue sur I :
R
f (x)dx désigne la valeur de x d’une primitive de f.
15.4.4
Technique de calcul d’une intégrale
Intégrale par partie
Définition 73 Si f,g sont de classe C 1 sur I, (a, b) ∈ I 2 , alors :
Z b
Z b
0
b
f g = [f g]a −
f 0g
a
a
Changement de variables
Définition 74 Soit u une bijection de classe C 1 de [α, β] sur un intervalle [a,b]
Soit f continue sur [a,b].
Z b
Z β
f (u)du =
f (u(t))u0 (t)dt
a
15.4.5
α
Intégrale d’une fonction paire, impaire, periodique
Fonction paire
Propriété 54 Soit a ∈ R
Si f est continue et paire sur [-a,a], alors :
Z
a
Z
a
f =2
−a
f
0
Fonction impaire
Propriété 55 Si f est continue et impaire sur [-a,a], alors :
Z a
f =0
−a
Fonction periodique
Propriété 56 Si f est continue et T periodique sur R
Soit a ∈ R
Z
a+T
f est indépendant de a
a
15.5
Inégalité de Cauchy-Schwarz
Définition 75 Soient f,g continues sur [a,b] :
sZ
Z
|
f g| ≤
[a,b]
[a,b]
f2
Z
g2
[a,b]
Si cette inégalité devient une égalité, alors ∃λ0 ∈ R telque
g = −λ0 f
15.6
Formule de Taylor avec reste intégrale
Définition 76 Soit f fonction de classe C n .
∀x ∈ Df , au voisinage de a :
f (x) = f (a) + .... +
(x − a)n−1 (n−1)
f
(a) +
(n − 1)!
Z
a
x
(x − a)n−1 (n)
f (t)dt
(n − 1)!
15.7
Inégalité de Taylor-Lagrange
Définition 77 Soit f de classe C n+1 sur I, a ∈ I.
Supposons que f (n+1) soit majorée sur I.
Notons Mn+1 = sup|f (n+1) |
I
∀x ∈ I :
Z
|
a
x
(x − t)n
(x − a)n+1
(t)dt| ≤
Mn+1
n!
(n + 1)!
Septième partie
Nombres complexes
65
Chapitre
16
Nombres complexes
16.1
Formules
16.1.1
Généralités
→ (C,+,x) est un corps
→ (a+ib)+(a’+ib’) = (a+a’)+i(b+b’)
→ (a+ib).(a’+ib’) = (aa’-bb’)+i(ab’+a’b)
→ Il y a unicité de la partie réelle et de la partie imaginaire pour un complexe.
→ z + z0 = z + z0
→ z.z 0 = z.z 0
z+z
2
z−z
→ Im(z) =
2
→ Re(z) =
−
→ = zb − za
→ z−
AB
→ On défini le barycentre de la façon suivante :
α + β 6= 0, zg =
16.1.2
αzA + βzB
α+β
Forme Trigonométrique et exponentielle
Soit z = x+iy un complexe.
p
→ |z| = x2 + y 2
→ |z|2 = z.z
→ |-z| = |z| = |z|
→ (z ∈ R) ⇔ (z = z)
→ (z ∈ iR) ⇔ (z = −z)
67
→ |Im(z)| ≤ |z|
→ |Re(z)| ≤ |z|
→ |z.z 0 | = |z|.|z 0 |
→ |z + z 0 | ≤ |z| + |z 0 |
0
→ ei(θ+θ ) = cos(θ + θ0 ) + isin(θ + θ0 )
eiθ + e−iθ
= cos(θ)
2
eiθ − e−iθ
→
= sin(θ)
2
→
→ cos(iy) = ch(y)
→ sin(iy) = ish(y)
→ Formule de Moivre :
(eiθ )n = einθ ⇔ (cos(θ) + isin(θ))n = cos(nθ) + isin(inθ)
→ z = x+iy = ρeiθ
→ Racine neme de l’unite :
k2π
i
z n = 1 ⇔ ∃k ∈ {0, 1, ..., n − 1} z = e n
→ Racine neme d’un complexe non nul, avec z = ρeiθ , z0 = ρ0 eiθ0 :
k2π
z = z0 ⇔ ∃k ∈ {0, 1, ..., n − 1} z = A.e n
n
Avec A la solution évidente (Passage à la racine neme )
i
Chapitre
17
Nombres complexe et géométrie dans
le plan
17.1
Alignement, Orthogonalité, Cocyclicité
−−→ −→
Soit (AB; AC) l’angle formé par ces deux vecteurs.
−−→ −→
c−a
[2π]
(AB; AC) = arg
b−a
Soit :
z=
17.1.1
c−a
b−a
Alignements
c−a
=0
b−a
−−→ −→
A,B,C alignées ⇔ (z = z) ⇔ (Det(AB; AC)) = 0
A,B,C alignées ⇔
c−a
∈R
b−a
⇔ arg
→
−
−
avec Det(→
u , v) = xy 0 − x0 y
17.1.2
Orthogonalité
c−a
π
⇔ arg
= [π]
b−a
2
−−→ −→
−−→ −→
AB; AC orthogonaux ⇔ (z = −z) ⇔ (AB.AC) = 0
−−→ −→
AB; AC orthogonaux ⇔
17.1.3
c−a
∈ iR
b−a
Cocyclicité
Soit A,B,C trois points d’un cercle C de centre O.
−−→ −−→
−−→ −→
(OB; OC) = 2(AB; AC) [2π]
Condition de cocyclicité
−−→ −→
−−→ −−→
Propriété 57 Si (AB; AC) = (DB; DC) [π] alors A,B,C,D sont soit cocyclique, soit alignés.
69
17.2
Similitude
Soit z l’affixe de M, z’ l’affixe de M’.
17.2.1
Translation
−
−
Définition 78 Soit →
u vecteur du plan. On appele translation de vecteur →
u l’application :
−
t→
u :P →P
M 7→ M 0
−−−→ −
avec M M 0 = →
u
Expression analytique complexe
−
soit α l’affixe de →
u Alors :
z0 = α + z
Bijectivité
−
t→
u est une application bijective. Soit :
−1
:P →P
t→
−
u
M 7→ M 0
avec z’ = z - α
17.2.2
Homothetie
Définition 79 Soit Ω un point d’affixe ω. Soit k ∈ R. On appele homothétie de centre Ω et de rapport k
l’application :
h:P →P
M 7→ M 0
−−→
−−→
avec ΩM 0 = k ΩM
Expression analytique complexe
z 0 − ω = k(z − ω)
On détermine le centre d’une homothétie en déterminant son point fixe, donc en résolvant :
z = z0
Bijectivité
h est une application bijective. Soit :
h−1 : P → P
M 7→ M 0
avec z’ - ω =
1
(z − ω)
k
17.2.3
Rotation
Définition 80 Soit Ω un point d’affixe ω et θ un réel. On appele rotation de centre Ω et d’angle θ l’application
r:P →P
M 7→ M 0
−−→ −−→
avec ΩM 0 =ΩM et (ΩM ; ΩM 0 ) = θ [2π]
Expression analytique complexe
z 0 − ω = eiθ (z − w)
On détermine le centre d’une rotation en déterminant son point fixe, donc en résolvant :
z = z0
Bijectivité
h est une application bijective. Soit :
r−1 : P → P
M 7→ M 0
avec z’ - ω = e−iθ (z − ω)
17.2.4
Similitude
Définition 81 Soit Ω un point d’affixe ω et (θ,k) ∈ R2 . On appele similitude direct de centre Ω, d’angle θ,
et de rapport k l’application :
S:P →P
−−→ −−→
avec ΩM 0 =kΩM et (ΩM ; ΩM 0 ) = θ [2π]
M 7→ M 0
Expression analytique complexe
z 0 − ω = keiθ (z − w)
On détermine le centre d’une similitude en déterminant son point fixe, donc en résolvant :
z = z0
Bijectivité
S est une application bijective. Soit :
S −1 : P → P
M 7→ M 0
avec z’ - ω =
17.2.5
1 −iθ
e (z − ω)
k
Affinité
Soit ϕ l’application défini par :
ϕ : P lan 7→ P lan
b
P (x, y) 7→ M (x, .y)
a
ϕ est appelé affinité de base Ox, de direction Oy et de rapport
b
a
Huitième partie
Polynomes
73
Chapitre
18
Les polynomes
18.1
Définitions
Soit K un corps ( Soit R, soit C)
Définition 82 Un polynome à coefficiants dans K est une suite d’élement de K tous nul à partir d’un
certain rang.
P = (a0 , ....., an , 0, ...)
On peut l’écrire aussi sous la forme :
P = a0 + a1 X + ... + an X n
avec X l’indéterminé.
Il existe aussi la forme suivante :
P =
n
X
ak X k
k=0
L’ensemble des polynomes à coefficiants dans K est notée K[X].
Soit P et Q deux polynomes. On as :
P = Q ⇔ ∀k ∈ N ak = bk
18.1.1
Opérations
On peut effectuer quatres opérations :
→ Une addition :
P +Q=
∞
X
(ak + bk )X k
k=0
→ Un produit :
P.Q =
∞
X
(ak .b0k )X k+k
k,k0 ≥0
→ Un produit par λ, λ ∈ K :
λP =
∞
X
(λak )X k
k=0
→ Une composée :
P (Q) =
∞
X
k=0
75
ak Qk
0
18.1.2
Structure
18.1.3
Polynome constante
On observe qu’un polynome constant s’identifie à un élement du corps. On obtient donc que :
K c K[X]
Structure de (K[X],+,x)
→ (K[X],+) est un groupe commutatif
→ (K[X],+,x) est un anneau commutatif : On peut donc utiliser les identités remarquables sur
les polymones. Cette anneau est intègre, ce qui signifie que :
(P.Q = 0) ⇔ (P = 0 ou Q = 0)
18.1.4
Fonction polynome associée
Soit P ∈ K[X], défini par :
P = a0 + a1 X + ... + an X n
On obtient la fonction polynome associée :
∀x ∈ K, Pe(x) = a0 + a1 x + ... + an xn
L’application qui lie le polynome à sa fonction associée est une bijection.
Toutes les notions de partié se transmette de la fonction polynome associée au polynome.
18.1.5
Degrés
Définition 83 On défini le degrés d’un polynome par :
deg(P ) = M ax {k ∈ N/ak 6= 0}
Par convention :
deg(0) = −∞
deg(PConstant ) = 0
Degrés d’une combinaison
On peut déterminer le degrés de deux combinaison :
deg(P.Q) = deg(P ) + deg(Q)
deg(P + Q) ≤ M ax(deg(P ), deg(Q))
18.1.6
Valuation
Définition 84 On défini la valuation d’un polynome par :
val(P ) = M in {k ∈ N/ak 6= 0}
Par convention :
deg(0) = +∞
Valuation d’une combinaison
On peut déterminer le degres de deux combinaison :
val(P.Q) = val(P ) + val(Q)
val(P + Q) ≥ M in(val(P ), val(Q))
18.1.7
Division euclidienne dans K[X]
Diviseur, Multiple
Définition 85 Soient A,B deux polynomes.
On dit que B divise A, ou que A multiplie B, si :
∃Q ∈ K[X] A = B.Q
Il en découle que les polynomes constant non nuls divisent tous les autres.
Division euclidienne
Définition 86 Soit A,B deux polynomes, B non nul.
∃!(R, Q) ∈ K[X] tq A = B.Q + R
avec deg(R) ≤ deg(Q)-1.
On appelle respectivement R et Q le reste et le quotient de la division euclidienne.
18.1.8
Formule de Taylor
Soit a un réel. Soit P un polynome de degrés n.
On obtient :
n
^
k (P )(a)
X
D
(X − a)k
P =
k!
k=0
^
k (P )(a) la dérivé k eme de P prise en a.
avec D
18.2
Racine d’un polynome
Soit P ∈ K[X]. Soit r ∈ K
18.2.1
Racine simple
Définition 87 r est une racine de P si Pe(r) = 0
Propriété 58 (r est une racine de P) ⇔ ((X-r) divise P)
18.2.2
Racine multiple et ordre de multiplicité
Définition 88 r est une racine d’ordre α si (X − r)α divise P et (X − r)α+1 ne divise pas P.
^
i (P )(r) = 0 et D
α (P )(r) 6= 0)
^
Propriété 59 (r est une racine d’ordre α de P) ⇔ (∀i ∈ {0, .., α − 1} D
18.2.3
Polynome scindé
Soit P ∈ K[X] de degrés n et de termes dominant an X n
Définition 89 P est scindé si le nombre de racine, en comptant les ordres de multiplicité, est n :
∃(r1 , ..., rn ) ∈ K n , ∃(α1 , ..., αn ) ∈ N n tq P = an (X − r1 )α1 ...(X − rn )αn
Lien entre coefficiants et racine d’un polynome scindé
On obtient les relations suivantes :
n
X
i=1
ri =
−an−1
an
r1 ...rn = (−1)n
18.2.4
a0
an
Polynome irréductible
Dans R[X]
Définition 90 Un polynome est irréductible si il n’est divisible que par les polynomes constant et par les
produits de lui-meme par un constante.
Dans C[X]
Théorème 10 Tout polynome non constant dans C[X] possède au moins une racine complexe.
On en déduit donc que :
→ Tout polynomes dans C[X] est scindé
→ Les seuls polynomes irréductible de C[X] sont ceux de degrés 1
Neuvième partie
Espace vectoriel
79
Chapitre
19
Espace vectoriel
19.1
Définitions
Définition 91 Soit E un espace et K un corps.
Donc dit que (E,+,.) est un K-espace vectoriel si il vérifie les propriétés suivantes :
1- + est une loi de composition interne :
∀(x, y) ∈ E 2 x + y ∈ E
2- + est une loi associative :
∀(x, y, z) ∈ E 3 (x + y) + z = x + (y + z)
3- + possède un élement neutre OE :
∀x ∈ E x + OE = OE + x = x
4- Tous éléments x de E est symétrisable pour + dans E. Ce symétrique est −x :
∀x ∈ E x + (−x) = (−x) + x = OE
5- + est commutatif dans E :
∀(x, y) ∈ E 2 x + y = y + x
6- "." est une loi de composition externe :
∀x ∈ E, ∀λ ∈ K, λ.x ∈ E
7- "." possède un élement neutre 1K :
∀x ∈ E 1k .x = x
8- "." vérifie :
∀x ∈ E, ∀(λ, µ) ∈ K 2 λ.(µ.x) = (λ × µ).x
9- "." vérifie :
∀x ∈ E, ∀(λ, µ) ∈ K 2 (λ + µ).x = (λ.x) + (µ.x)
10- "." vérifie :
∀(x, y) ∈ E 2 , ∀λ ∈ K λ.(x + y) = λ.x + λ.y
Si un espace ne vérifie que les 4ere propriétés, on dit que c’est un groupe. Si il vérifie les 5ere , c’est un
groupe commutatif.
81
Propriété 60 Soit E un K-espace vectoriel :
→ ∀x ∈ E, 0K .x = 0E
→ ∀x ∈ E − x = (−1K ).x
→ Soit x un vecteur de E, λ ∈ K :
(λ.x = OE ) ⇔ (λ = OK ou x = OE )
19.2
Sous-espaces vectoriels
19.2.1
Définitions
Définition 92 Soit E un K-espace vectoriel. Soit F un espace.
On dit que F est un sous-espace de E si :
F cE
(F, +, .) est un K-espace vectoriel
Propriété 61 Soit E un K-espace vectoriel. Soient F et G deux sous espace de E :
→ {OE } est le plus petit sous espace de E.
→ F ∩ G est un sous espace de E
→ F ∪ G est un sous espace de E
19.2.2
Critère de reconaissance

 F cE
F 6= ∅
Propriété 62 ( F est un sous espace de E ) ⇔

∀(x, y) ∈ F 2 , ∀(λ, µ) ∈ K 2 , λx + µy ∈ F
19.2.3
Sous espace supplémentaire
Soit E un K-espace vectoriel. Soient F,G deux sous espace de E.
Définition 93 F et G sont dit en somme direct si :
F ∩ G = {OE }
Définition 94 F et G sont supplementaire si ils sont en somme direct et que :
F +G=E
On le note :
F ⊕G=E
Propriété 63 Si F et G sont supplementaires, alors
∀x ∈ E
, il existe un unique couple (x,y) avec y ∈ F ,z ∈ G telque :
x=y+z
19.2.4
Partie génératrice d’un sous-espace
Sous espace engendré par un partie
Soit A une partie de E.
Soit G le plus petit espace contenant A.
Définition 95 G est le sous espace engendré par A. On le note :
G = V ect(A)
On dit que A est une partie génératrice de G.
Sous espace engendré par une partie fini
Soit u1 , ..., un n vecteur de E.
V ect({u1 , ..., un }) = {λ1 u1 + ... + λn un /λ1 , ..., λn ∈ K n }
19.2.5
Produit de deux espaces
Définition 96 Soient E et F deux K-espace vectoriel.
On munit le produit E×F des deux lois suivant :
∀(x, y) ∈ E × F, ∀(x0 , y 0 ) ∈ E × F, ∀λ ∈ K
(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
λ.(x + y) = (λx, λy)
Propriété 64 (E×F,+,.) est un K-espace vectoriel, de vecteur nul (OE , OF )
19.3
Application linéaire
Définition 97 Soient E et F deux K-espace vectoriels, f une application de E dans F.
f est une application linéaire si :
∀(x, y) ∈ E 2 ∀(λ, µ) ∈ K 2 f (λx + µy) = λf (x) + µf (y)
19.3.1
Vocabulaire
→ Application linéaire → Morphisme d’espace vectoriel
→ Application linéaire de E dans E → Endomorphisme
→ Application linéaire bijective → Isomorphisme
→ Application linéaire bijective de E dans E → Automorphisme
On note L(E, F ) l’ensemble des applications linéaire de E dans F
Propriété 65 Soit f isomorphisme de E dans F.
Alors f −1 existe et est linéaire de F dans E
19.3.2
Noyau et Image d’une application linéaire
Soit f ∈ L(E, F )
Image
Définition 98 On appele image de f l’ensemble des images de tous les vecteurs de E par f :
Im(f ) = {f (x)/x ∈ E}
Im(f) est un sous espace vectoriel de F
Noyau
Définition 99 On appele noyau de f l’ensemble des antécédants OF par f :
Ker(f ) = {x ∈ E/f (x) = 0}
Ker(f) est un sous espace vectoriel de E
Propriété 66 f est une application injective si et seulement Ker(f) est réduit au vecteur nul :
(f est injective) ⇔ (Ker(f ) = {OE })
19.3.3
Opérations sur les applications linéaires
→ La combinaison linéaire de deux applications linéaire est une application linéaire
→ La composée de deux applications linéaire est linéaire
19.3.4
Structure
→ (L(E),+,o,.) est un K-Algèbre : On peut donc utiliser les identites remarquables
→ GL(E) : Groupe des automorphisme de E. Dans ce groupe :
(f og)−1 = g −1 of −1
19.3.5
Projecteur
Définition 100 Soit E un K-espace vectoriel, soient F et G deux sous espaces supplémentaire de E.
Soit x ∈ E
∃!(y, z), y ∈ F, z ∈ G, x = y + z
On appelle projeté de x sur F parallement à G, notée p(x), le vecteur y.
Propriété 67 p est une application linéaire
Propriété 68 Soit p la projection de F parallement à G :
→ Im(p) = F
→ Ker(p) = G
→ pop = p
→ ∀x ∈ E (p(x) =x ) ⇔ (x ∈ F)
Propriété 69 Soit q la projection de G parallement à F. p et q sont deux projecteur associé.
→ Im(q) = G
→ Ker(q) = F
→ poq = OE
→ p+q = Ide
Propriété caractéristique
Propriété 70 Si :
f est linéaire
f of = f
Alors f est une projection sur F parallement à G avec :
F = {x ∈ E/f (x) = x}
G = Ker(f )
19.3.6
Symétrie
Définition 101 Soit E un K-espace vectoriel, soient F et G deux sous espaces supplémentaire de E.
Soit x ∈ E
∃!(y, z), y ∈ F, z ∈ G, x = y + z
On appelle symétrie de x par rapport à F parallement à G :
s(x) = y − z
avec :
(s(x) = x) ⇔ (x ∈ F )
(s(x) = −x) ⇔ (x ∈ G)
Propriété 71 Soit s une symétrie :
→ s est une application linéaire
→ sos = Ide, donc s est une bijection
Propriété caractéristique
Propriété 72 Si :
Alors f est une symétrie
f est linéaire
f of = Ide
Chapitre
20
Espace vectoriel de dimensions finies
20.1
Partie libre - Partie liée - Partie génératrice
20.1.1
Partie finie liée
Définition 102 Soient u1 , ..., up p vecteurs d’un K-espace vectoriels de E.
On dit que {u1 , ..., un } est liée ou que les vecteurs u1 , ..., un sont linéairement dépendants si ∃(λ1 , ..., λp ) ∈
K p non tous nuls telque :
λ1 u1 + ... + λp up = OE
Propriété 73 Toutes parties qui contient le vecteur nul est liée
Propriété 74 Si L est liée, et L c L’, alors L’ est liée.
Vecteurs colinéaires
Soit u,v deux vecteurs de E.
( u et v sont colinéaire ⇔ (∃λ ∈ K tq u = λv ou v = 0))
20.1.2
Partie fini libre
Définition 103 Soit L partie finie de E.
(L est libre) ⇔ (L n’est pas libre)
On la caractérise par : Si ∃(λ1 , ..., λp ) ∈ K p tq λ1 u1 + ... + λp up = OE alors
λ1 = ... = λp = 0
On dit que la partie est linéairemement indépendante.
Propriété 75 Si L est libre, et L’ c L, alors L’ est aussi libre.
20.1.3
Partie génératrice
Soit E un K espace vectoriel. Nous avons l’ensemble des propriétés suivantes :
1- G est une partie génératrice de E si :
V ect(G) c E
2- Si A et B sont deux parties de E, si A c B, alors :
V ect(A) c V ect(B)
3- Si G est une partie génératrice de E, G’ une partie telque G c G’, alors G’ est une partie génératrice de E
87
20.1.4
Base
Définition 104 Une base d’un espace E est une partie génératrice de E et libre.
Propriété 76 Si B = e1 , ..., en est une base fini de E, alors, ∀u ∈ E, ∃! n uplet de scalaire (x1 , ..., xn )
telque :
u = x1 e1 + ... + xn en
Le n-uplet (x1 , ..., xn ) est appelé le n-uplet de coordonées de u dans la base B. On le note aussi :
 
x1
 . 

matB (u) =  
. 
xn
Base de référence
→ Rn [X] : {1,X,X 2 ,...,X n }
→ Rn : {(1,...,0),...,(0,...,1)}
20.2
Dimension d’un espace de dimension finie
Définition 105 Soit E un K-espace vectoriel.
Si E possède une partie génératrice finie, on dit que E est un espace de dimension finies.
Propriété 77 Soit E un espace de dimension finies et G = {u1 , ..., up } une partie génératrice de E.
Si G est libre, alors G est une base de E.
Propriété 78 De toute partie génératrice finie, on peut extraire une base.
Théorème 11 Théorème de la base incomplète :
Soit L = {u1 , ..., un }.
Si L est une partie libre, on peut la completer en une base.
Propriété 79 Lemme de Steiniz :
Si E possède une partie génératrice de n vecteurs, alors toute partie de n+1 vecteurs est liée
Théorème 12 Si E est de dimension finie, toutes les bases de E ont le meme nombre d’élements et ce
nombre commun est la dimension de l’espace.
Si B est une base de E :
dim(E) = card(B)
Propriété 80 Soit E un espace de dimension n, soit A une partie de E
→ Si A est une partie génératrice de E, alors card(A) ≥ n
→ Si card(A) < n, alors A n’est pas génératrice de E
→ Si A est libre, alors card(A) ≤ n
→ Si card(A) > n, alors A est liée.
20.2.1
Caractérisation des bases
Soit E un espace vectoriel de dimension n et A une partie de E.
Si A est une base, alors A est libre, A est génératrice de E et card(A) = dim(E).
→ A est une base ⇔ A est libre et card(A) = dim(E)
→ A est une base ⇔ A est génératrice de E et card(A) = dim(E)
20.3
Sous-espace d’un espace de dimension finie
Soit E un K-espace vectoriel de dimension finie :
Propriété 81 Soit F sous espace de E.
F est de dimension finie et dim(F) ≤ dim(E).
Propriété 82 Soient F et G deux sous-espace de E :
(F = G) ⇔
F cG
dim(F ) = dim(G)
Propriété 83 Formule de Grassman :
Soit F et G deux sous-espace de E :
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G)
Propriété 84 Soit E espace de dimension finie.
Soient F et G deux sous espaces de E. F et G sont supplémentaire si :
F +G=E
dim(E) = dim(F ) + dim(G)
Propriété 85 Tous sous-espace possède au moins un supplémentaire
Propriété 86
→ dim(∅) = 0
→ Si D est un sous espace de dimension 1, c’est une droite vectorielle
→ Si P est un sous espace de dimension 2, c’est un plan vectoriel
→ Si H est un sous espace de dimension n-1, c’est un hyperplan
→ Tout supplémentaires d’un hyperplan est une droite vectoriel
20.3.1
Rang d’une partie
Définition 106 Soit A une partie d’un espace E.
Le rang de A est la dimension du sous espace engendré par A :
rang(A) = dim(V ectA)
Propriété 87 Soit A c E :
→ (rang(A) = dim(E)) ⇔ (A est une partie génératrice de E)
→ (A est libre) ⇔ (rang(A) = card(A))
20.3.2
Sous espace supplémentaire et base
Soient F,G deux sous espaces de E, de base BF , BG :
( F et G sont supplémentaire ) ⇔
20.4
BF ∪ BG = BE
BF ∩ BG = ∅
Application linéaire entre deux espaces de dimension finies
Soient E et F deux K-espaces vectoriel de dimension finies
20.4.1
Caractérisation par l’image d’une base de E
Soit BE = e1 , ..., ep une base de E.
Soit u un vecteur de E telque :


x1
.

matB (u) = 
.
xp
Si f ∈ L(E,F), alors :
f (u) = x1 f (e1 ) + ... + xp f (ep )
20.4.2
Image d’une partie libre, liée ou génératrice de E
Soit f ∈ L(E,F).
→ Si L1 = u1 , ..., up est une partie liée, alors f (u1 ), ..., f (up )
→ Si L1 = u1 , ..., up est une partie libre, alors ? ? ? ? ? ?
→ L’image d’une partie génératrice de E est une partie génératrice de Im(f)
→ Si B est une base de E, alors f(B) est génératrice de Im(f)
20.4.3
Rang d’une application linéaire
Définition 107 Soit f ∈ L(E,F).
Le rang de f est la dimension de l’image de f :
rang(f ) = dim(Im(f ))
Propriété 88 (f est surjective) ⇔ (rang(f) = dim(F))
20.4.4
Théorème du rang
Soit f ∈ L(E,F) :
dim(Ker(f )) + rang(f ) = dim(E)
Propriété 89 (f est injective) ⇔ (rang(f) = dim(E))
20.4.5
Forme linéaire
Définition 108 Une forme linéaire d’un espace est une application linéaire de E dans son corps K.
Propriété 90 Si ϕ est une forme linéaire : rang(ϕ) ≤ 1
Propriété 91 Le noyau d’une forme linéaire non nuls est un hyperplan
20.5
Isomorphisme
Définition 109 On considère E,F deux espaces de dimension finie.
On dit que E et F sont isomorphe si il existe un isomorphisme de E dans F.
Dans cette situation, on obtient :
→ Ker(f) = OE
→ Im(f) = F
→ rang(f) = dim(F) = dim(E)
→ Deux espaces isomorphe ont meme dimension
→ Soit BE une base de E, f un isomorphisme, alors f(BE ) est une base.
20.5.1
Caractérisation des isomorphismes
Soit ϕ une application linéaire de E dans F :
Propriété 92
Ker(ϕ) = {OE }
dim(E) = dim(F )
rang(ϕ) = dim(F )
dim(E) = dim(F )
(ϕ est bijective) ⇔
(ϕ est bijective) ⇔
(ϕ est bijective) ⇔ (ϕ(BE ) est une base de F)
20.5.2
Espace isomorphe
Théorème 13 Si F est un espace de dimension finie, si E et F sont isomorphe, alors E est aussi de dimension
finie, et dim(E) = dim(F)
Dixième partie
Espace vectoriel euclidien
93
Chapitre
21
Espaces vectoriels euclidiens
21.1
Produit scalaire
Définition 110 Soit E un R−espace vectoriel et :
ϕ:E×E →R
ϕ est un produit scalaire sur E si :
→ ϕ est bilinéaire
→ ϕ est symétrique
→ ϕ est positive
→ ϕ est définie
21.1.1
Notation et Vocabulaire
→ Si ϕ est un produit scalaire sur E, on note :
∀(u, v) ∈ E 2 ϕ(u, v) =< u, v >
→ On défini la norme de u par :
∀u ∈ E ||u|| =
√
< u, u >
→ Sachant que ϕ est définie, on obtient :
∀u ∈ E, (||u|| = 0) ⇔ (u = 0)
→ On dit que u et v sont orthogonaux si :
< u, v >= 0
→ Un espace vectoriel est dit euclidien si :
1- E est de dimension finies
2- On a défini un produit scalaire sur E
21.2
Propriétés
Propriété 93 Soit E un R-espace euclidien.
Soient u,v deux vecteurs de E :
||u + v||2 = ||u||2 + 2 < u, v > +||v||2
95
Théorème 14 Théorème de Pythagore :
(u et v sont orthogonaux) ⇔ (||u + v|| = ||u||2 + ||v||2 )
Propriété 94 Soit u ∈ E, soit λ ∈ R
||λu|| = |λ|.||u||
Propriété 95 Inégalité de Cauchy :
Soient u,v deux vecteurs :
| < u, v > | ≤ ||u|| × ||v||
Si il y a égalité, alors u et v sont colinéaire
Propriété 96 Inégalité de Minkouskay :
||x + y|| ≤ (||x|| + ||y||)
Propriété 97 Si {u1 , ..., un } sont des vecteurs non nuls et 2 à 2 orthogonaux, alors la partie est libre.
21.3
Base orthonormée
Définition 111 Soit (e1 , ..., en ) n vecteur de E, avec E espace de dimension n, deux à deux ortogonaux
(famille orthogonale) et unitaire (famille normée) ( ∀k ||ek || = 1).
Alors,(e1 , ..., en ) est une famille dites orthonormée, qui, de plus, est ici une base.
Propriété 98 Tout R espace vectoriel euclidien de dimension finie admet au moins une base orthonormée.
Propriété 99 Soit B une base orthonormée de E. Soient u,v deux vecteurs de E de coordonnée respectif
(x1 , ..., xn ) et (y1 , ..., yn ), alors :
< u, v >= x1 y1 + ... + xn yn
Propriété 100 On défini dans ce cas la norme de u par :
||u|| =
q
x21 + ... + x2n
Propriété 101 Pour déterminer les coordonnées dans une base orthonormée, on détermine :
∀k ∈ {1, ..., p} < u, ek >= xk
21.3.1
Matrice orthogonales
Définition 112 Une matrice de passage entre deux bases orthonormées est dites orthogonale.
Propriété 102 Soit B une base orthonormée. Soit B’ une autre base. Soit P = matB (B 0 ).
(B’ est orthogonale) ⇔ (P −1 =t P )
Propriété 103 Soit P une matrice orthogonale :
det(P ) = ±1
Propriété 104 Si P est orthogonale, alors t P est orthogonale et (l1 , ..., ln ) forme aussi une base orthonormée de Rn
21.3.2
Orientation de l’espace vectoriel
Définition 113 Soit E un espace vectoriel.
On oriente une base en définisant une base dites directe.
Propriété 105 Soit B0 une base directe.
Si B est une base de E :
detB0 (B) > 0 B est directe
detB0 (B) < 0 B est indirecte
Propriété 106 Soit B,B’ deux bases de E :
(detB (B 0 ) > 0) ⇔ ( B et B’ ont la même orientation)
Dans le cas des bases orthonormée, on as :
Bases orthonormée
Propriété 107 Soit B1 une base orthonormée directe
detB1 (B) = 1 alors B est orthonormée directe
detB1 (B) = −1 alors B est orthonormée indirecte
Propriété 108 Soit (u1 , ..., un ) ∈ Rn .
Si B et B’ sont deux bases orthonormée directe :
detB (u1 , ..., un ) = detB 0 (u1 , ..., un )
Ce déterminant commun à toutes les bases orthonormée directe est notée Det(u1 , ..., un )
21.3.3
Orthogonalité et sous-espace
Soit E un espace euclidien
Sous espace orthogonaux
Définition 114 Soient F et G deux sous-espaces.
(F est orthogonal à G) ⇔ (∀x ∈ F, ∀y ∈ G, < x, y >= 0)
Propriété 109 Deux sous espaces orthogonaux sont en somme directe.
Propriété 110 On en déduit que :
dim(F ) + dim(G) ≤ dim(E)
Orthogonal d’un sous-espace
Définition 115 Soit F un sous espace de E.
On appele orthogonale de F l’ensemble des vecteurs de E qui sont orthogonaux à tous les vecteurs de F.
On note :
F ⊥ = {x ∈ E/∀y ∈ F < x, y >= 0}
Propriété 111 F ⊥ est un espace vectoriel.
Propriété 112 F et F ⊥ sont deux sous espaces supplémentaire
Propriété 113 On en déduit que :
dim(F ⊥ ) = dim(E) − dim(F )
Propriété 114 L’orthogonale de l’orthogonale de F :
(F ⊥ )⊥ = F
Propriété 115 Soit ϕ ∈ L(E, R).
Soit u un vecteur de E de coordonée (x1 , ..., xn ). Il existe donc (a1 , ..., an ) telque :
ϕ(u) = a1 x1 + ... + an xn
On obtient donc :
ϕ(u) =< a, u >
Par conséquence :
Ker(ϕ) = (V ect(a))⊥
21.3.4
Projection orthogonale
Définition 116 La projection orthogonale sur un sous espace vectoriel F est la projection sur F parallèlement à F ⊥
Définition 117 Soit B(e1 , ...ep ) une base orthonormée de F.
Soit x un vecteur de E de coordonnées (x1 , ..., xp ).
On obtient donc le projetté orthogonale de x sur F, notée p(x) :
p(x) =< x, e1 > e1 + ...+ < x, ep > ep
Propriété 116 Si p est la projection orthogonale sur F. Si u ∈ E, alors :
Inf {||x − y||/y ∈ F } = ||x − p(x)||
Et on note :
d(x, F ) = inf k x − y k
y∈F
Et on appelle ceci distance de x à F.
Propriété 117 Si :
→ y∈F
→ x − y ∈ F⊥
Alors y = p(x).
Chapitre
22
Espace euclidien de dimension 3
22.1
Définitions
22.2
Angle de deux vecteurs non nuls
−
−
Soient →
u,→
v deux vecteurs non nuls, non colinéaire.
→
−
−
−
Soit n vecteur orthogonale à →
u et →
v . On obtient :

−
−
<→
u;→
v >


cos(θ)
=

→
−
−


|| u ||.||→
v ||
et :

−
−
−

Det(→
u;→
v ;→
n)


 sin(θ) = →
−
→
−
→
−
|| u ||.|| v ||.|| n ||
22.2.1
Produit vectoriel
−
→
− →
− →
Définition 118 Soit ( i , j , k ) une base orthonormée directe de E.
Le produit vectoriel est l’unique application de E×E dans E :
−
−
−
−
– Alternée : →
u ∧→
v = −→
v ∧→
u
– Bilinéaire 
→
−
→
− →
−

 i ∧ j = k
−
→
− →
→
−
– Vérifiant :
j ∧ k = i

→
−
→
−
→
−

k ∧ i = j
La définition du produit vectoriel est indépendante du choix de la base orthonormée.
−
−
Propriété 118 Soit →
u,→
v deux vecteurs :
→
−
−
−
−
−
(→
u ∧→
v = 0 ) ⇔ (→
u et →
v sont colinéaire)
−
−
Propriété 119 Soient →
u,→
v deux vecteurs non colinéaire :
→
−
−
−
u ∧→
v ⊥→
u
Propriété 120 On obtient la propriété suivante, pour la norme du produit vectoriel :
−
−
−
−
||→
u ∧→
v || = ||→
u ||.||→
v ||.|sin(θ)|
22.2.2
Double produit vectoriel
→
− −
−
Propriété 121 Soient →
a , b ,→
c trois vecteurs :
→
− −
→
− − →
→
−
→
−
−c .(→
−
a ∧(b ∧→
c ) = b .(→
a .−c ) − →
a.b)
99
22.2.3
Produit mixte
−
−
−
Définition 119 Soient →
u,→
v ,→
w trois vecteurs de E :
→
−
−
−
−
−
−
u ∧→
v .→
w = Det(→
u,→
v ,→
w)
Chapitre
23
Isométrie Vectorielle
23.1
Généralités
Définition 120 Soit E un espace euclidien, soit f ∈ L(E).
f est une isométrie vectorielle si :
∀x ∈ E ||f (x)|| = ||x||
Propriété 122 Soit f ∈ L(E).
(f est une isométrie vectorielle) ⇔ (∀x ∈ E ∀y ∈ E, < f (x), f (y) >=< x, y >)
On dit que f est un endomorphisme orthogonale
Propriété 123 Une isométrie vectorielle est bijective
Propriété 124 La réciproque d’une isométrie vectorielle est une isométrie vectorielle
Propriété 125 La composée de deux isométries vectorielles est une isométrie vectorielle
Propriété 126 L’ensemble des isométrie vectorielles, munie de la loi de composition des applications est un
groupe, appelé le groupe orthogonale de E, notée O(E)
Propriété 127 Soit f endomorphisme de E, et B base orthonormée.
(f est une isométrie vectorielle) ⇔ ( f(B) est une base orthonomée)
(f est une isométrie vectorielle) ⇔ (matB (f ) est une base orthogonale)
23.2
Isométrie vectorielle plane
23.2.1
Classification
Nom
Rotation d’angle θ
Symétrie ⊥ / à une droite D
23.2.2
Matrice
cos(x) − sin(x)
sin(x) cos(x) cos(x)
sin(x)
sin(x) − cos(x)
Déterminant
Vecteur invariant
+1
{0} ou E pour Ide
-1
Droite vectorielle
Cas particulier des rotations
Propriété 128 L’ensemble des rotations vectorielle planes est un sous groupe de O(E), appelé groupe spéciale orthogonale. Il est notée SO(E)
101
23.2.3
Rotation orthogonales
Propriété 129 La composée de deux symétries orthogonales par rapport à deux droites est une rotation
d’angle deux fois l’angle entre les deux droites.
23.3
Isométrie vectorielle d’un espace euclidien de dimension 3
23.3.1
Symétrie orthogonale
Soit E un espace euclidien de base B=(i,j,k) orthonormée directe.
Soit F un sous espace de E, et sf la symétrie orthogonale par rapport à F :
Définition de F
Base
F = {0}
Quelconque
dim(F) = 1
(e1 , e2 , e3 ) D =Vect(e1 )
dim(F) = 2
(e1 , e2 , e3 ) P =Vect(e1 , e2 )
dim(F) = 3
Quelconque
23.3.2
Matrice


−1 0
0
 0 −1 0 
0 −1
0

1 0
0
0 −1 0 
0 0 −1

1 0 0
0 1 0 

0 0 −1
1 0 0
0 1 0
0 0 1
Déterminant
Type
-1
sf = h−1
1
×
-1
Réflection
1
sf = Ide
Propriété de la matrice d’un symétrie orthogonale dans une base orthonormée
Si B est une base orthonormée et s une symétrie orthogonale.
Soit M=matB (s).
Sachant que s est une symétrie, M est inversible et M −1 = M . De plus, la symétrie est orthogonale,
donc la matrice l’est aussi, donc M −1 =t M .
On obtient donc M = t M . Donc M est une symétrie.
23.3.3
Rotation
Définition 121 Soit D une droite vectorielle orienté et θ un réel.
La rotation d’axe de D et d’angle θ est l’application linéaire r telque :
→ ∀u ∈ D r(u)=u
→ Le plan D⊥ est stable par r et la restriction de r à ce plan est une rotation plane d’angle θ orienté
par D.
Propriété 130 Soit B= (e1 , e2 , e3 ) base orthonormée directe telle que D=Vect(e1 ) et D⊥ = V ect(e2 , e3 ),
alors :


1
0
0
0 cos(θ) −sin(θ)
0 sin(θ) cos(θ)
Donc :
det(r) = 1
Propriété 131 Cas particulier :
→ θ = 0, alors r = Ide
→ θ = π, alors r=sD
Propriété 132 Composée de deux réflections :
Soient P,P’ deux plans distincts telque P ∩ P 0 = D :
→ Si u ∈ D : sP 0 (sP (u)) = u
→ Si u ∈ D⊥ r est stable dans D⊥
→ sP 0 osP (u) est une rotation d’axe D.
23.3.4
Calcul de l’image d’un vecteur de x par une rotation
→
−
Soit r rotation d’axe D, orienté par d , vecteur directeur de D, et d’angle θ.
−
Soit →
x ∈
/D:
→
− →
→
− −
→
−
→
−
−
−
d ∧−
x
(d ∧→
x)∧ d
<→
x, d > →
→
−
+
sin(θ)
.
d
+
cos(θ)
r( x ) =
→
−
→
−
2
||d||2
|| d ||
|| d ||
→
−
Si || d || = 1 :
→
−
→
−
→
− −
→
−
→
− −
−
−
r(→
x ) =< →
x , d > . d + cos(θ)( d ∧ →
x ) ∧ d + sin(θ) d ∧ →
x
23.3.5
Classification
Soit Inv(f) l’ensemble des vecteurs invariants.
dim(Inv(f))
f
Base
3
Ide
Quelconque
2
Réflexion sp
Base adaptée
1
Rotation d’axe D, d’angle θ
Base adaptée
0
Réflexion o rotation
Base adaptée
23.3.6
Matrice


1 0 0
0 1 0
0 0 1 
1 0 0
0 1 0 

0 0 −1
1
0
0
0 cos(θ) −sin(θ)
0 sin(θ) cos(θ) 
1
0
0
0 cos(θ) −sin(θ)
0 sin(θ) cos(θ)
Det
1
-1
1
-1
Élements caractéristiques d’une rotation
→ L’axe : L’ensemble des vecteurs invariante
→ L’angle :
→ cos(θ) est obtenu par la Trace(r) = 1 + 2cos(θ) dans une base adaptée.
→ Le signe de sin(θ) est obtenu par le signe de Det(x,r(x),d), avec x espace non invariant de
l’espace, r(x) la rotation et d un vecteur directeur de l’axe
23.3.7
Autres résultats
Propriété 133 La matrice d’une projection orthogonale dans une base orthonormée est symétrique
Onzième partie
Espace Affine
105
Chapitre
24
Espace Affine
24.1
Définitions
Définition 122 Soit E un < espace vectoriel.
Soit ξ un ensemble.
On dit que ξ est un espace affine de direction l’espace vectoriel E si il existe ϕ défini par :
ϕ:ξ×ξ →E
→
−
(a, b) 7→ ab
telle que :
→ ∀(A, B, C) ∈ ξ 3 ϕ(A, B) + ϕ(B, C) = ϕ(A, C)
−−→ −
→ ∀A ∈ ξ, ∀u ∈ E, ∃!B ∈ ξ tq AB = →
u
Vocabulaire 1 Si ξ est un espace affine, ses éléments sont appelé points.
Vocabulaire 2 Si B est une base de E, O∈ ξ, alors (O,B) est un repère de ξ
−−→
Vocabulaire 3 Si M∈ ξ, les coordonées de M dans (O,B) sont celles de OM dans B.
Propriété 134 = est un sous espace affine de ξ si :
→ ==∅
→ ou ∃ A ∈ ξ et F sous espace vectoriel de E telque :
==A+F
24.2
Applications affines
Définition 123 Soit ξ un espace affine, E un espace vectoriel.
On appelle application affine de ξ toute application f de ξ dans ξ telle qu’il existe ϕ ∈ L(E) et O,O’ deux
points telque :
−−−−−→
−−→
∀M ∈ ξ O0 f (M ) = ϕ(OM )
−−→
∀M ∈ ξ f (M ) = O0 + ϕ(OM )
On dit que ϕ est l’application linéaire associée à f.
Propriété 135 Si f est une application affine associée à ϕ :
−−−−−−→
−−→
∀(A, B) ∈ ξ 2 f (A)f (B) = ϕ(AB)
Propriété 136 La composée de deux applications affines est affine et l’application linéaire associée est la
composée des applications linéaires associées.
107
24.2.1
Homothétie affine
Définition 124 Soit A ∈ ξ et k ∈ <.
On appelle homothétie de centre A et de rapport k l’application :
h:ξ→ξ
M 7→ M 0
−−→
−−→
avec AM 0 = k AM .
h est une application affine.
24.2.2
Conservation du barycentre
Propriété 137 Si f est l’application affine associée à ϕ, et G le barycentre de {(Mi , λi )/i = 1, ..., p}, alors :
f(G) est le barycentre de {(f (Mi ), λi )/i = 1, .., p}
24.2.3
Expression analytique dans un repère
Définition 125 Soit f application affine de E, et R=(O,B) un repère de ξ.
Il existe des réels ai,j , bi telque si M à pour coordonnées (x1 , ..., xn ) et M’ à pour coordonées (x01 , ..., x0n ) :
 0
x = a1,1 x1 + ... + a1,n xn + b1


 1
....
....


 0
xn = an,1 x1 + ... + an,n xn + bn
24.3
Isométries affines
24.3.1
Généralités
Définition 126 Soit f une application affine d’un espace affine ξ.
f est une isométrie si :
−−−−−−−→
−−→
∀M, N ∈ ξ 2 ||f (M )f (N )|| = ||M N ||
Propriété 138 Si ϕ est l’application linéaire associée à f :
( f est une isométrie ) ⇔ (ϕ est un endomorphisme orthogonale)
Vocabulaire 4 Si :
→ det(ϕ) = 1, alors f est un déplacement
→ det(ϕ) = -1, alors f est un anti-déplacement
24.3.2
Déplacement du plan
Soit f un déplacement plan.
Application linéaire
Identité
Rotation d’angle θ [2π]
24.3.3
Isométrie
Translation
Rotation affine d’angle θ [2π] de centre Ω
Déplacement de l’espace affine de dimension 3
Application linéaire
Identité
Rotation d’angle θ
Rotation d’angle θ
Point Fixe
Aucun
Un point
Aucun
Isométrie
Translation
Rotation affine d’axe affine ∆, orienté par D, d’angle θ
Vissage d’axe affine ∆, de vecteur u, d’angle θ
Un vissage est la composée d’une translation de vecteur ⊥ au plan et d’une rotation plane.
→ un vecteur ⊥ à ce plan, alors :
Propriété 139 Si f est un vissage, r une rotation plane, et −
u
1
→or = ro−
→
f =−
u
u
1
1
Chapitre
25
Equations linéaires
25.1
Espace affine
Définition 127 Soit E un K-espace vectoriel.
Soit F un sous-espace vectoriel de E et x0 ∈ E
{x0 } + F = {x0 + y/y ∈ F }
est appelé espace affine de direction F.
Propriété 140 Les espaces vectorielles sont des espaces affines particuliers.
Propriété 141 Si F est de dimension finies, on dit que {x0 } + F est un espace affine de dimension finies.
Si F est une droite vectorielle, alors {x0 } + F est une droite affine.
25.2
Equations linéaires
Définition 128 Soient E et F deux K-espace vectoriel.
Soit f ∈ L(E, F ). Soit b ∈ F .
L’équation d’inconnue x, vecteur de E :
f (x) = b
est appelé équation linéaire.
25.2.1
Structure de l’ensemble des solutions
→ Si b ∈ Im(f ), l’espace des solutions est un espace affine de dimenseion Ker(f)
→ Si b ∈
/ Im(f ), l’espaces des solutions est l’ensemble vide.
Propriété 142 Si l’équation f(x) = b à une unique solution, alors :
→ b ∈ Im(f )
→ Ker(f) = {OE }
Donc :
→ b ∈ Im(f )
→ f est injective
25.3
Système linéaire
Définition 129 Soit (S) un système d’inconnu (x1 , ..., xp ).
Posons :
Kp → Kn
111
(x1 , ..., xn ) → (a1,1 x1 + ... + a1,p xp , ..., an,1 x1 + ... + an,p xp )
Notons :
→ x = (x1 , ..., xn )
→ b = (b1 , ..., bn )
On dit que :
→ f est l’application associée à (S)
→ Le rang du système est le rang de A ou rang de f
→ Si b ∈ Im(f), alors S est un espace affine de dimension p-rang(A) = p-rang(S)
25.3.1
Système de Cramer
Définition 130 Un système de Cramer est un système linéaire de n équations, à n inconnues, de rang n.
On obtient la formule :
xj =
1
detϕ (c1 , ..., cj−1 , b, cj+1 , ..., cn )
det(A)
Douzième partie
Matrice
113
Chapitre
26
Matrice et espaces vectoriel de
dimension finies
26.1
Matrice
26.1.1
Définition
Définition 131 La matrice à n lignes et p colonnes est défini par :
M = [ai,j ]
avec i variant de 1 à n, et j variant de 1 à p
26.1.2
Matrice carrée
Définition 132 Une matrice M est carrée si n=p. On défini la diagonale de A comme le n-uplet : (a11 , a22 , ..., ann )
26.1.3
Vecteur ligne
Définition 133 On défini le vecteur ligne comme le p-uplet :
li = (xi,1 , ..., xi,p )
26.1.4
Vecteur colonne
Définition 134 On défini le vecteur colonne comme le n-uplet :
lj = (x1,j , ..., xn,j )
26.1.5
Matrice carrée particulière
Soit T = [xi,j ] ∈ Mn (K)
Définition 135 On dit que T est triangulaire supérieur si :


a1,1 a1,2 a1,3
a2,2 a2,3 
T = 0
0
0
a3,3
Définition 136 On dit que T est triangulaire inférieur si :


a1,1
0
0
0 
T = a2,1 a2,2
a3,1 a3,2 a3,3
115
Définition 137 On dit que T est une matrice scalaire si :


λ 0 0
T = 0 λ 0
0 0 λ
Si λ=1, alors la matrice est la matrice unité, noté In
26.1.6
Matrice carrée symétrique et antisymétrique
Définition 138 Soit S = [xi,j ] ∈ Mn (K)
S est symétrique si xi,j = xj,i
S est antisymétrique si xi,j = −xj,i . Ceci implique que la diagonale de S est forcément nul dans ce cas
26.1.7
Transposition et trace
Définition 139 La transposée de M noté t M est défini par :


a b c d
M =  e f g h
i j k l
alors

a
d
t
M =
c
d
e
f
g
h

i
j

k
l
On a :
t t
( M) = M
Définition 140 On défini la trace d’un matrice carrée comme la somme des termes de sa diagonale :
T race(A) =
n
X
xk,k
i=1
26.1.8
Espace vectoriel des matrices
On note Mn,p (K) l’ensemble des matrices à n lignes et p colonne.
L’addition des matrices est une addition termes à termes
(Mn,p (K), +) est un groupe commutatif d’élément neutre [O]
(Mn,p (K), +, o) est un K espace vectoriel
Soit


1 0 0 0
A1,1 = 0 0 0 0
0 0 0 0
L’ensemble A1,1 , ...., An,p est une base de Mn,p (K) et dim(Mn,p (K))=n.p
(Mn (K), +, x, o) est un K-algèbre de dimension n2 . Si AB=BA, alors les identités remarquables
sont utilisables.
26.1.9
Transposition
Définition 141 Soit :
ϕ : Mn,p (K) → Mp,n (K)
M 7→t M
ϕ est un isomorphisme, donc c’est une application linéaire. De plus, si la matrice est une matrice carrée :
ϕ est symétrie de Mn (K)
t
M = M ⇔ M est symétrique
Ce sont deux espaces supplémentaire
t
M = −M ⇔ M est antisymétrique
26.1.10
Produit de matrice
Définition 142 On défini le produit de matrice par :
Soit l1 la première ligne de la matrice A
Soit c1 la première colonne de la matrice B
Soit a1 le première terme de la matrice produit
 
e
f 

AB = a b c d × 
 g  = [ae + bf + cg + dh]
h
avec [ae+bf+cg+dh] = a1 Le produit l2 .c1 donne le terme a2,1 Le produit est non commutatif
Cas particuliers
Si M ∈ Mn,p (K)et[0] ∈ Mp,q (K) alors :
M × [0] = 0
Soit T une matrice scalaire ∈ Mp,q (K), alors :
M × T = λM
Soit In matrice unité d’ordre n, et M ∈ Mn (K) alors :
M I n = In M = M
26.1.11
Transposition et trace du produit
Soit A et B deux matrice ∈ Mn,p (K). Alors :
t
(AB) =t B ×t A
et
Trace(AB) = Trace (BA), mais généralement AB 6= BA
26.1.12
Matrice Carrée inversible
Définition 143 Soit M ∈ Mn (K). On dit que M est inversible si
∃N ∈ Mn (K) telque M N = N M = In
On pose N = M −1 . On note GLn (K) l’ensemble des matrice carrée inversible d’ordre n. Cette ensemble
est un groupe linéaire. Et :
(AB)−1 = B −1 A−1
Propriété 143 Soit (A,B)∈ (Mn (k))2 telque :
AB = In
On obtient que :
A est inversible et B = A−1
B est inversible et A = B −1
Matrice carrée et inverse
Voir Méthodologie.
26.1.13
Rang d’une matrice
Définition 144 Le rang d’une matrice est le rang de ses vecteurs colonnes. Si A ∈ Mn,p (K) et qu’on note
ci son ieme vecteurs colonnes, alors :
rang(A) = rang({c1 , ..., cp }) = dim(V ect {c1 , ..., cp })
et de plus :
0 ≤ rang(A) ≤ M in {n, p}
Rang de matrice particulière
Le rang d’une matrice diagonale est r, si :
∀i ∈ {1, ...., r} λii 6= 0
Si dans une matrice carrée d’ordre n, les termes diagonaux sont non tous nul, alors rang(A) = n
26.1.14
Opération élémentaire
Définition 145 Il existe trois opérations élémentaire :
I) L’échange de deux colonnes : ci ↔ cj
II) Le produit d’une colonne par un scalaire non nuls
III) L’addition à une colonne d’une combinaison linéaire des autres
Ces opérations élémentaire ne modifie par le rang de A
26.2
Matrice et espaces vectoriel de dimension finies
26.2.1
Matrice de coordonnée d’un vecteur dans une base
Définition 146 Soit B = {e1 , ..., en } base d’un espace vectoriel de E
Soit u ∈ E, ∃!(x1 , ..., xn ) ∈ K n telque :
u = x1 e1 + ... + xn en


x1
 . 

On note matB (u) = 
 .  ∈ M1,n (K) la matrice de de u dans B
xn
26.2.2
Matrice d’une famille de vecteurs


x1,j
 . 

Définition 147 Si ∀j ∈ {1, ..p}, uj ∈ E et matB (u) = 
 . , alors :
xn,j


x1,1 . . x1,p
 .
. .
. 

matB (u1 , ..., up ) = 
 .
. .
. 
xn,1 . . xn,p
De plus, le rang de la matrice est le rang de la famille de vecteurs.
26.2.3
Matrice de passage entre deux bases
Définition 148 On note matB (B 0 ) la matrice de passage de B à B’. On la note P
26.2.4
Coordonnée d’un vecteur dans deux bases
Définition 149 On note B et B’ deux bases de E.
On note P = matB (B 0 ) ∈ Mn (K) la matrice de passage de B à B’
Soit u ∈ E
On pose X = matB (u) et X 0 = matB 0 (u)
On obtient la relation :
X = P X0
De plus, P est inversible, et son inverse est :
P −1 = matB 0 (B)
26.2.5
Matrice d’une application linéaire
Définition 150 Soit f ∈ L(E, F ).
Soit BE = {e1 , ..., ep } base de E et BF = {f1 , ..., fn } base de F.
Soit M la matrice de f dans BE , BF :
M = matBE ,BF (f ) = matBF ({f (e1 ), ..., f (ep )})
Le nombre de colonne de la matrice est défini par la dimension de l’espace de départ, celui des ligne par la
dimension de l’espace d’arrivé
Cas Particuliers
I) La matrice de l’application nul ∈ L(E, F ) est la matrice nul de Mdim(F ),dim(E) (K)
II) La matrice d’un endomorphisme de E est une matrice carrée d’ordre dim(E)
III) La matrice de l’identité est In
IV) La matrice de l’homothétie est de rapport k par rapport à In
26.2.6
Coordonnée de l’image d’un vecteur
Définition 151 Soit BE base de E, BF base de F.
Soit u ∈ E
Posons M = matBE ,BF (f ), X = matBE (u), Y = matBF (u). Alors :
Y = M.X
De plus :
Théorème 15 Si f est une application de E dans F telque ∃M ∈ Mn,p telque ∀u ∈ E, l’égalité ci-dessus
est vérifié, alors f est une application linéaire
26.2.7
Unicité de la matrice, pour les bases fixes
Définition 152 Soient BE , BF bases de E et de F, avec dim(E) = p, dim(F)=n Soit :
ϕ : L(E, F ) → Mn,p (K)
f → matBE ,BF (f )
ϕ est une application linéaire. On en déduit donc que :
(f = g) ⇔ (matBE ,BF (f ) = matBE ,BF (g))
Propriété 144 Soit f ∈ L(E, F ), BE , BF bases de E et F
Soit A ∈ Mn,p (K)
Soit x ∈ E. Supposons que X = matBE (x) et Y = matBF (f (x)), et qu’on obtient :
Y = AX
Alors A = matBE ,BF (f )
26.2.8
Matrice et opérations
Définition 153 Soient BE , BF bases fixées de E et de F.
ϕ est une application linéaire, c’est donc un isomorphisme. Nous avons en effet montré que ϕ est bijective.
On en déduit que Mn,p (K) est de dimension finies, donc L(E,F) l’est aussi.
dim(L(E, F ) = dim(E) × dim(F ) = dim(Mn,p )
26.2.9
Composée d’application linéaire
Définition 154 Soient E,F,G espaces vectoriel de dimension finie, et de bases respective BE , BF , BG .
Soit f ∈ L(E, F ), g ∈ L(F, G). Alors :
matBE ,BG (gof ) = matBF ,BG (g) × matBE ,BF (f )
26.2.10
Matrice inversible et isomorphisme - Endomorphisme
Définition 155 Si f est un isomorphisme de E dans F, alors matBE ,BF (f ) est inversible est :
(matBE ,BF (f ))−1 = matBF ,BE (f −1 )
Si f est un endomorphisme, on a :
(matBE (f ))n = matBE (f n )
26.2.11
Changement de bases
Définition 156 Soit f ∈ L(E, F ). Soient BE , BE 0 bases de E. Soient BF , BF 0 bases de F.
On pose :

M = matBE ,BF (f )



M 0 = matBE0 ,BF 0 (f )
P = matBE (BE 0 )



Q = matBF 0 (BF )
Alors :
M 0 = Q−1 M P
ou, si f est un endomorphisme :
M 0 = P −1 M P
26.2.12
Trace d’un endomorphisme
Soit f un endomorphisme, A,B deux matrices d’ordre n. On sait déjà que Trace(AB)=Trace(BA)
et si :
M = matBE (f )
M 0 = matBE0 (f )
alors

 rang(M ) = rang(M 0 ) = rang(f )
T race(M ) = T race(M 0 ) = rang(f )

det(M ) = det(M 0 ) = det(f )
26.2.13
Matrice semblable
Définition 157 Soient A,B deux matrice carrée d’ordre n. On dit que A et B sont semblable si ∃E espace
vectoriel, ∃BE , BE 0 bases de E, ∃f endomorphisme de E telque :
B = P −1 M P
Ce qui revient à :
(A et B sont semblables) ⇔ (∃P ∈ GLn (K) telque B = P −1 M P )
26.2.14
Rang d’une application linéaire
On peut toujours ramener la matrice dans des bases BE 0 , BF 0 de f à Jr :


1 . . . 0
0 1 . . . 



Jr = 
. . 1 . .
. . . . .
0 . . . 0
Donc si :
f ∈ L(E,F) tel qu’il ∃BE 0 , BF 0 bases de E et F telque matBE0 ,BF 0 (f ) = Jr , alors rang(f)=r
De plus, on a :
(t P )−1 =t (P −1 )
On montre que t A et t Jr sont semblable, donc le rang d’une matrice est le rang de ses vecteurs
colonnes comme celui de ses vecteurs lignes.
Et on obtient :
rang(t A) = rang(A)
Chapitre
27
Déterminants
27.1
Forme n-linéaire
Soit E un K-espace vectoriel de dimension n.
Définition 158 Soit :
ϕ : En → K
(u1 , ..., un ) 7→ ϕ(u1 , ..., un )
ϕ est une forme n-linéaire si elle est linéaire par rapport à chacune de ses variables.
Expression dans une base
Définition 159 Soit B = (e1 , ..., en ) base de E.
Soit u1 , ..., un n vecteurs de E.


x1,j
 . 

Notons pour j ∈ {1, ..., n} matB (uj ) = 
 . 
xn,j
Si ϕ est une forme n-linéaire, alors :
X
ϕ(u1 , ..., un ) =
xi1 ,1 ...xin ,n ϕ(ei1 , ..., ein )
1≤i1 ,...,in ≤n
27.1.1
Forme n-linéaire alterné
Définition 160 Soit ϕ forme n-linéaire.
On dit que ϕ est alternée si :
∀u1 , ..., un ∈ E n
∀i, j éléments distinct de {1, ..., n}
ϕ(u1 , ..., ui , ..., uj , ..., un ) = −ϕ(u1 , ..., uj , ..., ui , ..., un )
Propriété 145 Si ϕ est une forme n-linéaire alterné.
Si {u1 , ..., un } est une partie liée de E.
Alors :
ϕ(u1 , ..., un ) = 0
123
Expression dans une base
Soit ϕ forme n linéaire alterné et B base de E.
X
xi1 ,1 ...xin ,n ϕ(ei1 , ..., ein )
ϕ(u1 , ..., un ) =
1≤i1 ,...,in ≤n
Soit Sn l’ensemble des bijections de {1, ..., n} dans lui même.
X
xσ1 ,1 ...xσn ,n ϕ(eσ1 , ..., eσn )
ϕ(u1 , ..., un ) =
σ∈Sn
Si σ ∈ Sn , on note ϕ(eσ1 , ..., eσn ) = ε(σ)ϕ(e1 , ..., en )
On dit que ε(σ) est la signature de σ, avec ε(σ) = (−1)p , avec p nombre de changement effectuer
pour obtenir le bon ordre de la base.
On obtient donc :
"
#
X
ε(σ)xσ1 ,1 ...xσn ,n ϕ(e1 , ..., en )
ϕ(u1 , ..., un ) =
σ∈Sn
Définition 161 Le déterminant dans la base B est l’unique forme n-linéaire alternée ϕ vérifiant :
ϕ(e1 , ..., en ) = 1
On le note : detB
Propriété 146 Toutes les applications de E × E × .... × E → K défini par ∀(u1 , ..., un ) ∈ E n :
X
ϕ(u1 , ..., un ) = A
ε(σ)xσ(1),1 ...xσ(n),n
σ∈Sn
avec A scalaire fixé, est une forme n-linéaire de alterné et ϕ(B) = A, avec B base de E.
Autre formulation :
Propriété 147 L’ensemble des formes n-linéaire alternée est une droite vectorielle.
V ect(detb ) = { A.detb / A scalaire quelconque }
27.2
Déterminant dans une base B
Définition 162 Soit B base de E.
detB est l’unique forme n-linéaire alternée vérifiant detB (B) = 1.
X
detB (u1 , ..., un ) =
ε(σ)xσ(1),1 ...xσ(n),n
σ∈Sn
27.2.1
Déterminant dans deux bases différentes
Soit B,B’ deux bases de E. ∀u1 , ..., un vecteurs de E :
detB 0 (u1 , ..., un ) = detB 0 (B).detB (u1 , ..., un )
Propriété 148
(detB (u1 , ..., un ) = 0) ⇔ ({u1 , ..., un } est liée)
(detB (u1 , ..., un ) 6= 0) ⇔ ({u1 , ..., un } est une base)
Propriété 149 Si B et B’ sont deux bases :
detB 0 (B) =
1
detB (B 0 )
Formulaire
→ detB (B) = 1
→ detB (λu1 , ..., λun ) = λn .det(u1 , ..., un )
→ det(Ide) = 1
27.3
Déterminant d’un endomorphisme
Définition 163 Soit f ∈ L(E)
Soient B et B’ deux bases de E.
detB (f (B)) = detB 0 (f (B 0 ))
Ce scalaire, indépendant du choix de la base, est appelé déterminant de f. On le note : det(f)
Propriété 150 Si f,g sont deux endomorphisme de E :
det(f og) = det(g).det(f )
Propriété 151 Si f ∈ L(E) :
( f est bijectif ) ⇔ (det(f ) 6= 0)
Propriété 152 Si f est un automorphisme de E :
det(f −1 ) =
27.4
1
= (det(f ))−1
det(f )
Déterminant d’une matrice carrée
Définition 164 Soit A ∈ Mn (K).
Notons c1 , ..., cn ses vecteurs colonnes, élément de K n .
Notons l1 , ..., ln ses vecteurs lignes, élément de K n .
Soit ϕ la base canonique de K n .
det(A) = detϕ (c1 , ..., cn ) = detϕ (l1 , ..., ln )
Propriété 153 Soit f ∈ L(E), avec B base de E.
Notons M = matB (f ).
On obtient :
det(f ) = detB (f (B)) = det(M )
27.4.1
Lien entre vecteurs lignes et vecteurs colonnes
Si A = [ai,j ]1≤i,j≤n :
det(A) =
X
ε(σ)aσ(1),1 ...aσ(n),n =
σ∈Sn
X
ε(σ)a1,σ(1) ...an,σ(n)
σ∈Sn
Propriété 154 D’après l’égalité ci-dessus, on établie que :
det(t A) = det(A)
27.4.2
Déterminant singulier
Soient (A,B) ∈ Mn (K)2 , λ ∈ K.
det(AB) = det(A).det(B)
det(λA) = λn det(A)
det(A + B) =????
27.4.3
Opérations élémentaires et déterminant
On peut effectuer des opérations élémentaires, tout comme pour le calcul de rang, pour calculer le déterminant d’une matrice. Ceci implique les règles suivantes :
→ ci ↔ cj : Changement de signe du déterminant
→ ci ← λcP
j : λ fois le déterminant
→ ci ←
λk .ck : Aucun changement
k=1,k6=i
27.4.4
Déterminant remarquable
Matrice diagonale
Soit A, matrice diagonale de diagonale : (d1 , ..., dn ) On obtient :
det(A) = d1 d2 ...dn
Matrice triangulaire
Soit A, matrice triangulaire de diagonale : (t11 , ..., tnn On obtient :
det(A) = t11 ...tnn
27.5
Développement de déterminant d’une matrice
Définition 165 Soit A = [ai,j ]1≤i,j≤n .
Soit j ∈ {1, ..., n}.
Le développement par rapport à la j-ème colonne donne :
det(A) = a1,j ∆1,j + ... + an,j ∆n,j
Le développement par rapport à la i-ème ligne donne :
det(A) = ai,1 ∆i,1 + ... + ai,n ∆i,n
On appelle cofacteur de ai,j dans le développement ∆i,j :
X
∆i,j =
ε(σ)aσ(1),1 ...aσ(j−1),j−1 aσ(j+1),j+1 ...aσ(n),n
σ∈Sn ,σ(j)=i
27.5.1
Calcul des cofacteurs
Propriété 155 On détermine le cofacteurs à l’aide de l’égalité suivantes :
∆i,j = (−1)i+j × A
Avec :
→ A : Déterminant de la matrice obtenu en enlevant la ligne i et la colonne j.
27.5.2
Inverse d’une matrice inversible
Soit A = [ai,j ]1≤i,j≤n .
Soit la comatrice de A :
Com(A) = [∆i,j ]1≤i,j≤n
Si A est inversible, donc det(A) 6= 0, alors :
A−1 =
1 t
Com(A)
det(A)
27.5.3
Formule de Sarrus, pour n=3
La formule de Sarrus est de reporte la 1er et la 2nd ligne de la matrice sous la matrice, puis de
trace les diagonales et les anti-diagonales. Les diagonales sont comptées positivement, les antidiagonales négative
Treizième partie
Annexe
129
Annexe
A
Matrices
A.1
Inversibilité et inverse
Soit A ∈ Mn (K)
On peut déterminer si A est inversible et trouver son inverse à l’aide de cinq méthodes :
A.1.1
Interprétation
1ère méthode
On pose que A est la matrice d’une application linéaire f dans la base canonique de Rn . On
montre que f est un isomorphisme et on détermine f −1 . Dans ce cas, A−1 = matB (f −1 )
2nd méthode
Soit (e1 , e2 , ..., en ) vecteurs de Rn telque A=matCn (e1 , ..., en ), avec Cn la base {c1 , c2 , ...cn }. On
pose le système correspondant par lecture en colonne de la matrice, à savoir :

 e1 = a1 c1 + .... + an cn
e2 = b1 c1 + .... + bn cn

........
Puis on retourne le système, on exprime {c1 , c2 , ...cn } en fonction de (e1 , ..., en ). On en déduit donc
que la base de C n est génératrice, donc base car le bon nombre d’élément. A est donc inversible.
On injecte le tout par colonne dans une matrice, et on obtient la matrice inverse
A.1.2
Opérations élémentaires
On effectue des opérations élémentaire sur A jusqu’a obtenir la matrice unité In . On en déduit
que rang(A)=n, donc A est inversible, et on reportent les opérations effectué sur A sur In . La
matrice qui découle de In est A−1
A.1.3
Astuces et propriété
Si n est assez faible, 2 ou 3, on multiplie A par elle même jusqu’a obtenir une matrice de la
forme :
An = λA + µIn
On obtient A−1 grâce à ceci :
1
A. (An−1 − λIn ) = In
µ
Si il s’agit de monter uniquement le caractère inversible de A, on utilise la propriété suivante :
131
Propriété 156 Si rang(A) = n, alors A est inversible
A.2
Opérations sur les matrices
A.2.1
Changement de base
1ère méthode
On utilise la formule, dans le cas d’un endomorphisme, pour passer d’une base BE à une base
0
BE
:
M 0 = P −1 M P
avec :

 M 0 = matBE0 (f )
M = matBE (f )

0
P = matBE (BE
)
2nd méthode
On sait que M’, la matrice dans la nouvelle base, est constitué de l’image par f de l’ancien
0
. On calcule donc l’image des vecteurs de BE par f, puis
base,BE en fonction de la nouvelle, BE
0
on les expriment en fonction des vecteurs de la base BE
A.2.2
Calcul des coordonnée d’un vecteur dans une autre base
On utilise la formule suivante :
X 0 = P −1 X
avec :

 X = matBE (x)
X 0 = matB 0 E (x)
 −1
P = matBE0 (BE )
A.2.3
Coordonnée de l’image d’un vecteur dans un base
On utilise la formule suivante :
Y = MX
avec

 Y = matBE (f (x))
X = matBE (x)

M = matBE (f )
A.3
Base de l’image et du noyau d’une application
A.3.1
Base de l’image
On détermine tout d’abord le rang de la matrice, puis on utilise la propriété qui dit que si
f :E→E
avec BE = (e1 , e2 , ..., en ) base de E, alors :
Imf = V ect {f (e1 ), ..., f (en )}
A.3.2
Base du noyau
Si dim(Ker(f)) est 1 ou 2, alors on observe la matrice de l’application, est on cherche une combinaison de colonne qui fourni la colonne nul. Sachant que f est linéaire et que les colonne représente
les images des vecteurs de base, on rassemble ces colonne et on obtient un vecteur du noyau.
Exemple :
1 2
0 0
On remarque que 2f (e1 ) − f (e2 ) = 0, donc que 2e1 − e2 ∈ Ker(f )
Annexe
B
Développement limité
B.1
Obtenir le développement
B.1.1
Au voisinage de 0
Développement connu
On utilise les développement de référence, en vérifiant toujour que le "u" utilisé tend toujours
vers 0 dans x tend vers 0. Si ce n’est pas le cas, faire un changement de variable.
Changement de variable
Quand on effectue un changement de variable, on pose toujours une variable qui tend vers 0.
Par la suite, quand on a exprimé le développement limité usuel en fonction de t, on détermine
t, t2 , ..., tn jusqu’à obtenir juste un o(xp ) si on cherche un développement limité d’ordre p.
On peut être aussi amené à factoriser pour obtenir la forme voulu Ex :
Soit f, la fonction :
√
f : x → ln(1 + 1 + x)
√
On observe bien que 1 + x tend vers 1 quand x tend vers 0, et non vers 0. Posons donc :
√
t= 1+x−1
Donc, quand x → 0, t→ 0. D’où, au voisinage de 0 :
f (x) = ln(1 + t + 1) = ln(2 + t)
En effet, quand t → 0, f(x) tend bien vers 2. Or le développement usuel est ln(1 + u), avec u qui
tend vers 0. Dans ce genre de situation, on factorise toujour par 2. En effet si :
f (x) = ln(a + u)
u
))
a
u
f (x) = ln(a) + ln(1 + )
a
Et on effectue le développement limité de ln(1+t) à ce niveau.
f (x) = ln(a(1 +
B.2
Asymptote
Pour determiner l’asymptote à une courbe, on détermine en premier lieu :
f (x)
=a
x→d x
lim
135
Avec a 6= 0 Puis :
lim f (x) − ax = b
x→d
Alors l’asymptote est ax+b en d
C
Annexe
Fraction Rationnelle
C.1
Partie entière
Pour déterminer la partie entière, on fait la division euclidienne du numérateur par le dénominateur, sans l’ordre de multiplicité si il existe.
C.2
Décomposition en élements simple
On décompose en élements simple et on détermine ces coefficent en travaillant sur l’égalité :
N um.
λ1
λ2
λα
µ1
µ2
µβ
=
...
...
(X − a)α (X − b)β
(X − a) (X − a)2 (X − a)α (X − b) (X − b)2 (X − b)β
Si deg(Dénomin.) > 1 (ex : (X 2 + 1)α ), dans la décomposition, alors : ∀i ∈ {1, 2, ..., α}
λi = λi1 X + λi2
C.2.1
Dans C
Pôle simple
Si F =
P
P
=
, avec a qui n’est pas racine de Q1 , on obtient donc :
Q
(X − a)Q1
F = F0 +
λ
X −a
Avec a qui n’est pas un pôle de F0 . Il existe deux techniques pour déterminer λ :
I) On multiple F par le dénominateur, X-a, et on détermine la valeur en a.
(X − a)F =
P
= F0 (X − a) + λ
Q1
λ=
P̃ (a)
Q̃1 (a)
II) On utilise la dérivé. On applique la formule de Taylor en a pour Q.
Q = 0 + Q̃0 (a)(X − a) + (X − a)2 R
avec R ∈ C[X]. D’où :
(X − a)F = (X − a)
P
P
=
Q̃0 (a)(X − a) + (X − a)2 R
Q̃0 (a) + (X − a)R
137
Et on prend la valeur en a de cette expression. On obtient :
λ=
P̃ (a)
Q̃0 (a)
Pôle double
→ Sans ordre de multiplicité : Si une fraction F possède un pôle double, a et b, alors on détermine les coefficiants c et d en prenant la valeur en a de (X-a)F et la valeur en b de (X-b)F.
→ Avec ordre de multiplicité : Si une fraction F possède un pôle double, a et b, avec les ordres
de multiplicité respectif α et β, alors on détermine deux des coefficiants en prenant la valeur
en a de (X − a)α et la valeur en b de (X − b)β . Pour déterminer les autres coefficiants, on
détermine des valeurs particulière. En géneral, pour α=2, on prend la valeur en 0 et la limite
en +∞
Parité
Si on a : F (−X) = −F (X) ou F (−X) = F (X) on développe les expressions et on obtient entre
les différentes coefficiants des relations, ce qui limite les calculs.
C.2.2
Dans R
Décomposition indirecte
Si on a la décomposition dans C, avec des pôles imaginaire, on met sous le même dénominateur les fractions avec les pôles conjugés. On obtient la décomposition dans R.
Décomposition direct
→ Soit on passe par un ensemble de valeur particulier, pour déterminer les différents coefficiants
→ Soit, si possible, on utilise un pole complexe, et on détermine les coefficiant. Ex : On utilise
la valeur en i de (X 2 +1)F.
Annexe
D
Intégrale
D.1
Étude de la fonction
D.1.1
Définition
Soit
Z
v(x)
g : x 7→
f
u(x)
Pour étudier le domaine de définition d’une fonction :
→ On travaille à x fixé :
Soit x ∈ R
 u(x) existe
v(x) existe
→ Puis : (f(x) existe) ←

f est continue par morceaux sur [u(x) ;v(x)]
D.2
Primitive
Soit f défini sur un ensemble E :
→ Si E n’est pas un intervalle, alors ? ? ? ?
→ Si E est un intervalle :
→ Si f n’est pas continue en un réel de E, alors ? ? ?
→ Si f est continue sur E, alors f admet un ensemble de primitive
D.2.1
Dérivabilité
On défini une fonction primitive de f, qui est une fonction continue par morceaux, sur son
domaine de définition. On la note F. On obtient :
g(x) = F (v(x)) − F (u(x))
Ce qui permet de dire que f est dérivable, comme F est par définition dérivable.
139
Annexe
E
Procédé d’orthonormalisation de
Gram-Schmidt
Soit (u,v,w) une base de R3 ( On peut étendre cette méthode pour une base de Rn ) On recherche
une base orthonormée de R3 : (e1 , e2 , e3 ).
Cette base doit vérifier :
→ Vect(u) = Vect(e1 )
→ Vect({u, v} = Vect({e1 , e2 })
→ Vect({e1 , e2 , e3 }) = R3
Pour e1 , on pose directement :
u
e1 =
||u||
Pour e2 , on détermine tout d’abord un vecteur A2 , colinéaire à e2 . A l’aide d’une représation plan,
on déduit que :
A2 = v + λu
On détermine λ sachant qu’il faut que :
< A2 , e1 >= 0
On obtient donc λ. On obtient donc :
e2 =
A2
||A2 ||
Pour e3 , on effectue une representation dans l’espace, et on déduit que :
A3 = w + λu + µv
On détermine λ et µ sachant que A3 doit vérifier :
< A3 , e1 >=< A3 , e2 >= 0
Et on obtient e3 :
e3 =
A3
||A3 ||
141
Annexe
F
Arithmétique
F.1
Théorème de Bezout
Pour résoudre une équation de la forme :
a.u + b.v = c
d’inconnus (u,v), avec c le P.G.C.D de u et v, on détermine tout d’abord le P.G.C.D de u et v par le
théorème d’Euclide. On procède de la façon suivante :
1- u = q1 .v + r1
2- v = q2 .r1 + r2
3- r1 = q3 .r2 + r3 ......
4- Puis on arrive à :
5- rn−1 = qn−1 .rn + rn+1
6- rn = qn .rn+1 + 0
Alors le P.G.C.D de u et v est le dernier reste non nul, rn+1
Puis, par application du théorème de Bezout qui dit que : Il existe deux entier a et b tel que, si le
P.C.G.D de u et v est d, alors :
a.u + b.v = d
On exprime le premier reste en fonction de u et v, puis on retrouve les autres expressions qu’on
injecte dans le première. On obtient au final a et b.
143
Annexe
G
Fonctions de R2 dans R
G.1
Caractérisation de l’existence d’une limite
Pour montrer qu’il existe une limite, on peut procéder de trois façon differentes :
→ Par utilisation de la définition :
∀ε > 0 ∃α > 0 tq ∀(x, y) ∈ B((x0 , y0 ), α) : |f (x, y) − l| < ε
→ Par utilisation des propriétés sur les sommes, produits et compositions
→ À l’aide du théorème d’encadrement
G.2
Caractérisation de la non-existence de limite
Pour caractériser le fait qu’une limite n’existe pas, on utilise l’idée des "chemins".
On recherche tout d’abord deux couples différents, (x1 , y1 ) et (x2 , y2 ), qui converge vers (a,b) par
exemple :
→ limx1 = a
t0
→ limy1 = b
t0
→ limx2 = a
α
→ limy2 = b
α
Puis si on obtient, avec l différents de l’ :
→ lim f (x1 (t), y1 (t)) = l
t→t0
→ lim f (x2 (y), y2 (u)) = l0
u→α
Alors on en déduit que la limite en (a,b) de f n’existe pas
145
Annexe
H
Vrac - Analyse
H.1
Équation de droite
−
Si on a un point A et un vecteur directeur →
u , alors on pose un point M et on détermine :
−−→ −
det(AM , →
u) = 0
−
Si on a un point A et un vecteur directeur →
n , alors on pose un point M et on détermine :
−−→
→
−
n .AM = 0
H.2
Etude d’une limite
Comment étudier la limite en a de f ?
Soit f une fonction définie sur I, sauf peut etre en a.
Soit b∈ R̄.
Pour déterminer si la limite en a de f est b :
→ Regarder si f est une "composée" au voisinage de a de fonction continue.
→ Utiliser le théorème d’encadrement
→ Décomposer en limite à gauche et limite à droite
147
Annexe
I
Trigonométrie
I.1
I.1.1
Formules
Décomposition
→ cos(a+b) = cos(a).cos(b) - sin(a).sin(b)
→ cos(a-b) = cos(a).cos(b) + sin(a).sin(b)
→ sin(a+b) = sin(a).cos(b) + sin(b).cos(a)
→ sin(a-b) = sin(a).cos(b) - sin(b).cos(a)
tan(a) + tan(b)
1 − tan(a).tan(b)
tan(a) − tan(b)
→ tan(a-b) =
1 + tan(a).tan(b)
→ tan(a+b) =
I.1.2
Angle double
→ sin(2a) = 2.sin(a).cos(a)
→ cos(2a) = 2.cos2 (a) − 1 = 1 − 2.sin2 (a)
→ tan(2a) =
I.1.3
2.tan(a)
1 − tan2 (a)
Linéarisation
→ 2.cos(a).cos(b) = cos(a+b) + cos(a-b)
→ 2.sin(a).sin(b) = cos(a-b) - cos(a+b)
→ 2.sin(a).cos(b) = sin(a+b) + sin(a-b)
1 + cos(2a)
2
1
−
cos(2a)
→ sin2 (a) =
2
→ cos2 (a) =
149
I.1.4
Somme
Soit (p, q) ∈ R2
p−q
p+q
).cos(
))
2
2
p−q
p+q
).sin(
))
→ cos(p) - cos (q) = -2.(sin(
2
2
p+q
p−q
→ sin(p) + sin (q) = 2.(sin(
).cos(
))
2
2
p−q
p+q
).sin(
))
→ sin(p) - sin (q) = 2.(cos(
2
2
→ cos(p) + cos (q) = 2.(cos(
I.2
I.2.1
I.2.2
Fonction inverse
Fonction Hyperbolique
Fonction
Df
Df 0
Argch
]1 : +∞
]1 ;+∞[
Argsh
R
R
Argth
] − 1; 1[
] − 1; 1[
f’(x)
1
√
2
x −1
1
√
2
x +1
1
1 − x2
Fonction Trigonométrique
Fonction
Df
Df 0
Arccos
[-1 :1]
]-1 ;1[
Arcsin
[-1 :1]
]-1 ;1[
Arctan
R
R
→ ∀x ∈ R arcsin(x) + arccos(x) =
f’(x)
−1
√
1 − x2
1
√
1 − x2
1
1 + x2
π
2
1
π
→ ∀x ∈ R∗ arctan(x) + arctan( ) = ± (dépend du signe de x)
x
2
→ ∀x ∈ R cos2 (x) + sin2 (x) = 1
→ ∀x ∈ R ch2 (x) − sh2 (x) = 1
Annexe
J
Limites classiques
Fonctions trigonométrique
sin(x)
=1
x
lim
x→0
1
1 − cos(x)
=
2
x→0
x
2
lim
lim
x→0
arcsin(x)
=1
x
tan(x)
=1
x→0
x
lim
Fonctions hyperbolique
lim
1
ch(x)
=
ex
2
lim
sh(x)
1
=
ex
2
x→+∞
x→+∞
ch(x)
=1
x→+∞
x
lim
lim
x→+∞
ch(x) − 1
1
=
2
x
2
Exponentielle
ex
= +∞
x→+∞ xα
lim
ex − 1
=1
x→0
x
lim
lim |xα |ex = 0
x→−∞
151
Logarithme
(ln(x))α
=0
x→+∞
xβ
lim
ln(1 + x)
=1
x→0
x
lim
lim xα |ln(x)|β = 0
x→0
Polynomes
lim
P
= Limite des termes de plus bas degres
Q
lim
P
= Limite des termes de plus haut degres
Q
0
∞
Autres
(1 + x)α − 1
=α
x→0
x
lim
Les formes indéterminée
∞
∞
∞−∞
∞×0
1∞
Téléchargement