Matrices et déterminants I. Calcul matriciel 1°) Matrices rectangle Déf : On note M n ,p (K ) l’ensemble des matrices de type (n , p ) à coefficients dans K . Théorème : M n ,p (K ) est un K -espace vectoriel de dimension np d’élément nul On ,p dont la famille (Ei , j )1≤i≤n ,1≤j ≤p est une base appelée base canonique. p
Déf : Pour A = (ai , j ) ∈ M n ,p (K ) et B = (bj ,k ) ∈ M p ,q (K ) , on pose AB = (ci ,k ) ∈ M n ,q (K ) avec ci ,k = ∑ai , jbj ,k . j =1
t
Déf : Pour A = (ai , j ) ∈ M n ,p (K ) , on pose A = (a j′,i ) ∈ M p ,n (K ) avec a j′,i = ai , j . Prop : Pour A ∈ M n ,p (K) et B ∈ M p ,q (K ) : t (AB ) = t B tA . 2°) Matrice carrées Déf : On note M n (K) l’ensemble des matrices carrées d’ordre n . Théorème : M n (K ) est une K -algèbre de dimension n 2 de neutres On et I n . Celle-ci est non commutative dès que n ≥2 . Prop : Les matrices commutant avec toutes les matrices de M n (K) sont les λI n avec λ ∈ K . Prop : Soit D une matrice diagonale à coefficients diagonaux distinctes. Seules les matrices diagonales commutent avec D . 3°) Matrices inversibles Déf : On note GLn (K ) l’ensemble des matrices inversible de M n (K) . Théorème : GLn (K ) est un groupe de neutre I n . Théorème : Pour A ∈ M n (K) , on a équivalence entre : (i) A est inversible (ii) ∃B ∈ M n (K ), AB = I n , (iii) ∃C ∈ M n (K ),CA = I n . De plus si tel est le cas B = C = A−1 . 4°) Calcul par blocs Déf : Soit A ∈ M n ,p (K) , B ∈ M n ,q (K ) , C ∈ M m ,p (K ) et D ∈ M m ,q (K ) . On note :
a1,1 ⋯ a1,p b1,1 ⋯ b1,q ⋮ ⋮ ⋮ ⋮ A B an ,1 ⋯ an ,p bn ,1 ⋯ bn ,q ∈ M n +m ,p +q (K ) . = C D c1,1 ⋯ c1,p d1,1 ⋯ d1,q ⋮ ⋮ ⋮ ⋮ cm ,1 ⋯ cm ,p dm ,1 ⋯ dm ,q Théorème : Sous réserve de compatibilité des types matriciels : A′ B ′ AA′ + BC ′ AB ′ + BD ′ A B alors MM ′ = et M ′ = Si M = CA′ + DC ′ CB ′ + DD ′ . C D C ′ D ′
-1/6-
5°) Noyau, image et rang d’une matrice Pour A ∈ M n ,p (K) , l’application ϕA : M p ,1 (K ) ֏ M n ,1 (K) définie par ϕA (X ) = AX est linéaire. Déf : On pose ker A := ker ϕA = {X ∈ M n ,1 (K ), AX = 0} ,
Im A := Im ϕA = {AX / X ∈ M n ,1 (K )} et rg A := dim Im A = rg ϕA . Prop : Si C 1 ,…,C p désignent les colonnes de A alors rg A = rg(C 1 ,…,C p ) . Prop : ∀A ∈ M n ,p (K) , rg A ≤ min(n , p ) .
∀A ∈ M n ,p (K) , ∀B ∈ M p ,q (K ) , rg(AB ) ≤ min(rg A, rg B ) . ∀U ∈ GLn (K ) , ∀V ∈ GLp (K ) , rg(UA) = rg(AV ) = rg(A) . Théorème : Soit A ∈ M n (K) . On a équivalence entre : (i) A est inversible, (ii) ker A = {0} , (iii) rgA = n , (iv) Im A = M n ,1 (K ) . II. Représentations matricielles 1°) Matrice des composantes d’un vecteur Soit E un K -espace vectoriel de dimension n muni d’une base B = (e1 ,…,en ) . Déf : Pour x ∈ E , on note Mat B (x ) ∈ M n ,1 (K ) la matrice des composantes de x dans la base B . Théorème : L’application M B : x ֏ Mat B (x ) est un isomorphisme de K -espace vectoriel de E vers M n ,1 (K ) Déf : Pour x1 ,…, x p ∈ E , on note Mat B (x1 ,…, x p ) ∈ M n ,p (K ) la matrice dont les colonnes sont formées des composantes des vecteurs x1 ,…, x p dans la base B . Prop : Si A = Mat B (x1 ,…, x p ) alors rg(x1 ,…, x p ) = rg A 2°) Matrice d’une application linéaire Soit E , F des K -espaces vectoriels munis de bases B = (e1 ,…,e p ) , C = ( f1 ,…, fn ) . Déf : Pour u ∈ L(E , F ) , on note Mat B ,C (u ) ∈ M n ,p (K) la matrice formée des composantes dans C des vecteurs u (e1 ),…, u (e p ) . Pour u ∈ L(E ) , on note Mat B (u ) ∈ M p (K ) au lieu de Mat B ,B (u ) . Théorème : L’application M B ,C : L(E , F ) → M n ,p (K ) est un isomorphisme de K -espace vectoriel. L’application M B : L(E ) → M n (K ) est un isomorphisme de K -algèbre. 3°) Formules de changement de bases Déf : Soit B et B ′ deux bases d’un K -espace vectoriel E . On appelle matrice de passage de B à B ′ la matrice P = Mat B (B ′) = Mat B ′ ,B (IdE ) . Prop : P est inversible et P −1 est la matrice de passage de B ′ à B . Théorème : Soit B et B ′ deux bases de E et P = Mat B B ′ Pour tout x ∈ E , en notant X = Mat B (x ) et X ′ = Mat B ′ (x ) on a X = PX ′
-2/6-
Théorème : Soit B , B ′ deux bases de E et P = Mat B B ′ . Soit C , C ′ deux bases de F et Q = Mat C C ′ . Pour tout u ∈ L(E , F ) , en notant A = Mat B ,C (u ) et A′ = Mat B ′ ,C ′ (u ) on a A′ = Q −1AP . Cor : Pour u ∈ L(E ) , A = Mat B (u ) , A′ = Mat B ′ (u ) , A′ = P −1AP . 4°) Matrices équivalentes Déf : Deux matrices A, B ∈ M n ,p (K ) sont dites équivalentes ssi il existe P ∈ GLp (K) et Q ∈ GLn (K) telles que B = Q −1AV . On définit ainsi une relation d’équivalence sur M n ,p (K ) . Prop : L’équivalence de matrice est une relation d’équivalence sur M n ,p (K ) Théorème :
I r Toute matrice A ∈ M n , p (K ) est équivalente à J r = 0
0 où r = rg A . 0
Cor : Deux matrices sont équivalentes ssi elles ont le même rang. Cor : rg tA = rg A . Ainsi rg A est le rang de la famille de ses colonnes et aussi de la famille de ses lignes. 5°) Matrices semblables Déf : Deux matrices A, B ∈ M n (K) sont dites semblables ssi il existe P ∈ GLn (K ) telle que B = P −1AP . Prop : Ceci définit une relation d’équivalence sur M n (K ) . Prop : Deux matrices semblables ont même rang. La réciproque est fausse. Pour montrer que deux matrices A et B de M n (K) sont semblables, il est fréquent de réinterpréter le problème en terme d’endomorphismes. On choisit un K -espace vectoriel E de dimension n muni d’une base B . On réinterprète A comme la matrice d’un endomorphisme u dans cette base puis on démontre l’existence d’une base dans laquelle la matrice de u soit B . 6°) Trace d’une matrice carrée, d’un endomorphisme Déf : On appelle trace d’une matrice A = (ai , j ) ∈ M n (K) le scalaire tr A = a1,1 + ⋯ + an ,n . Prop : La trace définit une forme linéaire sur M n (K ) . Prop : ∀A, B ∈ M n (K ), tr(AB ) = tr(BA) . Soit E une K -espace vectoriel de dimension n et f ∈ L(E ) . Les représentations matricielles de f sont semblables entre elles, elles auront donc même trace. Déf : Cette valeur commune est appelée trace de l’endomorphisme f et est notée tr( f ) . Prop : L’application tr : L(E ) → K est une forme linéaire sur E . Prop : ∀f , g ∈ L(E ), tr( f g ) = tr(g f ) . III. Algorithme du pivot de Gauss 1°) Opérations élémentaires a) dilatation Soit i ∈ {1,…, n } et λ ∈ K ∗ . On pose Di (λ ) = diag(1,…, λ ,…1) ∈ M n (K ) . C’est une matrice inversible. Théorème : Pour A ∈ M n ,p (K) , la matrice Di (λ )A est obtenue par Li ← λLi . Pour A ∈ M m ,n (K ) , la matrice ADi (λ ) est obtenue par C i ← λC i . b) transvection Soit i ≠ j ∈ {1,…, n } et λ ∈ K . On pose Ti , j (λ ) = I n + λEi , j ∈ M n (K) . C’est une matrice inversible. -3/6-
Théorème : Pour A ∈ M n ,p (K) , la matrice Ti , j (λ )A est obtenue par Li ← Li + λLj . Pour A ∈ M m ,n (K ) , la matrice ATi , j (λ ) est obtenue par C j ← C j + λC i . c) permutation Soit σ ∈ Sn . On pose P (σ ) = (δi ,σ ( j ) ) ∈ M n (K ) . Théorème : ∀σ , σ ′ ∈ Sn , P (σ ′ σ ) = P (σ ′)P (σ ) . Cor : P (σ ) ∈ GLn (K ) et P (σ )−1 = P (σ −1 ) . Théorème : Pour A ∈ M n ,p (K) , la matrice P (σ )A est obtenue par Lσ (i ) ← Li . Pour A ∈ M m ,n (K ) , la matrice AP (σ ) est obtenue par C j ← C σ ( j ) . 2°) Matrice échelonnée Déf : Une matrice A ∈ M n ,p (K) est dite échelonnée ssi elle est de la forme
0 0 0 ⋮ ⋮ 0
⋯ 0 p1 ⋯0 0 ⋯ ⋯0 0 ⋯ ⋮ ⋮ ⋮ ⋮ ⋯0 0 ⋯
0 0 ⋮ ⋮ 0
(∗) p2 0 ⋯ 0 p3 avec p ,…, p ≠ 0 . 1 r ⋮ ⋮ 0 ⋱ ⋮ ⋮ ⋮ ⋱ pr 0 ⋯ 0 0 ⋯ 0 (0)
Prop : Une telle matrice est de rang r . 3°) Algorithme du pivot de Gauss Théorème : Toute matrice A ∈ M n ,p (K) peut être transformée par transvection sur les lignes en une matrice échelonnée de rang r = rg A . 4°) Applications a) calcul de rang b) inversion de matrice Prop : On peut transformer A ∈ GLn (K ) en I n en n’opérant uniquement que sur les lignes de A . Prop : Les opérations sur les lignes qui transforment A en I n transforment parallèlement I n en A−1 .
a11x1 + ⋯ + a1p x p = b1 Considérons le système Σ : d’équation matricielle AX = B . ⋮ an1x1 + ⋯ + anp x p = bn Déf : On dit que le système Σ est échelonné ssi la matrice A l’est. Prop : Par opération, sur les équations de Σ , on peut transformer Σ en un système équivalent échelonné. IV. Déterminants 1°) Définition a) déterminant d’une matrice carrée Déf : On appelle déterminant d’une matrice A = (ai , j ) ∈ M n (K ) le scalaire : n
det A :=
∑ ε(σ )∏aσ (i ),i encore noté
σ ∈Sn
i =1
a1,1 ... a1,n ⋮ ⋮ an ,1 ... an ,n
. [n ] n
Prop : ∀A ∈ M n (K ) , det t A = det A et donc det A =
∑ ε(σ )∏a
σ ∈Sn
-4/6-
i =1
i ,σ (i )
Théorème : ∀A, B ∈ M n (K ), det AB = det A.det B . De plus A est inversible ssi det A ≠ 0 et alors det A−1 = 1 det A .
Prop : SLn ( ℝ ) := {A ∈ M n ( ℝ ) / det A = 1} est un sous-groupe de (GLn ( ℝ ),×) . Déf : SLn ( ℝ ) : groupe spéciale linéaire d’ordre n . b) déterminant d’une famille de vecteurs Soit E un K -espace vectoriel de dimension n muni d’une base B . Déf : Le déterminant d’une famille (x1 ,…, x n ) de vecteurs de E est det B (x1 ,…, x n ) = det Mat B (x1 ,…, x n ) Théorème : L’application (x1 ,…, x n ) ֏ det B (x1 ,…, x n ) est une forme n -linéaire alternée (i.e. s’annule sur les familles liées). De plus (x1 ,…, x n ) est une base de E ssi det B (x1 ,…, x n ) ≠ 0 . c) déterminant d’un endomorphisme Soit E un K -espace vectoriel de dimension n muni d’une base B . Déf : Le déterminant de f ∈ L(E ) est det f = det Mat B f (indépendant de f ). Théorème : ∀f , g ∈ L(E ),det( f g ) = det f det g . De plus f ∈ GL (E ) ⇔ det f ≠ 0 et alors det f −1 = 1 det f .
Prop : SL (E ) := {f ∈ L(E ) / det f = 1} est un sous groupe de (GL (E ), ) . Déf : SL (E ) : groupe spécial linéaire de E . 2°) Opérations élémentaires sur les déterminants Théorème : Les opérations élémentaires C i ← C i + λC j et Li ← Li + λLj ne modifient pas le déterminant. Les opérations élémentaires C i ← λC i et Li ← λLi multiplient par λ un déterminant. La permutation des lignes ou des colonnes d’une matrice selon une permutation σ multiplie son déterminant par ε(σ ) .
3°) Développement d’un déterminant selon une rangée Soit A = (ai , j ) ∈ M n (K ) . Pour i , j ∈ {1,…, n } :
a1,1 ∆i , j = ⋮
an ,1 Ai , j = (−1)
⋯ a1,n aˆi , j ⋮ ⋯ an ,n i+j
: mineur d’indice (i , j ) , [n −1]
a1,1 ⋯ a1,n × ⋮ aˆi , j ⋮ an ,1 ⋯ an ,n
: cofacteur d’indice (i , j ) . [n −1]
Théorème : n
n
∀j ∈ {1,…, n } , det A = ∑ ai , j Ai , j = ∑ (−1)i + j ai , j ∆i , j : développement de det A selon sa j ème colonne. i =1
i =1
n
n
∀i ∈ {1,…, n } , det A = ∑ ai , j Ai , j = ∑ (−1)i + j ai , j ∆i , j : développement de det A selon sa i ème ligne. j =1
j =1
-5/6-
4°) Déterminant de Vandermonde Théorème : Soit (a1 ,…,an ) ∈ Kn .
1 a1 a12 ⋯ a1n −1 Vn (a1 ,...,an ) = ⋮ ⋮ ⋮ ⋮ = ∏ (a j −ai ) . 1≤i < j ≤n 2 n −1 1 an an ⋯ an 5°) Déterminant d’une matrice triangulaire par blocs Théorème : A B avec A , D carrées alors det M = det A× det D . Si M = 0 D Cor :
A1 (0)
(∗) ⋱ An
= det A1 ×⋯× det An et
A1
(0) ⋱
(∗)
An
= det A1 ×⋯× det An
6°) Applications a) formule de Cramer Théorème : Soit Σ un système à n équations et n inconnues : a1,1x1 + ⋯ + a1,n x n = b1 d’équation matricielle AX = B . ⋮ an ,1x1 + ⋯ + an ,n x n = bn Le système Σ est de Cramer ssi det A ≠ 0 . De plus, si tel est le cas, son unique solution est le n uplet (x1 ,..., x n ) avec
∀1 ≤ j ≤ n , x j =
a1,1 ⋯ b1 ⋮ ⋮ an ,1 ⋯ bn a1,1 ⋮
⋯ a1,n ⋮ ⋯ a n ,n
⋯ a1,n ⋮
.
an ,1 ⋯ an ,n b) comatrice Déf : On appelle comatrice de A la matrice des cofacteurs de A , on la note com(A) = (Ai , j )1≤i , j ≤n ∈ M n (K ) . Théorème : ∀A ∈ M n (K ),( t com A)A = A( t com A) = det(A)I n . c) calcul de rang Déf : On appelle matrice extraite de A ∈ M n ,p (K) toute matrice formée en retirant des lignes et/ou de colonnes de A . Prop : Le rang d’une matrice extraite est inférieur au rang de la matrice dont elle est extraite.
Déf : On appelle déterminant extrait de A ∈ M n ,p (K) tout déterminant d’une matrice carrée extraite de A . Théorème : Soit A ∈ M n , p (K ) une matrice. Le rang de A est l’ordre maximal des déterminants non nuls extraits de A .
-6/6-