Calcul matriciel

Page 1

Calcul matriciel K désigne ℝ ou ℂ . m , n , p, q , r sont des entiers naturels. 0 si i ≠ j (symbole de Kronecker) On note δi , j =   1 si i = j I. Opérations sur les matrices 1°) Matrice Déf : On appelle matrice de type (n , p ) (pour n lignes et p colonnes) à coefficients dans K tout famille

A = (ai , j )1≤i ≤n ,1≤ j ≤p d’éléments de K . Une telle matrice est généralement représentée sous la forme d’un tableau à n lignes et p colonnes : a1,1 a1,2 … a1, p    a a 2,2 … a 2, p  2,1   . A = (ai , j )1≤i ≤n ,1≤j ≤p =   ⋮ ⋮ ⋮    an ,1 an ,2 … an , p   ai , j est appelé coefficient d’indice (i , j ) de la matrice A , il est positionné à la i ème ligne et j ème colonne de A . On notre M n , p (K ) l’ensemble des matrices de type (n , p ) à coefficients dans K . Cas particuliers : Pour n = p = 1 : les matrices de M1,1 (K ) sont appelées matrices (uni-) coefficient. Elles sont de la forme (x ) . Il est usuel d’identifier ces matrices avec l’élément x de K qui leur correspond. Pour n quelconque et p = 1 : les matrices de M n ,1 (K ) sont appelées matrices (uni-) colonnes.

a1    Elles sont de la forme :  ⋮  .   an  Il est usuel d’identifier cette matrice colonne avec le n uplet (a1 ,…, an ) . Pour n = 1 et p quelconque : les matrices de M1, p (K) sont appelées matrices (uni-) lignes. Elles sont de la forme : (a1 ⋯ a p ) . Déf : Soit A = (ai , j ) ∈ M n , p (K ) (présentation de l’abus de notation correspondant).

a1,1 a1,2 … a1, p    a a 2,2 … a 2, p  2,1  . A =   ⋮ ⋮ ⋮    an ,1 an ,2 … an , p  a1, j     Pour 1 ≤ j ≤ p , la matrice C j =  ⋮  est appelée j ème colonne de A .   an , j  Pour 1 ≤ i ≤ n , la matrice Li = (ai ,1 … ai , p ) est appelée i ème ligne de A . 2°) Matrice carrée Déf : Les matrices de type (n , n ) sont appelées matrices carrées d’ordre n . On note M n (K ) , au lieu de M n ,n (K) , l’ensemble de ces matrices.

- 1 / 11 -


Déf : Soit A = (ai , j ) ∈ M n (K ) . Les coefficients d’indice (i , i ) de A sont appelées coefficients diagonaux de A . La famille (a1,1 , a 2,2 ,…,an ,n ) = (ai ,i )1≤i ≤n est appelée diagonale de la matrice A . Déf : Une matrice A ∈ M n (K ) est dite diagonale ssi tous ses coefficients hors de la diagonale sont nuls. On note Dn (K) l’ensemble de ces matrices.

λ1 0     . Déf : On note diag(λ1 ,…, λn ) la matrice diagonale dont la diagonale est (λ1 ,..., λn ) i.e.  ⋱    0 λn  Déf : Une matrice A ∈ M n (K ) est dite triangulaire supérieure (resp. inférieure) ssi tous les coefficients en dessous (resp. au dessus) de la diagonale sont nuls. On note Tn+ (K) (resp. Tn− (K ) ) l’ensemble de ces matrices. Prop : Dn (K ) = Tn+ (K) ∩Tn− (K ) . 3°) Espace vectoriel (M n , p (K), +,.) . Déf : Soit A = (ai , j ) ∈ M n , p (K ) et B = (bi , j ) ∈ M n , p (K ) . On définit la matrice A + B ∈ M n , p (K ) par A + B = (ai , j + bi , j )1≤i ≤n ,1≤ j ≤p .

a1,1 … a1, p  b1,1 … b1, p   a1,1 + b1,1 … a1, p + b1, p         . ⋮  +  ⋮ ⋮  =  ⋮ ⋮ Ainsi  ⋮       an ,1 … an , p  bn ,1 … bn , p  an ,1 + bn ,1 … an , p + bn , p  Déf : Soit A = (ai , j ) ∈ M n , p (K ) et λ ∈ K . On définit la matrice λ.A ∈ M n , p (K ) par λ.A = (λai , j )1≤i ≤n ,1≤ j ≤p .

a1,1 … a1, p   λa1,1 … λa1, p      Ainsi λ. ⋮ ⋮  =  ⋮ ⋮  .     an ,1 … an , p  λan ,1 … λan , p  Théorème : (M n , p (K), +,.) est un K -espace vectoriel d’élément nul O = On , p . Déf : Soit 1 ≤ k ≤ n et 1 ≤ ℓ ≤ p . On appelle matrice élémentaire d’indice (k , ℓ) de M n , p (K ) la matrice E k , ℓ dont tous les coefficients sont nuls sauf celui d’indice (k , ℓ) qui est égal à 1. Ainsi

Ek ,ℓ

 0 0   =  1  ∈ M n , p (K ) .   0 0

Théorème : La famille B = (Ek , ℓ )1≤k ≤n ,1≤ℓ≤p forme une base de M n , p (K ) appelée base canonique. Cor : dim M n , p (K ) = np et en particulier

dim M n (K ) = n 2 , dim M n ,1 (K ) = n et dim M 1, p (K ) = p . Prop : Dn (K) est un sous-espace vectoriel de M n (K ) de dimension n . Prop : Tn+ (K) et Tn− (K ) sont des sous-espaces vectoriels de M n (K ) de dimension 4°) Produit matriciel Déf : Soit A = (ai , j ) ∈ M n , p (K ) et B = (bj ,k ) ∈ M p ,q (K ) . On définit la matrice C = A×B = (ci ,k ) ∈ M n ,q (K ) par : p

∀1 ≤ i ≤ n , ∀1 ≤ k ≤ q , ci ,k = ∑ ai , jbj ,k . j =1

- 2 / 11 -

n (n + 1) . 2


5°) Propriétés du produit matriciel Prop : Soit A ∈ M n , p (K ), B ∈ M p ,q (K),C ∈ M q ,r (K ) . On a (AB )C = A(BC ) .

Prop : ∀A ∈ M n , p (K) , AI p = A et I n A = A Prop : ∀A, B ∈ M n , p (K ) , ∀C ∈ M p ,q (K ) (A + B )C = AC + BC .

∀A ∈ M n , p (K) , ∀B ,C ∈ M p ,q (K ) , A(B +C ) = AB + AC . Prop : ∀A ∈ M n , p (K) , ∀B ∈ M p ,q (K ) , ∀λ ∈ K , (λ.A)B = λ.AB = A(λ.B ) . 6°) L’anneau (M n (K ), +,×) . a) présentation Théorème :

(M n (K ), +,×) est un anneau, généralement non commutatif, d’élément nul O = On et d’élément unité I = In . De plus, ∀λ ∈ K, ∀A, B ∈ M n (K) : (λ.A)B = λ.(AB ) = A(λ.B ) .

Déf : On dit que deux matrices A et B de M n (K ) commutent ssi AB = BA . Déf : Soit A ∈ M n (K ) . On note A0 = I n , A1 = A, A2 = A×A,..., Am = A×A×...×A ( m termes) Théorème : m

()

Si A et B commutent alors pour tout m ∈ ℕ : (AB )m = Am B m , (A + B )m = ∑ m Ak B m −k et k k =0 m −1

Am − B m = (A − B )∑ Ak B m −1−k . k =0

Déf : On dit que A ∈ M n (K ) est idempotente ssi A2 = A . On dit que A ∈ M n (K ) est une matrice nilpotente ssi ∃m ∈ ℕ, Am = 0 .

b) matrices inversibles Déf : Une matrice A ∈ M n (K ) est dite inversible ssi ∃B ∈ M n (K ), AB = BA = I n . On note alors B = A−1 . Prop : Soit A, B ∈ M n (K) Si A et B sont inversibles alors AB l’est aussi et (AB )−1 = B −1A−1 . Si A est inversible alors A−1 l’est aussi et (A−1 )−1 = A .

Déf : On note GLn (K ) l’ensemble des matrices inversibles de M n (K) . Prop : (GLn (K ),×) est un groupe appelé groupe linéaire d’ordre n . Théorème d’inversibilité : Soit A ∈ M n (K ) . On a équivalence entre (i) A est inversible (ii) A est inversible à droite i.e. ∃B ∈ M n (K ), AB = I n (iii) A est inversible à gauche i.e. ∃C ∈ M n (K),CA = I n . De plus si tel est le cas A−1 = B = C . c) matrices diagonales Prop : Dn (K) est un sous-anneau commutatif de M n (K ) .

  a1  ∈ D (K ) . On a équivalence entre :  Prop : Soit A =  ⋱ n     an  (i) A est inversible

- 3 / 11 -


(ii) ∀1 ≤ i ≤ n ,ai ≠ 0 .

1 a1     . De plus si tel est le cas : A =  ⋱    1 an  −1

d) matrices triangulaires Prop : Tn+ (K) est un sous-anneau de M n (K ) . Prop : Soit A ∈ Tn+ (K ) . On a équivalence entre : (i) A est inversible (ii) Les coefficients diagonaux de A sont tous non nuls. De plus, si tel est le cas, A−1 ∈ Tn+ (K ) . 7°) Transposition a) définition Déf : Soit A = (ai , j ) ∈ M n , p (K ) . On appelle matrice transposée de A la matrice t A = (a j′,i ) ∈ M p ,n (K ) définie par ∀1 ≤ i ≤ n , ∀1 ≤ j ≤ p, a j′,i = ai , j . Ainsi le coefficient d’indice ( j , i ) de t A est égal au coefficient d’indice (i , j ) de A .

a11 … a1p  a11 … an1     t   ⋮  , A =  ⋮ ⋮  . Concrètement : Pour A =  ⋮      an1 … anp  a1p … anp  Prop : ∀A ∈ M n , p (K ), t ( t A) = A .

∀A, B ∈ M n , p (K ), ∀λ, µ ∈ K, t (λA + µB ) = λ tA + µ t B . Prop : ∀A ∈ M n , p (K ), ∀B ∈ M p ,q (K ), t (AB ) = t B t A . Prop : Soit A ∈ M n (K ) . Si A est inversible alors t A l’est aussi et t (A−1 ) = ( tA)−1 .

b) matrices symétriques et antisymétriques Déf : On dit que A ∈ M n (K ) est symétrique (resp. antisymétrique) ssi t A = A (resp. t A = −A ). On note Sn (K ) (resp. An (K) ) l’ensemble de ces matrices.

a11 a12 … a1n    a a 22 ⋱ ⋮  12   . Prop : Les matrices de Sn (K) sont de la forme : A =   ⋮ ⋱ ⋱ an −1,n    a1n ... an −1,n an ,n   n (n + 1) Par suite Sn (K) est un sous-espace vectoriel de dimension de M n (K ) . 2  0 a12 …  −a 0 ⋱ 12 Prop : Les matrices de An (K ) sont de la forme : A =   ⋮ ⋱ ⋱  −a1n … −an −1,n

a1n   ⋮   . an −1,n   0 

Théorème : Sn (K ) et An (K) sont deux sous-espaces vectoriels supplémentaires de M n (K ) . Prop : Soit A ∈ M n (K ) inversible. Si A ∈ S n (K ) alors A−1 ∈ Sn (K ) . Si A ∈ An (K ) alors A−1 ∈ An (K) .

- 4 / 11 -


II. Représentation matricielle d’une application linéaire 1°) Matrice d’une famille de vecteurs Soit E un K -espace vectoriel muni d’une base B = (e1 , …,en ) . Pour tout x ∈ E , ∃!(α1 , …, αn ) ∈ Kn , x = α1e1 + ⋯ + αnen .

 α1    Déf : On appelle matrice des composantes de x dans B la matrice colonne Mat B (x ) =  ⋮  ∈ M n ,1 (K) .   αn  x   Ainsi Mat B (x ) =   composantes  ⋮    dans B.   Prop : L’application x ֏ Mat B (x ) est un isomorphisme entre les K -espaces vectoriels E et M n ,1 (K ) . Soit F = (x1 , x 2 , …, x p ) une famille de vecteurs de E . Pour tout 1 ≤ j ≤ p , posons C j = Mat B (x j ) .

Déf : On appelle matrice représentative de la famille F dans B la matrice A dont les colonnes sont les C1 ,C 2 ,…,C p . On note A = Mat B (F ) = Mat B (x1 ,…, x p ) ∈ M n , p (K ) .

x1  Ainsi Mat B (F ) =   ⋮  

xp  composantes  ⋮   dans B. 

2°) Matrice d’une application linéaire Déf : Soit E et F des K -espaces vectoriels de dimension p et n et munis de bases B = (e1 ,…,e p ) et

C = ( f1 , …, fn ) . Soit u ∈ L(E , F ) , on appelle matrice représentative de u relativement aux bases B et C la matrice : Mat B , C (u ) = Mat C (u (B )) = Mat C (u (e1 ),…, u (ep )) ∈ M n , p (K ) . u (e1 )  Ainsi Mat B , C (u ) =   ⋮  

u (e p )   composantes . ⋮   dans C . 

Déf : Soit E un K -espace vectoriel de dimension n muni d’une base B = (e1 , …,en ) et f ∈ L(E ) , en général on représente matriciellement f en choisissant la même base au départ et à l’arrivée. La matrice carrée d’ordre n ainsi obtenue est notée Mat B ( f ) au lieu de Mat B , B ( f ) . 3°) Propriétés de la représentation matricielle a) isomorphisme Théorème : Soit E , F des K -espaces vectoriels munis de bases B = (e1 ,…,e p ) et C = ( f1 , …, fn ) . L’application M : L(E , F ) → M n , p (K ) définie par M (u ) = Mat B , C (u ) est un isomorphisme de K espace vectoriel. Cor : Soit E et F deux K -espaces vectoriels de dimensions finies. L(E , F ) est un K -espace vectoriel de dimension finie et dim L(E , F ) = dim E × dim F . En particulier : dim L(E ) = dim E 2 et dim E * = dim E .

Cor : Lorsque deux K -espaces vectoriels E et F sont munis de bases B et C , il est équivalent de se donner u ∈ L(E , F ) ou de se donner A = Mat B ,C (u ) ∈ M n , p (K ) . Déf : Pour E = K p et B base canonique de K p . Pour F = Kn et C base canonique de Kn .

- 5 / 11 -


L’application M : L(K p , Kn ) → M n , p (K ) est appelée isomorphisme canonique entre L(K p , Kn ) et

M n , p (K ) . Pour u ∈ L(K p , Kn ) , A = M (u ) ∈ M n , p (K ) est appelée matrice canoniquement associée à u . Pour A ∈ M n , p (K ) , u = M −1 (A) ∈ L(K p , Kn ) est appelée application linéaire canoniquement associée à

A. b) image d’un vecteur Théorème : Soit E et F des K -espaces vectoriels munis de bases B = (e1 ,…,e p ) et C = ( f1 , …, fn ) . Soit u ∈ L(E , F ), x ∈ E et y ∈ F . Notons A = Mat B ,C (u ), X = Mat B (x ) et Y = Mat C (y ) . On a : y = u (x ) ⇔ Y = AX . Ainsi : Mat C (u (x )) = Mat B , C (u )× Mat B (x ) .

En Particulier : Les formes linéaires. Si F = K muni de sa base canonique (1) et f ∈ E ∗ alors la matrice de f est une matrice ligne L est

y = f (x ) ⇔ y = LX . c) composition d’applications linéaires Théorème : Soit E , F ,G trois K -espaces vectoriels munis de bases B = (e1 ,…,e p ) , C = ( f1 , …, fn ) ,

D = (g1 ,…, g m ) . Pour u ∈ L(E , F ) et v ∈ L(F ,G ) on a : Mat B , D (v u ) = Mat C , D (v )× Mat B ,C (u ) Cor : Soit E un K -espace vectoriel muni d’une base B = (e1 , …,en ) Soit f , g ∈ L(E ) et A = Mat B ( f ), B = Mat B (g ) ∈ M n (K ) . On a Mat B ( f g ) = AB et ∀m ∈ ℕ, Mat B ( f m ) = Am .

d) représentation d’un iso morphisme Théorème : Soit E et F deux K -espaces vectoriels de même dimension n munis de bases B = (e1 , …,en ) et

C = (e1 ,…,en ) . Soit u ∈ L(E , F ) et A = Mat B ,C (u ) On a équivalence entre : (i) u est un isomorphisme (ii) A est inversible. De plus si tel est le cas Mat C , B (u −1 ) = A−1 . En Particulier : (Les automorphismes) Soit E un K -espace vectoriel muni d’une base B = (e1 , …,en ) Soit f ∈ L(E ) et A = Mat B ( f ) .

f ∈ GL (E ) ⇔ A ∈ GLn (K ) De plus, si tel est le cas : Mat B ( f −1 ) = A−1 .

e) tableau de correspondances

E

M n ,1 (K )

L(E , F )

M n ,p ( K )

L(E )

M n (K)

E∗

M1,n (K )

u

A

y = u (x )

Y = AX

- 6 / 11 -


v u

BA

u isomorphisme

A inversible

u

−1

A−1

4°) Représentation d’un endomorphisme dans une base adaptée Soit E un K -espace vectoriel de dimension n . Prop : Soit λ ∈ K et hλ : E → E l’homothétie vectorielle de rapport λ .

λ 0    Dans toute base B = (e1 , …,en ) : Mat B (hλ ) =  ⋱  .    0 λ  Prop : Soit F et G deux sous-espaces vectoriels supplémentaires de dimensions respectives r et n − r . Notons p la projection vectorielle sur F parallèlement à G et s la symétrie vectorielle par rapport à F et parallèlement à G . Dans toute base B adaptée à la supplémentarité de F et G : I I 0  0   et Mat B (s ) =  r . Mat B (p ) =  r  0 0n −r   0 −I n −r  5°) Formule de changement de base a) matrice de passage Soit E un K -espace vectoriel de dimension n muni de deux bases B = (e1 , …,en ) et B ′ = (ε1 ,…, εn ) .

Déf : On appelle matrice de passage de B à B ′ la matrice P = Mat B (B ′) = Mat B (ε1 ,…, εn ) . Prop : Soit P la matrice de passage de B à B ′ . On a P = Mat B , B ′ (IdE ) . Prop : Soit P la matrice de passage de B à B ′ . P est inversible et P −1 est la matrice de passage de B ′ à B . b) nouvelles composantes d’un vecteur Prop : Soit B et B ′ deux bases d’un K -espace vectoriel E de dimension n . Soit x ∈ E , notons X et X ′ ses matrices composantes dans B et B ′ . En notant P la matrice de passage de B à B ′ , on a : X = PX ′ et X ′ = P −1X , i.e. : Mat B (x ) = Mat B B ′ Mat B ′ (x ) et Mat B ′ (x ) = Mat B ′ B Mat B (x ) c) nouvelle représentation d’une application linéaire Prop : Soit B et B ′ deux bases d’un K -espace vectoriel E . Soit C et C ′ deux bases d’un K -espace vectoriel F . Soit u ∈ L(E , F ) . Posons A = Mat B ,C (u ) et A′ = Mat B ′ , C ′ (u ) . En notant P la matrice de passage de B à B ′ et Q a matrice de passage de C à C ′ on a : A′ = Q −1AP Ainsi A′ = Mat B ′ ,C ′ (u ) = Mat C ′ C .Mat B , C (u ).Mat B B ′ .

d) nouvelle représentation d’un endomorphisme Théorème : Soit B et B ′ deux bases d’un K -espace vectoriel E . Soit f ∈ L(E ) . Posons A = Mat B ( f ) et A′ = Mat B ′ ( f ) . En notant P = Mat B B ′ . On a : A′ = P −1AP . Ainsi A′ = Mat B ′ ( f ) = Mat B ′ B.Mat B ( f ).Mat B B ′ .

- 7 / 11 -


6°) Trace a) trace d’une matrice carrée n

Déf : Soit A = (ai , j ) ∈ M n (K ) . On appelle trace de la matrice A le scalaire tr(A) = ∑ ai ,i . i =1

Prop : tr : M n (K ) → K est une forme linéaire. Prop : ∀A, B ∈ M n (K ), tr(AB ) = tr(BA) . b) trace d’un endomorphisme Soit E un K -espace vectoriel de dimension n et f ∈ L(E ) . Soit B et B ′ deux bases de E Notons P = Mat B B ′, A = Mat B ( f ), A′ = Mat B ′ ( f ) . La relation de passage permet d’écrire : A = PA′ P −1 . On a : tr(A) = ... = tr(A′) . Par suite la trace de la matrice représentative de f est indépendante de la base choisie.

Déf : Cette quantité est appelée trace de l’endomorphisme f et est notée tr( f ) . Prop : L’application tr : L(E ) → K est une forme linéaire sur E . Prop : ∀f , g ∈ L(E ), tr( f g ) = tr(g f ) . III. Rang d’une matrice 1°) Définition Soit A = (ai , j ) ∈ M n , p (K ) . Notons C 1 ,C 2 ,…,C p les colonnes de A . Les C j sont des vecteurs du K -espace vectoriel M n ,1 (K ) , on peut donc considérer le rang de la famille de vecteurs (C 1 ,C 2 ,…,C p ) .

Déf : On appelle rang de la matrice A , noté rg(A) , le rang de la famille des colonnes de A , ainsi

rg(A) = rg(C1 ,C 2 , …,C p ) . Prop : Soit F = (x1 , x 2 , …, x p ) une famille de vecteurs de d’un K -espace vectoriel E muni d’une base B . En notant A = Mat B (x1 , x 2 ,…, x p ) , on a rg(x1 , x 2 , …, x p ) = rg(A) .

Prop : Soit E , F deux K -espaces vectoriels munis de bases B et C et u ∈ L(E , F ) . En notant A = Mat B ,C (u ) , on a rg(u ) = rg(A) .

2°) Propriétés du rang d’une matrice Prop : ∀A ∈ M n , p (K ), rg(A) ≤ min(n , p ) . Prop : ∀A ∈ M n , p (K ), ∀B ∈ M p ,q (K ), rg(AB ) ≤ min(rg(A), rg(B )) . De plus : Si A est une matrice carrée inversible alors rg(AB ) = rg(B ) Si B est une matrice carrée inversible alors rg(AB ) = rg(A) .

Théorème : Soit A ∈ M n (K ) . On a équivalence entre : (i) A est inversible (ii) rg(A) = n . 3°) Caractérisation théorique du rang Soit 0 ≤ r ≤ min(n , p ) .

1 0     ⋱ 0   . On note J r la matrice de M n , p (K ) définie par J r =  1  0   0 0  - 8 / 11 -


Prop : rg(J r ) = r . Théorème : Soit A ∈ M n , p (K ) et r ∈ ℕ tel que 0 ≤ r ≤ min(n , p ) . On a équivalence entre : (i) rg(A) = r (ii) ∃P ∈ GLp (K ), ∃Q ∈ GLn (K) telles que A = QJ r P .

Cor : ∀A ∈ M n , p (K ), rg( t A) = rg A . Prop Soit A ∈ M n , p (K ) dont on note C1 ,…,C p les colonnes et L1 , …, Ln les lignes. On a

rg(A) = rg(C1 ,…,C p ) = rg(L1 , …, Ln ) . 4°) Opérations élémentaires sur les matrices a) préliminaire Prop : Les matrices de M n (K ) suivantes sont inversibles : 1) C = I n + λE i , j avec λ ∈ K et 1 ≤ i ≠ j ≤ n . 2) D = I n − E i ,i + λE i ,i avec λ ∈ K ∗ et 1 ≤ i ≤ n . 3) E = I n − Ei ,i − E j , j + Ei , j + E j ,i avec 1 ≤ i ≠ j ≤ n .

b) opérations élémentaires sur les lignes Soit A = (ai , j ) ∈ M n , p (K ) et Ei , j la matrice élémentaire d’indice (i , j ) de M n (K ) : 1) Soit C = I n + λE i , j avec λ ∈ K et 1 ≤ i ≠ j ≤ n . CA = A + λEi , j A est obtenue en ajoutant à la i ème de A

λ fois sa j ème ligne. Cette manipulation est symbolisée : Li ← Li + λ.Lj . 2) Soit D = I n − E i ,i + λE i ,i avec λ ∈ K ∗ et 1 ≤ i ≤ n . DA = A − E i ,i A + λE i ,i A est obtenue en dilatant par

λ ≠ 0 la i ème ligne de A . Cette manipulation est symbolisée : Li ← λ.Li . 3) Soit E = I n − Ei ,i − E j , j + Ei , j + E j ,i avec 1 ≤ i ≠ j ≤ n . EA = A − Ei ,i A − E j , j A + Ei , j A + E j ,i A est obtenue en échangeant la i ème ligne et la j ème ligne de A . Cette opération est symbolisée par : Li ↔ Lj .

Déf : Ces manipulations sont appelées opérations élémentaires sur les lignes de A . Prop : Elles conservent le rang de A . c) opérations élémentaires sur les colonnes Soit A = (ai , j ) ∈ M n , p (K ) et Ei , j la matrice élémentaire d’indice (i , j ) de M p (K) . 1) Soit C = I p + λEi , j avec λ ∈ K et 1 ≤ i ≠ j ≤ p . AC = A + λAEi , j est la matrice obtenue par la manipulation C j ← C j + λ.C i 2) Soit D = I p − Ei ,i + λEi ,i avec λ ∈ K ∗ et 1 ≤ i ≤ p . AD = A − AEi ,i + λAEi ,i est la matrice obtenue par la manipulation C i ← λ.C i 3) Soit E = I p − E i ,i − E j , j + Ei , j + E j ,i avec 1 ≤ i ≠ j ≤ p . AE = A − AE i ,i − AE j , j + AEi , j + AE j ,i est la matrice obtenue par la manipulation C i ↔ C j

Déf : Ces manipulations sont appelées opérations élémentaires sur les colonnes de A . Prop : Elles conservent le rang de A . 5°) Méthode du pivot de Gauss Soit A = (ai , j ) ∈ M n , p (K ) . On désire calculer le rang de A . Si A = On , p alors rg(A) = 0 . Sinon A possède un coefficient non nul p1 = ai , j . Par les opérations Li ↔ L1 et C j ↔ C1 on amène le coefficient p1 en position (1,1) et on dispose alors d’une matrice de la matrice de la forme :

- 9 / 11 -


 p1  α  2  ⋮  αn

*    avec p ≠ 0 appelé 1er pivot. 1 *   

On effectue alors les opérations L2 ← L2 −

α2 L1 , … et on aboutit à une matrice de la forme : p1

p1 *     0    ⋮ B  avec p1 ≠ 0 .     0  On recommence ce processus avec la matrice B tant que la matrice obtenue est non nulle. A la fin, on obtient : p1 *    ⋱ *   avec p , …, p ≠ 0 . 1 r   0 pr    0 0 On peut alors conclure que rg(A) = r .

IV. Systèmes d’équations linéaires 1°) Positionnement du problème. Soit ai , j ∈ K et bi ∈ K pour i ∈ {1, …, n } , j ∈ {1, …, p } . On cherche tous les p uplets (x1 , …, x p ) ∈ K p solutions du système :

a11x1 + ⋯ + a1p x p = b1  Σ : ⋮ .  an1x1 + ⋯ + anp x p = bn Déf : Σ est appelé système d’équations linéaires à n équations et p inconnues. On note SΣ ⊂ K p l’ensemble des solutions du système Σ . Posons x = (x1 ,…, x p ) ∈ K p , b = (b1 ,…,bn ) ∈ Kn et u : (x1 ,…, x p ) ֏ (a1,1x1 + ⋯ + a1,px p ,…,an ,1x1 + ⋯ + an ,p x p ) Le système Σ équivaut à u (x ) = b .

Déf : u (x ) = b est appélée équation vectorielle du système Σ . Posons A = (ai , j ) ∈ M n , p (K ) , B = (bi ) ∈ M n ,1 (K ) et X = (x j ) ∈ M1, p (K ) . Le système Σ équivaut à AX = B .

Déf : L’équation AX = B est appelée équation matricielle du système Σ . Déf : On appelle rang du système Σ le naturel : rg(Σ) = rg A = rg u . 2°) Compatibilité d’un système Déf : Σ est dit compatible ssi SΣ ≠ ∅ .

a11x1 + ⋯ + a1p x p = b1  Considérons Σ :  d’équation matricielle AX = B . ⋮  an1x1 + ⋯ + anp x p = bn Déf : On note (A B ) la matrice de M n , p +1 (K) constituée des colonnes de A suivies de B . Théorème : Le système Σ est compatible ssi rg (A B ) = rg(A) . Cor : Tout système de rang r = n est compatible.

- 10 / 11 -


3°) Description de l’ensemble solution Déf : On appelle système homogène (ou sans second membre) associé à Σ le système : a11x1 + ⋯ + a1p x p = 0  Σ0 : ⋮ .  an1x1 + ⋯ + anp x p = 0 Prop : L’ensemble solution du système Σ0 est un sous-espace vectoriel de K p de dimension p − r avec

r = rg(Σ) . Théorème : Si le système Σ est compatible alors SΣ est un sous-espace affine de K p de direction SΣ0 . 4°) Résolution pratique

a11x1 + ⋯ + a1p x p = b1  Considérons le système Σ :  d’équation matricielle AX = B . ⋮  an1x1 + ⋯ + anp x p = bn Par la méthode du pivot de Gauss, on peut en opérant sur les lignes et en permutant les colonnes, transformer A p1 *    ⋱ *  avec p ,..., p ≠ 0 . en  1 r  pr  0   0 0  En suivant ce procédé, mais en opérant sur les équations au lieu des lignes et en permutant les inconnues au lieu des colonnes, on peut transformer Σ en le système équivalent Σ ′ suivant : p1x1′ + ⋯ + *x r′ + *x r′+1 + … + *x p′ = b1′ (1)   …   ′ ′ ′ pr x r + *x r +1 + ⋯ + *x p = br′ (r )   0 = br′+1 (r + 1)   …  0 = bn′ (n )  Déf : Les équations (1) ′, …, (r ) ′ sont appelées équations principales. Les équations (r + 1) ′,…, (n ) ′ sont appelées équations de compatibilité. Si l’une des équations de compatibilité est fausse, le système est incompatible. Si les équations de compatibilité sont vérifiées, le système Σ est équivalent à :

p1x1′ + ⋯ + *x r′ = b1′ − (*x r′+1 + ⋯ + *x p′ )   …  ′  pr x r = br′ − (*x r′+1 + ⋯ + *x p′ )  Ce système triangulaire se résout en cascade et permet d’exprimer les inconnues x1′,…, x r′ en fonction des inconnues x r′+1 , …, x p′ .

Déf : Les inconnues x1′,…, x r′ sont appelées inconnues principales, c’est par rapport à celles-ci qu’on achève la résolution du système. Les inconnues x r′+1 , …, x p′ sont appelée inconnues paramètres, ce sont elles qui permettent la description de SΣ .

5°) Système de Cramer Déf : On appelle système de Cramer d’ordre n tout système à n équations, n inconnues et de rang n . Théorème : Un système de Cramer possède une et une seule solution.

- 11 / 11 -


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.