Cours de Calcul Matriciel - Ian’s Web Page · j lignes de A La transpos´ee est utile dans le...

61
Cours de Calcul Matriciel Yann Mor` ere Mai 2001

Transcript of Cours de Calcul Matriciel - Ian’s Web Page · j lignes de A La transpos´ee est utile dans le...

Cours de Calcul Matriciel

Yann Morere

Mai 2001

Contents

1 Generalites 1

1.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.3 Operations elementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.3.1 Egalite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.3.2 Somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.3.3 Multiplication par un scalaire . . . . . . . . . . . . . . . . . . . . . . . . 2

1.3.4 Multiplication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.3.5 Transposee d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.3.6 Derivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.3.7 Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.3.8 Tranconjugee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.3.9 Trace d’une matrice A(m×n) = (aij) . . . . . . . . . . . . . . . . . . . . . 4

1.3.10 Matrice decomposees en blocs (ou partitionnement) . . . . . . . . . . . . 4

2 Operations elementaires, application aux equations lineaires 7

2.1 Matrices echelonnees et canonique ligne . . . . . . . . . . . . . . . . . . . . . . . 7

2.1.1 Algorithme de passage a la forme echelonnee . . . . . . . . . . . . . . . . 7

2.1.2 Algorithme de passage d’une forme echelonnee a une forme canonique ligne 8

2.2 Systeme d’equations lineaires et matrices . . . . . . . . . . . . . . . . . . . . . . 9

3 Espaces vectoriels 13

3.1 Dependance et Independance Lineaire . . . . . . . . . . . . . . . . . . . . . . . . 13

3.2 Equation lineaire, matrices et espaces vectoriels . . . . . . . . . . . . . . . . . . 14

i

4 Matrices Carrees 17

4.1 Matrices carrees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4.2 Matrices particulieres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4.2.1 Matrice Unite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4.2.2 Matrice diagonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4.2.3 Puissance et polynome de matrices . . . . . . . . . . . . . . . . . . . . . 17

4.2.4 Matrices inversibles ou non singulieres . . . . . . . . . . . . . . . . . . . 17

4.2.5 Matrice triangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4.2.6 Matrice symetrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4.2.7 Matrice anti-symetrique . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4.2.8 Matrice orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4.2.9 Matrice normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4.2.10 Matrice hermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4.2.11 Matrice anti-hermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4.2.12 Matrice unitaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4.2.13 Matrice normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4.3 Matrices elementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4.4 Equivalence entre matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

4.4.1 Equivalence entre deux matrices . . . . . . . . . . . . . . . . . . . . . . 21

5 Determinants 25

5.1 Proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

5.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

5.2.1 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

5.2.2 Resolution d’un systeme d’equations lineaires . . . . . . . . . . . . . . . 28

6 Inversions Matricielles 31

6.1 Definitions et Proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

7 Equation caracteristique d’une matrice 35

7.1 Definitions, proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

8 Matrices semblables 39

8.1 Definitions et Proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

8.2 Matrices diagonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

8.3 Matrices symetriques reelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

ii

9 Formes quadratiques 43

9.1 Definition et proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

9.2 Forme quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

10 Systemes differenciels 49

10.1 Proprietes et Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

10.2 Cas scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

10.3 Cas matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

10.4 Evaluation de eAt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

10.4.1 Calcul numerique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

10.4.2 A diagonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

10.4.3 Utilisation de la formule de Sylverster . . . . . . . . . . . . . . . . . . . . 50

11 Quelques extras 53

11.1 Forme de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

11.2 Matrice compagne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

iii

1 / 55

Chapter 1Generalites

1.1 Definitions

Definition 1.1.1. une matrice sur le corps K est un tableau rectangulaire de scalaires aij dela forme :

A =

a11 a12 . . . a1n

a21

...

am1 . . . . . . amn

, A (m× n) = (aij)

avec aij ∈ R,C,R 〈λ〉polynome en λ....

Les m n-uplets (ai1 . . . ain) i ∈ {1 . . . m} sont appeles lignes de A.

Les n m-uplets

a1j

...

amj

j ∈ {1 . . . n} sont appeles colonnes de A.

Le couple (m,n) est appele la dimension de la matrice.

C’est un formalisme simple qui permet de generaliser les manipulations des scalaires (Attention :avec la perte de la commutativite) et de manipuler avec un seul langage des scalaires, desvecteurs et des tableaux.

1.2 Exemples

1. Soit f une fonction reelle de plusieurs variables f (x1, . . . , xn) (x = (x1 . . . xn)) on definitle gradient :

fx =∂f

∂x=

(∂f

∂x1

, . . . ,∂f

∂xn

)

2 / 55 Chapitre 1 : Generalites

matrice ligne du vecteur des derivees partielles.Le Hessien ou matrice Hessienne est definie par :

Hx =

∂2f∂2x1

· · · ∂2f∂x1∂xn

.... . .

...

∂2f∂xm∂x1

· · · ∂2f∂2xn

matrice carree symetrique des derivees secondes.

2. Soit f une fonction vectorielles de plusieurs variables f (x1, . . . , xn)

f1 (x1, . . . , xn)

...

fm (x1, . . . , xn)

on peut alors definir le Jacobien ou matrice Jacobienne :

Fx =

∂f1

∂x1· · · ∂f1

∂xn

.... . .

...

∂fm

∂x1· · · ∂fm

∂xn

.

1.3 Operations elementaires

1.3.1 Egalite

A = B ⇔ ∀ (i, j) aij = bij.

1.3.2 Somme

A + B = (aij + bij)

avec A et B de meme dimension.

1.3.3 Multiplication par un scalaire

kA = (k aij)

Yann MORERE

1.3 Operations elementaires 3 / 55

1.3.4 Multiplication

A (m× p) = (aik) B (p× n) = (bkj)

A ·B (m× n) = (cij)

avec cij =∑p

k=1 aikbkj.

Proprietes :

¤ (AB) C = A (CB)¤ A (B + C) = AB + AC et (A + B) C = AC + BC¤ k (AB) = (kA) B = A (kB)¤ A0 = 0A = 0 zero est la matrice nulle¤ evidement AB 6= BA¤ Si m = n = 1 le resultat du produit est un scalaire¤ Si p = 1 le produit est une matrice pleine m× n

1.3.5 Transposee d’une matrice

AT = A

Les lignes de A sont les colonnes de AT .

a11 a12 . . . a1n

a21. . .

...

.... . .

...

am1 . . . . . . amn

T

=

a11 a21 . . . a1m

a12. . .

...

.... . .

...

a1n . . . . . . amn

.

A(m×n) = (aij) → AT(n×m) =

(aT

ij

)avec aT

ij = aji.

Pour les vecteurs :

(x1 . . . xn)T =

x1

...

xn

Proprietes :

¤ (A + B)T = AT + BT

¤(AT

)T= A

¤ (AB)T = BT AT

¤ (kA)T = kAT

Cours de Calcul Matriciel

4 / 55 Chapitre 1 : Generalites

1.3.6 Derivation

A(m×n) = (aij) avec aij dependant de α.

A (α) = (aij (α))dA (α)

dα=

(daij (α)

)

1.3.7 Integration

∫ α2

α1

A (α) dα =

(∫ α2

α1

aij (α) dα

)

1.3.8 Tranconjugee

Si A est une matrice definie dans un corps operant sur C :

AH = AT

transpose de la conjuge,

avec A(m×n) = (aij), A(m×n) = (aij) et AH(m×n) =

(aT

ij

)=

(aH

ij

)avec aH

ij = aij.

Proprietes :

¤ (A + B)H = AH + BH

¤(AH

)H= A

¤(AH

)T=

(AT

)H= A

1.3.9 Trace d’une matrice A(m×n) = (aij)

trace (A) =

min(m,n)∑i=1

aii

Proprietes :

¤ trace (αA + βB) = αtrace (A) + βtrace (B)¤ trace

(AT

)= trace (A)

¤ trace(AH

)= trace (A)

1.3.10 Matrice decomposees en blocs (ou partitionnement)

A(m×n) =(Aij(m×n)

)avec

∑Ii=1 mi = m et

∑Ii=1 ni = n ce qui est interessant lorsque la matrice

contient des blocs nuls.

1 2 | 3 5

3 4 | 2 2

− − − − −

1 1 | 0 2

=

1 | 2 | 3 5

3 | 4 | 2 2

− | − | − −

1 | 1 | 0 2

Yann MORERE

1.3 Operations elementaires 5 / 55

Exemple de partitionnement important :

A(m×n) = (aij) = (a1, a2, . . . , an) avec ai colonnes de

A =

αT1

...

αTn

, αTj lignes de A

La transposee est utile dans le sens ou un vecteur est une matrice colonne, donc une ligne estun covecteur et

A(m×p) ·B(p×n) =

αT1 × b1 αT

1 × b2 . . . αT1 × bn

......

......

αTm × b1 αT

m × b2 . . . αTm × bn

=(αT

i bj

)

L’interet est quie si l’on dispose de 2 matrices A et B partitionnees telles que les sommes et lesproduits aient un sens :

¤ A = (Aij) , B = (Bij) A + B = (Aij + Bij)¤ C = AB =

∑νk=1 AikBkj avec ν le nombre de blocs en ligne de A et le nombre de blocs en

ligne de B

Exemples :

A(4×5) =

1 2 0 0 0

3 4 0 0 0

0 0 5 1 2

0 0 3 4 1

, B(5×4) =

3 −2 0 0

2 4 0 0

0 0 1 2

0 0 2 −1

0 0 −4 1

AB(4×4) =

1 2

3 4

3 −2

2 4

0(2×2)

0(2×2)

5 1 2

3 4 1

1 2

2 −1

−4 1

=

7 6 0 0

17 2 0 0

0 0 −1 11

0 0 7 3

trace (A) =∑min(4,5)

i=1 aii = 1 + 4 + 5 + 4 = 14, trace (B) =∑min(4,5)

i=1 aii = 3 + 4 + 1− 1 = 7

Cours de Calcul Matriciel

6 / 55 Chapitre 1 : Generalites

AB(5×5) =

3 −2

2 4

1 2

3 4

0(2×2)

0(2×2)

1 2

2 −1

−4 1

5 1 2

3 4 1

AB(5×5) =

−3 −2 0 0 0

14 20 0 0 0

0 0 11 −9 4

0 0 7 −2 3

0 0 −17 0 −7

Montrer que si A possede une ligne nulle, alors AB possede une ligne nulle aussi :

A(m×p) = (a1, . . . , ap) =

αT1

...

αTm

B(p×n) = (b1, . . . , bn) =

βT1

...

βTm

Soit αTi la ligne nulle de A, alors la ime ligne de AB

(αT

i × b1, . . . , αTi × bn

)= (0, . . . , 0)

de meme si B a une colonne nulle, AB a une colonne nulle.

Soit bj la colonne nulle de B, la jme colonne de AB est :

αT1 × bj

...

αTm × bj

=

0

...

0

Yann MORERE

7 / 55

Chapter 2Operations elementaires, application auxequations lineaires

2.1 Matrices echelonnees et canonique ligne

Une matrice A est dite ligne-equivalente a une matrice B (A ∼ B) si B peut etre obtenue apartir de A en effectuant un nombre fini d’operations elementaires :

¤ (E1) : echanger la ime ligne et la jme ligne : αTi ↔ αT

j

¤ (E2) : multiplier la ime ligne par un scalaire non nul k : kαTi → αT

i (k 6= 0)¤ (E3) : remplacer la ime ligne par k fois la jme ligne plus la ime ligne : kαT

j + αTi → αT

i quel’on peut regroupe en une etape

¤ (E) : remplacer la ime ligne par k′ fois la jme ligne plus k fois la ime ligne : k′αTj +kαT

i → αTi

Une matrice est dite echelonnee (est sous forme echelonnee) si :

1. toutes les lignes nulles sont en bas de la matrice

2. chaque element distingue (premier element non nulle d’une ligne αT ) est a droite del’element distingue de la ligne precedente

1 2 3

0 0 1

0 0 0

,

0 1 2 0 3

0 0 2 3 0

0 0 0 1 1

0 0 0 0 1

,

0 1 3 0 0 4

0 0 0 1 0 −2

0 0 0 0 1 1

Une matrice echelonnee A est dite sous forme canonique ligne si :

1. chaque element distingue est egal a 1

2. chaque element distingue est l’unique element non nul dans toute sa colonne

2.1.1 Algorithme de passage a la forme echelonnee

A = (aij) matrice quelconque

8 / 55 Chapitre 2 : Operations elementaires, application aux equations lineaires

1. Appeler j1 la 1re colonne contenant un element non nul

2. Echange les lignes pour que le premier element different de 0 soit dans la 1re ligne, jmei

colonne (a1j1 6= 0)

3. Utiliser a1j1 comme pivot pour obtenir des zeros sous a1j1 , i.e. : pour i > 1 appliquer

(E) : −aij1αT1 + a1j1α

Ti ou −

(aij1

a1j1

)αT

1 + αTi −→ αT

i

4. Recommencer avec la sous-matrice formee de toutes les lignes sauf la 1re

5. Arreter quand la matrice est mise sous forme echelonnee.

Exemple :

A =

1 2 −3 0

2 4 −2 2

3 6 −4 3

a11 = 1, pivot −2αT1 + αT

2 → αT2 , −3αT

1 + αT3 → αT

3

A =

1 2 −3 0

0 0 4 2

0 0 5 3

a23 = 4, pivot −5αT2 + 4αT

3 → αT3

A =

1 2 −3 0

0 0 4 2

0 0 0 2

, forme echelonnee.

2.1.2 Algorithme de passage d’une forme echelonnee a une formecanonique ligne

A = (aij) matrice echelonnee avec a1j1 , a2j2 , . . . , aijielements distingues

1. multiplier la derniere ligne non nulle par 1arjr

pour avoir l’element distingues

2. utiliser arjr = 1 comme pivot pour obtenir des zeros au dessus de arjr , i.e., pour i ∈{1, . . . , r − 1} appliquer : airi

αTi + αT

i → αTi

3. repeter les etapes 1 et 2 sur les lignes αTr−1 a αT

2

4. multiplier la ligne αT1 par 1

arjr

Exemple :

Yann MORERE

2.2 Systeme d’equations lineaires et matrices 9 / 55

A =

1 2 −3 0

0 0 4 2

0 0 0 2

1 2 −3 0

0 0 4 2

0 0 0 1

avec αT2 → −2αT

3 + αT2

A =

1 2 −3 0

0 0 4 0

0 0 0 1

, a23 = 4 nouveau pivot →A =

1 2 0 0

0 0 1 0

0 0 0 1

forme canonique ligne.

2.2 Systeme d’equations lineaires et matrices

Soit le systeme d’equations lineaire a m equations et n inconnues :

a11x1 + . . . + a1nxn = b1

a21x1 + . . . + a2nxn = b2

...

am1x1 + . . . + amnxn = bm

que l’on peut reecrire de maniere matricielle :

a11 . . . . . . a1n

a21 . . . . . . a2n

... . . . . . ....

am1 . . . . . . amn

x1

x2

...

xn

=

b1

b2

...

bm

avec A(m×n) matrice des coefficients, B(m×1) matrice colonne des constantes et X(n×1) matricedes inconnues.

La matrice M augmentee du systeme d’equations lineaires s’ecrit :

M =

a11 . . . . . . b1

a21 . . . . . . b2

... . . . . . ....

am1 . . . amn bm

Resoudre le systeme d’equations lineaires revient a utiliser la matrice M augmentee et a en lareduire a sa forme echelonnee (permet de dire si le systeme est consistant) puis a la reduire ala forme canonique ligne (donne la solution).

Cours de Calcul Matriciel

10 / 55 Chapitre 2 : Operations elementaires, application aux equations lineaires

1. le systeme admet une solution si et seulement si la forme echelonnee de M ne contientpas de ligne (0, 0, . . . , 0, b) avec b 6= 0 (revient a l’equation degeneree 0x1 + . . . + 0xn = b)

2. dans la forme canonique ligne de la matrice augmentee (sauf les lignes nulles), chaqueelement distingue est le coefficient de l’inconnu principale correspondante dans le systeme.Les variables constantes sont les variables libres.

Theoreme 2.2.1. Un systeme d’equation admet ou une solution, ou une infinite (systemeconsistant), ou aucune (systeme inconsistant).

Exemple 1 :

x + y − 2z + 4t = 5

2x + 2y +−3z + t = 3

3x + 3y − 4z − 2t = 1

on a donc M =

1 1 −2 4 5

2 2 −3 1 3

3 3 −4 −2 1

1 1 −2 4 5

0 0 1 −7 −7

0 0 2 −14 −14

puis M =

1 1 −2 4 5

0 0 1 −7 −7

0 0 0 0 0

1 1 0 −10 −9

0 0 1 −7 −7

, les variables libres sont y et t,

les inconnues principales :

x = −y + 10t− 9

z = 7t− 7

Exemple 2 :

x1 + x2 − 2x3 + 3x4 = 4

2x1 + 3x2 + 3x3 − x4 = 3

5x1 + 7x2 + 4x3 + x4 = 5

qui donne :

M =

1 1 −2 3 4

2 3 3 −1 3

5 7 4 1 5

1 1 −2 3 4

0 1 7 −7 −5

0 2 14 −14 −15

1 1 −2 3 4

0 1 7 −7 −5

0 0 0 0 −5

.

Le systeme n’a aucune solution.

Exemple 3 :

Yann MORERE

2.2 Systeme d’equations lineaires et matrices 11 / 55

x + 2y + z = 3

2x + 5y +−z = −4

3x− 2y − z = 1

qui donne : M =

1 2 1 3

2 5 −1 −4

3 −2 −1 5

1 2 1 3

0 1 −3 −10

0 −2 −4 −4

1 2 1 3

0 1 −3 −10

0 0 −28 −84

M =

1 2 1 3

0 1 −3 −10

0 0 1 3

1 2 0 0

0 1 0 −1

0 0 1 3

1 0 0 2

0 1 0 −1

0 0 1 3

ce qui donne la solution unique : x = 2, y = −1 et z = 3 ou

2

−1

3

.

Cours de Calcul Matriciel

13 / 55

Chapter 3Espaces vectoriels

Notations :

K corps des scalaires, a, b, c, k ∈ K (en general R ou C).V l’espace vectoriel u, v, w ∈ V .

Definition 3.0.1. K, un corps, V un ensemble non vide muni de deux lois, + et × par unscalaire (u, v, w ∈ V , u+ v ∈ V ), V est appele espace vectoriel sur K (ses elements sont appelesdes vecteurs), si les axiomes suivants sont verifies :

¤ ∀u, v, w ∈ V (u + v) + w = u + (v + w)¤ ∃V note 0 appele vecteur nul tel que u + 0 = 0 + u = u ∀u ∈ V¤ ∀u ∈ V , il existe un vecteur de V , note −u tel que u + (−u) = 0¤ ∀u, v ∈ V u + v = v + u (V est donc un espace commutatif par rapport a l’operateur somme

+)¤ ∀k ∈ K, ∀ (u, v) ∈ V k (u + v) = ku + kv¤ ∀a, b ∈ K, ∀u ∈ V (a + b) u = au + bu¤ ∀a, b ∈ K, ∀u ∈ V (ab) u = a (bu)¤ pour le scalaire unite 1 ∈ K 1u = u ∀u ∈ V

Exemples :

Rn,Cn plus generalement Kn (K corps)

Mm,n matrices de dimension m× n sur le corps K

P (t) espace vectoriel des polynomes.

3.1 Dependance et Independance Lineaire

Definition 3.1.1. Soit V un espace vectoriel sur le corps K, les vecteurs v1, . . . , vm ∈ V sontlineairement dependants sur K, ou dependants (plus simplement) si ∃a1, . . . , am ∈ K non nuls| a1v1 + · · ·+ amvm = 0, sinon ils sont independants.

Definition 3.1.2. Un ensemble S = {u, . . . , un} est une base de V si :¤ u, . . . , un sont lineairement independants,

14 / 55 Chapitre 3 : Espaces vectoriels

¤ u, . . . , un engendrent V (tout vecteur de V peut s’ecrire comme une combinaison lineaire deselements de S)

V est dit espace vectoriel de dimention n.

Exemple :

(1, 0, 0, 0) (0, 1, 0, 0) (0, 0, 1, 0) et (0, 0, 0, 1) forment une base de R4 de facon evidente et dimR4 =4.

1, t, t2, t3, . . . , tn forment une base de Pn (t) et dimPn (t) = n + 1.

3.2 Equation lineaire, matrices et espaces vectoriels

Theoreme 3.2.1. Les lignes non nulles d’une matrice mise sous forme echelonnee sont lineai-rement independantes.

Rang d’une matrice :

Definition 3.2.1. rang en ligne = nombre maximum de lignes lineairement independantes,

rang en colonne = nombre maximum de colonnes lineairement independantes.

Theoreme 3.2.2. rang en ligne de A(m×n)= rang en colonne.

Pour determiner le rang d’une matrice, on peut utiliser sa forme echelonnee.

Exemple :

A =

1 2 0 −1

2 6 −3 −3

3 10 −6 −5

1 2 0 −1

0 2 −3 −1

0 4 −6 −2

1 2 0 −1

0 2 −3 −1

0 0 0 0

, on a deux lignes

differentes de 0 donc rangA = 2.

On repart de :

a11x1 + . . . + a1nxn = b1

a21x1 + . . . + a2nxn = b2

...

am1x1 + . . . + amnxn = bm

Yann MORERE

3.2 Equation lineaire, matrices et espaces vectoriels 15 / 55

AX = B avecA =

a11 . . . . . . a1n

a21 . . . . . . a2n

... . . . . . ....

am1 . . . . . . amn

et la matrice augmentee

M = (A,B) =

a11 . . . . . . b1

a21 . . . . . . b2

... . . . . . ....

am1 . . . amn bm

.

Theoreme 3.2.3. Les trois proprietes sont equivalentes :

1. AX = B admet une solution,

2. B est une combinaison lineaire des colonnes de A

3. La matrice A et la matrice augmentee (A,B) ont le meme rang

¤ si rang (A) = rang (A,B) = n, on a une solution unique,¤ si rang (A) = rang (A,B) < n, on a une infinite de solution,¤ si rang (A) < rang (A,B), il n’y a pas de solution.

Cours de Calcul Matriciel

17 / 55

Chapter 4Matrices Carrees

4.1 Matrices carrees

Le nombre de lignes = le nombre de colonnes. A(n×n) matrices carrees d’ordre n.

L’ensemble Mn des matrices carrees d’ordre n est un algebre de matrices.

4.2 Matrices particulieres

4.2.1 Matrice Unite

C’est une matrice carree d’ordre n dont les elements diagonaux sont egaux a 1 et les autressont nuls. aii = 1, ∀i ∈ {1, . . . , n} et aij = 0, ∀i 6= j. Cette matrice est notee Inet possede lepropriete suivante : AI = IA = A ∀A.

4.2.2 Matrice diagonale

aij = 0 ∀i 6= j A = {a11, . . . , ann}

4.2.3 Puissance et polynome de matrices

A2 = AA, An+1 = AnA et A0 = I

si f (x) = a0 + a1x + . . . + anxn alors f (A) = a0I + a1A + · · ·+ anA

n

Propriete 4.2.1. f (x), g (x) deux polynomes, A matrice carree d’ordre n(f + g) (A) = f (A) + g (A)(fg) (A) = f (A) g (A) = g (A) f (A)

4.2.4 Matrices inversibles ou non singulieres

A est dite non singuliere si ∃B AB = BA = I. B est unique et se note B = A−1 et s’appellel’inverse de A.

18 / 55 Chapitre 4 : Matrices Carrees

Exemple :

A =

a b

c d

admet pour inverse si ad− bc 6= 0, A−1 = 1

ad−bc

d −b

−c a

.

Theoreme 4.2.1. A(n×n) est inversible si et seulement si rangA = n

4.2.5 Matrice triangulaire

A(n×n) = (aij) triangulaire superieure si aij = 0 ∀i > j.

Propriete 4.2.2. L’ensemble des matrices triangulaires superieures est une algebre de ma-trices :

1. A + B triangulaire superieure avec sur la diagonale aii + bii

2. kA triangulaire superieure avec sur la diagonale kaii

3. AB triangulaire superieure avec sur la diagonale aiibii

4. polynome f (x) · f (A) triangulaire superieure avec sur la diagonale f (aii)

5. A est inversible si et seulement si ∀i aii 6= 0

A(n×n) = (aij) triangulaire superieure si aij = 0 ∀i < j.

4.2.6 Matrice symetrique

A = AT (aij = aji ∀i, j)

4.2.7 Matrice anti-symetrique

A = −AT (aij = −aji ∀i, j) et donc aii = 0, ∀i.Theoreme 4.2.2. Si A est une matrice carree A + AT est symetrique, A − AT est anti-symetrique, A = B + C ou B symetrique, C anti-symetrique.

Il suffit de prendre B = 12

(A + AT

), C = 1

2

(A− AT

).

4.2.8 Matrice orthogonale

AAT = AT A = I ou A−1 = AT

4.2.9 Matrice normale

A · AT = AT · A ce qui inclut les matrices symetriques, orthogonales et anti-symetriques.

4.2.10 Matrice hermitienne

AH = A (A = A) (aij = aji ⇒ aii ∈ R)

Yann MORERE

4.3 Matrices elementaires 19 / 55

4.2.11 Matrice anti-hermitienne

AH = −A (A = −A) (aij = −aji ⇒ aii = 0)

4.2.12 Matrice unitaire

AH = A−1

4.2.13 Matrice normale

AAH = AHA

4.3 Matrices elementaires

Operations elementaires (Operations E1, E2, E3)

¤ (E1) echange de lignes αTi ↔ αT

j

¤ (E2) kαTi → αT

i (k 6= 0)¤ (E3) kαT

j + αTi → αT

i

Operations inverses

¤ αTj ↔ αT

i

¤ 1kαT

i → αTi

¤ −kαTj + αT

i → αTi

B est dite ligne-equivalente a A (A ∼ B) si B peut etre obtenue a partie de A en utilisantun nombre fini d’operations elementaires sur les lignes. Comme il est possible de refaire lechemin inverse, le ligne-equivalence est une relation d’equivalence(A ∼ A, A ∼ B⇔B ∼ A,A ∼ B et B ∼ C⇒A ∼ C).

Theoreme 4.3.1. Toute matrice A est ligne equivalente a une matrice unique sous formeconique ligne.

Soit e une operation elementaire sur les lignes, e (A) son resulat sur A. Soit E la matrice obtenueen applicant e sur I : E = e (I).

Exemple :

αT2 ↔ αT

3 E =

1 0 0

0 0 1

0 1 0

, −6αT2 ↔ αT

2 E =

1 0 0

0 −6 0

0 0 1

, −4αT1 + αT

3 ↔ αT3 E =

1 0 0

0 1 1

−4 0 1

.

Cours de Calcul Matriciel

20 / 55 Chapitre 4 : Matrices Carrees

Theoreme 4.3.2. e, une operation elementaire sur les lignes, E une matrice carree elementaired’ordre m : E = e (Im) , ∀A(m×n) e (A) = EA.

Exemple :

1 −1 2

0 2 3

3 1 3

1 −1 2

3 1 3

0 2 3

, αT2 → αT

3

et

1 −1 2

3 1 3

0 2 3

= e (A) =

1 0 0

0 0 1

0 1 0

1 −1 2

0 2 3

3 1 3

= E · A

Theoreme 4.3.3. Les proprietes suivantes sont equivalentes :

1. A est inversible (non singuliere)

2. A est ligne-equivalente a la matrice identite I

3. A est un produit de matrice elementaire

ce qui indique qu’on peut passer de A a I par une suite finie d’operations.

Algorithme :

1. Former la matrice n× 2n (par blocs) M = (A, I)

2. Reduire M a la forme echelonnee, si dans la moitie gauche apparaissent des lignes nulles,A n’est pas inversible.

3. Reduire M a la forme canonique ligne (I, B) et B = A−1

Exemple :

A =

1 0 2

2 −1 3

4 1 8

M =

1 0 2 | 1 0 0

2 −1 3 | 0 1 0

4 1 8 | 0 0 1

1 0 2 | 1 0 0

2 −1 −1 | −2 1 0

0 1 0 | −4 0 1

M ∼

1 0 2 | 1 0 0

0 −1 −1 | −2 1 0

0 0 −1 | −6 1 1

1 0 2 | 1 0 0

0 −1 −1 | −2 1 0

0 0 1 | 6 −1 −1

Yann MORERE

4.4 Equivalence entre matrices 21 / 55

M ∼

1 0 0 | −11 2 2

0 −1 0 | −4 0 −1

0 0 1 | 6 −1 −1

1 0 0 | −11 2 2

0 1 0 | −4 0 1

0 0 1 | 6 −1 −1

d’ou A−1A =

1 0 0

0 1 0

0 0 1

avec A−1 =

−11 2 2

−4 0 1

6 −1 −1

4.4 Equivalence entre matrices

Theoreme 4.4.1. B est ligne equivalente a A si et seulement si il existe une matrice nonsinguliere P telle que B = PA.

On peut aussi travailler sur les colonnes et definir 3 operations elementaires sur les colonnes.

¤ (F1) ci ↔ cj

¤ (F2) kci → ci

¤ (F3) kcj + ci → ci

de la meme facon que pour les lignes, ces operations sont inversibles, et la matrice elementaireassociee a chaque operation elementaire f est : F = f (I).

Lemme 4.4.1. A une matrice quelconque. f (A) =(e(AT

))Tet f (A) = AF et AF = f (A)

puis(e(AT

))T=

(EAT

)T= AET donc F = ET .

Theoreme 4.4.2. B est colonne equivalente a A si et seulement si il existe une matrice non-singuliere Q telle que B = AQ.

4.4.1 Equivalence entre deux matrices

Definition 4.4.1. une matrice B est dite equivalente a A si B peut etre obtenue a partir deA par une suite d’operations elementaires sur les lignes et les colonnes. B est donc equivalentea A si il existe deux matrices non singulieres P et Q telles que : B = PAQ.

Theoreme 4.4.3. toute matrice A(m×n) est equivalente a l’unique matrice par blocs

Ir | 0

− + −

0 | 0

appelee forme de SMITH ou Irest la matrice identite d’odre r et r = rang (A).

Theoreme 4.4.4. Deux matrices de memes dimensions sont equivalentes si et seulement sielles ont le meme rang.

Cours de Calcul Matriciel

22 / 55 Chapitre 4 : Matrices Carrees

Exemple : trouver P et Q /PAQ = N avec A =

1 2 −1

2 4 −2

−1 3 6

4 5 −7

avec (4× 4) (4× 3) (3× 3) =

(4× 3), on peut alors ecrire :

1 0 0

0 1 0

0 0 1

− − − −

1 2 −1 | 1 0 0 0

2 4 −2 | 0 1 0 0

−1 3 6 | 0 0 1 0

4 5 −7 | 0 0 0 1

∼1 2 −1 | 1 0 0 0

0 0 0 | −2 1 0 0

0 5 5 | 1 0 1 0

0 −3 −3 | −4 0 0 1

(∗)

1 2 −1 | 1 0 0 0

0 −3 −3 | −4 0 0 1

0 5 5 | 1 0 1 0

0 0 0 | −2 1 0 0

1 2 −1 | 1 0 0 0

0 1 1 | 4/3 0 0 −1/3

0 0 0 | −17/3 0 1 5/3

0 0 0 | −2 1 0 0

⇒ P

1 −2 1

0 −3 −3

0 0 1

− − −

1 0 0

0 1 1

0 0 0

0 0 0

⇒ N =

1 0 0

0 1 0

0 0 0

0 0 0

1 −2 3

0 1 −1

0 0 1

= Q

Yann MORERE

4.4 Equivalence entre matrices 23 / 55

evidemment P et Q ne sont pas uniques : au lieu d’echanger la ligne 4 avec la ligne 2onpeut faire :

(∗) ∼

1 2 −1 | 1 0 0 0

0 5 5 | 1 0 1 0

0 −3 −3 | −4 0 0 1

0 0 0 | −2 1 0 0

1 2 −1 | 1 0 0 0

0 1 1 | 1/5 0 1/5 0

0 0 0 | −17/5 0 3/5 1

0 0 0 | −2 1 0 0

et

P2 =

1 0 0 0

1/5 0 1/5 0

−17/5 0 3/5 1

−2 1 0 0

et la matrice est de rang 2.

Cours de Calcul Matriciel

25 / 55

Chapter 5Determinants

5.1 Proprietes

Soit une matrice carree A(m×n) = (aij), soit P = {des n! permutations sur n indices} = {a1j1 , a2j2 , . . . , anjn} etεj1...jn = 1 ou −1 suivant que la permutation est paire ou impaire (nombre d’intervention estpair ou impair 123 et 312 sont paires et 132 et 321 sont impaires) alors :

det (A) = |A| =∑p∈P

(−1)i+j aij

∣∣A{ij}∣∣

Developpement suivant la ime ligne :

|A| =n∑

j=1

(−1)i+j aij

∣∣A{ij}∣∣

A{ij} etant la mineure (ou sous-matrice carree) de A obtenue en eliminant la ime ligne et lajmecolonne.

Developpement suivant la jmecolonne :

|A| =n∑

i=1

(−1)i+j aij

∣∣A{ij}∣∣

Exemple :

∣∣∣∣∣∣∣∣∣∣∣∣

1 0 6

3 4 15

5 6 21

∣∣∣∣∣∣∣∣∣∣∣∣

= 1

∣∣∣∣∣∣∣∣

4 15

6 21

∣∣∣∣∣∣∣∣+ 6

∣∣∣∣∣∣∣∣

3 4

5 6

∣∣∣∣∣∣∣∣developpement par rapport a la premiere ligne.

= −6 + (−12) = −18.

ou encore 4

∣∣∣∣∣∣∣∣

1 6

5 21

∣∣∣∣∣∣∣∣+ (−1)5 6

∣∣∣∣∣∣∣∣

1 6

3 15

∣∣∣∣∣∣∣∣= −36 + 18 = −18.

26 / 55 Chapitre 5 : Determinants

Propriete 5.1.1.¤ Si B est obtenue a partir de A en echangeant deux de ses lignes (colonnes) alors |B| = − |A|¤ Si B est obtenue a partir de A en miltipliant une ligne (colonne) par un scalaire k alors :|B| = k |A|

¤ Si B est obtenue a partir de A an ajoutant a la ime ligne (colonne) le produit d’un scalairepar une autre ligne (colonne) alors : |B| = |A|

¤ Si A est une matrice diagonale ou triangulaire : |A| = ∏ni=1 aii

¤ |A| =∣∣AT

∣∣,∣∣AH

∣∣ = |A| et |kA| = kn |A|¤ |A| |B| = |AB|

Theoreme 5.1.1. Le determinant d’une matrice est proportionnel au determinant de sa formede Smith car PAQ = N avec P et Q regulieres |PQ| |A| = |N |.

Corollaire 5.1.2. A est reguliere si et seulement si |A| 6= 0, A est reguliere rang A = n ⇒N = In et A = P−1Q−1 et |A| 6= 0.

Definition 5.1.1.¤ Mineur : determinant d’une mineure de A,¤ Cofacteur de l’element aij : Cij = (−1)i+j

∣∣A{ij}∣∣. (A{ij} mineur de A obtenue en eliminant

la ime ligne et la jme colonne),¤ Comatrice : matrice des cofacteurs com (A) = (Cij),

¤ Adjointe : transposee de la comatrice adj (A) = (Cji) = com (A)T .

Exemple : A =

1 2 3

2 3 2

1 2 2

C11 =

∣∣∣∣∣∣∣∣

3 2

2 2

∣∣∣∣∣∣∣∣= 2, C12 = −

∣∣∣∣∣∣∣∣

2 2

1 2

∣∣∣∣∣∣∣∣= −2, C13 =

∣∣∣∣∣∣∣∣

2 3

1 2

∣∣∣∣∣∣∣∣= 1,

C21 = −

∣∣∣∣∣∣∣∣

2 3

3 2

∣∣∣∣∣∣∣∣= 2, C22 =

∣∣∣∣∣∣∣∣

1 3

1 2

∣∣∣∣∣∣∣∣= −1, C23 =

∣∣∣∣∣∣∣∣

1 2

1 2

∣∣∣∣∣∣∣∣= 0,

C31 =

∣∣∣∣∣∣∣∣

2 3

3 2

∣∣∣∣∣∣∣∣= −5, C32 = −

∣∣∣∣∣∣∣∣

1 3

2 2

∣∣∣∣∣∣∣∣= 4, C33 =

∣∣∣∣∣∣∣∣

1 2

2 3

∣∣∣∣∣∣∣∣= −1,

d’ou :

com (A) =

2 −2 1

2 −1 0

−5 4 −1

, adj (A) =

2 2 −5

−2 −1 4

1 0 −1

.

Yann MORERE

5.2 Applications 27 / 55

Exemples d’utilisation de certaines proprietes∣∣∣∣∣∣∣∣∣∣∣∣

1 a b + c

1 b a + c

1 c a + b

∣∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣∣

1 a a + b + c

1 b a + b + c

1 c a + b + c

∣∣∣∣∣∣∣∣∣∣∣∣

= (a + b + c)

∣∣∣∣∣∣∣∣∣∣∣∣

1 a 1

1 b 1

1 c 1

∣∣∣∣∣∣∣∣∣∣∣∣

= 0.

Van der Monde∣∣∣∣∣∣∣∣∣∣∣∣

1 λ1 λ21

1 λ2 λ22

1 λ3 λ23

∣∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣∣

1 λ1 λ21

1 λ2 − λ1 λ22 − λ2

1

1 λ3 − λ1 λ23 − λ2

1

∣∣∣∣∣∣∣∣∣∣∣∣

= (λ2 − λ1) (λ3 − λ1)

∣∣∣∣∣∣∣∣

1 λ1 + λ2

1 λ1 + λ3

∣∣∣∣∣∣∣∣

= (λ2 − λ1) (λ3 − λ1)

∣∣∣∣∣∣∣∣

1 λ1 + λ2

1 λ3 − λ2

∣∣∣∣∣∣∣∣= (λ2 − λ1) (λ3 − λ1) (λ3 − λ2).

Matrice carree d’ordre 3

|A| =

∣∣∣∣∣∣∣∣∣∣∣∣

a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣∣∣∣∣∣∣

=a11a22a33 + a12a23a31 + a13a21a32

−a13a22a31 − a11a23a32 − a12a21a33

5.2 Applications

5.2.1 Inverse d’une matrice

Soit A une matrice reguliere (rangA = n, det A 6= 0), on a :

A−1 =1

|A| · (adj (A))

En reprenant : A =

1 2 3

2 3 2

1 2 2

|A| = 6 + 4 + 12− 9− 4− 8 = 1 d’ou A−1 =

2 2 −5

−2 −1 4

1 0 −1

.

Cours de Calcul Matriciel

28 / 55 Chapitre 5 : Determinants

5.2.2 Resolution d’un systeme d’equations lineaires

Regle de Cramer

Soit A une matrice carree d’ordre n et K un vecteur colonne d’ordre n, si |A| 6= 0, le systemed’equations lineaires AX = K possede une solution unique : X = (x1, . . . , xn)T donnee par

xi = |Ai||A| i = 1, 2, . . . n avec Ai la matrice obtenue a partir de A en remplacant la ime colonn

epar K.

Exemple :

r + 2s + t = 4

r − s + t = 5

2r + 3s− t = 1

1 2 1

1 −1 1

2 3 −1

r

s

t

=

4

5

1

. Le determinant de A

vaut : |A| =

∣∣∣∣∣∣∣∣∣∣∣∣

3 5 0

3 2 0

2 3 −1

∣∣∣∣∣∣∣∣∣∣∣∣

= 9. Les solution sont les suivantes :

r =

∣∣∣∣∣∣∣∣∣∣∣∣

4 2 1

5 −1 1

1 3 −1

∣∣∣∣∣∣∣∣∣∣∣∣9

=

∣∣∣∣∣∣∣∣∣∣∣∣

5 5 0

6 2 0

−1 −1 −1

∣∣∣∣∣∣∣∣∣∣∣∣9

=20

9

s =1

9

∣∣∣∣∣∣∣∣∣∣∣∣

1 4 1

1 5 1

2 1 −1

∣∣∣∣∣∣∣∣∣∣∣∣

=1

9

∣∣∣∣∣∣∣∣∣∣∣∣

3 5 0

3 6 1

2 1 −1

∣∣∣∣∣∣∣∣∣∣∣∣

= −1

3

t =1

9

∣∣∣∣∣∣∣∣∣∣∣∣

1 2 4

1 −1 5

2 3 1

∣∣∣∣∣∣∣∣∣∣∣∣

=1

9

∣∣∣∣∣∣∣∣∣∣∣∣

1 2 4

0 −3 1

0 −1 −7

∣∣∣∣∣∣∣∣∣∣∣∣

=22

9

X =

209

−13

229

Si le determinant |A| = 0 on ne peut pas resoudre, il faut alors utiliser la methoded’elimination de Gauss-Jordan.

Yann MORERE

5.2 Applications 29 / 55

Matrices partitionnees : formule de Schur Si A est diagonale par blocs ou triangulairepar blocs.

A =

A11 A12 · · · A1n

0. . . . . .

...

.... . . . . . An−1n

0 · · · 0 Ann

(les matrices Aii sont carres, i ∈ {1, . . . , n}), alors : |A| = |A11| |A22| . . . |Ann|.

Soit une matrice partitionnee de la forme : A =

A11 A12

A21 A22

avec A11 et A22 carrees. Les

resultats suivants constituent les formules de Schur :

¤ Si A11est reguliere :|A| = |A11|

∣∣A22 − A21A−111 A12

∣∣

(car avec V =

I 0

−A21A−111 I

, V A =

A11 A12

0 A22 − A21A−11A12

puis |V A| = |V | |A| =

|A|).¤ Si A22 est reguliere :

|A| = |A22|∣∣A11 − A12A

−122 A21

∣∣

Application

Soient A(m×n) et B(n×m), |Im − AB| = |Im −BA|.

Considerons la matrice M =

Im A(m×n)

B(n×m) In

a l’aide de la forme de Schur :

|M | = |Im| |In −BA| = |In| |Im − AA|

Cours de Calcul Matriciel

31 / 55

Chapter 6Inversions Matricielles

6.1 Definitions et Proprietes

Definition 6.1.1. B/BA = BA = I, B = A−1, A est reguliere et non singuliere. A estinversible si rangA = n ou det A 6= 0.

Propriete 6.1.1. (AB)−1 = (B−1) (A−1), (A−1)T

=(AT

)−1, (A−1)

H=

(AH

)−1, dA−1(α)

dα=

−A−1 (α) dA(α)dα

A−1 (α) (car A (α) A−1 (α) = I ⇒ A (α) dA−1(α)dα

+ dA(α)dα

A−1 (α) = 0)

Lemme 6.1.1. d’inversion matricielle : soit une matrice A + BCD reguliere et A et C regu-liere :

(A + BCD)−1 = A−1 − A−1B(C−1 + DA−1B

)−1DA−1.

Remarque 6.1.1. Si B matrice colonne, D matrice ligne et C scalaire 6= 0

(A + BCD)−1 = A−1 − C

1 + CDA−1BA−1BDA−1

Inverse de matrices partitionnees

Soit A une matrice reguliere

A =

A11(p×p)A12(p×q)

A21(q×p)A22(q×q)

avec A11 et A22 carree et

A−1 =

X11(p×p)X12(p×q)

X21(q×p)X22(q×q)

avec AA−1 = A−1A = I.

X11A11 + X12A21 = A11X11 + A12X21 = I si A est reguliere.

X11A12 + X12A22 = A11X12 + A12X22 = 0

X21A11 + X22A21 = A21X11 + A22X21 = 0

32 / 55 Chapitre 6 : Inversions Matricielles

X21A12 + X22A22 = A21X12 + A22X22 = I → X12 = −A−111 A12X22, X21 = −X22A21A

−111 , X11 =

A−111 − A−1

11 A12X21 ⇒ X11 = A−111 + A−1

11 A12X22A21A−111 .

(A22 − A21A

−111 A12

)X22 = I or X22 existe puisque A−1 existe donc :

X22 =(A22 − A21A

−111 A12

)−1

d’ou :

X11 = A−111 + A−1

11 A12X22A21A−111

X12 = −A−111 A12X22

X21 = −X22A21A−111

Si A11 est singuliere on utilise A22 en lieu et place de A11 et :

X11 =(A11 − A12A

−122 A21

)−1

X12 = −X11A12A−122

X21 = −A−122 A21X11

X22 = A−122 + A−1

22 A21X11A12A−122

Formules permettant par recurrence decroissante de calculer l’inverse d’une matrice :

M((n+1)×(n+1)) =

A(n×m) bn

cTn an

avec bn(n×1), cT

n(1×n)et an(1×1)

.

M−1 =

X −X bm

an

− cTn

anX 1

a2n

(an + cT

nXbn

)

et X =(A− bncT

n

an

)−1

.

Exemple : A =

1 3 3

1 4 3

1 3 4

, A =

1 3

1 4

, b2 =

3

3

, cT

2 =

(1 3

), a2 = 4.

X =

1 3

1 4

− 1

4

3 9

3 9

−1

=

14

34

14

74

=

74

−34

−14

14

−1

· 4

Yann MORERE

6.1 Definitions et Proprietes 33 / 55

X =

7 −3

−1 1

, Xb2 =

12

0

, cT

2 X =

(4 0

)d’ou :

M−1 =

7 −3 −3

−1 1 0

−1 0 1

Cours de Calcul Matriciel

35 / 55

Chapter 7Equation caracteristique d’une matrice

7.1 Definitions, proprietes

Soit A(n×n) une matrice carree, on appelle valeurs propres les valeurs complexes qui rendentsingulieres sa matrice caracteristique λIm − A.

Elles sont donc racines de |λIm − A| = 0.

Elles verifient : AX = XA.

Tout vecteur X non nul verifiant cette egalite est appele vecteur propre. L’espace engendre parles vecteurs propres s’appelle l’espace propre.

P (λ) = |λIm − A| s’appelle le polynome caracteristique de A, il est de degre n en λ :

P (λ) = λn + αn−1λn−1 + · · ·+ α1λ

En ecrivant : P (λ) = (λ− λ1) (λ− λ2) . . . (λ− λm) avec λi les vecteurs propres alors :

αn−1 = −n∑

i=1

λi = −trace (A)

α0 = (−1)nn∏

i=1

λi = (−1)n |A|

Si n = 2 on a donc :P (λ) = |λI − A| = λ2 − trace (A) λ + |A|

Exemple : Trouver les valeurs et vecteurs propres associes a A =

2 2 1

1 3 1

1 2 2

|λI − A| =

∣∣∣∣∣∣∣∣∣∣∣∣

λ− 2 2 1

1 λ− 3 1

1 2 λ− 2

∣∣∣∣∣∣∣∣∣∣∣∣

= λ3 −7︸︷︷︸−trace(A)

λ2 + 11λ −5︸︷︷︸(−1)3 det(A)

= (λ− 5) (λ− 1)2

λ1 = 5 valeur propre simple.

36 / 55 Chapitre 7 : Equation caracteristique d’une matrice

λ2 = 1 valeur propre double. Pour λ = 5 on a donc (5I − A) X = 0 ce qui donne donc :

3 −2 1

−1 2 −1

−1 −2 3

x1

x2

x3

=

0

0

0

5I − A ∼

3 −2 −1

1 −2 1

0 −4 4

0 −4 4

1 −2 1

0 −4 4

0 1 −1

1 −2 1

0 −4 4

0 1 −1

1 −2 1

0 0 0

5I − A ∼

1 −2 1

−3 −2 −1

−1 −2 3

1 −2 1

0 4 −4

0 −4 4

1 −2 1

0 −1 1

0 0 0

1 0 −1

0 1 −1

0 0 0

x1

x2

x3

x2 = x3 , x1 = x3 et (1 1 1)T vecteur propre.

Tout vecteur (k k k)T est un vecteur propre associe a la valeur propre λ = 5.

A =

k

k

k

= 5

k

k

k

I − A =

−1 −2 −1

−1 −2 −1

−1 −2 −1

1 2 1

0 0 0

0 0 0

x1

x2

x3

x1 + 2x2 + x3 = 0

par exemple : X1 = (1 0 − 1)T et X2 = (−1 1 − 1)T sont des vecteurs popres independants, etdonc ∀X = k1X1 + k2X2, X est vecteur propre associe a la valeur 1. X = (k − k k − k − k)T

espace propre.

Theoreme 7.1.1. Si λ1, . . . , λn sont des valeurs propres disctinctes, si X1, . . . , Xn sont desvecteurs propres respectivement associes a ces valeurs propres alors les vecteurs propres sontlineairement independants.

Yann MORERE

7.1 Definitions, proprietes 37 / 55

Theoreme 7.1.2. de Cauchy-Hamilton, Toute matrice est solution de son polynome caracte-ristique : P (A) = 0 ou : −An = αn−1A

n−1 + · · ·+ α1A + α0In

Cours de Calcul Matriciel

39 / 55

Chapter 8Matrices semblables

8.1 Definitions et Proprietes

Definition 8.1.1. Deux matrices A et B d’ordre n sont semblables s’il existe une matricenon-singuliere R telle que : B = R−1AR.

Propriete 8.1.1.¤ deux matrices semblables ont les memes valeurs propres

|λI −B| =∣∣R−1

∣∣ |λI − A| |R|= |λI − A|

(car λI −B = λR−1R−R−1AR = R−1 (λI − A) R)¤ Si Y est un vecteur propre de B = R−1AR associe a λi de B, alors X = RY est un vecteur

propre de A associe a λi de A :

BY = R−1ARY = λY ⇔ ARY = λRY ⇔ AX = λX avec X = RY

8.2 Matrices diagonales

Les valeurs propres d’une matrice diagonale sont les elements diagonaux. Une matrice diagonalea toujours n vecteurs propres lineairement independants quand elle est d’ordre n et les Ei dela base canonique sont vecteurs propres :

DEi = aiEi

a1

. . . 0

ai

0. . .

an

0

...

1

...

0

Theoreme 8.2.1. Une matrice A est semblable a une matrice diagonale si et seulement si ellea n vecteurs propres lineairement dependants.

40 / 55 Chapitre 8 : Matrices semblables

Ce qui revient a

Theoreme 8.2.2. Dans un corps R, une matrice A d’ordre n est semblable a une matricediagonale si et seulement si λI−A se factorise completement sur K et si l’ordre de toute racineλi est egal a la dimension de l’espace propre associe.

Si l’on reprend l’exemple precedent : A =

2 2 1

1 3 1

1 2 2

on a : A1 = 5, X1 = (1 1 1)T , A2 = 1,

X2 = (1 0 − 1)T , X3 = (−1 1 − 1)T espace propre de dimension 2 qui est diagonalisable avec :

R =

1 1 −1

1 0 1

1 −1 −1

= (X1 X2 X3) R−1AR =

5 0 0

0 1 0

0 0 1

= D

R−1 =1

6

1 2 1

2 0 −2

−1 2 −1

Pour verifier : AR = RD

5 1 −1

5 0 1

5 −1 −1

=

5 1 −1

5 0 1

5 −1 −1

Demonstration de R−1AR = D : AR = RD, AR = A (X1 . . . Xn) = (AX1 . . . AXn),

RD = (X1 . . . Xn) D comme D diagonale

λ1 0

. . .

0 λn

, RD = (λ1X1, . . . , λnXn) d’ou

∀i ∈ {1, . . . , n} AXi = λiXi.

Theoreme 8.2.3. toute matrice A d’ordre n est semblable a une matrice triangulaire dont leselements diagonaux sont les valeurs propres de A.

8.3 Matrices symetriques reelles

Theoreme 8.3.1. Les valeurs propres d’une matrice symetrique reelle sont reelles.

Yann MORERE

8.3 Matrices symetriques reelles 41 / 55

Theoreme 8.3.2. Soit A une matrice carree d’ordre n symetrique de valeurs propres λ1, . . . , λn

alors ∃P orthogonale /P T AP = P−1AP = diag (λ1, . . . , λn)

Pour trouver P , il faut trouver des veteurs propres orthogonaux puis les normer.

Exemple : A =

2 0 −1

0 2 0

−1 0 2

, |λI − A| = (λ− 2)3 − (λ− 2) = (λ− 2) (λ2 − 4λ + 3) =

(λ− 1) (λ− 2) (λ− 3).

λ = 1 : I − A =

−1 0 1

0 −1 0

0 0 −1

, x1 = x3, x2 = 0, V1 = (1 0 1)T

λ = 2 : 2I − A =

0 0 1

0 0 0

1 0 0

, x1 = x3 = 0, V2 = (0 1 0)T , V T2 V1 = 0 (othogonaux)

λ = 3 : 3I−A =

1 0 1

0 1 0

1 0 1

, x1 = −x3 = 0, x2 = 0, V3 = (1 0 − 1)T , V T3 V1 = V T

3 V2 = 0

(orthogonaux)

d’ou : P =

1 0 1

0 1 0

1 0 −1

et normalisee : P =

1√2

0 1√2

0 1 0

1√2

0 1√2

et

1 0 0

0 2 0

0 0 3

=

P−1AP = P T AP .

Cours de Calcul Matriciel

43 / 55

Chapter 9Formes quadratiques

9.1 Definition et proprietes

A = (aij) matrice carree d’ordre n.

fA : Rn × Rn → R / fA (X,Y ) = XT AY =n∑

i,j=1

aijxiyj

avec XT = (x1, . . . , xn) et Y T = (y1, . . . , yn).

Definition 9.1.1. La fonction fA est appelee forme bilineaire d’ordre n associee a A. Elle estsymetrique si A est symetrique.

Exemple : A =

a11 a12

a21 a22

, fA (x, y) = (x1 x2)

a11 a12

a21 a22

y1

y2

, fA (x, y) = a11x1y1+

a12x1y2 + a21x2y1 + a22x2y2.

9.2 Forme quadratique

Une forme quadratique d’ordre n est une fonction du type :

qA : Rn → R qA (X) = XT AX

avec A matrice symetrique d’ordre n.

Remarque 9.2.1. A =

2 −1

−1 3

, qA (X) = 2x2

1+3x22−2x1x2 avec XT = (x1 x2) on aurait pu

prendre : A′ =

2 −2

0 3

mais on choisit le seul representant des matrices qui soit symetrique.

44 / 55 Chapitre 9 : Formes quadratiques

On peut donc tres facilement passer de la forme quadratique a la matrice et inversement. Parexemple :

A =

1 1 2

1 3 0

2 0 4

qA (X) = x21 + 3x2

2 + 4x23 + 2x1x2 + 4x1x3

qA (X) = −x21 + 3x2

3 − x1x2 + 2x1x3 − 5x1x3 A =

−1 −12

1

−12

0 −52

1 −52

3

Par definition, le rang d’une forme bilineaire ou d’une forme quadratique associee a A est lerang de A.

Definition 9.2.1. une forme quadratique q ou par extension la matrice A symetrique associeeest dite :¤ definie positive si q (X) > 0 ∀X ∈ Rn (X 6= 0) (A > 0)¤ semi-definie positive si q (X) ≥ 0 ∀X ∈ Rn (A ≥ 0)¤ definie negative si q (X) < 0 ∀X ∈ Rn (X 6= 0) (A < 0)¤ semi-definie negative si q (X) ≤ 0 ∀X ∈ Rn (A ≤ 0)¤ indefinie si ∃X/q (X) > 0 et ∃X ′/q (X ′) < 0

Exemple : q (X) = x21 + 2x2

2 + 7x23 est > 0 puisque tous les termes sont > 0 donc A =

1 0 0

0 2 0

0 0 7

> 0. q (X) = x21 + 2x2

3 est ≥ 0 puisque pour x2 6= 0, q((0 x2 0)T

)= 0 donc

A =

1 0 0

0 0 0

0 0 2

≥ 0. q (X) = x2

1 + x22 − 3x1x2 est indefinie car :q

((1 0)T

)= 1 > 0,

q((1 1)T

)= −1 < 0 donc A =

1 −32

−32

1

≥ 0 est indefinie.

Remarque 9.2.2. A > 0 si et seulement −A < 0 (A ≥ 0 si et seulement si −A ≤ 0)q (X) = XT AX > 0 ∀X ∈ Rn X 6= 0−q (X) = −XT AX = XT (−A) X < 0 ∀X ∈ Rn X 6= 0

Correspond en fait a la generalisation de la notion de carre. Dans le cas scalaire : q (X) = ax2

et donc q (X) > 0 ⇒ a > 0.

Ici on cherche les memes proprietes, sauf qu’il peut y avoir des cas ou A n’est ni positive, ninegative.

Yann MORERE

9.2 Forme quadratique 45 / 55

Propriete 9.2.1. Une forme quadratique diagonale, ou une matrice diagonale d’ordre n A =diag (a1, . . . , an) est :¤ A > 0 si ∀i ai > 0,¤ A < 0 si ∀i ai < 0,¤ A ≥ 0 si ∀i ai ≥ 0,¤ A ≤ 0 si ∀i ai ≤ 0,¤ indefinie si il existe des elements non nuls de signe oppose.

L’application lineaire non singuliere X = BY transforme la forme quadratique XT AX en

la forme quadratique : Y T(BT AB

)Y et evidemment BT AB est symetrique (

(BT AB

)T=

BT AT B = BT AB), les matrices A et B sont dites congruentes si ∃P / B = P T AP .

Une forme quadratique de rang r peut se reduire a la forme diagonale :

h1x21 + · · ·+ hrx

2r (hi 6= 0 ∀i ∈ {1, . . . , r})

Pour passer a la forme diagonale on utilise encore et toujours le meme algorithme, cette fois-cisimplement comme la matrice A est symetrique les operations elementaires appliquees sur leslignes sont identiques a celles appliquees sur les colonnes et donc : D = BT AB.

Exemple : qA = x21+2x2

2−7x23−4x1x2+8x1x3 A =

1 −2 4

−2 2 0

4 0 −7

|A| = −14−32+28 6= 0

Rang A = 3 .

(A | I) =

1 −2 4

−2 2 0

4 0 −7

1 0 0

0 1 0

0 0 1

1 −2 4

0 −2 8

0 8 −23

1 0 0

−2 1 0

−4 0 1

1 0 0

0 −2 8

0 8 −23

1 0 0

−2 1 0

−4 0 1

donc les operations sur les lignes suffisent puisque A

etant symetrique les operations sur les colonnes sont identiques.

1 0 0

0 −2 8

0 0 9

1 0 0

2 1 0

4 4 1

d’ou D = BT AB avec B =

1 2 4

0 1 4

0 0 1

et X = BY . D’ou si

x1 = y1 + 2y2 + 4y3

x2 = y2 + 4y3

x3 = y3

alors q (Y ) = y21 − 2y2

2 + 9y23

Cours de Calcul Matriciel

46 / 55 Chapitre 9 : Formes quadratiques

donc la matrice A est indefinie.On peut continuer la reduction en gardant les matrices B et BT avec :

B =

1√

2 43

0 1√2

43

0 0 13

on a D =

1 0 0

0 −1 0

0 0 1

Theoreme 9.2.1. toute forme quadratique reelle peut etre reduite par une application reellenon singuliere a la forme canonique α1y

21 + · · · + αry

2r , ou αi = 1 ou −1 et r est le rang de la

forme quadratique.

Theoreme 9.2.2. Une matrice A(n×n) est definie positive si et seulement si :¤ XT AX > 0 ∀X ∈ Rn X 6= 0,¤ Toutes les valeurs propres de A sont strictement positives,¤ A−1 existe et elle est definie positive,¤ tous les mineurs principaux successifs de la matrice A sont > 0,¤ decomposition de Choleski :

A possede une factorisation triangulaire A = UT U , ou U est une matrice triangulaire suu-perieure a diagonale positive.

Remarque 9.2.3. Pour Cholesky :⇒ si A est definie positive, elle est congruente a une matrice diagonale D qui a tous ses termespositifs. Par transformation 1√

αisur chaque element, elle est congruente a l’identite. Donc

∃P triangulaire superieure /X − PY et : I = P T AP avec P triangulaire superieure, d’ou :A = P−T IP−1 et en prenant U = P−1 on a :

A = UT U et T triengulaire infrieure.

⇐ si on a A = UT U qA (X) = XT UT UX = (UX)T UX = yT y = y21 + . . . + y2

r > 0 et doncqA (X) = 0 ⇒ UT X = 0⇒ X = 0 (car U est inversible).

Mineurs principaux successifs : p1 = a11, p2 =

∣∣∣∣∣∣∣∣

a11 a12

a21 a22

∣∣∣∣∣∣∣∣, p3 =

∣∣∣∣∣∣∣∣∣∣∣∣

a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣∣∣∣∣∣∣

, . . . pn =

|A|.

Exemple : qA = x21 + 3x2

2 + 11x23 − 2x1x2 − 8x2x3 d’ou A =

1 −1 0

−1 3 −4

0 −4 11

on a p1 = 1,

p2 =

∣∣∣∣∣∣∣∣

1 −1

−1 3

∣∣∣∣∣∣∣∣= 2, p3 = |A| = 33− 16− 11 = 6 donc A est definie positive.

Yann MORERE

9.2 Forme quadratique 47 / 55

Decomposition de Cholesky :

1 −1 0

−1 3 −4

0 4 11

1

1

1

1 0 0

0 3 −4

0 −4 11

1

1 1

0 0 1

1 0 0

0 2 0

0 0 3

1

1 1

2 2 1

d’ou D =

1

2

3

= BT AB avec B =

1

1 1

2 2 1

Puis : D ·BT ∼

1

1

1

1 0 0

1√2

1√2

0

2√3

2√3

1√3

Donc : I = P T AP avec P =

1 1√2

2√3

0 1√2

2√3

0 0 1√3

et U = P−1

D’ou U =

1 −1 0

√2 −2

√2

√3

et A = UT U .

Cours de Calcul Matriciel

49 / 55

Chapter 10Systemes differenciels

10.1 Proprietes et Definitions

dX(t)dt

= AX (t) avec X (t) = (x1 (t) . . . xn (t))T avec X (t) = (x1 (t) , . . . , xn (t))T

A = (aij)(n×n) et t ∈ R.

dxi (t)

dt=

n∑j=1

aijxj (t)

n equations differentielles du premier ordre.

10.2 Cas scalaire

x (t) = ax (t) la solution d’une telle equation differentielle est donnee par x (t) = eatx (0) avecx (0) les conditions initiales (CI).

Le developpement limite de eat s’ecrit eat = 1 + at + a2

2t2 + · · · = ∑∞

i=0ai

i!ti.

10.3 Cas matriciel

Par ananlogie : soit P (t) = I + At + A2

2!t2 + · · · =

∑∞i=0

ai

i!ti. Soit X (t) = P (t) X (0) (dA(t)

dt=(

daij(t)

dt

)).

dP (t)dt

= A+A2t+. . . =∑∞

i=1 Ai ti−1

(i−1)!= A

∑∞i=0 Ai ti

i!= A·P d’ou : dX(t)

dt= A·P (t) A (0) = AX (t)

donc X (t) = P (t) X (0) est solution de l’equation differentielle matricielle.

On appelle donc exponentielle de matrice :

eAt = I + At + A2 t2

2!+ · · · =

∞∑i=0

Ai

i!ti.

50 / 55 Chapitre 10 : Systemes differenciels

10.4 Evaluation de eAt

10.4.1 Calcul numerique

Par calcul numerique avec arret quand les termes deviennent negligeables ou si A est nilpotente(∃k ∈ N/Ak = 0).

Exemple : dX(t)dt

=

0 1

0 0

X (t) on fait correspondre a x1 (t) = x2 (t), x2 (t) = 0⇒ x2 (t) =

x2 (0) et x1 (t) = x2 (0) t + x2 (0) ⇒ X =

1 t

0 1

X0.

A2 = 0 d’ou : eAt =

1 0

0 1

+

1 0

0 0

t

1!=

1 t

0 1

et la solution est : X (t) =

1 t

0 1

X0

10.4.2 A diagonale

A = diag (λi) i ∈ {1, . . . , n} eAt = diag(eλit

)car eAt =

∑∞j=0 (diag (λi))

j tj

j!= diag

(∑∞j=0 λj

itj

j!

)=

diag(eλit

).

10.4.3 Utilisation de la formule de Sylverster

Soit PA (λ) = a0 + a1λ + · · ·+ λn le polynome caracteristique de A d’apres Cauchy-Hamilton :

PA (A) = 0 donc An = −∑n−1i=0 aiA

i avec eAt =∑∞

j=0tj

j!Aj, toute puissance de A, Ak avec k ≥ n

peut donc s’ecrire en fonction de n− 1 premieres matrices d’ou :

eAt =∞∑

j=0

αjAj (Formule de Sylvester)

Soit la fonction : g (A) = eλt −∑n−1i=0 αi (t) λi on a : g (A) = eAt −∑n−1

i=0 αi (t) Ai

Or si λj est une valeur propre de A d’ordre de multiplicite nj, alors g (λj) est une valeur proprede g (A) d’ordre de multiplicite nj (d’apres : si λ valeur propre d’ordre n, f (λ) valeur propred’ordre n de f (A) quelque soit f une fonction scalaire).

Or g (A) = 0 donc la matrice g (A) a n valeurs propres nulles d’ou ∀j ∈ {1, . . . , n} g (λj) = 0et donc eλjt =

∑n−1i=0 αj (t) λi

j.

λi valeur propre d’ordre nj → g (λi) valeur propre de g (A) d’ordre nj or toutes les valeurspropres de g (A) sont nulles donc λg(A) = 0 = g (λi).

Yann MORERE

10.4 Evaluation de eAt 51 / 55

⇒ pour trouver eAt il suffit de travailler sur les eλjt. Comme l’ordre de multiplicite est nj parλj : (

dk

dλkg (λ)

)

λ=λj

= 0

oudk

dλk

(eλt −

n−1∑i=0

αi (t) λi

)

λ=λj=0

∀k ∈ {0, . . . , nj − 1}

Exemple : A =

0 1

0 −10

valeur propre : PA (λ) = λ2 + 10λ soit λ1 = 0 et λ2 = −10 donc

eAt a comme valeur propre 1 et e−10t.e0·t = α0 (t) + 0 · α1 (t) ⇒ α0 (t) = 1e−10·t = α0 (t)− 10 · α1 (t) ⇒ α1 (t) = 1

10(1− e−10t) d’ou

eAt = α0 (t) I + α1 (t) A =

1 0

0 1

+

0 110

(1− e−10t)

0 −1 + e−10t

=

1 110

(1− e−10t)

0 e−10t

A =

0 1

0 0

valeur propre 0, 0⇒ une valeur propre double de eAt. e0·t = α0 (t)+0·α1 (t)

→ α0 (t) = 1. ddλ

(eλt − α0 (t− λα1 (t))

)λ=0

=(teλt − α1 (t)

)λ=0

= 0 d’ou : α1 (t) = t et

donc eAt = I +

0 t

0 0

1 t

0 1

.

Cours de Calcul Matriciel

53 / 55

Chapter 11Quelques extras

11.1 Forme de Jordan

Elle est formee de blocs.

λ1 1

. . . . . .

. . . 1 0

λ1

λ2

. . .

λp 1 0

0. . . . . .

. . . 1

λp

Toute matrice peut se mettre sous la forme de Jordan.

On appelle rayon spectral d’une matrice A, le plus grand module des valeurs propres de A.

ρ (A) = supi∈{1...n}

|λi|

54 / 55 Chapitre 11 : Quelques extras

11.2 Matrice compagne

C =

0 −α0

1. . . −α1

. . . . . ....

. . . 0...

0 1 −αn−1

|λI − C| =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

λ α0

−1 λ α1

−1. . .

...

. . . λ...

0 −1 λ + αn−1

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

= λ

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

λ 0 α1

−1. . . α2

. . . λ...

0 −1 λ + αn−1

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

+ α0

= λ2

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

λ 0 α2

−1. . .

...

. . . λ...

0 −1 λ + αn−1

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

+ λα1 + α0

d’ou Pc (λ) = λn + αn−1λn−1 + · · ·+ α1λ + α0 le polynome caracteristique est immediat.

Exemple :

A =

0 0 0

1 0 0

0 1 −1

calculer eAt et le rayon spectral.

PA (λ) = λ3 + λ2 = λ2 (λ + 1) ⇒ λ1 = 0 valeur propre double, λ = −1. eλt = α0 (t) + λα1 (t) +λ2α2 (t).

ddt→teλt = α1 (t) + 2λα2 (t)

λ1 = 0 : α0 (t) = 1 et α1 (t) = t

λ2 = −1 : e−t = 1− t + α2 et α2 (t) = t− 1 + e−t

Yann MORERE

11.2 Matrice compagne 55 / 55

eAt = I +

0 0 0

t 0 0

0 t −t

+

0 0 0

0 0 0

t− 1 + e−t −t + 1− e−t t− 1 + e−t

=

1 0 0

t 1 0

t− 1 + e−t 1− e−t −et

et 1 est une valeur propre double et e−t valeur propre simple de eAt.

Cours de Calcul Matriciel