Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même,...

89
PCSI2 2010/2011 Cours de Mathématiques Troisième partie : algèbre H. MÉNÉVIS

Transcript of Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même,...

Page 1: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

PCSI2 2010/2011

Cours de MathématiquesTroisième partie : algèbre

H. MÉNÉVIS

Page 2: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n
Page 3: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

Table des matières

18 Polynômes et fractions rationnelles 118.1 Polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

18.1.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 118.1.2 Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 618.1.3 Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1018.1.4 Dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1318.1.5 Décomposition en produit d’irréductibles . . . . . . . . . . . . . . . . . . . . . . . 1718.1.6 Polynômes scindés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

18.2 Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2218.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2318.2.2 Décomposition en éléments simples . . . . . . . . . . . . . . . . . . . . . . . . . . . 2418.2.3 Calcul de primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

19 Espaces vectoriels de dimension finie 3119.1 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

19.1.1 Espaces de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3119.1.2 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3219.1.3 Produit, sous-espace vectoriel, somme . . . . . . . . . . . . . . . . . . . . . . . . . 35

19.2 Applications linéaires en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3719.2.1 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3719.2.2 Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

20 Calcul matriciel 4120.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

20.1.1 Matrices et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4120.1.2 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4420.1.3 Matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4620.1.4 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4820.1.5 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

20.2 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5620.2.1 Opérations permises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5620.2.2 Détermination du noyau, de l’image et de l’inverse d’une matrice . . . . . . . . . . 59

20.3 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6320.3.1 Formules de changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6320.3.2 Introduction à la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

21 Déterminants 6921.1 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

21.1.1 Expression du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6921.1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7021.1.3 Développement, inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

21.2 Déterminant d’un endomorphisme, d’une famille de vecteurs . . . . . . . . . . . . . . . . . 7521.2.1 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . 7521.2.2 Déterminant d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . 75

iii

Page 4: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

iv TABLE DES MATIÈRES

22 Systèmes linéaires 7922.1 Systèmes de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7922.2 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

Page 5: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

Chapitre 18Polynômes et fractions rationnelles

Les objets que nous avons manipulés jusqu’à présent, en croyant que ceux-ci étaient des polynômes,étaient en fait des fonctions polynomiales. Elles sont d’une très grande utilité, mais leur nature même defonctions (définies sur R ou C par exemple) en limite l’utilisation : on ne peut remplacer la variable quepar un réel (ou un complexe) et non par un objet algébrique (presque) quelconque.

Il est pourtant très utile de pouvoir remplacer la variable par un objet algébrique plus général qu’unnombre : par exemple, si f est un endomorphisme de l’espace vectoriel E, nous savons que

(IdE +f)n =n∑

k=0

(n

k

)fk

(la notation fk désignant bien sûr la composée de f k fois avec elle-même). Cette identité semble n’êtrequ’un cas particulier de l’égalité polynomiale, valable pour tout complexe x :

(1 + x)n =n∑

k=0

(n

k

)xk

Pourtant, si l’on se limite aux fonctions polynomiales, la formule concernant les endomorphismes n’estpas une conséquence de la seconde : en effet, on ne peut remplacer x que par un complexe dans la secondeformule, donc pas par un endomorphisme.

L’intérêt des polynômes est d’offrir un cadre formel pour énoncer et démontrer des identités algébriquesdans lesquelles on pourra remplacer la variable (on dira l’indéterminée) par bien d’autres choses que desnombres. L’idée qui conduit à leur définition est que, pour connaître une fonction polynomiale, il suffitde connaître ses coefficients. Un polynôme sera donc défini par la suite de ses coefficients.

Dans tout le chapitre, K désigne un sous-corps de C.

18.1 Polynômes

18.1.1 Définitions et premières propriétés

DéfinitionSoit u une suite à valeurs dans K. Le support de u est Supp(u) = {n ∈ N | un 6= 0}. On dit que lasuite u est à support fini si, et seulement si, son support est un ensemble fini. On dit encore que lasuite est presque nulle (i.e. qu’elle est ultimement nulle).

Exemple 1. La suite nulle est à support fini (son support est l’ensemble vide), la suite constante égaleà 1 ne l’est pas.

DéfinitionL’ensemble des polynômes à coefficients dans K est l’ensemble des suites à support fini à valeursdans K. On note K[X ] cet ensemble.

Exemple 2. Les suites (1, 0, 0, . . . ) et (0, 1, 0, . . . ) sont des polynômes.

1

Page 6: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

2 Chapitre 18. Polynômes et fractions rationnelles

PropositionL’ensemble K[X ] est un K-espace vectoriel.

preuve :

il est tout à fait évident que la somme de deux suites à support fini est encore à supportfini (son support est inclus dans la réunion des supports des deux suites), de même que le produit d’unesuite à support fini par un scalaire.

ProduitBien entendu, la suite (a0, a1, . . . , an, 0, . . . ) représente le polynôme a0 +a1X+· · ·+anX

n. Par suite, pourdéfinir le produit de deux suites à support fini, il faut mimer la façon dont on multiplie deux polynômes.

DéfinitionSoient u et v deux suites à valeurs dans K. Le produit de Cauchy de u par v (ou produit deconvolution) est la suite w à valeurs dans K définie par :

∀n ∈ N, wn =n∑

k=0

ukvn−k = u0vn + u1vn−1 + · · ·+ un−1v1 + unv0.

On note u ⋆ v cette suite.

Remarque 1. Le changement d’indice p = n− k dans la somme montre que

wn =n∑

p=0

un−pvp =n∑

p=0

vpun−p;

en d’autres termes que u⋆v = v ⋆u : le produit de convolution est commutatif. Le terme wn est la sommede tous les termes upvq lorsque le couple (p, q) parcourt les couples d’entiers tels que p+ q = n :

wn =∑

p+q=n

upvq.

PropositionSi les deux suites u et v sont à support fini, alors u ⋆ v l’est aussi.

preuve :

soit N un entier tel que, pour n > N , un = vn = 0. Alors, en notant w la suite u ⋆ v,on a wn =

p+q=n

upvq = 0 pour n > 2N : en effet, si (p, q) est un couple d’entiers positifs tel que

p+ q = n > 2N , alors p ou q est supérieur ou égal à N , donc up = 0 ou vq = 0, i.e. upvq = 0. Par suite,chacun des termes de la somme qui définit wn est nul pour n > 2N , donc wn est nul pour n > 2N .

ThéorèmeL’ensemble K[X ], muni de l’addition et du produit de convolution, est une K-algèbre commutative.L’élément neutre (pour le produit) est la suite 11 = (1, 0, 0, . . . ).

preuve :

– On sait que K[X ] est un K-espace vectoriel.

– Soit u ∈ K[X ] et notons v la suite v = 11 ⋆ u. Pour tout entier n, on a vn =n∑

k=0

11kun−k = un car seul

110 est non nul (et égal à 1). Par suite, 11 ⋆ u = u. De même, u ⋆ 11 = u car on sait que le produit ⋆ estcommutatif.– Soient u, v, w ∈ K[X ]. Notons t la suite (u⋆v)⋆w et z la suite u⋆(v⋆w). Il s’agit de montrer que ces deuxsuites sont égales, i.e. que l’on a tn = zn pour tout entier n. Pour tout entier k, on a (u⋆v)k =

i+j=k

uivj

d’où, pour tout entier n :

tn =∑

k+ℓ=n

(u ⋆ v)kwℓ =∑

k+ℓ=n

i+j=k

uivjwℓ =∑

i+j+ℓ=n

uivjwℓ.

Page 7: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.1. Polynômes 3

De même, on a (v ⋆ w)ℓ =∑

i+j=ℓ

viwj , d’où

zn =∑

k+ℓ=n

uk(v ⋆ w)ℓ =∑

k+ℓ=n

i+j=ℓ

ukviwℓ =∑

k+i+j=n

ukviwj ,

qui est bien la même somme que la précédente (on peut remplacer les indices muets de sommation k, i,j par i, j et ℓ respectivement). La loi ⋆ est donc associative.– Les relations (λu) ⋆ v = λ(u ⋆ v) et u ⋆ (v + w) = u ⋆ v + u ⋆ w sont évidentes pour tous élémentsu, v, w ∈ K[X ] et λ ∈ K.

Notation : comme d’habitude, l’élément neutre de l’anneau sera noté 1 (au lieu de 11), son produitsera noté ×, ou ·, ou sans symbole (au lieu de ⋆). Convenons aussi de noter X la suite (0, 1, 0, . . . ). Alorsl’élément X2 (i.e. X ⋆ X) est la suite X2 = (0, 0, 1, 0, . . . ) (résulte immédiatement de la définition duproduit) et, par une récurrence immédiate, l’élément Xn est la suite (0, · · · , 0, 1, 0 . . . ), l’unique 1 étanten n + 1ème position (c’est vrai même si n = 0 : X0 est l’élément neutre, i.e. (1, 0, . . . ) : l’unique 1 esten première position). Comme d’habitude, on a la relation XnXp = Xn+p pour tous entiers n et p (nerajoutez surtout pas « pour tout X » : ce X n’est pas susceptible de prendre différentes valeurs, c’est unesuite fixée une fois pour toutes !).Ainsi, soit a ∈ K[X ] : c’est une suite à support fini. Soit n un entier tel que, pour k > n + 1, on aitak = 0. Alors

a = (a0, a1, . . . , an, 0, . . . )

= a0(1, 0, . . . ) + a1(0, 1, 0, . . . ) + · · ·+ an(0, . . . , 1, 0, . . . )

= a0X0 + a1X

1 + · · ·+ anXn

de sorte que l’on peut noter le polynôme a sous la formen∑

k=0

akXk. Ceci suppose, pour limiter la somme

à l’indice n, de connaître un entier n tel que ak = 0 pour k > n+ 1. On peut éviter cet inconvénient en

notant∞∑

k=0

akXk cette somme : la suite (ak)k étant à support fini, la somme est bien une somme finie.

Nous adopterons désormais cette notation (somme « infinie » – qui est en réalité finie – de puissancesde X) pour les polynômes.

Exemple 3. P = (1 +X)2 = (1 +X)(1 +X) = 1 + 2X +X2 est un polynôme.

Proposition

La famille (Xk)k∈N est une base de K[X ] (dite base canonique).

preuve :

il s’agit de démontrer que tout polynôme s’écrit de façon unique comme combinaisonlinéaire des polynômes Xk, où l’on rappelle que, par définition, une combinaison linéaire porte toujourssur un nombre fini de vecteurs. C’est évident par définition même de K[X ].

Remarque 2. Soient P =∑akX

k et Q =∑bkX

k deux polynômes. Par définition même de ce qu’est unpolynôme, le polynôme P est égal au polynôme Q si, et seulement si, pour tout entier k, on a ak = bk.

DéfinitionSoit P =

∑akX

k un polynôme. Les scalaires ak sont les coefficients du polynôme. Si un seul deses coefficients est non nul, on dit que P est un monôme. Si seul son coefficient a0 est non nul, onparle de polynôme constant.

Remarque 3. L’anneau K[X ] étant commutatif, on peut y binômer en toute légalité. Par exemple, pourtout scalaire a ∈ K et tout entier n, on a

(X + a)n =n∑

k=0

(n

k

)an−kXk.

Page 8: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

4 Chapitre 18. Polynômes et fractions rationnelles

DéfinitionSoit P un polynôme et S son support (i.e. l’ensemble des entiers k tels que ak 6= 0).– Si P 6= 0, alors S 6= ∅. Le degré de P est deg(P ) = max(S) ; sa valuation est val(P ) = min(S).– Si P = 0 (donc S = ∅), on convient que deg(0) = −∞ et val(0) = +∞.

Exemple 4. Soit P = X2 −X4 + 2X7. Le support de P est S = {2, 4, 7}, son degré est 7, sa valuation 2.

Remarque 4. Les éléments deg(P ) et val(P ) appartiennent à l’ensemble N = N∪ {−∞,+∞}. On définitun ordre sur ce nouvel ensemble, qui prolonge l’ordre sur N, en convenant que, pour tout entier n, on a−∞ < n < +∞. On étend également l’addition en posant

(+∞) + (+∞) = +∞ et (−∞) + (−∞) = −∞

et, pour tout entier n,

n+ (+∞) = (+∞) + n = +∞ et n+ (−∞) = (−∞) + n = −∞

Les opérations (+∞) + (−∞) et (−∞) + (+∞) ne sont pas définies.Ces conventions nous seront utiles pour regarder le degré ou la valuation d’une somme ou d’un produit.

DéfinitionSoit P un polynôme non nul et d son degré. Le coefficient de Xd du polynôme P est appelé soncoefficient dominant. Lorsque le coefficient dominant est égal à 1, on dit que le polynôme estunitaire (ou normalisé).

Exemple 5. Le polynôme X +X2 − 3X3 est de valuation 1, de degré 3 et de coefficient dominant −3. iln’est pas unitaire.

Exemple 6. Pour tout entier n, le polynôme (X + 1)n est de degré n, de valuation nulle et unitaire.

Remarque 5. Le coefficient dominant d’un polynôme n’est donc jamais égal à 0. Si le polynôme

P =d∑

k=0

akXk

vérifie ad = 0, alors P n’est pas de degré d mais de degré strictement inférieur à d.

ThéorèmeSoient P,Q ∈ K[X ]. On a– deg(PQ) = deg(P ) + deg(Q).– val(PQ) = val(P ) + val(Q).– deg(P +Q) 6 max

(deg(P ), deg(Q)

), avec égalité si deg(P ) 6= deg(Q).

– val(P +Q) > min(

val(P ), val(Q)), avec égalité si val(P ) 6= val(Q).

preuve :

si P ou Q est le polynôme nul, les formules résultent immédiatement des conventionsfaites sur les éléments +∞ et −∞. Supposons donc P 6= 0 et Q 6= 0. Ces deux polynômes ont alors undegré et une valuation entiers. Notons n = val(P ), p = deg(P ), m = val(Q) et q = deg(Q) et écrivons

P =∞∑

k=0

akXk et Q =

∞∑

k=0

bkXk

(on a donc ak = 0 pour k < n et pour k > p, bk = 0 pour k < m et pour k > q). Soient (ck)k lescoefficients du polynôme PQ : pour tout entier n, on a ck =

i+j=k

aibj .

Pour k < m + n, on a ck = 0 : en effet, pour chaque couple (i, j) tel que i + j = k < m + n, on anécessairement i < n (donc ai = 0) ou j < m (donc bj = 0), donc aibj = 0. Par suite, la somme ck estnulle. Le premier coefficient ck qui pourra être non nulle est obtenu pour k = m+n : un seul couple (i, j)vérifie i + j = n + m, i > n, j > m : c’est (i, j) = (n,m). Par suite, cn+m = anbm, qui est non nul, caran 6= 0 (n est la valuation de P ) et bm 6= 0. La valuation de PQ est donc bien égale à val(P ) + val(Q).

Pour les mêmes raisons, le coefficient ck est nul dès que k > p + q et cp+q = apbq est non nul, doncdeg(PQ) = deg(P ) + deg(Q).

Page 9: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.1. Polynômes 5

Pour la somme : on a

P +Q =∞∑

k=0

(ak + bk)Xk,

avec ak + bk = 0 pour k < min(n,m) et pour k > max(p, q) (car, sous l’une de ces deux conditions, on aak = bk = 0). On en déduit que

val(P +Q) > min(n,m) = min(

val(P ), val(Q))

et quedeg(P +Q) 6 max(p, q) = max

(deg(P ), deg(Q)

).

Il serait faux de croire que l’on a une égalité : en effet, si n = m et an + bm = 0, la valuation de P +Q eststrictement supérieure à la valuation commune aux deux polynômes P et Q. En revanche, si n < m, alorsan + bn = an + 0 6= 0, donc la valuation de la somme est exactement la plus petite des deux valuations(et le résultat est le même si m < n). Le raisonnement s’applique de la même façon aux degrés.

Exemple 7. Soient P = 1+X+X2−X3 (valuation nulle, degré 3) et Q = X+X3 (valuation 1, degré 3).Alors P +Q = 1 + 2X +X2 est de valuation 1 = min

(val(P ), val(Q)

)(car les valuations de P et Q sont

différentes) et de degré 2 < max(

deg(P ), deg(Q))

(car les degrés sont égaux et les termes de plus hautdegré s’annulent).

CorollaireSoient P,Q ∈ K[X ] tels que PQ = 0. Alors P = 0 ou Q = 0.

preuve :

en effet, si P 6= 0 et Q 6= 0, alors les degrés de P et de Q sont entiers, donc le degré dePQ l’est aussi, donc PQ est non nul.

Remarque 6. Techniquement, on dit que l’anneau K[X ] est intègre. Rappelons qu’il existe des anneauxnon intègres ; par exemple l’anneau des fonctions de R dans R : il est facile de trouver deux fonctions fet g non nulles telles que le produit fg soit la fonction nulle.

CorollaireSoit P,Q,R ∈ K[X ], P 6= 0, tels que PQ = PR. Alors Q = R.

preuve :

bien qu’on ne puisse pas multiplier par l’inverse de P (un polynôme n’a pas d’inverse,sauf les polynômes constants non nuls), cette égalité implique P (Q−R) = 0, d’où Q−R = 0 car P 6= 0.

Notation : pour tout entier n, on note Kn[X ] l’ensemble des polynômes de degré inférieur ou égal à n.

PropositionPour tout entier n, Kn[X ] est un sous-espace vectoriel de K[X ].

preuve :

le polynôme nul est de degré −∞ < n ; la stabilité par somme et multiplication par unscalaire résulte du théorème sur les degrés.

Attention! l’ensemble des polynômes de degré n exactement n’est pas un espace vectoriel : il ne contientpas le polynôme nul et la somme de deux polynômes de degré n exactement n’est pas toujours de degré nexactement.

PropositionPour tout entier n, la famille (1, X, . . . , Xn) est une base de Kn[X ] (dite base canonique).

preuve :

la famille est génératrice par définition de Kn[X ] ; libre par définition de ce qu’est unpolynôme.

Page 10: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

6 Chapitre 18. Polynômes et fractions rationnelles

18.1.2 Fonctions polynomiales

Une des grandes utilisations des polynômes est de les transformer en fonction, mais ce n’est pas laseule : leur grande puissance est que, dans un polynôme P , on peut remplacer l’indéterminée X parn’importe quel élément d’une K-algèbre.

En effet, soit A une K-algèbre (i.e. un anneau, muni d’une multiplication externe par les scalaires

de K qui munissent A d’une structure d’espace vectoriel). Soit P =n∑

k=0

λkXk un polynôme et a ∈ A.

L’élémentn∑

k=0

λkak est bien défini dans la K-algèbre A (on rappelle que a0 = 1, élément neutre de A) ; on

note P (a) cet élément. Il est tout à fait évident que, si Q et un autre polynôme et que λ est un scalaire,on a, notant 11 le polynôme constant égal à 1 et 1A l’élément neutre de A :

– (P +Q)(a) = P (a) +Q(a)– (λP )(a) = λP (a)– (PQ)(a) = P (a)Q(a)– 11(a) = 1A.

Techniquement, on vient de démontrer le

ThéorèmeL’application Φa : K[X ] −→ A

P 7−→ P (a)est un morphisme de K-algèbres.

Ce morphisme est appelé morphisme de substitution : il permet de substituer a à X dans tout poly-nôme.

Exemple fondamental

L’exemple fondamental est celui où l’on substitue un scalaire à X : si P =n∑

k=0

akXk et x ∈ K, alors

P (x) =n∑

k=0

axxk. Cette expression étant définie pour tout scalaire x, on définit ainsi une fonction

P̃ : K −→ K

x 7−→ P (x):

c’est la fonction polynomiale associée à P . On la note P̃ pour la distinguer du polynôme P (qui n’est pasune fonction mais une suite de coefficients).

Autres exemples

Exemple 1. Soit P =n∑

k=0

akXk un polynôme. On considère l’élément X de la K-algèbre K[X ]. Par

substitution, on construit l’élément P (X) =n∑

k=0

akXk : on constate que P (X) = P (contrairement aux

fonctions, pour lesquelles f(x) 6= f).De même, on peut substituer un polynôme Q à l’indéterminée X pour former le polynôme

P (Q) =n∑

k=0

akQk.

Par exemple, pour P = 1 +X2 et Q = 1−X , on a P (Q) = 1 + (1−X)2 = 2− 2X +X2.

Exemple 2. Soit E un K–espace vectoriel et A = L(E) (la seconde loi de composition est ici la composition

des applications, la notation fk désigne donc la composée de f k fois avec lui-même ; pour k = 0,

c’est IdE). Pour tout endomorphisme f de E et tout polynôme P =n∑

k=0

akXk, on définit l’endomorphisme

P (f) =n∑

k=0

akfk. Il vérifie

∀x ∈ E, P (f)(x) =n∑

k=0

akfk(x).

Page 11: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.1. Polynômes 7

Racines d’un polynôme

DéfinitionSoit P ∈ K[X ]. On dit que le scalaire a ∈ K est racine de P si, et seulement si, P (a) = 0.

Attention! Une racine d’un polynôme est un élément du corps K. Ça ne peut pas être un élément d’une K-algèbre quelconque. Par exemple, si f est un endomorphisme de l’espace vectoriel E qui vérifie f3 = 0(application nulle), on ne dit pas que f est une racine du polynôme X3 !

ThéorèmeSoit P ∈ K[X ] et a ∈ K. Alors a est racine de P si, et seulement si, il existe un polynôme Q ∈ K[X ]tel que P = (X − a)Q.

preuve :

la condition est évidemment suffisante (on a alors P (a) = (a− a)Q(a) = 0).

Réciproquement, supposons que a soit racine du polynôme P =n∑

k=0

λkXk : on a

n∑

k=0

λkak = 0. Par suite,

P = P − P (a) =n∑

k=0

λkXk −

n∑

k=0

λkak =

n∑

k=0

λk(Xk − ak)

=n∑

k=0

λk(X − a)( n−1∑

i=0

ak−1−iX i)

= (X − a)n∑

k=0

λk

n−1∑

i=0

ak−1−iX i

︸ ︷︷ ︸Q

.

Exemple 3. Soit θ ∈ R et P = X2 − 2 cos θX + 1. Le complexe ζ = eiθ est racine de P car

P (ζ) = e2iθ − (eiθ + e−iθ)eiθ + 1 = 0

Le polynôme P admet donc une factorisation de la forme P = (X − ζ)(aX + b), où a, b ∈ C. Ledéveloppement fournit

X2 − 2 cos θX + 1 = aX2 + (b− aζ)X − bζ

d’où a = 1 et b = −ζ−1. On a donc la factorisation (qu’il faut connaître : on la rencontre souvent) :

X2 − 2 cos θX + 1 = (X − eiθ)(X − e−iθ) .

CorollaireSoient a1, . . . , an des racines deux à deux distinctes du polynôme P ∈ K[X ]. Alors il existe unpolynôme Q ∈ K[X ] tel que P = (X − a1) · · · (X − an)Q.

preuve :

elle se fait par récurrence sur n. Pour n = 1, c’est le théorème précédent. Soit doncn > 1 ; supposons le résultat vrai au rang n et démontrons-le au rang n+1. Pour cela, soient a1, . . . , an+1

des racines deux à deux distinctes du polynôme P . Alors a1, . . . , an sont des racines deux à deux distinctesdu polynôme P donc, par hypothèse de récurrence, il existe un polynôme Q1 tel que

P = (X − a1) · · · (X − an)Q1.

Considérons ce polynôme Q1. Comme an+1 est aussi racine de P , distincte de a1, . . . , an, on a

(an+1 − a1) · · · (an+1 − an)Q1(an+1) = 0

avec (an+1 − a1) · · · (an+1 − an) 6= 0, donc Q1(an+1) = 0. Par le cas n = 1, il existe un polynôme Q telque Q1 = (X − an+1)Q, d’où

P = (X − a1) · · · (X − an)Q.

CorollaireSoit P un polynôme non nul, n son degré. Alors P admet au plus n racines (distinctes).

Page 12: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

8 Chapitre 18. Polynômes et fractions rationnelles

preuve :

supposons trouvées n+ 1 racines a1, . . . , an+1, deux à deux distinctes, de P . Soit Q unpolynôme de K[X ] tel que P = (X − a1) · · · (X − an+1)Q. En examinant les degrés, on trouve

n = (n+ 1) + degQ

ce qui est impossible.

CorollaireSoit n ∈ N et P ∈ Kn[X ]. Si P admet au moins n+1 racines (deux à deux distinctes), alors P = 0.

preuve :

c’est une conséquence immédiate du corollaire précédent.En particulier, si P et Q sont deux polynômes qui prennent la même valeur en une infinité de points,

alors ils sont égaux. En effet, le polynôme P −Q admet une infinité de racines, donc est le polynôme nul.Reformulé différemment :

ThéorèmeDeux fonctions polynomiales f, g : K −→ K sont égales si, et seulement si, leurs coefficients sontégaux.

preuve :

on rappelle que, dans tout ce chapitre, K est un sous-corps de C ; en particulier, K

contient l’ensemble Q des nombres rationnels, donc est infini.Soient P,Q ∈ K[X ]. Il s’agit de prouver que, si les fonctions polynomiales P̃ et Q̃ sont égales, alors lespolynômes P et Q sont égaux. C’est vrai car alors le polynôme P −Q admet une infinité de racines (tousles éléments de K).

Remarque 1. Ce résultat permet, au besoin, pour alléger les notations, d’identifier polynômes et fonctionspolynomiales.

Polynômes pairs et impairs

DéfinitionSoit P ∈ K[X ]. On dit que P est pair (resp. impair) si, et seulement si, P (−X) = P (resp.P (−X) = −P ).

Attention! pour écrire que P est pair, ne surtout pas écrire ∀X ∈ K, P (−X) = P (X) ! Ici, X désigneune constante de la théorie des polynômes (c’est un polynôme, fixé une fois pour toutes). On ne peutdonc quantifier sur X . En revanche, dire qu’une fonction polynomiale f , définie sur K, est paire, signifie :∀x ∈ K, f(−x) = f(x).

Proposition

Soit P ∈ K[X ]. Alors P est pair (resp. impair) si, et seulement si, la fonction polynomiale P̃ l’est.

preuve :

il est clair que, si P est paire (resp. impaire), P̃ l’est aussi. Réciproquement, supposons P̃pair. Pour tout x ∈ K, on a P̃ (−x)− P̃ (x) = 0, donc le polynôme Q = P (−X)−P s’annule en une infinitéde points, donc est nul, ce qui signifie que P est pair. La preuve est identique pour le cas impair.

On a une autre caractérisation de la parité pour les polynômes, qui diffère du cas des fonctions :

PropositionSoit P ∈ K[X ]. Alors P est pair (resp. impair) si, et seulement si, il existe un polynôme Q ∈ K[X ]tel que P = Q(X2) (resp. P = XQ(X2)).

preuve :

si le polynôme P peut s’écrire sous la forme Q(X2) (resp. XQ(X2)), il est clair qu’il estpair (resp. impair). Réciproquement, supposons P pair. Écrivons-le sous la forme

P =∞∑

n=0

anXn.

Page 13: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.1. Polynômes 9

Alors

P = P (−X) =∞∑

n=0

an(−X)n =∞∑

k=0

(−1)nanXn,

d’où

P =12

(P + P (−X)) =∞∑

n=0

1 + (−1)n

2anX

n =∞∑

n=0

a2nX2n = Q(X2)

en notant Q le polynôme∞∑

n=0

a2nXn.

La démonstration est analogue si P est impair.

Remarque 2. Au cours de la preuve, on a démontré que P est pair si, et seulement si, tous ses coefficients an

sont nuls lorsque n est impair. De même, P est impair si, et seulement si, tous ses coefficients an sontnuls lorsque n est pair.

Algorithme de Hörner

Soit P =n∑

k=0

akXk un polynôme de degré n et x ∈ K. On cherche à calculer la somme

P (x) =n∑

k=0

akxk

en minimisant le nombre d’opérations. Pour cela, la méthode naturelle conduit à effectuer n − 1 mul-tiplications (chaque xk se déduit du précédent par multiplication par x), suivies de n multiplications(multiplier chaque ak par xk) et de n additions. On peut réduire ce nombre en remarquant que

P (x) = a0 + x(a1 + x

(a2 + · · ·+ x(an−1 + xan)

)).

On n’a plus besoin que de n multiplications et n additions.

Exemple 4. Soit P = 1 − iX + (1 + i)X2 −X3 et x = 1 − i. On écrit P = 1 + X(− i + X(1 + i −X)

)

pour obtenir successivement

P (1− i) = 1 + (1− i)(− i + (1− i)

((1 + i)− (1− i)

))

= 1 + (1− i)(− i + (1 − i)2i

)

= 1 + 3− i = 4− i.

Cette méthode se prête particulièrement bien au calcul sur ordinateur. Si les coefficients a0, . . . , an

du polynôme sont donnés sous forme de tableau, le programme Maple suivant convient :Maple

> Horner:=proc(a,n,x)

local S,k;

S := 0;

for k from n to 0 by -1 do

S := a[k] + x*S

od;

S;

end;

(Rappel concernant les listes et les tableaux Maple : il n’y a pas de commande permettant d’obtenir lataille d’un tableau ; il faut passer celle-ci en paramètre. On pourrait utiliser une liste de coefficients aulieu d’un tableau — et obtenir la taille de la liste grâce à la commande nops(a) — mais il faudrait alorsfaire un décalage d’indices : une liste est indexée à partir de l’indice 1 et non 0).

Page 14: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

10 Chapitre 18. Polynômes et fractions rationnelles

18.1.3 Divisibilité

On peut développer, dans l’anneau K[X ], des notions de divisibilité et de factorisation très semblablesà celles qui existent dans l’anneau Z.

DéfinitionSoient P,Q ∈ K[X ]. On dit que P divise Q si, et seulement si, il existe un polynôme R ∈ K[X ] telque Q = PR. On note alors P | Q. On dit encore que P est un diviseur de Q et Q un multiple

de P .

Exemple 1. Le polynôme X − 1 divise le polynôme X2 − 1.

Exemple 2. Le polynôme X − 1 ne divise pas le polynôme X2 + 1 : en effet, s’il existait un polynôme Rtel que X2 + 1 = (X − 1)R, on aurait, en évaluant en 1 : 2 = 0×R(1), ce qui est impossible.

En fait, ce dernier exemple résulte du théorème suivant, déjà énoncé sous une autre forme :

ThéorèmeSoit P ∈ K[X ] et a ∈ K. Alors X − a divise P si, et seulement si, P (a) = 0.

Remarque 1. Les polynômes constants (non nuls) divisent tous les autres. Ce sont les seuls. En effet, si Pest un polynôme non constant, son degré n est strictement positif. Par suite, pour tout polynôme Q nonnul, le degré de PQ est strictement positif, donc PQ ne peut être égal au polynôme constant 1. Ainsi, lepolynôme P ne divise pas le polynôme 1. On a donc démontré le

ThéorèmeLes polynômes inversibles de l’anneau K[X ] sont les polynômes constants (non nuls).

DéfinitionSoient P,Q ∈ K[X ]. On dit que P et Q sont associés si, et seulement si, il existe un scalaire nonnul λ ∈ K∗ tel que P = λQ.

Cette relation signifie que chacun des deux polynômes est égal à l’autre que multiplie un inversible.En termes de divisibilité, on ne pourra pas les distinguer. La situation est analogue à ce qui se passedans Z : les seuls inversibles de Z sont −1 et 1, deux entiers x et y sont associés si, et seulement si, ilssont égaux à un inversible près, i.e. si, et seulement si, ils sont égaux ou opposés. On ne peut alors pasles distinguer en termes de divisibilité uniquement.

Exemple 3. Les polynômes 2X2 +X − 4 et X2 + 12X − 2 sont associés.

Dans Z, parmi tous les éléments associés à n (donc parmi n et −n), il y en a un « meilleur » que lesautres : c’est le seul positif, donc |n|. Pour les polynômes, la situation est identique en le sens suivant :si P est un polynôme, les polynômes qui lui sont associés sont les polynômes λP , λ ∈ K∗. Parmi tousceux-ci, un et un seul est unitaire ; c’est celui qui jouera le rôle du « polynôme meilleur que les autresparmi les associés à P ».

DéfinitionSoit P un polynôme non constant de K[X ]. On dit que P est irréductible si, et seulement si, sesseuls diviseurs sont les polynômes inversibles et les polynômes associés à P .

C’est la notion qui généralise celle de nombre premier : ce sont ceux qui ne sont divisibles que par lesinversibles (±1), par eux-même et leur opposé.

ThéorèmeLes polynômes de degré 1 sont irréductibles.

preuve :

soit P un polynôme de degré 1. S’il existe deux polynômes Q et R tels que P = QR,alors (degQ = 0 et degR = 1) (auquel cas, Q est inversible et R est associé à P ) ou (degQ = 1 etdegR = 0) (auquel cas, R est inversible et Q est associé à P ).

Page 15: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.1. Polynômes 11

Division euclidienneElle se généralise à l’anneau K[X ] ; la condition sur le reste (qui doit vérifier 0 6 r < |b| pour une divisionpar b) étant remplacée par une condition sur le degré.

Théorème (division euclidienne)

Soient A,B ∈ K[X ], B 6= 0. Il existe un unique couple (Q,R) de polynômes tels que

A = BQ+R et degR < degB.

Le polynôme Q est le quotient, le polynôme R le reste de la division euclidienne de A par B.

preuve :

commençons par prouver l’unicité. Pour cela, supposons trouvés deux couples (Q1, R1)et (Q2, R2) répondant au problème. Alors

B(Q1 −Q2) = (A−R1)− (A−R2) = R2 −R1.

Comme les degrés de R1 et R2 sont strictement inférieurs à degB, il est nécessaire que Q1 − Q2 =R1 −R2 = 0, donc que Q2 = Q1 et R2 = R1.Démontrons maintenant l’existence. La preuve, par récurrence sur le degré du polynôme A, sera en outreconstructive (i.e. qu’elle fournira un algorithme permettant de déterminer les polynômes Q et R).– Si A = 0, le couple (Q,R) = (0, 0) convient.– Supposons donc A 6= 0. Notons n le degré de A et d le degré de B.

– si n = 0, le polynôme A est constant. Si d = 0 (le polynôme B est constant lui aussi), alors Q = AB

,polynôme constant, et R = 0, conviennent. Sinon, le couple (Q,R) = (0, A) convient.

– Soit n > 0. Supposons la propriété vraie jusqu’au rang n ; démontrons-la pour un polynôme A dedegré n+1. On peut en outre supposer n+1 > d (sinon, le couple (Q,R) = (0, A) convient). Notons λle coefficient dominant de A et µ le coefficient dominant de B (de sorte que A = λXn+1 + · · · etB = µXd + · · · ). Par construction, le polynôme A1 = A − λ

µXn+1−dB est de degré inférieur ou

égal à n. Par hypothèse de récurrence, il existe un couple (Q1, R1) vérifiant degR1 < degB etA1 = BQ1 +R1. On en déduit

A = B(Q1 + λµXn+1−d) +R1 = BQ+R

en posant Q = Q1 + λµXn+1−d et R = R1.

Exemple 4. Soient a, b, c ∈ C. Pour déterminer le quotient et le reste de la division de

A = X4 + aX2 + bX + c

parB = X2 +X + 1,

on présente les choses de la façon suivante :

X4 + aX2 + bX + c X2 + X + 1

− X3 + (a− 1)X2 + bX + c X2 − X + a

aX2 + bX + c

(b − a+ 1)X + c− ad’où

X4 + aX2 + bX + c = (X2 −X + a)(X2 +X + 1) + (b − a+ 1)X + (c− a)

Le quotient est Q = X2 −X + a, le reste est R = (b− a+ 1)X + (c− a).

PropositionSoient P,Q ∈ K[X ], P 6= 0. Alors P divise Q si, et seulement si, le reste de la division euclidiennede Q par P est nul.

preuve :

si le reste est nul, c’est évident.Réciproquement, supposons que P divise Q ; soit Q1 ∈ K[X ] tel que Q = Q1P . Écrivons la divisioneuclidienne de Q par P : Q = AP + R, où A,R ∈ K[X ], deg(R) < deg(P ). Comme on a l’égalitéQ = Q1P + 0, avec deg(0) < deg(P ), l’unicité de la division euclidienne prouve que A = Q1 et R = 0 : lereste est nul.

Page 16: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

12 Chapitre 18. Polynômes et fractions rationnelles

Exemple 5. Dans l’exemple ci-dessus, le reste est en général non nul. Il est nul si, et seulement si,b−a+1 = c−a = 0, donc le polynôme X2 +X+1 divise X4 +aX2 + bX+ c si, et seulement si, b = a−1et c = a.

Cas particulier : division par X − aSoit a ∈ K et P ∈ K[X ]. Le reste de la division de P par X − a est P (a). En effet, le reste est de degréstrictement inférieur à 1, donc c’est une constante. En évaluant l’égalité P = (X−a)Q+R en a, on trouveP (a) = R(a), donc le reste est égal à la constante R(a). On peut donc calculer ce reste par l’algorithmede Hörner. Il est remarquable que ce même algorithme permette de calculer en même temps le quotient.En effet, soit P = cnX

n + cn−1Xn−1 + · · · + c1X + c0. On cherche à déterminer son quotient dans la

division euclidienne par X − a. Notons Q = bn−1Xn−1 + · · ·+ b0 ce quotient. On a alors

P = cnXn + · · ·+ c1X + c0

= (X − a)(bn−1Xn−1 + · · ·+ b0) + P (a)

= bn−1Xn + (bn−2 − abn−1)Xn−1 + · · ·+ (b0 − ab1)X +

(P (a)− ab0

).

On en déduit que bn−1 = cn et que, pour 0 6 p 6 n− 2, bp = cp+1 + abp+1 (et que P (a) = c0 + ab0). Enprésentant les coefficients sous la forme du tableau suivant :

cn cn−1 c1 c0

0 bn−1 bn−2 b1 b0 P (a)

on a donc la règle de calcul suivante pour déterminer les coefficients bk (encore valable en convenant queb−1 = P (a)) :

cp+1

+

a bp+1 = bp

Comparons avec l’algorithme de Hörner pour le calcul de P (a) : il consiste à écrire

P (a) = c0 + a(c1 + · · ·+ a

(cn−2 + a(cn−1 + a cn︸︷︷︸

bn−1

)

︸ ︷︷ ︸bn−2

)

︸ ︷︷ ︸bn−3

)

︸ ︷︷ ︸P (a)

.

Les valeurs successivement calculées par l’algorithme sont donc les coefficients du quotient Q (la dernièrevaleur étant P (a)).

Exemple 6. Soit à calculer le quotient et le reste (i.e. P (2)) de la division de P = X5 +7X4−3X3 +X−1par X − 2. On a le tableau

1 7 −3 0 1 −1

0 1 9 15 30 61 121

d’où l’égalité

X5 + 7X4 − 3X3 +X − 1 = (X − 2)(X4 + 9X3 + 15X2 + 30X + 61) + 121

(en particulier, P (2) = 121).

Changement de corpsSoit L une extension du corps K (par exemple, K = R et L = C) et A,B deux polynômes de K[X ], B 6= 0.Alors A et B sont aussi deux polynômes de L[X ]. On peut donc écrire deux divisions euclidiennes de Apar B : la division euclidienne de A par B en tant que polynômes de K[X ] (soit A = BQ1 + R1 cettedivision) et la division euclidienne de A par B en tant que polynômes de L[X ] (soit A = BQ2 +R2 cettedivision). Les polynômes B1 et Q1, à coefficients dans K[X ], sont aussi à coefficients dans L[X ]. On adonc deux écritures dans L[X ] :

A = BQ1 +R1 = BQ2 +R2

Page 17: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.1. Polynômes 13

Par unicité de la division euclidienne dans L[X ], on en déduit que Q2 = Q1 et R2 = R1 : la divisioneuclidienne ne change pas, même lorsque l’on change de corps. Par exemple, la division euclidienne dedeux polynômes à coefficients réels est la même que la division de ces deux mêmes polynômes, considéréscette fois-ci à coefficients complexes.

Conséquence non triviale : sous les mêmes hypothèses, le polynômeB divise le polynômeA dans K[X ]si, et seulement si, il le divise dans L[X ]. Une implication est triviale : si B divise A dans K[X ], il ledivise aussi dans L[X ]. Réciproquement, supposons que B divise A dans L[X ]. Soit Q le quotient : c’esta priori un polynôme de L[X ]. En fait, Q est à coefficients dans K, ce qui prouve que B divise aussi Adans l’anneau K[X ]. En effet, la division euclidienne de A par B dans K[X ] est la même que celle de Apar B dans L[X ], donc Q est aussi le quotient de A par B dans K[X ].On peut aussi prouver ce résultat en étudiant l’algorithme de division euclidienne : on ne fait que desadditions, des soustractions, des multiplications et des divisions. Par suite, si tous les coefficients de A etde B sont dans le sous-corps K de L, alors il en est de même des coefficients du quotient et du reste.

Exemple 7. Considérons les deux polynômes A = X2 + 1 et B = X4n + 1 à coefficients réels. On chercheà savoir si le polynôme A divise le polynôme B (dans l’anneau R[X ]), i.e. s’il existe un polynôme Qà coefficients réels tel que B = AQ. Pour cela, voyons ces polynômes comme des polynômes de C[X ] :on peut alors décomposer A sous la forme A = (X + i)(X − i). Donc, dans l’anneau C[X ], le polynômeA divise le polynôme B si, et seulement si, B(i) = B(−i) = 0. On vérifie sans difficulté que c’est vrai.Il existe donc un polynôme Q à coefficients complexes tel que B = AQ. Donc : le reste de la divisioneuclidienne de B par A (dans l’anneau C[X ]) est nul. Grâce à la remarque précédente, on en déduit quele reste de la division euclidienne de B par A dans l’anneau R[X ] est lui aussi nul, donc que le polynômeA divise le polynôme B dans l’anneau R[X ] (autrement dit, le polynôme Q, qui est a priori à coefficientscomplexes, est en fait à coefficients réels).

18.1.4 Dérivée

La dérivée est a priori une opération analytique, qui rend de grands services dans l’étude des fonctions.Elle a son analogue formel, algébrique, utile pour l’étude des polynômes. On rappelle une fois encore que,dans ce chapitre, K désigne un sous-corps de C (donc K contient l’ensemble Q des nombres rationnels).

Définition

Soit P =n∑

k=0

akXk ∈ K[X ]. Le polynôme dérivé de P est

P ′ =n∑

k=0

kakXk−1 =

n−1∑

k=0

(k + 1)ak+1Xk.

La seconde formule a l’avantage de ne pas faire apparaître le terme bizarre X−1, qui n’est pas unpolynôme. En réalité, ce terme étant affecté du coefficient 0 dans la formule de gauche, il ne figure pasdans la somme.

On définit également les dérivées secondes, troisièmes... par

P ′′ = (P ′)′, P ′′′ = (P ′′)′ = (P ′)′′...

En notant P (n) la dérivée nème du polynôme P , il est évident que, pour tous n, q ∈ N, on a

P (n+q) = (P (n))(q) = (P (q))(n)

(en convenant, comme d’habitude, que P (0) = P pour que la formule reste vraie même si n = 0 ou q = 0).

PropositionL’opérateur de dérivation D : K[X ] −→ K[X ]

P 7−→ P ′est linéaire ; son noyau est l’ensemble K0[X ] des

polynômes constants.

preuve :

c’est évident, vu la définition de la dérivation.

Page 18: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

14 Chapitre 18. Polynômes et fractions rationnelles

ThéorèmeSoient P ∈ K[X ] et n ∈ N. Alors P (n) = 0 si, et seulement si, deg(P ) 6 n− 1.

Autrement dit : le noyau de l’application Dn (dérivation nème) est l’ensemble Kn−1[X ] des polynômesde degré inférieur ou égal à n− 1.

preuve :

pour tout polynôme P , on a deg(P ′) 6 deg(P )− 1 (c’est même en général une égalité,sauf si deg(P ) = 0 : alors P ′ = 0 et deg(P ′) = −∞ < deg(p) − 1). Par suite, si P ∈ Kn−1[X ], alorsdeg(P (n)) 6 n− 1− n = −1, donc P (n) = 0.Démontrons la réciproque par récurrence sur n.

– On a vu que c’était vrai pour n = 0 et pour n = 1.– Soit n > 1. Supposons le résultat vrai au rang n. Soit alors P un polynôme tel que P (n+1) = 0 ;

démontrons que P ∈ Kn[X ].On a (P ′)(n) = P (n+1) = 0 donc, par hypothèse de récurrence, P ′ appartient à Kn−1[X ]. Écrivons-le

sous la forme P ′ =n−1∑

k=0

akXk et considérons Q =

n∑

k=1

ak

kXk. On a Q′ = P ′, donc (Q − P )′ = 0,

donc le polynôme Q− P est constant, donc deg(P ) = deg(Q) 6 n.La dérivation formelle des polynômes étant construite pour mimer la dérivation des fonctions polyno-

miales, la proposition suivante est évidente :

Proposition

Soit P ∈ K[X ]. Alors (P̃ )′ = P̃ ′.

Les formules usuelles de dérivation sont encore valables pour les polynômes :

ThéorèmeSoient P,Q ∈ K[X ]. Alors– (PQ)′ = P ′Q+ PQ′.

– Pour tout entier n, (PQ)(n) =n∑

k=0

(n

k

)P (k)Q(n−k) (formule de Leibniz).

– (P (Q))′ = Q′ · P ′(Q).

preuve :

– Par linéarité de la dérivation, il suffit de démontrer le premier point lorsque P et Q sont des monômesunitaires, disons P = Xp et Q = Xq. Alors PQ = Xp+q, d’où

(PQ)′ = (p+ q)Xp+q−1 = pXp−1Xq + qXpXq−1 = P ′Q+ PQ′.

– La formule de Leibniz se démontre par récurrence sur n (c’est formellement la même que pour lesdérivées des fonctions).– Par linéarité, il suffit de supposer que P est un monôme unitaire, disons P = Xn (en revanche, on nepeut pas supposer que Q est un monôme, vous voyez pourquoi ?). On fait une récurrence sur n.

– pour n = 0 et n = 1, c’est évident. Pour n = 2, cela résulte de la première formule :

(Q2)′ = (QQ)′ = Q′Q+QQ′ = 2QQ′.

– Soit donc n > 2. Supposons la formule vraie au rang n, démontrons-la au rang n+1. Par la premièreformule et l’hypothèse de récurrence, on a

(Qn+1)′ = (QQn)′ = Q′Qn +Q(Qn)′ HR= Q′Qn +QnQ′Qn−1 = (n+ 1)Q′Qn

ce qui prouve la relation au rang n+ 1.

Remarque 1. Si K = R, ces relations résultent aussi des relations correspondantes pour les fonctions de R

dans R, que l’on a démontrées, et de l’identification possible entre fonctions polynomiales et polynômes.

Page 19: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.1. Polynômes 15

Formule de Taylor

Théorème (formule de Taylor)

Soit P ∈ K[X ] un polynôme de degré inférieur ou égal à n et a un scalaire. On a :

P =n∑

k=0

P (k)(a)k!

(X − a)k =∑

k>0

P (k)(a)k!

(X − a)k.

preuve :

le polynôme étant de degré inférieur ou égal à n, il vérifie P (k)(a) = 0 pour tout k > n+1,ce qui prouve que la deuxième somme est égale à la première. Démontrons que le polynôme P est égal àla première somme. Par linéarité, il suffit de le faire lorsque P = Xd, où d 6 n. Pour tout entier k 6 n,on a alors P (k) = k!

(dk

)Xd−k (la convention

(nk

)= 0 lorsque k > n fait que les puissances négatives de X

n’apparaissent pas). Par suite, P (k)(a)/k! =(

dk

)ad−k, donc

P = Xd =((X − a) + a

)d=

d∑

k=0

(d

k

)ad−k(X − a)k =

d∑

k=0

P (k)(a)k!

(X − a)k =n∑

k=0

P (k)(a)k!

(X − a)k

En particulier, la formule appliquée avec a = 0 donne

P =n∑

k=0

P (k)(0)k!

Xk,

donc elle relie les coefficients du polynôme à ses dérivées en 0. On peut aussi écrire la formule de Taylor

en substituant X + a à X :

P (X + a) =n∑

k=0

P (k)(a)k!

Xk.

La formule de Taylor est donc plus « simple » pour les polynômes que pour les fonctions polyno-miales : tout d’abord, elle n’est qu’une application de la formule du binôme, ensuite, c’est une formuleexacte, contrairement à la formule de Taylor pour les fonctions, qui fait apparaître un reste.

Cette formule est intéressante car elle permet d’exprimer un polynôme P non plus comme combinaisonlinéaire des Xk, mais comme combinaison linéaire des (X − a)k. Plus précisément, on a le

ThéorèmeSoit a ∈ K. Notons, pour tout entier k, Pk = (X − a)k.– Pour tout entier n, la famille (P0, . . . , Pn) est une base de Kn[X ].– La famille (P0, . . . , Pn, . . . ) est une base de K[X ].

preuve :

– la formule de Taylor prouve que la famille (P0, . . . , Pn) engendre Kn[X ]. Montronsqu’elle est libre. Pour cela, soient λ0, . . . , λn ∈ K tels que λ0P0 + · · ·+ λnPn = 0. On a alors

λ0P0(X + a) + · · ·+ λnPn(X + a) = 0,

soitλ0 + · · ·+ λnX

n = 0,

d’où, par définition des polynômes, λ0 = · · · = λn = 0.– La famille (Pk)k∈N est libre pour la même raison (rappelons qu’une famille infinie de vecteurs est libre si,et seulement si, toute sous-famille finie d’icelle est libre) ; elle est génératrice car tout polynôme P ∈ K[X ]appartient à l’un des Kn[X ], donc est combinaison linéaire de (P0, . . . , Pn).

Cette formule permet de réaliser un changement de base : connaissant les coordonnées d’un poly-nôme P dans la base canonique (1, X, . . . , Xn), elle permet de déterminer ses coordonnées dans la base(1, X − a, . . . , (X − a)n).

Exemple 1. Soit P = 1−X +X2 −X3 +X4. On a successivement

P = 1−X +X2 −X3 +X4 P (1) = 1

P ′ = −1 + 2X − 3X2 + 4X3 P ′(1) = 2

P ′′ = 2− 6X + 12X2 P ′′(1) = 8

P ′′′ = −6 + 24X P ′′′(1) = 18

P (4) = 24 P (4)(1) = 24

Page 20: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

16 Chapitre 18. Polynômes et fractions rationnelles

d’oùP = 1 + 2(X − 1) + 4(X − 1)2 + 3(X − 1)3 + (X − 1)4.

Multiplicité

DéfinitionSoit P ∈ K[X ] un polynôme non nul et a ∈ K un scalaire.La multiplicité (ou l’ordre) de a (en tant que racine de P ) est le plus grand entier ν tel que (X−a)ν

divise P . Si ν = 1, on dit que a est une racine simple ; si ν > 2, on dit que a est une racine multiple.

Remarque 2. Cet entier ν existe bien : c’est le plus grand élément de la partie

A = {n ∈ N | (X − a)n divise P}

non vide (0 ∈ A) et majorée (par deg(P )) de N.

Remarque 3. Dire que a est racine d’ordre 0 signifie donc que a n’est pas racine de P .

Remarque 4. Lorsque la multiplicité est au moins égale à 2, on parle de racine double, triple... Parconvention, dire que a est racine double (ou triple...) signifie que sa multiplicité est au moins égale à 2(ou 3...), et non exactement égale à 2. Si l’on veut parler d’une racine d’ordre 2 exactement, il faut êtreprécis.

Exemple 2. Soit n ∈ N∗ et P = Xn − 1 = (X − 1)(Xn−1 + · · ·+ 1) : 1 est racine simple de P .

Exemple 3. Soit Q = X4 − 2X2 + 1 = (X − 1)2(X + 1)2 : −1 et 1 sont racines doubles (exactement)de Q.

La formule de Taylor permet de caractériser les racines multiples :

ThéorèmeSoient P ∈ K[X ], a ∈ K et p ∈ N.Alors a est racine de multiplicité p exactement de P si, et seulement si, P (a) = · · · = P (p−1)(a) = 0et P (p)(a) 6= 0.

preuve :

la formule de Taylor en a permet d’écrire

P = P (a) + P ′(a)(X − a) + · · ·+ P (p−1)(a)(p− 1)!

(X − a)p−1 + (X − a)pQ

où Q est le polynôme Q = P (p)(a)p! + P (p+1)(a)

(p+1)! (X − a) + · · · , donc vérifie Q(a) = P (p)(a)p! . Elle s’interprète

donc comme la division euclidienne de P par (X−a)p : la partie de gauche est le reste, le polynôme Q estle quotient. Le reste dans la division par (X − a)p+1 s’obtient (toujours grâce à la formule de Taylor)en ajoutant P (p)(a)(X − a)p/p! au précédent.

– Supposons que a est racine d’ordre p exactement du polynôme P . Alors (X − a)p divise P et(X − a)p+1 ne divise pas P , donc le reste dans la division par (X − a)p est nul alors que celui dans ladivision par (X − a)p+1 ne l’est pas, donc on a

P (a) + P ′(a)(X − a) + · · ·+ P (p−1)(a)(p−1)! (X − a)p−1 = 0

P (a) + P ′(a)(X − a) + · · ·+ P (p−1)(a)(p−1)! (X − a)p−1 + P (p)(a)

p! (X − a)p 6= 0

Par suite, les scalaires P (a), P ′(a), . . ., P (p−1)(a) sont tous nuls (car la famille (1, X− a, . . . , (X− a)p−1)est libre), alors que P (p)(a) ne l’est pas.– La réciproque se traite en remontant la chaîne des implications (qui sont en fait des équivalences) : siles scalaires P (a), P ′(a), . . ., P (p−1)(a) sont tous nuls, alors que P (p)(a) ne l’est pas, alors ...

CorollaireSoit P un polynôme non nul. Le scalaire a ∈ K est racine multiple de P si, et seulement si,P (a) = P ′(a) = 0.

Page 21: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.1. Polynômes 17

Attention! la condition P ′(a) = 0 ne suffit pas à elle seule à prouver que a est racine multiple de P ; lacondition P (a) = 0 est elle aussi nécessaire.

Exemple 4. Soit n ∈ N∗ et P = Xn − 1. Alors P ′ = nXn−1, donc P (1) = 0 et P ′(1) 6= 0 : 1 est racinesimple de P .

Exemple 5. Soit Q = X4 − 2X2 + 1. On a

Q′ = 4X3 − 4X et Q′′ = 12X2 − 4,

doncQ(1) = Q′(1) = Q(−1) = Q′(−1) = 0,

maisQ′′(1) 6= 0 et Q′′(−1) 6= 0,

donc −1 et 1 sont racines doubles mais pas triples.

Exemple 6. Le polynôme P = X3 +X+1 n’a aucune racine multiple. En effet, s’il en avait une, disons r,elle vérifierait P (r) = P ′(r) = 0, donc r3 + r+ 1 = 0 et 3r2 = −1. On peut vérifier qu’aucune des racinescarrées de −1/3 ne vérifie l’équation r3 + r + 1 = 0, mais on peut s’épargner ce calcul en en déduisantque r vérifierait donc 3r3 + 3r + 3 = 0 et 3r3 + r = 0 d’où, par différence, 2r + 3 = 0. Comme r = −3/2n’est pas racine de P , il n’admet aucune racine multiple.

CorollaireSoit P un polynôme non nul. Si le scalaire a ∈ K est racine d’ordre p au moins (resp. exactement)de P , alors a est racine d’ordre p− 1 au moins (resp. exactement) de P ′.

preuve :

Supposons a racine d’ordre p au moins de P . Alors

P (a) = · · · = P (p−1)(a) = 0

d’oùP ′(a) = · · · = (P ′)(p−2)(a) = 0

donc a est racine d’ordre p− 1 au moins de P ′. Si a est racine de P d’ordre p exactement, on a en outreP (p)(a) 6= 0, soit (P ′)(p−1)(a) 6= 0, donc a est racine d’ordre p− 1 exactement de P ′.

18.1.5 Décomposition en produit d’irréductibles

ThéorèmeSoit P un polynôme non constant. Ce polynôme admet une décomposition, unique à l’ordre prèsdes facteurs, de la forme

P = λP1 · · ·Pn,

où λ ∈ K∗ (c’est le coefficient dominant de P ) et les Pi sont des polynômes irréductibles unitaire.

preuve :

pour l’existence, elle se fait comme pour les entiers : par récurrence (ici, on récurre nonsur l’entier n que l’on cherche à factoriser, mais sur son degré n).– Pour n = 1 : le polynôme s’écrit sous la forme P = λX + µ = λ(X + µ

λ) (car λ 6= 0), ce qui fournit une

décomposition, car tout polynôme de degré 1 est irréductible.– Soit n > 1. Supposons le résultat vrai pour tout polynôme de degré inférieur ou égal à n et démontrons-lepour un polynôme de degré n+ 1.

– Si ce polynôme est irréductible, de coefficient dominant λ, on peut l’écrire sous la forme P = λ · Pλ

,où P

λest irréductible unitaire.

– Sinon, écrivons P sous la forme P = P1P2, où P1 et P2 sont deux polynômes (non constants)de degrés strictement inférieurs à n + 1. D’après l’hypothèse de récurrence, ceux-ci peuvent sedécomposer sous la forme cherchée, ce qui fournit une décomposition du produit P = P1P2.

Nous admettrons l’unicité de la décomposition, tout comme nous l’avons admise pour la factorisationdes entiers.

Page 22: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18 Chapitre 18. Polynômes et fractions rationnelles

Attention! la notion d’irréductibilité, donc celle de décomposition en facteurs irréductibles, dépend,contrairement à la notion de divisibilité, du corps sur lequel on travaille. Par exemple, le polynômeP = X2 +1 n’est pas irréductible sur C : X2 +1 = (X+i)(X− i), mais il l’est sur R : sinon, il admettraitune factorisation non triviale, dont chacun des deux facteurs serait de degré 1. Par suite, le polynômeX2 + 1 admettrait au moins une racine réelle, ce qui n’est pas.

Exemple 1. La décomposition du polynôme P = X4 − 2X3 + 2X2 − 2X + 1 est

P = (X − 1)2(X2 + 1) sur R

P = (X − 1)2(X + i)(X − i) sur C

Remarque 1. Comme pour les entiers, ce théorème est essentiellement théorique. Pour les entiers, leproblème vient de la limitation des moyens de calcul : factoriser un très grand nombre prend un tempsconsidérable. Pour les polynômes, le problème est plus grave encore : nous verrons que factoriser unpolynôme à coefficients complexes (ou réel) revient à trouver ses racines (complexes) ; or, il n’existe pasde formule permettant de calculer les racines d’un polynôme lorsque celui-ci est de degré supérieur ouégal à 5 (ce qui ne veut pas dire que l’on ne sait factoriser aucun tel polynôme : il n’existe simplementpas de formule générale valable pour tous les polynômes). Il existe cependant une situation dans laquelle« on » (pas vous, mais Maple par exemple...) sait faire : celle des polynômes à coefficients rationnels (doncles facteurs de la décomposition doivent être eux aussi à coefficients rationnels, ce qui limite les facteurspossibles).

Exemple 2. Considérons le polynôme P = X5 + X2 + 1 ∈ Q[X ]. En tant que polynôme à coefficientsrationnels, celui-ci est irréductible (vous pourrez le vérifier avec Maple, qui sait factoriser (sur Q) lespolynômes à coefficients rationnels). Vu en tant que polynôme à coefficients complexes (ou réels), il nel’est pas (le théorème des valeurs intermédiaires prouve que P a au moins une racines réelle, disons a,donc se factorise par X − a). Mais on ne sait pas déterminer sa décomposition sur R (ou C).

18.1.6 Polynômes scindés

DéfinitionUn polynôme P ∈ K[X ] est dit scindé (ou dissocié) si, et seulement si, ses seuls facteurs irréduc-tibles sont de degré 1.

Exemple 1. Les polynômes 2(X−1)(X−2) et (X−1)2(X−3) sont scindés (bien que le facteur (X−1)2,de degré 2, apparaisse dans le deuxième exemple, ce n’est pas un facteur irréductible, mais le produit dedeux facteurs irréductibles égaux).

Exemple 2. Le polynôme (X − 1)(X2 + 1) n’est pas scindé en tant que polynôme à coefficients réels ;en revanche, vu comme polynôme à coefficients complexes, sa décomposition est (X − 1)(X − i)(X + i) :sur C, ce polynôme est scindé.

Ainsi, contrairement à la divisibilité, la notion de scindage dépend essentiellement du corps de base.

Relations entre coefficients et racines des polynômes scindésCommençons par revenir sur le cas des polynômes de degré 2, que nous connaissons déjà.Soit P = aX2 + bX + c un polynôme de degré 2 (donc a 6= 0), que nous supposons scindé. Soient r1 et r2

ses racines (éventuellement confondues). De l’égalité

P = a(X − r1)(X − r2) = a(X2 − (r1 + r2)X + r1r2

)= aX2 − a(r1 + r2)X + ar1r2

on tire les relations suivantes entre les coefficients et les racines de P :

r1 + r2 = − ba

et r1r2 =c

a.

Ces relations se généralisent aux polynômes de degré n de la façon suivante. Considérons n scalairesr1, . . ., rn (éventuellement confondus pour certains). Les fonctions symétriques élémentaires de ces n

Page 23: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.1. Polynômes 19

nombres sont

σ1 = r1 + · · ·+ rn =n∑

k=1

rk

σ2 = (r1r2 + r1r3 + · · ·+ r1rn) + (r2r3 + · · ·+ r2rn) + · · ·+ (rn−1rn) =∑

16i<j6n

rirj

...

σk =∑

16i1<···<ik6n

ri1ri2 · · · rik

...

σn =∑

16i1<···<in6n

ri1ri2 · · · rin= r1r2 · · · rn

Remarque 1. Ces quantités s’appellent fonctions symétriques élémentaires des ri car chacune est invariantepar permutation des rk.

Exemple 3. Pour n = 3, on a

σ1(r1, r2, r3) = r1 + r2 + r3 = σ1(r1, r3, r2) = σ1(r3, r2, r1) = · · ·σ2(r1, r2, r3) = r1r2 + r1r3 + r2r3 = σ2(r1, r3, r2) = σ2(r3, r2, r1) = · · ·σ3(r1, r2, r3) = r1r2r3 = σ3(r1, r3, r2) = σ3(r3, r2, r1) = · · ·

Théorème

Soit P =n∑

k=0

akXk un polynôme scindé de degré n exactement. Soient r1, . . ., rn ses racines

(chacune comptée avec sa multiplicité ; certains des rk peuvent être confondus) et σ1,. . ., σn lesfonctions symétriques élémentaires des rk. Alors

σ1 = −an−1

an

σ2 =an−2

an

· · · σn = (−1)n a0

an

.

preuve :

il suffit d’écrire l’égalité

P = anXn + · · ·+ a1X + a0 = an(X − r1) · · · (X − rn),

de développer le produit et d’identifier les coefficients.

Exemple 4. Si le polynôme P = X3 + aX2 + bX + c est scindé, de racines r1, r2, r3, alors

r1 + r2 + r3 = −a r1r2 + r2r3 + r1r3 = b r1r2r3 = −c

On le vérifie aisément dans le cas du polynôme P = X3 +X2 +X + 1, dont les racines sont −1, i et −i :leur somme est égale à −1, leur produit à −1, et r1r2 + r2r3 + r1r3 vaut 1.

La réciproque de ce théorème est tout aussi vraie :

ThéorèmeSoient r1, . . . , rn ∈ K. Notons σ1,. . ., σn les fonctions symétriques élémentaires des rk. Alors les rk

sont les racines du polynôme P = Xn − σ1Xn−1 + σ2X

n−2 + · · ·+ (−1)nσn.

preuve :

la définition des σk prouve que P = (X−r1) · · · (X−rn) ; ses racines sont donc les rk.

Exemple 5. Considérons le polynôme P = X3 + X + 1, dont nous justifierons dans un instant qu’il estscindé sur C. Notons r1, r2, r3 ses racines complexes (que l’on ne sait pas calculer, ou avec des formulestrop compliquées pour être intéressantes). Nous cherchons le polynôme unitaire de degré 3 dont les racinessont r2

1 , r22 , r

23 . Ce polynôme est

Q = (X − r21)(X − r2

2)(X − r23)

Page 24: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20 Chapitre 18. Polynômes et fractions rationnelles

Pour le déterminer, il suffit de savoir calculer les fonctions symétriques élémentaires τ1, τ2 et τ3 des r2k.

Pour cela, on sait que

σ1 = r1 + r2 + r3 = 0

σ2 = r1r2 + r2r3 + r1r3 = 1

σ3 = r1r2r3 = −1

Orσ2

1 = (r1 + r2 + r3)2 = r21 + r2

2 + r23 + 2(r1r2 + r2r3 + r1r3) = τ1 + 2σ2

donc τ1 = σ21 − 2σ2 = −2. De même, on a

σ22 = (r1r2 + r2r3 + r1r3)2 = r2

1r22 + r2

2r23 + r2

1r23 + 2(r2

1r2r3 + r1r22r3 + r1r2r

23) = τ2 + 2σ1σ3

donc τ2 = σ22 − 2σ1σ3 = 1. Enfin,

σ23 = (r1r2r3)2 = r2

1r22r

23 = τ3

donc τ3 = σ23 = 1. Le polynôme cherché est donc

Q = X3 − τ1X2 + τ2X − τ3 = X3 + 2X2 +X − 1.

Sans avoir calculé aucune racine, on sait que celles de Q sont celles de P élevées au carré.

Le théorème fondamental de l’algèbre

Théorème (de D’Alembert-Gauss)Soit P ∈ C[X ] un polynôme non constant. Alors P a au moins une racine.

La situation est remarquable : le corps C a été inventé pour que l’équation r2 + 1 = 0, qui n’avait pasde racine (dans R), en ait une. Dans ce nouvel ensemble de nombres, toutes les équations algébriques ontau moins une solution. On dit encore que C est algébriquement clos.

preuve :

elle est hors programme. En voici une quand même pour ceux que ça intéresse.Soit P = a0 + a1X + · · · + anXn ∈ C[X], an 6= 0. Notons m = infz∈C |P (z)| (ça existe bien : c’est l’infimum d’unepartie non vide de R+).Par inégalité triangulaire, on a, pour tout z ∈ C :

|P (z)| > |an| · |z|n − |an−1| · |z|n−1 − · · · − |a0| −→|z| → +∞

+∞

Par suite, il existe un réel R > 0 tel que, pour |z| > R, on ait |P (z)| > m + 1. En notant BR = {z ∈ C | |z| 6 R},on en déduit que

m = infz∈C

|P (z)| = infz∈BR

|P (z)|

Le réel m étant la borne inférieure de la fonction z 7→ |P (z)|, il existe une suite (un)n de complexes telle que|P (un)| −→

n → ∞m. Considérons une telle suite. Elle est ultimement à valeurs dans l’ensemble borné BR (car si

un /∈ BR, |P (un)| > m + 1) ; on peut donc en extraire une suite convergente. Soit (vn)n une telle suite et z0 salimite. On a

P (vk) = a0 + a1vk + · · · + anvnk −→

k → ∞a0 + a1z0 + · · · + anzn

0 = P (z0)

Or |P (vk)| −→k → ∞

m donc, par unicité de la limite, m = |P (z0)|. Le réel m est donc mieux que la borne inférieure

de |P | : c’est son minimum. Démontrons par l’absurde que ce minimum est nul.Supposons donc m = |P (z0)| > 0. La formule de Taylor donne, après division par P (z0) :

P (z0 + h)

P (z0)= 1 + b1h + · · · + bnhn

où le dernier coefficient bn est égal à bn = an/P (z0) 6= 0. Soit p le plus petit entier k tel que bk 6= 0 (cet entierexiste car bn 6= 0), de sorte que

P (z0 + h)

P (z0)= 1 + bphp + · · · + bnhn

Notons ω une racine pème de−1

bp

et considérons la fonction de la variable réelle f : t 7→P (z0 + ωt)

P (z0). On a

f(t) = 1 + bp(ωt)p + · · · + bn(ωt)n = 1 − tp + · · · + bnωntn = 1 − tp + o(tp)

En particulier, pour t > 0 proche de 0, on a |f(t)| < 1, i.e. |P (z0 + ωt)| < |P (z0)|, ce qui contredit que|P (z0)| = inf

z∈C

|P (z)|.

Page 25: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.1. Polynômes 21

CorollaireLes polynômes irréductibles de C[X ] sont les polynômes de degré 1.

preuve :

on a déjà vu que les polynômes de degré 1 étaient irréductibles. Réciproquement, soit Pun polynôme irréductible. Soit a ∈ C une racine de P : alors X − a divise le polynôme P . Comme P estirréductible, X−a est associé à P , donc il existe une constante λ ∈ C non nulle telle que P = λ(X−a).

CorollaireSoit P ∈ C[X ] un polynôme non constant, n son degré. Il existe un n-uplet (a1, . . . , an) ∈ Cn etune constante λ ∈ C non nulle telle que P = λ(X − a1) · · · (X − an).

En d’autres termes, tout polynôme non nul P ∈ C[X ] est scindé.

preuve :

si n = 1, c’est évident. Ensuite, on procède par récurrence immédiate sur n.

Remarque 2. Savoir qu’un polynôme est scindé est une chose ; déterminer sa décomposition en est uneautre...

Exemple 6. Soit n ∈ N∗ et P = Xn−1. Notons ζ = e2iπn . Les complexes ζ0 = 1, ζ, . . . , ζn−1 sont n racines

deux à deux distinctes de P , donc le polynôme Q = (X − 1)(X − ζ) · · · (X − ζn−1) divise P . Comme cesdeux polynômes ont même degré (n), ils sont associés. Enfin, ils ont même coefficient dominant (1), doncils sont égaux. Ainsi

Xn − 1 = (X − 1)(X − ζ) · · · (X − ζn−1) =n−1∏

k=0

(X − e2ikπ

n ).

En particulier, la relation entre racines et coefficients d’un polynôme prouve que la somme des ra-cines nèmes de l’unité est nulle (on le savait déjà : c’est une somme géométrique facile à calculer), etque leur produit vaut

1 · ζ · · · ζn−1 = (−1)n+1.

Ce produit peut aussi se retrouver assez simplement en écrivant

1 · ζ · · · ζn−1 = ζ0+1+···+(n−1) = ζn(n−1)

2 = e2iπn×n(n−1)

2 = e(n−1)iπ = (−1)n−1.

Évidemment, cette décomposition n’est pas la décomposition sur R (sauf si n = 1 ou n = 2) car lesracines ne sont pas toutes réelles.

CorollaireLes polynômes irréductibles de R[X ] sont les polynômes de degré 1 et les polynômes de degré 2 dediscriminant strictement négatif.

preuve :

on sait que les polynômes de degré 1 sont irréductibles. Les polynômes de degré 2 dediscriminant strictement négatif le sont aussi : en effet, si un tel polynôme P n’est pas irréductible, sadécomposition fait apparaître deux facteurs de degré 1 à coefficients réels, donc P a deux racines réelles,ce qui n’est pas. Démontrons que ce sont les seuls.Soit donc P = a0 + a1X + · · · + anX

n un polynôme irréductible de R[X ] et supposons deg(P ) > 1. Lepolynôme P , à coefficients réels, peut être vu comme polynôme à coefficients complexes, donc admet aumoins une racine complexe, disons z0. Cette racine ne peut être réelle (sinon, P serait divisible par lepolynôme réel X − z0, ce qui est impossible car il est irréductible de degré strictement supérieur à 1). Del’égalité

P (z0) = a0 + a1z0 + · · ·+ anzn0 = 0,

on tire

0 = P (z0)

= a0 + a1z0 + · · ·+ anzn0

= a0 + a1z0 + · · ·+ anz0n = P (z0)

Page 26: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

22 Chapitre 18. Polynômes et fractions rationnelles

car tous les ak sont réels. On a donc une autre racine du polynôme P : z0, distincte de z0 car z0 /∈ R.Par suite, le polynôme

Q = (X − z0)(X − z0) = X2 − 2ℜe(z0)X + |z0|2

divise P . Ce polynôme Q étant à coefficients réels, on a trouvé un diviseur Q de degré 2 de P dans R[X ].Comme P est irréductible, P et Q sont associés, donc il existe une constante λ ∈ R∗ telle que

P = λ(X2 − 2ℜe(z0)X + |z0|2).

Le polynôme P est donc de degré 2, et son discriminant est strictement négatif car il n’a aucune racineréelle.

CorollaireSoit P ∈ R[X ] un polynôme non nul. Alors il existe des réels a1, . . . , an, des réels b1, . . . , bp, c1, . . . , cp

et un réel non nul λ tels que

P = λ(X − a1) · · · (X − an)(X2 + b1X + c1) · · · (X2 + bpX + cp)

et, pour 1 6 k 6 p, b2k − 4ck < 0.

Remarque 3. Les réels ak, bk et ck n’ont aucune raison d’être distincts.

Exemple 7. Déterminons, pour n > 1, la décomposition sur R du polynôme P = Xn − 1. Pour l’obtenir,il suffit de regrouper les termes conjugués dans la décomposition

Xn − 1 = (X − 1)(X − ζ) · · · (X − ζn−1),

où ζ = e2iπn . La racine conjuguée de ζk est ζ−k = ζn−k. Il faut distinguer deux cas, selon la parité de n.

– Si n est pair : posons p = n/2. Alors ζp = eiπ = −1 est racine, et la racine conjuguée de ζp−k est ζp+k,d’où

Xn − 1 = (X − 1)(X − ζ) · · · (X − ζp−1)(X − ζp)(X − ζp+1) · · · (X − ζ2p−1)

= (X − 1)(X + 1)(X2 − 2 cos(2πn

)X + 1) · · · (X2 − 2 cos(2(p−1)π

n)X + 1)

= (X − 1)(X + 1)(X2 − 2 cos(2πn

)X + 1) · · · (X2 − 2 cos( (n−2)π

n)X + 1).

– Si n est impair, posons p = (n− 1)/2, de sorte que n = 2p+ 1. Alors la racine conjuguée de ζp−k estζp+1−k, d’où

Xn − 1 = (X − 1)(X − ζ) · · · (X − ζp)(X − ζp+1) · · · (X − ζ2p)

= (X − 1)(X2 − 2 cos(2πn

)X + 1) · · · (X2 − 2 cos(2pπn

)X + 1)

= (X − 1)(X2 − 2 cos(2πn

)X + 1) · · · (X2 − 2 cos( (n−1)π

n)X + 1).

En particulier, on a les décompositions suivantes sur R :

X3 − 1 = (X − 1)(X2 +X + 1)

X4 − 1 = (X − 1)(X + 1)(X2 + 1)

X5 − 1 = (X − 1)(X2 − 2 cos(2π

5 )X + 1)(X2 − 2 cos(4π

5 )X + 1).

18.2 Fractions rationnelles

Le contenu de ce paragraphe n’est pas à votre programme. Il est cependant important de donnerquelques notions sur les fractions rationnelles, ne serait-ce que parce que vous les décomposez en élémentssimples en sciences de l’ingénieur !Nous nous limiterons à examiner des cas particuliers, sans rentrer dans la généralité de la théorie.

Page 27: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.2. Fractions rationnelles 23

18.2.1 Définitions

De même que pour l’anneau Z, qui n’est pas un corps, on peut trouver un corps, Q, contenant Z, telque les éléments de Q s’écrivent sous la forme p

q, p ∈ Z, q ∈ Z∗, nous admettrons qu’il existe un corps,

noté K(X), contenant K[X ], tel que les éléments de K(X) s’écrivent sous la forme PQ

, P,Q ∈ K[X ], Q 6= 0.Cet ensemble K(X) est appelé corps des fractions rationnelles à coefficients dans K.

De même qu’il y a plusieurs écritures sous la forme pq

pour un même rationnel (par exemple, 23 =

46 = 6

9 . . . ), il y a plusieurs écritures possibles sous la forme PQ

pour une même fraction rationnelle. Plusprécisément :

Proposition

Les fractions rationnelles P1

Q1et P2

Q2sont égales si, et seulement si, P1Q2 = P2Q1.

Représentant irréductibleOn dit que P

Qest un représentant irréductible de la fraction rationnelle si, et seulement si, les polynômes P

et Q sont premiers entre eux (i.e. si, et seulement si, leurs seuls diviseurs communs sont les polynômesinversibles : les constantes non nulles). Chaque fraction rationnelle admet un représentant irréductible (ilsuffit de diviser, tant qu’il en existe, numérateur et dénominateur des diviseurs communs non constants).Des résultats d’arithmétique élémentaire des polynômes (que nous n’avons malheureusement pas étu-diée...) montrent que, si P1

Q1et P2

Q2sont deux représentants irréductibles de la même fraction, alors il

existe un scalaire λ 6= 0 tel que Q2 = λQ1 et P2 = λP1. Par suite, toute fraction rationnelle admet ununique représentant irréductible dont le dénominateur Q est unitaire.

Somme et produitSoient F1 = P1

Q1et F2 = P2

Q2deux fractions rationnelles. On définit la somme et le produit de F1 par F2

de la façon suivante (comme pour les nombres rationnels) :

F1 + F2 =P1Q2 + P2Q1

Q1Q2et F1F2 =

P1P2

Q1Q2

(on vérifie que le résultat ne dépend pas du choix des représentants P1

Q1et P2

Q2des fractions F1 et F2).

Degré, zéros et pôlesSoit F une fraction rationnelle non nulle, P1

Q1et P2

Q2deux représentants de F . On a alors P1Q2 = P2Q1,

donc deg(P1) + deg(Q2) = deg(P2) + deg(Q1), soit encore deg(P1)− deg(Q1) = deg(P2)− deg(Q2).

DéfinitionLe degré d’une fraction rationnelle F est deg(F ) = deg(P ) − deg(Q), où P

Qest un représentant

quelconque de F (ne dépend pas du choix d’un tel représentant). En particulier, on a deg(0) = −∞.

Exemple 1. Le degré de la fraction rationnelle X2

X3+1 est −1.

Si P est un polynôme, son degré en tant que fraction rationnelle est donc égal à son degré en tantque polynôme (le dénominateur est égal à 1, de degré 0). Le degré vérifie les mêmes propriétés que pourles polynômes :

ThéorèmeSoient F1, F2 deux fractions rationnelles. Alors– deg(F1 + F2) 6 max

(deg(F1), deg(F2)

), avec égalité si deg(F1) 6= deg(F2).

– deg(F1F2) = deg(F1) + deg(F2).

preuve :

écrivons F1 et F2 sous la forme F1 = P1

Q1et F2 = P2

Q2. Quitte à réduire au même

dénominateur, on peut supposer que Q1 = Q2(= Q). On a alors

F1 + F2 =P1 + P2

Q,

Page 28: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

24 Chapitre 18. Polynômes et fractions rationnelles

d’où :

deg(F1 + F2) = deg(P1 + P2)− deg(Q)

6 max(

deg(P1), deg(P2))− deg(Q)

= max(

deg(P1)− deg(Q), deg(P2)− deg(Q))

= max(

deg(F1), deg(F2))

De plus, si deg(F1) 6= deg(F2), alors deg(P1) 6= deg(P2), donc deg(P1 + P2) = max(

deg(P1), deg(P2)),

d’où deg(F1 + F2) = max(

deg(F1), deg(F2)).

La seconde formule est évidente.

DéfinitionSoit F une fraction rationnelle non nulle, de représentant irréductible P

Q.

On dit que le scalaire a ∈ K est racine (resp. pôle) de F si, et seulement si, a est racine de P (resp.de Q). Le cas échéant, la multiplicité de a en tant que racine (resp. pôle) de F est sa multiplicitéen tant que racine de P (resp. Q).

Exemple 2. Soit F =X5 + 2X4 +X3 −X2 − 2X − 1

X4 −X3 +X − 1. Commençons par la mettre sous forme irréduc-

tible :

F =(X − 1)(X + 1)2(X2 +X + 1)(X − 1)(X + 1)(X2 −X + 1)

=(X + 1)(X2 +X + 1)

(X2 −X + 1)

Sur R, on a une racine simple (−1) et aucun pôle. Sur C, on a trois racines simples et deux pôles simples.

Exemple 3. Sur R comme sur C, la fraction rationnelle G =1

(X − 2)2n’admet aucune racine et un pôle

double.

Remarque 1. Comme on le voit sur le premier exemple, le nombre de racines (resp. de pôles) dépend ducorps de base. En revanche, si a est une racine (resp. un pôle) appartenant au corps K ⊂ L, c’est aussiune racine (resp. un pôle) sur le corps L, et sa multiplicité sur L est la même que sa multiplicité sur K.

Fonction rationnelleSoit F une fonction rationnelle de représentant irréductible P

Qet A l’ensemble des pôles de F (i.e.

l’ensemble des zéros de Q).

DéfinitionLa fonction rationnelle associée à F est la fonction F̃ : K \A −→ K

x 7−→ P (x)Q(x)

.

Comme pour les polynômes, une fonction rationnelle provient d’une unique fraction rationnelle (pourla même raison : si, pour une infinité de valeurs de x, on a P1(x)

Q1(x) = P2(x)Q2(x) , alors le polynôme P1Q2−P2Q1

s’annule en une infinité de points, donc est nul, donc P1

Q1= P2

Q2).

18.2.2 Décomposition en éléments simples

Soit F = PQ

une fraction rationnelle. Nous cherchons à l’exprimer comme somme de fractions ration-nelles « simples ». Commençons par remarquer que, si la fraction F est de degré positif ou nul (i.e. sidegP > degQ), on peut écrire la division euclidienne de P par Q : P = AQ + R, avec degR < degQ.La fraction F s’écrit alors sous la forme

F =P

Q=AQ+R

Q= A+

R

Q,

où A est un polynôme et RQ

une fraction rationnelle de degré strictement négatif. Nous nous contenteronsdonc de décomposer les fractions rationnelles de degré strictement négatif. En fait, nous nous limiteronsmême au cas où le dénominateur Q de la fraction s’écrit sous la forme Q = (X − a1) · · · (X − ar), les ak

étant deux à deux distincts.

Page 29: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.2. Fractions rationnelles 25

ThéorèmeSoit F = P

(X−a1)···(X−ar) une fraction rationnelle, avec a1, . . . , ar ∈ K, deux à deux distincts, etdeg(P ) < r. Il existe une unique famille (λ1, . . . , λr) d’éléments de K telle que

F =λ1

X − a1+ · · ·+ λr

X − ar

.

preuve :

notons, pour k ∈ [[1, r]], Nk le polynôme

Nk =∏

i6=k

(X − ai) =(X − a1) · · · (X − ar)

X − ak

,

de façon à avoir, pour k ∈ [[1, r]], l’égalité

(X − a1) · · · (X − ar) = (X − ak)Nk.

– Unicité : si une telle famille existe, on trouve, en multipliant par (X − a1) · · · (X − ar), la relation

P = λ1N1 + · · ·+ λrNr

(égalité vérifiée entre polynômes). Par construction, chacun des polynômes Nk vérifie Nk(ak) 6= 0 etNk(ai) = 0 pour i 6= k. Évaluons l’égalité précédente en ak : on trouve P (ak) = λkNk(ak), d’où

λk =P (ak)N(ak)

,

ce qui prouve l’unicité.– Existence : posons, pour k ∈ [[1, n]], λk = P (ak)

N(ak) et vérifions que l’on a

P

(X − a1) · · · (X − ar)=

λ1

X − a1+ · · ·+ λr

X − ar

où, ce qui revient au même,P = λ1N1 + · · ·+ λrNr.

Pour cela, il suffit de vérifier que le polynôme P − (λ1N1 + · · · + λrNr) est nul. Or, par construction,celui-ci est de degré strictement inférieur à r, et s’annule en les r racines a1, . . ., ar deux à deux distinctes,donc c’est le polynôme nul.

Remarque 1. En pratique, la méthode utilisée pour calculer les coefficients λk est celle utilisée dans ladémonstration. La méthode « naïve » consistant à réduire la somme

λ1

X − a1+ · · ·+ λr

X − ar

au même dénominateur puis à identifier les coefficients marche aussi, mais elle est beaucoup plus lourde,car elle conduit à résoudre un système linéaire pour déterminer les λk plutôt que de les calculer directe-ment.

Exemple 1. Cherchons à décomposer la fraction rationnelle F = 4X+6(X+1)(X+2)(X+3) , qui est bien de degré

strictement négatif. On sait que sa décomposition est de la forme

F =a

X + 1+

b

X + 2+

c

X + 3.

Pour déterminer le coefficient a, on multiplie l’égalité par X + 1, pour obtenir

4X + 6(X + 2)(X + 3)

= a+b(X + 1)X + 2

+c(X + 1)X + 3

.

Le nombre −1 n’étant plus pôle de cette fraction rationnelle, on peut remplacer X par −1, pour obtenirdirectement a = 1.

Page 30: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

26 Chapitre 18. Polynômes et fractions rationnelles

De même, on détermine b (resp. c) en multipliant l’égalité par X + 2 (resp. X + 3) et en évaluant en −2(resp. en −3). On trouve directement b = 2 et c = −3, d’où l’égalité

4X + 6(X + 1)(X + 2)(X + 3)

=1

X + 1+

2X + 2

− 3X + 3

.

Comparons avec la méthode d’identification des coefficients. On commence par réduire aX+1 + b

X+2 + cX+3

sous la forme

a

X + 1+

b

X + 2+

c

X + 3=a(X + 2)(X + 3) + b(X + 1)(X + 3) + c(X + 1)(X + 2)

(X + 1)(X + 2)(X + 3)

=(a+ b+ c)X2 + (5a+ 4b+ 3c)X + (6a+ 3b+ 2c)

X(X − 1)(X + 1).

Il faut alors résoudre le système a + b + c = 0

5a + 3b + 2c = 46a + 3b + 2c = 6

,

ce qui est beaucoup moins facile.

ApplicationCalculons, pour tout entier n ∈ N, la somme

Sn =n∑

k=0

4k + 6(k + 1)(k + 2)(k + 3)

.

Pour tout entier k > 0, on peut donc écrire

4k + 6(k + 1)(k + 2)(k + 3)

=1

k + 1+

2k + 2

− 3k + 3

,

d’où

Sn =n∑

k=0

1k + 1

+ 2n∑

k=0

1k + 2

− 3n∑

k=0

1k + 3

=n∑

k=0

1k + 1

+ 2n+1∑

k=1

1k + 1

− 3n+2∑

k=2

1k + 1

=11

+12

+ 2(

12

+1

n+ 2

)− 3

(1

n+ 2+

1n+ 3

)

=12· 5n2 + 17n+ 12

(n+ 2)(n+ 3).

Remarque 2. Dans le cas où le degré de la fraction rationnelle est positif, la décomposition cherchée estde la forme

P

(X − a1) · · · (X − ar)= A+

λ1

X − a1+ · · ·+ λr

X − ar

,

où A est un polynôme (plus précisément, le polynôme A est le quotient dans la division euclidienne de Ppar (X − a1) · · · (X − ar). On dit que A est la partie entière de la fraction rationnelle). La méthodeexposée ci-dessus permet encore de trouver les coefficients λk.

Exemple 2. Cherchons à décomposer la fraction rationnelle F = X3+2(X+1)(X+2) . La décomposition cherchée

est sous la formeX3 + 2

(X + 1)(X + 2)= A+

a

X + 1+

b

X + 2.

Le coefficient a (resp. b) s’obtient en multipliant par X+1 (resp. X+2) puis en évaluant en −1 (resp. −2) ;le polynôme A est le quotient de la division euclidienne de X3 +2 par X2 +3X+2. On trouve directement

X3 + 2(X + 1)(X + 2)

= X − 3 +1

X + 1+

6X + 2

.

Attention! cette méthode ne marche que lorsque la fraction F n’a que des pôles simples, ce qui noussuffira dans la pratique. Lorsqu’il y a des pôles multiples, la décomposition existe encore, mais elle est unpeu plus compliquée.

Page 31: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.2. Fractions rationnelles 27

18.2.3 Calcul de primitives

Comme on l’a dit, un des intérêts essentiels de cette décomposition est de calculer des primitives.Si F est une fraction rationnelle n’admettant que des pôles simples, on sait, grâce à une décompositionen éléments simples, déterminer une primitives de la fonction rationnelle f : t 7→ F (t) (définie sur R privédes pôles de F ) : en effet, on sait calculer les primitives des polynômes et des fonctions t 7→ 1

t−a, a ∈ C.

Attention toutefois au cas où a n’est pas réel : une primitive de t 7→ 1t−a

n’est pas t 7→ ln(t − a) pourla bonne raison que l’on n’a pas défini le logarithme d’un nombre complexe (la formule t 7→ ln |t − a|(module) ne marche pas (exactement) non plus. Revoyez votre feuille de primitives.).

Les changements de variables permettent aussi de ramener des calculs de primitives d’autres fonctionsà des primitives de fonctions rationnelles.

Fractions rationnelles en eαx, α ∈ R∗

Le calcul d’une telle primitive se ramène, via le changement de variable t = eαx (i.e. x = 1α

ln t) au calculd’une primitive d’une fraction rationnelle.

Exemple 1. Déterminons la primitive∫

e3x + 1e2x + 4

dx. Le changement de variable t = ex (c’est-à-dire

x = ln t) donne dx = dtt

, d’où

∫e3x + 1e2x + 4

dx =∫

t3 + 1t(t2 + 4)

dt =∫

t3 + 1t(t+ 2i)(t− 2i)

dt.

Pour calculer cette primitive, on décompose la fraction rationnelle F = X3+1X(X+2i)(X−2i) en éléments simples.

Cette fraction n’étant pas de degré négatif, il y a une partie polynomiale, qui est le quotient de la divisioneuclidienne de X3 +1 par X3 +4X : c’est le polynôme 1. On cherche donc la décomposition sous la forme

F = 1 +a

X+

b

X + 2i+

c

X − 2i.

Le calcul donne

F = 1 +18

[2X− 1− 8iX − 2i

− 1 + 8iX + 2i

].

Mais comme il est peu commode de calculer des primitives des fonctions t 7→ 1t−a

pour a ∈ C, on regroupeles termes conjugués pour obtenir :

1− 8iX − 2i

+1 + 8iX + 2i

=2X + 32X2 + 4

.

Pour tout réel t 6= 0, on a donct3 + 1t(t2 + 4)

= 1 +14

[1t− t+ 16t2 + 4

],

d’où le calcul∫

e3x + 1ex + 4

dx =∫

t3 + 1t(t2 + 4)

dt

=∫

1 dt+14

∫dtt− 1

8

∫2t dtt2 + 4

− 4∫

dtt2 + 4

= t+14

ln |t| − 18

ln(t2 + 4)− 2 Arctg( t

2

)

= ex +14x− 1

8ln(e2x + 4)− 2 Arctg

(ex

2

).

Fonctions rationnelles en sinx et cosxLe changement de variable t = tg x

2 (i.e. x = 2 Arctg t+2kπ, k dépendant de l’intervalle sur lequel on tra-vaille) ramène le calcul d’une telle primitive à celui d’une fonction rationnelle en t, ce que, théoriquement,on sait faire par décomposition en éléments simples.

Page 32: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

28 Chapitre 18. Polynômes et fractions rationnelles

Exemple 2. Soit à calculer la primitive∫

dx2 + cosx

. On veut poser t = tg x2 , donc on pose en fait

x = 2 Arctg t. Du moins si x ∈]− π, π[, ce que nous supposerons pour l’instant. On a alors t = tg x2 , d’où

cosx = 1−t2

1+t2 et dx = 2 dt1+t2 . On obtient donc

∫dx

2 + cosx=∫ 2 dt

1+t2

2 + 1−t2

1+t2

=∫

2 dt3 + t2

=2√3

Arctgt√3

=2√

33

Arctg(

tg x2√3

).

Le résultat n’est a priori valable que sur l’intervalle ] − π, π[ à cause du changement de variable quel’on a fait. Est-il valable sur R ? Comme la fonction « tg » n’est pas définie sur R, ce n’est pas possible.Peut-être le résultat obtenu se prolonge-t-il par continuité en une formule vraie pour tout x ? Non plus :la fonction x 7→ 2

√3

3 Arctg(

tg x2√3

)admet au point x = π une limite à gauche et une limite à droite qui

sont opposées (calculez-les !), donc cette fonction, définie en tout point x 6≡ π [2π], ne peut se prolongeren une fonction continue sur R !C’était d’ailleurs prévisible : la fonction dont on cherche une primitive est 2π-périodique, de valeurmoyenne non nulle ; aucune de ses primitives ne peut donc être périodique. Or, la formule trouvée est2π-périodique ; ce ne saurait donc être une primitive de la fonction de départ sur R entier.Alors, comment trouver une formule valable sur les autres intervalles ? Sur l’intervalle ]−π+2kπ, π+2kπ[,k ∈ Z, on fait le changement de variable x = 2kπ + 2 Arctg t au lieu de x = 2 Arctg t. On obtient alorst = tg x

2 , et tout les calculs se déroulent comme auparavant, pour conduire au même résultat !Explication du mystère : la formule trouvée est valable sur chaque intervalle de la forme ]−π+ 2kπ, π+2kπ[, mais pas sur la réunion de tels intervalles. Ainsi par exemple, si l’on note F la primitive quis’annule en 0, on sait qu’il existe deux constantes, c1 et c2, telles que

∀x ∈]− π, π[, F (x) = 2

√3

3 Arctg(

tg x2√3

)+ c1

∀x ∈]π, 3π[ , F (x) = 2√

33 Arctg

(tg x

2√3

)+ c2

.

On identifie la constante c1 en écrivant que F (0) = 0, ce qui donne c1 = 0. Puis on identifie c2 en écrivantque la fonction F est continue ; en particulier en x = π, donc ses limites à gauche et à droite sont égales.Ces limites sont respectivement égales à π

√3

3 et −π√

33 + c2, d’où c2 = 2π

√3

3 .

Ce changement de variables en tg x2 , qui conduit toujours au calcul d’une primitive de fraction ration-

nelle, amène souvent à manipuler de polynômes de grand degré au numérateur comme au dénominateur.Il existe, dans certains cas particuliers, des changements de variables qui, s’ils ramènent eux aussi à descalculs de primitives de fonctions rationnelles, donnent des fonctions plus simples.

Règles de BiocheSoit à calculer la primitive

∫F (cosx, sin x) dx, où F est une fraction rationnelle à deux variables. Appelons

ω(x) = F (cos x, sinx) dx

l’élément différentiel de cette primitive. Les règles de Bioche conduisent à faire les changements devariables suivants :

– u = cosx si ω(−x) = ω(x) (i.e. si ω est invariant par transformation de x en −x, tout comme l’estla fonction cosinus).

– u = sinx si ω(π − x) = ω(x) (i.e. si ω est invariant par transformation de x en π − x, tout commel’est la fonction sinus).

– u = tg x si ω(π + x) = ω(x) (i.e. si ω est invariant par transformation de x en π + x, tout commel’est la fonction tangente).

Exemple 3. Calculons la primitive∫

sin3 x

3 + sin2 xdx grâce aux règles de Bioche.

L’élément différentiel ω(x) = sin3 x3+sin2 x

dx étant invariant par changement de x en −x, on est conduit àfaire le changement de variable t = cosx. Pour cela, travaillons sur l’intervalle ]0, π[ par exemple, ce quipermet de faire le changement de variable défini par x = Arcos t, pour lequel on a bien t = cosx. On aalors dt = − sinxdx, d’où

∫sin3 x

3 + sin2 xdx = −

∫sin2 x · sin xdx

3 + sin2 x=∫t2 − 14− t2 dt.

Page 33: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

18.2. Fractions rationnelles 29

La fraction rationnelle F = X2−14−X2 a une partie entière égale à −1 (quotient de X2 − 1 par −X2 + 4), un

pôle simple en −2 et un autre en 2. On cherche sa décomposition sous la forme

X2 − 14−X2

= −1 +a

X − 2+

b

X + 2;

le calcul donne

F = −1 +34

[1

X + 2− 1X − 2

],

∫sin3 x

3 + sin2 xdx = −

∫1 dt+

34

∫dt

t+ 2− 3

4

∫dt

t− 2= −t+

34

ln

∣∣∣∣t+ 2t− 2

∣∣∣∣ = − cosx+34

ln(

cosx+ 22− cosx

).

La primitive ainsi trouvée n’est a priori valable que sur l’intervalle ]0, π[. Cependant, la fonction F ainsidéterminée est dérivable en tout point ; on sait que, pour tout réel x ∈]0, π[, on a

F ′(x) =sin3 x

3 + sin2 x.

Le calcul de la dérivée F ′(x) ne dépendant pas du fait que x soit ou non compris entre 0 et π, on aégalement F ′(x) = sin3 x

3+sin2 xpour tout réel x, c’est-à-dire que la formule trouvée est valable sur R et non

seulement sur ]0, π[.

Remarque 1. Pour apprécier pleinement l’utilisation des règles de Bioche, essayez de calculer cetteprimitive avec le changement de variable t = tg x

2 ...

Page 34: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

30 Chapitre 18. Polynômes et fractions rationnelles

Page 35: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

Chapitre 19Espaces vectoriels de dimension finie

Nous avons déjà vu que, pour déterminer une application linéaire de E dans F , il suffisait de choisirl’image de chacun des vecteurs d’une base de E. Si E admet une base finie, on se ramène donc à travailleravec un nombre fini de vecteurs (au lieu de l’infinité qui compose l’espace vectoriel). Le résultat essentielde ce chapitre est que, si E admet une base finie, alors toutes les bases de E sont finies et elles ont toutesle même nombre d’éléments. Ceci nous permettra de déduire des théorèmes similaires à ceux existantpour les applications entre ensembles finis de même cardinal.Dans tout ce chapitre, K désigne un sous-corps de C (en général R ou C).

19.1 Dimension

19.1.1 Espaces de dimension finie

Convention : la famille vide est libre ; elle engendre le sous-espace nul {0E} de E. En particulier, si Eest un K-espace vectoriel nul, alors ∅ en est une base (c’est même la seule base de E ; elle n’a aucunélément).

DéfinitionSoit E un K-espace vectoriel. On dit que E est de dimension finie si, et seulement si, il admet unefamille génératrice finie. Sinon, il est dit de dimension infinie.

Exemple 1. Dans R2, la famille (e1, e2), où e1 = (1, 0) et e2 = (0, 1), engendre R2, qui est donc dedimension finie.

Exemple 2. De façon plus générale, la base canonique de Kn en est une famille génératrice finie, donc Kn

est de dimension finie.

Exemple 3. L’espace Kn[X ] est de dimension finie : engendré par la famille (1, X, · · · , Xn).

Exemple 4. En revanche, K[X ] n’est pas de dimension finie : en effet, soit (P0, . . . , Pn) une famille finiede K[X ] et soit d le plus grand des degrés des Pk. Alors Vect(P0, . . . , Pn) ⊂ Kd[X ] 6= K[X ], ce qui prouveque K[X ] ne peut être engendré par une famille finie.

PropositionSoit E un K–espace vectoriel de dimension finie et (ei)i∈I une famille finie qui engendre E. Alorsil existe une famille extraite (ei)i∈J qui est une base de E.

preuve :

si la famille n’est pas libre, l’un au moins des vecteurs est combinaison linéaire des autres ;on peut donc le supprimer pour obtenir une nouvelle famille génératrice, de cardinal inférieur d’une unité.Si la famille n’est toujours pas libre, on recommence. En vertu du principe de descente infinie, ce processusdoit s’arrêter (sinon, on construirait une suite de familles génératrices dont le cardinal (entier positif)décroîtrait strictement). Lorsque le processus s’arrête, c’est que l’on a retiré suffisamment de vecteurspour former une famille libre, i.e. une base.

31

Page 36: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

32 Chapitre 19. Espaces vectoriels de dimension finie

CorollaireTout espace de dimension finie admet au moins une base finie.

Pour prouver ceci, on a travaillé « par le haut » : à partir d’une famille génératrice finie, on a retiré desvecteurs, jusqu’à tomber sur une famille libre. On peut aussi travailler en partant « du bas » : construireune base en adjoignant des vecteurs à une famille libre. Plus précisément, on a le

Théorème (de la base incomplète)Soit L = (e1, . . . , en) une famille libre de E et G une famille génératrice finie. Alors il existe desvecteurs f1, . . . , fp de G tels que la famille B = (e1, . . . , en, f1, . . . , fp) soit une base de E.

On adopte ici la convention que, si p = 0, on ne rajoute aucun vecteur à la famille L : c’est déjà unebase. De même, on peut partir de n = 0 : la famille vide est libre ; on peut la compléter en une base enchoisissant des vecteurs dans une famille génératrice fixée (i.e. extraire une base d’une famille génératricedonnée, ce qu’on a déjà démontré).

LemmeSous les conditions du théorème, si L n’est pas une base, il existe un vecteur f de G tel que lafamille (e1, . . . , en, f) soit encore libre.

preuve :

si tout vecteur de G est dans Vect(L ), alors on a E = Vect(G ) ⊂ Vect(L ), ce qui estcontraire à l’hypothèse. Il existe donc un vecteur f de G qui n’appartient pas à Vect(L ). Par suite, lafamille (e1, . . . , en, f) est encore libre.

preuve du théorème :

Par application répétée de ce lemme, on déduit le théorème : en effet, le nombre desvecteurs que l’on peut choisir dans la famille G pour faire grossir notre famille libre tout en la laissantlibre diminue strictement à chaque application du lemme : on ne peut choisir deux fois le même vecteur.Lorsque l’on ne peut plus choisir de vecteur dans G tel que, par adjonction de ce vecteur, la famille restelibre, c’est que la famille est une base.

Exemple 5. Étant donnée une famille libre de Kn, on peut toujours la compléter en une base de Kn enn’utilisant que des vecteurs de la base canonique de Kn.

19.1.2 Dimension

Commençons par le

LemmeSoit B = (e1, . . . , en) une base de E. Soient x1, . . . , xn+1 des vecteurs de E. Alors la famille(x1, . . . , xn+1) est liée.

preuve :

raisonnons par récurrence sur n.– Si n = 0, la famille est vide, donc E = {0}. Une famille de E formée d’un vecteur ne peut contenir quele vecteur nul ; elle est donc liée.– Si n = 1, alors E admet B = (e1) pour base. Soient deux vecteurs x1, x2 ∈ E et x1 = λ1e1, x2 = λ2e1

leur écriture sur la base B. On a donc λ2x1 − λ1x2 = 0. Si λ1 = λ2 = 0, alors x1 = x2 = 0, donc lafamille est liée. Sinon, on reconnaît la définition d’une famille liée.– Soit n > 1. Supposons la propriété vraie jusqu’au rang n, démontrons-la au rang n + 1. Soit doncB = (e1, . . . , en+1) une base de E et x1, . . . , xn+2 des vecteurs de E. Écrivons ces vecteurs sur la base B :

xj =n+1∑

i=1

λi,jei,

où λi,j ∈ K pour 1 6 i 6 n+ 1 et 1 6 j 6 n+ 2.– Si λn+1,1 = · · · = λn+1,n+2 = 0, alors les vecteurs x1, . . . , xn+2 appartiennent tous au sous-espace

vectoriel F = Vect(e1, . . . , en) de E, dont (e1, . . . , en) est une base (génératrice par définition ; librecar extraite d’une famille libre). Par hypothèse de récurrence, la famille est liée.

Page 37: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

19.1. Dimension 33

– Sinon, l’un au moins des λn+1,j est non nul. Quitte à réordonner les vecteurs de la base, on peutsupposer que λn+1,n+2 6= 0. Posons alors, pour j ∈ [[1, n + 1]], yj = xj − λn+1,j

λn+1,n+2xn+2 : on fait

disparaître la coordonnée selon le vecteur en+1, donc les vecteurs y1, . . . , yn+1 sont dans le sous-espace F = Vect(e1, . . . , en). Par hypothèse de récurrence, la famille (y1, . . . , yn+1) est donc liée.Soient µ1, . . . , µn+1 des scalaires non tous nuls tels que µ1y1 + · · ·+ µn+1yn+1 = 0. On a donc

µ1x1 + · · ·+ µn+1xn+1 −(

n+1∑

i=1

µiλn+1,i

λn+1,n+2

)xn+2 = 0,

où l’un au moins des µi est non nul, ce qui prouve que la famille est liée.

Remarque 1. L’étude du cas n = 1 est inutile pour la récurrence ; elle a été traitée car c’est le premiercas intéressant.

Remarque 2. « Graphiquement », on peut représenter ce qu’on a fait de la façon suivante : on écrit encolonnes les coordonnées des vecteurs xi dans la base B, ce qui conduit à un « tableau de nombres » (cequ’on appelera bientôt une matrice). L’hypothèse λn+1,n+2 6= 0 indique que le coefficient en bas à droiteest non nul ; on s’en sert pour annuler les autres coefficients de la dernière ligne par les manipulationsCi ← Ci − λn+1,i

λn+1,n+2Cn+2 (ce qui revient à introduire les vecteurs yi) : c’est exactement la même chose

que la pratique de l’algorithme du rang.

Conséquence fondamentale

ThéorèmeSoit E un K-espace vectoriel de dimension finie. Alors toutes les bases de E sont finies et ont lemême cardinal.

preuve :

si E = {0}, alors B1 = B2 = ∅. Sinon, soit B1 une base finie de E (ça existe) decardinal n1 (n1 > 1) et B2 une autre base. Si B2 était infinie, on pourrait en extraire une famille decardinal n1 + 1, qui serait donc liée, donc B2 aussi, ce qui est faux. La base B2 est donc finie ; soit n2

son cardinal. Le même raisonnement prouve que n2 6 n1 car la famille B2 est libre. De la même façon,la famille B2 étant une base de cardinal n2 et B1 libre de cardinal n1, on a n1 6 n2, d’où finalementn2 = n1.

On peut maintenant poser la

DéfinitionSoit E un K-espace vectoriel de dimension finie. La dimension de E (sur K) est le cardinal communà toutes les bases de E. On le note dimK(E), ou plus simplement dim(E) lorsqu’aucune confusionn’en résulte. Lorsque cette dimension est égale à 1 (resp. 2), on parle de droite (resp. plan).

En particulier, l’espace nul est de dimension 0 ; c’est le seul.

Attention! la dimension dépend du corps sur lequel on travaille. Par exemple, l’ensemble C est unC-espace vectoriel, mais aussi un R-espace vectoriel. En tant que C-espace vectoriel, il est de dimension 1(une base en est (1) par exemple) alors qu’en tant que R-espace vectoriel, il est de dimension 2 (une baseen est (1, i)). Dans de telles situations, il est nécessaire de préciser le corps sur lequel on travaille (d’oùla notation dimK(E)).

Exemple 1. La dimension de Kn (comme K-espace vectoriel) est n : la base canonique de Kn comporte nvecteurs (donc toutes les autres bases de Kn également).

Exemple 2. La dimension de Kn[X ] est n+ 1 (une base en est la famille (1, X, . . . , Xn)).

Exemple 3. L’ensemble Ea,b = {u ∈ KN | ∀n ∈ N, un+2 = aun+1 + bun} est un K-espace vectoriel dedimension 2 : dans chacun des cas possibles, on en a trouvé une base formée de deux vecteurs de Ea,b

(i.e. deux suites).

ThéorèmeSoit E un K-espace vectoriel de dimension n > 1 et B une famille de p vecteurs de E.1) Si la famille B est libre, alors p 6 n.2) Si la famille B est génératrice, alors p > n.

Page 38: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

34 Chapitre 19. Espaces vectoriels de dimension finie

preuve :

1) c’est la contraposée du lemme.2) Si la famille B est génératrice, on peut en extraire une base formée de n vecteurs.

Par suite, lorsque l’on connaît la dimension d’un espace vectoriel, il est en général inutile, pourvérifier qu’une famille donnée en est une base, de vérifier qu’elle est libre et génératrice : une seule desdeux vérifications suffit. En effet :

ThéorèmeSoit E un K-espace vectoriel de dimension n > 1 et B une famille de p vecteurs de E.1) Si la famille B est libre et p = n, alors B est une base de E.2) Si la famille B est génératrice et p = n, alors B est une base de E.

preuve :

1) Complétons la famille B (libre) en une base de E. Comme le cardinal de la famille B

est égal au cardinal de la base obtenue, on n’a rajouté aucun vecteur, donc B est déjà une base.2) Extrayons de la famille B (génératrice) une base de E. Comme le cardinal de la famille B est égal aucardinal de la base obtenue, on n’a enlevé aucun vecteur, donc B est déjà une base.

Exemple 4. Soient, dans R3, ε1 = (1, 2, 3), ε2 = (0,−2, 7) et ε3 = (0, 0, 4). La famille (ε1, ε2, ε3) est libre(car échelonnée), donc c’est une base de R3.

Exemple 5. Soit, pour k ∈ [[0, n]], Pk un polynôme de degré k. La famille (P0, . . . , Pn) est échelonnée endegrés, donc libre. Comme elle a le bon nombre de vecteurs (n+ 1), c’est une base de Kn[X ].

Exemple 6. Soient a0, . . . , an des scalaires deux à deux distincts. Notons, pour k ∈ [[0, n]], Pk le polynôme

Pk =∏

i6=k

(X − ai) = (X − a0) · · · (X − ak−1)(X − ak+1) · · · (X − an).

La famille (P0, . . . , Pn) est libre. En effet, soient λ0, . . . , λn ∈ K tels que λ0P0 + · · · + λnPn = 0. Enévaluant cette égalité en ak, on trouve λkPk(λk) = 0 (car Pi(λk) = 0 pour i 6= k), d’où λk = 0 (carPk(λk) 6= 0).Comme cette famille a le bon nombre de vecteurs, c’est une base de Kn[X ].

PropositionUn K-espace vectoriel E est isomorphe à Kn si, et seulement si, il est de dimension n.

preuve :

– supposons E de dimension n. Soit (ε1, . . . , εn) une base de E. Considérons l’applicationlinéaire f : Kn −→ E définie par :

∀i ∈ [[1, n]], f(ei) = εi

(où, comme d’habitude, (e1, . . . , en) désigne la base canonique de Kn). L’image de la base (e1, . . . , en) estune base, donc f est un isomorphisme.– Réciproquement, supposons E isomorphe à Kn ; soit alors f : Kn −→ E un tel isomorphisme. La famille(f(e1), . . . , f(en)

)est alors une base de E, qui est donc de dimension n.

Une fois une base de E fixée, il revient au même de travailler dans E ou dans Kn : connaître unvecteur de E revient à connaître ses coordonnées dans la base choisie, i.e. un vecteur de Kn. Commecorollaire immédiat de la proposition, on a

CorollaireSoient E,F deux K-espaces vectoriels de dimension finie. Alors E et F sont isomorphes si, etseulement si, ils ont même dimension.

Remarque 3. Un espace de dimension infinie ne peut être isomorphe à un espace de dimension finie : siun tel isomorphisme existait, on en déduirait que l’espace de dimension infinie serait engendré par unefamille finie, ce qui est impossible.

Page 39: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

19.1. Dimension 35

19.1.3 Produit, sous-espace vectoriel, somme

Dans tout ce paragraphe, E désigne un K-espace vectoriel de dimension finie.

ThéorèmeSoit F un K-espace vectoriel de dimension finie. Alors E × F est de dimension finie et

dim(E × F ) = dim(E) + dim(F ).

preuve :

écartons le cas trivial où E est l’espace nul (auquel cas E × F est isomorphe à F , parl’application (0, x) 7→ x), de même que celui où F est l’espace nul. Choisissons alors deux bases

B = (e1, . . . , en) et C = (ε1, . . . , εp)

de E et F respectivement. Alors la famille

D =((e1, 0), . . . , (en, 0), (0, ε1), . . . , (0, εp)

)

est une base de E × F . En effet, elle est libre car, si λ1, . . . , λn+p sont des scalaires tels que

λ1(e1, 0) + · · ·+ λn+p(0, εp) = (0, 0),

i.e. tels que (λ1e1 + · · ·+ λnen, λn+1ε1 + · · ·+ λn+pεp

)= (0, 0),

alors on a {λ1e1 + · · ·+ λnen = 0λn+1ε1 + · · ·+ λn+pεp = 0

,

d’où λ1 = · · · = λn+p = 0 par indépendance de chacune des deux familles.Elle est aussi génératrice : si (x, y) est un vecteur de E × F , le vecteur x peut s’écrire sous la formex = λ1e1 + · · ·+ λnen et le vecteur y sous la forme y = λn+1ε1 + · · ·+ λn+pεn+p, donc le vecteur (x, y)peut s’écrire sous la forme

(x, y) =(λ1e1 + · · ·+ λnen, λn+1ε1 + · · ·+ λn+pεp

)= λ1(e1, 0) + · · ·+ λn+p(0, εp).

CorollaireSoient E1, . . . , En des K-espaces vectoriels de dimension finie. Alors E1×· · ·×En est de dimensionfinie et dim(E1 × · · · ×En) = dim(E1) + · · ·+ dim(En).

preuve :

immédiate, par récurrence sur n.

Sous-espaces vectoriels

ThéorèmeSoit F un sous-espace vectoriel de E. Alors F est de dimension finie et dim(F ) 6 dim(E). On aégalité des dimensions si, et seulement si, E = F .

preuve :

si F était de dimension infinie, on pourrait construire une famille libre infinie de vecteursde F , donc de E, ce qui contredirait que E est de dimension finie. Soit donc B = (e1, . . . , ep) une basede F (s’il est non nul ; sinon, on a bien sûr dim(F ) 6 dim(E)). C’est une famille libre de E, doncp 6 dim(E). Si de plus p = dim(E), alors B est aussi une base de E, donc E = F .

DéfinitionSoit (ei)i∈I une famille finie de vecteurs et F = Vect(ei)i∈I ⊂ E. Le rang de la famille (ei)i∈I estrg(ei)i∈I = dim(F ) = dim(Vect(ei)i∈I).

C’est bien entendu indépendant de la façon d’indexer les vecteurs : ça ne dépend que de l’ensemble

{ei, i ∈ I} de ces vecteurs. C’est la raison pour laquelle on parle d’algorithme du rang : lorsque l’onpart d’une famille de vecteurs, les manipulations ne modifient pas le sous-espace vectoriel engendré, doncle rang non plus. La famille que l’on obtient à la fin est une base du sous-espace vectoriel engendré(génératrice par définition, libre car de coordonnées échelonnées), donc le nombre de ses vecteurs est lerang de la famille de vecteurs.

Page 40: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

36 Chapitre 19. Espaces vectoriels de dimension finie

Supplémentaires

ThéorèmeSoit F un sous-espace vectoriel de E. Alors F admet au moins un supplémentaire H dans E.

preuve :

si F = {0} (resp. F = E), alors H = E (resp. H = {0}) est le seul supplémentaire de F .Supposons donc F 6= {0} et F 6= E. Choisissons une base (e1, . . . , en) de F que l’on complète en une base(e1, . . . , ep) de E (on a p > n car F 6= E). Soit H = Vect(ep+1, . . . , en) : la famille (ep+1, . . . , en) en estune base, et la concaténation de la base (e1, . . . , ep) de F et de cette base de H est une base de E, ce quiprouve que E = F ⊕H .

Remarque 1. Comme nous l’avons déjà dit, il n’y a pas unicité d’un supplémentaire ; la modification d’unseul des vecteurs de la famille (ep+1, . . . , en) modifie en général le sous-espace H .

CorollaireSoient F1, F2 deux sous-espaces vectoriels de E. Si F1 ∩ F2 = {0}, alors

dim(F1 ⊕ F2) = dim(F1) + dim(F2).

Dans le cas général, on cherche à déterminer la dimension de F +G, où F et G sont deux sous-espacesvectoriels de E. On peut se ramener à la situation précédente de la façon suivante.

������

������

PPPPPP������

PPPPPP

��

��

F

G

F ∩G

F1

0

Choisissons un supplémentaire F1 de F ∩G dans F , de sorte que F = (F ∩G)⊕ F1. On a alors

F +G = F1 ⊕G.

En effet,– F1 ⊂ F , donc F1 ∩ F = F1, d’où

F1 ∩G = (F1 ∩ F ) ∩G = F1 ∩ (F ∩G) = {0}.

– F ∩G ⊂ G, donc G = G+ (F ∩G), d’où

F1 +G = F1 + (G+ F ∩G) = (F1 + F ∩G) +G = F +G.

On en déduit quedim(F +G) = dim(F1 ⊕G) = dim(F1) + dim(G).

Or F = (F ∩G)⊕ F1, d’où dim(F1) = dim(F )− dim(F ∩G). En résumé, on a démontré le

Théorème (formule de Grassman)Pour tous sous-espaces vectoriels F,G de E, on a dim(F +G) = dim(F ) + dim(G)− dim(F ∩G).

Remarque 2. Il est très facile de se souvenir de cette relation par analogie avec la formule

|F ∪G| = |F |+ |G| − |F ∩G|

valable pour les ensembles finis.

Page 41: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

19.2. Applications linéaires en dimension finie 37

Exemple 1. Soient F et G deux plans de R3. Alors F ∩ G est un sous-espace vectoriel de F , donc il estde dimension 0, 1 ou 2.– Si dim(F ∩G) = 2, alors F ∩G = F car on a aussi dim(F ) = 2. Pour la même raison, F ∩G = G, doncF = G.– Si dim(F ∩G) = 1, F et G sont nécessairement distincts et se rencontrent selon une droite.– Enfin, la situation dim(F ∩G) = 0 est impossible : elle entraînerait dim(F +G) = 2 + 2− 0 = 4, ce quiest impossible pour un sous-espace vectoriel de R3.En résumé, deux plans (vectoriels, rappelons-le, i.e. qui contiennent le vecteur nul) de R3 sont soit égaux,soit se rencontrent selon une droite.

CorollaireSoient F,G deux sous-espaces vectoriels de E. Il y a équivalence entre1) E = F ⊕G.2) E = F +G et dim(E) = dim(F ) + dim(G).3) F ∩G = {0} et dim(E) = dim(F ) + dim(G).

preuve :

les implications 1) =⇒ 2) et 1) =⇒ 3) sont évidentes. Démontrons les réciproques.– 2) =⇒ 1). Supposons E = F+G et dim(E) = dim(F )+dim(G). Alors, d’après la formule de Grassman,on a

dim(F ∩G) = dim(F ) + dim(G) − dim(F +G) = dim(F ) + dim(G)− dim(E) = 0,

donc F ∩G = {0}, ce qui prouve que E = F ⊕G.– 3) =⇒ 1). Supposons F ∩ G = {0} et dim(E) = dim(F ) + dim(G). Toujours d’après la formule deGrassman, on a

dim(F +G) = dim(F ) + dim(G)− dim(F ∩G) = dim(F ) + dim(G) = dim(E),

donc F +G = E, ce qui prouve que E = F ⊕G.

19.2 Applications linéaires en dimension finie

19.2.1 Rang d’une application linéaire

Soit E un K-espace vectoriel de dimension finie, F un K-espace vectoriel et f ∈ L(E,F ). Soit B =(e1, . . . , en) une base deE. Alors la famille (f(e1), . . . , f(en)) engendre Im(f), donc Im(f) est de dimensionfinie.

DéfinitionSous ces conditions, le rang de f est la dimension de Im(f) : rg(f) = dim(Im(f)) = dim(f<E>).

ThéorèmeSoient E,F deux K-espaces vectoriels, E de dimension finie, et f ∈ L(E,F ). Soit G un supplé-mentaire de Ker(f) dans E. Alors l’application g = f |Im(f)

G : G −→ Im(f) est un isomorphisme.En d’autres termes, f induit un isomorphisme de tout supplémentaire de son noyau sur Im(f).

preuve :

l’application g est injective : si x ∈ Ker(g), alors x appartient à G et à Ker(f) (carf(x) = g(x) = 0), donc à Ker(f) ∩G = {0}. Elle est aussi surjective : pour y ∈ Im(f), choisissons x ∈ Etel que y = f(x). Décomposons-le sur la somme directe E = Ker(f)⊕G : x = xK + xG. On a alors

y = f(x) = f(xK) + f(xG) = f(xG) = g(xG),

donc y appartient à l’image de g.On en déduit le très important

Théorème (formule du rang)Soient E,F deux K-espaces vectoriels, E de dimension finie. Alors

dim(E) = rg(f) + dim(Ker(f)) = dim(Im(f)) + dim(Ker(f)).

Page 42: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

38 Chapitre 19. Espaces vectoriels de dimension finie

preuve :

soit G un supplémentaire de Ker(f) dans E. On a dim(E) = dim(G) + dim(Ker(f)).Or f induit un isomorphisme de G sur Im(f), donc dim(G) = dim(Im(f)).

CorollaireSoient E,F deux K-espaces vectoriels de même dimension finie et f ∈ L(E,F ). Il y a équivalenceentre :1) f est injective.2) f est surjective.3) f est bijective.

Encore une fois, il y a une forte analogie avec les ensembles finis. Ce théorème est vrai en particulierpour les endomorphismes d’un espace vectoriel de dimension finie.

preuve :

il suffit de prouver 1) =⇒ 3) et 2) =⇒ 3).– 1) =⇒ 3). Supposons f injective. Par la formule du rang, on a

dim(Im(f)) = dim(E)− dim(Ker(f)) = dim(F )− 0 = dim(F ),

donc Im(f) = F (car Im(f) ⊂ F et qu’ils ont même dimension), donc f est aussi surjective.2) =⇒ 3). Supposons f surjective. La formule du rang donne encore

dim(Ker(f)) = dim(E) − dim(Im(f)) = dim(F )− dim(F ) = 0,

donc Ker(f) = {0} : f est également injective.

Exemple 1. Soient a0, . . . , an des scalaires deux à deux distincts et

Φ : Kn[X ] −→ Kn+1

P 7−→ (P (a0), . . . , P (an)).

L’application Φ est injective (un polynôme de degré inférieur ou égal à n qui s’annule en n + 1 pointsest le polynôme nul) donc bijective (les dimensions sont les mêmes au départ et à l’arrivée : n+ 1). Onobtient ainsi une nouvelle démonstration de l’existence et de l’unicité du polynôme d’interpolation deLagrange.

Exemple 2. Soit A un polynôme de degré n > 1 (le cas n = 0 étant évident). Pour p ∈ N, considéronsl’application

Φ : Kp[X ]×Kn−1[X ] −→ Kn+p[X ](Q,R) 7−→ AQ+R

.

Elle est injective : en effet, si le couple (Q,R) appartient à Ker(Φ), alors AQ = −R, ce qui impliqueQ = R = 0 (si Q 6= 0, alors deg(AQ) > n = deg(A), ce qui est impossible car deg(R) < n). Par suite,elle est surjective (les dimensions sont les mêmes au départ et à l’arrivée : n+ p+ 1), ce qui fournit uneautre démonstration (non constructive, celle-ci) de l’existence et de l’unicité de la division euclidienne.

Remarque 1. Soient E et F deux espaces de dimension finie avec dim(E) = dim(F ) et f ∈ L(E,F ).Si on trouve une application f ∈ L(F,E) telle que g ◦ f = IdE , alors f est injective, donc bijective etl’application g est égale à f−1 : il est inutile de vérifier que l’on a bien f ◦ g = IdF . Le raisonnement estle même si l’on trouve h ∈ L(F,E) telle que f ◦ h = IdF : alors f est un isomorphisme et h = f−1.

Composition par un isomorphisme

ThéorèmeLe rang d’une application linéaire est invariant par composition par un isomorphisme (à gauche ouà droite). En d’autres termes, si u : E1 −→ E est un isomorphisme, f : E −→ F une applicationlinéaire et v : F −→ F1 un isomorphisme, alors rg(v ◦ f ◦ u) = rg(f).

preuve :

on a la situationE1

u−→≃E

f−→Fv−→≃F1,

où les symboles ≃ désignent des isomorphismes. Par définition, le rang de v ◦ f ◦ u est la dimension deIm(v ◦ f ◦ u), i.e. de v<f<u<E1>>>. Or u est un isomorphisme, donc u<E1> = E. De plus, v est unisomorphisme, donc induit un isomorphisme de f<E> sur v<f<E>>. Par suite,

rg(v ◦ f ◦ u) = dim(v<f<u<E1>>>) = dim(v<f<E>>) = dim(f<E>) = rg(f).

Page 43: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

19.2. Applications linéaires en dimension finie 39

19.2.2 Hyperplans

DéfinitionSoit E un K-espace vectoriel. Le dual de E est l’ensemble des formes linéaires sur E. C’est unK-espace vectoriel, noté E∗.

Ainsi, un vecteur du dual E∗ de E est une application linéaire ϕ : E −→ K.

Exemple 1. L’application ϕi : Kn −→ K définie par ϕi(x1, . . . , xn) = xi est une forme linéaire sur Kn, i.e.

un élément du dual (Kn)∗. C’est la ième forme coordonnée sur Kn (l’image du vecteur x = (x1, . . . , xn)par l’application ϕi est sa ième coordonnée xi).

Exemple 2. De même, si E est un K-espace vectoriel muni d’une base B = (e1, . . . , en), l’applicatione∗i : E −→ K définie par

e∗i (x1e1 + · · ·+ xnen) = xi

est un élément du dual E∗, encore appelé ième forme coordonnée. Elle est encore définie par

e∗i (ej) = δij =

{1 si j = i

0 si j 6= i

(rappelons que, pour définir une application linéaire, il suffit de définir l’image de chacun des vecteursd’une base).

PropositionSoit E un K-espace vectoriel de dimension finie n. Alors E∗ est de dimension n.

preuve :

c’est évident si n = 0. Supposons donc n > 1 et choisissons une base B = (e1, . . . , en)de E. Démontrons que la famille B∗ = (e∗1, . . . , e

∗n) est une base de E∗.

– La famille est libre. En effet, supposons trouvés λ1, . . . , λn ∈ K tels que λ1e∗1+· · ·+λne

∗n = 0 (application

linéaire nulle). Alors, pour tout vecteur x ∈ E, on a (λ1e∗1 + · · ·+ λne

∗n)(x) = 0 (vecteur nul de E). Ceci

est vrai en particulier pour chaque vecteur ei. Or

(λ1e∗1 + · · ·+ λne

∗n)(ei) = λ1e

∗1(ei) + · · ·+ λne

∗n(ei) = 0 + · · ·+ λi + · · ·+ 0 = λi,

donc chaque λi est nul.– La famille est génératrice. En effet, soit ϕ : E −→ K une forme linéaire. Notons, pour i ∈ [[1, n]],λi = ϕ(ei) et considérons la forme linéaire ψ = λ1e

∗1 + · · ·+ λne

∗n. Pour tout i ∈ [[1, n]], on a

ψ(ei) = (λ1e∗1 + · · ·+ λne

∗n)(ei) = λi = ϕ(ei).

Les vecteurs de la base B ayant la même image par les applications ϕ et ψ, celles-ci sont égales, doncϕ = λ1e

∗1 + · · ·+ λne

∗n.

On en déduit le

ThéorèmeSoient E et F deux K-espaces vectoriels de dimension finie. Alors l’espace vectoriel L(E,F ) est dedimension finie et dim(L(E,F )) = dim(E)× dim(F ).

preuve :

c’est évident si dim(F ) = 0. Supposons donc dim(F ) = p > 1 et choisissons une baseB = (e1, . . . , ep) de F . L’idée est la suivante : connaître un vecteur y de F revient exactement à connaîtreses coordonnées y1 = e∗1(y), . . . , yp = e∗p(y) dans la base B. En particulier, si f est une application linéairede E dans F , connaître le vecteur f(x) revient à connaître ses coordonnées e∗1(f(x)), . . . , e∗p(f(x)) dansla base B, donc connaître f revient à connaître les p formes linéaires sur E suivantes : e∗1 ◦ f, . . . , e∗p ◦ f .Considérons donc l’application

Φ : L(E,F ) −→ E∗ × · · · ×E∗f 7−→ (e∗1 ◦ f, . . . , e∗p ◦ f)

.

Cette application Φ est linéaire (car les formes linéaires e∗i le sont). Pour tout vecteur x, les coordonnéesde f(x) dans la base B sont e∗1

(f(x)

), . . . , e∗p

(f(x)

), donc on a

f(x) = e∗1(f(x))e1 + · · ·+ e∗p(f(x))ep.

Page 44: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

40 Chapitre 19. Espaces vectoriels de dimension finie

– Elle est injective. En effet, soit f ∈ L(E,F ) telle que Φ(f) = 0, i.e. telle que les applications e∗i ◦ fsoient toutes nulles. Alors, pour tout vecteur x, on a

e∗1(f(x)

)= · · · = e∗p

(f(x)

)= 0,

doncf(x) = e∗1

(f(x)

)e1 + · · ·+ e∗p

(f(x)

)ep = 0,

ce qui signifie que l’application f est l’application nulle.– Elle est surjective. En effet, soient g1, . . . , gp des formes linéaires sur E. Considérons l’applicationg : E −→ F définie par

∀x ∈ E, g(x) = g1(x)e1 + · · ·+ gp(x)ep.

Cette application g est clairement linéaire est vérifie Φ(g) = (g1, . . . , gp). En effet, pour tout i ∈ [[1, p]] ettout vecteur x ∈ E, on a

e∗i ◦ g(x) = e∗i(g1(x)e1 + · · ·+ gp(x)ep

)= gi(x),

donc on a l’égalité e∗i ◦ f = gi.

DéfinitionSoit E un K-espace vectoriel de dimension finie. Un hyperplan de E est le noyau d’une formelinéaire non nulle sur E.

Exemple 3. L’application ϕ : R3 −→ R

(x, y, z) 7−→ 2x− y + 7zest une forme linéaire non nulle ; son noyau est

un hyperplan de R3. Les vecteurs du noyau sont ceux pour lesquels y = 2x+ 7z, i.e. ceux qui s’écriventsous la forme (x, 2x + 7z, z) = x(1, 2, 0) + z(0, 7, 1), ce qui prouve que les vecteurs (1, 2, 0) et (0, 7, 1)forment une base de cet hyperplan : c’est ici un plan.

Exemple 4. Si B = (e1, . . . , en) est une base de E, chaque forme coordonnée e∗i est une forme linéairenon nulle. Son noyau Hi est l’hyperplan formé des vecteurs x dont la ième coordonnée est nulle (et dontles autres sont quelconques) ; une base en est donc la famille (e1, . . . , ei−1, ei+1, . . . , en), donc Hi est dedimension n− 1.

Exemple 5. Si a est un réel, l’application ϕ : Rn[X ] −→ R

P 7−→ P (a)est une forme linéaire non nulle.

Remarque 1. Si E est l’espace nul, toute forme linéaire sur E est nulle, donc E n’a pas d’hyperplan.

ThéorèmeSoit E un K-espace vectoriel de dimension n > 1. Les hyperplans de E sont les sous-espacesvectoriels de dimension n− 1 de E.

preuve :

– soit H un hyperplan de E. C’est le noyau d’une forme linéaire non nulle, disons ϕ.L’image de ϕ est de dimension 0 ou 1 car c’est un sous-espace vectoriel de K. Comme ϕ n’est pas nulle,on a nécessairement rg(ϕ) = 1. La formule du rang donne alors dim(H) = n− 1.– Réciproquement, soit H un sous-espace vectoriel de dimension n − 1 de E. Choisissons une base(e1, . . . , en−1) de H , que l’on complète en une base B = (e1, . . . , en) de E. Alors H est le noyau dela forme linéaire non nulle e∗n (cf. exemple 4 ).

Page 45: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

Chapitre 20Calcul matriciel

Dans tout ce chapitre, K désigne un sous-corps de C.

20.1 Matrices

20.1.1 Matrices et applications linéaires

Soient E et F deux K-espaces vectoriels (non nuls) munis de bases respectives B = (e1, . . . , ep) etC = (ε1, . . . , εn). Connaître une application linéaire ϕ ∈ L(E,F ) équivaut à connaître chacun des vecteursϕ(e1), . . ., ϕ(ep). Mais connaître chacun de ces vecteurs revient à connaître ses coordonnées dans la base C .En notant (a1k, . . . , an,k) les coordonnées du vecteur ϕ(ek) dans la base C , la connaissance de ϕ équivaut

donc à celle du « tableau de scalaires »

a11 . . . a1p

......

an1 . . . anp

, d’où la

DéfinitionSoient n, p ∈ N∗. Une matrice à n lignes et p colonnes (ou de taille (n, p), ou de format (n, p)) est

une famille (aij)(i,j)∈[[1,n]]×[[1,p]] d’éléments de K. La matrice est alors notée

a11 . . . a1p

......

an1 . . . anp

.

L’ensemble des matrices de taille (n, p) à coefficients dans K est noté Mn,p(K).

Exemple 1. A =[

1 2−3 7

]est une matrice appartenant à M2,2(R), B =

13i5

appartient à M3,1(C)

Lorsque n = p, on parle de matrice carrée et on note Mn(K) pour Mn,n(K). Lorsque n = 1 (resp.p = 1), on parle de matrice ligne (resp. colonne). Enfin, lorsque n = p = 1, on identifie souvent M1(K)à K via la bijection K −→M1(K), a 7→ [a].

La matrice nulle (de taille (n, p)) est A = [aij ] ∈Mn,p(K) définie par ∀(i, j) ∈ [[1, n]]× [[1, p]], aij = 0.

La matrice identité de taille n est In =

1 0 . . . 00 1 0...

. . . 00 . . . 0 1

∈ Mn(K) : seuls les termes sur la diagonale

principale sont non nuls (égaux à 1). En d’autres termes, In = [ δij ](i,j)∈[[1,n]]2 .

DéfinitionSoit A ∈Mn,p(K).

– Pour k ∈ [[1, p]], la k-ème colonne de A est Ck(A) =

a1k

...ank

∈Mn,1(K).

– Pour k ∈ [[1, n]], la k-ème ligne de A est Lk(A) = [ak1 . . . akp] ∈M1,p(K).

41

Page 46: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

42 Chapitre 20. Calcul matriciel

Exemple 2. Si A =

1 32 75 −3

, alors L1(A) = [ 1 3 ] et C2(A) =

37−3

.

ConcaténationSoient A = [aij ] ∈Mn,p(K) et B ∈Mn,q(K). On définit la concaténation (horizontale) de A et B : c’estla matrice C ∈Mn,p+q(K) définie par :

cij =

{aij si 1 6 j 6 p

bi,j−p si p+ 1 6 j 6 p+ q.

On note C =[A B

]. On a donc, sous forme de tableau :

[A B

]=

a11 · · · a1p b11 · · · b1q

......

......

an1 · · · anp bn1 · · · bnq

.

On peut bien sûr faire la concaténation horizontale de plusieurs matrices, pourvu qu’elles aient mêmenombre de lignes. L’opération est associative :

[[A B

]C]

=[A

[B C

]],

ce qui permet de noter[A B C

]cette concaténation. On définit aussi la concaténation verticale

[AB

]

de deux matrices ayant même nombre de colonnes. En particulier, si A ∈Mn,p(K), on a

A =[C1(A) · · · Cp(A)

]=

L1(A)

...Ln(A)

.

Lien avec les espaces vectorielsSoit E un K-espace vectoriel de dimension p > 1, muni d’une base B = (e1, . . . , ep). Les matrices colonnepermettent, comme on l’a déjà vu, de représenter les vecteurs de E par leur matrice dans la base B : six = x1e1 + · · ·+ xpep, sa matrice dans la base B est

X = matB(x) =

x1

...xp

.

Les matrices rectangulaires permettent de représenter les applications linéaires de la façon suivante.Soit F un K-espace vectoriel de dimension n > 1, muni d’une base C = (ε1, . . . , εn). Chaque applicationlinéaire f : E −→ F est déterminée de façon unique par l’image de chacun des vecteurs e1, . . . , ep. Notonsv1, . . . , vp les vecteurs f(e1), . . . , f(ep) et, pour 1 6 j 6 p, Vj = matC

(f(ej)

).

DéfinitionLa matrice de f dans les bases B (au départ) et C (à l’arrivée) est

A = matB,C (f) =[V1 · · · Vp

]=[matC

(f(e1)

)· · · matC

(f(ep)

)].

C’est donc la matrice dont les colonnes sont les matrices des images des vecteurs de la base de départ.En particulier, le nombre de colonnes est égal à la dimension de l’espace de départ ; le nombre de lignes

à la dimension de l’espace d’arrivée.

Page 47: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.1. Matrices 43

Exemple 3. Soit f : R2 −→ R3

(x, y) 7−→ (x − y, 2x− 7y,−x+ 4y). Choisissons pour bases B et C les bases

canoniques de R2 et R3 respectivement. On a f(1, 0) = (1, 2,−1), de matrice

12−1

dans la base canonique,

et f(0, 1) = (−1,−7, 4), de matrice

−1−7

4

dans la base canonique. La matrice cherchée est donc

A =

1 −12 −7−1 4

.

Notation : lorsque E = F , on choisit en général C = B. On note alors matB(f) au lieu de matB,B(f).

DéfinitionSoit A ∈ Mn,p(K). L’application linéaire canoniquement associée à la matrice A est l’applicationf : Kp −→ Kn telle que matcan(f) = A.

Exemple 4. L’application linéaire canoniquement associée à A =[1 22 0

]∈ M2(R) est l’application

f : R2 −→ R2

(x, y) 7−→ (x+ 2y, 2x).

Image d’un vecteurSoient E et F deux K-espaces vectoriels de dimension finie, munis de bases respectives B = (e1, . . . , ep)et C = (ε1, . . . , εn), et f ∈ L(E,F ). Notons A = [aij ] la matrice de f dans les bases B et C .Convenons, lorsqu’un vecteur est noté par une lettre minuscule, de noter par la majuscule correspondantela matrice de ce même vecteur (dans la base B ou C , selon que ce vecteur est dans E ou F ).

Soit x ∈ E et y = f(x). La question que nous nous posons est celle de la détermination de Y enfonction de X (et, bien sûr, de A). Si

x = x1e1 + · · ·+ xpep,

alorsy = f(x) = x1f(e1) + · · ·+ xpf(ep)

d’où, en passant aux matrices (dans la base C ) :

Y = x1C1(A) + · · ·+ xpCp(A) =

a11x1 + · · ·+ a1pxp

......

an1x1 + · · ·+ anpxp

.

En formules, on a donc, pour 1 6 j 6 n :

yi = x1ai1 + · · ·+ xpaip =p∑

k=1

aikxk

Il est donc raisonnable de poser la

Définition

Soient A = [aij ] ∈ Mn,p(K) et X =

x1

...xp

∈ Mp,1(K). Le produit de A par X est la matrice

Y =

y1

...yn

∈Mn,1(K) définie par yi =

p∑

k=1

aikxk pour i ∈ [[1, n]]. On note Y = AX .

Page 48: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

44 Chapitre 20. Calcul matriciel

Le produit se fait donc « ligne par colonne » : le terme situé sur la ième ligne de Y = AX est obtenuen faisant le produit de la ième ligne

[ai1 · · · aip

]de A par la colonne X , composante par composante,

comme vous avez l’habitude de faire par exemple pour calculer un produit scalaire. La disposition suivante,parfois rencontrée, permet de rendre compte de cette « règle de calcul » :

XA AX

Exemple 5. La présentation xyz

[1 2 34 5 6

] [x+ 2y + 3z

4x+ 5y + 6z

]

signifie que[1 2 34 5 6

]xyz

=

[x+ 2y + 3z

4x+ 5y + 6z

].

La définition de ce produit a été choisie pour que le théorème suivant soit vrai :

ThéorèmeSoient E,F deux K-espaces vectoriels de dimension finie, munis de bases respectives B et C . Soitf ∈ L(E,F ) et A = matB,C (f).Pour tous vecteurs x ∈ E, y ∈ F , on a, en notant X = matB(x) et Y = matC (y), l’équivalence

y = f(x)⇐⇒ Y = AX.

20.1.2 Structure d’espace vectoriel

Si A = [aij ] et B = [bij ] sont deux matrices de Mn,p(K), on définit leur somme

A+B = [aij + bij ] ∈Mn,p(K)

ainsi que le produit de A par le scalaire λ ∈ K par

λA = [λaij ] ∈Mn,p(K).

Ces deux opérations munissent à l’évidence l’ensemble Mn,p(K) d’une structure de K-espace vectoriel.L’élément neutre pour l’addition est la matrice nulle, l’opposé de la matrice A = [aij ] est la matrice−A = [−aij ].

ThéorèmeSoient E,F deux K-espaces vectoriels, de dimension p > 1 et n > 1 respectivement. Soit B unebase de E et C une base de F . Alors l’application

Φ : L(E,F ) −→ Mn,p(K)f 7−→ matB,C (f)

est un isomorphisme.

Ce qui signifie que, si f et g sont deux applications linéaires de E dans F et λ un scalaire, on a

matB,C (f + g) = matB,C (f) + matB,C (g) et matB,C (λf) = λmatB,C (f)

ce qui est parfaitement clair au vu des définitions.

CorollaireL’espace vectoriel Mn,p(K) est de dimension np (même si n = 0 ou p = 0).

Ceci résulte aussi du fait que Card([[1, n]]× [[1, p]]) = np et que Mn,p(K) = K[[1,n]]×[[1,p]] ; on aurait puen déduire, si nous avions eu cet argument de dimension plus tôt, que dim

(L(E,F )

)= dim(E)×dim(F ).

Page 49: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.1. Matrices 45

Base de Mn,p(K)Notons, pour (i, j) ∈ [[1, n]] × [[1, p]], Eij la matrice de Mn,p(K) dont tous les coefficients sont nuls, àl’exception de celui situé à l’intersection de la ième ligne et jème colonne.

PropositionLa famille (Eij)(i,j)∈[[1,n]]×[[1,p]] est une base de Mn,p(K), dite base canonique.

preuve :

la famille est génératrice : si A = [aij ] est une matrice de Mn,p(K), on a

A =∑

(i,j)∈∈[[1,n]]×[[1,p]]

aijEij

Elle est également libre : si∑

(i,j)∈∈[[1,n]]×[[1,p]]

aijEij = 0, chacun des coefficients de cette matrice est nul,

donc aij = 0 pour tout couple (i, j).

Image et noyau

DéfinitionSoit A ∈Mn,p(K). On définit l’image et le noyau de la matrice A par :– Im(A) = Vect

(C1(A), . . . , Cp(A)

)⊂Mn,1(K)

– Ker(A) = {X ∈Mp,1(K) | AX = 0} ⊂Mp,1(K).

L’image de A est donc l’ensemble des matrices colonne qui peuvent s’écrire sous la forme

Y = x1C1(A) + · · ·+ xpCp(A), où x1, . . . , xp ∈ K,

i.e.

Im(A) = {Y ∈Mn,1(K) | ∃X ∈Mp,1(K), Y = AX}.

Ces deux ensembles sont des espaces vectoriels. Une fois des bases de E et de F choisies, l’isomorphismeentre E et Mp,1(K) (qui, à chaque vecteur, associe sa matrice) fait se correspondre les espaces Ker(f) etKer(A), en notant A la matrice de f dans les bases choisies. La même remarque vaut pour l’image de fet l’image de A.

DéfinitionSoit A ∈Mn,p(K). Le rang de A est la dimension de Im(A).

Si A est la matrice d’une certaine application f dans des bases fixées, on a donc rg(A) = rg(f). Enparticulier, la formule du rang s’applique aux matrices :

Proposition

Pour A ∈Mn,p(K), on a rg(A) + dim(

Ker(A))

= p (nombre de colonnes de la matrice).

On dispose donc d’un dictionnaire qui permet de relier les situations vectorielles aux matrices : si Eet F sont des espaces de dimension p > 1 et n > 1 respectivement, munis de bases B et C respectivement,on a la correspondance suivante :

Espaces vectoriels Matricesf ∈ L(E,F ) A = matB,C (f)x ∈ E X = matB(x)y ∈ F Y = matC (y)y = f(x) Y = AXy ∈ Im(f) Y ∈ Im(A)x ∈ Ker(f) X ∈ Ker(A)rg(f) rg(A)

Page 50: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

46 Chapitre 20. Calcul matriciel

Matrices échelonnéesUne matrice A = [aij ] ∈ Mn,p(K) est dite échelonnée en colonnes si, et seulement si, ses colonnesC1(A), . . . , Cp(A) vérifient la condition suivante :

tant que Ck(A) 6= 0 et k < p, l’indice du premier coefficient non nul de la colonne Ck+1(A) eststrictement supérieur à l’indice du premier coefficient non nul de la colonne Ck(A) (en particulier,toutes les colonnes nulles de A sont rejetées à la fin).

Elle est dite échelonnée en lignes si, et seulement si, ses lignes L1(A), . . . , Ln(A) vérifient :tant que Lk(A) 6= 0 et k < n, l’indice du premier coefficient non nul de la ligne Lk+1(A) eststrictement supérieur à l’indice du premier coefficient non nul de la ligne Lk(A) (en particulier,toutes les lignes nulles de A sont rejetées à la fin).

Exemple 1. La matrice A =

1 0 02 0 03 1 04 7 −15

est échelonnée en colonnes : l’indice du premier coefficient

non nul est égal à 1 pour la première colonne, 3 pour la deuxième et 4 pour la troisième.

Exemple 2. La matrice B =

−5 4 3 2 5

0 −1 0 0 40 0 0 0 5

est échelonnée en lignes : les indices des premiers

coefficients non nuls pour les lignes sont respectivement 1 < 2 < 5.

Exemple 3. La matrice C =

1 0 0 02 −1 1 03 7 4 0

n’est pas échelonnée.

Comme pour les vecteurs, il est évident que si A est échelonnée en colonnes (resp. en lignes), sescolonnes (resp. ses lignes) non nulles sont indépendantes. On en déduit la règle suivante :

PropositionSoit A une matrice échelonnée en colonnes. Le rang de A est le nombre de ses colonnes non nulles.

20.1.3 Matrices particulières

DéfinitionUne matrice A ∈ Mn(K) est dite diagonale si, et seulement si, aij = 0 dès que i 6= j. On notediag(a11, . . . , ann) une telle matrice. En particulier, In = diag(1, . . . , 1︸ ︷︷ ︸

n

).

Exemple 1. Soit B une base quelconque de E. Alors

matB(IdE) = In et ∀λ ∈ K, matB(λ IdE) = λ In .

Exemple 2. Soient E1 et E2 deux sous-espaces vectoriels supplémentaires de E et p le projecteur sur E1

parallèlement à E2. Choisissons une base B1 = (e1, . . . , ep) de E1 et une base B2 = (ep+1, . . . , en) de E2.On sait qu’alors la famille B = (e1, . . . , en) est une base de E (dite adaptée au projecteur p). Pour1 6 i 6 p, on a ei ∈ E1, donc p(ei) = ei, alors que p(ei) = 0 pour i > p+ 1. La matrice de p dans B estdonc

matB(p) =

1. . .

10

. . .0

p

n− p

= diag(1, . . . , 1︸ ︷︷ ︸p

, 0, . . . , 0︸ ︷︷ ︸n−p

) =[Ip 00 0

]

De même, si s est la symétrie par rapport à E1 parallèlement à E2, alors

matB(s) =

1. . .

1−1

. . .−1

p

n− p

= diag(1, . . . , 1︸ ︷︷ ︸p

,−1, . . . ,−1︸ ︷︷ ︸n−p

) =[Ip 00 − In−p

]

Page 51: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.1. Matrices 47

Remarque 1. L’ensemble des matrices diagonales est à l’évidence un sous-espace vectoriel de Mn(K),dont une base est la famille (E11, . . . , Enn) (donc de dimension n).

DéfinitionUne matrice A ∈ Mn(K) est dite triangulaire (ou trigonale) supérieure (resp. inférieure) si, etseulement si, aij = 0 dès que i > j (resp. i < j). Elle est dite triangulaire stricte si ses coefficientsdiagonaux sont en outre nuls.

Exemple 3. La matriceA =

1 0 2 40 −1 3 −10 0 0 5

est triangulaire supérieure ; la matriceB =

7 0 0 0−1 0 0 0

3 1 −2 0

est triangulaire inférieure.

L’ensemble des matrices triangulaires inférieures (resp. supérieures) est un sous-espace vectoriel de Mn,p(K).Il est par ailleurs clair qu’une matrice échelonnée en colonnes (resp. en lignes) est triangulaire inférieure(resp. supérieure). Les réciproques sont fausses (par exemple, la matrice B de l’exemple précédent esttriangulaire inférieure mais n’est pas échelonnée en lignes).Pour les matrices carrées : si l’on note T −n (K) (resp. T +

n (K)) l’ensemble des matrices triangulairesinférieures (resp. supérieures) de Mn(K), alors

– la famille (Eij)16i6j6n est une base de T +n (K)

– la famille (Eij)16j6i6n est une base de T −n (K)En particulier, dim(T +

n (K)) = dim(T −n (K)) = n(n+1)2 .

Transposée

DéfinitionSoit A = [aij ] ∈ Mn,p(K). La transposée de A est la matrice B = [bij ] ∈ Mp,n(K) définie parbij = aji. On la note B = tA (parfois, surtout dans la littérature anglo-saxonne, AT).

On obtient donc la matrice tA par « symétrie par rapport à la diagonale principale ».

Exemple 4. Si A =[

1 2 3−1 7 5

], alors tA =

1 −12 73 5

.

La proposition suivante est évidente :

PropositionSoient A,B ∈Mn,p(K), λ ∈ K. Alors– t(tA) = A, t(A+B) = tA+ tB et t(λA) = λtA (la transposition est linéaire).– pour 1 6 k 6 p, tCk(A) = Lk(tA).– pour 1 6 k 6 n, tLk(A) = Ck(tA).

La transposition permute le rôle des lignes et des colonnes. En particulier :– la matrice A est échelonnée en colonnes (resp. en lignes) si, et seulement si, tA est échelonnée en

lignes (resp. en colonnes).– la matrice A est triangulaire supérieure (resp. inférieure) si, et seulement si, tA est triangulaire

inférieure (resp. supérieure).

Cas des matrices carrées

DéfinitionLa matrice A ∈Mn(K) est dite symétrique (resp. anti-symétrique si, et seulement si, tA = A (resp.tA = −A).

Exemple 5. La matrice nulle est symétrique et anti-symétrique. La matrice In est symétrique. Les matrices

1 2 32 3 43 4 5

et

1 · · · 1...

...1 · · · 1

sont symétriques ; la matrice

0 1 2−1 0 1−2 −1 0

est anti-symétrique.

Remarque 2. Si la matrice A est anti-symétrique, sa diagonale est nulle.

Page 52: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

48 Chapitre 20. Calcul matriciel

PropositionNotons S (resp. A ) l’ensemble des matrices symétriques (resp. anti-symétriques) de Mn(K). Alors– S et A sont deux sous-espaces vectoriels supplémentaires de Mn(K) : Mn(K) = S ⊕A .

– Notons Aij =

{Eij + Eji si i < j

Eii si i = jet Bij = Eij −Eji pour i < j. Alors la famille (Aij)16i6j6n

est une base de S et la famille (Bij)16i<j6n est une base de A . En particulier, dim(S ) = n(n+1)2

et dim(A ) = n(n−1)2 .

preuve :

le fait que S et A soient des sous-espaces vectoriels est évident (car l’applicationA 7→ tAest linéaire).Si une matrice A est à la fois symétrique et antisymétrique, alors elle est égale à son opposée, doncnulle. Par suite, S ∩ A = {0}. De plus, pour toute matrice A ∈ Mn(K), les matrices As = A+ tA

2 et

Ai = A− tA2 sont respectivement symétrique t antisymétrique, et vérifient A = As +Ai, ce qui prouve que

Mn(K) = S + A , d’où finalement Mn(K) = S ⊕A .Les familles (Aij)16i6j6n et (Bij)16i<j6n sont clairement des familles libres d’éléments de S et A res-pectivement, donc les dimensions vérifient dim(S ) > n(n+1)

2 et dim(A ) > n(n−1)2 . Démontrons l’égalité.

On a, grâce aux inégalités obtenues,

n2 = dim(Mn(K)) = dim(S ⊕A ) = dim(S ) + dim(A ) >n(n+ 1)

2+n(n− 1)

2= n2

donc l’inégalité est en fait une égalité, donc dim(S ) = n(n+1)2 et dim(A ) = n(n−1)

2 . Les familles libresque l’on a exhibées sont donc aussi génératrices, car elles ont le bon cardinal.

DéfinitionSoit A = [aij ] ∈Mn(K). La trace de A est le scalaire Tr(A) =

∑ni=1 aii = a11 + · · ·+ ann.

C’est donc la somme des éléments diagonaux de la matrice.

Exemple 6. La trace de la matrice nulle est nulle ; la trace de la matrice In est n.

PropositionL’application trace est linéaire. En particulier, l’ensemble des matrices de trace nulle est un sous-espace vectoriel de dimension n2 − 1 de Mn(K).

20.1.4 Produit matriciel

a) Produit

Considérons trois K-espaces vectoriels E, F et G, de dimension respectives p, n et q non nulles, debases respectives B = (e1, . . . , en), C et D . Considérons aussi deux applications linéaires f ∈ L(E,F ) etg ∈ L(F,G), de matrices respectives A = matB,C (f) ∈Mn,p(K) et B = matC ,D(g) ∈Mq,n(K).

EB

f−→AFC

g−→BGD

La question qui nous intéresse est de déterminer la matrice C = matB,D(g ◦ f) ∈ Mq,p(K) en fonction

des matrices A et B. Nous savons que la jème colonne de cette matrice est la matrice de (g ◦ f)(ej) dansla base D . On a donc, pour 1 6 j 6 p :

Cj(C) = matD

((g(f(ej))

)= matC ,D(g)×

(matC (f(ej))

)= matC ,D(g)× Cj(A)

On est donc naturellement conduit à adopter la

DéfinitionSoient A ∈Mn,p(K) et B ∈Mq,n(K). Le produit de la matrice B par la matrice A (dans cet ordre)est la matrice C ∈Mq,p(K) définie par ses colonnes : pour 1 6 j 6 p,

Cj(C) = B × Cj(A).

On note C = BA = B ×A.

Page 53: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.1. Matrices 49

Par définition du produit matriciel, on a donc Cj(BA) = BCj(A) . En particulier, si A est une matrice

colonne (i.e. si p = 1), on retrouve la définition du produit d’une matrice rectangulaire par une matricecolonne. Le produit général se fait donc « ligne par colonne ». Une condition nécessaire et suffisante pourque l’on puisse effectuer le produit de deux matrices est que celle de gauche ait le autant de colonnes quecelle de droite a de lignes.

Exemple 1. Pour A =

a λb µc ν

et B =

[1 2 3−1 3 −2

], on a

BA =[

1 2 3−1 3 −2

]a λb µc ν

=

[a+ 2b+ 3c λ+ 2µ+ 3ν−a+ 3b− 2c −λ+ 3µ− 2ν

].

Les formules pour le produit matriciel sont les suivantes : si A = [aij ] ∈ Mn,p(K) et B = [bij ] ∈Mp,q(K), alors les coefficients de la matrice C = [cij ] = AB ∈Mn,q(K) sont donnés par :

∀(i, j) ∈ [[1, n]]× [[1, q]], cij =p∑

k=1

aikbkj .

En effet, la jème colonne

c1j

...cnj

est donnée par

c1j

...cnj

=

a11 · · · a1p

......

an1 · · · anp

b1j

...bpj

,

ce qui prouve la formule en examinant la ième ligne de cette égalité.

Attention! le produit matriciel n’est pas commutatif ! La première raison est que, en général, si leproduit BA a un sens (i.e. si B a autant de colonnes que A a de lignes), le produit AB n’en a pas (car An’a pas autant de colonnes que B a de lignes). Même dans le cas où les formats des matrices permettentde définir les produits AB et BA (par exemple, si A,B ∈ Mn(K)), ceux-ci n’ont aucune raison d’êtreégaux.

Exemple 2. Pour A =[1 00 2

]et B =

[0 21 0

], on a

AB =[0 22 0

]6=[0 41 0

]= BA.

Le produit de deux matrices a été défini de façon à ce que le théorème suivant soit vrai :

ThéorèmeSoient E, F et G trois K-espaces vectoriels munis de bases respectives B, C et D , ainsi quef ∈ L(E,F ), g ∈ L(F,G). Alors

matB,D(g ◦ f) = matC ,D(g) matB,C (f).

On en déduit immédiatement, en passant aux applications linéaires associées :

ThéorèmePour toutes matrices dont les formats respectifs permettent de faire le produit et pour tout sca-laire λ, on a :– (A+B)C = AC +BC– A(B + C) = AB +AC– (λA)B = A(λB) = λ(AB)– (AB)C = A(BC)

Page 54: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

50 Chapitre 20. Calcul matriciel

Attention! les formats des matrices ne sont pas les mêmes pour chacune de ces formules : par exemple,le première nécessite que A et B soient de même format ; la deuxième nécessite que A ait autant decolonnes que A a de lignes. Ces formules sont vraies en particulier dans le cas important des matricescarrées : toutes les matrices ont n lignes et n colonnes. On reconnaît ici les propriétés d’une algèbre : eneffet, Mn(K) est une K-algèbre, son élément neutre est la matrice In. Si E est un K-espace vectoriel dedimension n muni d’une base B, l’application Φ : L(E) −→ Mn(K)

f 7−→ matB(f)est d’ailleurs un isomorphisme

de K-algèbres.

PropositionLes ensembles T +

n (K) et T −n (K) (matrices triangulaires supérieures et inférieures) sont des sous-algèbres de Mn(K). De plus, si A et B sont deux matrices triangulaires supérieures (resp. infé-rieures), alors les termes diagonaux de la matrice C = AB vérifient cii = aiibii pour 1 6 i 6 n.

preuve :

il est clair que T +n (K) est un sous-espace vectoriel de Mn(K), qui contient la matrice In.

Vérifions qu’il est stable par produit. Pour cela, soient A = [aij ] et B = [bij ] deux matrices de T +n (K).

Notons C = [cij ] le produit AB. Pour 1 6 i, j 6 n, on a

cij =n∑

k=1

aikbkj .

Du fait que A et B sont triangulaires supérieures, on a aik = 0 lorsque i > k, de même que bkj = 0lorsque k > j. Ainsi, la somme peut aussi s’écrire

cij =j∑

k=i

aikbkj .

Lorsque i > j, cette somme est indexée par l’ensemble vide : elle est nulle. Par suite, la matrice C esttriangulaire supérieure. De plus, lorsque i = j, une seule valeur de k fournit une contribution non nulleà la somme : c’est k = i = j, donc cii = aiibii.La preuve est tout à fait similaire pour les matrices triangulaires inférieures.

Exemple 3. En prenant A =[1 20 3

]et B =

[x y0 z

], on a

AB =[x y + 2z0 3z

].

b) Transposition

ThéorèmeSoient A = [aij ] ∈Mn,p(K) et B = [bij ] ∈Mp,q(K). Alors t(AB) = tBtA.

preuve :

notons C = [cij ] le produit C = AB et C′ = [c′ij ] le produit tBtA. Il s’agit de montrerque C′ = tC, i.e. que c′ij = cji pour 1 6 i, j 6 n.

En notant a′ij = aji et b′ij = bji, on a tA = [a′ij ] et tB = [b′ij ], d’où, pour 1 6 i, j 6 n :

c′ij =n∑

k=1

b′ika′kj =

n∑

k=1

bkiajk =n∑

k=1

ajkbki = cji

CorollaireSoient A ∈ Mn,p(K) et B ∈ Mp,q(K). Pour i ∈ [[1, n]], la ième ligne de la matrice AB est donnéepar

Li(AB) = Li(A)B.

preuve :

en effet, on a Ci(tBtA) = tBCi(tA) d’où, en transposant : Li(t(tBtA)) = Li(t(tA))t(tB),soit Li(AB) = Li(A)B.

Page 55: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.1. Matrices 51

c) Inversibilité

DéfinitionLe groupe linéaire (d’indice n) de K est l’ensemble GLn(K) des matrices inversibles de Mn(K).

C’est bien sûr un groupe pour le produit des matrices, l’élément neutre étant In. Si E est un K-espacevectoriel de dimension n muni d’une base B, l’application

Φ : L(E) −→ Mn(K)f 7−→ matB(f)

induit un isomorphisme du groupe linéaire GL(E) de E sur le groupe linéaire GLn(K). Des résultatssur les endomorphismes d’un espace de dimension finie, on déduit immédiatement (c’en est la versionmatricielle) :

ThéorèmeSoit A ∈Mn(K). Les assertions suivantes sont équivalentes :1) A ∈ GLn(K) (la matrice A est inversible)2) ∃B ∈Mn(K) | AB = In (la matrice A est inversible à droite)3) ∃B ∈Mn(K) | BA = In (la matrice A est inversible à gauche)4) rg(A) = n5) Ker(A) = {0}

PropositionSoit A ∈ Mn(K). La matrice A est inversible si, et seulement si, tA l’est. Si c’est le cas, on a(tA)−1 =t (A−1).

preuve :

si la matrice A est inversible, l’égalité AA−1 = In fournit, en transposant, l’égalitét(A−1)tA = In. Ceci prouve que la matrice tA est inversible (car inversible à gauche), et que son inverseest t(A−1).Réciproquement, si tA est inversible, alors A =t (tA) l’est aussi.

CorollaireSi A est une matrice symétrique (resp. anti-symétrique) inversible, son inverse l’est aussi.

preuve :

en effet, si A est inversible et tA = A, alors t(A−1) = (tA)−1 = A−1 donc A−1 estsymétrique. La preuve est identique si A est anti-symétrique.

PropositionSoit A une matrice triangulaire (inférieure ou supérieure). Alors A est inversible si, et seulement si,ses termes diagonaux sont non nuls. Si c’est le cas, alors A−1 est triangulaire, de même type que A(inférieure ou supérieure). En outre, si les coefficients diagonaux de A sont (a1, . . . , an), ceux deA−1 sont (a−1

1 , . . . , a−1n ).

preuve :

soit A une matrice triangulaire supérieure inversible. Considérons l’application

Φ : T +n (K) −→ T +

n (K)M 7−→ AM

.

C’est une application linéaire (elle est bien définie car le produit de deux matrices triangulaires supérieuresen est encore une). L’application Φ est injective : en effet, si la matrice M appartient à son noyau, alorsAM = 0, d’où, en multipliant à gauche par A−1 (A est inversible) : M = 0. L’espace étant de dimensionfinie, Φ est donc un isomorphisme. Or la matrice In appartient à T +

n (K), donc admet un antécédent par Φ,c’est-à-dire qu’il existe une matrice B ∈ T +

n (K) telle que AB = In. Cette matrice B est nécessairementl’inverse de A, qui est donc triangulaire supérieure. Si les termes diagonaux de A sont (a1, . . . , an) etceux de B sont (b1, . . . , bn), alors ceux du produit AB = In sont (a1b1, . . . , anbn), d’où bk = a−1

k pour1 6 k 6 n.Il reste donc à montrer la réciproque : si A est triangulaire supérieure de termes diagonaux non nuls, elleest inversible. C’est vrai car alors ses colonnes sont échelonnées, donc son rang est égal à n.Le démonstration est identique pour les matrices triangulaires inférieures (ou, mieux, se déduit du faitque A est inversible si, et seulement si, tA l’est, et qu’alors (tA)−1 =t (A−1)).

Page 56: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

52 Chapitre 20. Calcul matriciel

Exemple 4. La matrice A =

1 2 30 −1 20 0 2

est inversible, son inverse est de la forme A−1 =

1 ∗ ∗0 −1 ∗0 0 1

2

(pour déterminer les termes marqués d’une étoile, il faut par exemple résoudre un système linéaire).

Remarque 1. Le calcul de l’inverse d’une matrice triangulaire par résolution d’un système linéaire sefait rapidement car on peut déterminer les inconnues une à une. Dans l’exemple précédent, en notant lamatrice A−1 sous la forme

A−1 =

1 x y0 −1 z0 0 1

2

,

l’égalité

1 2 30 −1 20 0 2

·

1 x y0 −1 z0 0 1

2

=

1 0 00 1 00 0 1

fournit, en examinant le produit L2(A) · C3(A−1), l’égalité −z + 2 · 12 = 0, d’où z = 1. Le produit

L1(A) ·C2(A−1) fournit ensuite x+ 2(−1) = 0, d’où x = 2, et enfin l’égalité L1(A) ·C3(A−1) = 0 fournity + 2z + 3 · 1

2 = 0, soit y = − 72 .

d) Puissances de matrices

Le cas le plus simple pour calculer les puissances d’une matrice est le cas où la matrice est diagonale :si D = diag(a1, . . . , ap), alors on a Dn = diag(an

1 , . . . , anp ) pour tout entier n ∈ N. Si les ai sont en outre

tous non nuls, alors A est inversible, et la formule précédente est encore vraie pour n < 0.Un cas un peu moins simple est celui des matrices triangulaires (disons supérieures pour fixer les

idées). D’après le résultat précédent, si

A =

a1 ∗ · · · ∗0 a2

. . ....

.... . .

. . . ∗0 · · · 0 ap

, alors An =

an1 ∗ · · · ∗0 an

2

. . ....

.... . .

. . . ∗0 · · · 0 an

p

pour tout entier n ∈ N, les termes marqués par une étoile sur An dépendant de n (et étant moins facilesà déterminer). Ici aussi, la formule est encore valable pour n < 0 si A est inversible (i.e. si tous les ai

sont non nuls).

Plus généralement, si P =n∑

k=0

λkXk est un polynôme, on peut définir P (A) =

n∑

k=0

λkAk : c’est encore

une matrice triangulaire supérieure, et elle vérifie

P (A) =

P (a1) ∗ · · · ∗0 P (a2)

. . ....

.... . .

. . . ∗0 · · · 0 P (ap)

.

En effet, on a

P (A) = λ0

1 0 · · · 0

0 1. . .

......

. . .. . . 0

0 · · · 0 1

+ λ1

a1 ∗ · · · ∗0 a2

. . ....

.... . .

. . . ∗0 · · · 0 ap

+ · · ·+ λn

an1 ∗ · · · ∗0 an

2

. . ....

.... . .

. . . ∗0 · · · 0 an

p

.

Dans certains cas, on peut calculer explicitement les termes situés au-dessus de la diagonale.

PropositionSoit A ∈Mp(K) une matrice triangulaire stricte. Alors A est nilpotente d’indice inférieur ou égalà p.

Page 57: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.1. Matrices 53

preuve :

il suffit de le prouver dans le cas d’une matrice

A =

0 ∗ · · · ∗0 0

. . ....

.... . .

. . . ∗0 · · · 0 0

triangulaire supérieure stricte, le cas des matrices triangulaires inférieures strictes s’en déduisant partransposition. Notons f ∈ L(Kp) l’endomorphisme canoniquement associé à A et B = (e1, . . . , ep) labase canonique de Kp. La forme de la matrice indique que, pour tout entier k ∈ [[2, p]], on a f(ek) ∈Vect(e1, . . . , ek−1) et que f(e1) = 0. Par suite, en notant Ek = Vect(e1, . . . , ek) pour 1 6 k 6 p, on af<Ek> ⊂ Ek−1 pour k ∈ [[2, p]]. On en déduit

Im(f) = f<Ep> ⊂ Ep−1,

puisIm(f2) = f2<Ep> ⊂ f<Ep−1> ⊂ Ep−2

et, par récurrence descendante :Im(fp−1) ⊂ E1,

qui permet de conclure que Im(fp) ⊂ f<E1> = {0}, donc que fp = 0. Ainsi, f est nilpotente d’indiceinférieur ou égal à n.

Soit A une matrice triangulaire. Notons D la matrice diagonale formée des termes diagonaux de A :alors N = A−D est triangulaire stricte, donc nilpotente. On a donc A = D + N , où D est une matricediagonale (dont les puissances sont faciles à calculer) et N nilpotente (dont il n’y a qu’un nombre finide puissances à calculer). Par suite, si D et N commutent (et seulement dans ce cas), on peut calculerAn = (D +N)n grâce à la formule du binôme.Un cas particulier est celui où tous les termes diagonaux de A sont égaux : alors la matrice D est de laforme λ Ip, donc commute à N (car elle commute à tout le monde).

Exemple 5. Calculons les puissances de A =

3 1 −10 3 20 0 3

. On a ici

D =

3 0 00 3 00 0 3

et N =

0 1 −10 0 20 0 0

.

Les matrices D et N commutent et N est nilpotente d’indice inférieur ou égal à 3 (en fait 3 exactementcomme le calcul de N2 va le montrer). On calcule

N2 =

0 0 20 0 00 0 0

(il est inutile de calculer N3 car on sait a priori qu’elle est nulle. Rien n’empêche de le vérifier).Pour tout entier n > 0, on a donc

An = (D +N)n =n∑

k=0

(n

k

)Dn−kNk

=(n

0

)(3 I3)nN0 +

(n

1

)(3 I3)n−1N +

(n

2

)(3 I3)n−2N2 + 0

= 3n I3 +3n−1nN + 3n−2n(n− 1)2

N2

= 3n−2

9 3n n2 − 4n0 9 6n0 0 9

.

Page 58: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

54 Chapitre 20. Calcul matriciel

Cette expression n’est a priori valable que pour n > 2 (dans la somme, on a écrit les coefficients(

n0

),(

n1

)

et(

n2

)). En fait, elle est aussi valable pour n = 0 et n = 1 : en effet, si n = 1, le coefficient

(n2

)est nul ;

de même, si n = 0, les coefficients(

n0

)et(

n1

)sont nuls. (En fait, cette expression est encore valable pour

n < 0 ; par exemple, en remplaçant n par −1, on trouve l’expression de A−1, mais ce n’est plus aussisimple à démontrer).

Application : calculons, en fonction du triplet (u0, v0, w0) ∈ C3, l’expression de un, vn, wn définis par :

∀n ∈ N,

un+1 = 3un + vn − wn

vn+1 = 3vn + 2wn

wn+1 = 3wn

Matriciellement, la relation s’écrit encore

∀n ∈ N,

un+1

vn+1

wn+1

= A

un

vn

wn

,

d’où l’on tire, par une récurrence immédiate :

∀n ∈ N,

un

vn

wn

= An

u0

v0

w0

,

c’est-à-dire :

∀n ∈ N,

un = 3n−2

(9u0 + 3nv0 + (n2 − 4n)w0

)

vn = 3n−1(3v0 + 2nw0)wn = 3nw0

.

Attention! Cette méthode n’est valable que lorsque D et N commutent, ce qui n’est pas toujours lecas. Par exemple, il est moins facile de calculer les puissances de la matrice

A =[1 20 2

]=[1 00 2

]+[0 20 0

]= D +N

car D et N ne commutent pas : en effet,

DN =[0 20 0

]6=[0 40 0

]= ND.

20.1.5 Rang

PropositionSoit A ∈Mn,p(K). Alors rg(A) 6 min(n, p).

En d’autres termes, le rang de A est inférieur ou égal au nombre de colonnes, comme au nombre delignes, de la matrice.

preuve :

le rang de A est la dimension de l’espace vectoriel Im(A) = Vect(C1(A), . . . , Cp(A)

).

Comme cet espace est engendré par p vecteurs, il est de dimension inférieure ou égale à p. Mais on a aussiIm(A) ⊂Mn,1(K), espace de dimension n, donc rg(A) 6 n.

PropositionLe rang de A est le nombre de colonnes linéairement indépendantes de A.

C’est-à-dire : si rg(A) = r, on peut trouver r colonnes de A linéairement indépendantes, mais r + 1colonnes seront toujours liées.

preuve :

la famille(C1(A), . . . , Cp(A)

)engendre Im(A), donc on peut en extraire une base : c’est

une famille de r colonnes, linéairement indépendantes, où r = rg(A). Si l’on choisit r + 1 colonnes aumoins, elles sont liées car appartiennent à un espace vectoriel (Im(A)) de dimension r.

Page 59: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.1. Matrices 55

PropositionSoient A ∈Mn,p(K), U ∈ GLn(K), V ∈ GLp(K). Alors rg(UAV ) = rg(A).

En d’autres termes, le rang d’une matrice est invariant par multiplication par une matrice inversible,à gauche comme à droite.

preuve :

résulte immédiatement du théorème correspondant sur les applications linéaires ; le rangd’une matrice n’étant autre que le rang de l’application linéaire canoniquement associée.

Notation : convenons de noter Jr la matrice suivante de Mn,p(K) (pour r 6 min(n, p)) :

Jr =[Ir 00 0

]

(ses r premières colonnes sont les mêmes que celles de la matrice In ; les colonnes suivantes sont nulles).C’est évidemment une matrice de rang r.

Cette matrice permet de caractériser les matrices de rang r grâce au

ThéorèmeSoit A ∈ Mn,p(K). Alors rg(A) = r si, et seulement si, il existe deux matrices inversibles U ∈GLn(K), V ∈ GLp(K), telles que UAV = Jr.

preuve :

– l’existence de deux telles matrices implique bien rg(A) = r car le rang est invariantpar multiplication par une matrice inversible.– Réciproquement, supposons rg(A) = r. On peut même supposer r 6= 0 (sinon, A = 0 = J0, donc lesmatrices U = In et V = Ip conviennent à l’évidence). Notons f l’endomorphisme canoniquement associéà f , B = (e1, . . . , ep) la base canonique de Kp et C = (ε1, . . . , εn) la base canonique que Kn. La matrice Areprésente la situation

KpB

f−→KnC

Pour résoudre le problème, il suffit de trouver deux bases B′ = (e′1, . . . , e′p) et C ′ = (ε1, . . . , εn) de Kp

et Kn respectivement, et deux isomorphismes u ∈ GL(Kn), v ∈ GL(Kp), tels que la matrice Jr représentela situation

KpB′

v−→KpB

f−→KnC

u−→KnC ′

c’est-à-dire tels que u(f(v(e′i))) = ε′i pour 1 6 i 6 r et u(f(v(e′i))) = 0 pour i > r.Commençons par choisir une base (e′1, . . . , e

′r) d’un supplémentaire H de Ker(f) dans Kp (on sait

qu’un tel supplémentaire a pour dimension r : c’est ce qui a permis de démontrer la formule du rang) etcomplétons cette famille libre de Kp en une base B′ = (e′1, . . . , e

′p) de Kp.

Posons maintenant, pour 1 6 i 6 r, ε′i = f(e′i). C’est une famille libre de Kn : en effet, c’est l’imagede la famille libre (e′1, . . . , e

′r) par l’application injective f |H (car H est un supplémentaire de Ker(f)

dans Kp) et complétons-la en une base (ε′1, . . . , ε′n) de Kn. Choisissons enfin v = IdKp et u = IdKn .

On a bien, comme voulu, u(f(v(e′i))) = ε′i pour 1 6 i 6 r et u(f(v(e′i))) = 0 pour i > r. Parsuite, en notant U = matC ,C ′(IdKn) et V = matB,B′(IdKp ), on a bien U ∈ GLn(K), V ∈ GLp(K) etUAV = Jr.

Remarque 1. Nous verrons un peu plus loin comment déterminer en pratique deux telles matrices.

On en déduit le corollaire non trivial suivant :

CorollairePour toute matrice A ∈Mn,p(K), on a rg(tA) = rg(A).

preuve :

soit r = rg(A). Soient U ∈ GLn(K), V ∈ GLp(K) telles que UAV = Jr. Alors, entransposant, on a tV tAtU =t Jr = Jr, où les matrices tV et tU sont inversibles, ce qui prouve querg(tA) = r = rg(A).

CorollaireLe rang de A est aussi le nombre de lignes linéairement indépendantes de A.

Page 60: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

56 Chapitre 20. Calcul matriciel

20.2 Opérations élémentaires

20.2.1 Opérations permises

DéfinitionSoit A ∈Mn,p(K). Les opérations élémentaires sur les colonnes de A sont :– permutation des ième et jème colonnes (pour i 6= j), notée Ci ↔ Cj .– multiplication de la ième colonne par un scalaire λ 6= 0, notée Ci ← λCi.– ajout, pour i 6= j et λ ∈ K, de λ fois la jème colonne à la ième, notée Ci ← Ci + λCj .On définit aussi les opérations élémentaires sur les lignes, avec des notations similaires.Une manipulation sur A est une succession finie d’opérations élémentaires sur (les lignes et lescolonnes de) A.

Exemple 1. Pour A =[1 23 4

], on peut écrire les opérations élémentaires suivantes :

[1 23 4

]C2←C2−2C1

−2−→[1 03 1

]L2←L2−3L1→

[1 00 1

]

Attention! ces trois matrices ne sont pas égales ! Chacune est obtenue par opération élémentaire sur laprécédente, mais il ne faut pas écrire le signe = entre les différentes matrices.

ThéorèmeSoit A ∈Mn,p(K), A1 une matrice obtenue par manipulation sur les lignes de A, A2 une matriceobtenue par manipulation sur les colonnes de A. Alors

Ker(A1) = Ker(A) et Im(A2) = Im(A)

En particulier, les manipulations ne modifient pas le rang d’une matrice.

preuve :

– l’image de la matrice A est Vect(C1(A), . . . , Cp(A)

), dont on sait qu’il est invariant

par opérations élémentaires sur les colonnes, donc Im(A2) = Im(A) (et donc rg(A2) = rg(A)).– Le noyau de A est Ker(A) = {X ∈Mp,1(K) | AX = 0}. Il admet pour équations le système

L1(A).X = 0...

Ln(A).X = 0

.

Si l’on fait les mêmes opérations élémentaires sur ce système que celles que l’on fait sur les lignes de Apour obtenir la matrice A1, on obtient le système équivalent suivant :

L1(A1).X = 0...

Ln(A1).X = 0

,

qui est un système d’équations cartésiennes de A1, ce qui prouve que Ker(A1) = Ker(A). En particulier,ces noyaux ont même dimension donc, par la formule du rang, rg(A1) = rg(A) (attention ! contrairementau cas des manipulations sur les colonnes, on n’a pas ici Im(A1) = Im(A) : ils ont seulement mêmedimension).

Ces opérations élémentaires peuvent se réaliser par des multiplications de matrices. À cet effet, intro-duisons les matrices élémentaires : ce sont les matrices

– Pij = In−Eii − Ejj + Eij + Eji =

1. . . 0

10 · · · 1 ← i...

. . ....

1 · · · 0 ← j1

0 . . .1

pour i 6= j : matrice

de permutation.

Page 61: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.2. Opérations élémentaires 57

– Di,a = In +(a− 1)Eii =

1. . . 0

1a ← i

1

0 . . .1

pour a 6= 0 : matrice de dilatation.

– Ti,j,a = In +aEij =

1. . . 0a

. . . ← i1

↑j

pour i 6= j : matrice de transvection.

Ces matrices élémentaires sont évidemment inversibles, d’inverses respectifs données par la

Proposition

P−1ij = Pij (pour i 6= j), D−1

i,a = Di, 1a

(pour a 6= 0) et T−1i,j,a = Ti,j,−a (pour i 6= j).

preuve :

il suffit d’effectuer les produits P 2ij , Di,aDi, 1

aet Ti,j,aTi,j,−a pour constater qu’ils sont

tous égaux à la matrice identité.Le lien entre ces matrices élémentaires et les opérations élémentaires sur les matrices est la remarque

évidente suivante :– la matrice Pij est obtenue grâce à l’opération Ci ↔ Cj sur la matrice In.– la matrice Di,a est obtenue grâce à l’opération Ci ← aCi sur la matrice In.– la matrice Ti,j,a est obtenue grâce à l’opération Cj ← Cj + aCi sur la matrice In.

et– la matrice Pij est obtenue grâce à l’opération Li ↔ Lj sur la matrice In.– la matrice Di,a est obtenue grâce à l’opération Li ← aLi sur la matrice In.– la matrice Ti,j,a est obtenue grâce à l’opération Li ← Li + aLj sur la matrice In.

Il en résulte immédiatement la conséquence suivante : si A est une matrice de Mn,p(K), alors– la matrice APij est obtenue grâce à l’opération Ci ↔ Cj sur la matrice A.– la matrice ADi,a est obtenue grâce à l’opération Ci ← aCi sur la matrice A.– la matrice ATi,j,a est obtenue grâce à l’opération Cj ← Cj + aCi sur la matrice A.

et– la matrice PijA est obtenue grâce à l’opération Li ↔ Lj sur la matrice A.– la matrice Di,aA est obtenue grâce à l’opération Li ← aLi sur la matrice A.– la matrice Ti,j,aA est obtenue grâce à l’opération Li ← Li + aLj sur la matrice A.En effet, prouvons la première relation à titre d’exemple (les autres se démontrant de la même façon).

Il s’agit de montrer que la matrice APij est obtenue grâce à l’opération Ci ↔ Cj sur la matrice A, i.e.

que Ck(APij) = Ck(A) si k 6= i, j, alors que Ci(APij) = Cj(A) et Cj(APij) = Ci(A).Soit k 6= i, j. Alors

Ck(APij) = ACk(Pij) = ACk(Ip) = Ck(A Ip) = Ck(A).

En revanche, on aCi(APij) = ACi(Pij) = ACj(Ip) = Cj(A Ip) = Cj(A)

etCj(APij) = ACj(Pij) = ACi(Ip) = Ci(A Ip) = Ci(A)

ce qui prouve le résultat.En d’autres termes, toute opération sur les lignes (resp. les colonnes) d’une matrice peut être réalisée

par multiplication à gauche (resp. à droite) par des matrices élémentaires.

Remarque 1. Bien que les notations utilisées n’en rendent pas compte, les matrices élémentaires que l’onutilise pour multiplier à gauche ou à droite de A n’ont pas le même format : celles qui permettent demultiplier à droite appartiennent à Mp(K) ; celles qui permettent de multiplier à gauche appartiennentà Mn(K).

Page 62: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

58 Chapitre 20. Calcul matriciel

Par opérations élémentaires, on sait que l’on peut transformer une matrice en une matrice échelonnée.Matriciellement, cela donne la

PropositionSoit A ∈Mn,p(K), r son rang (r > 0). Alors– il existe une matrice U ∈ GLn(K) telle que la matrice A′ = UA soit échelonnée en lignes, derang r.– il existe une matrice V ∈ GLp(K) telle que la matrice A′′ = AV soit échelonnée en colonnes, derang r.

preuve :

si Φ est une opération élémentaire sur les matrices, notons [Φ] la matrice correspondante.La méthode du pivot nous permet, par une suite d’opérations élémentaires sur les lignes, d’obtenir unematrice A′ échelonnée en lignes :

AΦ1−→A1

Φ2−→A2 · · ·Φq−→A′.

Matriciellement, on a

A′ = [Φq] · [Φq−1] · · · [Φ1]︸ ︷︷ ︸U

·A,

où la matrice U est inversible car produit de matrices inversibles. La démonstration est la même pour lesopérations sur les colonnes, à ceci près que l’on multiplie par des matrices élémentaires à droite de A etnon plus à gauche.

Attention! Il n’y a pas unicité de telles matrices U et V : elles dépendent des choix que l’on fait pourpratiquer la méthode du pivot.

Exemple 2. Déterminons deux telles matrices U et V pour A =

1 2 32 5 81 3 52 3 4

∈ M4,3(R). Commençons

par chercher une matrice U ∈ GL4(R) telle que la matrice A′ = UA soit échelonnée en lignes. On a leséquivalences suivantes :

1 0 0 00 1 0 00 0 1 00 0 0 1

A =

1 2 32 5 81 3 52 3 4

L2 ← L2 − 2L1

L3 ← L3 − L1

L4 ← L4 − 2L1

⇐⇒

1 0 0 0−2 1 0 0−1 0 1 0−2 0 0 1

A =

1 2 30 1 20 1 20 −1 −2

L3 ← L3 − L2

L4 ← L4 + L2

⇐⇒

1 0 0 0−2 1 0 0−1 −1 1 0−4 1 0 1

︸ ︷︷ ︸U

A =

1 2 30 1 20 0 00 0 0

︸ ︷︷ ︸A′

.

En particulier, on a rg(A) = rg(A′) = 2.

Page 63: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.2. Opérations élémentaires 59

Pour travailler sur les colonnes, on multiplie à droite :

A

1 0 00 1 00 0 1

=

1 2 32 5 81 3 52 3 4

C2 ← C2 − 2C1

C3 ← C3 − 3C1

⇐⇒ A

1 −2 −30 1 00 0 1

=

1 0 02 1 01 1 22 −1 −2

C3 ← C3 − 2C2

⇐⇒ A

1 −2 10 1 −20 0 1

︸ ︷︷ ︸V

=

1 0 02 1 01 1 02 −1 0

︸ ︷︷ ︸A′′

,

qui permet de retrouver rg(A) = 2.

20.2.2 Détermination du noyau, de l’image et de l’inverse d’une matrice

PropositionSoit A ∈ Mn,p(K) et r son rang. On suppose que 1 6 r 6 p − 1 (si le rang est égal à 0 ou à p, iln’y a pas grand’chose à dire...). Soit V ∈ GLp(K) telle que la matrice A′′ = AV soit échelonnéeen colonnes. Alors– la famille

(C1(A′′), . . . , Cr(A′′)

)est une base de Im(A).

– la famille(Cr+1(V ), . . . , Cp(V )

)est une base de Ker(A).

preuve :

la matrice A′′ étant échelonnée en lignes et de rang r, les colonnes C1(A′′), . . . , Cr(A′′)sont linéairement indépendantes et les suivantes sont nulles, donc la famille

(C1(A′′), . . . , Cr(A′′)

)est une

base de Im(A′′) = Im(A).Pour démontrer le deuxième point, notons V1 et V2 les matrices

V1 =[C1(V ) · · · Cr(V )

]et V2 =

[Cr+1(V ) · · · Cp(V )

],

de sorte que l’on ait V =[V1 V2

]. La relation AV = A′′ s’écrit encore

[AV1 AV2

]= A′′ =

[C1(A′′) · · ·Cr(A′′) 0 · · · 0

].

Par suite, on a AV2 = 0, donc les colonnes Cr+1(V ), . . . , Cp(V ) appartiennent au noyau de A. Comme cescolonnes sont extraites de la famille (C1(V ), . . . , Cp(V )), libre car la matrice V est inversible, elles sontlinéairement indépendantes. Il y en a p − r, ce qui est la dimension de Ker(A) par la formule du rang,donc elles forment une base de Ker(A).

Remarque 1. La deuxième partie de cette proposition ne figurant pas explicitement au programme, vousêtes priés de justifier ce résultat (au moins la première fois) lorsque vous l’utilisez.

Exemple 1. Reprenons l’exemple de la matrice A =

1 2 32 5 81 3 52 3 4

. On a démontré la relation

A

1 −2 10 1 −20 0 1

=

1 0 02 1 01 1 02 −1 0

Page 64: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

60 Chapitre 20. Calcul matriciel

d’où, immédiatement : Im(A) = Vect(

1212

,

011−1

). De plus, l’égalité matricielle montre que

A

1−2

1

=

0000

,

ce qui prouve que la matrice

1−2

1

appartient à Ker(A). Comme ce dernier est de dimension 1 par la

formule du rang, c’en est une base.

On a un résultat analogue sur les lignes pour obtenir des équations :

PropositionSoit A ∈Mn,p(K), r son rang. On suppose 1 6 r 6 n− 1. Soit U ∈ GLn(K) telle que la matriceA′ = UA soit échelonnée en lignes. Alors– {L1(A′)X = 0, . . . , Lr(A′)X = 0} est un système d’équations cartésiennes de Ker(A).– {Lr+1(U)X = 0, . . . , Ln(U)X = 0} est un système d’équations cartésiennes de Im(A).

preuve :

pour le noyau, c’est évident : on sait que Ker(A′) = Ker(A). Les lignes Lr+1, . . . , Lp dela matrice A′ sont nulles, donc on a les équivalences :

X ∈ Ker(A)

⇐⇒X ∈ Ker(A′)

⇐⇒{L1(A′)X = 0, . . . , Lp(A′)X = 0}⇐⇒{L1(A′)X = 0, . . . , Lr(A′)X = 0}

Pour l’image, remarquons que l’égalité

L1(A′)...

Lr(A′)0...0

=

L1(U)...

Lr(U)Lr+1(U)

...Ln(U)

A

fournit en particulier Lr+1(U)

...Ln(U)

A =

0...0

ce qui prouve que l’image de A est incluse dans le noyau de la matrice

Lr+1(U)

...Ln(U)

. La formule du rang

prouve que ces deux espaces sont de même dimension (r), donc ils sont égaux.

Remarque 2. Ce dernier résultat est lui aussi à justifier lors de son utilisation.

Exemple 2. Reprenons encore l’exemple précédent. On a aussi démontré l’égalité

1 0 0 0−2 1 0 0−1 −1 1 0−4 1 0 1

A =

1 2 30 1 20 0 00 0 0

.

Page 65: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.2. Opérations élémentaires 61

La matrice U de gauche étant inversible, le noyau de A est égal au noyau de la matrice A′ de droite ; il apour équations [

1 2 30 1 2

]X = 0,

soit encore, en notant X =

x1

x2

x3

:

{x1 + 2x2 + 3x3 = 0

x2 + 2x3 = 0.

Pour l’image, on remarque que l’égalité fournit[

1 −1 1 0−4 1 0 1

]A =

[0 0 0 00 0 0 0

],

d’où l’on tire Im(A) ⊂ Ker[

1 −1 1 0−4 1 0 1

]. Les deux lignes de cette dernière matrice sont indépendantes

(ici, ça se voit ; de façon plus générale, ce sont des lignes extraites d’une matrice inversible) donc ladimension du noyau est égale à 4− 2 = 2, tout comme l’image de A. Ces deux espaces sont donc égaux.

En équations, un vecteur Y =

y1

y2

y3

y4

appartient à l’image de A si, et seulement si, il vérifie le système

{y1 − y2 + y3 = 0−4y1 + y2 + y4 = 0

.

Remarque 3. Une façon un peu différente de présenter les calculs pour déterminer des équations del’image de A et qui vous est peut-être plus familière est la suivante. Un vecteur Y ∈Mn,1(K) appartientà l’image de A si, et seulement si, il existe un vecteur X ∈ Mp,1(A) tel que Y = AX . On cherche doncà résoudre le système linéaire AX = Y . Faisons-le en reprenant toujours l’exemple précédent. On choisit

un vecteur arbitraire Y =

y1

y2

y3

y4

et on cherche à quelle condition il existe un vecteur X =

x1

x2

x3

tel que

Y = AX . On a donc un système linéaire à résoudre, d’inconnues x1, x2, x3, de paramètres y1, y2, y3, y4 :

x1 + 2x2 + 3x3 = y1

2x1 + 5x2 + 8x3 = y2

x1 + 3x2 + 5x3 = y3

2x1 + 3x2 + 4x3 = y4

L2 ← L2 − 2L1

L3 ← L3 − L1

L4 ← L4 − 2L1

⇐⇒

x1 + 2x2 + 3x3 = y1

x2 + 2x3 = −2y1 + y2

x2 + 2x3 = −y1 + y3

−x2 − 2x3 = −2y1 + y4

L3 ← L3 − L2

L4 ← L4 + L2

⇐⇒

x1 + 2x2 + 3x3 = y1

x2 + 2x3 = −2y1 + y2

0 = y1 − y2 + y3

0 = −4y1 + y2 + y4

Le système étant maintenant sous forme triangulée, il est clair qu’il admet des solutions si, et seulementsi, on a y1− 2y2 + y3 = −4y1 + y2 + y4 = 0. On retrouve bien sûr les mêmes équations de l’image, et c’estbien normal : on a fait exactement les mêmes opérations, sur les lignes d’une matrice dans le premiercas, sur les lignes d’un système linéaire dans l’autre. La première méthode est préférable car elle évited’introduire des variables : on ne manipule que les coefficients des équations.

Application : détermination d’un système d’équations cartésiennes d’un sous-espace vectoriel de Kn

donné par une famille génératrice. Si (ε1, . . . , εp) est une telle famille génératrice, on forme la matriceA = matcan(ε1, . . . , εp) et on cherche des équations cartésiennes de son image.

Page 66: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

62 Chapitre 20. Calcul matriciel

Exemple 3. Dans R4, on donne les vecteurs ε1 = (1,−1, 2,−3), ε2 = (−1, 2, 0, 7) et ε3 = (1, 1, 1, 0).Déterminer un système d’équations cartésiennes de Vect(ε1, ε2, ε3).Réponse : 3x1 − 2x2 − x3 + x4 = 0.

InverseLa méthode d’échelonnement d’une matrice carrée, sur les lignes ou sur les colonnes, permet, en lapoursuivant, d’inverser une matrice lorsque celle-ci est inversible. Illustrons la méthode par un exemple.

Exemple 4. Essayons d’inverser la matrice A =

1 2 −11 3 −21 2 0

. Pour cela, commençons par la réduire en

lignes. On a successivement

1 0 00 1 00 0 1

A =

1 2 −11 3 −21 2 0

L2 ← L2 − L1

L3 ← L3 − L1

⇐⇒

1 0 0−1 1 0−1 0 1

A =

1 2 −10 1 −10 0 1

.

À ce stade, nous savons que la matrice A est de rang 3, donc inversible. Continuons à faire apparaîtredes 0 en « remontant » : les manipulations L1 ← L1 + L3 et L2 ← L2 + L3 donnent

1 0 1−2 1 1−1 0 1

A =

1 2 00 1 00 0 1

L1 ← L1 − 2L2

⇐⇒

4 −2 −1−2 1 1−1 0 1

A =

1 0 00 1 00 0 1

= I3 .

La matrice

4 −2 −1−2 1 1−1 0 1

est donc inverse à gauche de la matrice A, donc c’est son inverse.

On peut procéder de la même façon par réduction sur les colonnes de la matrice : on trouve à la fin uninverse à droite de la matrice A, donc son inverse. Faites-le sur cet exemple.

Remarque 4. Ici encore, cette méthode (du moins, lorsque l’on travaille sur les lignes) n’est rien d’autrequ’une présentation différente de calculs que vous savez déjà faire. En effet, la matrice A est ce quipermet d’exprimer les coordonnées de Y en fonction des coordonnées de X lorsque la relation Y = AXest vérifiée. Si la matrice A est inversible, cette relation équivaut à X = A−1Y . Pour connaître la matriceA−1, il suffit donc de savoir « exprimer les xi en fonction des yi ».

Exemple 5. La matrice A de l’exemple précédent est celle qui donne les formulesx1 + 2x2 − x3 = y1

x1 + 3x2 − 2x3 = y2

x1 + 2x2 = y3

.

La résolution de ce système linéaire, dont les inconnues sont x1, x2 et x3 et dont y1, y2 et y3 sont trois pa-ramètres, fournit (faites-le, au moins pour vérifier que vous savez le faire et que les calculs sont exactementles mêmes que ceux que l’on a faits à peine plus haut) :

x1 = 4y1 − 2y2 − y3

x2 = −2y1 + y2 + y3

x3 = −y1 + y3

.

Il admet une unique solution, ce qui prouve que la matrice A est inversible et que son inverse est

A−1 =

4 −2 −1−2 1 1−1 0 1

.

Page 67: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.3. Changement de base 63

20.3 Changement de base

20.3.1 Formules de changement de base

a) Vecteurs

Soit E un K-espace vectoriel, muni de deux bases B = (e1, . . . , en) et B′ = (e′1, . . . , e′n). Soit x un

vecteur de E. Notons X = matB

(x) et X ′ = matB′(x). La question est de savoir exprimer la matrice X

en fonction de la matrice X ′ et réciproquement. À cet effet, considérons l’application

EB′

IdE−→EB

et sa matrice P = matB′,B(IdE). L’égalité x = IdE(x) s’écrit matriciellement X = PX ′.Cette matrice P est obtenue en écrivant en colonnes les images des vecteurs de la base de départ, c’est-à-dire les vecteurs e′i, exprimés dans la base B. En posant la

DéfinitionLa matrice de passage de la base B à la base B′ est la matrice P = PB,B′ définie par ses colonnes :pour 1 6 j 6 n, Cj(P ) = matB(e′j) (c’est donc la matrice des vecteurs e′j exprimés dans la base B).

on a immédiatement le

ThéorèmeSoient B et B′ deux bases de E, P la matrice de passage de B à B′ et x ∈ E.Si X = matB(x) et X ′ = matB′(x), alors X = PX ′ .

Ces formules de passage permettent d’exprimer les coordonnées d’un vecteur x dans l’ancienne base B

en fonction de ses coordonnées dans la nouvelle base B′. Elles s’écrivent aussi sous la forme X ′ = P−1Xpour calculer les coordonnées d’un vecteur dans la nouvelle base en fonction de ses coordonnées dansl’ancienne (la matrice P étant la matrice d’un isomorphisme, elle est évidemment inversible). Par suite,la matrice de passage de la base B′ à la base B est la matrice P−1 : (PB,B′ )−1 = P

B′,B.

Exemple 1. Dans E = R3, soit B = (e1, e2, e3) la base canonique. Considérons les vecteurs e′1 = (−1, 3, 2),e′2 = (2,−3, 0) et e′3 = (−1, 2, 1). Avant de parler de formules de changement de base, il faut se demandersi la famille B′ = (e′1, e

′2, e′3) est une base de E. Pour cela, considérons la matrice P de la famille B′ dans

la base B, i.e. la matrice donc les colonnes sont matB(e′i) : c’est

P =

−1 2 −1

3 −3 22 0 1

.

La famille B′ est une base si, et seulement si, la matrice P est de rang 3. Les manipulations C2 ← C2+2C1,C3 ← −C3 + C1, suivies de C2 ← C2 − 3C3 transforment la matrice P en la matrice

P ′ =

−1 0 0

3 0 12 7 1

qui est de rang 3, donc B′ est bien une base de E. Les formules de changement de base sont donc

X = PX ′,

où X est la matrice des coordonnées dans B, X ′ la matrice des coordonnées dans B′.Par exemple, le vecteur x = e′1 − 2e′2 + e′3 a pour coordonnées (1,−2, 1) dans la base B′, donc la matricede ses coordonnées dans la base B est donnée par

X =

−1 2 −1

3 −3 22 0 1

1−2

1

=

−6113

,

donc x = −6e1 + 11e2 + 3e3. Il est d’ailleurs simple de le retrouver sans passer par les matrices : chaquevecteur e′i est défini comme combinaison linéaire des vecteurs ei, donc il est facile d’exprimer toutecombinaison linéaire des e′i comme combinaison linéaire des ei. En revanche, il n’est pas aussi simple

Page 68: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

64 Chapitre 20. Calcul matriciel

d’exprimer une combinaison linéaire des vecteurs ei (par exemple le vecteur e1) comme combinaisonlinéaire des vecteurs e′i : pour cela, il faut résoudre un système ou, de façon équivalente, inverser lamatrice P . Le calcul (faites-le) donne

P−1 =

3 2 −1−1 −1 1−6 −4 3

,

ce qui donne (par exemple) e1 = 3e′1 − e′2 − 6e′3 (première colonne de P−1).

Remarque 1. Comment se souvenir du sens pour les formules de changement de base ? Une méthodeconsiste à revenir rapidement à la définition : l’égalité

x = x′1e′1 + · · ·+ x′ne

′n

fournit, en passant aux matrices dans la base B, l’égalité

X = x′1 matB(e′1) + · · ·+ x′n matB(e′n)

= x′1C1(P ) + · · ·+ x′nCn(P )

= P

x′1...x′n

.

b) Applications linéaires

Soient E et F deux Kespaces vectoriels et f ∈ L(E,F ). Soient B,B′ deux bases de E et C ,C ′ deuxbases de F . Notons

A = matB,C (f) et A′ = matB′,C ′(f)

La question est maintenant de déterminer le lien entre ces deux matrices, qui représentent la mêmeapplication linéaire, mais dans des bases différentes. Pour cela, introduisons les matrices de passageP = P

B,B′ et Q = PC ,C ′ . Notons, comme d’habitude, pour tous vecteurs x et y de E et F respectivement :

X = matB(x) X ′ = matB′(x)

Y = matC (y) Y ′ = matC ′(y)

On a donc les équivalences

y = f(x) ⇐⇒ Y = AX ⇐⇒ Y ′ = A′X ′

Or les formules de changement de base donnent X = PX ′ et Y = QY ′, donc l’égalité matricielle Y =AX équivaut successivement à QY ′ = APX ′, puis à Y ′ = Q−1APX ′, ce qui prouve, en comparant àY ′ = A′X ′, que A′ = Q−1AP . On a donc démontré le

ThéorèmeSoient f ∈ L(E,F ), B,B′ deux bases de E et C ,C ′ deux bases de F . Notons

A = matB,C (f) P = PB,B′

A′ = matB′,C ′(f) Q = PC ,C ′

Alors A′ = Q−1AP .

Ce théorème est surtout utilisé sous la forme du corollaire suivant, qui concerne les endomorphismes :

CorollaireSoit f ∈ L(E), B et B′ deux bases de E, A = mat B(f) et A′ = matB′(f), ainsi que P = PB,B′ .

Alors A′ = P−1AP .

Exemple 2. Considérons l’endomorphisme f de R3 défini par sa matrice A dans la base canoniqueB = (e1, e2, e3) :

A =

1 −1 −1−1 1 −1−1 −1 1

Page 69: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.3. Changement de base 65

Considérons les vecteurs e′1 = (1,−1, 0), e′2 = (1, 0,−1) et e′3 = (1, 1, 1).

La matrice P de la famille B′ = (e′1, e′2, e′3) dans la base B est P =

1 1 1−1 0 1

0 −1 1

(on ne peut pas

encore parler de matrice de passage car on ne sait pas encore si B′ est une base). Cherchons à inverserla matrice P : la méthode exposée plus haut montre que P est de rang 3, donc inversible, et fournit soninverse :

P−1 =13

1 −2 11 1 −21 1 1

(faites les calculs !).Par suite, la famille B′ est une base, et la matrice de f dans la base B′ est, tous calculs faits :

A′ = P−1AP =

2 0 00 2 00 0 −1

,

qui est diagonale, donc bien plus simple à manipuler. On trouve donc que f(e′1) = 2e′1, f(e′2) = 2e′2 etf(e′3) = −e′3, ce qui se vérifie d’ailleurs par le calcul (faites-le).

La matrice A′ étant diagonale, ses puissances sont très faciles à calculer : pour tout entier n ∈ N (etmême n ∈ Z), on a

(A′)n =

2n 0 00 2n 00 0 (−1)n

.

Par suite, on sait calculer An pour tout entier n : en effet, on a A = PA′P−1, d’où

A2 = (PA′P−1)(PA′P−1) = P (A′)2P−1

et, par une récurrence immédiate, An = P (A′)nP−1 pour tout entier n ∈ N (et même n ∈ Z ; justifiez-le).

Trace d’un endomorphisme

PropositionSoient A,B ∈Mn(K). On a Tr(AB) = Tr(BA).

preuve :

notons [aij ] et [bij ] les matrices A et B, ainsi que [cij ] et [dij ] les matrices AB et BA :on a

cij =n∑

k=1

aikbkj et dij =n∑

k=1

bikakj

Par suite,

Tr(AB) =n∑

i=1

cii =n∑

i=1

n∑

k=1

aikbki =n∑

k=1

n∑

i=1

bkiaik = Tr(BA)

CorollaireSoient A ∈Mn(K) et P ∈ GLn(K). Alors Tr(P−1AP ) = Tr(A).

preuve :

on a

Tr(P−1AP ) = Tr((P−1A)P

)= Tr

(P (P−1A)

)= Tr(A)

Attention! « à l’intérieur » de la trace, on ne peut pas faire toutes les permutations possibles s’il ya plus de deux matrices. Par exemple, la trace de ABC n’est en général pas égale à celle de BAC. Enrevanche, on a

Tr(ABC) = Tr((AB)C

)= Tr

(C(AB)

)= Tr(CAB),

i.e. que l’on peut faire des permutations circulaires.

CorollaireSoit f ∈ L(E), B et B′ deux bases de E, A = matB(f) et A′ = matB′(f). Alors Tr(A′) = Tr(A).

Page 70: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

66 Chapitre 20. Calcul matriciel

preuve :

en effet, en notant P la matrice de passage de la base B à la base B′, on a A′ =P−1AP .

Cette propriété permet de poser la

DéfinitionSoit f ∈ L(E). La trace de f est l’unique scalaire, noté Tr(f), tel que, pour toute base B de E,on ait Tr(f) = Tr(matB(f)).

Exemple 3. Soit, dans un espace E de dimension n, un projecteur p sur un sous-espace F de dimension r(donc r = rg(p)), parallèlement à un sous-espace G de dimension n − r. Dans une base adaptée (i.e.

obtenue par concaténation d’une base de F et d’une base de G), la matrice de p est[Ir 00 0

],

donc Tr(p) = r = rg(p).

Exemple 4. Soit, dans un espace E de dimension n, une symétrie s par rapport à un sous-espace F dedimension r parallèlement à un sous-espace G de dimension n− r. Dans une base adaptée (i.e. obtenuepar concaténation d’une base de F et d’une base de G), la matrice de s est

[Ir 00 − In−r

],

donc Tr(s) = r − (n− r) = 2r − n.

Matrices semblables

DéfinitionSoient A,B ∈Mn(K). On dit que la matrice B est semblable à A semblables si, et seulement si, ilexiste une matrice inversible P ∈ GLn(K) telle que B = P−1AP .

En d’autres termes, la matrice B est semblable à A si, et seulement si, elle représente le mêmeendomorphisme que A mais dans une autre base. Cette relation est une relation d’équivalence, i.e. que :

– toute matrice A est semblable à elle-même– si B est semblable à A, il existe une matrice inversible P telle que B = P−1AP , donc A = PBP−1,

soit A = Q−1BQ en posant Q = P−1 : la matrice A est aussi semblable à B– si B est semblable à A (B = P−1AP ) et C semblable à B (C = Q−1BQ), alors C est semblable àA : C = Q−1BQ = Q−1P−1APQ = (PQ)−1A(PQ).

On pourra donc dire que deux matrices A et B sont semblables pour exprimer que B est semblable à Aou, ce qui revient au même, que A est semblable à B.

Exemple 5. D’après l’exemple précédent, les matrices

1 −1 −1−1 1 −1−1 −1 1

et

2 0 00 2 00 0 −1

sont semblables.

Exemple 6. Pour tout scalaire λ, la matrice λ In est semblable à elle et à elle seule : en effet, si A estsemblable à λ In, elle s’écrit sous la forme

A = P−1λ In P = λP−1 In P = λ In

(ou encore, en termes d’endomorphismes : la matrice de l’homothétie de rapport λ est la même danstoute base de E : c’est λ In).

20.3.2 Introduction à la diagonalisation

Soit A ∈Mn(K). La question est de savoir si A est semblable à une matrice diagonale. Il y a plusieursintérêts à cette question : si la matrice d’un endomorphisme f est diagonale dans une certaine base, oncomprend facilement comment agit cet endomorphisme sur les vecteurs ; le calcul des puissances de cetendomorphisme (ou, ce qui revient au même, de la matrice) est simple...

Page 71: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

20.3. Changement de base 67

Définition– Une matrice A ∈ Mn(K) est dite diagonalisable si, et seulement si, elle est semblable à unematrice diagonale.– Un endomorphisme f ∈ L(E) est dit diagonalisable si, et seulement si, il existe une base B de Etelle que la matrice matB(f) de f dans la base B soit diagonale.

Il résulte immédiatement de ces définitions que, si f est un endomorphisme de E et A sa matrice dansune base quelconque de E, alors f est diagonalisable si, et seulement si, A l’est.

Exemple 1. Une homothétie est diagonalisable ; une symétrie, un projecteur le sont aussi.

Étant donné un endomorphisme f , le problème est donc de trouver une base diagonale pour f , i.e.

une base B dans laquelle la matrice de f sera diagonale. Si une telle base B = (e1, . . . , en) existe, lamatrice de f dans B est de la forme A = matB(f) = diag(λ1, . . . , λn). Pour tout entier i ∈ [[1, n]], on adonc f(ei) = λiei, i.e. que le vecteur ei appartient au noyau Ker(f − λi IdE). Ceci justifie la

DéfinitionSoient f ∈ L(E) et λ ∈ K. On dit que λ est une valeur propre de f si, et seulement si, le noyauKer(f − λ IdE) n’est pas réduit à {0E}. Si λ est une valeur propre de f , le sous-espace propre

associé à λ est Eλ = Ker(f − λ IdE). Les vecteurs propres associés à λ sont les vecteurs non nulsde Eλ : ce sont les vecteurs non nuls qui vérifient f(x) = λx.

Si A est une matrice carrée, on définit de façon analogue les valeurs propres, sous-espaces propres etvecteurs propres de A.

Exemple 2. Soit A = diag(λ1, . . . , λn) une matrice diagonale. Pour tout scalaire λ, la matrice

A− λ In = diag(λ1 − λ, . . . , λn − λ)

est diagonale, donc son noyau n’est pas réduit à l’espace nul si, et seulement si, λ est égal à l’un des λi.Les valeurs propres de A sont donc λ1, . . . , λn.

Exemple 3. Reprenons la matrice A =

1 −1 −1−1 1 −1−1 −1 1

. Ses valeurs propres sont les réels λ tels que le

noyau de la matrice A−λ I3 ne soit pas nul, i.e. tels que cette matrice ne soit pas de rang 3. Calculons doncle rang de cette matrice en fonction de λ : pour λ ∈ R, on a, par la manipulation C1 ← −(C1 +C2 +C3) :

rg(A− λ I3) = rg

1− λ −1 −1−1 1− λ −1−1 −1 1− λ

= rg

λ+ 1 −1 −1λ+ 1 1− λ −1λ+ 1 −1 1− λ

.

– Si λ = −1, la matrice n’est pas de rang 3 (la première colonne est nulle), donc λ = −1 est valeur proprede A.– Supposons donc λ 6= −1, ce qui permet de faire la manipulation C1 ← 1

λ+1C1, qui donne

rg(A− λ I3) = rg

1 −1 −11 1− λ −11 −1 1− λ

L2 ← L2 − L1

L3 ← L3 − L1

= rg

1 −1 −10 2− λ 00 0 2− λ

.

Si λ = 2, la matrice n’est pas de rang 3 ; si λ 6= 2, elle est de rang 3.En définitive, on a trouvé deux valeurs propres : λ1 = −1 et λ2 = 2. Cherchons les sous-espaces

propres correspondants.

– Pour λ = −1, le rang de la matrice A + I3 est égal au rang de

0 −1 −10 2 −10 −1 2

: c’est 2 (les deux der-

nières colonnes sont manifestement indépendantes), donc la dimension de l’espace propre correspondantest dim(E−1) = 3− 2 = 1.

Page 72: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

68 Chapitre 20. Calcul matriciel

– Pour λ = 2, le rang de la matrice A−2 I3 est égal au rang de

1 −1 −10 0 00 0 0

: c’est 1, donc la dimension

de l’espace propre correspondant est dim(E2) = 3− 1 = 2.

On a ensuite E−1 ∩ E2 = {0} : en effet, si X appartient à l’intersection E−1 ∩ E2, on AX = −X etAX = 2X , donc −X = 2X , soit X = 0. Par suite, les deux sous-espaces E−1 et E2 de M3,1(R) sontsupplémentaires : M3,1(R) = E−1 ⊕ E2. Ainsi, la concaténation d’une base (X1) de E−1 et d’une base(X2, X3) de E2 fournit une base de M3,1(R), base formée de vecteurs propres : par construction, on a

AX1 = −X1, AX2 = 2X2 et AX3 = 2X3.

La détermination explicite de tels vecteurs (il s’agit de résoudre des systèmes linéaires, rien de difficile)

fournit, par exemple, les vecteurs

111

,

1−1

0

et

10−1

, ce qui justifie a posteriori l’introduction de ces

vecteurs au paragraphe précédent.La famille e′1 = (1, 1, 1), e′2 = (1,−1, 0), e′3 = (1, 0,−1) est une base de R3 (en effet, la famille

(X1, X2, X3) est une base de M3,1(R)) et c’est une base diagonale pour l’endomorphisme f canoniquementassocié à A. En notant P la matrice de passage de la base canonique à la base B′ = (e′1, e

′2, e′3), c’est-à-dire

P =

1 1 11 −1 01 0 −1

,

on a doncP−1AP = diag(−1, 2, 2).

Le problème intéressant est donc de savoir trouver les valeurs propres d’une matrice (ou, ce qui revientau même, d’un endomorphisme), i.e. de déterminer les valeurs de λ telles que la matrice A− λ In ne soitpas inversible. La réponse au prochain chapitre, où il est question de déterminants.

Page 73: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

Chapitre 21Déterminants

Il est d’une grande importance de savoir reconnaître si une famille de vecteurs est liée, si elle formeune base, ou encore, si une matrice carrée est inversible (ce qui revient au même : c’est encore dire que lafamille

(C1(A), . . . , Cn(A)

)est libre). Pour les familles de deux vecteurs dans un espace de dimension 2

(ou, ce qui revient au même, les matrices A ∈M2(K)), on sait dire si la famille est liée : vous savez que,si B = (e1, e2) est une base de E et que x = ae1 + be2, y = ce1 + de2, alors la famille (x, y) est liée(i.e. : les vecteurs x et y sont proportionnels) si, et seulement si, ad − bc = 0. Ou encore : la matrice

A =[a cb d

]est inversible si, et seulement si, ad− bc 6= 0. La question que nous nous poserons est : quelle

quantité calculer pour savoir si une matrice A ∈M3(K) (ou, plus généralement, Mn(K)) est inversible ?La réponse est fournie par les déterminants. Comme la définition du déterminant est une chose délicateen dimension quelconque, vous n’avez à votre programme que la définition en dimension inférieure ouégale à 3 ; vous verrez l’an prochain la définition générale.

Dans tout ce chapitre, K désigne le corps R ou C (ou un sous-corps de C) et n un entier inférieur ouégal à 3.

21.1 Déterminant d’une matrice carrée

21.1.1 Expression du déterminant

DéfinitionSoit A = [aij ] ∈Mn(K). Le déterminant de A est le scalaire– det(A) = a11 si n = 1– det(A) = a11a22 − a21a12 si n = 2– det(A) = a11a22a33 + a12a23a31 + a13a21a32 − a31a22a13 − a21a12a33 − a11a23a32 si n = 3.

Attention! On ne parle du déterminant que d’une matrice carrée. N’allez pas écrire le déterminantd’une matrice à deux lignes et trois colonnes !

Remarque 1. Pour n = 3, une façon de retenir la formule est la « règle de Sarrus » :

−−−

a11 a12 a13

a21 a22 a23

a31 a32 a33

a11 a12 a13

a21 a22 a23

+++

les lignes obliques symbolisant les coefficients multipliés entre eux, le signe à la fin de la ligne indiquantde quel signe le résultat doit être affecté.

Notation : si A =

a11 · · · a1n

......

an1 · · · ann

, le scalaire det(A) est encore noté det(A) =

∣∣∣∣∣∣∣

a11 · · · a1n

......

an1 · · · ann

∣∣∣∣∣∣∣.

Attention! l’application déterminant n’est pas une forme linéaire ! Il est par exemple clair que, siA ∈Mn(K) et λ ∈ K, alors det(λA) = λn det(A). Il n’y a pas de formule pour calculer det(A+B).

69

Page 74: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

70 Chapitre 21. Déterminants

La définition montre immédiatement que le déterminant d’une matrice diagonale est égal au produitde ses coefficients diagonaux :

∣∣∣∣a 00 b

∣∣∣∣ = ab et

∣∣∣∣∣∣

a 0 00 b 00 0 c

∣∣∣∣∣∣= abc.

Exemple 1. La matrice In est diagonale ; son déterminant est égal à 1. Plus généralement, le déterminantde la matrice λ In est égal à λn (et non à λ : le déterminant n’est pas linéaire !).

Par ailleurs, un calcul élémentaire prouve la

PropositionPour toute matrice A ∈Mn(K), on a det(tA) = det(A).

Par suite, tout ce que l’on pourra raconter sur les colonnes d’un déterminant s’appliquera aussi auxlignes de ce déterminant. De même, tout ce qui est vrai pour les déterminants des matrices triangulairessupérieures l’est encore pour les matrices triangulaires inférieures. Par exemple :

PropositionLe déterminant d’une matrice triangulaire est égal au produit de ses termes diagonaux.

C’est-à-dire : ∣∣∣∣a ∗0 b

∣∣∣∣ = ab et

∣∣∣∣∣∣

a ∗ ∗0 b ∗0 0 c

∣∣∣∣∣∣= abc,

les termes représentés par des ∗ important peu, ainsi que les formules « transposées »

∣∣∣∣a 0∗ b

∣∣∣∣ = ab et

∣∣∣∣∣∣

a 0 0∗ b 0∗ ∗ c

∣∣∣∣∣∣= abc.

Il suffit, d’après la proposition, de vérifier que la formule est vraie pour les matrices triangulaires supé-rieures, ce qui se fait par un calcul facile.

21.1.2 Propriétés

Linéarité par rapport aux colonnesSoit A ∈Mn(K) une matrice. Voyons ses coefficients comme des constantes, à l’exception de ceux de lapremière colonne, que l’on s’autorise à faire varier. La formule pour calculer les déterminant de A estalors de la forme

det(A) = λa11 + µa21 si n = 2 et det(A) = λa11 + µa21 + νa13 si n = 3.

Autrement dit, l’application déterminant est linéaire par rapport à la première colonne.De la même façon, l’application déterminant est linéaire par rapport à chacune des colonnes de la matrice.Grâce à la relation det( tA) = det(A), on en déduit que le déterminant est aussi linéaire par rapport àchaque ligne de la matrice. Ainsi, on a le

ThéorèmeL’application det : Mn(K) −→ K est « linéaire en chaque colonne et chaque ligne ».

Cette linéarité par rapport à chaque colonne signifie précisément la chose suivante : l’application

Mn,1(K)× · · · ×Mn,1(K) −→ K

(C1, . . . , Cn) 7−→ det[C1 · · · Cn

]

est linéaire par rapport à chacune de ses n variables. On dit encore que cette application est n-linéaire.

Exemple 1. La linéarité par rapport à la première, puis à la seconde colonne montre les égalités∣∣∣∣2 62 9

∣∣∣∣ = 2∣∣∣∣1 61 9

∣∣∣∣ = 6∣∣∣∣1 21 3

∣∣∣∣ .

Page 75: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

21.1. Déterminant d’une matrice carrée 71

Exemple 2. La linéarité par rapport à la deuxième ligne donne∣∣∣∣∣∣

1 2 3x+ a y + b z + c

4 5 6

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 2 3x y z4 5 6

∣∣∣∣∣∣+

∣∣∣∣∣∣

1 2 3a b c4 5 6

∣∣∣∣∣∣.

Attention! La linéarité par rapport à chaque colonne (resp. chaque ligne) ne signifie en aucun cas quel’on a det(λA) = λdet(A) : en effet, la matrice λA est obtenue en multipliant chacune des n colonnesde A par le scalaire λ. Par linéarité par rapport à chaque colonne, on a donc

det(λA) = λn det(A).

Il n’y par ailleurs aucune formule pour calculer det(A+B), qui n’est pas égal à det(A) + det(B).

Dérivée d’un déterminantSoient, pour 1 6 i, j 6 n, fij : I −→ R des fonctions dérivables. Notons, pour j ∈ [[1, n]] et t ∈ I, Cj(t) lacolonne

Cj(t) =

f1j(t)

...fnj(t)

.

Chacune des coordonnées de cette matrice étant dérivable, on notera, pour t ∈ I,

C′j(t) =

f ′1j(t)

...f ′nj(t)

.

On a alors la

PropositionL’application Φ : I −→ R

t 7−→ det[C1(t) · · · Cn(t)

] est dérivable ; sa dérivée est donnée par

Φ′(t) = det[C′1(t) · · · Cn(t)

]+ det

[C1(t) C′2(t) · · · Cn(t)

]+ · · ·+ det

[C1(t) · · · C′n(t)

].

preuve :

démontrons-le dans le cas n = 2, la preuve pour n = 3 étant similaire avec des calculsun peu plus lourds.

Pour t ∈ I, on a

Φ(t) =

∣∣∣∣a11(t) a12(t)a21(t) a22(t)

∣∣∣∣ = a11(t)a22(t)− a21(t)a12(t),

donc Φ est dérivable, de dérivée donnée par

Φ′(t) = a′11(t)a22(t)− a′21(t)a12(t) + a11(t)a′22(t)− a21(t)a′12(t)

=

∣∣∣∣a′11(t) a12(t)a′21(t) a22(t)

∣∣∣∣+

∣∣∣∣a11(t) a′12(t)a21(t) a′22(t)

∣∣∣∣

Exemple 3. La fonction f : R −→ R

t 7−→∣∣∣∣1 + t 1

1 1 + t

∣∣∣∣

est dérivable, de dérivée donnée par

f ′(t) =∣∣∣∣1 10 1 + t

∣∣∣∣+∣∣∣∣1 + t 0

1 1

∣∣∣∣ = 2(1 + t)

(ce qu’il est par ailleurs immédiat de vérifier en développant le déterminant f(t)).

Remarque 1. Cette formule est à rapprocher de la formule de dérivation d’un produit : si f1, . . . , fn sont nfonctions dérivables, la fonction f = f1 × · · · × fn l’est aussi, de dérivée donnée par

f ′ = f ′1 × f2 × · · · × fn + f1 × f ′2 × · · · × fn + · · ·+ f1 × · · · × fn−1 × f ′n(que l’on démontre par une récurrence facile sur n).

Page 76: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

72 Chapitre 21. Déterminants

Effet des opérations élémentaires

PropositionSoit A ∈Mn(K). Si deux colonnes de A sont égales, alors det(A) = 0.

preuve :

si n = 2, c’est évident. Si n = 3, il y a trois cas à envisager ; la vérification est facile.On en déduit immédiatement que, si deux colonnes de A sont colinéaires, alors det(A) = 0.

ThéorèmeSoit A une matrice de Mn(K) et– A1 la matrice obtenue par l’opération Ci ↔ Cj à partir de A (i 6= j) (i.e. A1 = APij)– A2 la matrice obtenue par l’opération Ci ← aCi à partir de A (a ∈ K) (i.e. A2 = ADia)– A3 la matrice obtenue par l’opération Ci ← Ci + aCj à partir de A (i 6= j) (i.e. A3 = ATj,i,a)Alors– det(A1) = − det(A)– det(A2) = a det(A)– det(A3) = det(A)

preuve :

notons Ci les colonnes de la matrice A, de sorte que A =[C1 · · · Cn

].

– SoitB la matriceB =[C1 · · · Ci + Cj · · · Cj + Ci · · · Cn

](en supposant i < j) et développons

le déterminant de la matrice B par linéarité par rapport aux colonnes. On a

0 = det(B) = det[C1 · · · Ci · · · Cj + Ci · · · Cn

]

+ det[C1 · · · Cj · · · Cj + Ci · · · Cn

]

= det[C1 · · · Ci · · · Cj · · · Cn

]+ det

[C1 · · · Ci · · · Ci · · · Cn

]

+ det[C1 · · · Cj · · · Cj · · · Cn

]+ det

[C1 · · · Cj · · · Ci · · · Cn

]

= det(A) + 0 + 0 + det(A1),

d’où det(A1) = − det(A).– C’est l’expression de la linéarité par rapport à la ième colonne.– On a A3 =

[C1 · · · Ci + aCj · · · Cj · · · Cn

](en supposant toujours i < j), d’où

det(A3) = det[C1 · · · Ci · · · Cj · · · Cn

]+ a det

[C1 · · · Cj · · · Cj · · · Cn

]

= det(A) + 0

En pratique, c’est grâce à ces propriétés que l’on calcule les déterminants.

Exemple 4.∣∣∣∣∣∣

1 2 34 5 67 8 10

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 0 04 −3 −67 −6 −11

∣∣∣∣∣∣C2 ← C2 − 2C1

C3 ← C3 − 3C1

= 3

∣∣∣∣∣∣

1 0 04 1 67 2 11

∣∣∣∣∣∣C2 ← −C2/3C3 ← −C3

= 3

∣∣∣∣∣∣

1 0 04 1 07 2 −1

∣∣∣∣∣∣= −3.

Exemple 5.∣∣∣∣∣∣

λ 1 11 λ 11 1 λ

∣∣∣∣∣∣=

∣∣∣∣∣∣

2 + λ 1 12 + λ λ 12 + λ 1 λ

∣∣∣∣∣∣

C1 ← C1 + C2 + C3

= (2 + λ)

∣∣∣∣∣∣

1 1 11 λ 11 1 λ

∣∣∣∣∣∣L2 ← L2 − L1

L3 ← L3 − L1

= (2 + λ)

∣∣∣∣∣∣

1 1 10 λ− 1 00 0 λ− 1

∣∣∣∣∣∣= (2 + λ)(λ − 1)2.

Page 77: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

21.1. Déterminant d’une matrice carrée 73

Exemple 6. Soit Pi,j la matrice de permutation de taille n. La manipulation Ci ↔ Cj transforme cettematrice en la matrice In, donc on a

det(Pi,j) = − det(In) = −1.

Produit

LemmeSoit A ∈Mn(K) et U ∈ GLn(K) une matrice élémentaire. Alors

det(AU) = det(A) det(U) = det(U) det(A).

preuve :

les déterminants des matrices élémentaires sont : det(Pi,j) = −1, det(Ti,j,λ) = 1 (c’estune matrice triangulaire dont les coefficients diagonaux sont égaux à 1) et det(Di,λ) = λ (la matrice estdiagonale ; les coefficients diagonaux sont tous égaux à 1, à l’exception d’un coefficient, égal à λ). Lapropriété résulte donc du théorème précédent.

Par récurrence, c’est encore vrai si U est un produit de matrices élémentaires.

ThéorèmeSoit A ∈Mn(K). Alors A est inversible si, et seulement si, det(A) 6= 0.

preuve :

soient U, V ∈ GLn(K) des matrices telles que A = UJrV , où r = rg(A) et Jr =[Ir 00 0

].

Les matrices U et V sont des produits de matrices élémentaires (on obtient de telles matrices par laméthode du pivot), donc det(A) = det(U) det(Jr) det(V ). Or det(U) 6= 0 (la matrice U est un produitU1 · · ·Up de matrices élémentaires de déterminants non nuls, donc det(U) = det(U1) · · · det(Up) 6= 0). Demême, det(V ) 6= 0. Par suite, le déterminant de A est non nul si, et seulement si, celui de Jr l’est, ce quiéquivaut à r = n, ou encore à A inversible.

ThéorèmeSoient A,B ∈Mn(K). Alors det(AB) = det(A) det(B).

preuve :

– si l’une des deux matrices A ou B n’est pas inversible, la matrice AB ne l’est pas nonplus, donc det(AB) et det(A) det(B) sont égaux car tous deux nuls.– Supposons donc A et B inversibles. Soient U, V, U ′, V ′ des matrices inversibles, produits de matricesélémentaires, telles que

A = UJnV = UV et B = U ′V ′.

Alors, toutes les matrices apparaissant étant des produits de matrices élémentaires, on a bien

det(AB) = det(U) det(V ) det(U ′) det(V ′) = det(A) det(B)

Corollaire 1Soit A ∈ GLn(K). Alors det(A−1) = (detA)−1.

preuve :

on a l’égalité

1 = det(In) = det(AA−1) = det(A) det(A−1)

Corollaire 2Si A et B sont deux matrices semblables, alors det(A) = det(B). La réciproque est fausse.

preuve :

supposons A et B semblables. Soit P une matrice inversible telle que B = P−1AP .Alors

det(B) = det(P−1) det(A) det(P ) = det(A)(det(P ))−1 det(P ) = det(A)

Le contre exemple suivant montre que la réciproque est fausse : les matrices A = I2 et B =[1 10 1

]

ont même déterminant (1) mais ne sont pas semblables : en effet, pour toute matrice P ∈ GL2(K), on aP−1 I2 P = I2 (autrement dit, la matrice I2 n’est semblable qu’à elle-même).

Page 78: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

74 Chapitre 21. Déterminants

21.1.3 Développement, inverse

DéfinitionSoit A ∈Mn(K). Le mineur d’indice (i, j) de A est le déterminant ∆i,j = det(Ai,j), où Ai,j est lamatrice (de Mn−1(K)) obtenue en supprimant la ième ligne et la jème colonne de A.

Exemple 1. Si A =

1 2 34 5 67 8 10

, le mineur ∆1,2 est

∆1,2 =

∣∣∣∣∣∣

1 2 34 5 67 8 10

∣∣∣∣∣∣=∣∣∣∣4 67 10

∣∣∣∣ = −2.

Théorème (développement d’un déterminant)Soit A = [aij ] ∈Mn(K).

Pour 1 6 j 6 n, on a det(A) =n∑

i=1

(−1)i+jaij∆ij (développement par rapport à la jème colonne).

Pour 1 6 i 6 n, on a det(A) =n∑

j=1

(−1)i+jaij∆ij (développement par rapport à la ième ligne).

Exemple 2. Le développement par rapport à la deuxième colonne du déterminant

∣∣∣∣∣∣

1 2 34 5 67 8 10

∣∣∣∣∣∣est :

∣∣∣∣∣∣

1 2 34 5 67 8 10

∣∣∣∣∣∣= −2

∣∣∣∣∣∣

1 2 34 5 67 8 10

∣∣∣∣∣∣+ 5

∣∣∣∣∣∣

1 2 34 5 67 8 10

∣∣∣∣∣∣− 8

∣∣∣∣∣∣

1 2 34 5 67 8 10

∣∣∣∣∣∣

= −2∣∣∣∣4 67 10

∣∣∣∣+ 5∣∣∣∣1 37 10

∣∣∣∣− 8∣∣∣∣1 34 6

∣∣∣∣

preuve :

pour n = 2, la formule se résume à la définition du déterminant. Pour n = 3, il y a troisformules à vérifier pour le développement par rapport à une colonne. Faites au moins une vérification àla main ! Les formules pour le développement par rapport à une ligne s’en déduisent par transposition.

Remarque 1. On appliquera cette formule avec grand profit pour le calcul d’un déterminant dont tousles coefficients d’une ligne (ou d’une colonne) sont nuls, à l’exception d’un d’entre eux.

Exemple 3. Pour calculer le déterminant

D =

∣∣∣∣∣∣

a 0 bx 1 yc 0 d

∣∣∣∣∣∣,

on développe par rapport à la deuxième colonne, ce qui donne

D = 1×∣∣∣∣a bc d

∣∣∣∣ = ad− bc.

Inverse d’une matrice

DéfinitionSoit M ∈ Mn(K). La comatrice de M est la matrice M̌ = [(−1)i+j∆ij ]16i,j6n ∈ Mn(K). Lamatrice complémentaire de M est la matrice M̃ = tM̌ .

Théorème

Soit M ∈ Mn(K). on a MM̃ = M̃M = det(M) In. En particulier, si M est inversible, on aM−1 = 1

det(M)M̃ .

Page 79: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

21.2. Déterminant d’un endomorphisme, d’une famille de vecteurs 75

Remarque 2. Ces formules, comme à peu près tout ce qui a été raconté sur les déterminants (sauf larègle de Sarrus !), s’étend aux matrices (carrées) de taille quelconque. Ces formules de calcul de l’inverserestent valable en toute dimension eux aussi. Mais en pratique, on ne les utilise jamais pour calculerl’inverse d’une matrice (sauf peut-être pour n = 2) car elles sont bien trop coûteuses en calculs.

preuve :

notons cij les coefficients de la matrice MM̃ : on a

cij =

n∑

k=1

mik(−1)k+j∆jk.

On reconnaît dans cette expression le développement par rapport à la jème ligne du déterminant de lamatrice dont les lignes sont celles de M , à l’exception de la jème, égale à Li(M). Cette matrice est égaleà M si i = j (donc cii = det(M)) et a deux lignes égales si i 6= j (donc cij = 0 si i 6= j), ce qui prouve laformule MM̃ = det(M) In. La démonstration est similaire pour l’autre produit.

21.2 Déterminant d’un endomorphisme, d’une famille de vec-teurs

21.2.1 Déterminant d’un endomorphisme

Soit E un K-espace vectoriel de dimension n 6 3, B1 et B2 deux bases de E et f un endomorphismede E. Notons A1 = matB1 (f) et A2 = matB2(f). En notant P la matrice de passage de B1 à B2, on aA2 = P−1A1P , donc det(A2) = det(A1).

DéfinitionLe déterminant de f ∈ L(E) est le déterminant de la matrice A = matB(f), ou B est une basequelconque de E (le résultat ne dépend pas du choix de la base).

Les théorèmes vus sur les matrices impliquent immédiatement :

Théorème– det(IdE) = 1.– ∀λ ∈ K, ∀f ∈ L(E), det(λf) = λn det(f) (où n = dim(E)).– ∀f, g ∈ L(E), det(g ◦ f) = det(g) det(f).– ∀f ∈ L(E),

(f ∈ GL(E)⇐⇒ det(f) 6= 0

); le cas échéant, det(f−1) = (det(f))−1.

21.2.2 Déterminant d’une famille de vecteurs

Soit E un K-espace vectoriel de dimension n 6 3 et x1, . . . , xn n vecteurs de E. Soit B une base de E.

DéfinitionLe déterminant de la famille (x1, . . . , xn) dans la base B est le déterminant de la matrice M =matB(x1, . . . , xn). On le note detB(x1, . . . , xn).

Contrairement au déterminant d’un endomorphisme, celui-ci dépend de la base B choisie : en effet,soit B′ une autre base de E et P la matrice de passage de B à B′. En notant Xj (resp. X ′j) la matricedu vecteur xj dans la base B (resp. B′), on a Xj = PX ′j. Par suite, en notant M ′ = matB′(x1, . . . , xn),on a

M =[X1 · · · Xn

]=[PX ′1 · · · PX ′n

]= P

[X ′1 · · · X ′n

]= PM ′

d’où det(M) = det(P ) det(M ′). On a donc démontré le

ThéorèmePour tous vecteurs x1, . . . , xn et toutes bases B1,B2 de E, on a

detB1(x1, . . . , xn) = det(PB1,B2) detB2(x1, . . . , xn).

En particulier, si la valeur de ce déterminant dépend de la base choisie pour le calculer, sa nullité n’endépend pas. On en tire le

Page 80: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

76 Chapitre 21. Déterminants

ThéorèmeSoient x1, . . . , xn ∈ E. La famille (x1, . . . , xn) est une base de E si, et seulement si, detB(x1, . . . , xn)est non nul pour toute base B de E. Il suffit pour cela qu’il existe une base B pour laquelledetB(x1, . . . , xn) 6= 0.

preuve :

soit B = (e1, . . . , en) une base de E et f l’endomorphisme de E défini par : ∀i ∈ [[1, n]],f(ei) = xi. La matrice M de la famille (x1, . . . , xn) dans la base B est la matrice de f dans cettemême base, donc detB(x1, . . . , xn) = det(f). L’endomorphisme f est un isomorphisme si, et seulementsi, la famille (f(e1), . . . , f(en)) est une base, i.e. si, et seulement si, la famille (x1, . . . , xn) est une base.Comme cet endomorphisme est inversible si, et seulement si, son déterminant est non nul, on en déduitla caractérisation souhaitée.

Exemple 1. Dans R3, soient les vecteurs x1 = (1,−1,−1), x2 = (−1, 1,−1) et x3 = (−1,−1, 1). Ledéterminant dans la base canonique de cette famille est

∣∣∣∣∣∣

1 −1 −1−1 1 −1−1 −1 1

∣∣∣∣∣∣= −4 6= 0

donc la famille est une base.

Aires et volumesDans le plan R2 et l’espace R3 usuels, dans lesquels on connaît les notions d’aires et de volumes (dumoins pour les formes simples ; la seule chose à savoir est calculer l’aire d’un rectangle dont les côtéssont parallèles aux axes et l’invariance de l’aire par translation), le déterminant admet une interprétationgéométrique.

Commençons par le cas du plan. Considérons deux vecteurs x et y non colinéaires du plan R2. Leparallélogramme (plein) construit sur x et y est l’ensemble des points de la forme λx+ µy, (λ, µ ∈ [0, 1])de R2.

1

1

!!!!!!!!!!!

�����!!!!!!!!!!!

�����

xy

Notons A = detB(x, y), où B = (e1, e2) est la base canonique de R2. Le vecteur y n’étant pas colinéaireau vecteur x, on peut trouver un réel λ tel que le vecteur x1 = x − λy soit colinéaire au vecteur e1

(c’est-à-dire « horizontal ») (sauf si le vecteur y est lui-même horizontal ; auquel cas, on échange les nomsde x et y et on se ramène à la situation précédente). On sait que l’on a detB(x1, y) = detB(x, y), et l’airedu parallélogramme construit sur les vecteurs x1 et y est la même que celle du parallélogramme construitsur x et y : en effet, le triangle supprimé en haut se retrouve par translation en bas :

1

1

!!!!!!!!!!!

�����!!!!!!!!!!!

�����

xy

x1

En choisissant ensuite µ tel que le vecteur y1 = y − µx1 soit « vertical », on trouve detB(x1, y1) =detB(x, y) et l’aire du parallélogramme construit sur x1 et y1 est encore la même que celle du parallélo-

Page 81: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

21.2. Déterminant d’un endomorphisme, d’une famille de vecteurs 77

gramme construit sur x1 et y :

1

1y

�����

�����

x1

L’aire de ce dernier parallélogramme est facile à calculer : c’est le produit des longueurs des vecteurs x1

et x2 (notons-les ℓ1 et ℓ2). Or les vecteur x1 est horizontal, donc x1 = (±ℓ1, 0) et, de même, x2 = (0,±ℓ2).Par suite,

detB(x1, y1) =

∣∣∣∣±ℓ1 0

0 ±ℓ2

∣∣∣∣ = ±ℓ1ℓ2 = ±A.

On a donc démontré le

ThéorèmeL’aire du parallélogramme construit sur les vecteurs x et y est la valeur absolue du déterminantdetB(x, y).

Dans le cas où les vecteurs sont colinéaires, c’est encore vrai : le parallélogramme est aplati, doncd’aire nulle, tout comme le déterminant. Nous verrons plus tard que le signe de ce déterminant indiquesi la base (dans le cas où x et y ne sont pas colinéaires) (x, y) est directe ou non.

Pour l’espace, la situation est la même : si x, y et z sont trois vecteurs non coplanaires, on définit leparallélotope construit sur x, y et z comme l’ensemble de points de R3 s’écrivant sous la forme λx+µy+νz,avec λ, µ, ν ∈ [0, 1]. Les vecteurs formant une base, on peut trouver une combinaison linéaire de deuxdes vecteurs à retrancher au troisième pour obtenir un vecteur « vertical » (disons z1 = z − λx − µy estvertical). On vérifie encore que

– le volume du parallélotope construit sur x, y et z1 est égal au volume du parallélotope initial– detB(x, y, z1) = detB(x, y, z)

On continue le procédé jusqu’à l’obtention du parallélotope (x1, y1, z1) dont les côtés sont parallèles auxaxes, pour lequel le volume est facile à calculer et est par ailleurs égal, au signe près, à detB(x1, y1, z1).On a encore le

ThéorèmeL’aire du parallélotope construit sur les vecteurs x, y et z est la valeur absolue du déterminantdetB(x, y, z).

Ici encore, le théorème reste vrai si les vecteurs sont liés (le volume et le déterminant sont nuls) et lesigne du déterminant indique l’orientation de la base (x, y, z).

Effet d’une application linéaire sur les aires et volumes

ThéorèmeSoit E un K-espace vectoriel de dimension n 6 3, x1, . . . , xn des vecteurs de E, f ∈ L(E) et B

une base de E. Alors detB

(f(x1), . . . , f(xn)

)= det(f) detB(x1, . . . , xn).

preuve :

notons Xj la matrice du vecteur xj dans la base B et M la matrice de f dans cettemême base. Pour 1 6 j 6 n, la matrice Yj = MXi est la matrice de f(xj) dans la base B, donc

detB(f(x1), . . . , f(xn)) = det[Y1 · · · Yn

]= det(M

[X1 · · · Xn

]) = det(M) detB(x1, . . . , xn)

ce qui prouve la formule puisque det(f) = det(M).En particulier, si E est le plan R2 ou l’espace R3 et f un endomorphisme de E, alors f multiplie les

aires (resp. les volumes) par le scalaire det(f) : en effet, c’est vrai pour les parallélogrammes dans le planet les parallélotopes dans l’espace, donc pour toutes les figures assez régulières pour que l’on puisse définirleur aire (resp. volume) par passage à la limite de découpages en parallélogrammes ou parallélotopes.

Page 82: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

78 Chapitre 21. Déterminants

Exemple 2. On retrouve que, si f est une homothétie de rapport λ du plan (resp. de l’espace), ellemultiplie les aires (resp. les volumes) par λ2 (resp. λ3).

Exemple 3. La figure 21.1 montre l’effet de l’application linéaire

f : R2 −→ R2

(x, y) 7−→ (−2x− 2y, 2x+ 3y)

dont le déterminant est égal à∣∣∣∣−2 −2

2 3

∣∣∣∣ = −2, sur les aires de figures simples.

x

y

f(y)

f(x)

Figure 21.1 – multiplication des aires par une application linéaire

Page 83: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

Chapitre 22Systèmes linéaires

Ici encore, K désigne un sous-corps de C.

Soient A = [aij ] ∈Mn,p(K) et B =

b1

...bn

∈Mn,1(K).

Le système linéaire de matrice A et de second membre B est le système de n équations aux p incon-nues x1, . . . xp ∈ K

p∑

j=1

aijxj = bi (1 6 i 6 n) (E )

Notons S l’ensemble des solutions de (E ), i.e. S = {x = (x1, . . . , xp) ∈ Kp | ∀i ∈ [[1, n]],

p∑

j=1

aijxj = bi}.

Si n = p, on dit que le système est carré.

Traduction matricielle

Soit x = (x1, . . . , xp) ∈ Kp et X = matcan(x) =

x1

...xp

. On a

x ∈ S ⇐⇒ AX = B .

Traduction vectorielleSoit f ∈ L(Kp,Kn) définie par matcan(f) = A. Notons b = (b1, . . . , bn). Soit x = (x1, . . . , xp) ∈ Kp. Alors

x ∈ S ⇐⇒ f(x) = b .

Définition– Le rang du système est le rang de A (qui est aussi le rang de f).– Le système est dit homogène si, et seulement si, b = 0, i.e. si, et seulement si, B = 0.– Le système linéaire homogène associé à (E ) est le système, noté (E0), de matrice A, de secondmembre nul.– Le système est dit compatible si, et seulement si, il admet au moins une solution.

22.1 Systèmes de Cramer

Soit (E ) un système linéaire de matrice A ∈Mn(K) (donc un système carré).

DéfinitionOn dit que le système (E ) est de Cramer si, et seulement si, A ∈ GLn(K).

ThéorèmeSoit (E ) un système carré. Alors (E ) est de Cramer si, et seulement si, il admet une uniquesolution.

79

Page 84: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

80 Chapitre 22. Systèmes linéaires

preuve :

soit A la matrice du système et B le second membre.– Si le système est de Cramer, la matrice A est inversible et le système AX = B équivaut à X = A−1B,d’où l’unicité de la solution.– Si le système admet une solution unique, alors KerA = {0} : en effet, soit X0 l’unique solution et X ∈KerA. On a AX0 = B et AX = 0, d’où A(X+X0) = B, donc X0 +X est encore solution. Par hypothèse,le système admet une unique solution donc X0 + X = X0, d’où X = 0. Par suite, l’endomorphismecanoniquement associé est injectif, donc bijectif (dimension finie), donc A est inversible.

Exemple 1. Soit (a, b, c) ∈ R3 et (E ) le système

−4x + y = a

6x + 4y − 3z = b3x + y − z = c

aux inconnues x, y, z ∈ R.

La matrice du système est A =

−4 1 06 4 −33 1 −1

.

Première méthode : on cherche à inverser A par opérations élémentaires, sur les colonnes par exemple.On a

A

1 0 00 1 00 0 1

=

−4 1 06 4 −33 1 −1

C1 ← C1 + 4C2

A

1 0 04 1 00 0 1

=

0 1 022 4 −37 1 −1

C1 ← C1 + 7C3

A

1 0 04 1 07 0 1

=

0 1 01 4 −30 1 −1

C2 ← C2 − 4C1

C3 ← −(C3 + 3C1)

A

1 −4 −34 −15 −127 −28 −22

=

0 1 01 0 00 1 1

C2 ← C2 − C3

A

1 −1 −34 −3 −127 −6 −22

=

0 1 01 0 00 0 1

C1 ↔ C2

A

−1 1 −3−3 4 −12−6 7 −22

=

1 0 00 1 00 0 1

C1 ↔ C2

donc A est inversible, d’inverse A−1 =

−1 1 −3−3 4 −12−6 7 −22

. Le système est de Cramer, et l’unique solution

est donnée par xyz

= A−1

abc

=

−a+ b− 3c−3a+ 4b− 12c−6a+ 7b− 22c

Deuxième méthode : on résout le système par opérations élémentaires sur les lignes.−4x + y = a

6x + 4y − 3z = b3x + y − z = c

L1 ← −(L1 + L3)L2 ← L2 − 2L3

x − 2y + z = −a− c

2y − z = b− 2c3x + y − z = c L3 ← L3 − 3L1

Page 85: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

22.1. Systèmes de Cramer 81

x − 2y + z = −a− c

2y − z = b− 2c7y − 4z = 3a+ 4c L3 ← L3 − 3L2

x − 2y + z = −a− c

2y − z = b − 2cy − z = 3a− 3b+ 10c

L2 ← L2 − L3

x − 2y + z = −a− c

y = −3a+ 4b− 12cy − z = 3a− 3b+ 10c

L1 ← L1 + 2L2

L3 ← −(L3 − L2)

x + z = −7a+ 8b− 25c

y = −3a+ 4b− 12cz = −6a+ 7b− 22c

L1 ← L1 − L3

x = −a + b − 3cy = −3a + 4b − 12cz = −6a + 7b − 22c

Remarque 1. La résolution ayant été faite avec un second membre dont les coefficient sont des paramètresformels, on en déduit l’expression de A−1 : en effet, on a démontré que

∀(x, y, z) ∈ R3, ∀(a, b, c) ∈ R3,(A

xyz

=

abc

⇐⇒

xyz

=

−1 1 −3−3 4 −12−6 7 −22

abc

)

Par suite,

−1 1 −3−3 4 −12−6 7 −22

= A−1.

Remarque 2. Cette méthode de calcul de A−1 revient exactement à écrire AX = I3B et à faire les mêmesopérations élémentaires sur les lignes de A que sur les lignes de I3, i.e. à calculer l’inverse de A paropérations élémentaires sur les lignes de A.

Formules de Cramer

Théorème

Soient A ∈ GLn(K) et B ∈ Mn,1(K). L’unique solution X =

x1

...xn

du système de Cramer

AX = B est donnée par

∀i ∈ [[1, n]], xi =detAi

detA

où Ai est la matrice obtenue en remplaçant la i-ème colonne de A par B.

preuve :

Soit X =

x1

...xn

cette solution : on a

[C1(A) . . . Cn(A)

]x1

...xn

= B

i.e.

B = x1C1(A) + · · ·+ xnCn(A).

Page 86: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

82 Chapitre 22. Systèmes linéaires

Fixons i ∈ [[1, n]]. Par linéarité par rapport à la i-ème colonne, on a

detAi =

n∑

k=1

xk det[C1(A) · · ·Ck(A) · · ·Cn(A)]

la colonne Ck(A) se trouvant toujours à la i-ème place. Tous ces déterminants sont nuls (car les matricesont deux colonnes égales) sauf celui obtenu pour k = i, qui vaut detA. Par suite, detAi = xi detA.

Exemple 2. Soit le système linéaire{ax + by = λcx + dy = µ

. Sa matrice est A =

[a bc d

], de déterminant

∆ = ad− bc. Si ∆ 6= 0, alors les solutions sont données par

x =

∣∣∣∣λ bµ d

∣∣∣∣∆

=λd− µbad− bc et y =

∣∣∣∣a λc µ

∣∣∣∣∆

=aµ− λcad− bc

Remarque 3. En pratique, ces formules sont peu utilisées car elles conduisent à de nombreux calculs dedéterminants, qui sont extrêmement coûteux en temps dès que n est un peu élevé : un déterminant detaille n est donné par la somme de n! termes, chacun étant un produit de n facteurs.

22.2 Cas général

Soit (E ) un système de n équations à p inconnues, de matrice A et de second membre B. Soitf : Kp −→ Kn l’application linéaire canoniquement associée et b le vecteur de matrice B dans la basecanonique. Le système équivaut à f(x) = b.

ThéorèmeLe système est compatible si, et seulement si, b ∈ Im f . Si c’est le cas, soit x0 ∈ S . Alors S =x0 + Ker f = {x0 + x, x ∈ Ker f}.En particulier, un système homogène est toujours compatible ; l’ensemble de ses solutions est unsous-espace vectoriel de dimension p− r de Kp, où r = rg f .

preuve :

la première assertion est évidente, la deuxième a déjà été vue, la troisième résulte de laformule du rang.Rappelons que l’entier r est aussi le rang de la matrice A, c’est-à-dire le nombre de lignes (ou de colonnes)indépendantes de A, ou encore le nombre d’équations indépendantes du système.

Dans la pratique, on commence par ramener le système à un système échelonné, i.e. que l’on chercheune matrice U ∈ GLn(K) telle que A1 = UA soit échelonnée en lignes. La matrice U étant inversible, lesystème

AX = B

équivaut au systèmeUAX = UB,

i.e.

A1X = B1

en notant B1 = UB. En particulier, si r = rgA = rgA1, les n − r dernières lignes de A1 sont nulles.Par suite, le système n’est compatible que si les n− r dernières lignes de B1 sont également nulles. Cettecondition est également suffisante pour que le système soit compatible. En effet, soient A2 et B2 lesmatrices obtenues en ne conservant que les r premières lignes des matrices A1 et B1 respectivement. Lesystème équivaut à {

A2X = B2

0X = 0,

i.e. àA2X = B2.

Or ce dernier système est compatible : la matrice A2 ∈Mr,p(K) est de rang r (car échelonnée en lignes ;ses r lignes sont non nulles) donc dim ImA2 = r. Or ImA2 ⊂ Mr,1(K) donc ImA2 = Mr,1(K), doncB ∈ ImA2 : le système est compatible.Pour résoudre le système, on cherche, dans la matrice A2, r colonnes linéairement indépendantes (ça

Page 87: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

22.2. Cas général 83

existe car rgA2 = r). Les inconnues correspondantes seront appelées inconnues principales, les autresinconnues auxiliaires. En « faisant passer les n − p inconnues auxiliaires à droite », on est ramené àrésoudre un système de r équations à r inconnues ; ce système est de Cramer car les colonnes dela matrice correspondante sont, par choix des inconnues principales, linéairement indépendantes. Lessolutions s’expriment donc en fonction de p− r paramètres qui sont les inconnues auxiliaires.

Exemple 1. Soit a ∈ R. Discuter et résoudre le système

2x + y − 3z = a3x + 2y + z = a+ 37x + 4y − 5z = 2a+ 5

.

Exemple 2. Soit (a, b, c, d) ∈ R4. Discuter en fonction des paramètres a, b, c, d l’existence de solutions ausystème

7x + 2y − z + 3t = a−5x − 3y − 2t = b10x + 6y + 4t = c−9x − y + 2z − 4t = d

.

En déduire des équations cartésiennes de l’image de l’application linéaire f : R4 −→ R4 canoniquementassociée à la matrice du système.

Page 88: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

Index

équations cartésiennes, 60–62

algorithme du rang, 35anti-symétrique

matrice, 47, 51application

multi-linéaire, 70application linéaire

canoniquement associée à une matrice, 43rang, 37

associé (polynômes), 10

baseadaptée, 46changement de, 63de K[X ], 3

base canoniquede Mn,p(K), 45de K[X ], 3de Kn[X ], 5

base incomplète (théorème de la), 32

canoniquebase, 45

Cauchy

produit de –, 2changement de base, 63coefficient

d’un polynôme, 3dominant d’un polynôme, 4

concaténationdes matrices, 42

convolution (produit de –), 2

degréd’un polynôme, 4

diagonalematrice, 46

diagonalisableendomorphisme, 67matrice, 67

dilatationmatrice, 57

dimension finie, 31dissocié (polynôme), 18division euclidienne

des polynômes, 38polynômes, 11

dual, 39

échelonnéematrice, 46

élémentaireoperation, 56

élémentairematrice, 56

endomorphismediagonalisable, 67trace d’un, 65

espace propre, 67

fonctionpolynomiale, 6

forme coordonnée, 39formule

de Grassman, 36du rang, 37, 45

fraction rationnelle, 23

Grassman, 36groupe

linéaire, 51

hyperplan, 39, 40

imaged’une matrice, 45

impairpolynôme –, 8

inversed’une matrice, 62

inversiblematrice, 51

irréductible (polynôme), 10

Lagrange

polynôme d’interpolation, 38

matrice, 41échelonnée, 46élémentaire, 56anti-symétrique, 47, 51carrée, 41colonne, 41d’un vecteur, 42d’une application linéaire, 42

84

Page 89: Cours de Mathématiques - Freepcsi2.fermat.free.fr/cours/tome3.pdf · 18.1. Polynômes 3 De même, on a (v⋆w)ℓ =X i+j=ℓ viwj, d’où zn = X k+ℓ=n uk(v⋆w)ℓ = X k+ℓ=n

INDEX 85

de dilatation, 57de passage, 63de permutation, 56de transvection, 57diagonale, 46diagonalisable, 67identité, 41image d’une, 45inverse, 62inversible, 51ligne, 41nilpotente, 52noyau d’une, 45produit, 43, 48rang, 45, 54–55symétrique, 47, 51trace, 48transposée, 50triangulaire, 47, 51trigonale, 47

matricessemblables, 66

monôme, 3morphisme

de substitution, 6multi-linéaire, 70

nilpotentematrice, 52

normalisé (polynôme), 4noyau

d’une matrice, 45

opérationélémentaire, 56

pairpolynôme –, 8

partie entière, 26permutation

matrice, 56polynôme, 1

coefficient dominant d’un –, 4coefficients d’un –, 3constant, 3d’interpolation de Lagrange, 38degré d’un –, 4dissocié, 18division euclidienne, 38irréductible, 10normalisé, 4pair (impair), 8racine d’un –), 7scindé, 18unitaire, 4valuation d’un –, 4

polynômesassociés, 10division euclidienne, 11

presque nulle (suite), 1

produitCauchy, 2de convolution, 2de deux matrices, 43, 48

racine d’un polynôme, 7rang

algorithme du, 35d’une application linéaire, 37d’une famille de vecteurs, 35d’une matrice, 45, 54–55formule, 45formule du, 37

scindé (polynôme), 18semblables

matrices, 66substitution, 6suite

preque nulle, 1support d’une –, 1

supplémentaire, 36support d’une suite, 1symétrique

matrice, 47, 51

théorèmede la base incomplète, 32

traced’un endomorphisme, 65d’une matrice, 48

transposée, 47d’un produit, 50

transvectionmatrice, 57

triangulairematrice, 47, 51

trigonalematrice, 47

unitaire (polynôme), 4

valeur propre, 67valuation

d’un polynôme, 4vecteur propre, 67