Cours d'Algèbre L1 Math Info

64
Notes de cours d’alg` ebre lin´ eaire. L1, alg` ebre 1. Anne Beaulieu Ann´ ee 2007–2008

description

Notes de cours d'algèbre.64 pages

Transcript of Cours d'Algèbre L1 Math Info

Page 1: Cours d'Algèbre L1 Math Info

Notes de cours d’algebre lineaire.

L1, algebre 1.

Anne Beaulieu

Annee 2007–2008

Page 2: Cours d'Algèbre L1 Math Info

2

Page 3: Cours d'Algèbre L1 Math Info

Table des matieres

1 Resolution des systemes lineaires. 51.1 Exemples elementaires (a coefficients reels). . . . . . . . . . . . . . . . . . . . . . 51.2 Systemes a n lignes et p colonnes, systemes echelonnes. . . . . . . . . . . . . . . . 61.3 Resolution des systemes echelonnes. . . . . . . . . . . . . . . . . . . . . . . . . . 81.4 Algorithme du pivot de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.5 Principes a retenir, pour la resolution des systemes lineaires. . . . . . . . . . . . 111.6 Structure de l’ensemble des solutions d’un systeme lineaire. . . . . . . . . . . . . 12

2 Espaces vectoriels sur R ou C. 152.1 Rappel : les vecteurs du plan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.2 Espaces vectoriels sur R ou C. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.3 Sous-espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.4 Intersection de sous-espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . 192.5 Somme d’un nombre fini de sous-espaces vectoriels. . . . . . . . . . . . . . . . . . 202.6 Somme directe de deux sous-espaces vectoriels.

Sous-espaces vectoriels supplementaires. . . . . . . . . . . . . . . . . . . . . . . . 212.7 Sous-espace vectoriel engendre par une famille de vecteurs. . . . . . . . . . . . . 222.8 Dependance et independance lineaire. . . . . . . . . . . . . . . . . . . . . . . . . 242.9 Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3 Espaces vectoriels sur R ou C de dimension finie. 273.1 Definition d’un espace vectoriel de dimension finie. Exemple d’un espace vectoriel

de dimension infinie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.2 Theoreme de la base incomplete. Existence des bases. . . . . . . . . . . . . . . . 273.3 Notion de dimension d’un espace vectoriel. . . . . . . . . . . . . . . . . . . . . . . 283.4 Sous-espaces vectoriels en dimension finie. Tout sous-espace vectoriel admet un

supplementaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.5 Rang d’une famille de vecteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.6 Sous-espaces vectoriels de Kp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3.6.1 Passage d’une partie generatrice a une base ; calcul du rang. . . . . . . . . 313.6.2 Passage d’une base a un systeme d’equations cartesiennes. . . . . . . . . . 33

4 Applications lineaires. 354.1 Definitions et exemples. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354.2 Image et noyau. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.3 Application lineaire injective. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.4 Cas ou l’espace vectoriel de depart est de dimension finie, image d’une partie

generatrice. Rang d’une application lineaire. . . . . . . . . . . . . . . . . . . . . . 384.5 Isomorphismes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384.6 Exemples : projections vectorielles, symetries vectorielles. . . . . . . . . . . . . . 40

3

Page 4: Cours d'Algèbre L1 Math Info

4 TABLE DES MATIERES

5 Applications lineaires en dimension finie. Matrices 415.1 Matrices. Regles de calcul. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415.2 Matrice d’une application lineaire dans des bases. . . . . . . . . . . . . . . . . . . 455.3 Application lineaire de Kp dans Kn associee canoniquement

a une matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455.4 Calcul des coordonnees de l’image d’un vecteur de E. . . . . . . . . . . . . . . . 465.5 Operations lineaires sur les applications lineaires et les matrices. . . . . . . . . . 475.6 Composition des applications lineaires et multiplication des matrices. . . . . . . . 485.7 Matrices carrees inversibles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485.8 Matrices carrees inversibles et isomorphismes. . . . . . . . . . . . . . . . . . . . . 505.9 Calcul de la matrice inverse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515.10 Algebre des matrices n×n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

6 Changements de bases. 536.1 Changement de coordonnees. Matrice de passage. . . . . . . . . . . . . . . . . . . 536.2 Formule de changement de base pour une application lineaire. . . . . . . . . . . . 56

7 Rang d’une matrice, retour aux systemes lineaires. 597.1 Rang d’une matrice. Rang d’un systeme lineaire. . . . . . . . . . . . . . . . . . . 597.2 Systemes lineaires avec second membre. Espaces affines. . . . . . . . . . . . . . . 64

Page 5: Cours d'Algèbre L1 Math Info

Chapitre 1

Resolution des systemes lineaires.

Dans tout ce cours, le symbole K designe R ou C, appele corps des scalaires.

1.1 Exemples elementaires (a coefficients reels).

Premier exemple. On veut trouver les couples de reels (x, y) qui satisfont les deux equationsdu systeme

(S1){

2x + 3y = 7 (L1)x− y = 1 (L2)

Par exemple on retranche 2(L2) a (L1). On obtient le systeme

(S′1){

5y = 5 (L′1)x− y = 1 (L′2)

qui a le meme ensemble de solutions que (S1). En effet, on retrouve (S1) a partir de (S′1) enfaisant {

(L′1) + 2(L′2)(L′2)

La ligne (L′1) est equivalente a y = 1. On reporte dans la deuxieme equation, on trouve x = 2.On conclut que (S1) a une solution et une seule : (x, y) = (2, 1).

Deuxieme exemple.

(S2){

2x− 2y = 10 (L1)x− y = 1 (L2)

On retranche 2(L2) a (L1). On obtient le systeme

(S′2){

0 = 8 (L′1)x− y = 1 (L′2).

On remarque que le systeme (S2) peut etre retrouve a partir du systeme (S′2) car

(L1) = (L′1) + 2(L′2).

Les systemes (S2) et (S′2) ont donc le meme ensemble de solutions. La premiere ligne (L′1) n’estjamais realisee. On conclut que le systeme (S2) n’a aucune solution.

5

Page 6: Cours d'Algèbre L1 Math Info

6 CHAPITRE 1. RESOLUTION DES SYSTEMES LINEAIRES.

Troisieme exemple.

(S3){

2x− 2y = 8 (L1)x− y = 4 (L2).

La premiere ligne est egale a deux fois la seconde. On conclut que le systeme (S3) est equivalenta

(S′3) x = y + 4

L’ensemble des couples (x, y) qui verifient l’equation (S′3) est

{(y + 4, y); y ∈ R}.

Le systeme (S3) a donc une infinite de solutions. On dit qu’on a pris y comme parametre.Remarquons qu’au lieu de prendre y comme parametre, on peut prendre x. Le meme ensemblede solutions s‘ecrit donc aussi

{(x, x− 4);x ∈ R}.

1.2 Systemes a n lignes et p colonnes, systemes echelonnes.

Definition 1.2.1 Soient p et n dans N∗ . On appelle systeme lineaire a n equations et p incon-nues a coefficients dans K tout systeme d’equations qui s’ecrit

(S)

a1,1x1 + ... + a1,jxj + ... + a1,pxp = b1

................ai,1x1 + ... + ai,jxj + ... + ai,pxp = bi

................an,1x1 + ... + an,jxj + ... + an,pxp = bn

ou ai,j ∈ K, 1 ≤ i ≤ n, 1 ≤ j ≤ n et bi ∈ K. On appelle matrice associee au systeme (S) letableau de nombres

A =

a1,1 a1,2 ... a1,p

a2,1 a2,2 ... a2,p

.......an,1 an,2 ... an,p

On note A = (ai,j) 1 ≤ i ≤ n1 ≤ j ≤ n

On dit que A est une matrice a n lignes et p colonnes a coefficients

dans K.On notera toujours par i l’indice de ligne (premier indice) et par j l’indice de colonne (deuxiemeindice).Exemple : Le systeme (S1) a pour matrice

A =(

2 31 −1

).

Definition 1.2.2 Si b1 = ... = bn = 0, on dit que le systeme est homogene. Le systeme

(S0)

a1,1x1 + ... + a1,jxj + ... + a1,pxp = 0..............an,1x1 + ... + an,jxj + ... + an,pxp = 0

est appele le systeme homogene associe a (S) (on dit aussi le systeme sans second membre).

Page 7: Cours d'Algèbre L1 Math Info

1.2. SYSTEMES A N LIGNES ET P COLONNES, SYSTEMES ECHELONNES. 7

Exemple : Le systeme homogene associe a (S1) est{

2x + 3y = 0x− y = 0

Definition 1.2.3 On appelle solution de (S) tout n-uplet (u1, ..., un) de Kn tel que

a1,1u1 + ... + a1,pup = b1

...........an,1u1 + ... + an,pup = bn

Definition 1.2.4 Deux systemes (S1) et (S2) sont equivalents s’ils ont le meme ensemble desolutions, c’est a dire si toute solution de (S1) est solution de (S2) et vice-versa.

Exemple : Les systemes :{

x1 = 2x1 − x2 = 4

et{

x1 + x2 = 0x1 − x2 = 4

sont equivalents car chacun d’eux a pour unique solution (2,−2).

Definition 1.2.5 On dit qu’un systeme n × p est carre si n = p. La matrice du systeme estalors dite matrice carree. On dit qu’un systeme carre est triangulaire inferieur si ai,j = 0 pourtout couple (i, j) tel que i < j. On dit qu’un systeme carre est triangulaire superieur si ai,j = 0pour tout couple (i, j) tel que i > j.

Exemple : Le systeme suivant est triangulaire superieur

x1 +2x2 −x3 = 2x2 +x3 −x4 = 0

x3 −x4 = 5x4 = 3

On dit que la diagonale est non nulle si tous les termes diagonaux sont non nuls. Le systemeci-dessus est triangulaire superieur a diagonale non nulle. La matrice du systeme est dite matricetriangulaire superieure a diagonale non nulle.

Definition 1.2.6 On dit qu’un systeme n× p est echelonne s’il est de la forme

(S)

a1,j1xj1 + ....................... + a1,pxp = b1

a2,j2xj2 + ............. + a2,pxp = b2

a3,j3xj3 + .......... + a3,pxp = b3

..............ak,jk

xjk+ .... + ak,pxp = bk

0 = bk+1

....0 = bn

ou 1 ≤ j1 < j2 < ... < jk ≤ p, 1 ≤ k ≤ n et tous les am,jm sont non nuls, m = 1....k. Lesk premieres equations sont appelees les equations principales et les inconnues xj1,...,xjk

sontappelees les inconnues principales.Exemple : Le systeme 3× 5 suivant est echelonne.

x1 − x2+ +x4 + 2x5 = 0−x3 + x4 − x5 = 0

0 = 1

Page 8: Cours d'Algèbre L1 Math Info

8 CHAPITRE 1. RESOLUTION DES SYSTEMES LINEAIRES.

Remarque : Tout systeme triangulaire superieur de taille n × n a diagonale non nulle estechelonne avec k = n et ji = i pour i = 1...n. Un systeme carre est echelonne si il est : soittriangulaire superieur a diagonale non nulle, soit triangulaire superieur avec certains termesdiagonaux nuls. Dans ce dernier cas, la ou les derniere lignes ont leurs premiers membres nuls.Exemple : Le systeme carre 4× 4 suivant

x1 +2x2 −x3 = 2x3 −x4 = 0

x4 = 50 = 3

est echelonne, triangulaire avec des termes diagonaux nuls. Le premier membre de sa derniereligne est nul.

1.3 Resolution des systemes echelonnes.

Proposition 1.3.1 Soit (S) un systeme triangulaire superieur n × n a diagonale non nulle.Alors (S) a une solution unique obtenue par la methode de la remontee.

Preuve : xn = bnap,p

, xn−1 = bn−1−an−1,nxn

an−1,n−1, ...., x1 = b1−a1,2x2....−a1,pxp

a1,1.

Remarque : Les systemes triangulaires inferieurs a diagonale non nulle peuvent etre resoluspar la methode de la descente.

Proposition 1.3.2 Soit (S) le systeme echelonne p×n de la definition 1.2.6. Supposons k < n.Alors(i) Si l’un des bj, j ∈ {k + 1, ..., n} est non nul, S n’a pas de solution.(ii) Si bk+1 = ... = bn = 0, alors S est equivalent a

(Σ)

a1,j1xj1 + ....................... + a1,pxp = b1

a2,j2xj2 + ............. + a2,pxp = b2

a3,j3xj3 + .......... + a3,pxp = b3

..............ak,jk

xjk+ .... + ak,pxp = bk

ou 1 ≤ j1 < j2... < jk ≤ p et a1,j1 6= 0 ,...., ak,jk6= 0. Alors on a deux cas. Le premier cas est k =

p (autant d’equations que d’inconnues pour (Σ)), alors (Σ) est un systeme triangulaire superieura diagonale non nulle, il a une solution unique. Le second cas est k < p (plus d’inconnues qued’equations pour (Σ), on prend les inconnues non principales comme parametres. On obtientune infinite de solutions, par la methode de la remontee.Remarque : Si k = n, on est place directement dans la situation (ii).Exemples : 1) Le systeme 4× 5

x1+ 2x2 x5 = 1x2 +2x4− x5 = 2

x5 = 60 = 8

n’a pas de solutions.2) Le systeme 4× 5

x1+ 2x2− x3 +x5 = 1x2+ +x4 −x5 = 2

x5 = 60 = 0

Page 9: Cours d'Algèbre L1 Math Info

1.4. ALGORITHME DU PIVOT DE GAUSS. 9

a pour inconnues principales x1, x2, x5. On prend x3 et x4 comme parametres. On passe x3 etx4 dans le second membre. On est ramene a un systeme triangulaire superieur a diagonale nonnulle. Par la methode de la remontee, on trouve

x5 = 6x2 = −x4 + 6 + 2 = −x4 + 8x1 = x3 + 2x4 − 16− 6 + 1 = x3 + 2x4 − 21

Le systeme a donc une infinite de solutions. L’ensemble des solutions est

{(x3 + 2x4 − 21,−x4 + 8, x3, x4, 6);x3 ∈ R, x4 ∈ R}.

1.4 Algorithme du pivot de Gauss.

L’algorithme du pivot de Gauss sert a transformer n’importe quel systeme en un systemeechelonne equivalent, a l’aide de transformations elementaires.Les transformations elementaires sont :(1) echange de deux lignes du systeme ;(2) multiplication d’une ligne par un scalaire non nul ;(3) ajout d’une ligne a une autre ligne.

Proposition 1.4.1 Quand on transforme un systeme en un autre par une succession d’operationselementaires, on obtient un systeme equivalent au premier. (Autrement dit, transformer unsysteme par une succession d’operations elementaires ne change pas l’ensemble des solutions.)Preuve : Pour l’operation (1), c’est evident. Pour l’operation (2) : on passe de la ligne (Li) :ai,1x1 + ... + ai,pxp = bi a la ligne (L′i) : αai,1x1 + ... + αai,pxp = αbi en multipliant par lescalaire non nul α. Alors on passe de (L′i) a (Li) en multipliant par 1

α . Pour l’operation (3) : Onremplace la ligne (Li) par la ligne (Li) + (Lj),notee (L′i), les autres lignes restant inchangees.Dans le systeme initial les lignes numeros i et j sont

{ai,1x1 + .... + ai,pxp = bi(Li)aj,1x1 + .... + aj,pxp = bj(Lj)

Dans le systeme obtenu les lignes numeros i et j sont{

(ai,1 + aj,1)x1 +.... +(ai,p + aj,p)xp = bi + bj (L′i)aj,1x1 +.... +aj,pxp = bj (L′j)

Pour retrouver le systeme initial, on remplace la ligne (L′i) par (L′i)− (L′j).

Theoreme 1.4.2 Tout systeme est equivalent a un systeme echelonne.La demonstration repose sur l’algorithme du pivot de Gauss. Montrons-le sur un exemple.

Soit le systeme

x1 +2x2 −x4 = 1 (L1)2x1 +3x2 +x3 +x4 = 2 (L2)x1 −x3 −x4 = 0 (L3)

La premiere equation est prise comme pivot et reste inchangee. On remplace les deux derniereslignes en leur retranchant un multiple de la premiere ligne, de maniere a supprimer l’inconnuex1. On obtient le systeme equivalent suivant :

x1 +2x2 −x4 = 1 (L′1)−x2 +x3 +3x4 = 0 (L′2) = (L2)− 2(L1)−2x2 −x3 = −1 (L′3) = (L3)− (L1)

Page 10: Cours d'Algèbre L1 Math Info

10 CHAPITRE 1. RESOLUTION DES SYSTEMES LINEAIRES.

On reitere le procede pour le systeme 2× 3 forme par la deuxieme et la troisieme equation. Ladeuxieme equation est prise comme pivot.

x1 +2x2 −x4 = 1 (L′1)−x2 +x3 +3x4 = 0 (L′2))

−3x3 −6x4 = −1 (L′3)− 2(L′2)

On a obtenu un systeme echelonne. Les inconnues principales sont x1, x2, x3. On a une inconnuenon principale : x4. On la prend comme parametre, puis on utilise la methode de la remontee.

x3 = −2x4 + 13

x2 = −2x4 + 13 + 3x4 = x4 + 1

3x1 = 1 + x4 − 2(x4 + 1

3) = −x4 + 13

L’ensemble des solutions est

{(−x4 +13, x4 +

13,−2x4 +

13);x4 ∈ R}.

Remarquons qu’on peut presenter l’algorithme du pivot de Gauss sous une forme matricielle.On fait alors une succession d’operations elementaires sur les lignes de la matrice du systeme,sans oublier de faire simultanement les memes operations sur le second membre. Dans le cas del’exemple ci-dessus,

la matrice du systeme est

1 2 0 −12 3 1 11 0 −1 −1

et le second membre est

120

.

En prenant la premiere ligne comme pivot, on obtient d’abord la matrice et le second membre :

1 2 0 −10 −1 1 30 −2 −1 0

et

10−1

.

En reiterant le procede, on obtient la matrice et le second membre :

1 2 0 −10 −1 1 30 0 −3 −6

et

10−1

.

Algorithme du pivot de Gauss dans le cas general.Soit (S) un systeme n×p de matrice A non nulle. Soit j1 l’indice de la premiere colonne non

nulle.Premiere etape. On permute eventuellement des lignes pour se ramener a a1,j1 6= 0. Apres

cette permutation eventuelle, (S) est remplace par un systeme equivalent, de matrice

A =

0 ...0 a1,j1 ....... . . . . .

0 .....0 an,j1 .......

On permute de la meme maniere les lignes du second membre.Deuxieme etape. On fait apparaıtre des 0 dans la colonne j1, sous le coefficient a1,j1 . Pour

cela, on remplace la ligne (Li), i = 2, ..., p, par

(L′i) = (Li)− ai,j1

a1,j1

(L1).

Page 11: Cours d'Algèbre L1 Math Info

1.5. PRINCIPES A RETENIR, POUR LA RESOLUTION DES SYSTEMES LINEAIRES. 11

On n’oublie pas de faire simultanement les memes operations elementaires sur le second membredu systeme. Apres ces p operations elementaires, on obtient le systeme de matrice

0 ...0 a1,j1 ∗ ...∗

. . . 0 ∗ ...∗0 .....0 0 ∗ ...∗

On recommence ces deux etapes pour le systeme (n − 1) × p constitue par les lignes numeros2 a p du systeme obtenu a la fin de la premiere etape. L’algorithme s’arrete au bout d’au plusn− 1 iterations, ou quand la matrice du sous-systeme obtenu a toutes ses lignes nulles.

L’algorithme est programmable et permet de resoudre des systemes lineaires, meme de tresgrandes dimensions, par ordinateur.

1.5 Principes a retenir, pour la resolution des systemes lineaires.

Pour resoudre un systeme lineaire, on le transforme en un systeme equivalent et on reitere leprocede jusqu’a obtenir l’ensemble des solutions. Il y a deux procedes qui permettent de passerd’un systeme donne a un systeme equivalent.

Premier procede pour obtenir un systeme equivalent : la substitution. On se sertde l’une des equations pour calculer l’une des inconnues en fonction des autres. Ensuite onecrit un nouveau systeme equivalent au premier en gardant l’equation qui vient de servir et enremplacant, dans toutes les autres equations, l’inconnue qu’on a calculee par son expression enfonction des autres. (Remarquons que le nombre d’equations reste le meme).

Deuxieme procede pour obtenir un systeme equivalent : les operations elementaires.On multiplie plusieurs equations par des nombres non nuls puis on les ajoute membre a membre.Ensuite on ecrit un nouveau systeme equivalent au premier en remplacant l’une des equationsqu’on vient d’utiliser par celle qu’on a obtenue et en gardant toutes les autres. (La aussi, onremarque que le nombre d’equations reste le meme).

Toute methode de resolution qui utilise successivement l’un ou l’autre de ces deux procedesest juste. La methode du pivot de Gauss permet a coup sur de trouver un systeme echelonneequivalent au systeme donne en procedant par operations elementaires. La resolution par lamethode de la remontee est un procede de substitutions reiterees.Dans la pratique courante (sans machine !) la methode du pivot n’est pas toujours la methodela plus rapide, il se peut qu’on ait interet a proceder par substitutions.Exemple :

2x1 −x2 +x3 = 4 (L1)x1 −x3 = 0 (L2)

x2 +x3 = 0 (L3)Resolution par la methode du pivot de Gauss :

2x1 −x2 +x3 = 4x2 −3x3 = −4 2(L2)− (L1)x2 +x3 = 0

puis

2x1 −x2 +x3 = 4x2 −3x3 = −4

+4x3 = 4 (L′3)− (L′2)Par la methode de la remontee on obtient la solution unique :

x3 = 1x2 = −4 + 3 = −1x1 = 1

Reprenons le meme systeme et resolvons-le par substitution :

x1 = x3 (L2)x2 = −x3 (L3)2x3 + x3 + x3 = 4 (on substitue x3 a x1 et −x3 a x2 dans (L1))

Page 12: Cours d'Algèbre L1 Math Info

12 CHAPITRE 1. RESOLUTION DES SYSTEMES LINEAIRES.

On retrouve la solution unique (1,−1, 1).

1.6 Structure de l’ensemble des solutions d’un systeme lineaire.

Presentation de l’ensemble des solutions. Exemple. Soit le systeme 3× 4 a coefficientsdans R :

x1 −2x2 +x3 −x4 = 2 (L1)−x2 +x4 = 0 (L2)

x3 +x4 = 1 (L3)

C’est un systeme echelonne. On prend x4 comme parametre et x1, x2, x3 comme inconnuesprincipales..

x3 = −x4 + 1 (L3)x2 = x4 (L2)x1 = 2 + 2x4 + x4 − 1 + x4 (on substitue x4 a x2 et −x4 + 1 a x3 dans (L1))

L’ensemble des solutions est l’ensemble des quatre-uplets de reels

x1

x2

x3

x4

qui verifient :

x1 = 4x4 + 1x2 = x4

x3 = −x4 + 1x4 = x4.

Ceci est equivalent a dire que la colonne

x1

x2

x3

x4

est telle que :

x1

x2

x3

x4

= x4

41−11

+

1010.

On presente l’ensemble des solutions sous la forme :

E = {λ

41−11

+

1010

; λ ∈ R}.

Proposition 1.6.1 Soit (S) un systeme lineaire et soit (S0) le systeme homogene associe.Soient E et E0 leurs ensembles de solutions respectifs. Alors E0 n’est jamais l’ensemble vide,car il contient toujours la solution nulle. De plus, la difference de deux elements de E est unelement de E0. On a donc : soit E = ∅, soit E est l’ensemble de la somme des elements de E0 etd’un element particulier de E.Preuve : Si E 6= ∅, soit (α1, ..., αp) une solution de (S). Si (x1, ..., xp) est une autre solution de(S), alors la difference (x1 − α1, ..., xp − αp) est une solution de (S0). Pour le montrer, on ecrit,pour tout i = 1, ..., n, que la ligne numero i du systeme (S) est verifiee par (x1, ..., xp) et par(α1, ..., αp). On a donc : {

ai,1x1 + ... + ai,pxp = bi

ai,1α1 + ... + ai,pαp = bi

On soustrait membre a membre les deux equations ci-dessus, on obtient :

ai,1(x1 − α1) + ... + ai,p(xp − αp) = 0,

ce qui signifie que la ligne numero i du systeme homogene (S0) est verifiee par (x1−α1, ..., xp−αp).Ceci est vrai pour i = 1, ..., n, donc (x1 −α1, ..., xp −αp) est une solution du systeme homogene(S0).

Page 13: Cours d'Algèbre L1 Math Info

1.6. STRUCTURE DE L’ENSEMBLE DES SOLUTIONS D’UN SYSTEME LINEAIRE. 13

Reciproquement, on montre de la meme maniere que si (α1, ..., αp) est une solution de (S)et si (β1, ..., βp) est une solution de (S0), alors (α1 + β1, ..., αp + βp) est une solution de (S).

Exemple. Dans l’exemple ci-dessus, remarquons que

1010

est une solution de (S), obtenue

pour la valeur 0 du parametre. D’apres la proposition ci-dessus, les solutions de (S0) s’obtiennenten retranchant cette solution particuliere a toutes les solutions de (S). On a donc

E0 = {λ

41−11

; λ ∈ R}.

On dira que E0 est un sous-espace vectoriel de R4.

Page 14: Cours d'Algèbre L1 Math Info

14 CHAPITRE 1. RESOLUTION DES SYSTEMES LINEAIRES.

Page 15: Cours d'Algèbre L1 Math Info

Chapitre 2

Espaces vectoriels sur R ou C.

2.1 Rappel : les vecteurs du plan.

On connaıt depuis le lycee ~u = (x, y).

Point de vue geometrique. Un vecteur du plan est un segment oriente. Plus precisemment,c’est une classe d’equivalence de segments pour la relation :

[A,B] ∼ [A′, B′] ⇔ (AB) ‖ (A′B′) et (AA′) ‖ (BB′).

Ou encore : les couples de points (A,B) et (A′, B′) definissent le meme vecteur si et seulementsi le quadrilatere ABB′A′ est un parallelogramme.

Point de vue analytique. Un vecteur du plan est caracterise par ses coordonnees x et ysuivant une base de vecteurs (~i,~j) fixee une fois pour toutes.

Pour nous : un vecteur du plan sera un couple de reels, autrement dit un element de R2,~u = (x, y), qu’on notera soit en ligne, soit en colonne.

On sait deja ajouter deux vecteurs du plan. ~u1 = (x1, y1), ~u2 = (x2, y2).

~u1 + ~u2 = (x1 + x2, y1 + y2).

Comme la somme de deux vecteurs du plan est un vecteur du plan, on dit que l’addition est uneloi interne.

On sait multiplier un vecteur du plan par un nombre reel. Si λ est un nombre reel et si~u = (x, y) est un vecteur du plan, on definit

λ~u = (λx, λy).

La multiplication est effectuee par un reel et non par un vecteur. On dit que la multiplicationpar un reel est une loi externe.

On ne sait pas multiplier deux vecteurs du plan, ni diviser deux vecteurs du plan.On peut combiner la multiplication par un reel et l’addition.λ, µ ∈ R; λ~u1 + µ~u2 = (λx1 + µx2, λy1 + µy2).On dit qu’on a effectue une combinaison lineaire des deux vecteurs ~u1 et ~u2 avec les coefficients

λ et µ.Lorsqu’il existe un reel λ tel que ~u = λ~v, ou tel que ~v = λ~u on dit que les vecteurs ~u et ~v

sont colineaires. Dans le cas contraire, on dit qu’ils sont lineairement independants. Exemple :(1, 0) et (0, 1) sont lineairement independants.

On peut definir aussi les vecteurs de l’espace comme les triplets de reels ~u = (x, y, z).

15

Page 16: Cours d'Algèbre L1 Math Info

16 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

2.2 Espaces vectoriels sur R ou C.

On rappelle que K = R ou C est appele le corps des scalaires.

Definition 2.2.1 Un espace vectoriel sur K est un ensemble non vide E qui est muni de deuxoperations : la somme et la multiplication par un scalaire. Ces deux operations verifient lesproprietes suivantes :

u, v ∈ E, u+v = v+u (l’addition est commutative). u, v, w ∈ E, u+(v+w) = (u+v)+w.On notera u + v + w. (L’addition est associative).

Il existe e ∈ E tel que u + e = u pour tout u de E.Pour tout u ∈ E, il existe u′ ∈ E tel que u + u′ = e.u ∈ E, 1u = u.u ∈ E, λ, µ ∈ K, (λ + µ)u = λu + µu

u ∈ E, λ, µ ∈ K, (λµ)u = λ(µu). (on notera λµu).u, v ∈ E, λ ∈ K, λ(u + v) = λu + λv.

Tout element de E s’appelle un vecteur. On pourrait noter ~u, on notera u.

Remarques : Ce n’est pas la nature des elements de E qui fait que E est appele un espacevectoriel, mais ce sont les operations qu’on peut effectuer sur les elements de E et les proprietesde ces operations.

L’addition est une loi interne. Les quatre premieres proprietes sont des proprietes de l’addi-tion seulement. On dit que (E,+) est un groupe abelien. L’element e est appele l’element neutrepour +. Les elements u et u′ sont appeles des elements symetriques pour +.

La multiplication par un scalaire est une loi externe. On n’a pas defini la multiplication dedeux elements de E.

Montrons l’unicite de l’element neutre pour l’addition. Soient e et e′ tels que pour tout u ∈ E,e + x = x et e′ + x = x. alors e + e′ = e et e′ + e = e′. Mais e + e′ = e′ + e donc e = e′.

Pour u ∈ E, montrons l’unicite de l’element symetrique de u pour l’addition. Soient u′ et vtels que u + u′ = e et u + v = e. Alors v + (u + u′) = (v + u) + u′ = e + u′ = u′. Mais on a aussiv + (u + u′) = v + e = v. Donc v = u′.Notation : L’element neutre pour l’addition, e, sera note 0. On pourrait noter ~0, pour ne pasle confondre avec le 0 de R ou C, mais on decide de ne pas mettre de fleches sur les vecteurs.

Attention : On prendra garde, tout au long du cours, a ne pas confondre le vecteur 0 (vecteurnul) avec le scalaire 0. C’est le contexte qui nous permettra de reconnaıtre dans quels cas lesymbole 0 designe le vecteur nul et dans quels cas il designe le scalaire nul.

Montrons que si u, v, w ∈ E,

(u + w = v + w) ⇒ (u = v).

Il suffit d’ajouter le symetrique de w, w′, de chaque cote.Montrons que si u ∈ E,

0u = 0.

(Remarquons que le 0 a gauche du signe = est un scalaire et que le 0 a droite du signe = est unelement de E).

0u + u = 0u + 1u = (0 + 1)u = 1u = u donc 0u + u + u′ = u + u′ d’ou 0u = 0.Montrons que si λ est un scalaire,

λ0 = 0.

(Remarquons que le 0 a gauche du signe = et le 0 a droite du signe = designent tous deux levecteur nul).λ0 + λ0 = λ(0 + 0) = λ0 = λ0 + 0 donc λ0 = 0.

Page 17: Cours d'Algèbre L1 Math Info

2.2. ESPACES VECTORIELS SUR R OU C. 17

Montrons que si u ∈ E et λ ∈ K et si λu = 0, alors u = 0 (u est le vecteur nul), ou λ = 0 (λest le zero de R ou C). Supposons λ 6= 0. Soit 1/λ son inverse dans R ou C. On a (1/λ)(λu) = 0Or (1/λ)(λu) = ((1/λ)λ)u = 1u = u, donc u = 0. On a donc bien montre

(λu = 0) ⇒ (λ = 0 ou u = 0).

Le symetrique pour l’addition du vecteur u ∈ E, u′, sera note −u. On a u + (−1)u =1u + (−1)u, donc u + (−1)u = (1 + (−1))u = 0u = 0. Donc

−u = (−1)u.

Exemples d’espaces vectoriels a) L’ensemble K lui meme est un espace vectoriel sur K. Onprend comme operations l’addition et la multiplication dans K. Toutes les proprietes ci-dessussont verifiees.

b) C est un espace vectoriel sur C, d’apres a). C’est aussi un espace vectoriel sur R, si onprend les operations suivantes : comme loi interne l’addition dans C et comme loi externe lamutiplication d’un nombre complexe par un nombre reel. C’est a direa, b, a′, b′ ∈ R, (a + ib) + (a′ + ib′) = (a + a′) + i(b + b′).a, b, λ ∈ R, λ(a + ib) = λa + iλb.

c) Si n est un entier superieur ou egal a 2, l’ensemble Rn des n−uplets de reels est un espacevectoriel sur R. Pour n = 2, on trouve les vecteurs du plan etudies au lycee, pour n = 3, ontrouve les vecteurs de l’espace. L’addition dans Rn est definie par :

(x1, ..., xn) + (y1, ..., yn) = (x1 + y1, ..., xn + yn).

La multiplication par un reel λ est definie par :

λ(x1, ..., xn) = (λx1, ..., λxn).

L’addition dans Rn est commutative, car l’addition dans R l’est. On verifie facilement quel’addition dans Rn est associative car l’addition dans R l’est. L’addition dans Rn a un elementneutre qui est (0, ..., 0) car (x1, ..., xn) + (0, ..., 0) = (x1 + 0, ..., xn + 0) = (x1, ..., xn). Chaqueelement (x1, ..., xn) de Rn a un symetrique pour l’addition, qui est (−x1, ...,−xn). Donc (Rn, +)est un groupe abelien.

De plus on a :1(x1, ..., xn) = (1x1, ..., 1xn) = (x1, ..., xn).

Pour λ, µ ∈ R on a :

(λ + µ)(x1, ..., xn) = ((λ + µ)x1, ..., (λ + µ)xn) = (λx1 + µx1, ..., λxn + µxn) =(λx1, ..., λxn) + (µx1, ..., µxn) = λ(x1, ..., xn) + µ(x1, ..., xn),

λ(µ(x1, ..., xn)) = λ(µx1, ..., µxn) = (λµx1, ..., λµxn) = (λµ)(x1, ..., xn)

et

λ((x1, ..., xn) + (y1, ..., yn)) = λ(x1 + y1, ..., xn + yn) = (λ(x1 + y1), ..., λ(xn + yn)) =(λx1 + λy1, ..., λxn + λyn) = (λx1, ..., λxn) + (λy1, ..., λyn) = λ(x1, ..., xn) + λ(y1, ..., yn).

d) L’ensemble des n−uplets de nombres complexes, Cn, est un espace vectoriel sur C. Lademonstration est identique a celle de c).

Page 18: Cours d'Algèbre L1 Math Info

18 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

e) L’ensemble Cn est un espace vectoriel sur R pour la somme dans Cn et la multiplicationd’un element de Cn par un nombre reel.

f) Soit I un intervalle de R. Soit F(I,R) l’ensemble des fonctions de I dans R. F(I,R) 6= ∅,puisqu’il contient au moins la fonction identiquement nulle : x → 0. On le munit des operationsdefinies par :

(f + g)(x) = f(x) + g(x),

λ ∈ R, (λf)(x) = λ(f(x)).

On a bien une loi interne et une multiplication par les scalaires. Verifions les quatre proprietes dela loi interne. La fonction identiquement nulle est element neutre pour l’addition. Montrons quel’addition dans F(I,R) est commutative. Par la definition de f+g on a : (f+g)(x) = f(x)+g(x).Comme l’addition dans R est commutative, on a f(x) + g(x) = g(x) + f(x). Or par la definitionde la fonction g + f , on a g(x) + f(x) = (g + f)(x). On conclut que f + g = g + f . On peutmontrer de la meme maniere que l’addition dans F(I,R) est associative. Chaque element f a unsymetrique pour l’addition qui est la fonction x → −f(x), qu’on notera −f . On a donc montreque (F(I,R), +) est un groupe abelien.On a :

(1f)(x) = 1(f(x)) = f(x), donc 1f = f .

On a

((λµ)f)(x) = (λµ)(f(x)) = λ(µf(x)) = λ((µf)(x)) = (λ(µf))(x), donc (λµ)f = λ(µf).

On a

((λ + µ)f)(x) = (λ + µ)(f(x)) = λ(f(x)) + µ(f(x)) = (λf)(x) + (µf)(x),donc (λ + µ)f = λf + µf .

On a

(λ(f + g))(x) = λ((f + g)(x)) = λ(f(x) + g(x)) = λ(f(x)) + λ(g(x)) = (λf)(x) + (λg)(x) =(λf + λg)(x),

donc λ(f + g) = (λf) + (λg).

On a demontre que F(I,R) muni de l’addition et de la multiplication par un scalaire definiesci-dessus est un espace vectoriel sur R.

2.3 Sous-espaces vectoriels.

Dans cette partie, E sera un espace vectoriel sur K.

Definition 2.3.1 Soient n ∈ N∗, u1, ..., un, v ∈ K, alors(i) si il existe λ ∈ K tel que v = λu1, on dit que v est colineaire a u1.(ii) si n ≥ 2 et si il existe λ1, ..., λn ∈ K tels que v = λ1u1 + ... + λnun, on dit que le vecteur vest une combinaison lineaire des vecteurs u1, ..., un.

Remarque : Le vecteur nul est colineaire a tout autre vecteur car0 = 0u, pour tout u ∈ E.(A gauche du signe=, le symbole 0 designe le vecteur nul ; a droite du signe= le meme symboledesigne le scalaire nul.)

Page 19: Cours d'Algèbre L1 Math Info

2.4. INTERSECTION DE SOUS-ESPACES VECTORIELS. 19

Definition 2.3.2 Soit F un sous-ensemble non vide de E. On dit que F est un sous-espacevectoriel de E si(i) Pour tous u, v ∈ F , u + v ∈ F ;(ii) pour tous λ ∈ K, u ∈ F , λu ∈ F .Remarques : Si F est un sous-espace vectoriel de E, alors

a) le vecteur nul appartient a F . En effet, comme F 6= ∅, soit u ∈ F . Soit 0 ∈ K le scalairenul, on a 0u ∈ F . Or 0u est le vecteur nul, donc le vecteur nul appartient a F .

b) Si n ≥ 2 et si u1, ..., un ∈ F , alors u1 + ... + un ∈ F . (Appelons (Pn) la propriete ”siu1, ..., un sont n vecteurs de F , alors le vecteur u1 + ... + un appartient a F”. Demontrons parrecurrence que (Pn) est vraie pour tout n ≥ 2. La propriete (P2) est vraie, donc la propriete (Pn)est initialisee a l’ordre 2. Montrons qu’elle est hereditaire a partir de l’ordre 2, c’est a dire quepour n ≥ 2, ((Pn) ⇒ (Pn+1)). Soit n ≥ 2 tel que (Pn) soit vraie. Montrons que (Pn+1) est vraie.Prenons n + 1 vecteurs de F . On a u1 + ... + un+1 = (u1 + ... + un) + un+1. Or, par la propriete(Pn) on a u1 + ... + un ∈ F . Par la propriete (P2), on a donc que (u1 + ... + un) + un+1 ∈ F . Lapropriete (Pn) est donc bien hereditaire a partir de l’ordre 2. Comme elle est aussi initialisee al’ordre 2, alors elle est vraie pour tout n ≥ 2, par le theoreme de recurrence.)

c) Si n ≥ 2, toute combinaison lineaire de n vecteurs de F appartient a F . (C’est vrai pourtoute combinaison lineaire de deux vecteurs de F , puis on fait une demonstration par recurrencesur le nombre de vecteurs).

Proposition 2.3.3 Tout sous-espace vectoriel de E est un espace vectoriel sur K.Preuve : On prend comme addition dans F la loi interne de E. On prend comme loi externe surF la loi externe sur E. On a vu que le vecteur nul de E appartient a F . C’est l’element neutrepour l’addition dans F . Si u appartient a F , on sait que son symetrique pour l’addition est(−1)u, donc il appartient a F . La commutativite et l’associativite de la loi interne sont verifieesdans F , car elles le sont dans E. Il en est de meme des quatre dernieres proprietes qui definissentun espace vectoriel.Exemples : a) Si E est un espace vectoriel sur K alors {0} est un sous-espace vectoriel de Eet E lui-meme est un sous-espace vectoriel de E.

b) Soit n ∈ N, n ≥ 2 et soit l’espace vectoriel sur K Kn. Soit 1 ≤ p ≤ n. Alors

F = {(x1, ..., xp, 0...0);xi ∈ K, i = 1, ..., p}

est un sous-espace vectoriel de Kn. On a (0, ..., 0) ∈ F , donc F 6= ∅. Si u = (x1, ..., xp, 0, ...0) ∈ Fet si λ ∈ K, alors λu ∈ F car λu = (λx1, ..., λxp, 0, ..., 0). Si v = (y1, ..., yp, 0, ..., 0) ∈ F , alorsu + v ∈ F car u + v = (x1 + y1, ..., xp + yp, 0, ..., 0).c) Soit C∞(R) l’ensemble des fonctions indefiniment derivables de R dans R. C’est un sous-espacevectoriel de l’espace vectoriel sur R F(R,R).

2.4 Intersection de sous-espaces vectoriels.

Proposition 2.4.1 Si F et G sont des sous-espaces vectoriels de E, alors F ∩ G est un sous-espace vectoriel de E.Preuve : 0 ∈ F ∩G, donc F ∩G 6= ∅. Si u, v ∈ F ∩G et λ ∈ K, alors λu ∈ F ∩G et u+v ∈ F ∩G.Remarque : L’intersection d’une famille quelconque de sous-espaces vectoriels de E est unsous-espace vectoriel de E.

Proposition 2.4.2 L’ensemble des solutions d’un systeme homogene n× p est un sous-espacevectoriel de Kp.

Page 20: Cours d'Algèbre L1 Math Info

20 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

Preuve : 0n rappelle qu’un systeme homogene n × p a n lignes et p inconnues et un secondmembre nul.

(S)

a1,1x1 + ... + a1,pxp = 0...ai,1x1 + ... + ai,pxp = 0...an,1x1 + ... + an,pxp = 0

Soit F1 l’ensemble des solutions de la premiere ligne, c’est a dire :

F1 = {(x1, ..., xp) ∈ Kp; a1,1x1 + ... + a1,pxp = 0}.

Montrons que F1 est un sous-espace vectoriel de Kp. D’abord F1 n’est pas vide car il contient(0, ..., 0). Si λ ∈ K, (x1, ..., xp) ∈ F1 et (y1, ..., yp) ∈ F1, alors on a

{a1,1x1 + ... + a1,pxp = 0a1,1y1 + ... + a1,pyp = 0

En sommant membre a membre on obtient :

a1,1(x1 + y1) + ... + a1,p(xp + yp) = 0,

ce qui montre que (x1, ..., xp) + (y1, ..., yp) ∈ F1.En multipliant la premıere ligne de (S) par λ on obtient

a1,1(λx1) + ... + a1,p(λxp) = 0,

ce qui montre queλ(x1, ..., xp) ∈ F1.

Donc F1 est un sous-espace vectoriel de Kp. Si n = 1, F1 est l’ensemble des solutions de (S). Sin ≥ 2, on appelle Fi l’ensemble des solutions de la ieme ligne du systeme (S), pour i = 2, ..., n.La meme demonstration que pour F1 montre que Fi est un sous-espace vectoriel de Kp, pouri = 2, ..., n. Or l’ensemble des solutions de (S) est F1 ∩ ...∩Fn. C’est l’intersection d’une famillefinie de sous-espaces vectoriels de Kp, donc c’est un sous-espace vectoriel de Kp.

2.5 Somme d’un nombre fini de sous-espaces vectoriels.

Definition 2.5.1 Soient n ≥ 2 et F1,...,Fn des sous-espaces vectoriels de E. On appelle sommedes sous-espaces vectoriels F1,...,Fn, et on note F1 + ... + Fn l’ensemble defini par

F1 + ... + Fn = {u1 + ... + un; u1 ∈ F1, ..., un ∈ Fn}.

Proposition 2.5.2 F1 + ... + Fn est un sous-espace vectoriel de E.

Preuve : Soient u1 ∈ F1, v1 ∈ F1,....,un ∈ Fn, vn ∈ Fn. Alors (u1 + ... + un) + (v1 + .... + vn) =(u1 + v1) + ... + (un + vn) ∈ F1 + ... + Fn. Si λ ∈ K, alors λ(u1 + ... + un) = (λu1) + ... + (λun) ∈F1 + ... + Fn.

Exemple. Dans R2. Soit F1 = {(λ, 0), λ ∈ R} et F2 = {(0, λ), λ ∈ R}. Ce sont des sous-espaces vectoriels de R2. On a F1 + F2 = {(λ, µ), λ ∈ R, µ ∈ R}. Donc F1 + F2 = R2. SoitF3 = {(λ, λ), λ ∈ R}. C’est un sous-espace vectoriel de R2. Alors F1 + F2 + F3 = R2.

Page 21: Cours d'Algèbre L1 Math Info

2.6. SOMME DIRECTE DE DEUX SOUS-ESPACES VECTORIELS.SOUS-ESPACES VECTORIELS SUPPLEMENTAIRES.21

2.6 Somme directe de deux sous-espaces vectoriels.Sous-espaces vectoriels supplementaires.

Soient F et G deux sous-espaces vectoriels de E.

Definition 2.6.1 On dit que la somme F + G est une somme directe si tout vecteur de F + Gs’ecrit de maniere unique comme somme d’un vecteur de F et d’un vecteur de G.

Notation. Quand la somme est directe, on ecrit F⊕

G a la place de F +G. Exemple. Dansl’exemple ci-dessus la somme F1 + F2 est directe.

Proposition 2.6.2 La somme F + G est directe si et seulement si F ∩G = {0}.Preuve : Supposons d’abord que la somme F +G est directe. Tout u de F +G s’ecrit de maniereunique u = v + w, ou v ∈ F et w ∈ G. Soit u ∈ F ∩ G. Le vecteur nul appartient a F + G eton a d’une part 0 = 0 + 0 et d’autre part 0 = u + (−u). Or la decomposition de tout vecteur deF + G comme somme d’un vecteur de F et d’un vecteur de G est unique, donc 0 = u.Supposons maintenant que F ∩ G = {0}. Soit u ∈ F + G. Il existe v ∈ F et w ∈ G telsque u = v + w. Montrons l’unicite de la decomposition. Soient v′ ∈ F et w′ ∈ G tels queu = v′ + w′. Alors en retranchant membre a membre les deux decompositions de u on obtient0 = (u − u′) + (v − v′), ce qui donne u − u′ = v′ − v. Or u − u′ ∈ F et v′ − v ∈ G. Doncu− u′ ∈ F ∩G et v′ − v ∈ F ∩G. On a donc u = u′ et v = v′.

Definition 2.6.3 On dit que F et G sont supplementaires si tout vecteur de E s’ecrit de maniereunique comme somme d’un vecteur de F et d’un vecteur de G.On note alors E = F

⊕G.

Proposition 2.6.4 Soient F et G deux sous-espaces vectoriels de E. Alors ils sont supplementairessi et seulement si E = F +G et F ∩G = {0}. (C’est un corollaire de la proposition precedente).Exemples : a) Dans R2 F1 = {(λ, 0), λ ∈ R} et F2 = {(0, λ), λ ∈ R} sont des sous-espacesvectoriels supplementaires.b) Soit G l’espace vectoriel des fonctions affines de R dans R : G = {x → ax + b, a ∈ R, b ∈ R}.Alors G = G1

⊕G2 ou G1 est le sous-espace vectoriel des fonctions constantes et G2 est le

sous-espace vectoriel des fonctions lineaires. On verifie que G1 ∩ G2 = {0G}, ou 0G designe lafonction constante x → 0.c) Dans E = F(R,R), on definit

F = {f ∈ F(R,R), f paire} et G = {g ∈ F(R,R), f impaire}.On verifie d’abord (exercice) que F et G sont des sous-espaces vectoriels de F(R,R). Montronsque F(R,R) = F

⊕G. Prouvons d’abord que F ∩G = {0}. Soit f ∈ F ∩G. Alors f est a la fois

paire et impaire, donc pour tout x ∈ R on a f(−x) = f(x) et f(−x) = −f(x). Donc f(x) = 0pour tout x ∈ R, ce qui prouve que F ∩G = {0}. Prouvons maintenant que F(R,R) = F + G.Soit h ∈ F(R,R). On ecrit :

h(x) = h(x)+h(−x)2 + h(x)−h(−x)

2 .

Posons

f(x) = h(x)+h(−x)2 et g(x) = h(x)−h(−x)

2 .

Alors f est paire et g est impaire. On a donc bien F(R,R) = F + G et on conclut queF(R,R) = F

⊕G.

Page 22: Cours d'Algèbre L1 Math Info

22 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

2.7 Sous-espace vectoriel engendre par une famille de vecteurs.

Soit S une partie non vide de E. On considere toutes les familles finies d’elements de S eton appelle F l’ensemble de toutes les combinaisons lineaires de toutes les parties finies de S.

F = {n∑

i=1

λisi; n ∈ N; λi ∈ K; si ∈ S, i = 1, ..., n}.

Proposition 2.7.1 L’ensemble F est un sous-espace vectoriel de E et c’est le plus petit sous-espace vectoriel de E, pour l’inclusion, qui contient tous les vecteurs de la partie S.

Dire que F est le plus petit sous-espace vectoriel, pour l’inclusion, contenant S signifie quesi G est un autre sous-espace vectoriel de E qui contient S, alors F ⊂ G.

Preuve : Le fait que F est un sous-espace vectoriel de E est immediat : la somme de deuxcombinaisons lineaires de familles finies d’elements de S est une combinaison lineaire de lareunion de ces deux familles ( pour les memes coefficients) donc c’est encore une combinaisonlineaire finie d’elements de S. La multiplication par un scalaire d’une combinaison lineaire finied’elements de S est encore une combinaison lineaire finie des memes elements de S (avec lescoefficients multiplies par λ). Donc F est un sous-espace vectoriel de E. Montrons que c’est leplus petit sous-espace vectoriel, pour l’inclusion, qui contient S. Soit G un sous-espace vectorielde E qui contient la partie S. Alors G contient toutes les combinaisons lineaires finie d’elementsde S (Voir Remarques c)), donc F ⊂ G.

Definition 2.7.2 On appelle F le sous-espace vectoriel de E engendre par la partie S. On ditque S est une partie generatrice de F .

Notation : F = VectS.Cas particulier : si S a un nombre fini d’elements, il existe p ∈ N et e1, ..., ep des vecteurs deE tels que S = {e1, ..., ep}. Dans ce cas,

F = {p∑

i=1

λiei; λ1 ∈ K, ..., λp ∈ K}.

Definition 2.7.3 Soit u ∈ E, u 6= 0 et soit S = {u}. Alors VectS = {λu; λ ∈ K}. On dit alorsque VectS est une droite vectorielle de E. C’est la droite vectorielle engendree par le vecteurnon nul u.

Exemple. Si E = R2. Soit e ∈ E, e 6= 0 et soit e′ ∈ E, e′ 6∈ Vect {e}. On dessine Vect {e} dansle plan R2 comme la droite passant par 0 de vecteur directeur e. On dessine Vect {e′} comme unedroite passant par 0, differente de Vect {e}. Alors Vect {e, e′} = {λe+µe′, λ, µ ∈ K} est l’ensembledes sommes des vecteurs de la droite vectorielle Vect {e} et des vecteurs de la droite vectorielleVect {e′}. On construit la somme de deux vecteurs par la methode du parallelogramme. Onconstate sur la figure que Vect {e, e′} = R2.

Exemples. a) Soit E = F(R,R) le R-espace vectoriel des fonctions de R dans R. Soit S lesous-ensemble de E constitue des monomes x → xk, k = 0, 1.... Le sous-espace vectoriel VectSest par definition l’ensemble de toutes les combinaisons lineaires d’un nombre fini de monomes.On a donc

VectS = {αnxn + .... + α0; n ∈ N; α0, ..., αn ∈ R}.Donc les elements de VectS sont des fonctions polynomes de R dans R, de tous les degrespossibles, avec tous les coefficients reels possibles. VectS est donc l’ensemble des fonctions po-lynomes de R dans R.

Page 23: Cours d'Algèbre L1 Math Info

2.7. SOUS-ESPACE VECTORIEL ENGENDRE PAR UNE FAMILLE DE VECTEURS. 23

b) Soit F = {(x, y, z) ∈ R3; 2x − y + z = 0}. On sait que F est un sous-espace vectoriel deR3 (c’est l’ensemble des solutions d’un systeme homogene 1 × 3). Peut-on trouver une partiede R3 qui engendre F ? On a un systeme echelonne, avec une seule inconnue principale et deuxparametres.

(2x− y + z = 0) ⇔ (y = 2x + z) ⇔

x = xy = 2x+ zz = z

xyz

= x

120

+ z

011

.

On en deduit que F est l’ensemble des combinaisons lineaires des vecteurs (1, 2, 0) et (0, 1, 1).Donc F est le sous espace vectoriel de R3 engendre par ces deux vecteurs. On dit aussi queces deux vecteurs constituent une partie generatrice de F . Remarquons qu’en montrant queF = Vect {(1, 2, 0); (0, 1, 1)}, on a redemontre que F est un sous-espace vectoriel de R3 !

Proposition 2.7.4 F + G est le sous-espace vectoriel de E engendre par la partie F ∪G.

Cela signifie que F + G est le plus petit sous-espace vectoriel, pour l’inclusion, qui contienta la fois les elements du sous-espace vectoriel F et ceux du sous-espace vectoriel G.Preuve : Prouvons que F + G = Vect (F ∪ G). Prouvons d’abord que F + G ⊂ Vect (F ∪ G).Soit u ∈ F et v ∈ G. Alors u + v est une combinaison lineaire de deux elements de F ∪ G,donc u + v ∈ Vect (F ∪G). On a donc bien : F + G ⊂ Vect (F ∪G). Montrons maintenant queVect (F ∪G) ⊂ F +G. Soit w ∈ Vect (F ∪G). Alors w est une combinaison lineaire d’un nombrefini de vecteurs de F ∪ G. C’est a dire qu’il existe n, m ∈ N, il existe f1,...,fn ∈ F , il existeg1,...,gm ∈ G, il existe λ1,...,λn ∈ K, il existe µ1,...,µm ∈ K tels que

w =n∑

i=1

λifi +m∑

j=1

µjgj .

Or la premiere somme est un vecteur de F et la deuxieme est un vecteur de G. Donc w ∈ F +G.On a donc bien Vect (F ∪ G) ⊂ F + G. Finalement : Vect (F ∪ G) = F + G. Remarquons quecela redemontre que F + G est un sous-espace vectoriel de E.

Proposition 2.7.5 Si F est le sous-espace vectoriel de E engendre par les vecteurs f1,...,fp etsi G est le sous- espace vectoriel de E engendre par les vecteurs g1,...,gq, alors F + G est lesous-espace vectoriel de E engendre par les vecteurs f1,...,fp, g1,...,gq. (la reunion des partiesgeneratrices est une partie generatrice de F + G.)

Proposition 2.7.6 Soient g1, ..., gq et f1, ..., fp deux familles de vecteurs de E. Supposons quepour tout i = 1, ..., q le vecteur gi s’ecrive comme combinaison lineaire des vecteurs f1, ..., fp.g1, ..., gq. Alors V ect{g1, ..., gq} ⊂ V ect{f1, ..., fp}.

Exercice resolu. Soit E = R3, F = {(x, y, z) ∈ R3, x + y = 0} et G = V ect{(1, 0, 0)}.On sait que F est un sous-espace vectoriel de R3 (ensemble des solutions d’un systeme

homogene) et que G est un sous-espace vectoriel de R3 (sous-espace vectoriel engendre par unvecteur non nul, appele droite vectorielle.) Montrer que R3 = F

⊕G.

On va prouver d’abord que E = F + G. Cherchons une partie generatrice de F . On a

((x, y, z) ∈ F ) ⇔ (x = −y) ⇔ (x, y, z) = y(−1, 1, 0) + z(0, 0, 1).

Donc F est engendre par les deux vecteurs (−1, 1, 0) et (0, 0, 1). Alors F + G est le sous-espacevectoriel de R3 engendre par la reunion des parties generatrices de F et de G. c’est a dire :

Page 24: Cours d'Algèbre L1 Math Info

24 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

F + G = Vect {(−1, 1, 0); (0, 0, 1); (1, 0, 0)}Montrons que tout vecteur de R3 appartient a F + G. Soit (x, y, z) ∈ R3. On ecrit

(x, y, z) = x(1, 0, 0) + y((−1, 1, 0) + (1, 0, 0)) + z(0, 0, 1),

donc(x, y, z) = (x + y)(1, 0, 0) + y(−1, 1, 0) + z(0, 0, 1).

D’ou R3 ⊂ F + G et donc R3 = F + G.Montrons que F ∩ G = {0}. Si (x, y, z) ∈ F ∩ G, alors d’une part il existe λ ∈ R tel que(x, y, z) = λ(1, 0, 0) , ce qui signifie que y = z = 0 et d’autre part x = −z. Donc x = y = z = 0.Finalement R3 = F

⊕G.

Attention : Ne pas confondre somme de deux sous-espaces vectoriels et reunion (F + G etF ∪G).Exercice. G1 = {x → ax, a ∈ R} ; G2 = {x → b, b ∈ R}. Prouver que G1 et G2 sont dessous-espaces vectoriels de F(R,R). Soit G = {x → ax + b} l’ensemble des fonctions affines surR. Prouver que G = G1

⊕G2.

Ne pas confondre sous-espaces vectoriels supplementaires et sous-ensembles complementaires.

2.8 Dependance et independance lineaire.

Definition 2.8.1 Soit n un entier positif et u1,...,un des vecteurs de E. Les vecteurs u1,..., un

sont dits lineairement independants si on a l’implication :

λ1,...,λn ∈ K, u1,...,un ∈ E,(λ1u1 + ... + λnun = 0) ⇒ (λ1 = ... = λn = 0).

Remarques : a) Cette implication signifie qu’il n’y a qu’une seule facon d’ecrire le vecteur nulcomme une combinaison lineaire des vecteurs u1,...,un. Cette ecriture est 0 = 0u1 + .. + 0un,dans laquelle tous les coefficients sont des scalaires nuls.

b) Si n = 1, l’implication devient (λ1u1 = 0) ⇒ (λ1 = 0). Donc u1 est ”lineairementindependant” si et seulement si il est non nul.

c) Si n ∈ N∗, et si u1,...,un sont des vecteurs de E, alors 0, u1,...,un ne sont pas lineairementindependants. En effet, le vecteur nul s’ecrit de plusieurs manieres comme combinaison lineairedes vecteurs 0, u1,...,un, car pour n’importe quel scalaire λ on a : 0 = λ0 + 0u1 + ... + 0u2.Exemples : a) Dans R2 les vecteurs (1, 0) et (0, 1) sont lineairement independants. En effet siλ1(1, 0) + λ2(0, 1) = 0, alors (λ1, λ2) = (0, 0) donc λ1 = λ2 = 0.

b) Dans R2 les vecteurs (0, 3) et (0, 1) ne sont pas lineairement independants. On a (0, 3)−3(0, 1) = (0, 0), donc le vecteur nul s’ecrit au moins de deux manieres differente comme combi-naison lineaire des vecteurs (0, 3) et (0, 1).Vocabulaire. a) Si les vecteurs u1,...,un sont lineairement independants, on dit qu’ils formentune famille libre. On dit aussi que {u1, ..., un} est une partie libre. Sinon, on dit qu’ils formentune famille liee.b) Si la partie {u1, ..., un} est liee, et si λ1,...,λn sont n scalaires non tous nuls tels que λ1u1 +... + λnun = 0, on dit qu’on a une relation lineaire non triviale entre les vecteurs u1,....,un, decoefficients λ1,...,λn. La relation lineaire ”triviale” est celle ou les coefficients sont tous nuls.Generalisation. On peut definir la notion de famille libre ou liee pour des familles de vecteursqui ont une infinite d’elements. Soient I un ensemble infini et ui, i ∈ I, une famille de vecteursde E. On dit qu’elle est libre si toute sous-famille finie est libre. On dit qu’elle est liee si elle n’estpas libre. Par consequent, la famille des ui, i ∈ I, sera liee si et seulement il existe un nombre fini

Page 25: Cours d'Algèbre L1 Math Info

2.9. BASES. 25

de vecteurs pris parmi les ui qui forment une famille liee. (Dans ce cours, on s’interessera plusparticulierement aux familles libres qui ont un nombre fini d’elements et aux parties generatricesqui ont un nombre fini d’elements).

Proposition 2.8.2 Si n ≥ 2, les vecteurs u1,...,un forment une famille liee si et seulement sil’un des vecteurs est combinaison lineaire des autres.

Preuve : Supposons que les vecteurs u1, ... , un forment une famille liee (autrement dit, ilsne sont pas lineairement independants). Alors il existe des scalaires λ1, ..., λn non tous nulstels que λ1u1 + ... + λnun = 0. Quitte a reindexer, on peut supposer que λ1 6= 0. Alors on a :u1 = 1

λ1(−λ2u2 − ... − λnun), c’est a dire que u1 =

∑ni=1(

−λiλ1

)xj . Donc u1 est combinaisonlineaire des vecteurs u2, ..., un.

Supposons maintenant que l’un des vecteurs est combinaison lineaire des autres. En reindexanton peut se ramener au cas ou u1 est combinaison lineaire de u2,...,un. Il existe λ2,...,λn des sca-laires tels que u1 = λ2u2 + ... + λnun, donc u1 − λ2u2 − ... − λnun = 0, donc u1,...,un ne sontpas lineairement independants (car le coefficient 1 est 6= 0).

Remarque : Pour n = 2, la proposition ci-dessus signifie que deux vecteurs sont lies si et seule-ment si ils sont colineaires. (c’est a dire si il existe un scalaire λ tel que u1 = λu2 ou u2 = λu1).

Proposition 2.8.3 Soit n ∈ N. Soient u1, ..., un des vecteurs de E lineairement independantset soit v un vecteur de E. Alors les deux propositions suivantes sont equivalentes :(i) v est combinaison lineaire de u1, ..., un.(ii) Les n + 1 vecteurs v, u1,...,un ne sont pas lineairement independants.

Preuve : (i) ⇒ (ii) : voir la proposition ci-dessus.(ii) ⇒ (i) : par (ii) il existe µ, λ1, ..., λn ∈ K non tous nuls tels que µv+λ1u1+...+λnun = 0. Si

on avait µ = 0, alors on aurait λ1u1+...+λnun = 0. Or u1, ..., un sont lineairement independants,donc λ1 = ... = λn = 0, ce qui contredit l’hypothese ”µ, λ1, ..., λn non tous nuls”. Donc µ 6= 0et on peut donc diviser par µ. On en deduit que v = −λ1

µ − ...− λnµ un.

Proposition 2.8.4 Si n ≥ 2 Et si u1,...,un sont des vecteurs de E lineairement independants.Alors u1,...,un sont deux a deux differents et pour tout 1 ≤ p ≤ n, les vecteurs u1, ..., up sontlineairement independants.

Preuve : En exercice.

2.9 Bases.

Definition 2.9.1 Si il existe des vecteurs u1,...,un de E qui sont lineairement independants etqui engendrent E, on dit que u1,...,un forment une base de E.

Theoreme 2.9.2 Les deux propositions suivantes sont equivalentes :(i) les vecteurs u1,...,un forment une base de E(ii) tout vecteur de E s’ecrit de maniere unique comme combinaison lineaire des vecteursu1,...,un.

Preuve : (i) ⇒ (ii) : soit u un vecteur de E. Comme les vecteurs u1,...,un engendrent E ilexiste des scalaires λ1,...,λn tels que u = λ1u1 + ... + λnun. Supposons qu’il existe des scalairesλ′1,...,λ

′n tels que u = λ′1u1 + ... + λ′nun. En soustrayant membre a membre on trouve 0 =

(λ1 − λ′1)u1 + ... + (λn − λ′n)un. Comme u1,...,un sont lineairement independants, on en deduitque λ1−λ′1 = ... = λn−λ′n = 0,, donc λ1 = λ′1, ..., λn = λ′n. Donc la decomposition de u commecombinaison lineaire des vecteurs u1,...,un est unique.

Page 26: Cours d'Algèbre L1 Math Info

26 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

(ii) ⇒ (i) : Comme tout vecteur de E s’ecrit comme combinaison lineaire des vecteursu1,...,un, alors les vecteurs u1,...,un engendrent E. Prouvons qu’ils sont lineairement independants.Le vecteur nul, comme tout vecteur de E s’ecrit de maniere unique comme combinaison lineairedes vecteurs u1,...,un ( cette ecriture unique est : 0 = 0u1 + ... + 0un). Ceci est la definition devecteurs lineairement independants.Exemples : a) Dans R2, les vecteurs (1, 0) et (0, 1) forment une base de R2. En effet, tout vecteurde R2 s’ecrit de maniere unique comme combinaison lineaire de (1, 0) et (0, 1) : soit (x, y) ∈ R2,on ecrit (x, y) = x(1, 0) + y(0, 1) et si a et b sont des scalaires tels que (x, y) = a(1, 0) + b(0, 1),alors a = x et b = y.

b) Pour n ∈ N, n ≥ 2, les vecteurs e1 = (1, 0, ..., 0), ..., ei = (0, ..., 1, ..., 0) (1 a la iemeplace),..., en = (0, ...., 0, 1). forment une base de Rn, appelee la base canonique. En effet, toutvecteur (x1, ..., xn) de Rn s’ecrit comme combinaison lineaire des vecteurs e1, ..., en :

(x1, ..., xn) = x1(1, 0, ..., 0) + ... + xn(0, ..., 0, 1).

Cette ecriture est unique car si (x1, ..., xn) = a1(1, 0, ..., 0) + ... + an(0, ..., 0, 1), alors x1 =a1,...,xn = an.

c) On donne les vecteurs de R3 : v1 = (1,−1, 0), v2 = (0, 1,−1), v3 = (2,−1,−1). Forment-ilsune base de R3 ?(Rep. :Non.)Notation Si les vecteurs e1,...,en forment une base de E, on notera : (e1, ..., en) est une base deE.

Definition 2.9.3 Soit (e1, ..., en) une base de E. Soit u ∈ E. Les scalaires λ1,...,λn ∈ K qui sonttels que u = λ1e1 + .... + λnen s’appellent les coordonnees du vecteur u dans la base (e1, ..., en).Remarque : Si E = Kn. Soit u = (x1, ..., xn) un vecteur de Kn. Alors les coordonnees de udans la base canonique de Kn sont ses composantes x1,...,xn.

Page 27: Cours d'Algèbre L1 Math Info

Chapitre 3

Espaces vectoriels sur R ou C dedimension finie.

3.1 Definition d’un espace vectoriel de dimension finie. Exempled’un espace vectoriel de dimension infinie.

Soit E un espace vectoriel sur K = R ou C.

Definition 3.1.1 On dit que E est un espace vectoriel de dimension finie s’il est engendre parun nombre fini d’elements. C’est a dire s’il existe un sous-ensemble de vecteurs {u1, ..., up} telque tout vecteur u de E s’ecrive u = λ1u1 + ... + λpup, pour certains scalaires λ1,...,λp.Rappel L’ensemble {u1, ..., up} est alors appele une partie generatrice de E et il peut existerd’autres coefficients µ1,...,µp tels que u = µ1u1 + ... + µpup.Exemple : Soit l’espace vectoriel sur R E = R3. Les vecteurs e1 = (1, 2, 0), e2 = (0, 1, 1),e3 = (0, 1, 0) et e4 = (0, 0, 1) engendrent R3. En effet, on a

(1, 0, 0) = e1 − 2e2 + 2e4.

Or tout vecteur de R3 est combinaison lineaire des vecteurs de la base canonique (1, 0, 0), (0, 1, 0),(0, 0, 1). Ces trois vecteurs de la base canonique s’ecrivent comme combinaisons lineaires desvecteurs e1, e2, e3, e4, donc tout vecteur de R3 s’ecrit comme combinaison lineaire de e1, e2, e3,e4.

On remarque que le vecteur e3 = (0, 1, 0) s’ecrit au moins de deux manieres comme combi-naison lineaire des vecteurs e1, e2, e3, e4. En effet on ecrit : e3 = 1e3 et e3 = e2 − e4. Donc lesvecteurs e1, e2, e3, e4 engendrent R3 mais ne forment pas une base de R3.Remarque : Il existe des espaces vectoriels qui ne sont pas engendres par une famille finie devecteurs. On dit qu’ils sont de dimension infinie. Par exemple, montrons que l’espace vectorielE sur R des fonctions polynomes a coefficients reels n’est pas de dimension finie. Faisons unedemonstration par l’absurde. Supposons qu’il existe un nombre fini de fonctions polynomesf1,...,fq qui engendrent E. Parmi ces fonctions polynomes, l’une au moins a un degre maximal,note d. (Par exemple, si on a : q = 2, f1 : x → x2 et f2 : x → x3 + 1, ce degre maximal estd = 3.) Alors toute fonction polynome est une combinaison lineaire de f1,...,fq (dans l’exemple,toute fonction polynome s’ecrit x → λ1x

2 + λ2(x3 + 1), pour certains reels λ1, λ2). Donc toutefonction polynome est de degre inferieur ou egal a 3, ce qui est absurde.

3.2 Theoreme de la base incomplete. Existence des bases.

Theoreme 3.2.1 (Theoreme de la base incomplete). On suppose E 6= {0}. Soient q et

27

Page 28: Cours d'Algèbre L1 Math Info

28 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

p des entiers, p ≥ 1, q ≥ 1. Supposons que E soit engendre par les vecteurs g1,...,gq. Soientf1,...,fp des vecteurs de E lineairement independants. Alors il existe un sous-ensemble G′ del’ensemble {g1, ..., gq} tel que les elements de l’ensemble {f1, ..., fp}∪G′ forment une base de E.

Le theoreme dit que si E est de dimension finie et si E 6= {0}, alors toute partie libre de Epeut etre completee en une base de E en lui ajoutant des vecteurs d’une partie generatrice.

Preuve : Remarquons d’abord qu’on peut toujours trouver des vecteurs f1,...,fp lineairementindependants. En particulier on peut choisir p = 1 et prendre pour f1 n’importe quel vecteurnon nul de E.

Posons G = {g1, ..., gq} et L = {f1, ..., fp}. Il existe des parties G′ de G telles que L∪G′ soitlibre : il y a au moins G′ = ∅. Soit G′ une partie de G telle que L ∪ G′ soit libre, de cardinalmaximal. (On commentera plus tard l’existence d’une telle partie G′).Assertion : L ∪G′ est une base de E.Preuve de cette assertion. Par hypothese, L ∪ G′ est libre. Il reste a prouver qu’elle engendreE. Il suffit de prouver que tout element g de G est combinaison lineaire des vecteurs de L ∪G′.Distinguons deux cas.Premier cas : G ⊂ L ∪G′. Alors il n’y a rien a demontrer.Deuxieme cas : il existe g ∈ G, g /∈ L∪G′. En particulier, g /∈ G′. Considerons la partie G′∪{g}de G. Elle a un cardinal strictement plus grand que celui de G′. On en deduit que L ∪G′ ∪ {g}n’est pas libre. Or L ∪ G′ est libre, donc g s’ecrit comme combinaison lineaire des elements deL ∪G′.Finalement, tout element g de la partie generatrice G est combinaison lineaire des elements deL ∪G′, donc L ∪G′ engendre E.Commentons l’existence d’une partie G′ de G de cardinal maximal telle que L ∪G′ soit libre.Point de vue ”pratique” : on regarde les parties L ∪ {g1},...,L ∪ {gq}. Si toutes ces parties sontliees, alors G′ = ∅.Sinon il existe un element g de G tel que L∪{g} est libre. Supposons que c’est g1. On recommenceavec les parties L∪{g1} et {g2, ..., gq}. On regarde donc les parties L∪{g1}∪{g2},...,L∪{g1}∪{gq}.Si toutes ces parties sont liees, alors on prend G′ = {g1}. Sinon il existe un element g de G telque L∪{g1}∪{g} est libre. Supposons que c’est g2. On recommence avec les parties L∪{g1, g2}et {g3, ..., gq}. Etc...On arrive a un nombre n maximal, n ≤ q tel que L ∪ {g1, ..., gn} est libre.On pose G′ = {g1, ..., gn}.Point de vue ”axiomatique” : l’existence de d’une partie G′ de G, de cardinal le plus grandpossible telle que L ∪G′ est libre vient de ”l’axiome du choix”.

Corollaire 3.2.2 Tout espace vectoriel de dimension finie, non egal a {0} possede des bases quiont un nombre fini d’elements.

Preuve : Soit f un vecteur non nul de E et soit G une partie generatrice de E. Par le theoremede la base incomplete il existe une partie G′ de G telle que {f} ∪G′ est une base de E.

Corollaire 3.2.3 Si E est un espace vectoriel de dimension finie, E 6= {0}, alors de toute partiegeneratrice de E on peut extraire une base.

Preuve : Soit G une partie generatrice de E et soit f un vecteur non nul de G, puis voir lademonstration ci-dessus.

3.3 Notion de dimension d’un espace vectoriel.

Proposition 3.3.1 Soit G un ensemble fini de generateurs de E. Soit q ∈ N? le cardinal de G.Alors toute partie de E contenant plus de q elements est liee.

Page 29: Cours d'Algèbre L1 Math Info

3.4. SOUS-ESPACES VECTORIELS EN DIMENSION FINIE. TOUT SOUS-ESPACE VECTORIEL ADMET UN SUPPLEMENTAIRE. 29

Preuve : Posons G = {g1, ..., gq}. On va faire une demonstration par l’absurde. Soit L ={f1, ..., fq+1, ...} une partie libre de plus de q elements. On va utiliser le theoreme de la baseincomplete pour arriver a une absurdite. La partie L\{f1} est libre. Montrons qu’elle n’engendrepas E. Comme L est libre, f1 ne peut pas s’ecrire comme une combinaison lineaire d’elementsde L\{f1}, sinon cela donnerait une relation lineaire non triviale entre les elements de L. Celaprouve que L\{f1} n’engendre pas E. Par le theoreme de la base incomplete, il existe une partieG′ de G telle que L\{f1} ∪ G′ est une base de E. On a G′ 6= ∅. Soit un element g de G′. On aque L\{f1} ∪ {g} est libre, car c’est un sous-ensemble de la base L\{f1} ∪ G′. Supposons quecet element est g1. On est arrive a : L\{f1} ∪ {g1} est libre et G engendre E. On recommenceavec L\{f1} ∪ {g1} a la place de L. La partie L\{f1, f2} ∪ {g1} est libre et n’engendre pas E. Ilexiste donc un element g de G, g 6= g1, tel que L\{f1, f2}∪{g1, g} est libre. Supposons que c’estg2. On recommence avec la partie libre L\{f1, f2}∪{g1, g2} a la place de L\{f1}∪{g1}. CommeL a au moins q + 1 elements, on peut faire ce raisonnement q fois. Au bout de q fois on obtientque L\{f1, f2, ...fq} ∪ {g1, ..., gq} est libre. Or comme G = {g1, ..., gq} engendre E, le vecteurfq+1 s’ecrit comme combinaison lineaire des vecteurs g1,...,gq. Cela donne une relation lineairenon triviale entre les elements de L\{f1, f2, ...fq}∪{g1, ..., gq}. On conclut que cette partie est ala fois libre et liee, ce qui est absurde. L’hypothese de l’existence d’une partie libre d’au moinsq + 1 elements est donc fausse.

Corollaire 3.3.2 Soit E un espace vectoriel de dimension finie. Alors toutes les bases de Esont finies et ont le meme nombre d’elements.

Preuve : Soit B et B′ deux bases de E. Elles ont un nombre fini d’elements car il existe unepartie generatrice finie. Soit n =CardB et n′=CardB′. Alors on a n ≤ n′ et n ≥ n′, donc n = n′.

Definition 3.3.3 Si E est de dimension finie, le nombre d’elements commun a toutes les basesde E s’appelle la dimension de E. (Si E = {0}, E n’admet pas de base).

Theoreme 3.3.4 Soit E 6= {0} un K-espace vectoriel de dimension n. Alors :(i) Toute partie libre a au plus n elements et toute partie libre de n elements est une base de E.(ii) Toute partie generatrice a au moins n elements et toute partie generatrice de n elements estune base de E.

Preuve : Prouvons (i). Comme il existe une base de E a n elements, alors toute partie de plusde n elements est liee. Donc si f1,...,fp forment une partie libre, alors p ≤ n. Par le theoreme dela base incomplete, on peut completer f1,...,fp en une base de E, donc si n = p, f1,...,fp formentune base de E (sinon, en completant, on trouverait une base d’au moins n + 1 elements).

Montrons (ii). Il existe un sous-ensemble de {g1, ..., gq} qui forme une base de E. Donc n ≤ q.Si n = q, alors cette base est g1,...,gq.

3.4 Sous-espaces vectoriels en dimension finie. Tout sous-espacevectoriel admet un supplementaire.

Soit E un K-espace vectoriel de dimension n. Soit F un sous-espace vectoriel de E. Soite1,....,en une base de E. Alors tout vecteur de F s’ecrit comme combinaison lineaire des vecteurse1,...,en, mais les vecteurs ei ne sont pas forcement dans F . Nous allons montrer que F estengendre par un nombre fini de vecteurs, qui ne sont peut-etre pas des elements de la basee1,...,en.

Exemple : E = R2, F est la droite vectorielle engendree par le vecteur (2, 1) (on la dessine, dansle plan rapporte a la base canonique, comme la droite passant par (0, 0) de vecteur directeur(2, 1)). Alors (1, 0) et (0, 1) 6∈ F et F est de dimension 1. Il admet pour base le vecteur (2, 1).

Page 30: Cours d'Algèbre L1 Math Info

30 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

Theoreme 3.4.1 Si F est un sous-espace vectoriel de E, alors F est de dimension finie etdimF ≤ dimE. Si dimF = dimE, alors F = E.Preuve : Si F = {0} alors dimF = 0 et le theoreme est demontre. Supposons F 6= {0}.Soit un vecteur non nul de F . Il forme une famille libre. On sait que n + 1 vecteurs de Esont lies, donc c’est vrai aussi pour n + 1 vecteurs de F . Donc il existe un plus grand entier p,1 ≤ p ≤ n pour lequel on peut trouver p vecteurs de F lineairement independants. Soient f1,...,fp

p vecteurs de F lineairement independants. Soit u ∈ F . Alors les vecteurs u,f1,...,fp ne sont paslineairement independants car ils constituent une famille de p+1 vecteurs. Comme f1,...,fp sontlineairement independants, alors u est combinaison lineaire de f1,...,fp. On en deduit que f1,...,fp

engendrent F . Comme de plus ils sont lineairement independants, alors ils forment une base deF . et dimF ≤ n.

Supposons que p = n. Alors f1,...,fn sont n vecteurs lineairement independants, donc ilsforment une base de E. Comme ils forment aussi une base de F , alors E = F (car tous deuxsont egaux a Vect {f1, ..., fn}).

Definition 3.4.2 On appelle plan vectoriel de E tout sous-espace vectoriel de dimension 2. Onappelle hyperplan vectoriel de E tout sous-espace vectoriel de dimension n− 1.Exemple : Si E = R3 les hyperplans sont les plans vectoriels. Si E = R4, les hyperplans sontles sous-espaces vectoriels de dimension 3.Remarque : Les droites vectorielles sont les sous-espaces vectoriels de dimension 1.

Proposition 3.4.3 Soient F et G des sous-espaces vectoriels de E differents de {0}. Si e1,...,ep

forment une base de F et si ep+1,...,ep+q forment une base de G, alors F et G sont des sous-espaces vectoriels supplementaires si et seulement si les vecteurs e1,...ep+q forment une base deE.Preuve : Supposons que F et G sont supplementaires. Soit u ∈ E. Il existe v ∈ F et w ∈ Guniques tels que u = v+w. Or v est combinaison lineaire des vecteurs e1,...ep et w est combinaisonlineaire des vecteurs ep+1,...,ep+q. Donc les vecteurs e1,...ep,ep+1,...,ep+q engendrent E. D’autrepart ecrivons le vecteur nul comme combinaison lineaire des vecteurs e1,...ep,ep+1,...,ep+q. Soientdes scalaires λ1,...,λp+q tels que 0 = λ1e1 + ....+λp+qep+q. Alors λ1e1 + ....+λpep = −λp+1ep+1−... − λp+qep+q. Or a gauche du signe egal nous avons un vecteur de F et a droite du signeegal un vecteur de G. Comme F ∩ G = {0}, on en deduit que λ1e1 + .... + λpep = 0 et queλ1e1 + .... + λp+qep+q = 0. Comme les vecteurs e1,...ep d’une part et ep+1,...,ep+q d’autre partsont lineairement independants, alors λ1 = 0,...,λp+q = 0. Donc les vecteurs e1,...ep,ep+1,...,ep+q

sont lineairement independants et engendrent E. Ils forment une base de E.Supposons maintenant que les vecteurs e1,...ep,ep+1,...,ep+q forment une base de E. Alors

tout vecteur u de E s’ecrit de maniere unique u = λ1e1 + ... + λpep + λp+1ep+1 + ... + λp+qep+q,ou λ1,...,λp+q ∈ K. Posons v = λ1e1 + ... + λpep et w = λp+1ep+1 + ... + λp+qep+q. Alors v ∈ F ,w ∈ G et u = v + w. Puis, si u = v′ + w′ est une autre decomposition de u sur les sous-espacesvectoriels F et G, on a v′ = λ′1e1 + ...+λ′pep et w′ = λ′p+1ep+1 + ...+λ′p+qep+q, ou λ′1,...,λ

′p+q ∈ K,

donc u = λ′1e1 + ... + λ′pep + λ′p+1ep+1 + ... + λ′p+qep+q. Comme la decomposition de u sur labase e1,...,ep,ep+1,...,ep+q est unique, alors λ′1 = λ1,...,λ′p+q = λp+q, donc la decomposition de usuivant les sous-espaces vectoriels F et G est unique. On a donc E = F

⊕G.

Theoreme 3.4.4 Soit E un espace vectoriel sur K de dimension finie. Alors tout sous-espacevectoriel de E admet un sous-espace vectoriel supplementaire.Preuve : Soit e1,...,ep une base de F . Par le theoreme de la base incomplete, on peut completerces vecteurs pour obtenir une base de E. Soient ep+1,...,en des vecteurs de E tels que lesvecteurs e1,...,ep,ep+1,...,en forment une base de E. On pose G = V ect{ep+1, ..., en}. Les vec-teurs ep+1,...,en sont lineairement independants (car ils font partie d’une famille de vecteurs

Page 31: Cours d'Algèbre L1 Math Info

3.5. RANG D’UNE FAMILLE DE VECTEURS. 31

lineairement independants) et ils engendrent G (par la definition de G). Donc les vecteursep+1,...,en forment une base de G. La reunion d’une base de F et d’une base de G forme unebase de E, donc E = F

⊕G par la proposition ci-dessus.

Exemple : Dans R3 on considere le sous-espace vectoriel F engendre par e1 = (1, 0, 0), e2 =(1, 2, 0) et e3 = (1, 1, 0). Soit G le sous-espace vectoriel engendre par e4 = (0, 0, 3). On voit que e1

et e2 sont non colineaires, donc ils sont lineairement independants. On remarque que e1+e2 = 2e3

donc F est de dimension 2 et admet une base formee des vecteurs e1 et e2. D’autre part, G estune droite vectorielle. Montrons que e1,e2,e4 sont lineairement independants. S’ils etaient lies,alors e4 serait combinaison lineaire de e1 et e2 (car e1 et e2 sont lineairement independants). Orcela implique que la derniere composante de e4 serait nulle, ce qui est faux. Donc e1,e2,e4 sontlineairement independants, leur nombre est trois, donc ils forment une base de R3. Cela montreque R3 = F

⊕G.

3.5 Rang d’une famille de vecteurs.

Definition 3.5.1 Soit E un espace vectoriel sur K et soient u1,...,uq des vecteurs de E. Onappelle rang de la famille de vecteurs u1,...,uq la dimension du sous-espace vectoriel engendrepar les vecteurs u1,...,uq.

Remarque : Si le rang de la famille de vecteurs u1,...,uq est r, alors r ≤ q et on peut extraireune sous-famille a r elements de la famille u1,...,uq qui soit une base de Vect {u1, ..., uq}. De plus,dans le cas ou r < q, toute sous famille de u1,...,uq de plus de r elements est liee.

3.6 Sous-espaces vectoriels de Kp.

Un sous-espace vectoriel de Kp peut etre donne d’au moins trois manieres :a) par une partie generatrice ;b) par un systeme d’equations lineaires de second membre nul ;c) par une base.Il faut savoir passer d’une description a l’autre.

3.6.1 Passage d’une partie generatrice a une base ; calcul du rang.

Le probleme : on donne un sous-espace vectoriel F de Kp par des vecteurs u1,..., uq quil’engendrent, c’est a dire que F = Vect {u1, ..., uq}. On veut calculer la dimension de F (encoreappelee le rang de la famille de vecteurs u1,...,uq) et trouver une base de F . On peut aussi seposer le probleme d’extraire une base de F de la famille de vecteurs u1,...,uq.

On va ecrire les vecteurs u1,...,uq en colonnes et utiliser l’algorithme du pivot de Gaussapplique aux colonnes u1,...,uq.Principe. Si λ2,...,λq sont des scalaires, alors les vecteurs w1 = u1, w2 = u2 − λ2u1,....,wq =uq − λqu1 engendrent F . En effet, d’une part on a w1,....,wq ∈ F , donc Vect {w1, ..., wq} ⊂ Fet d’autre part on peut ecrire u1 = w1, u2 = w2 + λ2w1,....,uq = wq + λqw1, donc u1,....,uq ∈Vect {w1, ..., wq} , donc F ⊂ Vect {w1, ..., wq}. Finalement, F = Vect {w1, ..., wq}.

On explique la methode sur des exemples.

Premier exemple. Dans R4 on considere le sous-espace vectoriel F engendre par les vecteursu1 = (1, 0,−1, 1), u2 = (2, 1, 4, 0), u3 = (1, 1, 0, 0), u4 = (3, 1, 2, 1) et u5 = (4, 2, 13,−1). Onles place en colonnes. Comme la premiere composante de u1 est non nulle, on la prend commepivot. La premiere etape consiste a remplacer pour tout i ≥ 2 le vecteur ui par un vecteur de laforme ui − λu1, ou le scalaire λ est choisi pour que la premiere composante du vecteur

Page 32: Cours d'Algèbre L1 Math Info

32 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

ui − λu1 soit nulle. On ecrit :

1 2 1 3 40 1 1 1 2−1 4 0 2 131 0 0 1 −1

puis

1 0 0 0 00 1 1 1 2−1 6 1 5 171 −2 −1 −2 −5

. Appelons

w1, w2, w3, w4 et w5 les colonnes qu’on vient d’obtenir. Alors F = Vect {w1, w2, w3, w4, w5},d’apres le principe enonce ci-dessus. Comme le coefficient de la deuxieme colonne et deuxiemeligne est non nul, on le prend comme pivot et on recommence sur les colonnes j, j ≥ 2. On ecrit :

1 0 0 0 00 1 0 0 0−1 6 −5 4 51 −2 1 −1 −1

Appelons η1,...,η5 les 5 colonnes obtenues. Selon le principe enonce

ci-dessus, on a Vect {w1, ..., w5} = V ect{η1, ..., η5} ; on recommence sur les colonnes 4 et 5.

1 0 0 0 00 1 0 0 0−1 6 −5 0 01 −2 1 −1/5 0

.

Appelons t1,...,t5 les colonnes qu’on vient d’obtenir. Toujours grace au meme principe, on aVect {η1, ..., η5} = Vect {t1, ..., t5}. Donc finalement F = Vect {t1, ..., t5}. Or t5 est nul, doncF = Vect {t1, t2, t3, t4}. De plus les vecteurs t1, t2, t3 et t4 sont lineairement independants, acause du caractere echelonne de leurs composantes. En effet, t4 et t3 sont non colineaires. Puis t2n’est pas combinaison lineaire des vecteurs t4 et t3, sinon sa deuxieme composante serait nulle.donc t4, t3, t2 sont lineairement independants. Puis t1 n’est pas combinaison lineaire de t4, t3,t2,sinon sa premiere composante serait nulle. Donc t1, t2, t3, t4 sont lineairement independants.Comme on sait qu’ils engendrent F , alors ils forment une base de F . On a donc trouve que lerang de la famille des 5 vecteurs u1, u2, u3, u4, u5 est 4.

Remarquons qu’au cours de l’utilisation de l’algorithme du pivot de Gauss, on n’a pas eubesoin d’intervertir l’ordre des colonnes. Montrons, a titre d’exercice, que cela implique queles vecteurs u1, u2, u3, u4 forment une base de F , extraite de la famille u1, u2, u3, u4, u5.Soient w1,...,w5 les vecteurs obtenus apres la premiere etape. On remarque que w1, w2, w3,w4 ∈ Vect {u1, u2, u3, u4} et que u1, u2, u3,u4 ∈ Vect {w1, w2, w3, w4}. En effet, les vecteurswi, i = 1, ..., 4 s’ecrivent comme des combinaisons lineaires des vecteurs ui, i = 1, ..., 4 etreciproquement, les vecteurs ui, i = 1, ..., 4 s’ecrivent comme des combinaisons lineaires desvecteurs wi, i = 1, ..., 4. Par consequent Vect {u1, ..., u4} = Vect {w1, ..., w4}. A l’etape sui-vante, on n’a pas intervertit les colonnes. On trouve donc des vecteurs η1,...,η5 de la formeηi = wi − λiw2, i = 1, ..., 5, donc les vecteurs η1,...,η4 sont combinaisons lineaires de w1,...,w4

et reciproquement les vecteurs w1,...,w4 sont combinaisons lineaires de η1,...,η4. Par consequentVect {w1, ..., w4} = Vect {η1, ..., η4}. On recommence le meme raisonnement a la derniere etape.On trouve Vect {t1, t2, t3, t4} = Vect {η1, η2, η3, η4}. Finalement :Vect {u1, u2, u3, u4} = Vect {t1, t2, t3, t4} = F . Les vecteurs u1, u2, u3, u4 engendrent donc F .Or F est de dimension 4, donc toute partie generatrice de 4 vecteurs est une base de F . Doncles quatre vecteurs u1, u2, u3 et u4 forment une base de F .

Dans certains cas, on peut etre oblige d’intervertir les colonnes, afin d’avoir a chaque iterationun pivot non nul.

Deuxieme exemple. Dans R4 on considere le sous-espace vectoriel F engendre par les vec-teurs e1 = (1, 2, 3, 1), e2 = (1, 2, 1, 0), e3 = (2, 1, 0, 1) et e4 = (0, 1, 2, 2). On cherche la dimensionde F , en meme temps qu’une base de F . On ecrit

Page 33: Cours d'Algèbre L1 Math Info

3.6. SOUS-ESPACES VECTORIELS DE KP . 33

1 1 2 02 2 1 13 1 0 21 0 1 2

puis

1 0 0 02 0 −3 13 −2 −6 21 −1 −1 2

.

le deuxieme pivot est nul. On intervertit par exemple la deuxieme colonne avec la derniere.On obtient :

1 0 0 02 1 −3 03 2 −6 −21 2 −1 −1

, puis

1 0 0 02 1 0 03 2 0 −21 2 5 −1

Le troisieme pivot est nul. On intervertit la troisieme colonne et la quatrieme. On obtient :

1 0 0 02 1 0 03 2 −2 01 2 −1 5

.

Soient t1,...,t4 ces colonnes . Comme dans le premier exemple on a F = V ect{t1, ..., t4} et t1, t2,t3, t4 sont lineairement independants, car leurs composantes sont echelonnees. Donc le rang desvecteurs e1, e2, e3, e4 est 4 (et donc ils forment une base de F ).

3.6.2 Passage d’une base a un systeme d’equations cartesiennes.

Le probleme : On donne un sous-espace vectoriel F de Kp par une de ses bases. On va trouverun systeme homogene d’equations lineaires dont l’ensemble des solutions est F . Un tel systemesera appele un systeme d’equations cartesiennes de F .Exemple : Soit F le sous-espace vectoriel de R4 engendre par les vecteurs u1 = (1, 1, 2, 1) etu2 = (2, 1, 3, 4). On verifient que u1 et u2 sont non colineaires, donc independants. Ils forment unebase de F . Soit w = (x, y, z, t) ∈ R4. Le sous-espace vectoriel Vect {w, u1, u2} est de dimension 2si w ∈ F et il est de dimension 3 si w 6∈ F . Donc w ∈ F si et seulement si la famille de vecteursu1, u2, w est de rang 2. Utilisons la methode decrite dans ce chapitre pour calculer le rang d’unefamille de vecteurs. On ecrit les trois vecteurs u1, u2, w en colonnes.

1 2 x1 1 y2 3 z1 4 t

. On prend la premiere colonne comme pivot.

1 0 01 −1 y − x2 −1 z − 2x1 2 t− x

. On prend la deuxieme

colonne comme pivot.

1 0 01 −1 02 −1 −x− y + z1 2 −3x + 2y + t

. Appelons t1, t2, t3 les vecteurs qui apparaissent

en colonnes. Comme dans les exemples ci-dessus, t1 et t2 sont lineairement independants, carleurs composantes sont ”echelonnees”. ( Ici on voit que t1 et t2 sont non colineaires). Si on at3 6= 0, alors t3 et t2 ne sont pas colineaires, puis t1 n’est pas combinaison lineaire de t3 et t2(sinon sa premiere composante serait nulle), donc t1, t2, t3 sont lineairement independants. Parconsequent, si t3 6= 0, alors le rang des trois vecteurs u1, u2, w est trois. On en deduit que w ∈ Fsi et seulement si { −x− y+ z = 0

−3x+ 2y+ t = 0

On a trouve un systeme d’equations cartesiennes de F . Remarquons qu’on obtient d’autressystemes d’equations cartesiennes de F en multipliant l’une ou l’autre des deux equations dusysteme ci-dessus par une constante non nulle, ou en formant une ou plusieurs combinaisonslineaires des deux equations et en les joignant au systeme.

Page 34: Cours d'Algèbre L1 Math Info

34 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

Attention : La methode ci-dessus ne s’applique qu’a partir d’une base de F et pas de n’importequelle partie generatrice. Si F est donne par une partie generatrice quelconque, il faut d’abordtrouver une base avant de calculer un systeme d’equations cartesiennes par cette methode.

Page 35: Cours d'Algèbre L1 Math Info

Chapitre 4

Applications lineaires.

Dans cette partie E et F designent deux espaces vectoriels sur K.

4.1 Definitions et exemples.

Definition 4.1.1 Une application lineaire de E dans F est une application f : E → F telle que(i) x, y ∈ E, f(x + y) = f(x) + f(y)(ii) x ∈ E, λ ∈ K, f(λx) = λf(x).

Remarque : f est un homomorphisme de groupe du groupe (E, +) dans le groupe (F, +).Proprietes. a) Pour tout u ∈ E, f(0u) = 0f(u) = 0F . Donc f(0E) = 0F .b)Pour tous n ∈ N?, λ1,...,λn ∈ K, u1,...,un ∈ E, f(λ1u1 + ... + λnun) = λ1f(u1) + ... + λnf(un).(Demonstration par recurrence).

Exemples. a) Soit a ∈ R et f : R 7→ R, x → ax. Alors f est une application lineaire.(Rappel : sa representation graphique est une droite qui passe par 0. Les applications lineairesde R dans R sont utilisees dans les problemes de proportionnalite.) Montrons que si g : R 7→ Rest une application lineaire, alors il existe a ∈ R tel que pour tout x, g(x) = ax. On a g(x) =g(1x) = xg(1). On pose a = g(1).

b) Si a ∈ R et b ∈ R, b 6= 0, alors l’applicationf : R → R

x → ax + bn’est pas lineaire, car

f(0) 6= 0.

c) Soitf : R → R

x → x2 alors f n’est pas une application lineaire. En effet :f(2x) = 4f(x) 6=2f(x) si x 6= 0.

d) E = C1(R,R), F = C0(R,R). E et F sont des espaces vectoriels sur R car ce sont des sous

-espaces vectoriels de F(R,R). AlorsΨ : E → F

f → f ′ est une application lineaire de E dans F .

e) Soit F = C0(R,R) alorsΦ : E → R

f → ∫ ba f(t)dt

est une application lineaire de E dans R.

f) Soient n et p des entiers, 1 ≤ p ≤ n alorsH : Kn → Kp

(x1, ..., xn) → (x1, ..., xp)est une application

lineaire.

g) Soit x0 un reel fixe. L’applicationF(R,R) → R

f → f(x0)est lineaire.

35

Page 36: Cours d'Algèbre L1 Math Info

36 CHAPITRE 4. APPLICATIONS LINEAIRES.

h) Si a ∈ R et b ∈ R, alorsR2 → R

(x, y) → ax + byest une application lineaire. Si λ ∈ R,

on a f(λ(x, y)) = f(λx, λy) = aλx + bλy = λ(ax + by) = λf((x, y)). et f((x, y) + (x′, y′)) =f((x + x′, y + y′)) = a(x + x′) + b(y + y′) = ax + ax′ + by + by′ = f((x, y)) + f((x′, y′)).

Proposition 4.1.2 Soient f : E → F et g : F → G des applications lineaires, alors

g ◦ f : E → F → G

est une application lineaire.

Preuve : Si u,v ∈ E, (g ◦ f)(u + v) = g(f(u + v)) = g(f(u) + f(v)) = g(f(u)) + g(f(v)) =g ◦ f(u) + g ◦ f(v). De meme, si λ ∈ K, g ◦ f(λu) = λg ◦ f(u).

Proposition 4.1.3 Soit f : E → F une application lineaire bijective. Alors son applicationlineaire reciproque f−1 : F → G est une application lineaire.

Preuve : On sait que si u ∈ E, v ∈ F , (u = f−1(v)) ⇔ (v = f(u)). Soient v1 et v2 ∈ F .Montrons que f−1(v1 + v2) = f−1(v1) + f−1(v2). Soient u1 et u2 les elements de E tels quef(u1) = v1 et f(u2) = v2. Comme f est lineaire, on a

v1 + v2 = f(u1) + f(u2) = f(u1 + u2).

On pose u = u1+u2. On a f(u) = v1+v2, donc u = f−1(v1+v2), c’est a dire f−1(v1)+f−1(v2) =f−1(v1 + v2).Si λ ∈ K, v ∈ F et u ∈ E, montrons que f−1(λv) = λf−1(v). Soit u l’element de E tel quef(u) = v alors, comme f est lineaire, on a f(λu) = λv, donc f−1(λv) = λu = λf−1(v).

Exemple : Si a ∈ R, a 6= 0, alors f : R → R, x 7→ ax est une application lineaire bijective etf−1 : x 7→ 1

ax.

Definition 4.1.4 Soit f : E → F une application lineaire bijective. On dit que f est un iso-morphisme d’espaces vectoriels de E sur F . On dit aussi que l’espace vectoriel E est isomorphea l’espace vectoriel F .

Proposition 4.1.5 Soit la relation binaire R definie sur l’ensemble des K-espaces vectorielspar ”ERF si E est isomorphe a F”. Alors R est une relation d’equivalence dans l’ensemble desK-espaces vectoriels.

Preuve : Reflexive : id : E → E est un isomorphisme. Symetrique : si f : E → F est unisomorphisme, alors f−1 : F → E est un isomorphisme. Transitive : si f : E → F et g : F → Gsont des isomorphismes, alors g ◦ f : E → G est un isomorphisme.Exemple fondamental. Si E est un espace vectoriel de dimension n, alors E est isomorphe aKn.

Preuve : Soit (e1, ..., en) une base de E. On definit f : E → Kn, u 7→ (x1, ..., xn), ou x1, ..., xn

sont les coordonnees de u dans la base (e1, ...., en). On verifie que f est une application (si u estun vecteur de E, existence et unicite des coordonnees de u). Puis on verifie que f est lineaire.Ensuite on definit l’application g par g : Kn → E, (x1, ..., xn) 7→ x1e1+...+xnen. On a g◦f = idE

et f ◦ g = idKn . Donc f est bijective, d’application reciproque g.Vocabulaire. Une application lineaire de E dans K s’appelle une forme lineaire.

Une application lineaire de E dans lui-meme s’appelle un endomorphisme d’espace vectoriel deE.Un endomorphisme bijectif de E s’appelle un automorphisme de E.

Page 37: Cours d'Algèbre L1 Math Info

4.2. IMAGE ET NOYAU. 37

4.2 Image et noyau.

Rappel. Soit f : E → F une application entre deux ensembles E et F . Si G est une partiede E , on appelle image de G l’ensemble des elements de F de la forme f(x) ou x ∈ G. On notecet ensemble f(G).

Dans la suite, E et F sont des espaces vectoriels sur K et f : E → F est une applicationlineaire.

Definition 4.2.1 On appelle image de f l’image de E par l’application lineaire f .Notation. Im f .On a donc Im f = f(E), Im f = {f(u);u ∈ E}, ou encore Im f = {v ∈ F,∃u ∈ E, f(u) = v}.

Proposition 4.2.2 L’image de f est un sous-espace vectoriel de F .Preuve : D’abord 0F ∈ Im f , donc Im f 6= ∅. Soient v1, v2 ∈ Im f . Il existe u1, u2 ∈ E,v1 = f(u1), v2 = f(u2). Alors v1 + v2 = f(u1) + f(u2) = f(u1 + u2), donc v1 + v2 ∈ Im f . Siλ ∈ K, alors λv1 = λf(u1) = f(λu1), donc λv1 ∈ Im f .

Remarque : L’application lineaire f est surjective si et seulement si Im f = F .

Definition 4.2.3 On appelle noyau de f l’ensemble des vecteurs de E dont l’image par f estle vecteur nul de F .Notation ker f .On a ker f = {u ∈ E, f(u) = 0F }.Proposition 4.2.4 Le noyau de f est un sous-espace vectoriel de E.

Preuve : On a 0E ∈ Ker f car f(0E) = 0F (a gauche du signe =, 0E designe le vecteur nulde E, a droite 0F designe le vecteur nul de F ). Si u et v ∈ Ker f , alors f(u) + f(v) = 0F ,or f est lineaire, donc f(u + v) = f(u) + f(v) = 0F , donc u + v ∈ Ker f . Si λ ∈ K, on af(λu) = λf(u) = λ0F = 0F , donc λu ∈ Ker f .

4.3 Application lineaire injective.

Proposition 4.3.1 L’application lineaire f est injective si et seulement si Ker f = {0E} (ou0E designe le vecteur nul de E ).

Preuve : Supposons f injective. Comme on a f(0E) = 0F , alors le seul vecteur de E dont l’imageest le vecteur nul de F est le vecteur nul de E. Donc Ker f = {0E}. Supposons maintenant queKer f = {0E}. Soient u et v ∈ E tels que f(u) = f(v). Comme f est lineaire, alors :

(f(u) = f(v)) ⇔ (f(u− v) = 0F ).

Donc

(f(u) = f(v)) ⇔ (u− v ∈ Ker f).

Comme Ker f = {0E}, alors : (f(u) = f(v)) ⇒ (u = v), donc f est injective.Exemples f : R2 → R (x, y) → 2x + 3y. ker f = {(x,−(2/3)x);x ∈ R}, donc ker f 6= {(0, 0)}.f n’est pas injective.Soit E = C0(R,R) et Φ : E → R, f → ∫ π

−π f(t)dt. Soit f(t) = sin t. On a Φ(f) = 0, et f 6= 0E ,donc Φ n’est pas injective.

Proposition 4.3.2 Si f est injective alors l’image de toute partie libre de E est une partie librede F .

Page 38: Cours d'Algèbre L1 Math Info

38 CHAPITRE 4. APPLICATIONS LINEAIRES.

Preuve : Soient u1,...,up des vecteurs de E lineairement independants. On suppose que fest injective. Montrons que les vecteurs f(u1),...,f(up) sont lineairement independants. Soientλ1,...,λp des scalaires tels que λ1f(u1)+ ...+λpf(up) = 0F . Comme f est lineaire, f(λ1u1 + ...+λpup) = 0F . Or f est injective, donc λ1u1 + ... + λpup = OE . Comme u1,...,up sont lineairementindependants, λ1 = .... = λp = 0.Remarque : La reciproque de cette proposition est vraie (exercice).

4.4 Cas ou l’espace vectoriel de depart est de dimension fi-nie, image d’une partie generatrice. Rang d’une applicationlineaire.

Dans cette partie, f : E → F est une application lineaire et E est de dimension finie n.

Proposition 4.4.1 Si {g1, ..., gq} est une partie generatrice de E, alors son image {f(g1), ..., f(gq)}est une partie generatrice de Im f .Preuve : Si v ∈ Im f , alors il existe u ∈ E tel que v = f(u). Il existe des scalaires λ1,...,λq tels que u = λ1g1 + ... + λqgq. Donc v = λ1f(g1) + ... + λqf(gq), ce qui prouve queIm f ⊂ Vect {f(g1), ..., f(gq)}. Reciproquement, on a bien Vect {f(g1), ..., f(gq)} ⊂ Im f, carf(g1), ..., f(gq) ∈ Im f . Finalement, Im f = Vect {f(g1), ..., f(gq)}.Corollaire 4.4.2 Si l’espace vectoriel E est de dimension finie, alors son image par une appli-cation lineaire est un espace vectoriel de dimension finie et dim Im f ≤ dimE.

Definition 4.4.3 On appelle rang de l’application lineaire f la dimension de l’espace vectorielIm f .

Remarque 4.4.4 Si (e1, ..., en) est une base de E, alors le rang de f est egal au rang desvecteurs f(e1),...,f(en).

Theoreme 4.4.5 (du rang). dimE = dim Im f + dimKer f .Preuve : Soit (u1,...,uk) une base de Ker f et soit (f1, ..., fn) une base de Im f . Il existe v1 ∈ Etel que f(v1) = f1,..., il existe vn ∈ E tel que f(vn) = fn. Prouvons que (u1, ..., uk, v1, ..., vn) estune base de E. Prouvons qu’elle engendre E. Soit u ∈ E. On a f(u) ∈ Im f , donc il existe desscalaires λ1,...,λn tels que f(u) = λ1f1+ ...+λnfn. Ceci donne : f(u−λ1v1− ...−λnvn) = 0, doncu−λ1v1− ...−λnvn ∈ Ker f . Finalement, il existe des scalaires µ1,...,µk tels que u = λ1v1 + ...+λnvn + µ1u1 + ... + µkuk. Donc u1, ..., uk, v1, ..., vn engendrent E. Prouvons qu’ils forment unefamille libre. Soient λ1,...,λn, µ1,...,µk des scalaires tels que λ1v1 + ...+λnvn +µ1u1 + ...+µkuk =0E . Alors f(λ1v1+ ...+λnvn+µ1u1+ ...+µkuk) = 0F , donc λ1f1+ ...+λnfn = 0. Or f1,...,fn sontlineairement independants, donc λ1 = ... = λn = 0. On en deduit que µ1u1 + ... + µkuk = 0. Oru1,...,uk sont lineairement independants, donc µ1 = ... = µk = 0. Finalement u1, ..., uk, v1, ..., vn

engendrent E et forment une famille libre, donc une base de E. La dimension de E est egale aunombre de vecteurs de cette base, n + k, qui est egal a dim Im f + dim Ker f .

4.5 Isomorphismes.

Theoreme 4.5.1 Soit f : E → F une application lineaire. Supposons que E est de dimensionfinie. Alors on a l’equivalence de(i) f est un isomorphisme de E dans F .(ii) L’image de toute base de E est une base de F .(iii) Il existe une base de E dont l’image par f est une base de F .

Page 39: Cours d'Algèbre L1 Math Info

4.5. ISOMORPHISMES. 39

Preuve : a) Montrons (i) ⇒ (ii). Soit (e1, ..., en) une base de E. Comme f est injective alors{f(e1), ..., f(en)} est une partie libre de F . On sait que cette partie engendre Im f , donc c’estune base de Im f . Or f est surjective, donc Im f = F . Finalement, (f(e1), ..., f(en)) est une basede F .b) Montrons que (iii) ⇒ (i). Soit (e1, ..., en) une base de E telle que (f(e1), ..., f(en)) soitune base de F . Montrons que f est bijective. On voit immediatement que F ⊂ Im f , carf(e1),...,f(en) ∈ Im f. Donc f est surjective. Montrons que f est injective. Soit u ∈ ker f . Ilexiste des scalaires λ1,...,λn tels que u = λ1e1+...+λnen. Alors f(λ1e1+...+λnen) = 0F . Commef est lineaire, λ1f(e1) + ... + λnf(en) = 0F . Or f(e1),...,f(en) sont lineairement independants,donc λ1 = ... = λn = 0. On en deduit que u = 0E .

Corollaire 4.5.2 Soient E et F des espaces vectoriels isomorphes. Alors si l’un est de dimen-sion finie, l’autre aussi et ils ont tous deux la meme dimension.

Theoreme 4.5.3 Supposons que E et F sont de dimension finie et que dimE = dimF . Soitf : E → F une application lineaire. Alors on a l’equivalence de(i) f est un isomorphisme de E dans F .(ii) f est injective.(iii) f est surjective.

Preuve : Soit (e1, ..., en) une base de E.a) Montrons (ii) ⇒ (i). On suppose que f est injective. Alors {f(e1), ..., f(en)} est une partielibre de F . Or on sait que F est de dimension n, donc (f(e1), ..., f(en)) est une base de F . Onen deduit que f est un isomorphisme.b) Montrons (iii) ⇒ (i). On suppose que f est surjective, donc que Im f = F . On saitque {f(e1), ..., f(en)} est une partie generatrice de Im f , donc de F . Or dimF = n, donc(f(e1), ..., f(en)) est une base de F . On en deduit que f est un isomorphisme.

Proposition 4.5.4 Soit f : E → F un isomorphisme. Soient u1, ...up des vecteurs de E. Alorsle rang de la famille de vecteurs u1, ...up est egal au rang de la famille de vecteurs f(u1), ...f(up).

Preuve : Soit r le rang des vecteurs u1, ..., up. Rappelons que le rang est la dimension deVect {u1, ..., up}. Le rang r est caracterise par le fait qu’il existe r vecteurs lineairement independantsparmi les p vecteurs u1, ..., up et que toute sous-famille d’au moins r + 1 vecteurs pris parmiu1, ..., up est liee. Supposons que u1,...,ur sont lineairement independants. Alors, comme fest injective, f(u1), ..., f(ur) sont lineairement independants. Appelons r′ le rang de la famillef(u1), ..., f(up). On a montre que r′ ≥ r. En faisant le meme raisonnement avec l’isomorphismef−1, on en deduit que r ≥ r′. Donc r = r′.

Corollaire 4.5.5 Soit E un espace vectoriel de dimension n. Soit (e1, ..., en) une base de E.Soient u1...up des vecteurs de E. On note (x1

1, ..., x1n),...,(xp

1, ..., xpn) les coordonnees des vecteurs

u1,...,up dans la base (e1, ..., en). Alors le rang de la famille u1,...,up est egal au rang de lafamille des p vecteurs de Kn : (x1

1, ..., x1n),...,(xp

1, ..., xpn).

Applications. a) Pour calculer le rang de p vecteurs de E, on fixe une base de E et on ecritles coordonnees de ces vecteurs dans la base. On est ramene au calcul du rang de p vecteurs deKn, ce qu’on sait faire, par la methode du pivot appliquee aux colonnes.b) Soit F un sous-espace vectoriel de E. Une base (e1, ..., en) de E etant fixee, on peut calculerun systeme d’equations cartesiennes de F dans la base (e1, ..., en).

Page 40: Cours d'Algèbre L1 Math Info

40 CHAPITRE 4. APPLICATIONS LINEAIRES.

4.6 Exemples : projections vectorielles, symetries vectorielles.

I) Soient F et G des sous-espaces vectoriels supplementaires de E. Soit p l’application lineairedefinie par

E = F⊕

G → Eu = v + w → v

Alors tout vecteur u de E a bien une image et une seule par p car la decomposition de tout vecteuru comme somme d’un vecteur de F et d’un vecteur de G existe et est unique. L’application pest appelee la projection vectorielle sur le sous-espace vectoriel F , parallelement au sous-espacevectoriel G.

Proposition 4.6.1 p est un endomorphisme de E. On a Ker p = G et Im p = F .

II) Soient F et G des sous-espaces vectoriels supplementaires de E. Soit s l’applicationlineaire definie par

E = F⊕

G → Eu = v + w → v − w

Alors tout vecteur u de E a bien une image et une seule par s car la decomposition de tout vecteuru comme somme d’un vecteur de F et d’un vecteur de G existe et est unique. L’application sest appelee la symetrie vectorielle sur le sous-espace vectoriel F , parallelement au sous-espacevectoriel G.

Proposition 4.6.2 s est un isomorphisme de E.

III) Exercice Dans E = R2, soit F la droite vectorielle engendree par le vecteur (1, 1) et Gla droite vectorielle engendree par (1,−1).

(i) Montrer que E = F⊕

G. (Indication : reunir une base de F et une base de G.)(ii) Soit w = (x, y) un vecteur de R2. Trouver les coordonnees de p(w) dans la base canonique

de R2. (Reponse : p(w) = (x+y2 , x+y

2 )).

Page 41: Cours d'Algèbre L1 Math Info

Chapitre 5

Applications lineaires en dimensionfinie. Matrices

5.1 Matrices. Regles de calcul.

Definition 5.1.1 (Rappel) On appelle matrice a n lignes et p colonnes, ou matrice n × p untableau d’elements de K que l’on note

a1,1 a1,2 ... a1,p

a2,1 a2,2 ... a2,p

.......an,1 an,2 ... an,p

On note en abrege (ai,j) 1 ≤ i ≤ n1 ≤ j ≤ n

i sera l’indice de ligne et j l’indice de colonne.

Notation : L’ensemble des matrices n× p a coefficients dans K est appele Mn,p(K). Si n = p,on le notera Mn(K).Exemple :

A =(

1 −1 20 1 3

)∈M2,3(R).

La matrice dont tous les coefficients sont nuls est appelee la matrice nulle et sera notee 0.

Definition 5.1.2 (Rappel) Une matrice qui a le meme nombre de lignes et de colonnes est ditecarree. Un matrice carree est dite :diagonale si ai,j = 0 si i 6= j ;triangulaire superieure si ai,j = 0 pour i > j ;triangulaire inferieure si ai,j = 0 pour i > j.

Exemples : Les matrices de la forme :(

a 00 b

),

a, b ∈ R, sont les matrices diagonales de M2(R).Les matrices de la forme (

a b0 c

),

a, b, c ∈ R, sont les matrices triangulaires superieures de M2(R).

41

Page 42: Cours d'Algèbre L1 Math Info

42 CHAPITRE 5. APPLICATIONS LINEAIRES EN DIMENSION FINIE. MATRICES

Definition 5.1.3 Une matrice a une ligne s’appelle une matrice-ligne. Une matrice a une co-lonne s’appelle une matrice-colonne. La ieme ligne de la matrice (ai,j) est la matrice-ligne :

(ai,1, ai,2, ..., ai,p). La jeme colonne de la matrice (ai,j) est la matrice-colonne :

a1,j...

an,j

.

Definition 5.1.4 Si A = (ai,j) ∈Mn,p(K) et λ ∈ K on definit le produit de A par λ par :

λA = (λai,j).

Si B = (bi,j) ∈Mn,p(K), on definit la somme des matrices A et B par :

A + B = (ai,j + bi,j).

Exemples : A =(

1 −1 20 1 3

)∈M2,3(R). 2A =

(2 −2 40 2 6

).

B =(

0 −1 31 1 0

)∈M2,3(R). A + B =

(1 −2 51 2 3

)∈M2,3(R).

Definition 5.1.5 (multiplication d’une matrice-ligne par une matrice-colonne). Si

A = (a1, ...., ap) ∈M1,p(R) et B =

b1...bp

∈Mp,1(R),

le produit AB est la matrice 1× 1 dont l’unique coefficient est :

a1b1 + ... + apbp.

Attention : le produit d’une matrice-ligne par une matrice-colonne n’est defini que si les deuxmatrices ont le meme nombre de coefficients.

Exemple : A = (1,−1, 0) et B =

121

. AB = 1× 1 + (−1)× 2 + 0× 1 = −1.

Definition 5.1.6 Soit A ∈ Mn,p(K) et B ∈ Mp,q(K). Le produit de A par B, note AB est lamatrice n× q dont le coefficient de la ieme ligne et jeme colonne est le produit de la ieme lignede A et de la jeme colonne de B.Attention : Le produit de A par B n’est defini que si le nombre de colonnes de A est egal aunombre de lignes de B.Exemple :

A =

1 1 −1−2 1 33 0 11 0 0

∈M4,3(R) et B =

1 20 11 3

∈M3,2(R).

Alors

AB =

0 01 64 91 2

∈M4,2(R).

Page 43: Cours d'Algèbre L1 Math Info

5.1. MATRICES. REGLES DE CALCUL. 43

Remarques : Si A ∈ Mn,p(K) et si Ej =

0...1...0

∈ Mp,1(K), (1 a la jeme place, 0 ailleurs),

alors AEj est la jeme colonne de A.La ieme ligne de la matrice AB est egale au produit de la ieme ligne de la matrice A par lamatrice B.La jeme colonne de la matrice AB est egale au produit de la matrice A par la jeme colonne dela matrice B.Regles de calcul. Soient A, B, C ∈Mn,p(K) ,λ, µ ∈ K.En utilisant les definitions de l’addition des matrices et de la multiplication par un scalaire, onmontre que :

A + B = B + A, A−A = 0 (ou 0 designe la matrice nulle.) A + 0 = A.A + (B + C) = (A + B) + C, on note A + B + C.

λ(A + B) = λA + λB(λ + µ)A = λA + µA.

(λµ)A = λ(µA).1A = A.

Definition 5.1.7 Pour 0 ≤ k ≤ n et 0 ≤ l ≤ p, on definit la matrice Ek,l dont le coefficient dela keme ligne et leme colonne vaut 1, les autres coefficients etant egaux a 0.

Proposition 5.1.8 L’ensembleMn,p(K), muni de l’addition des matrices et de la multiplicationpar les scalaires est un espace vectoriel sur K. Les matrices Ek,l, 0 ≤ k ≤ n et 0 ≤ l ≤ p, formentune base de Mn,p(K).Preuve : Les regles de calcul ci-dessus font que Mn,p(K) muni de l’addition et de la multi-plication par les scalaires est un espace vectoriel sur K. De plus on ecrit pour toute matriceA = (ai,j),

A =n∑

k=1

p∑

l=1

ak,lEk,l,

et si

A =n∑

k=1

p∑

l=1

ck,lEk,l,

alors ak,l = ck,l pour 0 ≤ k ≤ n et 0 ≤ l ≤ p. On voit donc que toute matrice de Mn,p(K) s’ecritde maniere unique comme combinaison lineaire des matrices Ek,l, 0 ≤ k ≤ n, 0 ≤ l ≤ p.

Definition 5.1.9 On definit In comme la matrice carree n× n, diagonale, dont les coefficientsdiagonaux sont tous egaux a 1.

On a les regles de calcul suivantes, qui resultent des proprietes de l’addition et de la mul-tiplication dans K, ainsi que de la definition de la multiplication des matrices (quand on peutcalculer les produits).

A, b, C ∈Mn(K), λ ∈ K,InA = AIn = A

λ(AC) = (λA)C, on note λAC.(A + B)C = AC + BC et A(B + C) = AB + AC (double distributivite de la multiplication par

rapport a l’addition.)

Page 44: Cours d'Algèbre L1 Math Info

44 CHAPITRE 5. APPLICATIONS LINEAIRES EN DIMENSION FINIE. MATRICES

Remarque : Le produit des matrices n’est pas commutatif. On n’a pas toujours AB = BA,meme si les produits AB et BA existent tous les deux.

Exemple :

A =

1 23 01 −1

B =

(1 10 1

)

AB existe, BA n’existe pas.

C =(

1 2−1 1

)

BC et CB existent et BC 6= CB.

Proposition 5.1.10 Soient A ∈ Mn,p(K), B ∈ Mp,q(K), C ∈ Mq,r(K). Alors A(BC) =(AB)C.Preuve : Notons ((AB)C)i,j le coefficient de la ieme ligne et jeme colonne de la matrice (AB)C.Alors on a :

((AB)C)i,j =( ieme ligne de AB)×( jeme colonne de C)= (ai,1b1,1 + ... + ai,pbp,1)c1,j + (ai,1b1,2 + ... + ai,pbp,2)c2,j + .... + (ai,1b1,q + ... + ai,pbp,q)cq,j

et

(A(BC))i,j =( ieme ligne de A)×( jeme colonne de BC)= ai,1(b1,1c1,j + ... + b1,qcq,j) + ai,2(b2,1c1,j + ... + b2,qcq,j) + .... + ai,p(bp,1c1,j + ... + bp,qcq,j).

On constate que ((AB)C)i,j = (A(BC))i,j .

Definition 5.1.11 (i) Si A est une matrice-colonne, on appelle transposee de A la matrice-lignequi a les memes coefficients que A.i (ii) Si A ∈Mn,p(K), on appelle transposee de A la matrice de Mp,n(K) dont la ieme ligne estegale a la transposee de la ieme colonne de A.

La transposee de A sera notee At.Exemple :

A =

1 −10 21 1

At =

(1 0 1−1 2 1

).

Proposition 5.1.12 Si A, B, C ∈Mn(K) alors(i) (At)t = A.(ii) (A + B)t = At + Bt.(iii) (AC)t = CtAt.

Preuve : (i) et (ii) sont faciles a verifier (exercice). Montrons (iii). D’une part on a :

ieme ligne de (AC)t = ieme colonne de AC=A× (ieme colonne de C).

D’autre part on a :

ieme ligne de (CtAt) = (ieme ligne de Ct) ×At

=(ieme ligne de Ct× 1ere colonne de At , ieme ligne de Ct× 2eme colonne de At ,..., ieme lignede Ct× nieme colonne de At)

=(1ere ligne de A× ieme colonne de C , 2eme ligne de A× ieme colonne de C ,..., nieme lignede A× ieme colonne de C)=A× ieme colonne de C.

Page 45: Cours d'Algèbre L1 Math Info

5.2. MATRICE D’UNE APPLICATION LINEAIRE DANS DES BASES. 45

Remarque : Si A = (ai,j) ∈ Mn,p(K), X =

x1

x2...

xp

∈ Kp et B =

b1

b2...

bn

∈ Kn, on notera

AX = B le systeme lineaire de matrice A et de second membre B :

a1,1x1 +... +a1,pxp = b1

....an,1x1 +... +an,pxp = bn

Le systeme homogene associe sera note AX = 0, ou 0 designe le vecteur nul de Kn.

5.2 Matrice d’une application lineaire dans des bases.

Definition 5.2.1 Soient E et F des espaces vectoriels sur K de dimensions finies non nulleset soient (u1, ..., up) une base de E et (v1, ..., vn) une base de F . On appelle matrice de f dansles bases (u1, ..., up) et (v1, ..., vn) la matrice a n lignes et p colonnes dont la jeme colonne estconstituee par les coordonnees du vecteur f(uj) dans la base (v1, ..., vn).

5.3 Application lineaire de Kp dans Kn associee canoniquementa une matrice.

Dans cette partie, on note les vecteurs de Kn et de Kp en colonnes. Donc si A est une matricea n lignes et p colonnes et si X ∈ Kp, on sait calculer le produit AX et il donne un element deKn.

Proposition 5.3.1 Soit A ∈Mn,p(K). Alors la fonction Φ definie par :

Φ : Kp → Kn

X → AX

est une application lineaire de l’espace vectoriel Kp dans l’espace vectoriel Kn et sa matrice dansles bases canoniques de Kp et Kn est A.Preuve : Prouvons que Φ est une application lineaire. Tout vecteur X de Kp s’ecrit

X =

x1

x2...

xn

. On a :AX =

x1a1,1 +... +xpa1,p...

x1an,1 +... +xpan,p

.

On verifie que si X et Y appartiennent a Kp, alors A(X + Y ) = AX + AY et si λ ∈ K, A(λX =

λX. Donc Φ est une application lineaire de Kp dans Kn. De plus, on a φ(

10...0

) = A

10...0

,

alors c’est bien la premiere colonne de A. De meme

φ(

0.10.

) = A

0.10.

(1 a la jeme place, 0 ailleurs). C’est la jeme colonne de A.

Page 46: Cours d'Algèbre L1 Math Info

46 CHAPITRE 5. APPLICATIONS LINEAIRES EN DIMENSION FINIE. MATRICES

5.4 Calcul des coordonnees de l’image d’un vecteur de E.

Proposition 5.4.1 Soit f une application lineaire de E dans F . Soit A la matrice de f dans

les bases (u1, ..., up) et (v1, ..., vn). Soit u ∈ E et soit X =

x1...

xp

la colonne des coordonnees

de u dans la base (u1, ..., up). Alors la colonne des coordonnees de f(u) dans la base (v1, ..., vn)est donnee par le produit AX.Preuve : On a u = x1u1 + ... + xpup. Comme f est lineaire, alors

f(u) = f(x1u1 + ... + xpup) = x1f(u1) + ... + xpf(up). Pour j = 1, ..., p, la colonne des

coordonnees de f(uj) est

a1,j...

an,j

donc la colonne des coordonnees de f(u) est

x1a1,1 +... +xpa1,p...

x1an,1 +... +xpan,p

= AX.

Proposition 5.4.2 Soient w1,...,wp p vecteurs de F . Il existe une application lineaire de Edans F et une seule telle que f(u1) = w1,...,f(up) = wp. Sa matrice dans les bases (u1, ..., up)et (v1, ..., vn) a sa jeme colonne formee des coordonnees du vecteur wj dans la base (u1, ..., up).Preuve : a) Montrons d’abord l’unicite de f . Si f existe, alors la matrice de f dans les bases(u1, ..., up) et (v1, ..., vn) est bien la matrice decrite dans l’enonce .b) Montrons maintenant l’existence de f . Soit A la matrice decrite dans l’enonce de la proposi-tion. Definissons f comme l’application lineaire qui au vecteur u de coordonnees X dans la base(u1, ..., up) associe le vecteur dont la colonne de coordonnees dans la base (v1, ..., vn) est donneepar le produit AX. Alors on a bien f(uj) = wj , j = 1, ..., p.Exemple : Soit E de base (e1, e2, e3) et soit F de base (u1, u2). Soit f l’application lineaire deE dans F definie par f(e1) = u1 + u2, f(e2) = 2u1 − u2 et f(e3) = u1 − u2. La matrice de fdans les bases (e1, e2), e3) et (u1, u2) est

A =(

1 2 11 −1 −1

)u1

u2

f(e1)f(e2)f(e3)

Si u a pour coordonnees X =

xyz

dans la base (e1, e2, e3), alors f(u) a pour coordonnees

AX =(

x + 2y + zx− y − z

)dans la base (u1, u2).

C’est a dire que f(u) est donne par f(u) = (x + 2y + z)u1 + (x− y − z)u2.

Remarque : Des bases de E et F etant fixees, on calcule Ker f comme si l’on avait uneapplication lineaire de Kp dans Kn. Dans l’exemple ci-dessus,

Ker f = {u ∈ E; u = xe1 + ye2 + ze3;{

x + 2y + z = 0x− y − z = 0

}

En resolvant le systeme on touve que les vecteurs du noyau sont les vecteurs de E dont les

coordonnees dans la base e1, e2, e3, verifient :

xyz

= z

1/3−2/3

1

. Le noyau de f est donc

une droite vectorielle qui admet pour base le vecteur u1 − 2u2 + 3u3.

Page 47: Cours d'Algèbre L1 Math Info

5.5. OPERATIONS LINEAIRES SUR LES APPLICATIONS LINEAIRES ET LES MATRICES.47

Exemple :

Pour n = 3, p = 2 et K = R, on donne u1 =

132

et u2 =

013

deux vecteurs de R3.

L’unique application lineaire φ : R2 → R3 telle que

φ((

10

)) = u1 et φ(

(01

)) = u2

est definie par

φ((

x1

x2

)) =

1 03 12 3

(x1

x2

).

autrement dit par :

φ((

x1

x2

)) =

x1

3x1 +x2

2x1 +3x2

.

Notation Si on note B une base de E et B′ une base de F et si f : E → F est une applicationlineaire, alors on notera M(f,B,B′) la matrice de f dans les bases B et B′. Si f est un endo-morphisme de E (c’est a dire si E = F ), et si on choisit la meme base B au depart et a l’arrivee,on dira que M(f,B,B) est la matrice de f dans la base B et on la notera M(f,B).

Remarque : Soit f = idE l’application identite de E dans E et soit B une base de E, alorsM(f,B) = I, ou I est la matrice identite. (Ce n’est pas vrai si on prend des bases differentes audepart et a l’arrivee).

5.5 Operations lineaires sur les applications lineaires et les ma-trices.

Soient f : E → F et g : E → F des applications lineaires.

Proposition 5.5.1 Si A est la matrice de f dans les bases B et B′ et si B est la matrice deg dans les memes bases, si λ ∈ K, alors la matrice de λf dans ces memes bases est λA et lamatrice de f + g, dans les memes bases est A + B.

Preuve : Soit uj le jeme vecteur de la base B. La jeme colonne de la matrice de f +g est formeedes coordonnees de (f + g)(uj) dans la base B′. C’est donc la somme de la jeme colonne de lamatrice A et de la jeme colonne de la matrice B. On fait la meme demonstration pour λA.

Proposition 5.5.2 Soient E et F des K-espaces vectoriels de dimensions p et n. Soit B unebase de E et B′ une base de F . Soit L(E, F ) l’ensemble des applications lineaires de E dans F .Alors L(E,F ) est un K-espace vectoriel et l’application M definie par

M : L(E, F ) →Mn,p(K)f 7→ M(f,B,B′)

est une application lineaire bijective. (Le fait que M est une application lineaire est un corollairede la proposition precedente. Il suffit de verifier que M est bijective.)

Page 48: Cours d'Algèbre L1 Math Info

48 CHAPITRE 5. APPLICATIONS LINEAIRES EN DIMENSION FINIE. MATRICES

5.6 Composition des applications lineaires et multiplication desmatrices.

Proposition 5.6.1 Soient E, F , G des K−espaces vectoriels de dimensions respectives p, n, q.On donne les base (u1, ..., up) pour E, (u′1, ..., u

′n) pour F et (u′′1, ..., u

′′q ) pour G. Soient f : E → F

et g : F → G des applications lineaires. Soit A la matrice de f dans les bases (u1, ..., up) et(u′1, ..., u

′n) et soit B la matrice de g dans les bases (u′1, ..., u

′n) et (u′′1, ..., u

′′q ). Alors la matrice

de g ◦ f dans les bases (u1, ..., up) et (u′′1, ..., u′′q ) est BA.

Preuve : Soit u ∈ E de coordonnees X =

x1...

xp

dans la base (u1, ..., up). Alors la colonne

des coordonnees de f(u) dans la base (u′1, ..., u′n) est AX. La colonne des coordonnees de g(f(u))

dans la base (u′′1, ..., u′′q ) est donc BAX = (BA)X. Donc la matrice de g ◦ f est BA.

5.7 Matrices carrees inversibles.

Cette partie concerne uniquement les matrices carrees. Dans toute la suite on donne n ∈ N∗et les matrices considerees seront des elements de Mn(K).

Definition 5.7.1 Soit A ∈ Mn(K). On dit que A est inversible s’il existe une matrice B ∈Mn(K) telle que AB = BA = In.

Lemme 5.7.2 Si A est inversible alors il n’existe qu’une seule matrice B telle que AB = BA =In.Preuve : Supposons que AB = BA = In et que AC = CA = In. Alors C = CIn = CAB =InB = B.

Definition 5.7.3 Si A est inversible, la matrice B telle que AB = BA = In s’appelle l’inversede A et est notee A−1.

Proposition 5.7.4 Si A et C sont inversibles, alors(i) AC est inversible et (AC)−1 = C−1A−1.(ii) At est inversible et (At)−1 = (A−1)t.Preuve : (i) C−1A−1AC = C−1InC = C−1C = In. On montre de meme que ACC−1A−1 = In.(ii) At(A−1)t = (A−1A)t = (In)t = In.

Attention : Si A ∈Mn,p(K), n 6= p, on n’a pas defini l’inverse de A et on peut demontrer qu’iln’existe jamais de matrice B ∈Mp,n(K) telle que AB = In et BA = Ip.

Proposition 5.7.5 On a l’equivalence de :(i) A est une matrice carree n× n inversible.(ii) Pour tout B ∈ Kn le systeme lineaire AX = B admet une solution unique.Preuve : a) Montrons que (i) ⇒ (ii). AX = B ⇔ A−1AX = A−1B ⇔ X = A−1B. Le systemeAX = B admet donc une solution et une seule.

b) Montrons que (ii) ⇒ (i). On considere l’endomorphisme de Kn defini par

Φ : Kn → Kn

X → AX

c’est a dire l’application lineaire de Kn dans Kn dont la matrice dans la base canonique de Kn

est A. La propriete (ii) signifie que Φ est bijective. Donc Φ admet une fonction reciproque et on

Page 49: Cours d'Algèbre L1 Math Info

5.7. MATRICES CARREES INVERSIBLES. 49

sait que la fonction reciproque d’une application lineaire bijective est une application lineaire.Soit B la matrice de Φ−1 dans la base canonique de Kn. Alors AB est la matrice dans la basecanonique de l’application lineaire Φ ◦Φ−1, c’est a dire que ABX = Φ ◦Φ−1(X). Or Φ ◦Φ−1 estl’application identite de Kn : X → X. On sait que la matrice de l’identite dans la base canoniquede Kn est In. Donc AB = In.De meme, BA est la matrice de l’application lineaire Φ−1 ◦ Φ : X → X. Donc BA = In. On adonc montre que A est inversible.

Proposition 5.7.6 Soit A une matrice carree. On a l’equivalence de :(i) A est inversible ;(ii)Le systeme lineaire homogene AX = 0 admet la solution unique X = 0 (ici 0 designe le

vecteur nul de Kn : 0 =

(0...

).)

Preuve : (i) ⇒ (ii) est evident.Montrons (ii) ⇒ (i). Soit Φ l’application lineaire de Kn dans Kn associee canoniquement a lamatrice A. La propriete (ii) signifie que la noyau de Φ est reduit au vecteur nul de Kn. Celaimplique que Φ est bijective, car Φ est un endomorphisme, donc l’espace vectoriel de depart etd’arrivee ont la meme dimension. Donc pour tout vecteur B de Kn, le systeme AX = B admetune solution unique. On conclut que A est inversible en utilisant la proposition precedente.

Corollaire 5.7.7 Considerons les n matrices-colonnes de A comme n vecteurs de Kn. AlorsA est inversible si et seulement si les n colonnes de A sont des vecteurs de Kn lineairementindependants.

Preuve : Rappelons que si X =

x1

x2

.

.xn

, alors :

AX = x1

a1,1

a2,1

.

.an,1

+ x2

a1,2

a2,2

.

.an,2

+ .... + xn

a1,n

a2,n

.

.an,n

.

Dire que le systeme AX = 0 admet l’unique solution X = 0 revient donc a dire que le vec-teur nul de Kn s’ecrit de maniere unique comme combinaison lineaire des n vecteurs-colonnesde A, cette maniere unique etant de prendre les coefficients x1 = x2 = ... = xn = 0. Pardefinition de l’independance lineaire, ceci signifie que les vecteurs-colonnes de A sont lineairementindependants.

Application. Dans M2(K), la matrice(

a bc d

)est inversible si et seulement si ad − bc 6= 0.

Le nombre ad− bc est appele le determinant de A.La notion de determinant se generalise a toute dimension n. (Cours d’algebre 2).

Proposition 5.7.8 On a l’equivalence de(i) A est inversible(ii) il existe une matrice B telle que AB = In

(iii) il existe une matrice C telle que CA = In.Preuve : a) Montrons que (ii) ⇒ (i). Pour X ∈ Kn on (BX = 0) ⇒ (ABX = 0) ⇒ (X = 0).Donc B est inversible, par la proposition precedente. De plus ABB−1 = B−1, donc A = B−1.Donc A est inversible, d’inverse B.Montrons que (ii) ⇒ (i). (AX = 0) ⇒ (CAX = 0) ⇒ (X = 0). Donc A est inversible.

Page 50: Cours d'Algèbre L1 Math Info

50 CHAPITRE 5. APPLICATIONS LINEAIRES EN DIMENSION FINIE. MATRICES

5.8 Matrices carrees inversibles et isomorphismes.

Theoreme 5.8.1 Soient E et F deux K-espaces vectoriels de meme dimension n. Soit f : E →F une application lineaire. On a l’equivalence de(i) f est un isomorphisme(ii) Pour toute base B de E et toute base B′ de F la matrice carree M(f,B,B′) est inversible(iii) Il existe une base B de E et une base B′ de F telles que la matrice carree M(f,B,B′) soitinversible

Preuve : a) Montrons que (i) ⇒ (ii). Soit f un isomorphisme de E dans F . Soit f−1 l’applica-tion lineaire reciproque de f . La matrice de f ◦f−1 dans la base B′ est le produit des matrices def et de f−1. Or f ◦ f−1 = idF . Sa matrice dans la base B′ est la matrice identite In. On a doncM(f,B,B′)×M(f−1,B′,B) = In. De meme, f−1 ◦f = idE , donc M(f−1,B′,B)×M(f,B,B′) =In. On conclut que M(f,B,B′) est inversible et que sa matrice inverse est M(f−1,B′,B).b) Prouvons que (iii) ⇒ (i). Soient B une base de E et B′ une base de F telles que la matriceM(f,B,B′) soit inversible. Notons M cette matrice. Notons M−1 sa matrice inverse. Definissonsl’application lineaire g comme etant l’application lineaire de F dans G dont la matrice dans lesbases B′ et B est M−1. Alors la matrice de g ◦ f dans la base B est M ×M−1, donc c’est In. Onen deduit que g ◦ f = idE . La matrice de f ◦ g dans la base B′ est M−1 ×M , c’est donc aussiIn. On en deduit que f ◦ g = idF . On conclut que f est bijective.

Exemple : Soit E un R-espace vectoriel de base B = (u1, u2, u3) et soit F un R-espace vectorielde base B′ = (v1, v2, v3). Soit f : E → F l’application lineaire definie par

M(f,B,B′) =

1 0 −10 0 21 −1 −1

.

On veut savoir si f est un isomorphisme et si oui, calculer l’isomorphisme inverse. On considere

n’importe quel second membre B =

b1

b2

b3

et on cherche a resoudre le systeme AX = B :

x1 −x3 = b1

2x3 = b2

x1 −x2 −x3 = b3

Dans ce cas une methode de substitution donne rapidement :

x3 = b22

x1 −x3 = b1

x1 −x2 −x3 = b3

,

x3 = b22

x1 = b1 + b22

x2 = −b3 + x1 − x3

,

donc

x3 = b22

x1 = b1 + b22

x2 = −b3 + b1 + b22 − b2

2

, c’est a dire :

x1 = b1 + b22

x2 = b1 − b3

x3 = b22

Pour tout second membre B on trouve une solution unique, donc f est bijective. On a : X =M(f−1,B′,B)B, donc

M(f−1,B′,B) =

1 12 0

1 0 −10 1

2 0

.

Page 51: Cours d'Algèbre L1 Math Info

5.9. CALCUL DE LA MATRICE INVERSE. 51

Pour verifier qu’il n’y a pas d’erreurs de calcul, on calcule :

1 12 0

1 0 −10 1

2 0

1 0 −10 0 21 −1 −1

=

1 0 00 1 00 0 1

.

Remarquons que pour reconnaıtre si f est bijective ou non (sans calculer l’endomorphismereciproque eventuel f−1), il suffit de resoudre le systeme AX = 0. Si on trouve l’unique solutionX = 0, alors le noyau de f est reduit au vecteur nul, donc f est injective, donc bijective cardimE = dim F . Si on trouve un espace vectoriel de solutions de dimension superieure ou egalea 1, alors f n’est pas injective, donc pas bijective.

5.9 Calcul de la matrice inverse.

On donne une matrice carree A. On veut reconnaıtre si A est inversible et si oui calculer soninverse A−1. Par exemple

A =

1 1 2−1 0 02 1 3

Pour cela on resoud le systeme AX = B, pour B ∈ R3.

x +y +2z = b1

−x = b2

2x +y +3z = b3

Pour chaque (b1, b2, b3) on trouve une solution unique qui est :

x = −b2

y = 3b1 − b2 − 2b3

z = −b1 + b2 + b3.Donc A est inversible, d’inverse A−1 =

0 −1 03 −1 −2−1 1 1

. Pour

verifier qu’il n’y a pas d’erreurs de calcul, on calcule :

1 1 2−1 0 02 1 3

0 −1 03 −1 −2−1 1 1

=

1 0 00 1 00 0 1

Remarquons que pour reconnaıtre seulement si A est inversible (sans calculer sa matrice inverseeventuelle), il suffit de resoudre le systeme AX = 0. Si on trouve comme unique solution levecteur nul de R3, alors A est inversible. Sinon, on trouve comme ensemble de solutions unsous-espace vectoriel de R3 de dimension 1 ou 2 et A n’est pas inversible.

Proposition 5.9.1 La matrice A est inversible si et seulement si la methode du pivot de Gaussappliquee aux lignes de la matrice A la transforme en une matrice triangulaire superieure adiagonale non nulle. (Rappel : la methode du pivot de Gauss sur les lignes de la matrice A estla methode qu’on utilise pour resoudre les systemes lineaires de la forme AX = B).Preuve : La methode du pivot de Gauss transforme la matrice A en une matrice echelonneecarree E. Soit cette matrice E est triangulaire superieure a diagonale non nulle, soit sa ou sesdernieres lignes sont nulles. La methode du pivot de Gauss transforme le systeme AX = 0 en lesysteme equivalent EX = 0. Ce dernier systeme admet l’unique solution X = 0 si et seulementsi E est triangulaire superieure a diagonale non nulle.Remarque : Si on utilise la methode du pivot de Gauss pour etudier l’inversibilite d’une matriceA, on a interet a transformer en meme temps le second membre B. Ainsi, dans le cas ou A estinversible, on pourra lire la matrice inverse A−1.

Page 52: Cours d'Algèbre L1 Math Info

52 CHAPITRE 5. APPLICATIONS LINEAIRES EN DIMENSION FINIE. MATRICES

Exemple : A =

1 −1 12 0 41 1 3

. On utilise la methode du pivot de Gauss pour resoudre le

systeme

x −y +z = b1

2x +4z = b2

x +y +3z = b3.. On trouve

x −y +z = b1

2y +2z = −2b1 + b2

2y +2z = −b1 + b3

puis

x −y +z = b1

2y +2z = −2b1 + b2

0 = −b1 + b2 − b3.Ici, la methode du pivot de Gauss transforme la matrice

A en une matrice echelonnee dont la derniere ligne est nulle : E =

1 −1 10 2 20 0 0

. Le systeme

AX = B a soit aucune solution, soit une infinite de solutions, selon la valeur de (b1, b2, b3). Lesysteme AX = 0 a une infinite de solutions. Donc A n’est pas inversible. (Remarquons que latransformation du second membre ne sert a rien ici !)

5.10 Algebre des matrices n×n.

Sur l’ensemble des matrices carrees n×n, on a trois operations : l’addition, la multiplicationpar les scalaires et la multiplication des matrices. Les proprietes de ces operations permettentde dire que(i) (Mn(K), +, .) est un K-espace vectoriel (. designe la multiplication d’une matrice par unscalaire)(ii) (Mn(K),+,×) est un anneau (× designe la multiplication des matrices).On dit que (Mn(K),+,×) est un anneau car : a) (Mn(K),+) est un groupe abelien ; b) lamultiplication des matrices est associative et doublement distributive par rapport a l’addition.(Voir le paragraphe sur les operations.) De plus, la matrice In verifie : pour toute A ∈ Mn(K),A × In = In × A = A. On dit que l’anneau (Mn(K), +,×) est unitaire et que In est l’elementunite.De plus, on a la propriete suivante :Si λ ∈ K, (λA)× C = λ(A× C) = A× (λC).Grace a toutes ces proprietes, on dit que (Mn(K),+, .,×) est une algebre sur K.Remarquons qu’on peut faire des calculs portant sur des matrices carrees, presque comme s’ils’agissait de nombres reels ou complexes. Mais il y a des differences importantes :

(i) La multiplication des matrices n’est pas commutative ;(ii) une matrice non nulle n’admet pas forcement une matrice inverse. Par exemple dans

M2(R) la matrice A =(

1 21 2

)est non nulle et n’est pas inversible.

(iii) Le produit de deux matrices non nulles peut etre nul. (On dit que l’anneau des matrices

carrees a des diviseurs de 0.) Exemple B =(

0 20 0

). On a B 6= 0 et B2 = 0.

(iv) On a l’identite remarquable :

(A + B)2 = A2 + B2 + AB + BA.

Exercice a) Montrer que (A + B)2 n’est n’est pas toujours egal a A2 + 2AB + B2. (Voir par

exemple A =(

0 10 0

)et B =

(0 00 1

).)

b) Montrer que (A + B)(A − B) = A2 − B2 + BA − AB et que ce n’est pas toujours egal aA2 −B2.

Page 53: Cours d'Algèbre L1 Math Info

Chapitre 6

Changements de bases.

6.1 Changement de coordonnees. Matrice de passage.

Soit E un K−espace vectoriel de dimension n 6= 0. Soit (e1, ..., en) une base de E, qu’onnotera B. Si u est un vecteur de E on notera en colonne le n−uplet des coordonnees de u dansla base (e1, ..., en). On l’appelera la colonne des coordonnees de u dans la base (e1, ..., en).

Attention : Si u a pour coordonnees

x1

.

.xn

dans la base (e1, ..., en), on n’ecrit pas

u =

x1

.

.xn

. En effet, d’abord u est un vecteur de l’espace vectoriel E, qui n’est pas toujours

Kn. Ensuite si on prend une autre base (e′1, ..., e′n) de E, la colonne des coordonnees de u dans

cette nouvelle base ne sera pas la meme que dans l’ancienne base (e1, ..., en).

Attention : Il y a une exception a l’avertissement donne ci-dessus. Si u est un vecteur de Kn,alors c’est un n−uplet d’elements de K, soit u = (x1, ..., xn). Les coordonnees de u dans la basecanonique de Kn sont exactement ses composantes x1,...,xn. Dans ce cas (mais seulement dans

ce cas), il n’est pas faux d’ecrire le vecteur u en colonne, c’est a dire d’ecrire : u =

x1

.

.xn

!

Soient e′1,...,e′n n vecteurs de E. On se pose la question suivante : a quelle condition les vecteurs

e′1,...,e′n forment-ils une base de E ?

Reponse : comme ils sont en nombre egal a la dimension de E, ils forment une base de E si etseulement si ils forment une famille libre.Appelons C1 la colonne des coordonnees du vecteur e′1 dans la base (e1, ..., en) ,... et Cn lacolonne des coordonnees du vecteur e′n dans la base (e1, ..., en). Alors on sait que les vecteurse′1,...,e

′n forment une famille libre de E si et seulement si C1,...,Cn forment une famille libre de

Kn.Enfin, on sait que les vecteurs C1,...,Cn forment une famille libre de Kn si et seulement si lamatrice dont les colonnes sont C1,....,Cn est une matrice n× n inversible.Ceci montre la proposition suivante :

Proposition 6.1.1 Soient e′1,...,e′n n vecteurs de E. Soient C1,....,Cn les colonnes des coor-

donnees de e′1,...,e′n dans la base (e1, ..., en). Soit P ∈ Mn(K) la matrice dont la jeme colonne

53

Page 54: Cours d'Algèbre L1 Math Info

54 CHAPITRE 6. CHANGEMENTS DE BASES.

est Cj. Alors les vecteurs e′1,....,e′n forment une base de E si et seulement si la matrice P est

inversible.

Definition 6.1.2 Quand la matrice P definie ci-dessus est inversible, on l’appelle la matricede passage de la base (e1, ..., en) a la base (e′1, ..., e

′n). La base (e1, ..., en) sera appelee l’ancienne

base et la base (e′1, ..., e′n) sera appelee la nouvelle base.

Soit u ∈ E et soit X =

x1...

xn

la colonne des coordonnees de u dans la base (e1, ..., en).

On se pose la question suivante : comment calculer les coordonnees de u dans la nouvelle base(e′1, ..., e

′n) ?

Theoreme 6.1.3 Soient (e1, ..., en) d’une part et (e′1, ..., e′n) d’autre part, deux bases de E. Soit

P la matrice de passage de la base (e1, ..., en) a la base (e′1, ..., e′n). Si la colonne des coordonnees

du vecteur u dans la base (e1, ..., en) est X =

x1...

xn

, alors la colonne X ′ de ses coordonnees

dans la base (e′1, ..., e′n) se deduit de la formule : X = PX ′.

C’est a dire :

x1...

xn

= P

x′1...

x′n

.

On a la formule equivalente : X ′ = P−1X.

Preuve :u = x1e1 + ... + xnen et u = x′1e

′1 + ... + x′ne′n.

Or on a, par la definition de la matrice P :

e′1 = p1,1e1+ · · ·+ pn,1en (1ere colonne de P )...

e′n = p1,ne1+ · · ·+ pn,nen (nieme colonne de P )

On remplace les e′i par leurs decompositions sur la base des ej , dans la deuxieme formule donnantu ci-dessus. On trouve :

u = x′1(p1,1e1 + p2,1e2 + . . . + pn,1en) + . . . + x′n(p1,ne1 + p2,ne2 + . . . + pn,nen),

ce qui donne :

u = (p1,1x′1+p1,2x

′2+. . .+p1,nx′n)e1+(p2,1x

′1+p2,2x

′2+. . .+p2,nx′n)e2+. . .+(pn,1x

′1+pn,2x

′2+. . .+pn,nx′n)en.

Or il n’y a qu’une seule decomposition de u sur la base e1,...,en. Donc les scalaires qui appa-raissent comme coefficients des vecteurs ei dans la formule ci-dessus sont les coordonnees de udans la base e1,...,en. On a donc :

x1 = p1,1x′1+ p1,2x

′2+ . . .+ p1,nx′n

x2 = p2,1x′1+ p2,2x

′2+ . . .+ p2,nx′n

...xn = pn,1x

′1+ pn,2x

′2+ . . .+ pn,nx′n,

Autrement dit : X = PX ′.

Page 55: Cours d'Algèbre L1 Math Info

6.1. CHANGEMENT DE COORDONNEES. MATRICE DE PASSAGE. 55

Attention : Un vecteur u de E etant donne, la matrice de passage P permet de calculer les”anciennes” coordonnees de u (ou coordonnees de u dans l’ancienne base) en fonction des ”nou-velles” coordonnees de u (ou coordonnees de u dans la nouvelle base). Comment s’en souvenir ?On teste la formule X = PX ′ sur le premier vecteur de la nouvelle base, e′1. On sait que lapremiere colonne de P est formee des coordonnees du vecteur e′1 dans la base (e1, ..., en). Or on

sait que pour n’importe quelle matrice A, le produit de A par la colonne

10...0

est la premiere

colonne de A. On a donc

P

10...0

= 1ere colonne de P =

p1,1

p2,1...

pn,1

.

Or la colonne

10...0

est la colonne des coordonnees du vecteur e′1 dans la nouvelle base. La

colonne

p1,1

p2,1...

pn,1

est la colonne des coordonnees du meme vecteur e′1 dans l’ancienne base. On

a donc bien verifie la formule X = PX ′, quand X et X ′ sont les colonnes des coordonnees duvecteur e′1.Exemple : Soit R4 muni de la base canonique (e1, ..., e4). Soient les vecteurs e′1,...,e

′4 de R4

donnes par leurs composantes (qui sont aussi leurs coordonnees dans la base canonique) :

e′1 =

1200

e′2 =

0100

e′3 =

0021

et e′4 =

0012

.

Verifions que les vecteurs e′1, e′2, e′3, e′4 forment une base de R4. On remarque que les coor-donnees de ces vecteurs sont presque echelonnees. On raisonne suivant la maniere habituelle pourdes vecteurs de coordonnees echelonnees. D’abord on voit que e′4 et e′3 ne sont pas colineaires,donc ils sont lineairement independants. Puis on voit que e′2 n’est pas combinaison lineaire de e′3et e′4, sinon sa deuxieme coordonnee serait nulle. Comme e′3 et e′4 sont lineairement independants,cela prouve que e′2, e′3, e′4 sont lineairement independants. Alors e′1,...,e

′4 sont lies si et seulement

si e′1 s’ecrit comme combinaison lineaire de e′2, e′3, e′4. Or e′1 n’est pas combinaison lineaire deces trois vecteurs, sinon sa premiere composante serait nulle. Donc les quatre vecteurs e′1, e′2, e′3,e′4 sont lineairement independants. Comme leur nombre est 4, ils forment une base de R4. Soitu le vecteur de R4 donne par ses 4 composantes :

u =

1111

. La colonne

1111

est le vecteur u, mais c’est aussi la colonne des coordonnees

du vecteur u dans la base canonique de R4. Cherchons les coordonnees de u dans la nouvellebase (e′1, e

′2, e

′3, e

′4). Ecrivons la matrice de passage P de la base canonique (ancienne base) a la

nouvelle base.

Page 56: Cours d'Algèbre L1 Math Info

56 CHAPITRE 6. CHANGEMENTS DE BASES.

P =

1 0 0 02 1 0 00 0 2 10 0 1 2

e1

e2

e3

e4

e′1 e′2 e′3 e′4.Les coordonnees X ′ de u dans la nouvelle base sont donnees par la formule X = PX ′, c’est

a dire :

1 = x′11 = 2x′1 + x′21 = 2x′3 + x′41 = x′3 + 2x′4

Il reste a resoudre ce systeme. On trouve

x′1 = 1x′2 = −1

2x′3 + x′4 = 13x′4 = 1

d’ou

x′1 = 1x′2 = −1x′3 = 1/3x′4 = 1/3

Les nouvelles coordonnees de u sont donc donnees par la colonne

1−11/31/3

Attention : Le vecteur u n’est pas egal a cette colonne. On a seulement : u = e′1−e′2+ 13e′3+ 1

3e′4.(Formule qu’on peut verifier pour detecter d’eventuelles erreurs de calcul).

On aurait pu resoudre le probleme autrement. D’abord prouver que P est inversible etcalculer P−1. Alors le fait que P soit inversible montre que (e′1, e

′2, e

′3, e

′4) est une base de R4.

Puis on calcule les nouvelles coordonnees de u par la formule X ′ = P−1X.

6.2 Formule de changement de base pour une application lineaire.

Theoreme 6.2.1 Soit f : E → F une application lineaire. Soient (u1, ..., up) et (u′1, ..., u′p) deux

bases de E et soient (v1, ..., vn) et (v′1, ..., v′n) deux bases de F . Soit A la matrice de f dans les

bases (u1, ..., up) et (v1, ..., vn) et soit A′ la matrice de f dans les bases (u′1, ..., u′p) et (v′1, ..., v

′n).

Appelons P la matrice de passage de la base (u1, ..., up) a la base (u′1, ..., u′p) et Q la matrice de

passage de la base (v1, ..., vn) a la base (v′1, ..., v′n). Alors on a la formule suivante :

A′ = Q−1AP.

Preuve : La preuve est a connaıtre, car il faut etre capable de retrouver la formule. On vadonner deux preuves differentes (retenir celle qui semble la plus simple !)

Premiere demonstration. Montrons que QA′ = AP . Pour cela, on calcule de deux manieresla matrice de f dans les bases (u′1, ..., u

′p) et (v1, ..., vn). D’une part on ecrit : f = idF ◦ f . La

matrice Q est la matrice de idF dans les bases (v′1, ..., v′n) et (v1, ..., vn). La matrice A′ est la

matrice de f dans les bases (u′1, ..., u′p) et (v′1, ..., v

′n). Par le theoreme de composition, la matrice

de f = idF ◦f dans les bases (u′1, ..., u′p) et (v1, ..., vn) est QA′. D’autre part, on ecrit : f = idE◦f .

La matrice P est la matrice de idE dans les bases (u′1, ..., u′p) et (u1, ..., up). La matrice A est la

matrice de f dans les bases (u1, ..., up) et (v1, ..., vn). Donc la matrice de la fonction composeef = idE ◦ f dans les bases (u′1, ..., u

′p) et (v1, ..., vn) est AP . On a donc calcule la matrice de

f dans les bases (u′1, ..., u′p) et (v1, ..., vn) de deux manieres differentes. Comme il n’y a qu’une

seule matrice, on a AP = QA′.Deuxieme demonstration. (Necessite de connaıtre la formule de changement de base pour

les vecteurs). On donne un vecteur u de E. Soit X la colonne de ses coordonnees dans labase (u1, ..., up) et X ′ la colonne de ses coordonnees dans la base (u′1, ..., u

′p). Le vecteur f(u)

appartient a F . Appelons Y la colonne de ses coordonnees dans la base (v1, ..., vn) et Y ′ lacolonne de ses coordonnees dans la base (v′1, ..., v

′n). On : Y = AX et Y ′ = A′X ′. Or X = PX ′

et Y = QY ′. On substitue PX ′ a X et QY ′ a Y dans la formule Y = AX. On trouve QY ′ =

Page 57: Cours d'Algèbre L1 Math Info

6.2. FORMULE DE CHANGEMENT DE BASE POUR UNE APPLICATION LINEAIRE.57

APX ′, donc Y ′ = Q−1APX ′. Comme cela est vrai pour tout vecteur u de E, on en deduit queA′ = Q−1AP .

Exemple : Soitf : R2 → R3

(x, y) → (2x + 3y, x, x− y). Appelons (e1, e2) la base canonique de R2 et

(e1, e2, e3) la base canonique de R3. La matrice de f dans les bases canoniques de R2 et R3

est

2 31 01 −1

. On donne u1 = (1, 2) et u2 = (0, 1) deux vecteurs de R2. Ils forment une

base de R2 car ils ne sont pas colineaires. On donne trois vecteurs de R3 : v1 = (1,−1, 0),v2 = (1, 2, 1) et v3 = (0, 1, 2). On voit que v1 et v2 sont lineairement independants. Donc v1,v2, v3 ne peuvent etre lies que si v3 est une combinaison lineaire de v1 et v2, c’est a dire si il

existe des reels α et β tels que

0 = α + β1 = −α + 2β2 = β

et ce systeme n’a pas de solution, donc v1,

v2, v3 sont lineairement independants. Ils forment une base de R3. La matrice de passage de

la base canonique de R2 a la base (u1, u2) est P =(

1 02 1

)et la matrice de passage de la

base canonique de R3 a la base (v1, v2, v3) est Q =

1 1 0−1 2 10 1 2

. On inverse la matrice Q.

On trouve Q−1 = 15

3 −2 12 2 −1−1 −1 3

. Le produit Q−1AP donne A′ = 1

5

21 819 7−12 −6

. Ceci

signifie que f(u1) = 15(21v1 + 19v2 − 12v3) et f(u2) = 1

5(8v1 + 7v2 − 6v3).

Definition 6.2.2 Soient A et A′ deux matrices de Mn,p(K). Si il existe deux matrices inver-sibles P ∈Mp(K) et Q ∈Mn(K) telles que A′ = Q−1AP , on dit que A et A′ sont des matricesequivalentes. Si A et A′ ∈ Mp(K) et s’il existe une matrice inversible P ∈ Mp(K) telle queA′ = P−1AP , on dit que A et A′ sont des matrices semblables.Exercice : La relation R definie sur Mn,p(K) par ”ARA′ s’il existe deux matrices inversiblesP ∈Mp(K) et Q ∈Mn(K) telles que A′ = Q−1AP” est une relation d’equivalence.

Page 58: Cours d'Algèbre L1 Math Info

58 CHAPITRE 6. CHANGEMENTS DE BASES.

Page 59: Cours d'Algèbre L1 Math Info

Chapitre 7

Rang d’une matrice, retour auxsystemes lineaires.

7.1 Rang d’une matrice. Rang d’un systeme lineaire.

Definition 7.1.1 Soient n, p ∈ N? et soit A ∈ Mn,p(K). On appelle rang de A le rang des pcolonnes de A, considerees comme des vecteurs de Kn. (C’est a dire la dimension du sous-espacevectoriel de Kn engendre par les p colonnes de A.)

Proposition 7.1.2 Soit (u1, ..., up) une base de E, (v1, ..., vn) une base de F et soit f : E → Fune application lineaire. Soit A la matrice de f dans les bases (u1, ..., up) et (v1, ..., vn). Alors lerang de f est egal au rang de A.

Preuve : On a rg (f) = dim Im f = dim Vect {f(u1), ..., f(up)}. Et rg (A) = dimVect {C1, ..., Cp}ou C1,...,Cp sont les colonnes de A. Mais on sait que la jeme colonne Cj est la colonne des coor-donnees du vecteur f(uj) dans la base (v1, ..., vn). Par consequent la famille des vecteurs f(u1),...,f(up) et la famille des vecteurs C1,...,Cp ont le meme rang. Donc rg (f) = rg (A).

Corollaire 7.1.3 Si A et A′ sont deux matrices equivalentes, alors elles ont le meme rang.

Preuve : Par hypothese il existe deux matrices inversibles P ∈ Mp(K) et Q ∈ Mn(K) tellesque A′ = Q−1AP . Soit Φ l’application lineaire de Kp dans Kn associee canoniquement a lamatrice A. Soient u1,...,up les vecteurs de Kp constitues par les colonnes de P . Alors, comme Pest inversible, (u1, ..., up) est une base de Kp et P est la matrice de passage de la base canoniquede Kp a la base (u1, ..., up) . De meme on considere les colonnes de Q. Ce sont n vecteurs de Kn,appeles v1,...,vn, qui forment une base de Kn et Q est la matrice de passage de la base canoniquede Kn a la base (v1, ..., vn). Par la formule de changement de base, la matrice A′ est la matrice del’application lineaire Φ dans les bases (u1, ..., up) et (v1, ..., vn). Donc rg (A) = rg (Φ) = rg (A′).

Remarque : Soit A une matrice. On connaıt deux manieres differentes de calculer le rang deA. La premiere methode consiste a trouver le rang des colonnes de A par la methode expliqueeau Chapitre 3 (page 31) : on applique la methode du pivot de Gauss aux colonnes de A. Ladeuxieme methode consiste a trouver la dimension du noyau de Φ, ou Φ est l’application lineaireassociee canoniquement a A. On utilise ensuite la formule : dim Im Φ+dim KerΦ = p, qui donnergA = p− dimKer Φ. (En effet, on sait par la proposition ci-dessus que rgA = dim ImΦ.)

Definition 7.1.4 Soit A ∈Mn,p(K). On considere le systeme lineaire AX = 0. On dit que leslignes du systeme sont lineairement independantes si les n matrices-lignes de A : (a1,1, ..., a1,p),....,(an,1, ..., an,p) (considerees comme des vecteurs de Kp) sont lineairement independantes.

59

Page 60: Cours d'Algèbre L1 Math Info

60 CHAPITRE 7. RANG D’UNE MATRICE, RETOUR AUX SYSTEMES LINEAIRES.

Exemple : On donne le systeme lineaire homogene{

2x −y +3z = 0x −3y +z = 0

Les lignes du systeme sont lineairement independantes.

Definition 7.1.5 Soit A ∈ Mn,p(K). On appelle rang du systeme homogene AX = 0 le rangdes matrices-lignes de A (considerees comme des vecteurs de Kp).C’est la dimension du sous-espace vectoriel de Kp engendre par les n lignes de A. C’est aussi lenombre maximal de lignes independantes parmi les lignes de A. On dit aussi que c’est le nombremaximal d’equations independantes pour le systeme AX = 0. On va donner une formule qui liele rang du systeme homogene AX = 0 et la dimension de l’espace vectoriel des solutions.

Le probleme : on donne un systeme lineaire homogene a n lignes et p colonnes, de rang r.Soit F le sous-espace vectoriel de Kp forme par les solutions de ce systeme. Trouver la dimensionde F et une base de F .Exemple : Soit F le sous-espace vectoriel de R4 forme par les solutions (x, y, z, t) du systemelineaire homogene

(Σ){

2x− y+ 3z+ t = 0y− z+ t = 0

C’est un systeme echelonne. Il y a deux inconnues principales : x et y et deux inconnues nonprincipales qu’on prend comme parametres : z et t. On resoud (Σ) par la methode de la remontee.

On trouve la solution{

x = −z − ty = z − t

. Donc le vecteur

xyzt

est solution du systeme (Σ) si

et seulement si

xyzt

= z

−1110

+ t

−1−101

.

Cela montre que les vecteurs u1 =

−1110

et u2 =

−1−101

engendrent F . Montrons qu’ils

forment une base de F . Il suffit demontrer qu’ils sont lineairement independants. On remarque

que si z

−1110

+ t

−1−101

=

0000

, alors z = t = 0 car z et t sont des composantes du vec-

teur

0000

. Donc u1 et u2 forment une base de F et la dimension de F est 2. Par ailleurs le rang

du systeme est deux, car du fait qu’il est echelonne, les lignes sont lineairement independantes.Dans ce cas, on trouve dimF = p− r.

Generalisons ce resultat.

Proposition 7.1.6 Soit le systeme lineaire homogene AX = 0, de dimension n× p et de rangr. La dimension de l’espace vectoriel F des solutions de ce systeme est p− r.La demonstration de cette proposition decoule de deux lemmes.

Page 61: Cours d'Algèbre L1 Math Info

7.1. RANG D’UNE MATRICE. RANG D’UN SYSTEME LINEAIRE. 61

Lemme 7.1.7 Le rang des lignes du systeme homogene AX = 0 est egal au nombre de lignesnon nulles du systeme echelonne equivalent EX = 0 obtenu par la methode du pivot de Gauss.Preuve C’est le raisonnement du chapitre 3, page 31, mais applique aux lignes de la matriceA, notees L1,...,Ln, considerees comme des vecteurs de Kp. On rappelle le principe : si λ2,...,λn

sont des scalaires, alors le sous-espace vectoriel de Kp engendre par les vecteurs L1,...,Ln est lememe que les sous-espace vectoriel engendre par les vecteurs L1, L2− λ2L1,...,Ln− λnL1. Doncles lignes obtenues apres la premiere iteration du pivot de Gauss ont le meme rang que les lignesL1,...,Ln. On reitere le procede. Une fois terminee la methode du pivot de Gauss le rang des nlignes obtenues est egal au rang des lignes L1,...,Ln. Or, a cause du caractere echelonne, le rangdes n lignes obtenues est le nombre, appele r, de lignes non nulles (car on montre facilement queles r lignes non nulles, echelonnees, sont lineairement independantes) .

Lemme 7.1.8 Soit un systeme lineaire echelonne homogene de dimension r × p, dont les requations sont non nulles. Alors la dimension de l’espace vectoriel F des solutions de ce systemeest egal au nombre d’inconnues non principales, c’est p− r.Preuve : Rappelons que dans un tel systeme, il y a r inconnues principales et p− r inconnuesnon principales qu’on prend comme parametres. Quitte a reindexer les inconnues, appelonsx1,...,xr les inconnues principales et xr+1,..., xp les p − r parametres. Pour chaque valeur du(p − r)−uplet (xr+1, ..., xp) on trouve une unique solution du systeme par la methode de laremontee. Appelons ur+1 la solution (x1, ..., xp) trouvee pour (xr+1, ..., xp) = (1, 0, ...0), ur+2 lasolution trouvee pour (xr+1, ..., xp) = (0, 1, 0...0),..., up la solution trouvee pour (xr+1, ..., xp) =(0, ..., 0, 1). Soit le vecteur u defini par u = xr+1ur+1 + ... + xpup. Alors u est une solution dusysteme comme combinaison lineaire de solutions. Les p − r dernieres composantes du vecteuru sont xr+1,...,xp. Reciproquement, si u = (x1, ..., xp) est une solution du systeme, alors levecteur xr+1ur+1 + ... + xpup est une solution du systeme pour les memes valeurs xr+1,...,xp desparametres, donc il est egal a u. L’ensemble des solutions est donc

F = {(x1, ..., xp) = xr+1ur+1 + ... + xpup ; xr+1 ∈ K, ..., xp ∈ K}.Les vecteurs ur+1,...,up engendrent donc F . De plus la decomposition de toute solution u commecombinaison lineaire des vecteurs ur+1,...,up est unique, puisque les coefficients qui apparaissentdans la decomposition sont necessairement les p − r dernieres composantes de u. Les p − rvecteurs ur+1,...,up forment donc une base de F .

Preuve de la proposition 7.1.6 Le rang r des lignes de A se calcule par la methodedu pivot de Gauss appliquee aux lignes de A. Il est egal au nombre d’equations non nullesdans le systeme echelonne qu’on trouve apres l’utilisation de l’algorithme du pivot de Gausspour resoudre le systeme AX = 0. Soit F l’espace vectoriel des solutions du systeme homogeneAX = 0. C’est aussi l’ensemble des solutions du systeme echelonne a r lignes non nulles EX = 0,obtenu par la methode du pivot de Gauss. Donc dimF = p− r.

Proposition 7.1.9 Pour toute matrice, le rang des lignes est egal au rang des colonnes.Preuve : Soit A ∈Mn,p(K). Appelons r le rang des lignes de A, r′ le rang de A (c’est a dire lerang des colonnes de A) et F l’espace vectoriel des solutions du systeme homogene AX = 0. Ona vu que dimF = p − r. Soit Φ l’application lineaire de Kp dans Kn associee canoniquement aA. Alors F = KerΦ. Par ailleurs, r′ = dim Im Φ. Par le theoreme de la dimension on a

dimKp = dim KerΦ + dim Im Φ,

donc p = dim F + r′, d’ou dimF = p− r′. Par consequent p− r′ = p− r, donc r = r′.

Exemple : A =(

2 −4 10 −1 1

). Le systeme AX = 0 est

{2x −4y +z = 0

−y +z = 0.Le rang des

lignes de A est 2. On verifie que le rang des colonnes aussi : C3 = −C2− 32C1. L’espace vectoriel

Page 62: Cours d'Algèbre L1 Math Info

62 CHAPITRE 7. RANG D’UNE MATRICE, RETOUR AUX SYSTEMES LINEAIRES.

des solutions sera de dimension 3 − 2 = 1. En effet, c’est la droite vectorielle de base

322

.

Pour la premiere equation prise separemment, l’espace vectoriel des solutions est de dimension3 − 1 = 2 (car le rang est 1), c’est un plan vectoriel. De meme pour la seconde equation.La droite vectorielle F est donc l’intersection de deux plans vectoriels (qu’on represente, dansl’espace R3, comme deux plans qui passent par le point (0, 0)). Donnons des bases de ces deuxplans vectoriels.

(2x− 4y + z = 0) ⇔ (z = −2x + 4y) ⇔

xyz

= x

10−2

+ y

014

et (−y + z = 0) ⇔ (y = z) ⇔

xyz

= x

100

+ z

011

. On a donc trouve une

base pour chacun des deux plans vectoriels admettant pour equation cartesienne chacune desequations du systeme.

Proposition 7.1.10 Soit E un espace vectoriel de dimension p.(i) Le noyau de toute forme lineaire non nulle de E est un hyperplan de E.(ii) Tout hyperplan de E est le noyau d’une forme lineaire non nulle.Rappel : par definition, un hyperplan de l’espace vectoriel E de dimension p est un sous-espacevectoriel de dimension p− 1.Preuve (i) Soit f une forme lineaire non nulle de E. C’est une application lineaire non iden-tiquement nulle de E dans K. Son image est un sous-espace vectoriel de K non reduit a zero,donc Im f = K (car dimK = 1). On a dim Ker f + dim Im f = dim E, donc dim Ker f = p− 1.(ii) Soit H un hyperplan de E. Fixons une base (e1, ..., ep) de E. On sait que tout sous-espacevectoriel de E admet un systeme d’equations cartesiennes dans cette base. C’est vrai en particu-lier pour H. Si u est un vecteur de E, on appelle X la colonne de ses coordonnees dans la base(e1, ..., ep). Il existe une matrice A telle que u ∈ H si est seulement si X est solution du systemelineaire AX = 0. Comme dimH = p − 1, le rang du systeme lineaire AX = 0 est 1. Il existedonc un systeme equivalent qui n’a qu’une seule equation (c’est le systeme echelonne obtenupar la methode du pivot). Donc il existe (a1, ..., ap) 6= (0, ..., 0) tel que u ∈ H si et seulement sia1x1 + ... + apxp = 0. Considerons La forme lineaire f dont la matrice dans la base (e1, ..., ep)est (a1, ..., ap). Alors E = ker f .

Remarque : Soit A ∈ Mn,p(K). Le K-espace vectoriel des solutions du systeme lineaire ho-mogene AX = 0 est l’intersection de n hyperplans de Kp.

Definition 7.1.11 Soit A ∈ Mn,p(K). On appelle matrice extraite de A toute matrice A′ ∈M′

n′,p′(K), 1 ≤ n′ ≤ n, 1 ≤ p′ ≤ p, obtenue a partir de A en rayant n − n′ lignes et p − p′

colonnes.

Proposition 7.1.12 Soit A ∈Mn,p(K). Soit r le rang de A. Alors il existe une matrice carreeextraite de A, de dimension r× r et inversible. C’est le cas pour toute matrice r× r extraite deA en choisissant r lignes lineairement independantes et r colonnes lineairement independanteset en rayant les autres. De plus, si r′ > r, toute matrice carree extraite de A et de dimensionr′ × r′ (s’il en existe) est non inversible.

Preuve : Choisissons r colonnes de A lineairement independantes et r lignes de A lineairementindependantes et rayons toutes les autres lignes et les autres colonnes. On obtient une matricecarree A′ de dimension r × r. Montrons que les r lignes de A′ sont lineairement independantes.

Page 63: Cours d'Algèbre L1 Math Info

7.1. RANG D’UNE MATRICE. RANG D’UN SYSTEME LINEAIRE. 63

Supposons, pour simplifier les notations, qu’on a garde les r premieres lignes et les r premierescolonnes de A.

A =

a1,1 . . . a1,r a1,r+1 . . . a1,p

a2,1 . . . a2,r a2,r+1 . . . a2,p...

ar,1 . . . ar,r ar,r+1 . . . ar,p...

an,1 . . . an,r an,r+1 . . . an,p

Ecrivons une relation lineaire entre les lignes de A′. Soient λ1,...,λr ∈ K telles queλ1(a1,1, ..., a1,r) + ... + λr(ar,1, ..., ar,r) = (0, ..., 0).Il s’agit de prouver que necessairement λ1 = ... = λr = 0. Dans ce but on va prouver que :λ1(a1,1, ..., a1,p) + ... + λr(ar,1, ..., ar,p) = (0, ..., 0).Comme on a suppose que les r premieres lignes de A sont lineairement independantes, ca

impliquera que λ1 = ... = λr = 0.Utilisons le fait que chacune des p− r dernieres colonnes de A est une combinaison lineaire

des r premieres colonnes de A. Comme la r + 1 eme colonne de A est une combinaison lineairedes r premieres colonnes de A, il existe des scalaires µ1,...,µr tels que

a1,r+1 = µ1a1,1 + µ2a1,2 + ... + µra1,r...

ar,r+1 = µ1ar,1 + µ2ar,2 + ... + µrar,r

On en deduit que :λ1a1,r+1+...+λrar,r+1 = λ1(µ1a1,1+µ2a1,2+...+µra1,r)+. . .+λr(µ1ar,1+µ2ar,2+...+µrar,r).

Orλ1(µ1a1,1 + µ2a1,2 + ... + µra1,r) + . . . + λr(µ1ar,1 + µ2ar,2 + ... + µrar,r)= µ1(λ1a1,1 + λ2a2,1 + ... + λrar,1) + ... + µr((λ1a1,r + λ2a2,r... + λrar,r) = 0.On trouve donc λ1a1,r+1+...+λrar,r+1 = 0. On fait la meme demonstration pour les colonnes

numeros r + 2,...,p. On trouve λ1a1,r+2 + ... + λrar,r+2 = 0,....,λ1a1,p + ... + λrar,p = 0. Doncλ1(a1,1, ..., a1,p) + ... + λr(ar,1, ..., ar,p) = (0, ..., 0) et ca implique que λ1 = ...λr = 0. Donc les

lignes de A′ sont lineairement independantes, donc A′ est inversible.Soit maintenant r′ > r et soit A′′ une matrice extraite de A, carree r′ × r′. Les lignes de A′′

sont extraites d’une famille de r′ lignes de A, en rayant certaines colonnes. Or toute famille der′ lignes de A est liee c’est a dire que l’une des r′ lignes de A est combinaison lineaire des r′ − 1autres. Donc ceci est encore vrai pour les lignes de A′′. Les lignes de A′′ ne sont pas lineairementindependantes, donc A′′ n’est pas de rang maximal, donc n’est pas inversible.Rappel Si A est une matrice carree inversible, alors pour tout second membre B le systemelineaire AX = B admet une solution unique X = A−1B.

Definition 7.1.13 Si A est une matrice carree inversible, alors on dit que le systeme lineaireAX = B est un systeme de Cramer.

Definition 7.1.14 Soit un systeme lineaire de matrice A ∈ Mn,p, de second membre B, noteAX = B. Soit r le rang de la matrice A. Choisissons une matrice r×r extraite de A et inversible.Les r lignes du systemes ainsi choisies sont appelees les equations principales et les r inconnuesainsi choisies sont appelees les inconnues principales.

Supposons qu’on a determine le rang r de la matrice A, qu’on a trouve r lignes independanteset r colonnes independantes. Appelons A′ la matrice inversible r × r ainsi obtenue. Supposons,pour simplifier, que L1,...,Lr soient des lignes lineairement independantes. Alors les autres lignesde la matrice A sont des combinaisons lineaires de ces r lignes. Si les seconds membres br+1,...,bn

sont des combinaisons lineaires des seconds membres b1,...,br avec les memes coefficients, alorson obtient un systeme equivalent en supprimant ces n − r equations. Sinon le systeme n’a pas

Page 64: Cours d'Algèbre L1 Math Info

64 CHAPITRE 7. RANG D’UNE MATRICE, RETOUR AUX SYSTEMES LINEAIRES.

de solution. Dans le cas ou on obtient un systeme equivalent en ne conservant que les equationsprincipales, alors on prend les p− r inconnues non principales comme parametres et on resoudun systeme de Cramer de matrice A′ pour calculer les inconnues principales en fonction desparametres.

Exemple : A =(

2 −4 10 −1 1

). Soit le systeme AX = B suivant :

{2x −4y +z = 1x −y +z = 2.

Le rang de A est 2. On voit que la matrice extraite de A en rayant la derniere colonne estune matrice inversible. On peut donc prendre x et y comme inconnues principales et z comme

parametre et on resoud le systeme de Cramer d’inconnues x et y :{

2x −4y = 1− zx −y = 2− z.

7.2 Systemes lineaires avec second membre. Espaces affines.

Soit A ∈Mn,p(K), soit B ∈ Kn et soit le systeme lineaire AX = B. Interpretons ce systemeen utilisant l’application lineaire de Kp dans Kn de matrice A dans les bases canoniques de Kp

et Kn :Φ : Kp → Kn

X → AX.

Proposition 7.2.1 (i) Le systeme AX = B admet au moins une solution si et seulement siB ∈ ImΦ.

(ii) Supposons que B ∈ ImΦ et choisissons X0 ∈ Kp tel que B = Φ(X0) = AX0. Alorsl’ensemble des solutions de AX = B est

S = {X0 + Y ; Y ∈ KerΦ}. On notera S = X0 + Ker Φ.

Preuve : On a (i) de maniere evidente. Montrons (ii). AX = B ⇔ AX = AX0 ⇔ A(X0−X) =0 ⇔ X −X0 ∈ KerΦ.

Definition 7.2.2 Si X0 ∈ Kp et si F est un sous-espace vectoriel de Kp de dimension p′, alorsl’ensemble {X0 + Y ; Y ∈ F}, qu’on peut noter X0 + F , s’appelle le sous-espace affine de Kp

de direction l’espace vectoriel F et passant par le point X0. On definit la dimension de l’espaceaffine X0 + F comme etant egale a la dimension de l’espace vectoriel F .Remarque : Tout sous-espace affine de direction l’espace vectoriel {0} est reduit a un point.

Un sous-espace affine de R2 (different de R2 lui-meme) est soit un point, soit une droite. Sic’est un point, sa direction est l’espace vectoriel {0}. Si c’est une droite, alors sa direction estla droite vectorielle associee, c’est a dire la droite qui lui est parallele et qui passe par le point(0, 0). Un sous-espace affine de R3 (different de R3 lui-meme) est soit un point, soit une droite,soit un plan. Les directions associees sont respectivement l’espace vectoriel {0}, ou une droitevectorielle, ou un plan vectoriel.

Par la proposition ci-dessus on a la discussion suivante, pour l’ensemble des solutions dusysteme lineaire AX = B. Soit l’ensemble des solutions est vide, soit le systeme admet au moinsune solution et alors l’ensemble des solutions est un sous-espace affine de Kp, dont la directionest l’espace vectoriel des solutions du systeme homogene associe AX = 0. Dans ce cas, si lesysteme AX = 0 n’admet que la solution nulle, l’espace affine des solutions est reduit a unpoint. Sinon, l’espace affine des solutions est de dimension 1, ou etc..ou p.

Definition 7.2.3 On appelle hyperplan d’un espace affine de dimension p tout sous-espace affinede dimension p− 1.

On peut interpreter chaque ligne du systme lineaire AX = B comme l’equation d’un hyper-plan affine de Kp. L’ensemble des solutions du systeme lineaire est l’intersection de n hyperplansaffines.