Algèbre - Synthèse

33
- Algèbre - Synthèse Gilles Goffard Etudiant en sciences de l’ingénieur Orientation ingénieur civil 28 décembre 2011

description

Synthèse du cours d'algèbre linéaire. Attention: Cette synthèse ne constitue pas un support de cours officiel.

Transcript of Algèbre - Synthèse

Page 1: Algèbre - Synthèse

- Algèbre -Synthèse

Gilles Goffard

Etudiant en sciences de l’ingénieurOrientation ingénieur civil

28 décembre 2011

Page 2: Algèbre - Synthèse

ii

IntroductionCe document a été créé pour les étudiants de 1er Bachelier Ingénieur Civil qui suivent le

cours d’Algèbre Linéaire. Il a été établi sur base du syllabus de Eric J.M. Delhez. Il ne constitueen aucune façon une référence unique ou obligatoire pour l’étude du cours d’algèbre linéaire,cependant il permet de regrouper des connaissances théoriques de base afin de pouvoir plusfacilement structurer la matière en vue d’une étude plus approfondie.

N’utilisez donc pas uniquement cette synthèse à des fins d’études, plus que jamais dans lecours d’algèbre mais de façon générale dans les études d’ingénieur civil, il est important de fairedes exercices et de savoir appliquer les connaissances.

De plus, il n’y a aucune obligation d’utilisation. Cette synthèse est créée uniquement à butconsultatif, gardez toujours à l’esprit le syllabus et les notes de cours.

Page 3: Algèbre - Synthèse

Table des matières

I Tôme 1 1

1 Calcul Matriciel 31.1 Généralités sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.1.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . 31.1.3 Matrices spéciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.1 Notion de relation linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.2 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.3 Forme échelonnée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.4 Forme réduite échelonnée . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.2.5 Forme normale échelonnée . . . . . . . . . . . . . . . . . . . . . . . . . . 61.2.6 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.3 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . 71.3.1 Méthode générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.3.2 Propriétés des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . 71.3.3 Déterminants spéciaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.4 Trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.5 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.5.1 Inverses à gauche et à droite . . . . . . . . . . . . . . . . . . . . . . . . . 81.5.2 Existence et unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.5.3 Déterminant de l’inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.5.4 Démonstration de la recherche de l’inverse . . . . . . . . . . . . . . . . . 91.5.5 Propriétés des inverses de matrices carrées . . . . . . . . . . . . . . . . . 10

2 Algèbre linéaire 112.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.1.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.1.3 Base et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.1.4 Base et composantes d’un vecteur . . . . . . . . . . . . . . . . . . . . . . 132.1.5 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.1.6 Méthodes de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.1.7 Inégalités classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.1.8 Lemme de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . 152.1.9 Opérations sur les sous-espaces vectoriels . . . . . . . . . . . . . . . . . . 16

2.2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.2.2 Représentation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . 172.2.3 Adjoint d’un opérateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

iii

Page 4: Algèbre - Synthèse

iv TABLE DES MATIÈRES

2.2.4 Noyau, image, rang d’une application linéaire . . . . . . . . . . . . . . . 182.2.5 Application inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.3 Systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.3.1 Conditions & résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3 Vecteurs propres - Valeurs propres 233.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.2 Recherche des valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3.2.1 Vérification des valeurs propres . . . . . . . . . . . . . . . . . . . . . . . 233.2.2 Recherche des vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . 243.2.3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3.3 Applications linéaires particulières . . . . . . . . . . . . . . . . . . . . . . . . . . 243.3.1 Application normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.3.2 Application normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.3.3 Hermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253.3.4 Anti-hermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253.3.5 Unitaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.4 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253.5 Diagonalisation d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3.5.1 Produit scalaire et changement de base . . . . . . . . . . . . . . . . . . . 273.5.2 Matrice normale et diagonalisation . . . . . . . . . . . . . . . . . . . . . 27

3.6 Formes quadratiques et hermitiennes . . . . . . . . . . . . . . . . . . . . . . . . 273.6.1 Critère de Sylvester . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283.6.2 Maximum d’une forme quadratique . . . . . . . . . . . . . . . . . . . . . 28

3.7 Décompositions spéciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

4 Introduction aux tenseurs cartésiens 29

Page 5: Algèbre - Synthèse

Première partie

Tôme 1

1

Page 6: Algèbre - Synthèse
Page 7: Algèbre - Synthèse

Chapitre 1

Calcul Matriciel

1.1 Généralités sur les matrices

1.1.1 Définition

Une matrice se définit par les éléments qui la constituent :1. Addition

(a) Associativité(b) Commutativité

2. Multiplication(a) Associativité

(A)m×n = aij

1.1.2 Opérations sur les matrices

Soient les matrices A et B définies comme suit :

A =

a11 a12 a13a21 a22 a23a31 a32 a33

B =

b11 b12 b13b21 b22 b23b31 b32 b33

Addition

A+B =

a11 + b11 a12 + b12 a13 + b13a21 + b21 a22 + b22 a23 + b23a31 + b31 a32 + b32 a33 + b33

Multiplication par un scalaire

λA =

λa11 λa12 λa13λa21 λa22 λa23λa31 λa32 λa33

Attention : La distribution du facteur λ s’effectue sur toutes les rangées. Lors du calcul dudéterminant, la linéarité du scalaire n’est donc pas respectée.

3

Page 8: Algèbre - Synthèse

4 CHAPITRE 1. CALCUL MATRICIEL

Multiplication matricielle

Attention : La multiplication matricielle n’est pas commutative. A ·B 6= B · A.

cij =n∑i=1

m∑j=1

aikbkj

A ·B =

a11b11 + a12b21 + a13b31 a11b12 + a12b22 + a13b32 a11b13 + a12b23 + a13b33a21b11 + a22b21 + a23b31 a21b12 + a22b22 + a23b32 a21b13 + a22b23 + a23b33a31b11 + a32b21 + a33b31 a31b12 + a32b22 + a33b32 a31b13 + a32b23 + a33b33

1.1.3 Matrices spéciales

A ∈ R A ∈ C

Matrices symétriques

Il y a 2 conditions pour qu’une matrice soitsymétrique :

A ∈ R

A = AT

Exemple :−1 3 −53 2 cos

(π5

)−5 cos

(π5

)4

Matrices hermitiennes

Il y a de nouveau 2 conditions pour qu’unematrice A soit hermitienne :

A ∈ C

A = A∗ = AT = AT

Exemple : −1 3 + i −53− i 2 −i−5 i 4

Matrices orthogonales

A ∈ R

AT = A−1 ⇔ AT · A = InUne matrice orthogonale est composée devecteurs mutuellement orthogonaux. Ceux-cipourraient former une base orthonormée(une fois les vecteurs mis à norme unitaire).

Matrices unitaires

A ∈ C

A∗ = A−1

AT = A−1 ⇔ AT · A = InLa matrice unitaire est une matrice orthogo-nale complexe.

Propriété principale : |det(A)| = 1

Matrices normales

Une matrice normale commute avec son ad-jointe. On a :

A∗A = AA∗

Les matrices hermitiennes (symétriques) etunitaires (orthogonales) possèdent cette pro-priété.

Page 9: Algèbre - Synthèse

1.2. OPÉRATIONS ÉLÉMENTAIRES 5

1.2 Opérations élémentaires

1.2.1 Notion de relation linéaire

Dépendance linéaire

Des rangées sont linéairement dépendantes si

n∑k=1

λkrk = 0

∀λk 6= 0 Remarquons que dans ce cas, il est en effet possible d’exprimer rn en fonction desautres λkr. D’où le terme de dépendance linéaire.

Indépendance linéaire

Des rangées sont linéairement indépendantes si la seule façon d’obtenir

n∑k=1

λkrk = 0

est de prendre tous les λk = 0.

1.2.2 Opérations élémentaires

1. Permutation de deux rangées

2. Multiplication d’une rangée par une constante non nulle

3. Addition aux éléments d’une rangée les éléments d’une autre rangée

Ces opérations ont la particularité de ne pas modifier la dépendance linéaire des rangées, etdonc les "particularités" de la matrice.

1.2.3 Forme échelonnée

Par une suite de transformations élémentaires, on peut amener une matrice à sa forme laplus simple.

1. Le premier élément non nul de chaque ligne est 1.

2. Le premiet 1 d’une ligne non nulle apparaît à droite du premier 1 de toute ligne situéeplus haut dans la matrice. ("Escalier")

3. Les lignes formées uniquement de 0 occupent les dernières lignes de la matrice.

On peut avoir une matrice du type1 ∗ ∗ ∗ ∗ ∗ ∗0 1 ∗ ∗ ∗ ∗ ∗0 0 0 1 ∗ ∗ ∗0 0 0 0 1 ∗ ∗0 0 0 0 0 0 0

Page 10: Algèbre - Synthèse

6 CHAPITRE 1. CALCUL MATRICIEL

1.2.4 Forme réduite échelonnée

La forme réduite échelonnée consiste à faire en sorte que chaque premier 1 sur les colonnesde la matrice soit le seul élément non nul de cette colonne. On arrive donc à une matrice detype :

1 ∗ 0 0 ∗ ∗ ∗0 0 1 0 ∗ ∗ ∗0 0 0 1 ∗ ∗ ∗0 0 0 0 0 0 00 0 0 0 0 0 0

1.2.5 Forme normale échelonnée

Cette dernière réduction consiste à intervertir des colonnes pour faire apparaitre plus clai-rement les dépendances linéaires qui agissent entre les colonnes. Ainsi, on aurait une matricedu type :

1 0 0 ∗ ∗ ∗ ∗0 1 0 0 ∗ ∗ ∗0 0 1 0 ∗ ∗ ∗0 0 0 0 0 0 00 0 0 0 0 0 0

Exemple : Soit la matrice réduite échelonnée

1 2 0 9 −140 0 1 −7 110 0 0 0 00 0 0 0 0

On a directement la matrice normale échelonnée suivante

1 0 2 9 −140 1 0 −7 110 0 0 0 00 0 0 0 0

Où les relations linéaires apparaissent :

c3 = 2c1c4 = 9c1 − 7c2c5 = −14c1 + 11c2

1.2.6 Rang d’une matrice

Le rang d’une matrice représente le nombre de colonnes linéairement indépendantesde cette matrice. On peut le calculer en échelonnant la matrice, ou bien par la méthodedu déterminant (qui consiste à chercher le plus grand déterminant non nul de la matrice,successivement en prenant les déterminant de chaque sous matrice de dimension (n−1)×(n−1)).

Une fois la matrice sous sa forme normale échelonnée, il suffit de regarder la dimensionde la partie identité de cette matrice.

ρ

(In B0 0

)= n

Page 11: Algèbre - Synthèse

1.3. DÉTERMINANT D’UNE MATRICE CARRÉE 7

1.3 Déterminant d’une matrice carrée

1.3.1 Méthode générale

Le déterminant d’une matrice carrée A est le nombre noté det(A), ou |A| et défini par la1ère loi des mineurs :

Le déterminant d’une matrice n × n est égal à la somme des produits des élémentsd’une rangée de la matrice par les cofacteurs correspodants.

On a :

detA =n∑k=1

(−1)k+1aikmik =n∑k=1

aik∆ik

Où mik est le déterminant de la matrice obtenue en supprimant la ligne i et la colonne j.

1.3.2 Propriétés des déterminants

1. Si A et B sont des matrices de même dimension,

det(AB) = detA detB

2. Transposée :detA = detAT

3. Complexes conjuguées, et hermitiennes

det A = detA∗ = detA

4. Si il existe une rangée nulle, le déterminant est nul :∣∣∣∣∣∣0 0 0a b cd e f

∣∣∣∣∣∣ = 0

∣∣∣∣∣∣0 a b0 c d0 e f

∣∣∣∣∣∣ = 0

5. Si on multiplie une matrice par un scalaire λ, alors, son déterminant est multiplié par λexposant la dimension de la matrice. On a donc :

det(λA) = λn detA

(En effet, si on applique le scalaire à la matrice, celui ci est distribué sur chaque rangée,il se retrouve donc dans chaque terme de la matrice.

6. Si on permute 2 lignes ou 2 colonnes de la matrice, le déterminant change de signe.Ainsi, il faut effectuer successivement des permutations de 2 rangées afin de permuterdes rangées non-adjacentes, et appliquer les changements de signe.

Exemple : ∣∣∣∣∣∣1 2 34 5 67 8 9

∣∣∣∣∣∣ = −

∣∣∣∣∣∣1 3 24 6 57 9 8

∣∣∣∣∣∣ =

∣∣∣∣∣∣3 1 26 4 59 7 8

∣∣∣∣∣∣ = −

∣∣∣∣∣∣3 2 16 5 49 8 7

∣∣∣∣∣∣

Page 12: Algèbre - Synthèse

8 CHAPITRE 1. CALCUL MATRICIEL

7. Si 2 rangées de la matrice sont égales, le déterminant est nul. Par la règle précédente, ona

det(A) = − det(A′)

Où A′ est la matrice A lorsqu’on a inversé les 2 rangées identiques, on a donc A = A′.

det(A) = 0

8. Le déterminant ne varie pas si à des rangées on ajoute des combinaisons linéaires d’autresrangées.

1.3.3 Déterminants spéciaux

Matrices diagonales & triangulaires

Les matrices diagonales et triangulaires possèdent un déterminant un peu spécial. En effet,on a les propriétés suivantes :∣∣∣∣∣∣

α 0 00 β 00 0 γ

∣∣∣∣∣∣ =

∣∣∣∣∣∣α ∗ ∗0 β ∗0 0 γ

∣∣∣∣∣∣ =

∣∣∣∣∣∣α 0 0∗ β 0∗ ∗ γ

∣∣∣∣∣∣ = αβγ

1.4 Trace

La trace se définit comme :

trace(A) =n∑i=1

aii

Exemple :

trace

1 4 00 5 60 0 3

= 1 + 5 + 3 = 9

1.5 Inverse d’une matrice

1.5.1 Inverses à gauche et à droite

Il est nécéssaire ici de définir 2 types de matrices inverses. Soit A, de dimension n×m,

– L’inverse à gauche A−1g A = In est de dimension m× n– L’inverse à droite AA−1d = Im est également de dimension m× n

1.5.2 Existence et unicité

Une matrice carrée A peut posséder à la fois une inverse à gauche et à droite. Si ellesexistent, elles sont forcément égales et de même ordre que A.

Page 13: Algèbre - Synthèse

1.5. INVERSE D’UNE MATRICE 9

1.5.3 Déterminant de l’inverse

Si A−1 existe, on peut définir son déterminant :

det(A−1) det(A) = det(I) = 1⇔ det(A−1) =1

det(A)

De cette façon, il est évident que si le déterminant de A est nul, son inverse ne peut pas exister.On définit ainsi la singularité d’une matrice. Une matrice dont le déterminant est nul est ditesingulière, dans le cas contraire, on parle donc de matrice non-singulière.

1.5.4 Démonstration de la recherche de l’inverse

Une matrice A carrée possède une inverse si et seulement si elle est non-singulière.Si det(A) 6= 0, on a :

A−1 =1

det(A)∆T

Où ∆ désigne la matrice des cofacteurs de A.

Rappel : Le cofacteur de l’élément aij est le déterminant de la sous-matriceobtenue en supprimant la ligne i et la colonne j.

Démonstration

Formons l’élément aij du produit ∆TA. On a :

(∆TA)ij =∑k

(∆T)ik

(A)kj =∑k

∆kjakj

Si i = j, On obtient :(∆TA)jj =

∑k

∆kjakj = det(A)

Qui est l’expression du déterminant.

Si i 6= j, considérons la matrice A′ = A dont on remplace la ie colonne par la je de A.Cette matrice possède donc les colonnes i et j identiques. Dès lors, il est évident par lesropriétés des déterminants que son déterminant est nul.

On a donc :0 = det(A′) =

∑k

∆′kia′ki =

∑k

∆kiakj

Et on se trouve dans la situation de la seconde loi des mineurs.

Donc, la relation A∆T = det(A)I est correcte.

Seconde loi des mineurs

La somme des produits des éléments d’une rangée et des cofacteurs correspondantsd’une rangée parallèle est nulle quelles que soient les rangées considérées.∑

k

∆kiakj = 0

Page 14: Algèbre - Synthèse

10 CHAPITRE 1. CALCUL MATRICIEL

1.5.5 Propriétés des inverses de matrices carrées

1. Applications successives(A−1)−1 = A

2. Linéarité(λA)−1 =

1

λA−1 ∀λ 6= 0

3. Inverse de transposée(AT )−1 = (A−1)T

4. Inverse de conjuguée (A)−1

= A−1

5. Inverse d’ajointe(A∗)−1 =

(A−1

)∗6. Inverse d’un produit de matrices

(ABC . . . G)−1 = G−1 . . . C−1B−1A−1

Page 15: Algèbre - Synthèse

Chapitre 2

Algèbre linéaire

2.1 Espaces vectoriels

2.1.1 Définition

Un espace vectoriel est toute espèce mathématique qui jouit des propriétés suivantes :

1. On définit une opération d’addition entre ces vecteurs tel que :

∀a,b ∈ E, a + b ∈ E

Propriétés de l’addition :

(a) Commutativitéa + b = b + a

(b) Associativitéa + (b + c) = (a + b) + c

2. On définit une opération de multiplication par un scalaire jouissant de la distributé et del’associativité.

∀a ∈ E,∀λ ∈ C, λa ∈ E

Propriétés de la multiplication :

(a) Distributivitéλ(a + b) = λa + λb

(λ+ µ)a = λa + µa

(b) Associativitéλ(µa) = (λµ)a = λµa

3. Il existe un neutre tel quea + 0 = a

4. Admet un opposéa + (−a) = 0

5. Admet un neutre pour la multiplication.

1a = a

11

Page 16: Algèbre - Synthèse

12 CHAPITRE 2. ALGÈBRE LINÉAIRE

2.1.2 Sous-espace vectoriel

Si E est un espace vectoriel, on peut définir E ′, une partie non-vide de E. On dit alors queE ′ ⊂ E est un sous-espace vectoriel de E. Le sous-espace doit vérifier les conditions suivantes :

1. E ′ est non-vide.2. Stabilité des opérations :

a,b ∈ E ′, λ, µ ∈ C⇒ λa + µb ∈ E ′

Ces conditions sont nécéssaires et suffisantes car l’enveloppe linéaire constitue un sous-espacevectoriel E ′ de E. Les vecteurs a1, a2, a3, . . . , an sont générateurs de E ′. En effet, tout vecteurx ∈ E s’écrit

x = λ1a1 + λ2a2 + λ3a3, . . . , λnan

2.1.3 Base et dimension

On parle de famille liée lorsque des vecteurs a1, a2, a3, . . . , an sont linéairement dépen-dants. Au contraire, si les vecteurs a1, a2, a3, . . . , an sont linéairement indépendants, on parlede famille libre. On trouve dès lors les résultats :

1. Des vecteurs parmi lesquels se trouvent 0 sont linéairement dépendants.2. Si au moins un vecteur d’un ensemble est linéairement dépendant, tous les vecteurs de

cet ensemble sont linéairement dépendants.3. Tout sous-ensemble d’un ensemble de vecteurs linéairement indépendants ne contient lui

même que des vecteurs linéairement indépendants.4. Parmi les combinaisons linéaires de p vecteurs linéairement indépendants, on ne peut

trouver au plus que p vecteurs linéairement indépendants.

Base

Les vecteurs qui génèrent E ne sont pas forcément linéairement indépendants. Si m d’entreeux le sont, et qu’il y a n générateurs, alors, les n −m autres vecteurs peuvent être expriméspar des combinaisons linéaires des m premiers. Ceux ci forment une base.

Une base est à la fois libre et génératrice de E. Les vecteurs {e1, e2, e3, . . . , en} sontappellés vecteurs de base. De plus, dans un espace de dimension finie, toutes les basespossèdent le même nombre d’éléments. Elles ne sont alors que plusieurs expressions différentesdes mêmes relations.

Dimension

Il est donc légitime de définir la dimension dimE d’un espace E de dimension finie commeétant le nombre d’éléments d’une base quelconque de E.

dimE représente donc le nombre minimum de vecteurs générateurs de E linéairementindépendants.

De plus, tout sous-espace E ′ ⊂ E est lui-même de dimension finie si E est de dimen-sion finie. On a donc :

dimE ′ ≤ dimE

Page 17: Algèbre - Synthèse

2.1. ESPACES VECTORIELS 13

2.1.4 Base et composantes d’un vecteur

Une base de E est une famille libre et génératrice de E. Dès lors, si x est un vecteur arbitrairede E, x peut être exprimé comme une combinaison linéaire des vecteurs de base :

x = x1e1 + x2e2 + x3e3 + . . .+ xnxn =n∑i=1

xiei

On appelle les coefficients xi de la combinaison linéaire les composantes du vecteur x dansla base des ei.

x est lui-même indépendant de la base. Seules les composantes du vecteur en dépendent.

Base incomplète

Remarquons que si une base E (dimE = n) est décrite par m < n vecteurs linéairementindépendants, la base est dite incomplète il est toujours possible de compléter celle-ci avec lesn−m vecteurs manquants.

2.1.5 Produit scalaire

Le produit scalaire, pour être appellé ainsi, doit vérifier 3 propriétés :

1. Le produit scalaire est une forme hermitienne

(a|b) = (b|a)

2. Le produit scalaire est une forme sesquilinéaire(p∑

k=1

λkak|q∑l=1

µbl

)=

p∑k=1

q∑l=1

λkµl(ak|bl)

3. Le produit scalaire est une forme définie positive

(a|a) ≥ 0

L’égalité ayant lieu si a = 0.

Espace euclidien

Espace vectoriel de dimension finie muni d’un produit scalaire.

Orthogonalité

On dit que deux vecteurs sont orthogonaux si leur produit scalaire est nul.

Norme euclidienne

La norme euclidienne d’un vecteur a est le nombre positif donné par :

‖a‖ =√

(a|a)

On parle de vecteur unitaire lorsque ‖a‖ = 1.

Page 18: Algèbre - Synthèse

14 CHAPITRE 2. ALGÈBRE LINÉAIRE

2.1.6 Méthodes de calcul

Cas général

Dans un espace E, le produit scalaire de 2 vecteurs est déterminé par les produits scalairesdes vecteurs de base de E. Considérons la base e′1, e′2, e′3, . . . , e′n de E. On peut fixer les nombres

gij = (e′j|e′i)

(Remarquons que ces nombres peuvent former une matrice de dimension n× n.

Dans la base e′1, e′2, e′3, . . . , e

′n, on peut écrire 2 vecteurs quelconques a, et b :

a =n∑i=1

a′ie′i

et

b =n∑j=1

b′je′j

Dès lors, le produit scalaire de ces 2 vecteurs vaut :

(a|b) =

(n∑i=1

a′ie′i|

n∑j=1

b′je′j

)=

n∑i=1

n∑j=1

a′ib′j (ei|ej) =

n∑i=1

n∑j=1

a′igjib′j =

n∑i=1

n∑j=1

b′jgjia′i = b′∗Ga′

Vu l’expression du produit scalaire, la norme euclidienne est donnée par :

‖a‖ =√

a|a =

√√√√ n∑i=1

n∑j=1

a′igjia′j =

√√√√ n∑i=1

n∑j=1

a′jgjia′i =√a′∗Ga′

Cas d’une base orthonormée

Dans le cas d’une base orthonormée, on définit le delta de Kronecker :

gji = gij = (ei|ej) = δij =

{1 si i = j0 si i 6= j

D’où, G devient I. Dans une base orthonormée, l’expression du produit scalaire se simplifiegrandement car on ne tient pas compte du facteur gji. L’expression du produit scalaire devient :

(a|b) =n∑i=1

aibi = b∗a

‖a‖ =

√√√√ n∑i=1

|ai|2 =√a∗a

2.1.7 Inégalités classiques

Inégalité de Schwarz

|(a|b)| ≤ ‖a‖‖b‖(Cette inégalité est vérifiée en géométrie |a · b| = ‖a‖‖b‖| cos(θ)| ≤ ‖a‖‖b‖)

Page 19: Algèbre - Synthèse

2.1. ESPACES VECTORIELS 15

Inégalité triangulaire

‖a + b‖ ≤ ‖a‖+ ‖b‖

Egalité du parallélogramme

‖a + b‖2 + ‖a− b‖2 = 2(‖a‖2 + ‖b‖2)

2.1.8 Lemme de Gram-Schmidt

Cette section permet d’orthonormer des vecteurs linéairement indépendants. Ceci vise àfaciliter les opérations sur les vecteurs (on l’a vu dans la section précédente, le produit scalaireest grandement simplifié par le fait de travailler dans une base orthonotmée).

Si des vecteurs x1,x2,x3, . . . ,xk sont linéairement indépendants, les vecteursz1, z2, z3, . . . , zk formant une base orthonormée du sous-espace vectoriel sont ob-tenus par :

z1 =x1

‖x1‖

z2 =x2 − (x2|z1)z1‖x2 − (x2|z1)z1‖

...

zk =xk −

∑k−1i=1 (xk|zi)zi

‖xk −∑k−1

i=1 (xk|zi)zi‖

Démonstration

Pour z1, il suffit de normer le vecteur x1. Le défi ensuite est d’ajuster les vecteurs zk pourêtre successivement orthogonaux entre eux. Le "défi" est donc de trouver un paramètre α telque :

z′2 = x2 + αx1

avec z′2 ⊥ z1.Vu la condition d’orthogonalité, et vu la définition du produit scalaire, on a :

0 = (z′2|z1) = (x2 + αz1|z1) = (x2|z1) + α(z1|z1)

Or, vu que z1 est unitaire,(z1|z1) = 1⇔ α = −(x2|z1)

Et donc, on obtient finalement que :

z′2 = x2 − (x2|z1)x1

Qu’on peut normer simplement en prenant

z2 =x2 − (x2|z1)x1

‖x2 − (x2|z1)x1‖

Page 20: Algèbre - Synthèse

16 CHAPITRE 2. ALGÈBRE LINÉAIRE

En procédant successivement on obtient finalement le résultat général

zk =xk −

∑k−1i=1 (xk|zi)zi

‖xk −∑k−1

i=1 (xk|zi)zi‖

Il est donc plus facile de refaire le raisonnement du théorème que d’étudier par coeur le résultat.

2.1.9 Opérations sur les sous-espaces vectoriels

Si on désigne par E1 et E2 des sous-espaces d’un espace vectoriel E de dimension finie, alorson peut introduire des opérations sur E1 et E2 permettant de définir de nouveaux sous-espacesvectoriels.

1. Intersection de E1 et E2 :

E1 ∩ E2 = {x : x ∈ E1 ou x ∈ E2}

L’intersection constitue un sous-espace vectoriel de E.

2. Union de E1 et E2 :E1 ∪ E2 = {x : x ∈ E1 et x ∈ E2}

L’union, par contre, ne constitue PAS un sous-espace vectoriel de E.

3. La somme de E1 et E2 :

E1 + E2 = {x1 + x2 : x ∈ E1 et x ∈ E2}

Quels que soient les sous-espaces vectoriels E1 et E2 d’un espace E de dimensionfinie, on a toujours :

dim(E1 + E2) + dim(E1 ∩ E2) = dimE1 + dimE2

2.2 Applications linéaires

2.2.1 Définition

Une application linéaire A est une loi qui, à tout vecteur x ∈ E associe un vecteur y telque :

y = A(x)

Linéarité

Pour tous les vecteurs a et b, de E, et tous scalaires λ, µ ∈ C,

(λa + µb) = λA(a) + µA(b)

On dit que A agit sur x et que y est son image.

Page 21: Algèbre - Synthèse

2.2. APPLICATIONS LINÉAIRES 17

Propriétés

1. Distributivité externe(A+ B)(x) = A(x) + B(x)

2. Associativité(λA)(x) = λA(x)

3. NulO(x) = 0

4. IdentitéI(x) = x

5. Composition(A ◦ B)(x) = A(B(x))

6. EgalitéA(x) = B(x)⇔ A = B

Les 4 premières propriétés rendent compte du fait que les applications linéaires forment elles-même un espace vectoriel linéaire. On peut également définir, comme pour les matrices, lesopérateurs linéaires à gauche ou à droite. On a donc :

A−1g A = I et AA−1g = I

Certaines applications possèdent une inverse.

A−1A = I

2.2.2 Représentation matricielle

Une application linéaire A(x) = y avec x ∈ E et y ∈ F est indépendante de tout choix debase. On peut introduire, cependant, des bases e1, e2, e3, . . . , en dans E, et f1, f2, f3, . . . , fn dansF . Dès lors,

y =m∑i=1

yifi = A

(n∑j=1

xjej

)=

n∑j=1

xjA(ej)

L’image de chaque vecteur de base ej par A étant un vecteur de F , on peut déterminer sescomposantes dans l’espace F selon

A(ej) =m∑i=1

aijfi

D’où on a :

y =n∑j=1

xj

m∑i=1

aijfi

Et donc, l’application est entièrement définie par les éléments aij qui sont appellés les compo-santes de l’opérateur linéaire A par rapport aux bases des ej et des fi. D’où la possibilitéd’écrire une application linéaire sous forme de matrice A. On a, dès lors,

A =

y1y2...ym

=

a11 a12 . . . a1na21 a22 . . . a2n...

... . . . ...am1 am2 . . . amn

x1x2...xn

Ce qui est encore plus pratique, c’est que les applications linéaire jouissent des mêmes opérationsque les matrices.

Page 22: Algèbre - Synthèse

18 CHAPITRE 2. ALGÈBRE LINÉAIRE

2.2.3 Adjoint d’un opérateur

Théorème de transfert

On définit l’application adjointe de A comme l’application linéaire A∗ de F dans E telleque ∀x ∈ E,∀y ∈ F ,

(A(x)|y) = (x|A∗(y))

Ceci permet de "transférer" l’opération du produit scalaire d’un espace à l’autre. De plus,

(A∗)∗ = A

Et(A ◦ B)∗ = B∗ ◦ A∗

A est normal ⇔ A ◦A∗ = A∗ ◦ AA est hermitien ⇔ A = A∗

A est anti-hermitien ⇔ A = −A∗A est unitaire ⇔ A ◦A∗ = A∗ ◦ A = I

2.2.4 Noyau, image, rang d’une application linéaire

Noyau

Le noyau est défini comme tous les vecteurs x de E qui, une fois A appliqué, renvoient 0.On a donc :

kerA = {x ∈ E : A(x) = 0}Il suffit donc de résoudre le système

a11 a12 . . . a1na21 a22 . . . a2n...

... . . . ...am1 am2 . . . amn

x1x2...xn

=

00...0

Notons que le noyau d’une application linéaire est un sous-espace vectoriel de E car si x1 et x2

appartiennent au noyau,

A(λx1 + µx2) = λA(x1) + µA(x2) = 0

Image

im A = {A(x) : x ∈ E}Il s’agit encore d’un espace vectoriel. Car si y1 et y2 appartiennent à im A, toutes leurs com-binaisons linéaires aussi.

λy1 + µy2 = λA(x1) + µA(x2) = A(λx1 + µx2)

Théorème du rang

Si A est une application linéaire définie sur un espace E, alors

dimE = dim kerA+ dim im A = dim kerA+ ρ(A)

On a donc que la dimension de l’espace E égale la somme des dimensions des bases respective-ment de l’image de A, et du noyau de cette application.

Page 23: Algèbre - Synthèse

2.3. SYSTÈMES D’ÉQUATIONS LINÉAIRES 19

2.2.5 Application inverse

Inverse à gauche

On peut définir une application linéaire inverse à gauche, telle que

(A−1g ◦ A)(x) = x

Si, et seulement si,ρ(A) = dimE

Et donc si |A| 6= 0 (ce qui ramène aux conditions matricielles).

En effet, si ρ(A) = dim im A < dimE, on "créerait de l’information", puisque la di-mension de l’image de A est inférieure à dimE, une fois qu’on réappliquerait A−1g , on nepourrait retrouver une dimension égale à l’espace de départ E.

Inverse à droite

On peut définir une application linéaire inverse à droite A−1d de l’application linéaireA : E → F telle que

(A ◦ A−1d )(y) = A(A−1d (y)) = y

Si et seulement siρ(A) = dimF

Inverse

La condition nécéssaire et suffisante pour définir A−1 est que

ρ(A) = dimF = dimE

On dit qu’il s’agit d’une application bijective (injective & surjective).

2.3 Systèmes d’équations linéairesSoit le système suivant :

a11x1 + a12x2 + a13x3 + . . .+ a1nxn = b1a21x1 + a22x2 + a23x3 + . . .+ a2nxn = b2a31x1 + a32x2 + a33x3 + . . .+ a3nxn = b3

......

am1x1 + am2x2 + am3x3 + . . .+ amnxn = bm

Ce système peut être représenté sous forme matricielle par :

Ax = b

ma11 a12 a13 . . . a1na21 a22 a23 . . . a2n...

...... . . . ...

am1 am2 am3 . . . amn

x1x2...xn

=

b1b2...bm

Où x est la matrice des inconnues.

Page 24: Algèbre - Synthèse

20 CHAPITRE 2. ALGÈBRE LINÉAIRE

2.3.1 Conditions & résolution

La condition de compatibilité d’un système d’équation est :

ρ([A,b]) = ρ(A)

Ceci peut-être démontré par l’approche de l’algèbre linéaire pour le système.

Pour résoudre le système, on utilise la méthode de Gauss-Jordan, qui consiste àconstruire la forme normale échelonnée de [A,b]. Lors de la permutation des colonnes pourpasser à la forme normale échelonnée, les inconnues doivent également être permutées. Dèslors, on a : (avec ρ(A) = p)

1 0 . . . 0 a′1,p+1 . . . a′1n0 1 . . . 0 a′2,p+1 . . . a′2n...

... . . . ...... . . . ...

0 0 . . . 1 a′p,p+1 . . . a′pn0 0 . . . 0 0 . . . 0...

... . . . ...... . . . ...

0 0 . . . 0 0 . . . 0

x1x2...xpxp+1...xn

=

b′1b′2...b′pb′p+1...b′m

Si le problème possède une solution unique, càd si A se réduit à1 0 0 b1

0 1 0 b20 0 1 b3

On a alors une solution unique. Au contraire, si p = ρ(A) < n, le système est indéterminé, eton a :

x1...xpxp+1

xp+2...xn

=

b′1...b′p00...0

+ λ1

−a′1,p+1...

−a′p,p+1

10...0

+ λ2

−a′1,p+2...

−a′p,p+2

01...0

+ . . .+ λn−p

−a′1,n...

−a′p,n00...1

Cas du système homogène

Considérons Ax = 0.

1. Si p = ρ(A) = n, ça veut dire qu’on obtient la matrice [Ib] après réduction sous la formenormale échélonnée. Le vecteur nul x = 0 est donc la seule solution possible.

2. Si ρ(A) < n, on obtient :

x1...xpxp+1

xp+2...xn

= λ1

−a′1,p+1...

−a′p,p+1

10...0

+ λ2

−a′1,p+2...

−a′p,p+2

01...0

+ . . .+ λn−p

−a′1,n...

−a′p,n00...1

Page 25: Algèbre - Synthèse

2.3. SYSTÈMES D’ÉQUATIONS LINÉAIRES 21

Ce qui, au final, n’est qu’un cas particulier de la méthode générale en prenant b = 0.

Conditions sur les systèmes homogènes

Pour qu’un système d’équations linéaire homogène possède des solutions non tri-viales, il est nécéssaire et suffisant que

ρ(A) < n

Avec n le nombre d’inconnues.

Page 26: Algèbre - Synthèse

22 CHAPITRE 2. ALGÈBRE LINÉAIRE

Page 27: Algèbre - Synthèse

Chapitre 3

Vecteurs propres - Valeurs propres

3.1 Définitions

Soit une application linéaire A, on définit

A(x) = λx

Où les x sont les vecteurs propres de l’application A et les λ sont les valeurs propres.

On peut également définir :– Le rayon spectral : Plus grand module des valeurs propres.– Le spectre : L’ensemble λ des valeurs propres.– L’équation caractéristique : Ax = λx.

3.2 Recherche des valeurs propres

Soit l’équation caractéristique :Ax = λx

⇔ (A− λIn)x = 0

Qui amène la solution triviale de x = 0. Cette solution ne nous intéresse pas, par contre, onpeut s’intéresser à la solution (A− In) = 0n. Ce qui est utile pour calculer les valeurs propres.On a donc le résultat suivant :

λ est une valeur propre de A si|A− λIn| = 0

3.2.1 Vérification des valeurs propres

n∏i=1

λi = det(A)

n∑i=1

λi = trace(A)

23

Page 28: Algèbre - Synthèse

24 CHAPITRE 3. VECTEURS PROPRES - VALEURS PROPRES

3.2.2 Recherche des vecteurs propres

Une fois les valeurs propres λ déterminées, on a :

(A− λIn)x = 0

Ce qui amène une système d’équations linéaires à résoudre.

3.2.3 Propriétés

1. Les vecteurs propres sont toujours linéairement indépendants (relatifs à des λ différents).

2. Indépendance linéaire des xk :

(a) λ1 (multiplicité 3) → Il y a au maximum 3 vecteurs propres indépendants.

(b) λ2 (multiplicité 2) → Il y a au maximum 2 vecteurs propres indépendants.

(c) λ3 (multiplicité 1) → Il y a seulement 1 vecteur propre indépendant.

Le nombre total de vecteurs propres xk linéairement indépendants est ≤ n. (n = dim(A))

3.3 Applications linéaires particulières

3.3.1 Application normale

A∗A = AA∗

Soit Ax = λx⇔ (A− λIn)x = 0.

A(x) = λx⇔ A∗(x) = λx

Donc, si x est un vecteur propres de A, alors, x est aussi un vecteur propre de A∗ (relatif à λ).

3.3.2 Application normale

Démonstration

Soient xi et xj tels que λi 6= λj,A(xi) = λixi

etA(xj) = λjxj

(xi|xj) = (A(xi)|xj)= (xi|A∗(xj))=

(xi|λjxj

)= −λj (xi|xj)

Et donc, les vecteurs propres sont toujours mutuellement orthogonaux.

Page 29: Algèbre - Synthèse

3.4. CHANGEMENT DE BASE 25

3.3.3 Hermitienne

On a : Ax = λx⇔ A∗x = λx Or, si A est hermitienne, A∗ = A et

Ax = λx

etAx = λx

Et donc, une matrice A hermitienne (ou symétrique) possède n vecteurs propres mutuellementorthogonaux, et

λ = λ ∈ R

3.3.4 Anti-hermitienne

Par le même raisonnement, on peut déterminer que A possède n vecteurs propres mutuel-lement orthogonaux, et des λk ∈ = imaginaires purs.

3.3.5 Unitaire

A = A−1

Toute matrice unitaire est par définition normale, et donc les vecteurs propres des applicationsunitaires sont mutuellement orthogonaux par la première propriété. Prenons :

x∗x = x∗A∗Ax = λλx∗x

En effet,(Ax)∗ = (λx)∗ = λx∗

Donc, une application unitaire jouit de la propriété suivante :

λλ = |λ|2 = 1

3.4 Changement de baseSoit x′ un vecteur dans une base, si on connait les coordonnées d’un point dans 2 bases

différentes, on peut exprimer ce vecteur dans l’autre base par :

x = Sx′

avec S la matrice de transformation. On peut rapprocher ce concept avec celui de changementde variable en analyse, ce qui revient à exprimer une variable selon deux systèmes de référencesdifférents. Ici le concept est le même, exprimer 2 vecteurs dans 2 bases différentes. Comme enanalyse, on observe qu’une matrice de transformation est nécéssaire et décrit à elle seule lechangement complet d’une base à une autre.

Soit y = Ax, et y′ = A′x′. On a :{x = Sx′

y = Sy′⇔ Sy′ = ASx′

Où on peut exprimer :

Page 30: Algèbre - Synthèse

26 CHAPITRE 3. VECTEURS PROPRES - VALEURS PROPRES

y = Sy′ ⇔ Ax = Sy′ ⇔ ASx′ = Sy′

Et donc :y′ = S−1AS

On appelle cette transformation transformation de similitude. Ces transformations nemodifient pas les vecteurs, mais uniquement la façon de les décrire dans des bases différentes.La nouvelle matrice obtenue est appellée la transformée. Deux matrices A et B sont ditessemblables si il existe une matrice inversible S telle que B = S−1AS.

De plus, toutes les propriétés qui s’appliquent à l’application linéaire représentée par As’appliquent à S−1AS. La transformée possède également quelques propriétés :

1. La transformée de la matrice identité I est la matrice identité :

S−1IS = S−1S = I

2. La transformée de A par une matrice qui commute avec A est A.3. La transformée de l’inverse de A est l’inverse de la transformée.

S−1A−1S = (S−1AS)−1

4. La transformation ne change pas le déterminant de A.

det(S−1AS) = detS−1 detA detS =1

detSdetA detS = detA

5. La transformation ne change pas la trace.6. Si B est la transformée de A par S, alors A est la transformée de B par S−1.

B = S−1AS

etA = (S−1)−1BS−1

7. Les transformations successives de A par des matrices S1, S2, . . . , Sp sont équivalentes àune transformation unique.

3.5 Diagonalisation d’une matriceEn transformant les matrices, on veut exprimer celles-ci dans la base qui leur donne l’appa-

rence la plus simple. Le but de la diagonalisation est de déterminer la matrice de transformationnécéssaire pour transformer la matrice dans une base qui la rend diagonale. On veut donc que

S−1AS = diag(λ1, λ2, . . . , λn)

La condition nécéssaire et suffisante pour qu’une matrice A soit semblable à unematrice diagonale est qu’elle possède n vecteurs propres linéairement indépendants.

De plus, on aAS = Sdiag(λ1, λ2, . . . , λn)

D’où, on peut montrer que les n vecteurs propres relatifs aux λi sont en réalité les colonnes quiconstituent la matrice S. On peut en effet noter la relation précédente :

Aci = λici

Où ci est bien le vecteur propre relatif à λi.

Page 31: Algèbre - Synthèse

3.6. FORMES QUADRATIQUES ET HERMITIENNES 27

3.5.1 Produit scalaire et changement de base

Le produit scalaire de deux vecteurs est indépendant de la base dans laquelle on le calcule.Il en va de même de la norme, définie par celui-ci.

3.5.2 Matrice normale et diagonalisation

Une matrice A d’ordre n est normale si et seulement si elle possède n vecteurs propresmutuellement orthogonaux. Il en va de même de l’application linéaire A représentée par A.

3.6 Formes quadratiques et hermitiennes

Définition

Une forme quadratique Q est une application qui à tout vecteur réel x fait correspondre lescalaire :

Q(x) = (A(x)|x)

On peut également exprimer cette forme quadratique en matriciel :

Q(x) = xTAx

Remarquons que seule la partie symétrique de A contribue au résultat. Si on décompose A,

A =1

2

(A+ AT

)+

1

2

(A− AT

)Et, vu que Q(x) est un scalaire,

xTAx =(xTAx

)T= xTATx = xT

A+ AT

2x

Et donc, toute forme quadratique formée depuis une matrice anti-symétrique est nulle.

Forme hermitienne

On appelle Forme hermitienne une forme

H(x) = (A(x)|x)

Où x est un vecteur d’un espace vectoriel sur C et A est une application linéaire hermitiennedéfinie sur cet espace vectoriel. On peut écrire cette forme hermitienne en matriciel :

H(x) = x∗Ax

Positivité

Une forme quadratique ou hermitienne est semi-définie positive si

(A(x)|x) ≥ 0

Une forme est définie positive si et seulement si toutes ses valeurs propres λi ≥ 0. Idem pourles formes définies négatives.

Page 32: Algèbre - Synthèse

28 CHAPITRE 3. VECTEURS PROPRES - VALEURS PROPRES

3.6.1 Critère de Sylvester

Une matrice A symétrique ou hermitienne d’ordre n est définie positive si et seulement sises mineurs diagonaux principaux d’ordre k = 1, 2, . . . , n sont strictement positifs.

3.6.2 Maximum d’une forme quadratique

Les extrémas d’une forme quadratique sont en fait déterminés par les valeurs propres lesplus basses/grandes. On peut démontrer que :

λm ≤ Q(x) ≤ λM

3.7 Décompositions spécialesOn montre que toute matrice A d’ordre n possédant exactement n vecteurs propres linéai-

rement indépendants peut être diagonalisée par une transformation de similitude, soit

S−1AS = diag(λ1, λ2, λ3, . . . , λn)

On peut donc inversément écrire une matrice sous la forme

A = SDS−1

Notons que dans le cas particulier où A est normale, les vecteurs propres peuvent être choisisorthonormés, et ainsi S est unitaire ⇔ S∗S = I.

Page 33: Algèbre - Synthèse

Chapitre 4

Introduction aux tenseurs cartésiens

Lors d’un changement de base, il existe des éléments mathématiques qui ne changent pas :Les scalaires. Ils ne dépendent pas de la base, il s’agit donc de tenseurs d’ordre 0.

Les vecteurs dépendent linéairement de la base. Il s’agit donc de tenseurs d’ordre 1.

Les ensembles de n2 éléments qui se transforment selon A′ = S−1AS sont des tenseursd’ordre 2 (Matrices).

On a donc les éléments suivants

Ordre Element0 Scalaire1 Vecteur2 Matrice

29