1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf ·...

86
1 Cours, master 2ième année, 1er semestre. Algèbre générale. Jean-Robert Belliard année 2006–07.

Transcript of 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf ·...

Page 1: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

1

Cours, master 2ième année, 1er semestre.

Algèbre générale.

Jean-Robert Belliard année 2006–07.

Page 2: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

2

Page 3: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

Table des matières

1 Factorisation des applications. 51.1 Rappel de vocabulaire ensembliste. . . . . . . . . . . . . . . . . . . . 5

1.1.1 Relation d’équivalence. . . . . . . . . . . . . . . . . . . . . . . 51.1.2 Applications et principe de factorisation ensembliste. . . . . . 6

1.2 Factorisation et suites exactes de modules. . . . . . . . . . . . . . . . 81.2.1 Principe de factorisation. . . . . . . . . . . . . . . . . . . . . . 81.2.2 Suites exactes de modules. . . . . . . . . . . . . . . . . . . . . 91.2.3 Problème : le lemme du serpent. . . . . . . . . . . . . . . . . . 12

2 Algèbre linéaire basique. 132.1 fondement théorique : la dimension. . . . . . . . . . . . . . . . . . . . 13

2.1.1 Espaces, sous-espaces et applications linéaires. . . . . . . . . . 132.1.2 Familles de vecteurs d’un espace vectoriel. . . . . . . . . . . . 142.1.3 Dimension des espaces vectoriels de type fini. . . . . . . . . . 16

2.2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.2.1 Prérequis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.2.2 Représentation matricielle des morphismes. . . . . . . . . . . . 192.2.3 Changement de bases. . . . . . . . . . . . . . . . . . . . . . . 19

2.3 Opérations élémentaires sur les matrices. . . . . . . . . . . . . . . . . 21

3 Déterminant. 253.1 Formes multilinéaires alternées. . . . . . . . . . . . . . . . . . . . . . 253.2 La forme déterminant. . . . . . . . . . . . . . . . . . . . . . . . . . . 273.3 Déterminant d’un endomorphisme. . . . . . . . . . . . . . . . . . . . 293.4 Déterminant d’une matrice carré. . . . . . . . . . . . . . . . . . . . . 303.5 Techniques de calculs. . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3.5.1 Matrices triangulaires par blocs. . . . . . . . . . . . . . . . . . 303.5.2 Pivot de Gauß. . . . . . . . . . . . . . . . . . . . . . . . . . . 313.5.3 Développement par rapport à une ligne ou une colonne. . . . . 31

3.6 Applications classiques. . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4 Dualité. 334.1 Dual d’un espace vectoriel. . . . . . . . . . . . . . . . . . . . . . . . . 334.2 bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344.3 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354.4 Problème : codimension des noyaux . . . . . . . . . . . . . . . . . . . 38

3

Page 4: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

4

4.5 Transposée d’une application linéaire. . . . . . . . . . . . . . . . . . . 394.6 Quelques calculs matriciels. . . . . . . . . . . . . . . . . . . . . . . . 39

4.6.1 Matrice transposée . . . . . . . . . . . . . . . . . . . . . . . . 394.6.2 Une utilisation du pivot de Gauß. . . . . . . . . . . . . . . . . 40

4.7 Dualité dans les espaces euclidiens. . . . . . . . . . . . . . . . . . . . 41

5 Formes quadratiques et hermitiennes. 435.1 Généralités sur les formes sesquilinéaires. . . . . . . . . . . . . . . . . 435.2 Sous-espaces orthogonaux, isotropes. . . . . . . . . . . . . . . . . . . 465.3 Groupes unitaires, orthogonaux, symplectiques. . . . . . . . . . . . . 48

5.3.1 Définitions générales. . . . . . . . . . . . . . . . . . . . . . . . 485.3.2 symétries orthogonales. . . . . . . . . . . . . . . . . . . . . . . 495.3.3 Générateurs de O(f) et SO(f). . . . . . . . . . . . . . . . . . 50

5.4 Classification des formes sesquilinéaires. . . . . . . . . . . . . . . . . . 525.5 Théorème de Witt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

5.5.1 Plan hyperbolique. . . . . . . . . . . . . . . . . . . . . . . . . 555.5.2 Sous-espaces hyperboliques, seti et setim. . . . . . . . . . . . . 565.5.3 Théorème de Witt. . . . . . . . . . . . . . . . . . . . . . . . . 585.5.4 Exercices : calculs d’indice. . . . . . . . . . . . . . . . . . . . . 60

6 Réseaux. 616.0 prérequis à propos des Z-modules. . . . . . . . . . . . . . . . . . . . . 616.1 Sous-groupes discrets de Rn. . . . . . . . . . . . . . . . . . . . . . . . 616.2 Théorème de Minkowski. . . . . . . . . . . . . . . . . . . . . . . . . . 646.3 Applications diophantiennes. . . . . . . . . . . . . . . . . . . . . . . . 65

6.3.1 Approximations diophantiennes simultanées. . . . . . . . . . . 656.3.2 Equations diophantiennes linéaires. . . . . . . . . . . . . . . . 666.3.3 Théorème des deux carrés. . . . . . . . . . . . . . . . . . . . . 676.3.4 Théorème des quatres carrés. . . . . . . . . . . . . . . . . . . 68

7 Réduction des endomorphismes. 717.1 sous-espaces stables par u. . . . . . . . . . . . . . . . . . . . . . . . . 717.2 Théorème des noyaux et applications. . . . . . . . . . . . . . . . . . . 73

7.2.1 théorème des noyaux. . . . . . . . . . . . . . . . . . . . . . . . 737.2.2 endomorphisme diagonalisable et critère de diagonalisation. . . 747.2.3 La version diagonalisable plus nilpotent de Dunford. . . . . . . 76

7.3 La version semi-simple plus nilpotent de Dunford. . . . . . . . . . . . 777.4 Réduction de Jordan. . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

7.4.1 Réduction des endomorphismes nilpotents. . . . . . . . . . . . 807.4.2 Réduction de Jordan. . . . . . . . . . . . . . . . . . . . . . . . 82

7.5 Réduction de Frobenius. . . . . . . . . . . . . . . . . . . . . . . . . . 837.5.1 Partie existence du théorème 7.5.3. . . . . . . . . . . . . . . . 857.5.2 Partie unicité du théorème 7.5.3. . . . . . . . . . . . . . . . . 86

Page 5: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

Chapitre 1

Factorisation des applications.

1.1 Rappel de vocabulaire ensembliste.

1.1.1 Relation d’équivalence.

Définition 1.1.1 Soit E un ensemble. On appelle relation d’équivalence sur E ladonnée d’un sous-ensemble R ⊂ E × E vérifiant :

1. ∀x ∈ E (x, x) ∈ R (réflexivité)2. ∀x, y ∈ E (x, y) ∈ R =⇒ (y, x) ∈ R (symétrie)3. ∀x, y, z ∈ E ((x, y) ∈ R et (y, z) ∈ R) =⇒ (x, z) ∈ R (transitivité)

L’usage est de noter x ∼ y pour (x, y) ∈ R et de dire que x et y sont équivalent pourla relation R ou ∼. L’ensemble des éléments y ∈ E tel que x ∼ y s’appelle la classede x, et se note parfois x ⊂ E. L’ensemble de toutes les classes d’équivalence sousune relation ∼ est un sous-ensemble de l’ensemble P(E) de toutes les parties de Eet se note parfois E/ ∼. Le choix d’un, et d’un seul, élément xi ∈ xi dans chacunedes classes produit ce qu’on appelle un système de représentants dans E de E/ ∼.

Exemples1. Sur tout ensemble l’égalité est une relation d’équivalence.2. La relation de congruence modulo 10 dans Z, par définition :

x ≡ y[10] ⇐⇒ 10 | (x− y).

3. La colinéarité des vecteurs dans tout K-espace vectoriel, par définition

u ∼ v ⇐⇒ ∃λ ∈ K, λ 6= 0 λu = v.

4. Dans un groupe G on peut associer à tout sous-groupe H ⊂ G les équivalencesà gauche et à droite modulo H, par définition :

x ∼gH y ⇐⇒ Hx = Hy et x ∼dH y ⇐⇒ xH = yH.

5. Un espace vectoriel semi-normé est un espace vectoriel muni d’une semi-normeϕ. Une semi-norme est une application ϕ : E −→ R+ vérifiant toutes les pro-priétés des normes sauf l’implication (ϕ(x)) = 0 =⇒ x = 0. Sur un tel espacela relation x ∼ y ⇐⇒ ϕ(x− y) = 0 est une relation d’équivalence.

5

Page 6: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

6

Définition 1.1.2 Soit E un ensemble. On appelle partition de E la donnée d’unefamille (Ei)i∈I de sous-ensembles de E, indexée par un ensemble d’indice I, et telleque :

1. E =⋃i∈I

Ei

2. i 6= j =⇒ Ei ∩ Ej = ∅

Lorsque (Ei)i∈I est une partition de E on note parfois E = qi∈IEi.

Proposition 1.1.3 Soit E un ensemble.1. Etant donné une partition E = qi∈IEi on obtient une relation d’équivalence

sur E en posant

x ∼ ydef⇐⇒ ∃i ∈ I, x ∈ Ei et y ∈ Ei

2. Réciproquement, à partir d’une relation d’équivalence ∼ sur un ensemble E onobtient la partition en classe :

E = qA∈E/∼

A.

Démonstration. c’est évident. �

1.1.2 Applications et principe de factorisation ensembliste.

Définition 1.1.4 Soient E et F deux ensembles.1. Une application de E dans F est la donnée d’un sous-ensemble G ⊂ E×F (le

graphe de l’application) tel que pour tout x ∈ E il existe un unique y ∈ F avec(x, y) ∈ G. Si on veut appeler f cette application on note alors f : E −→ F oubien E f−→ F , et aussi y = f(x) lorsque (x, y) ∈ G. Lorsque y = f(x) on ditque y est l’image de x et que x est un antécédent de y pour f .

2. Soit f : E −→ F . On dit que f est injective et on note f : E ↪→ F lorsquef(x) = f(y) entraîne x = y pour tout x, y ∈ E.

3. Soit f : E −→ F . On dit que f est surjective et on note f : E � F lorsquetout élément de F admet (au moins) un antécédent pour f .

4. Soit f : E −→ F . On dit que f est bijective et on note f : E∼−→ F lorsque f

est à la fois injective et surjective.

Exemples1. Sur tout ensemble E (non vide) le graphe diagonal {(x, x); x ∈ E} qui corres-

pond à l’application identité IdE : E −→ E telle que IdE(x) = x.2. De R dans R le graphe {(x, 2x);x ∈ R} qui correspond à l’application f(x) =

2x.3. Étant donnée une relation d’équivalence ∼ sur un ensemble E pour laquelle

on note x la classe de x ∈ E le graphe {(x, x);x ∈ E} qui correspond à lasurjection canonique π : E � E/ ∼.

Page 7: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

7

4. Étant donnée une application ensembliste f : E −→ F , on obtient une relationd’équivalence sur E en posant

x ∼ ydef⇐⇒ f(x) = f(y)

Exercice 1.1 Soit ∼1 une relation d’équivalence sur E. Qu’obtient-t’on si on ap-plique la recette de l’exemple 4 à la surjection canonique associée à ∼1 telle quedécrite dans l’exemple 3 ? Et réciproquement ?

Etant donnée deux applications f : E −→ F et g : F −→ G on obtient une troisièmeapplication h := g ◦ f : E −→ F (composée de g avec f) en posant h(x) = g(f(x)).La composition des applications se visualise mieux avec les diagrammes sagitaux.Par exemple :

Eh //

f��

G

F

g

??~~~~~~~

On parle de diagramme commutatif lorsque les divers morphismes obtenus par com-positions (éventuelles) suivant différents chemins coïncident. Dans le cas du triangleci-dessus, la seule égalité sous-entendue par la commutativité du diagramme estl’égalité h = g ◦ f . De même on dit qu’un carré de la forme

Eh //

f

��

F

k��

G g// H

est commutatif lorsque g ◦ f = k ◦ h. Bien sur on rencontrera des diagrammescommutatifs plus complexes.

Théorème 1.1.5 (factorisation ensembliste) Soit f : A −→ B une applicationentre deux ensembles A et B et π : A� C une application surjective entre A et untroisième ensemble C. Alors l’assertion 1. ci-dessous est équivalente à l’implication2. ci-dessous.

1. Il existe une unique application g : C −→ B telle que g ◦ π = f .2. Pour tout a1, a2 ∈ A l’égalité π(a1) = π(a2) entraîne f(a1) = f(a2).

On retiendra plus facilement cet énoncé si on pense au triangle de factorisationsuivant :

Af //

��

B

C

g

??~~

~~

On parle de factorisation parce que la question posée est en quelque sorte de "diviser"au sens de la composition l’application f par l’application π. L’assertion 2 donneune condition nécessaire et suffisante à cette divisibilité.

Démonstration du théorème 1.1.5.

Page 8: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

8

On montre l’implication 1. =⇒ 2. On suppose donc l’existence d’une applicationg telle que g ◦ π = f . Soient a1, a2 ∈ A tels que π(a1) = π(a2). Alors en appliquantg à cette égalité on obtient f(a1) = g(π(a1)) = g(π(a2)) = f(a2).

On montre l’implication 2. =⇒ 1. Soit c ∈ C. Puisque π est surjective π−1(c)est non vide. Soit a ∈ π−1(c). Alors pour tout a′ ∈ π−1(c) on a π(a′) = π(a) = cet donc f(a′) = f(a) par 2. En conséquence l’ensemble f(π−1(c)) est un singleton,et l’élément b ∈ B tel que f(π−1(c)) = {b} est uniquement défini pour c fixé.Ainsi on peut dire suivant l’usage que c 7→ b ∈ f(π−1(c)) est une application "biendéfinie". Appelons g cette application. En suivant la construction de g on vérifieimmédiatement que g ◦ π = f . Cette égalité donne aussi l’unicité de g. En effet soitg′ : C −→ B une application telle que g′ ◦ π = f . Pour montrer que g = g′ on vérifiel’égalité g′(c) = g(c) pour tout c ∈ C. On fixe c et on choisit a ∈ π−1(c) ⊂ A.Puisque g ◦ π = f = g′ ◦ π on obtient g(c) = g(π(a)) = f(a) = g′(π(a)) = g′(c). �

Corollaire 1.1.6 On reprend le contexte et les notations du théorème 1.1.5. Onsuppose que les assertions équivalentes 1. et 2. de ce théorème sont vraies. On aalors en outre les équivalences :

1. g est surjective si et seulement si f l’est.2. g est injective si et seulement si l’implication de l’assertion 2. est une équiva-

lence.

Démonstration. Exercice. �

1.2 Factorisation et suites exactes de modules.

1.2.1 Principe de factorisation.

Le principe de factorisation du théorème 1.1.5 se décline dans diverses situationet pour des objets et morphismes plus divers que le cas particulier des ensembleset des applications ensemblistes décrit plus haut. Les énoncés et les démonstrationsde ce paragraphe sont valables pour toute structure et tout type de morphisme,à condition qu’il soit possible de définir les noyaux des morphismes et les objetsquotients. Pour fixer les idées dans la suite on étudiera les modules à gauche sur unanneau unitaire A et les morphismes de A-modules, même si tout resterait valablemutatis-mutandis pour les quotients des structure que vous connaissez (groupes,anneaux, espaces vectoriels, algèbre, groupe topologique, etc...). On énonce tout demême le théorème 1.2.3 en toute généralité.

Définition 1.2.1 Soient A et B deux ensembles munis d’une des structures ci-dessus, et soit f : A −→ B un morphisme.

1. On appelle noyau de f et on note Ker f le sous-objet de A image réciproquede 0 ∈ B, c’est-à-dire Ker f = {a ∈ A; f(a) = 0}.

2. On appelle image de f et on note Im f le sous-objet de B défini par Im f ={b ∈ B;∃a ∈ A, f(a) = b}.

3. On appelle conoyau de f et on note Coker f le quotient B/ Im f .

Page 9: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

9

Proposition 1.2.2 Soient A et B deux ensembles munis d’une des structures ci-dessus, et soit f : A −→ B un morphisme.

1. f est injective si et seulement si Ker f = {0}.2. f est surjective si et seulement si Im f = B si et seulement si Coker f = {0}.

Démonstration. Exercice. �

Théorème 1.2.3 Soient A et B deux ensemble muni d’une des structures ci dessus,H C A un sous-objet de A tel que A/H soit lui-même muni de cette structure (i.eH est distingué dans le cas particulier de la structure de groupe). Soit f : A −→ Bun morphisme, et πH : A −→ A/H la surjection canonique.

Af //

πH����

B

A/Hf

==zz

zz

1. On a équivalences entre les (a) et (b) ci-dessous :(a) Il existe un unique morphisme f : A/H −→ B tel que f ◦ π = f .(b) H ⊂ Ker f .

2. Si f existe alors f est surjective si et seulement si f l’est.3. Si f existe alors f est injective si et seulement si l’inclusion du (b) est une

égalité.

Démonstration. On se ramène au théorème 1.1.5 en remarquant, par exemple pourla structure de groupe, que pour a, a′ ∈ A l’équivalence πH(a) = πH(a′) ⇐⇒a−1a′ ∈ H. Cette équivalence permet de traduire les inclusions de noyaux du typede l’assertion (a) du théorème 1.2.3 en des implications du type de celle de l’assertion1. du théorème 1.1.5 (et de même les égalités de noyaux deviennent des équivalences).Ensuite si l’on suppose que f est un morphisme et puisque πH l’est aussi on démontreau cas par cas, mais sans difficulté, que f est aussi un morphisme dès que f existe.�

1.2.2 Suites exactes de modules.

Pour fixer les idées à partir de maintenant on se donne un anneau unitaire Ret on travaille dans la catégorie des R-modules à gauche (les morphismes sont lesapplications R-linéaires et le noyaux d’une application linéaire est défini commeimage réciproque du neutre du module d’arrivé). Soit N ⊂ M des R-modules. Onnote ı : N −→M et π : M −→M/N les morphismes canoniques. Alors ı est injectif,π est surjectif, la composée π ◦ ı est nulle et on a même l’égalité Im(ı) = Ker(π).Cette situation se produit très souvent et il est commode de parler dans ce cas desuites exactes de A-modules :

0 // Nı // M

π // M/N // 0

Dans cette suite de morphismes les applications {0} −→ N et M/N −→ {0} sontles seules possibles et on note 0 le module {0} par abus. Plus généralement on peutparler de suite exacte de longueur quelconque.

Page 10: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

10

Définition 1.2.4 Étant donné une suite de R-module (Mn)n∈N et de morphismesfn : Mn −→Mn+1, on dit que

1. . . .Mnfn→Mn+1

fn+1→ . . . est un complexe lorsque fn+1 ◦ fn = 0.2. On dit que la suite

... // Mn−1fn−1 // Mn

fn // Mn+1// ...

est exacte en Mn lorsque Im(fn−1) = Ker(fn).3. On dit que la suite

... // Mn−1fn−1 // Mn

fn // Mn+1// ...

est exacte lorsqu’elle est exacte en Mn pour tout n.

Proposition 1.2.5

1. Dire que Mα // N // 0 est une suite exacte de module revient à dire que

α est un morphisme de modules surjectif.

2. Dire que 0 // Mβ // N est une suite exacte de module revient à dire que

β est un morphisme de modules injectif.3. Si un module M apparaît dans une suite exacte 0 −→M −→ 0 alors le module

M est nul.4. Dire que 0 // M

γ // N // 0 est une suite exacte revient à dire que γ estun isomorphisme.

Démonstration. C’est immédiat. �

Proposition 1.2.6 Soit

0 // Aα // B

β // C // 0

une suite exacte (courte) de R-module. Les assertions suivantes sont équivalentes :(i) Le sous-module α(A) est facteur direct de B.(ii) Il existe un sous-module F ⊂ B tel que la restriction de β à F soit unisomorphisme F ∼= C.

(iii) Il existe un morphisme a : B −→ A tel que a ◦ α = IdA.(iv) Il existe un morphisme b : C −→ B tel que β ◦ b = IdC.

Lorsque ces conditions sont vérifiées le morphisme b 7→ (a(b), β(b)) est un isomor-phisme B ∼= A⊕ C.

Démonstration. Pour établir cette équivalence on montre successivement les impli-cations (i) =⇒ (ii) =⇒ (iv) =⇒ (iii) =⇒ (i).On montre (i) =⇒ (ii). Si α(A) est facteur direct soit F un supplémentaire à α(A)dans B. Par définition des suites exactes Ker β = α(A) et on a donc Ker β∩F = {0}.Si c ∈ C il existe un b ∈ B tel que β(b) = c. Or B est somme de F et α(A). Il existe

Page 11: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

11

donc f ∈ F et a ∈ Ker(β) tel que b = f + a. On a donc β(f) = β(b) = c. Larestriction de β au sous-module F est bien un isomorphisme.

On montre (ii) =⇒ (iv). Soit F tel que β : F −→ C soit un isomorphisme, soitγ : C −→ F le morphisme réciproque et soit ε : F −→ B le morphisme donné parl’inclusion. Alors b = ε ◦ γ vérifie bien β ◦ b = IdC .

On montre (iv) =⇒ (iii). Puisque α est injective il existe toujours un isomor-phisme réciproque η : α(A) −→ A. Pour x ∈ B, on pose p(x) = x − b ◦ β(x). Ondéfinit ainsi un morphisme p : B −→ B. Alors comme α(A) = Ker(β) la restrictionde p à α(A) est l’identité. Si x ∈ B alors β(p(x)) = β(x) − β ◦ b ◦ β(x) = 0 carβ ◦b = IdC . Donc l’image de p est contenu dans α(A). Le morphisme a = η ◦p vérifiebien a ◦ α = IdA.

On montre (iii) =⇒ (i). Pour ce on vérifie que Ker a est un supplémentairede α(A) dans B. Soit x ∈ Ker a ∩ α(A). alors il existe y ∈ A tel que x = α(y). Etcomme a ◦ α = IdA on a 0 = a(x) = a(α(y)) = y. Il suit x = α(y) = 0. On a bienα(A) ∩ Ker a = {0}. Soit x ∈ B. Alors a(x − α(a(x))) = a(x) − a(α(a(x))) = 0puisque a ◦ α = IdA. Donc x − α(a(x)) ∈ Ker a. Donc comme α(a(x)) appartient àα(A) l’élément x appartient à 〈α(A) ∪Ker a〉.

On a démontré les équivalences requises. Si ces conditions sont remplies, l’ap-plication b 7→ (a(b), β(b)) est clairement linéaire, et son morphisme réciproque est(x, y) 7→ α(x) + b(y), comme on le voit par un calcul immédiat. �

Définition 1.2.7 Lorsque les conditions équivalentes du lemme 1.2.6 sont vérifiéeson dit que la suite exacte 0 // A

α // Bβ // C // 0 est scindée.

Lorsque R est un corps tous les sous-espaces vectoriels sont facteurs directs et toutesles suites courtes sont scindées. Il est alors préférable d’utiliser la notion de sommedirecte plus facile à manier et il serait ridicule de parler de suites exactes d’espacesvectoriels. Bien entendu pour les modules il existe des suites qui ne sont pas scindées,par exemple la suite exacte de Z-modules 0 // pZ x 7→x // Z x 7→x// Z/pZ // 0 n’est

pas scindée (Exercice).Soit ... // M

f // N une suite exacte ne terminant pas par 0. Alors la suite

... // Mf // N

πf(M) // N/f(M) // 0 est une suite exacte terminant par 0.

Soit Ng // M // ... une suite exacte ne commençant pas par 0. Alors la suite

0 // Ker g // Ng // M // ... est une suite exacte qui commence par 0.

Soit... // A // B

f // C // ...

une suite exacte avec plus de trois modules non nuls. Alors on peut la "couper" pourobtenir une suite exacte à trois termes non nuls (dite suite exacte courte) et les deuxsuites moins longues qui suivent :

... // A // Ker f // 0

0 // Ker f // Bf // Im f // 0

Page 12: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

12

0 // Im f // C // ...

On peut conclure des remarques ci-dessus que l’étude des suites exactes se ramèneà celle des suites exactes courtes c’est-à-dire aux modules quotients. Cependant il estplus commode et élégant lorsque c’est possible de ne considérer qu’une seule suitelongue plutôt que de multiplier les suites courtes.

1.2.3 Problème : le lemme du serpent.

Soit R un anneau unitaire. On considère comme donnés les R-modules et lesapplications R-linéaires du diagramme ci-dessous :

Mm //

µ

��

Nn //

ν

��

P //

ρ

��

0

0 // M ′ m′ // N ′n′ // C ′

.

On suppose que les deux lignes sont des suites exactes et que le diagramme estcommutatif. L’objet de l’exercice est de démontrer le

Lemme 1.2.8 (lemme du serpent) Il existe un morphisme de R-modules

δ : Ker ρ −→ Cokerµ,

qui s’insère dans une suite exacte (longue) de R-modules :

Kerµ m // Ker νn // Ker ρ ED

BCGF@A

))SSSS

Cokerµm′

// Coker νn′

// Coker ρ

De plus si n′ est surjectif alors n′ l’est aussi ; et si m est injectif alors m aussi.

Étapes de la démonstration :

1. On définit les applications ˜ par restriction.2. On définit les applications ¯ par factorisation.3. On utilise la commutativité du diagramme et une "chasse" au diagramme pour

montrer que δ est bien définie (partie "dure" de la démonstration).4. Vérifications (plutôt moins difficile) de la linéarité de toutes les applications

et de l’exactitude de la suite elle-même.

Page 13: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

Chapitre 2

Algèbre linéaire basique.

2.1 fondement théorique : la dimension.

On fixe k un corps (commutatif). On appelle groupe additif tout groupe commu-tatif dont on note + la loi de groupe. On suppose connue les notions de bases concer-nant les groupes commutatifs (jusqu’au passage au quotient par un sous-groupe).

2.1.1 Espaces, sous-espaces et applications linéaires.

Un espace vectoriel V sur k est un groupe additif muni d’une opération externek × V −→ V notée (λ, x) 7→ λ x vérifiant les axiomes de la théorie des modules àgauche sur un anneau, à savoir :

Définition 2.1.1 (structure de k-espace vectoriel) Soit V un groupe additif.

1. Une opération externe à gauche de k sur V est une application notée (λ,m) 7→λm du produit cartésien k × V dans V .

2. On dit que V est un espace vectoriel sur k (ou k-espace vectoriel) lorsqu’ilexiste une opération externe à gauche de k sur V vérifiant les axiomes (Pourtout v, v′ ∈ V et tout λ, µ ∈ k) :

(a) λ(v + v′) = λv + λv′

(b) (λ+ µ)v = λv + µv

(c) 1kv = v

(d) (λµ)v = λ(µv)

3. Soient V et W deux k-espaces. On appelle application k-linéaire un morphismede groupes f : V −→ W compatible avec l’opération de k, autrement dit tel que,pour tout v ∈ V et tout λ ∈ k, on ait f(λv) = λf(v). On note Homk(V,W )l’ensemble des applications k-linéaires de V dans W . On appelle isomorphismed’espace vectoriel une application linéaire bijective.

4. Soit V un k-espace, et soit W ⊂ V . On dit que W est un sous-espace de Vlorsque W est un sous-groupe de V stable pour l’opération de k, autrement ditlorsque, pour tout λ ∈ k et tout w ∈ W , on a λw ∈ W .

13

Page 14: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

14

Soit V un k-espace etW < V un sous-espace et soit V/W le groupe additif quotient.Alors l’opération externe de k sur V se factorise en une opération externe de k surV/W . Avec cette opération V/W est aussi un k-espace vectoriel : c’est l’espacevectoriel quotient.

Exemples :

1. Soit n un entier, le produit cartésien kn muni des opérations évidentes (com-posantes par composantes) est un k-espace vectoriel.

2. Plus généralement si I est un ensemble et V un k-espace vectoriel l’ensembleV I des applications de I dans V muni des opérations

(x 7→ f(x)) + (g 7→ g(x)) = (x 7→ g(x) + f(x))

et λ(x 7→ f(x)) = (x 7→ λf(x))

est un k-espace vectoriel. L’éléments f ∈ V I est parfois noté (f(i))i∈I .

3. On note V (I) le sous-espace de V I contenant les applications "presque toujoursnulles" c’est-à-dire les applications f telle que l’image réciproque de 0 par fsoit de complémentaire fini dans I ou encore telle qu’il existe un J avec J ⊂ I,I\J fini et pour tout i ∈ J f(i) = 0.

4. Étant donné des espaces vectoriels (Vi)i∈I , le produit cartésien∏

i Vi muni desopérations composantes par composantes est un espace vectoriel.

2.1.2 Familles de vecteurs d’un espace vectoriel.

Définition 2.1.2 Soit I un ensemble et V un k-espace vectoriel. On appelle familled’éléments de V (de scalaires si V = k) et on note (xi)i∈I , la donnée d’une applica-tion I −→ V notée i 7→ xi. Par abus on dit que le cardinal #I de I est le cardinalde la famille (xi)i∈I . Lorsque I est fini on dit que la famille (xi)i∈I est une famillefinie.

Toute intersection de sous-espaces vectoriel est un sous-espace de sorte que pourtoute partie d’un espace V il existe toujours un plus petit sous-espace contenantcette partie.

Définition 2.1.3 Soit V un espace vectoriel et F = (xi)i∈I une famille de vecteursde V . On appelle sous-espace engendré par F et on note 〈xi, i ∈ I〉 le plus petitsous-espace de V contenant tous les xi.

Proposition 2.1.4 〈xi, i ∈ I〉 est l’ensemble formé de toutes les combinaisons li-néaires finies possibles

∑i∈J λixi où J parcourt les parties finies de I et les (λj)j∈J

parcourent les familles finies de scalaires.

Démonstration. C’est évident. �

Définition 2.1.5 Soit V un espace vectoriel et F = (xi)i∈I une famille de vecteursde V .

Page 15: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

15

1. La famille F est dite libre lorsque pour toute partie finie J ⊂ I et toutefamille de scalaires (λj)j∈J l’identité

∑j∈J λjxj = 0 entraîne les identités

∀j ∈ J, λj = 0. Lorsqu’au contraire il existe une relation linéaire finie nontriviale

∑j∈J λjxj = 0 avec au moins un λj non nul on dit que la famille F

est liée.2. La famille F est dite génératrice lorsque 〈F〉 = V .3. On dit que la famille F est une base lorsqu’elle est libre et génératrice.

Proposition 2.1.6 Soit (xi)i∈I une famille de V . On a équivalence entre les troisassertions suivantes :

1. La famille (xi)i∈I est une base.2. Pour tout vecteur v de V il existe une unique famille finie de scalaires (vj)j∈J

avec J ⊂ I telle quev =

∑j∈J

vjxj.

3. L’application naturelle k(I) −→ V définie par (λi)i∈I 7→∑

i∈I λixi est un iso-morphisme.

Démonstration. Exercice. �

Proposition 2.1.7 Soit f : E −→ F une application linéaire.1. Im(f) est un sous-espace de F et Ker(f) := f−1(0) est un sous-espace de E.2. L’image par f d’une famille génératrice de E est une famille génératrice de

Im(f).3. f est injective si et seulement si l’image de toute famille libre de E est une

famille libre de F .4. f est un isomorphisme si et seulement si l’image d’une base de E et une base

de F si et seulement si l’image de toute base de E est une base de F .

Démonstration. Exercice. �

Lemme 2.1.8 Soit G une famille finie génératrice de V = 〈G〉, et soit L une famillelibre de V . Alors L est finie et #L ≤ #G.

Démonstration. Soit n = #G et écrivons G = (gi)1≤i≤n. On va montrer que toutefamille de n + 1 éléments est liée. On procède par récurrence sur n. Si n = 1 toutvecteur v ∈ V s’écrit λvg1 et deux vecteurs de V non-triviaux, v et w, vérifient larelation linéaire non-triviale λvw−λwv = 0. Pour établir l’hérédité, soit m un entier,m ≥ 2, tel que le lemme soit vrai pour toute famille G ′ de cardinal m−1. SupposonsG de cardinal m et soit V = (vi)0≤i≤m une famille de m+ 1 vecteurs de V . Pour toutj il existe une famille de scalaire (λi,j)1≤i≤m tels que vj =

∑i λi,jgi. Pour montrer

que V est liée on peut supposer v0 non nul et donc quite à permuter les gi que lepivot λ1,0 est non nul. On utilise ce pivot non nul pour éliminer la composante en g1

et on forme les m vecteurs w1, · · ·wm du sous-espace 〈g2, · · · gm〉 ci-dessous :

wj = λ1,0vj − λ1,jv0 =m∑i=2

(λ1,0λi,j − λ1,jλi,0)gi.

Page 16: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

16

Par hypothèse de récurrence cesm vecteurs vérifient une relation linéaire non triviale

0 =m∑j=1

αj(λ1,0vj − λ1,jv0) = (m∑j=1

−αjλ1,j)v0 +m∑j=1

αjλ1,0vj.

Puisque λ1,0 et au moins l’un des αj est non nul la famille v0, · · · , vm est liée. �Remarque : L’idée de la preuve repose sur le principe du pivot de Gauß : on

passe de la matrice des vj à celle des wj en utilisant le pivot λ1,0 pour annuler lapremière ligne. Par récurrence sur la dimension on obtient un système triangulaireinférieur et si il y a plus de colonnes que de lignes, les dernières colonnes sont nulles(et en particulier linéairement dépendantes).

2.1.3 Dimension des espaces vectoriels de type fini.

L’inclusion des images définit une relation d’ordre sur les familles. Cette relationd’ordre permet de caractériser les bases d’un espace vectoriel et de montrer leurexistence en toute généralité.

Proposition 2.1.9 Soit V un espace vectoriel et F une famille de V . Les assertionssuivantes sont équivalentes :

1. F est une base de V .2. F est une famille libre maximale parmi les familles libres de V .3. F est une famille génératrice minimale parmi les familles génératrices de V .

Démonstration. Supposons que F soit une base de V . Alors F est à la fois génératriceet libre. Soit x ∈ V \ F . Alors x s’écrit comme combinaison linéaire finie d’élémentsde F et en particulier la famille F ∪{x} n’est pas libre. On a montré que 1 entraîne2. Soit x ∈ F . Comme F est libre x n’appartient pas aux sous-espace engendré parF \ {x}, et cette dernière famille n’est pas génératrice. On a montré que 1 entraîne3.

Supposons que F soit une famille libre maximale. Soit x ∈ V \ F . Alors lafamille F ∪ {x} contient strictement F et n’est donc plus libre. Il existe donc unerelation de dépendance linéaire finie non triviale entre les éléments de cette familleλxx +

∑y∈F λyy = 0. Puisque F est libre on a aussi λx 6= 0. De sorte que x =

−(1/λx)∑

y∈F λyy ∈ 〈F〉. Cela montre que 2 entraîne 1.Supposons que F soit une famille génératrice minimale. Alors une relation de

dépendance linéaire non triviale entre les éléments de F permet d’omettre un élémentde F qui est déjà dans le sous-espace engendré par les autres éléments. Cela contreditla minimalité de cette famille, qui est donc libre. On a montré que 3 entraîne 1. �

Définition 2.1.10 On dit qu’un espace vectoriel V est de type fini lorsqu’il admetune famille génératrice finie.

Théorème 2.1.11 (dimension) Soit V un espace vectoriel de type fini.1. De toute famille génératrice de V on peut extraire une base de V : en particulier

V admet une base.

Page 17: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

17

2. Toute les bases de V sont finie et ont même cardinal : ce cardinal s’appelle ladimension de V .

3. Toute famille libre de V se complète en une base.

Démonstration. 1. Par hypothèse V admet un système générateur fini fixé e1, · · · , et.On part d’un système générateur quelconque G = (gi)i∈I . Alors chaque ej pour1 ≤ j ≤ t est combinaison linéaire d’un nombre fini de gi de sorte qu’on peutextraire de G un système générateur fini. On se ramène ainsi au cas d’un systèmegénérateur fini G1 = (g1, · · · , gn) de V . Si G est libre alors c’est une base. Sinonune relation linéaire non triviale

∑i λigi = 0 avec λj 6= 0 montre que la famille

G2 = G1 \ gj est encore génératrice. Par ce procédé on aboutit soit à un systèmegénérateur minimal c’est-à-dire une base, soit à un système générateur ne contenantque le seul vecteur nul. Dans ce dernier cas l’espace vectoriel tout entier est réduità {0} et on convient que ∅ est une base de V .

2. est une conséquence du lemme 2.1.8 et de 1. Soient B une base finie de V etB′ une base de V . Alors B′ est libre et B est génératrice donc #B′ ≤ #B. Ainsi B′est génératrice finie tandis que B est libre et le lemme 2.1.8 s’applique aussi pourl’inégalité réciproque.

3. Avec 1. et 2. on peut parler de la dimension finie n de V . Par le lemme 2.1.8on sait aussi que toute famille de n+ 1 vecteurs est liée. Soit L une famille libre. Six ∈ V \ 〈L〉 alors la famille L∪{x} est encore libre. Par ce procédé on aboutit en auplus n étapes à une famille libre maximale contenant L. Cette base convient. �

Corollaire 2.1.12 Deux espaces vectoriels de type fini sont isomorphes si et seule-ment si ils ont même dimension.

Démonstration. Si deux espaces ont même dimension n ils sont tous deux isomorphesà kn. Réciproquement si deux espaces sont isomorphes l’image d’une base de l’unest une base de l’autre par cet isomorphisme et les dimensions coïncident. �

Proposition et définition 2.1.13 Soient F et G deux sous-espaces d’un espacevectoriel E de dimension finie. Les assertions suivantes sont équivalentes et lors-qu’elles sont remplies on dit que F et G sont supplémentaire l’un de l’autre dans E,et on note E = F ⊕G.

1. F ∩G = {0} et E = F +G.2. Tout x ∈ E d’écrit de manière unique x = f + g avec f ∈ F et g ∈ G3. L’application naturelle F ×G −→ E définie par (f, g) 7→ f + g est un isomor-

phisme.

Démonstration. Exercice. �

Corollaire 2.1.14 Tout sous-espace F ⊂ E d’un espace vectoriel de dimension finieadmet un supplémentaire.

Démonstration. Il suffit de compléter une base de F en une base de E puis deconsidérer le sous-espace vectoriel engendré par les vecteurs qui complètent cettebase. �

Page 18: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

18

Exercice 2.1 Soit V un espace vectoriel de dimension finie. Soit G = (gi)i∈I unefamille génératrice de V et L = (lj)j∈J une famille libre de V . Montrer qu’il existeune base B de V contenant L et telle que B \ L soit contenu dans G.

Définition 2.1.15 Soit f : E −→ F une application linéaire. On appelle rang de fet on note rang(f) la dimension de l’image de f .

Théorème 2.1.16 (rang) Soit f : E −→ F une application linéaire. Alors on adim(E) = dim(Ker f) + rang(f).

Démonstration. On se donne des vecteurs e1, · · · , en+r tels que les ei pour i = 1 · · ·nforment une base de Ker(f) et que les f(ei) pour i = n + 1, · · ·n + r forment unebase de Im(f). On vérifie que la famille (ei)1≤i≤n+r est une base de E. �

2.2 Matrices

2.2.1 Prérequis

Je considère comme connue la notion de matrices à coefficients dans un anneaucommutatif unitaire A, la structure de A-module libre (de rang nm) de Mn,m(A)avec sa base canonique Ei,j ∈Mn,m(A) et la notion de produit matriciel

Mn,m(A)×Mm,l(A) // Mn,l(A)

([ai,j] , [bj,k])� // [ci,k]

avec

ci,k =m∑j=1

ai,jbj,k

Dans les écritures ci-dessus les indices i parcourent {1, · · · , n}, les indices j par-courent {1, · · · ,m} et les indices k parcourent {1, · · · , l}. L’écriture des matricessous la forme [ai,j] l’indice i se rapportant aux lignes et j se rapportant aux co-lonnes est une convention parfaitement légitimée par l’élimination des indices j dansla somme qui définit ci,k. Il faut aussi se rappeler que l’on multiplie à gauche parune matrice A ayant autant de colonnes que la matrice de droite B a de lignes. Lerésultat du produit est la matrice C qui a autant de ligne que la matrice de gaucheA et autant de colonnes que la matrice de droite B. Avec ce produit l’ensembledes matrices carrés d’ordre n, noté Mn(A), est une A-algèbre unitaire de neutremultiplicatif la matrice diagonale avec coefficients diagonals tous égaux à 1 notéeIn. L’anneau A s’identifie canoniquement avec le sous-anneaux AIn de Mn(A). Legroupe linéaire d’ordre n est le groupe multiplicatif des matrices inversibles d’ordren. On le note GLn(A).

Exercice 2.2 Montrer que A est le centre de Mn(A).

Page 19: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

19

2.2.2 Représentation matricielle des morphismes.

Soit E et F deux espaces vectoriels de dimension finies rapportés aux basese = (e1, · · · , en) de E et ε = (ε1, · · · , εd) de F . Tout vecteur x de F est uniquementreprésenté par ses coordonnée dans la base ε c’est-à-dire par l’unique famille descalaires (xi)1≤i≤d telle que x =

∑i xiεi. On convient de représenter cette famille

de scalaire par une matrice à d lignes et 1 colonne. De sorte que toute famille finie(fj)1≤j≤s de vecteurs de F est uniquement représentée par une matrice à d lignes ets colonnes, la j-ième colonne étant la matrice des coordonnées de fj dans la base ε.

Définition 2.2.1 La matrice de la famille de vecteur f1, · · · , ft relativement à labase ε de F est la matrice à d lignes et t colonnes notée Matε(f1, · · · , ft) = [mi,j] etdéfinie par

fj =d∑i=1

mi,jεi.

Soit f : E −→ F une application linéaire. Alors f est uniquement déterminée parles images f(ej) pour j = 1, · · · , n.

Définition 2.2.2 La matrice de f relativement aux bases e de E et ε de F est lamatrice du système de vecteurs f(e1), · · · , f(en) relativement à la base ε. On la note

Matε,e(f) = Matε(f(ei)i=1,··· ,n).

Si chacun des f(ej) s’écrit dans la base ε comme ci-dessous

f(ej) =d∑i=1

mi,jεi,

alors la matrice de f relatives aux bases ε et e est la matrice d× n

Matε,e(f) =[mi,j

]1≤i≤d, 1≤j≤n

.

Si G est un troisième espace, rapporté à une troisième base γ = (γ1, · · · , γs) et sig : F −→ G est une autre application linéaire on a

Matγ,e(g ◦ f) = Matγ,ε(g)Matε,e(f).

La convention d’écrire d’abord la base ε de l’espace d’arrivée dans la notation Matε,epermet cette élimination de l’indice ε intermédiaire.

2.2.3 Changement de bases.

Soit E un espace vectoriel de dimension n finie et soient e = (e1, · · · , en) ete′ = (e′1, · · · , e′n) deux bases de E. On a

Mate′,e(IdE) = Mate′(e1, · · · , en) =: Mate′(e).

Page 20: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

20

La dernière égalité définit la notation Mate′(e). L’inverse de cette matrice est lamatrice Mat−1

e′,e = Mate,e′ . Cette matrice (dite de passage) permet de calculer lescoordonnée d’un vecteur dans la base e′ à partir de ses coordonnées dans la base e.Précisons : soit x =

∑i xiei =

∑i x′ie′i. Alors on a x′1

...x′n

= Mate′(e)

x1...xn

.

Prenons maintenant en sus un espace vectoriel F de dimension finie m, deuxbases ε et ε′ de F et une application linéaire f : E −→ F . Alors on a un carrécommutatif :

(E, e)f //

IdE��

(F, ε)

IdF��

(E, e′)f // (F, ε′)

.

Ce diagramme donne les identités :

Matε′,e′(f) Mate′(e) = Matε′(ε) Matε,e(f)

ou encoreMatε′,e′(f) = Matε′(ε) Matε,e(f) Mate(e

′).

Définition 2.2.3 Soient n et m des entiers. Deux matrices M,M ′ ∈Mm,n(k) sontdites équivalentes si il existe une application linéaire f : kn −→ km et deux couplesde bases e, e′ de kn et ε, ε′ de km tels que M = Matε,e(f) et M ′ = Matε′,e′(f).

Il revient au même de dire qu’il existe une matrice S ∈ GLm(k) et une matriceT ∈ GLn(k) telles que M = SM ′T . Comme l’indique la terminologie on définit ainsiune relation d’équivalence sur Mm,n(k).

Définition 2.2.4 Soit M ∈Mm,n(k) une matrice. On appelle rang de M la dimen-sion du sous-espaces de km engendré par les n vecteurs colonnes de M .

Le rang d’une matrice est bien sûr égal au rang de toute application linéaire repré-senté par cette matrice. Ce rang ne dépend pas des bases choisies : c’est un invariantde la classe d’équivalence de la matrice. Sur un corps, cet invariant donne à lui seulun système complet d’invariant :

Théorème 2.2.5 Soit M une matrice de Mm,n(k) de rang r. Alors M est équiva-lente à une matrice de la forme

M ∼(

Ir 0r,n−r0m−r,r 0m−r,n−r

),

où les matrices 0s,t sont les matrices identiquement nulles avec s lignes et t co-lonnes (on convient que la matrice à 0 ligne ou à 0 colonne est la matrice vide). Enparticulier deux matrices sont équivalentes si et seulement si elles ont même rang.

Page 21: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

21

Démonstration. Soit f : kn −→ km le morphisme représenté par M dans les basescanoniques de kn et de km. Soient e1, · · · , er des vecteurs de kn tels que la famillef(ei) forme une base de Im(f). Alors la famille f(ei)1≤i≤r est libre dans km et onpeut la compléter en une base ε de km. La famille (ei)1≤i≤r est libre et constitue unebase d’un supplémentaire de Ker(f). Complétons la famille libre (ei)1≤i≤r avec unebase du noyau de f pour obtenir une base e de kn. Alors la matrice Matε,e(f) estéquivalente à M et est de la forme voulue. �

Étant donnée une matrice concrète, la démonstration qui précède ne fournitaucune méthode pour calculer le rang d’une matrice M et encore moins les basesde l’image ou du noyau qui interviennent dans le raisonnement. La section qui suitdécrit l’algorithme du pivot de Gauß qui résout de façon effective pratiquementtoutes les questions calculatoires d’algèbre linéaire.

2.3 Opérations élémentaires sur les matrices.

Soit A un anneau commutatif.

Définition 2.3.1 Soit M ∈ Mm,n(A). On appelle opération élémentaire sur Ml’une des transformations suivantes :

1. ajouter à une colonne (resp. ligne) de M le produit par un élément de A d’uneautre colonne (resp. ligne) : on parle de transvection sur les lignes (resp.colonnes) de M .

2. permuter les colonnes (resp. lignes) de M .

3. multiplier une colonne (resp. ligne) de M par un élément de A× : on parle dedilatation ou d’affinité sur M .

Ces opération élémentaires peuvent être modélisée par la multiplication matriciellede M par une matrice élémentaire. Pour retrouver ces "matrices élémentaires" l’ondoit retenir quelques principes simples.

– L’action sur les lignes de M est toujours modélisée par la multiplication àgauche de M par une matrice élémentaire. La matrice M est alors remplacéepar EM où E est la matrice élémentaire ad hoc. L’action sur les colonness’obtient elle par multiplication de M à droite par la matrice élémentaire adhoc E. La matrice M est alors remplacée par ME.

– Les coefficients de la matrice élémentaire E elle-même s’obtiennent en appli-quant à la matrice Im (resp. In) l’operation élémentaire sur les lignes (resp.colonnes) que E est sensée modéliser : en effet on a toujours EIm = E etInE = E ...

– La matrice de transvection Ti,j(λ) ∈ GLm(A) qui modélise l’opération élémen-taire sur m lignes Li ← Li + λLj est la transposée de la matrice de transvec-tion Tj,i(λ) ∈ GLm(A) qui modélise la "même" opération élémentaire sur mcolonnes Ci ← Ci + λCj.

– La matrice de permutation Q(σ−1) qui modélise l’opération élémentaire sur mlignes Li ← Lσ(i) est l’inverse de la matrice de permutation Q(σ) qui modélisela "même" opération élémentaire sur m colonnes.

Page 22: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

22

Ceci dit en appliquant à la matrice Is l’opération élémentaire à modéliser, on définitles notations :

Notations 2.3.2 Soit s un entier, ε la base canonique de As et (Ei,j)1≤i,j≤s la basecanonique de Ms(A), c’est-à-dire pour i et j fixé Ei,j = [el,c] avec el,c = 1 si i = l etj = c, el,c = 0 sinon.

1. Pour λ ∈ A et i 6= j on note Ti,j(λ) = Is + λEi,j ∈ GLs(A) la matrice detransvection.

2. Pour σ ∈ Sn on note Q(σ) = Matε(εσ(i), i = 1 · · · s) ∈ GLs(A) la matrice depermutation.

3. Pour µ ∈ A× on note Dj(µ) =∑

1≤i≤s, j 6=iEi,i + µEj,j ∈ GLs(A) la matrice dedilatation.

Remarques :1. Les applications λ 7→ Ti,j(λ), (resp. µ 7→ Di(µ), resp. σ 7→ Q(σ)) sont des

homomorphismes de groupes A −→ GLs(A), (resp. A× −→ GLs(A), resp.Ss −→ GLs(A)). En particulier

Ti,j(λ)−1 = Ti,j(−λ), Di(µ)−1 = Di(µ−1) et Q(σ)−1 = Q(σ−1).

2. On appelle dilatation ou transvection un endomorphisme f ∈ Homk(V ) dontla matrice relative à une base de V est Ti,j(λ). On appelle dilatation un endo-morphisme f ∈ Homk(V ) dont la matrice dans une base de V est Di(µ).

Maintenant pour être logiquement complet il faudrait vérifier que ces matricesagissent bien comme il se doit. J’énonce le résultat attendu et laisse la vérificationau lecteur.

Proposition 2.3.3 Soient A un anneau commutatif, et soit M ∈ Mm,n(A) unematrice dont on note Cj, j = 1 · · ·n les colonnes et Li, i = 1 · · ·m les lignes.

M = [C1 C2 · · ·Cn] =

L1

L2...Lm

.

Pour Ti,j(λ) ∈ GLm(A), on a Ti,j(λ)M =

L1...

Li−1

Li + λLj...Lm

.

Pour Ti,j(λ) ∈ GLn(A), on a MTi,j(λ) = [C1 · · · Cj−1 Cj + λCi · · · Cn].

Pour σ ∈ Sm, on a Q(σ)M =

Lσ−1(1)

Lσ−1(2)...

Lσ−1(m)

.

Page 23: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

23

Pour σ ∈ Sn, on a MQ(σ) =[Cσ(1) Cσ(2) · · · Cσ(n)

].

Pour Di(µ) ∈ GLm(A), on a Di(µ)M =

L1...

Li−1

µLi...Lm

.

Pour Dj(µ) ∈ GLn(A), on a MDj(µ) = [C1 · · · Cj−1 µCj · · · Cn].

Démonstration. Exercice. �

Remarques : Il faut aussi savoir que det(Ti,j(λ)) = 1, det(Di(µ)) = µ etdet(Q(σ)) = ε(σ) (voir le chapitre 3 pour la théorie du déterminant). En fait l’al-gorithme du pivot de Gauß que l’on va présenter immédiatement fournit aussi uneméthode de calcul de déterminant très efficace.

Théorème 2.3.4 Soit k un corps et M ∈ Mm,n(k) une matrice de rang r dont onnote les colonnes C1, · · ·Cn. Alors il existe P ∈ GLm(k) une matrice produit deTi,j(λ), σ ∈ Sn et Dr(µ) ∈ GLr(k) tels que :

PMQ(σ) =

[Dr(µ) ∗0m−r,r 0m−r,n−r

].

Si r < m on peut choisir µ = 1. Si r = n = m alors det(M) = ε(σ)µ. La famille(Cσ(i))1≤i≤r est une base du sous-espace de km engendré par les vecteurs colonnes deM . Si C1, · · · , Cr est une famille libre, on peut choisir σ = Id.

Démonstration. Il s’agit de l’algorithme de Gauß. Pour une démonstration complèteet une interprétation de la matrice ∗ voir le théorème 1.2.3.1 p. 45 du livre "Algèbredes matrices" par Jean Fresnel. J’indiquerai au tableau les grandes lignes de cet al-gorithme qu’il faut vraiment maîtriser. Ce théorème admet énormément de varianteset il est essentiel que vous disposiez d’une référence qui vous convienne à ce sujet.�Cet algorithme a une foule d’applications pratiques. Initialement c’est une ex-

cellente méthode de résolution des systèmes linéaires. Ensuite l’algèbre linéaire seramène, pour l’essentiel, à la résolution de ces systèmes. Je mentionnerai par exemplele critère d’inversibilité et l’inversion de matrices carrés.

Corollaire 2.3.5 Soient k un corps etM ∈ GLn(k). AlorsM = PDn(µ) = Dn(µ)Qoù det(M) = µ et où les matrices P et Q sont des produits de Ti,j(λ). En particulierGLn(k) est engendré par les Ti,j(λ) et les Dn(µ), et le sous-groupe SLn(k) formé desmatrices de déterminant 1 est engendré par les Ti,j(λ).

Démonstration. Par le théorème puisque M est inversible on peut prendre σ = Id etécrire M = P−1Dn(µ), mais P et donc P−1 est produit de Ti,j(λ). On montre qu’onpeut écrire M = Dn(µ)Q en utilisant la version "duale" du théorème pour laquelleon permute les lignes et on "nettoie" les colonnes. �

Page 24: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

24

Page 25: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

Chapitre 3

Déterminant.

Dans ce chapitre on définit la notion de déterminant en le replaçant dans lescontexte plus général des formes multilinéaires d’un module libre sur un anneaucommutatif unitaire. Le cadre des formes multilinéaires rend plus naturelle les for-mules de définition qui autrement paraissent parachutées. Utiliser un anneau et nonun corps de scalaires donne plus de souplesse pour des applications classiques. Parexemple cela permet de définir un polynôme caractéristique (et pas une fractionrationnelle) associée à un endomorphisme de façon rigoureuse et sans contorsionsridicules. Cette présentation du déterminant peut paraître abstraite. On devra par-fois penser au cadre plus intuitif des espaces vectoriels euclidiens, et dans ce cadreil est bon de se souvenir que le déterminant d’un système de vecteurs est le volumedu parallélotope bordé par ces vecteurs. Ce point de vue sera rappelé au chapitresuivant consacré aux sous-groupes de Rn.

3.1 Formes multilinéaires alternées.

On fixe un anneau commutatif unitaire A et un A-module libre de rang n notéE, dont on fixe une base ε1, · · · , εn.

Définition 3.1.1 Soit p un entier

1. Une forme p-linéaire sur E est une application ϕ : Ep −→ A linéaire par rap-port à chacune des coordonnées. C’est à dire telle que pour tout λ ∈ A, tout(xi)

i=pi=1 ∈ Ep et tout x ∈ E on ait

f(x1, · · · , λxi + x, · · · , xp) = λf(x1, · · · , xi, · · · , xp)+ f(x1, · · · , x, · · · , xp).

2. L’ensemble des formes p-linéaires sur E se note Lp(E,A). C’est un A modulepour les opérations naturelles

(λϕ+ ψ)(x1, · · · , xp) = λϕ(x1, · · · , xp) + ψ(x1, · · · , xp).

Pour tout entier naturel k on note Nk = {1 · · · , k} l’ensemble des k premiers entiersnaturels. Par abus on note Np

n = NNpn l’ensemble des np applications de Np dans Nn.

25

Page 26: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

26

Pour tout α ∈ Npn et tout (x1, · · · , xp) ∈ Ep avec xj =

∑ni=1 xi,jεi on pose :

eα(x1, · · · , xp) =

p∏j=1

xα(j),j.

Ces eα sont manifestement des formes p-linéaires. En fait on a :

Proposition 3.1.2 La famille eα est une base du module Lp(E,A), qui est donclibre de rang np.

Démonstration. Partant de la formule évidente εj =∑n

i=1 δi,jεi on obtient pour toutα, β ∈ Np

n :

eα(εβ(1), · · · , εβ(p)) =

p∏j=1

δα(j),β(j) =

{1 si α = β0 sinon.

En particulier si∑

α∈Npn λαeα = 0 alors pour tout β ∈ Npn on a l’égalité 0 =∑

α∈Npn λαeα(εβ(1), · · · , εβ(p)) = λβ, d’où la liberté de la famille eα. Pour voir queeα est génératrice on constate que tout forme p-linéaire ϕ s’écrit

ϕ =∑α∈Npn

ϕ(εα(1), · · · , εα(p))eα.

Pour démontrer cette dernière égalité une façon de procéder est de "multiplier lesindices avec soin", ce que je laisse à la charge des lecteurs. Alternativement on peutconstater que cette égalité est immédiate lorsqu’on l’évalue contre une famille devecteurs de la forme (εβ(1), · · · , εβ(p)) pour β ∈ Np

n. Ensuite par récurrence sur p ondémontre que deux formes p-linéaires sont égales si et seulement si elles coïncidentaprès évaluation contre ces familles de vecteurs. En effet pour p = 1 c’est dire quedeux formes linéaires sont égales si et seulement si elles coïncident sur une base. Pourl’hérédité on utilise que pour toute forme p-linéaire ϕ l’application (x2, · · · , xp) 7→ϕ(εi, x2, · · · , xp) est une forme p− 1 linéaire, donc caractérisée par ses valeurs en lesfamilles de vecteurs de la forme (εβ(2), · · · , εβ(p)) avec β parcourant Np

n. �Remarque : En fait on utilise sans le dire l’isomorphisme canonique Lp(E,A) ∼=

L(E,Lp−1(E,A)) défini comme suit :

ϕ ∈ Lp(E,A) 7→ (x 7→ ((x2, · · · , xp) 7→ ϕ(x, x2, · · · , xp)))

Pour le cas particulier des espaces vectoriels sur un corps, cet isomorphisme permetde calculer les dimensions par récurrence (on trouve bien np) et dispense de vérifierque la famille eα est génératrice.

Définition 3.1.3

1. Une forme p-linéaire ϕ sur E est dite alternée lorsque pour toute famille(x1, · · · , xp) de E on a ϕ(x1, · · · , xp) = 0 dès qu’il existe i 6= j avec xi = xj.

2. L’ensemble de toutes les formes p-linéaires alternées forme un sous-A-modulede Lp(E,A) noté Ap(E,A).

Page 27: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

27

Lemme 3.1.4 Soit ϕ ∈ Ap(E,A) alors pour toute permutation σ ∈ Sp de signatureε(σ) on a ϕ(xσ(1), · · · , xσ(p)) = ε(σ)ϕ(x1, · · · , xp).

Démonstration. Puisque les transpositions engendrent Sp et que la signature est unhomomorphisme on se ramène au cas particulier σ = (h k) avec 1 ≤ h < k ≤ p etε(σ) = −1. Alors la forme bilinéaire

(x, y) 7→ ϕ(x1, · · · , xh−1, x, xh+1, · · · , xk−1, y, xk+1, · · · , xp)

est alternée donc antisymétrique par la proposition 5.1.10. �

Proposition 3.1.5 Si p > n alors Ap(E,A) = {0}.

Démonstration. Soit ϕ ∈ Ap(E,A) ⊂ Lp(E,A). Alors dans la base eα associée àla base ε on peut écrire ϕ =

∑α ϕ(εα(1), · · · , εα(p))eα. Mais p > n donc aucune

application α n’est injective et on a forcément une répétition α(i) = α(j) pouri 6= j. Comme ϕ est alternée on en déduit ϕ(εα(1), · · · , εα(p)) = 0. �

3.2 La forme déterminant.Théorème 3.2.1 (fondamental) Soit E un A-module libre de rang n. Le moduleAn(E,A) est libre de rang 1 sur A, engendré par la forme déterminant detε associéeà toute base ε (voir définition 3.2.2).

La suite de ce paragraphe est consacré à la démonstration de ce théorème. Soitε1, · · · , εn une base de E, et soit eα la base de Ln(E,A) associée. Tout ϕ ∈ An(E,A)s’écrit donc ϕ =

∑α ϕ(εα(1), · · · , εα(n))eα. Mais si α ∈ Nn

n n’est pas bijective alors αn’est pas injective et puisque ϕ est alternée on a ϕ(εα(1), · · · , εα(n)) = 0 pour α 6∈ Sn.D’autre part par la proposition 3.1.4 on a pour tout σ ∈ Sn, ϕ(εσ(1), · · · , εσ(n)) =ε(σ)ϕ(ε1, · · · , εn). Cela donne l’identité :

ϕ =∑σ∈Sn

ε(σ)ϕ(ε1, · · · , εn)eσ = ϕ(ε1, · · · , εn)∑σ∈Sn

ε(σ)eσ.

Définition 3.2.2 On appelle déterminant relativement à la base ε et on note detεla forme n-linéaire

detε =∑σ∈Sn

ε(σ)eσ.

Explicitement la forme déterminant évaluée en le système de vecteur xj =∑n

i=1 xi,jεis’écrit

detε(x1, · · · , xn) =∑σ∈Sn

ε(σ)n∏i=1

xσ(i),i.

Cette forme est non nulle (les eσ sont A-libres) et on a vu que An(E,A) est contenudans le sous-A-module monogène engendré par detε.

An(E,A) ⊂ Adetε.

Pour terminer la preuve du théorème il faut démontrer que detε est alternée et n’estpas de torsion.

Page 28: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

28

Lemme 3.2.3 La forme detε n’est pas de torsion.

Démonstration. En effet si λ ∈ A alors λdetε(ε1, · · · , εn) = λ. D’où l’équivalenceλdetε = 0 ⇐⇒ λ = 0. �

Lemme 3.2.4 La forme detε est alternée.

Démonstration. On donne d’abord une démonstration plus "conceptuelle" et plussimple en supposant que 2 ne divise pas 0 dans A. On définit une action linéaire (i.e.par automorphisme) du groupe Sp sur Lp(E,A) en posant

(σ ∗ ϕ)(x1, · · · , xp) = ϕ(xσ(1), · · · , xσ(p)).

Pour cette action l’orbite des eα est facile à décrire puisque σ ∗ eα = eα◦σ−1 . Dansnotre cas particulier n = p, on voit que pour toute permutation γ on a

γ ∗ detε = γ ∗∑σ∈Sn

ε(σ)eσ =∑σ∈Sn

ε(σ)γ ∗ eσ =∑σ∈Sn

ε(σ)eσ◦γ−1

=∑σ∈Sn

ε(σ ◦ γ)eσ =∑σ∈Sn

ε(σ)ε(γ)eσ = ε(γ)detε.

On trouve donc que pour tout transposition τ on a τ ∗ detε = −detε. Si 2 nedivise pas zéro dans A les formes bilinéaires antisymétriques sont alternées (c’estla proposition 5.1.9) et la forme (x, y) 7→ detε(x1, · · · , x, · · · , y, · · · , xp) est anti-symétrique puisque échanger x et y revient à faire agir une transposition sur detε.Cela démontre le lemme sous l’hypothèse "2 ne divise pas 0 dans A".

En général on procède de façon plus calculatoire et l’action de Sn qui sert defil conducteur n’a même pas besoin d’être définie. Soit (x1, · · · , xn) une famille deE avec xh = xk pour h < k et écrivons xj =

∑ni=1 xi,jεi. Soit τ la transposition

τ = (h k). Alors on a Sn = An q Anτ et on en déduit :

detε(x1, · · · , xn) =∑σ∈Sn

ε(σ)n∏i=1

xσ(i),i

=∑σ∈An

ε(σ)n∏i=1

xσ(i),i +∑σ∈An

ε(στ)n∏i=1

xσ(τ(i)),i

=∑σ∈An

ε(σ)n∏i=1

xσ(i),i −∑σ∈An

ε(σ)n∏i=1

xσ(τ(i)),i

= 0.

En effet xσ(τ(h)),h = xσ(k),h = xσ(k),k, par symétrie xσ(τ(k)),k = xσ(h),h et pour tout lesautres i 6= h, k on a xσ(τ(i)),i = xσ(i),i. �

Conclusion : On a vu que An(E,A) est libre monogène engendré par detε.En outre si ϕ ∈ An(E,A) alors ϕ = ϕ(ε1, · · · , εn) detε. On appelle déterminant dusystème de vecteurs (x1, · · · , xn) relativement à ε la quantité detε(x1, · · · , xn).

Page 29: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

29

3.3 Déterminant d’un endomorphisme.

Proposition et définition 3.3.1 Soit f un endomorphisme de E. Il existe ununique scalaire det(f) ∈ A tel que pour toute forme linéaire alternée ϕ ∈ An(E)on ait :

ϕ(f(x1), · · · , f(xn)) = det(f)ϕ(x1, · · · , xn).

Ce scalaire s’appelle le déterminant de f .

Démonstration. On fixe une base ε de E. Puisque f est linéaire la forme

(x1, · · · , xn) 7→ detε

(f(x1), · · · , f(xn))

est n-linéaire alternée et par le théorème fondamental 3.2.1 il existe un scalaire αtel que :

detε(f(x1), · · · , f(xn)) = αdetε(x1, · · · , xn),

pour tout (x1, · · · , xn) de En, c’est-à-dire que le scalaire α vérifie l’identité requisepour la forme detε. Mais comme An(E,A) est monogène engendré par detε et commeA est commutatif, le scalaire α = det(f) convient aussi pour tout ϕ = λϕ detε ∈An(E,A). �

En cours de démonstration on a obtenu la formule (valable pour toute famillex1, · · · , xn telle que detε(x1, · · · , xn) ∈ A×) :

det(f) = detε(f(x1), · · · , f(xn))detε(x1, · · · , xn)−1.

En particulier puisque detε(ε1, · · · , εn) = 1 on retrouve la formule (utile pour lescalculs pratique mais parfois parachutée en guise de définition) :

det(f) = detε(f(ε1), · · · , f(εn)).

Proposition 3.3.2 Pour tous f, g ∈ EndA(E) on a det(fg) = det(f) det(g). Pourf = Id on a det(Id) = 1. En conséquence si f est inversible alors det(f) aussi et ona det(f)−1 = det(f−1).

Démonstration. Par la proposition-définition 3.3.1 on a pour tous (x1, · · · , xn) de Eles identités :

det(fg)detε(x1, · · · , xn) = detε(fg(x1), · · · , fg(xn))

= det(f)detε(g(x1), · · · , g(xn))

= det(f) det(g)detε(x1, · · · , xn)

.

On en déduit det(fg) = det(f) det(g) en prenant (x1, · · · , xn) = (ε1, · · · , εn). Lereste de la proposition est immédiat. �

Page 30: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

30

3.4 Déterminant d’une matrice carré.Définition 3.4.1 Pour une matrice carré M = [mi,j] on pose

det(M) =∑σ∈Sn

ε(σ)n∏i=1

mσ(i),i.

On note aussidet(M) = |mi,j| .

Proposition 3.4.2 Soit M ∈ Mn(A) une matrice dont on note [C1, · · · , Cn] lescolonnes.

1. det(M) = det(tM)

2. det est une forme n linéaire alternée des colonnes de M (resp. des lignes deM).

3. Si ε est la base canonique de An, alors det(M) = detε(C1, · · · , Cn).4. Pour toute base ε de E et tout endomorphisme f de E on a

det(f) = det(Matε(f)).

Démonstration. Pour 1, on part de la formule de définition et on obtient :

det(M) =∑σ∈Sn

ε(σ)n∏i=1

mσ(i),i =∑σ∈Sn

ε(σ−1)n∏i=1

mσ−1(i),i

=∑σ∈Sn

ε(σ)n∏j=1

mj,σ(j) = det(tM)

Les autres affirmations sont immédiates. �

3.5 Techniques de calculs.

3.5.1 Matrices triangulaires par blocs.

Lemme 3.5.1 Soit A un anneau commutatif et M ∈ Mr(A), N ∈ Mr,s(A) et P ∈Ms(A) alors ∣∣∣∣ M N

0 P

∣∣∣∣ = |M ||P |.

Proposition 3.5.2 Soient Mi ∈Mri(A) pour 1 ≤ 1 ≤ r. Alors∣∣∣∣∣∣∣∣A1 ∗ ∗ ∗0 A2 ∗ ∗0 0 ∗ ∗0 0 0 Ar

∣∣∣∣∣∣∣∣ =r∏i=1

|Ai|

Démonstration. Voir p. 35 du livre "algèbre des matrices" de Fresnel.

Page 31: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

31

3.5.2 Pivot de Gauß.

C’est l’une des plus efficaces en général. On a déjà vu ensemble le principe defonctionnement. le plus rapide est de rendre triangulaire (supérieure ou inférieure)la matrice avec des opérations élémentaires sur les lignes ou les colonnes. Le déter-minant de la matrice est alors égal au produit des coefficients de la diagonale par laproposition 3.5.2. Voir p. 38 du même livre.

3.5.3 Développement par rapport à une ligne ou une colonne.

La formule et la démonstration se trouve p. 64 du livre de R. Goblot "algèbrelinéaire". Étant donnée M = [mi,j] une matrice de Mn(A) On note Mi,j la sous-matrice de M obtenue en enlevant la i-ième ligne et la j-ième colonne de M . Alorspour tout i et tout j on a

|M | =n∑h=1

(−1)h+jmh,j|Mh,j| =n∑k=1

(−1)k+imi,k|Mi,k|.

La seconde égalité s’obtient en transposant la première. Pour la première on utilisela linéarité du déterminant par rapport à la j-ième colonne, puis on effectue despermutation sur lignes et colonnes (d’où le signe (−1)h+j) pour se ramener à nmatrices de la forme (

1 ∗0 Mh,j

).

Le déterminant de ces matrices est |Mh,j| par la proposition 3.5.2. Ces formules(Cramer) ont un corollaire important (référence la p. 65 du livre de Goblot), c’estcelle qui justifie l’introduction de la transposée de la comatrice d’une matrice.

Définition 3.5.3 On appelle comatrice de M et on note M la matrice M = (mi,j)où mi,j = (−1)i+j|Mi,j|.

Proposition 3.5.4tMM = MM t = det(M)In.

Corollaire 3.5.5 Une matrice M ∈Mn(A) est inversible si et seulement si

det(M) ∈ A×.

Corollaire 3.5.6 Un endomorphisme f de E est inversible si et seulement si

det(f) ∈ A×.

Corollaire 3.5.7 Une famille de vecteurs x1, · · · , xn de E forme une base de E siet seulement si

detε

(x1, · · · , xn) ∈ A×.

Dans le cadre des espaces vectoriels sur un corps ces corollaires s’obtiennent sansla proposition 3.5.4 en utilisant le principe (mis en défaut avec les modules) qu’unefamille libre de rang maximal est une base.

Page 32: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

32

3.6 Applications classiques.Il y quatre "applications" de la notion de déterminant qui sont incontournables.

J’en donne la liste et une référence pour les trois première mais vous pouvez retrouverces exemples développés un peu partout.

1. Déterminant de Vandermonde : La matrice de Vandermonde, en liaison avecles polynômes de Lagrange est définie p.42 du livre de Goblot. La formule dudéterminant de Vandermonde est donnée en exercice p. 76. La correction decet exercice peut se trouver en principe n’importe où.

2. Déterminant circulant : voir exercice III.2 p.76 du livre de Goblot.3. Matrice résultante et son déterminant le résultant de deux polynômes : voir

p.43 et 67 du livre de Goblot.4. Polynôme caractéristique d’un endomorphisme d’un espace vectoriel V sur un

corps k : c’est le déterminant d’une matrice à coefficient dans k[X].

Page 33: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

Chapitre 4

Dualité.

4.1 Dual d’un espace vectoriel.Dans la suite E désignera un espace vectoriel sur un corps commutatif k, sans

autre restriction de généralité. Je m’attend à ce que les lecteurs soient familiarisésavec l’algèbre linéaire sur le corps des réels R et éventuellement sur C. L’un desobjectifs de ce cours est vous donner accès à d’autres exemples. Les autres corpsque vous pouvez utiliser comprennent (sans prétendre être exhaustif) Fp, Q, Q[

√3],

tout extension algébrique (voire clotûre) des précédents, les corps de fonctions k(T )à coefficient dans l’un des corps précédents, etc...

Définition 4.1.1 Soit E un k-espace vectoriel. On appelle dual de E et on note E∗l’espace vectoriel des applications k-linéaires de E dans k. Les éléments de E∗ sontappelées formes linéaires.

Par exemple la projection sur la i-ième composante pi : kn −→ k définie par laformule pi(x1, · · · , xn) = xi est une forme linéaire.

Notation : Si ϕ est une forme linéaire sur E et si x ∈ E on notera

〈ϕ, x〉 = ϕ(x)

Définition 4.1.2 Soit (ei)i∈I une base de E. Pour tout i ∈ I on note e∗i la i-ièmeforme linéaire coordonnée définie par

e∗i (ej) = δi,j =

{1 si i = j0 si i 6= j

Remarque : ∀x ∈ E, x =∑i∈I

〈e∗i , x〉ei, et cette somme est finie.

Exercice 4.1 On suppose k de caractéristique nulle (autrement dit n 6= 0 dans kpour tout entier n non nul).

1. On prend E = k[X] l’espace vectoriel des polynômes à coefficient dans k munide sa base canonique (en = Xn)n∈N. On note P (n)(X) la n-ième dérivée formelledu polynôme P (X). Vérifier que la forme linéaire coordonnée est donnée parla formule

e∗n(P ) =P (n)(0)

n!

33

Page 34: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

34

2. On prend E = kn[X] l’espace vectoriel des polynômes à coefficient dans k dedegré inférieur ou égal à n. Déterminer la forme linéaire coordonnée d’indicej de la base

f0(X) = 1, f1(X) = X, · · · , fn(X) =X(X − 1) · · · (X − n+ 1)

n!.

Exemple : Soit E un k-espace vectoriel muni d’une base (ei)i∈I . Soit ϕ la formelinéaire définie par ∀i ∈ I, ϕ(ei) = 1. Si I est fini alors ϕ =

∑i∈I e

∗i est dans

l’espace vectoriel engendré par les e∗i . Si au contraire I n’est pas fini alors ϕ n’estpas combinaison linéaire finie des e∗i : en effet pour tout sous-ensemble fini J ⊂ I ettout i ∈ I \ J on a

∑j∈J λje

∗j(ei) = 0 6= 1 = ϕ(ei).

Théorème 4.1.3 On se donne une base de E notée B = (ei)i∈I . On considère lafamille B∗ = (e∗i )i∈I . Alors B∗ est une famille libre de E∗. C’est une base de E∗ siet seulement si E est de dimension finie. Auquel cas B∗ est appelée base duale de B.

Démonstration. On part d’une relation linéaire finie∑

j∈J λje∗j = 0. Alors pour tout

k ∈ J on a λk =∑

j∈J λje∗j(ek) = 0. Cela montre que B∗ est libre. Si en outre I est

fini alors B est générateur puisque tout ϕ de E∗ s’écrit ϕ =∑

i∈I ϕ(ei)e∗i . Enfin si

I n’est pas fini le contre-exemple qui précède le théorème s’applique et B∗ n’est pasgénérateur. �

Proposition 4.1.4 Le crochet de dualité 〈ϕ, x〉 satisfait les propriétés suivantes :1. les applications ϕ 7→ 〈ϕ, x〉 et x 7→ 〈ϕ, x〉 sont k-linéaires.2. La forme linéaire ϕ est nulle si et seulement si pour tout x ∈ E, 〈ϕ, x〉 = 0.3. Un élément x ∈ E est nul si et seulement si pour tout forme linéaire ϕ ∈ E∗,〈ϕ, x〉 = 0.

Démonstration. 1. et 2. sont évidents. Pour 3. le sens direct est immédiat. On supposex non nul et on doit trouver une forme linéaire qui ne s’annule pas en x. Mais puisquex est non nul le théorème de la base incomplète fournit une base commençant parx, et donc une forme linéaire x∗ associée à cette base vérifiant x∗(x) = 1 6= 0. �

Proposition 4.1.5 Soit kN l’espace des suites à valeurs dans k et soit k(N) l’espacedes suites ultimement nulles (à valeur dans k aussi). Le dual de k(N) est kN.

Démonstration. Sur k(N) on dispose de la base canonique ei définie par ei(n) =δi,n. Grâce à cette base on voit que l’application linéaire ϕ 7→ (ϕ(ei))i∈N est unisomorphisme de (k(N))∗ sur kN. �

4.2 bidualDéfinition 4.2.1 Soit E un espace vectoriel sur k. Le bidual de E est le dual dudual de E. On le note E∗∗.

Proposition 4.2.2 Soit E un espace vectoriel.

Page 35: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

35

1. A tout x de E on associe la forme linéaire δx : E∗ −→ k définie par δx(ϕ) =ϕ(x). L’application x 7→ δx est linéaire et injective (on l’appelle l’injectioncanonique d’un espace dans son bidual). En dimension finie cette injectioncanonique est un isomorphisme.

2. On se donne une base B = (ei)i∈I de E. Alors l’application linéaire ei 7→ e∗iest une injection de E dans E∗. C’est un isomorphisme en dimension finie.

Démonstration. Lorsque E est de dimension fini on a vu avec les bases duales quedim(E) = dim(E∗). Les isomorphies en dimensions finies sont donc conséquencesdes injections et de l’égalité des dimensions. L’application du 1. est clairement biendéfinie et linéaire. Son injectivité provient du 3 de la proposition 4.1.4. L’applicationdu 2. est définie par linéarité à partir d’une base. Cette application est injectivepuisque la famille B∗ est libre (théorème 4.1.3). �

Remarque : L’application E −→ E∗∗ est dite canonique puisqu’elle ne dépendpas du choix d’une base sur E. Elle est intrinsèque à E. Par contre l’application du2. dépend du choix de la base. Par exemple dans Q2 l’image du vecteur (0, 1) changeselon qu’on le complète en une base avec le vecteur (1, 1) ou bien avec le vecteur(1, 0).

4.3 OrthogonalitéDans ce paragraphe, sauf mention explicite du contraire, E est de dimension

quelconque (finie ou pas). La plupart des résultats sont énoncés dans la littératureen supposant la dimension finie, mais ils restent valables en toute généralité et cettehypothèse ne simplifie même pas les preuves.

Définition 4.3.1

1. Soit F un sous-espace de E, on appelle orthogonal de F dans E∗ et on noteF⊥ le sous-espace de E∗ des formes linéaires qui s’annulent sur F .

F⊥ = {ϕ ∈ E∗; ∀x ∈ F, ϕ(x) = 0}

2. Soit G un sous-espace vectoriel de E∗, on appelle orthogonal de G dans E eton note G0 l’intersection dans E des noyaux des éléments de G.

G0 = {x ∈ E; ∀ϕ ∈ G, ϕ(x) = 0}

Proposition 4.3.2 Soit E un espace vectoriel sur k, soient F et F ′ deux sous-espacede E, et soit G un sous-espace de E∗ alors :

1. (F ⊂ F ′) =⇒((F ′)⊥ ⊂ F⊥

)2. (F + F ′)⊥ = F⊥ ∩ (F ′)⊥

3. F⊥ + (F ′)⊥ = (F ∩ F ′)⊥

4. Toute forme linéaire de F⊥ se factorise en une forme linéaire ϕ de E/F . Celadéfinit un isomorphisme canonique F⊥ ∼−→ (E/F )∗.

5. (F⊥)0 = F

Page 36: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

36

6. G ⊂ (G0)⊥.

Démonstration. 1. suit directement de la définition.Soit ϕ ∈ (F + F ′)⊥ alors puisque F ∪ F ′ ⊂ F + F ′ on a ϕ(F ) = ϕ(F ′) = 0, d’où

ϕ ∈ F⊥ ∩ (F ′)⊥. Réciproquement soit ψ ∈ F⊥ ∩ (F ′)⊥, et soit x ∈ F + F ′. Alors xpeut s’écrire x = f + f ′ avec f ∈ F et f ′ ∈ F ′. Il suit ψ(x) = ψ(f) + ψ(f ′) = 0.Donc ψ ∈ (F + F ′)⊥. Cela démontre 2.

Puisque F∩F ′ ⊂ F on a F⊥ ⊂ (F∩F ′)⊥. De même on montre l’inclusion (F ′)⊥ ⊂(F ∩F ′)⊥ et il suit F⊥+(F ′)⊥ ⊂ (F ∩F ′)⊥. Réciproquement soit ϕ ∈ (F ∩F ′)⊥. Parle théorème de la base incomplète (valable aussi en dimension infinie) on peut écrireE = (F ∩ F ′)⊕ Fs ⊕ F ′s ⊕ S où l’espace S est un supplémentaire de F + F ′ dans E,l’espace Fs un supplémentaire de (F ∩ F ′) dans F et l’espace F ′s un supplémentairede (F ∩ F ′) dans F ′. Suivant cette décomposition de E, la forme linéaire ϕ s’écritcomme somme 1 ϕ = t + u + v + w avec t ∈ (F ∩ F ′)∗, u ∈ F ∗s , v ∈ (F ′s)

∗, etw ∈ S∗. Comme ϕ ∈ (F ∩ F ′)⊥ on a t = 0. On remarque que u ∈ (F ′)⊥ tandis quev + w ∈ (F )⊥, ce qui donne ϕ = u+ (v + w) ∈ (F ′)⊥ + F⊥ et démontre 3.

Par définition si ϕ ∈ F⊥ alors F ⊂ Kerϕ et donc ϕ se factorise en (ϕ : E/F −→k) ∈ (E/F )∗. On note πF : E −→ E/F la surjection canonique. Pour Montrer quel’application ϕ 7→ ϕ est un isomorphisme de F⊥ sur (E/F )∗ on doit vérifier :

1. que cette application est linéaire : Exercice.2. que cette application est surjective, mais si ψ ∈ (E/F )∗ alors l’application

linéaire ψ ◦ πF ∈ F⊥ ⊂ E∗ est un antécédent de ψ.3. que cette application est injective, mais si ϕ est la forme linéaire nulle, alors

on a ϕ = ϕ ◦ πF = 0.Cela démontre 4.

Soit x ∈ F . Alors pour tout ϕ ∈ F⊥ on a ϕ(x) = 0 et donc x ∈ (F⊥)0. D’oùl’inclusion F ⊂ (F⊥)0. En dimension fini on conclut la démonstration avec l’égalitédes dimensions (voir la proposition 4.3.3 qui suit). En général pour montrer l’égalitéF = (F⊥)0 on procède par l’absurde et on suppose l’existence d’un x ∈ ((F⊥)0 \F ).Soit F une base de F , et B une base de E qui complète F ∪ {x}. Alors la formelinéaire x∗ relative à la base B appartient à F⊥ mais ne s’annule pas sur x : celacontredit x ∈ (F⊥)0. Cela démontre 5.

Soit ϕ ∈ G. Alors pour tout x ∈ G0 on a ϕ(x) = 0 et donc ϕ ∈ (G0)⊥. D’oùl’inclusion 6. �

Contre-exemple : On prend E = k(N) muni de sa base canonique (ei)i∈N commedans la proposition 4.1.5. Soit G le sous espace de kN engendré par les e∗i . AlorsG0 = 0 et donc (G0)⊥ = E∗, mais G $ E∗ (voir l’exemple qui suit l’exercice 4.1)

En dimension fini on peut identifier E à son bidual. Cela permet de traduire dansE∗ la proposition 4.3.2 et donne le complément d’information ci-dessous.

Proposition 4.3.3 Soit E un espace vectoriel de dimension finie, soit F un sous-espace de E et soit G un sous-espace de E∗.

1. Étant donnée une écriture de E en somme directe E = A⊕B on peut considérer A∗ commesous-espace de E∗ en prolongeant les éléments de A∗ par 0 sur B. Cette injection A∗ ↪→ E∗ n’estpas canonique puisqu’elle dépend du choix du supplémentaire B. Par contre pour A et B fixé etpour tout V on a un isomorphisme canonique Hom(A⊕B, V ) ∼= Hom(A, V )⊕Hom(B, V ), et celase généralise aux sommes directes de plus de deux espaces.

Page 37: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

37

1. dimF + dimF⊥ = dimE.

2. dimG+ dimG0 = dimE∗.

3. G = (G0)⊥.

Démonstration. En dimension finie le théorème du rang appliqué à la surjectioncanonique πF : E −→ E/F donne l’égalité dimE = dim(E/F ) + dimF , tandis quele 4. de la proposition 4.3.2 donne l’égalité dim(E/F ) = dimF⊥. Cela démontre 1.

la propriété 2 est la propriété duale de 1. Puisque la dualité est parfaite endimension finie, cela suffit à démontrer 2. Pour se familiariser à cet exercice ondétaille la preuve pour cette fois. Soit ı : E −→ E∗∗ l’isomorphisme canonique. Alorspar définition même on a ı(G0) = G⊥. Il suit dim(G0) = dimG⊥ puis avec l’égalité1. dans E∗ on en déduit 2.

L’affirmation 6. de la proposition 4.3.2 fournit l’inclusion G ⊂ (G0)⊥. L’égalitésuit puisque les dimensions sont les mêmes d’après 1. et 2. Cela démontre 3. �

Lemme 4.3.4 Soit f et soit (fi)1≤i≤n des formes linéaires sur E. Alors f est com-binaison linéaire des fi si et seulement si ∩ni=1 Ker fi ⊂ Ker f .

Démonstration. Le sens direct est évident. Pour montrer la réciproque on suppose∩ni=1 Ker fi ⊂ Ker f . On vérifie d’abord que pour une seule forme linéaire on a 〈f〉 =(Ker f)⊥. Par le 6 de la proposition 4.3.2 on sait déjà que 〈f〉 ⊂ (〈f〉0)⊥ = (Ker f)⊥.Réciproquement, soit ϕ ∈ (Ker f)⊥ non nulle et soit x ∈ E tel que ϕ(x) 6= 0. Alorspuisque le sous-espace Ker f = Kerϕ admet 〈x〉 comme supplémentaire dans E ona f(x) 6= 0 et aussi ϕ = (ϕ(x)/f(x))f ∈ 〈f〉. D’où l’égalité. (argument plus rapide àméditer : on passe aux quotient par Ker f et alors on est en dimension 1 et le 3. dela proposition 4.3.3 s’applique). Avec l’identité 〈f〉 = (Ker f)⊥ et dans l’ordre le 1.et le 3. de la proposition 4.3.2 on en déduit

〈f〉 = (Ker f)⊥ ⊂ (n⋂i=1

Ker fi)⊥ =

n∑i=1

(Ker fi)⊥ = 〈f1, · · · , fn〉

Proposition 4.3.5 (formules de Cramer) On suppose E de dimension finie net on se donne une forme n-linéaire alternée φ non nulle sur E (i.e. telle queφ(e1, · · · , en) 6= 0). Alors la forme linéaire

x 7→ φ(e1, · · · , ei−1, x, ei+1, · · · , en)

φ(e1, · · · , en)

est la forme linéaire e∗i . On retrouve ainsi les formules de Cramer

x =n∑i=1

φ(e1, · · · , ei−1, x, ei+1, · · · , en)

φ(e1, · · · , en)ei

Démonstration. C’est immédiat. �

Page 38: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

38

4.4 Problème : codimension des noyauxIl s’agit de démontrer la proposition 4.4.2.

Définition 4.4.1 Soit E un espace vectoriel et F ⊂ E un sous-espace. On appellecodimension de F dans E et on note codim(F ) la dimension du quotient E/F .

Proposition 4.4.2 Soit E un espace vectoriel sur k.1. Soient f1, · · · , fl ∈ E∗. La dimension de 〈f1, · · · , fl〉 est égal à la codimension

de ∩li=1 Ker fi.2. Réciproquement si H est un sous-espace de codimension r il existe r formes

linéaires indépendantes f1, · · · , fr telles que H = ∩ri=1 Ker fi

Indication :

1. Sens direct :(a) Utiliser le lemme 4.3.4 pour montrer qu’on peut supposer les fi linéaire-

ment indépendants.(b) Passer au quotient par ∩li=1 Ker fi pour se ramener au cas de l formes

linéaires indépendantes et dimE = l.(c) conclure.

2. Sens réciproque : utiliser l’identification H⊥ ∼−→ (E/H)∗.

Page 39: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

39

4.5 Transposée d’une application linéaire.Définition 4.5.1 Soient E et F deux espaces vectoriels et f : E −→ F une appli-cation linéaire. La transposée de f , notée f t est l’application linéaire

f t : F ∗ // E∗

ϕ � // ϕ ◦ f.

Proposition 4.5.2 Soient E et F deux espaces vectoriels et f : E −→ F une ap-plication linéaire.

1. ∀x ∈ E, ∀ϕ ∈ F , 〈ϕ, f(x)〉 = 〈f t(ϕ), x〉.2. Si g : E −→ F est une autre application linéaire alors (f + g)t = f t + gt.3. Si g : F −→ G est une autre application linéaire alors (g ◦ f)t = f t ◦ gt

4. Si f est inversible alors f t aussi et on a (f t)−1 = (f−1)t.5. (Ker f)⊥ = Im(f t) et (Im f)⊥ = Ker(f t).6. Le rang de f est égal à celui de f t.

Démonstration. 1. et 2. sont immédiats.Par définition, pour ϕ ∈ G∗ on a (g ◦f)t(ϕ) = ϕ◦ g ◦f = f t(ϕ◦ g) = f t(gt(ϕ)) =

(f t ◦ gt)(ϕ).Cela démontre 3.Pour tout espace vectoriel E on a (IdE)t = IdE∗ . L’assertion 4. se déduit donc

du 3.Soit ϕ ∈ Im(f t). Alors il existe ψ ∈ F ∗ telle que ϕ = ψ ◦ f , et donc pour tout

x ∈ Ker f on a ϕ(x) = ψ(f(x)) = ψ(0) = 0. Donc ϕ ∈ (Ker f)⊥. Réciproquementsoit ϕ ∈ (Ker f)⊥. Alors Ker f ⊂ Kerϕ et donc par factorisation il existe ψ ∈ F ∗telle que ϕ = ψ ◦ f . Donc ϕ = f t(ψ) ∈ Im(f t). On a démontré la première égalité.Soit ϕ ∈ (Im f)⊥. Alors pour tout x ∈ E on a f t(ϕ)(x) = ϕ(f(x)) = 0. Doncϕ ∈ Ker(f t). Réciproquement soit ϕ ∈ Ker(f t) et soit y = f(x) ∈ Im f . Alorsϕ(y) = ϕ(f(x)) = f t(ϕ)(x) = 0. Donc ϕ ∈ (Im f)⊥ et cela donne la deuxième égalitédu 5.

On a déjà l’égalité Im(f t) = (Ker f)⊥. Par le 4. de la proposition 4.3.2 on saitque (Ker f)⊥ ∼= (E/Ker f)∗. Par factorisation on obtient (E/Ker f)∗ ∼= (Im f)∗ eton a donc un isomorphisme canonique Im(f t) ∼= (Im f)∗. Par définition le rang def est la dimension de son image. Ainsi f est de rang fini si et seulement si f t estde rang fini, et dans ce cas la dimension de (Im f)∗ est égale à celle de Im f et on abien l’égalité de rangs annoncée.

4.6 Quelques calculs matriciels.

4.6.1 Matrice transposée

Définition 4.6.1 SoitA = [ai,j] ∈Mm,n(k)

Page 40: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

40

une matrice à m lignes et n colonnes et à coefficients dans k. On appelle matricetransposée de A et on note At la matrice à n lignes et m colonnes

At = [aj,i] ∈Mn,m(k).

Visuellement on obtient At à partir de A en appliquant une symétrie par rapport àla diagonale principale. Par exemple[

1 23 4

]t=

[1 32 4

].

Proposition 4.6.2 Soient E et F deux espaces vectoriels de dimension finies, mu-nis des bases e1, · · · en pour E et f1, · · · fm pour F . Soient e∗1, · · · , e∗n et f ∗1 , · · · f ∗m lesbases duales. Soit f : E −→ F une application linéaire. Alors la matrice transposéede la matrice de f relativement aux bases (ei) et (fj) est la matrice de l’applicationtransposée f t relativement aux bases (f ∗j ) et (e∗i ).

Démonstration. Exercice. �

4.6.2 Une utilisation du pivot de Gauß.

Soit e1, · · · , en une base de E et soit F un sous-espace de E engendré par lesvecteurs u1, · · · , ul. Soit M la matrice n× l des coordonnées des ui dans la base desej, c’est-à-dire

(u1, · · · , ul) = (e1, · · · , en)M .

En suivant l’algorithme du pivot de Gauß on peut vérifier qu’il existe une matriceinversible A ∈ GLn(k), une matrice de permutation B ∈ GLl(k) et une matricetriangulaire supérieure inversible T avec rang(T ) = dimF telle que

AMB =

[T ∗0 0

].

La matrice A correspond à une suite d’opération sur les lignes de M tandis queB correspond à une suite de permutations des colonnes de M survenant lorsqu’encours d’algorithme on rencontre une colonne nulle avant d’avoir terminé. Soit M ′

la matrice n × (l + 1) obtenue à partir de M en rajoutant la colonne X1, · · · , Xn,c’est-à-dire

(u1, · · · , ul,n∑i=1

Xiei) = (e1, · · · , en)M ′ ,

et soit B′ ∈ GLl+1(k) la matrice représentant la même permutation que B mais vuedans Sl+1 (avec l + 1 comme point fixe). Autrement dit B′ laisse fixe la dernièrecolonne de M’ et permute les autres colonne comme B. Alors on a

AM ′B′ =

[T ∗ ∗0 0 C

].

Alors C est une matrice à n− r lignes et une colonne et chaque ligne de C sera de laforme

∑aiXi. Ces lignes de C fournissent une base de F⊥, c’est-à-dire un système

Page 41: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

41

fondamental d’équation pour F en remplaçant les Xi par les e∗i dans chaque lignede C. En effet les colonnes de T donnent une base de F , la colonne de Xi n’est riend’autre qu’une façon de garder en mémoire les opérations effectuée sur les lignesde M . Les formes linéaires obtenue à partir de C annulent cette base de F parceque la matrice en dessous de T dans AM ′B′ est nulle. Ces formes linéaires sontindépendantes parce que A est inversible. On conclut avec les dimensions.

Exercice 4.2 Dans Q3 avec sa base canonique on étudie les vecteurs u1 = (1, 1, 1),u2 = (2, 1, 1) et u3 = (3, 2, 2). Donner une base de F et de F⊥ (N.B. : lorsqu’onapplique l’algorithme décrit ci-dessus on ne calcule en aucun cas les matrices A niB ni B′)

Exercice 4.3 Trouver un exemple intéressant avec 3 vecteurs de Q4 engendrant unespace F de dimension 2 et réduire cet exemple suivant l’algorithme ci-dessus.

4.7 Dualité dans les espaces euclidiens.

Dans cette section k = R, l’espace E est un espace euclidien de dimension finien et pour x, y dans E on note (x, y) leur produit scalaire. Deux bases B et B′ sontdites de même sens lorsque detB(B′) > 0. Sinon elles sont dites de sens contraire.Être de même sens est une relation d’équivalence sur l’ensemble des bases de E. Ily a deux classes d’équivalences pour cette relation. Le choix d’une de ces classesd’équivalence s’appelle une orientation de E. A orientation fixée les bases de cetteorientation sont dites directes, les autres indirectes.

Proposition 4.7.1 L’application x 7→ (x, .) est un isomorphisme de E sur son dualE∗. En particulier pour toute forme linéaire ϕ il existe un et un seul vecteur xϕ telque 〈ϕ, .〉 = (xϕ, .).

Démonstration. Puisque le produit scalaire est bi-linéaire (x, .) ∈ E∗ pour tout xde E et l’application x 7→ (x, .) est linéaire. Puisque le produit scalaire est nondégénéré cette application est injective. Puisque E et E∗ ont même dimension cetteapplication est un isomorphisme. �

On fixe une orientation sur E. Cela permet entre autre de définir le produitvectoriel de n− 1 éléments :

Lemme 4.7.2 Soit B = {e1, · · · , en} une base directe de E et x1, x2, · · · , xn−1 desvecteurs de E. Il existe un unique vecteur x dans E tel que

∀u ∈ Rn, (x, u) = det B(x1, · · · , xn−1, u).

Démonstration. Comme le déterminant est multilinéaire, l’application

ϕ : u 7→ det B(x1, · · · , xn−1, u)

est une forme linéaire (nulle si et seulement si les xi sont liés). Alors l’unique vecteurx = xϕ de la proposition 4.7.1 correspondant à cette forme linéaire ϕ convient.

Page 42: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

42

Définition 4.7.3 Soit B une base orthonormale directe de E = Rn, et Soientx1, x2, · · · , xn−1 des vecteurs de E. On appelle produit vectoriel des xi et on note

x1 ∧ x2 ∧ · · · ∧ xn−1

l’élément de E défini par le lemme 4.7.2

Proposition 4.7.4 Le produit vectoriel sur E vérifie les propriétés :1. Soit σ ∈ Sn−1 une permutation, alors

xσ(1) ∧ xσ(2) ∧ · · · ∧ xσ(n−1) = ε(σ) (x1 ∧ x2 ∧ · · · ∧ xn−1).

2.(λx1 + µx′1) ∧ · · · ∧ xn−1 = λ (x1 ∧ · · · ∧ xn−1) + µ (x′1 ∧ · · · ∧ xn−1).

3. x1 ∧ · · · ∧ xn−1 = 0 si et seulement si les xi sont liés.

Démonstration. Ces propriétés sont des conséquences de l’unicité du produit vectorielet des propriétés analogues du déterminant. �

Exercice 4.4 Écrire les détails de la démonstration de la proposition 4.7.4.

Page 43: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

Chapitre 5

Formes quadratiques et hermitiennes.

5.1 Généralités sur les formes sesquilinéaires.Soit k un corps et soit σ un automorphisme de k. On note σ(x) = xσ.

Définition 5.1.1 Soit E un k-espace vectoriel. Une application

f : E × E −→ k,

est appelée forme sesquilinéaire ou s’il faut préciser forme σ-sesquilinéaire lorsque1. ∀y ∈ E, x 7→ f(x, y) est k-linéaire.2. ∀x ∈ E, y 7→ f(x, y) est semi-linéaire, c’est-à-dire additive et vérifiant pour

tout x, y dans E et tout λ dans k, f(x, λy) = λσf(x, y).

Exemple :

1. Pour σ = Id on retrouve les formes bilinéaires.2. Pour k = C, E = Cn et σ la conjugaison complexe le produit hermitien

canonique

〈(z1, · · · , zn), (z′1, · · · , z′n)〉 =n∑i=1

ziσ(z′i),

est σ-sesquilinéaire.Dans la suite de ce chapitre on va supposer E de dimension finie n = dimE.Représentation matricielle Soit e1, · · · en une base de E et soit M la matriceM = [f(ei, ej)]1≤i,j≤n. Alors pour u =

∑xiei et v =

∑yiei on a

f(u, v) = (x1, · · · , xn) M

y1...yn

σ

Cette matriceM représente aussi l’application semi-linéaire f : E −→ E∗ définie parf(y) = f(., y) dans les bases e1, · · · , en et sa duale :

M = Mate∗,e(f) .

43

Page 44: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

44

Attention l’application f est semi-linéaire. En conséquence pour x ∈ E représentépar la matrice colonne X telle que x = (e1, · · · , en)X les coordonnée de f(x) nes’obtiennent pas avec le produit matricielM X mais avec le produit matricielM Xσ

(en notant [mi,j]σ = [mσ

i,j]).

Définition 5.1.2 On dit que f est non dégénérée si f est injective. Puisqu’on esten dimension finie cela revient à dire que f est bijective. Le sous-espace Ker f estaussi appelé noyau de f , ou selon les auteurs le radical de f (alors noté radf).

Évidemment si M = Mate∗,e(f) est la matrice de f dans la base e1, · · · , en alors

Ker f = 0 ⇐⇒ detM 6= 0.

Cependant ce déterminant detM n’est pas un invariant de f puisqu’il dépend dela base e1, · · · , en. Soit (u1, · · · , un) = (e1, · · · , en)P une autre base de E. AlorsP = Mate(u) = Mate,u(IdE) et donc tP = Matu∗,e∗(IdE∗). Par le changement debase habituel on obtient

Matu∗,u(f) = Matu∗,e∗(IdE∗) Mate∗,e(f)(Mate,u(IdE))σ = tPMP σ.

Alors la matrice de f relativement à cette nouvelle base est tPMP σ dont le déter-minant est

det(tPMP σ) = det(M)(det(P )1+σ).

Cela montre que l’élément det(M)(k×)1+σ ∈ {0} ∪ k×/(k×)1+σ est un invariant dela forme f elle-même.

Définition 5.1.3 Le discriminant de f est la classe det(M)(k×)1+σ dans le quotientk/(k×)1+σ := {0} ∪ k×/(k×)1+σ.

Définition 5.1.4 Une forme sesquilinéaire est réflexive lorsque

∀x, y ∈ E, f(x, y) = 0 ⇐⇒ f(y, x) = 0.

Définition 5.1.5 Une forme bilinéaire f : E ×E −→ k est dite symétrique lorsque

∀x, y ∈ E, f(x, y) = f(y, x).

Lorsque f est une forme bilinéaire symétrique l’application q(x) = f(x, x) est laforme quadratique associée à f et la forme f est la forme polaire associée à q.

Proposition 5.1.6 On suppose k de caractéristique différente de 2. Soit f uneforme bilinéaire symétrique et q sa forme quadratique associée, alors

f(x, y) =q(x+ y)− (q(x) + q(y))

2

Démonstration. Exercice. �

Définition 5.1.7 Une forme bilinéaire f est dite anti-symétrique lorsque

∀x, y ∈ E, f(x, y) = −f(y, x).

Page 45: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

45

Définition 5.1.8 Une forme sesquilinéaire f est dite alternée lorsque

∀x ∈ E, f(x, x) = 0.

Proposition 5.1.9 Si f est une forme bilinéaire anti-symétrique et si k n’est pasde caractéristique 2, alors f est alternée.

Démonstration. Puisque f est anti-symétrique on a f(x, x) = −f(x, x) et il suit2f(x, x) = 0 pour tout x de E. �

Proposition 5.1.10 Soit f une forme sesquilinéaire alternée non nulle. Alors σ =Id et f est bilinéaire et anti-symétrique.

Démonstration. Soient x, y ∈ E, alors puisque f est alternée on a

0 = f(x+ y, x+ y) = f(x, x) + f(x, y) + f(y, x) + f(y, y),

et il suit f(x, y) = −f(y, x) pour tout x et tout y dans E. Puisque f est non nulle ilexiste x, y dans E tels que f(x, y) 6= 0. En utilisant l’anti-symétrie de f on obtientλσf(x, y) = f(x, λy) = −f(λy, x) = λ(−f(y, x)) = λf(x, y). Et puisque f(x, y) 6= 0il suit λ = λσ. �

Définition 5.1.11 Une forme f de E dans k est dite hermitienne lorsque

∀x, y ∈ E, f(x, y) = f(y, x)σ.

Exercice 5.1 Soit f une forme σ-hermitienne non nulle. Montrer que σ est uneinvolution.

Théorème 5.1.12 Soit E un k-espace vectoriel de dimension finie n ≥ 2, et f uneforme σ-sesquilinéaire non dégénérée, reflexive. Alors

1. σ est une involution.2. Si σ est l’identité, f est bilinéaire symétrique ou antisymétrique.3. Si σ 6= Id, il existe un élément α ∈ k× tel que αf soit hermitienne.

Démonstration. Soit y 6= 0 un vecteur de E. L’ensemble Hy = Ker(f(., y)) est unhyperplan de E. Par reflexivité de f on a

∀x ∈ E, (f(x, y) = 0) ⇐⇒ (f(y, x) = 0) ⇐⇒ (f(y, x)σ−1

= 0).

L’application x 7→ f(y, x)σ−1 est une forme linéaire avec même noyau que f(., y).

Par factorisation il existe λy ∈ k tel que

∀x ∈ E, f(x, y) = λyf(y, x)σ−1

.

Soient f et g les applications de E dans E∗ et définie respectivement par

f(y) = (x 7→ f(x, y)) et g(y) =(x 7→ f(y, x)σ

−1).

Page 46: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

46

Ces applications sont bijectives, la première et σ-semi-linéaire et la deuxième est σ−1-semi-linéaire. Donc l’application f−1 ◦ g est σ−2-semi-linéaire de E dans lui-mêmeet vérifie (pour µy = (λσ

−1

y )−1) :

∀y ∈ E,∃µy ∈ k, f−1 ◦ g(y) = µyy .

dans cette situation le lemme ci-dessous donne que µy ne dépend pas de y et que σest une involution. Énonçons et démontrons le :

Lemme 5.1.13 Soit E un k-espace vectoriel de dimension supérieure ou égale à 2,τ un automorphisme de k et u une application τ -semi-linéaire non nulle telle quepour tout x de E les vecteurs x et u(x) sont liés. Alors u est une homothétie et τest l’identité.

Démonstration du lemme 5.1.13. On suppose que x et y engendrent un sous-espacevectoriel de dimension 2. Alors si u(x) = αx, u(y) = βy et u(x + y) = γ(x + y) =αx+ βy puisque x et y sont libres on obtient α = β = γ. Ensuite si une homothétienon-nulle est τ -semi-linéaire alors τ = Id. �

Fin de la preuve du théorème 5.1.12 On a obtenu σ2 = Id et l’existence d’unµ ∈ k× tel que g = µf .

1. Si σ = Id, alors µ2 = 1 et soit µ = 1 et f est symétrique soit µ = −1 et f estanti-symétrique.

2. Si σ 6= Id, alors f n’est pas alternée et pour un x0 tel que f(x0, x0) 6= 0l’application (f(x0, x0))−1f est hermitienne.

Remarque : En dimension 1 sur le corps fini F27 = F33 avec l’automorphismede Fröbenius σ d’ordre 3 défini par σ(x) = x3 l’application (x, y) 7→ xy3 est σ-sequilinéaire réflexive et non dégénérée mais σ n’est pas une involution.

5.2 Sous-espaces orthogonaux, isotropes.Dans ce paragraphe §5.2 f désigne une forme sesquilinéaire réflexive non dégé-

nérée sauf précision contraire. En outre f est supposée hermitienne si σ 6= Id.

Définition 5.2.1 Soit A une partie de E. On appelle orthogonal de A et on noteA⊥ l’ensemble

A⊥ = {x ∈ E,∀y ∈ A f(x, y) = 0} = {x ∈ E,∀y ∈ A f(y, x) = 0}.

Les éléments de A⊥ sont les éléments de E qui sont orthogonaux aux éléments de A.

L’isomorphisme (semi-linéaire) permet d’identifier E et E∗. Il vérifie en outre leségalités : f(A⊥) = A⊥ ⊂ E∗ (le deuxième ⊥ réfère à la dualité entre E et E∗). Sion utilise cet isomorphisme on peut traduire les propositions 4.3.2 et 4.3.3 en termed’orthogonalité pour f . Cela conduit à :

Proposition 5.2.2 Soit A ⊂ E.1. A 7→ A⊥ est décroissante (pour l’inclusion).

Page 47: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

47

2. A⊥ = 〈A〉⊥ est un sous-espace de E.3. Si A est un sous-espace de E alors dimE = dimA+ dimA⊥.4. Si V et W sont deux sous-espaces de E alors

(V +W )⊥ = V ⊥ ∩W⊥, (V ∩W )⊥ = V ⊥ +W⊥, V ⊥⊥ = V

Démonstration. L’argumentation qui précède l’énoncé est déjà une démonstrationcomplète. Il est aussi possible et instructif de démontrer cette proposition directe-ment en suivant le cheminement des preuves des propositions citées plus haut maissans y faire référence ni utiliser f . �

Définition 5.2.3

1. Un vecteur isotrope x de E est un vecteur non nul vérifiant f(x, x) = 0, c’est-à-dire tel que x ∈ {x}⊥.

2. Un sous-espace isotrope V de E est un sous-espace tel que V ∩ V ⊥ 6= {0}.3. Un sous-espace totalement isotrope est un sous-espace vérifiant V ⊂ V ⊥.

Remarques : L’ensemble des vecteurs isotropes s’appelle le cône isotrope de f ,parce que c’est une partie de E stable par homothéties. En général ce n’est pas unsous-espace vectoriel.

Définition 5.2.4 Soit f une forme sesquilinéaire non dégénérée réflexive et hermi-tienne si σ 6= Id. On appelle indice de f le maximum des dimensions des sous-espacestotalement isotropes.

Puisque f est non dégénérée on a dimE = dimV ⊥ + dimV et l’inclusion V ⊂ V ⊥

conduit à dimV ≤ n/2, pour tout sous-espace V totalement isotrope. En particulierl’indice de f est aussi inférieur à n/2.

Si V est isotrope, alors V ∩ V ⊥ est totalement isotrope.Si V n’est pas isotrope, alors V ∩ V ⊥ = {0}, donc E = V ⊕ V ⊥ =: V⊥V ⊥ est

somme directe othogonale de V et de son orthogonal. La notation V⊥W est définiepar ce qui précède.

On verra plus tard que les sous-espaces totalement isotropes maximaux (pourl’inclusion), dits "setim", ont tous la même dimension (en l’occurence l’indice de f).

Les définitions de ce paragraphe ont encore un sens même si f est dégénérée,mais on réserve la notion de somme directe orthogonale aux formes non-dégénérées.Que reste-t’il de la proposition 5.2.2 ? En fait si f est dégénérée alors Ker f est unsous-espace vectoriel de E et f induit par factorisation une application f : E/Ker f×E/Ker f −→ k de même nature (hermitienne ou bilinéaire symétrique ou bilinéaireanti-symétrique) que f . Alternativement en prenant un supplémentaire V de Ker fon obtient une somme directe E = V ⊕Ker f avec f(x+ y, x′ + y′) = f(x, x′) pourx, x′ ∈ V et y, y′ ∈ Ker f et f|V non dégénérée. Les définitions qui précèdent et lespropriétés obtenues pour f ou f|V donnent aussi des informations pour f , mais quidoivent éventuellement être modifiée légèrement pour tenir compte de Ker f .

Exercice 5.2 On suppose f dégénérée avec 0 < dim Ker f = r < n. Soit V ⊂ E.Quelle est la dimension de V ⊥ ?

Page 48: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

48

5.3 Groupes unitaires, orthogonaux, symplectiques.On fixe σ un automorphisme du corps k, E un k-espace vectoriel de dimension

n et on note GL(E) le groupe linéaire des k-automorphismes de E.

5.3.1 Définitions générales.

Le groupe GL(E) agit par composition à droite sur l’ensemble des formes σ-sesquilinéaires de E, concrètement cette action de groupe est définie par la formule

(f.ϕ)(u, v) = f(ϕ(u), ϕ(v))

pour f sesquilinéaire et ϕ ∈ GL(E). Être dans la même orbite sous l’action deGL(E) est une relation d’équivalence sur les formes sesquilinéaires sur E.

Définition 5.3.1 Dans le cas bilinéaire cette relation d’équivalence et son interpré-tation matricielle s’appelle la congruence. En pratique f et g sont équivalentes si ilexiste u ∈ GL(E) telle que f = g.u ou encore

f(x, y) = g(u(x), u(y)).

L’interprétation matricielle se déduit de l’équivalence, pour f et g bilinéaire entre"f = g.u" et "pour toute base e de E il existe P ∈ GLn(k) avec Mate(f) =tP Mate(g)P". On reconnaît la congruence des matrices. J’ignore quelle est la ter-minologie pour la relation d’équivalence M ∼ tPMP σ qui correspond aux formessesquilinéaires pour σ non trivial.

Définition 5.3.2 Soit f une forme non dégénérée. Le stabilisateur de f est appelé :1. le groupe unitaire de f et noté U(f) si f est hermitienne.2. le groupe orthogonal de f et noté O(f) si f est symétrique.3. le groupe symplectique de f et noté Sp(f) si f est alternée.

Proposition et définition 5.3.3 Si f est symétrique ou hermitienne, on appelleisométrie pour f un élément u ∈ GL(E) tel que ∀x ∈ E f(x, x) = f(u(x), u(x)).Lorsque car(k) 6= 2 on a équivalence entre "u est une isométrie" et "u appartient austabilisateur de f".

Démonstration. Soit q : E −→ k la forme quadratique (ou quadratique hermitiennesi σ est non trivial) associée à f , autrement dit définie par q(x) = f(x, x). Si f estsymétrique l’équivalence annoncée en caractéristique impaire suit de

f(x, y) =1

4(q(x+ y)− q(x− y)).

On suppose donc σ d’ordre 2. Alors l’application linéaire Id−σ est non nulle et six ∈ k vérifie σ(x) 6= x, on obtient un a ∈ k × qui vérifie σ(a) = −a en posanta = x−σ(x). On peut ensuite vérifier l’identité hermitienne (qui permet de conclurecomme dans le cas symétrique) :

f(x, y) =1

4(q(x+ y)− q(x− y)− 1

a(q(x+ ay)− q(x− ay))).

Page 49: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

49

�Remarque : Lorsque k = C et σ est la conjugaison complexe on prend habituelle-ment a = i et l’identité hermitienne devient :

f(x, y) =1

4(q(x+ y)− q(x− y) + i(q(x+ iy)− q(x− iy))).

À partir d’ici et jusqu’à la fin du chapitre 5 on suppose le corps des scalaires k decaractéristique impaire (ou nulle) : car(k) 6= 2.

Version matricielle : Si f est une forme de matrice M = Mate(f) et si u estune isométrie pour f de matrice U = Mate,e(u) on a tUMUσ = M . Il suit doncdet(u)1+σ = 1, et en particulier lorsque σ = Id on obtient det(u) = ±1.

Définition 5.3.4 Soit f une forme non dégénérée. Le stabilisateur de f est appelé :

1. Si f est hermitienne on appelle groupe spécial unitaire de f et on note SU(f)ou U+(f) le sous-groupe de U(f) formé des endomorphismes de déterminant1.

2. Si f est symétrique on appelle groupe spécial orthogonal de f et noté SO(f) ouO+(f) le sous-groupe de O(f) formé des endomorphismes de déterminant 1.Les éléments de SO(f) s’appellent des isométries positives, ou des rotations.

Remarque : SU(f) est distingué dans U(f) et SO(f) est distingué dans O(f).En ce qui concerne les endomorphismes symplectiques, on sait démontrer que leurdéterminant vaut toujours 1 (il n’y a pas de sous-groupe spécial symplectique). Pourle dévissage complet (centres, générateurs, sous-groupes dérivés, etc ...) des sous-groupes GL(E), SL(E), O(f) et SO(f), voir le livre de Perrin "cours d’algèbre". Icion se contente de définir les symétries et d’en extraire un système générateur deO(f) et SO(f).

5.3.2 symétries orthogonales.

Définition 5.3.5 On appelle symétrie ou involution sur E un endomorphisme u ∈GL(E) d’ordre divisant 2. On note E+ et E− les sous-espaces propres de u asso-ciés respectivement aux valeurs propres +1 et −1. On dit que u est une symétrieorthogonale pour f lorsqu’en outre u ∈ O(f). On dit que u est une réflexion d’hy-perplan E+ lorsque E+ est un hyperplan. On dit que u est un renversement lorsquedim(E−) = 2.

Une symétrie u vérifie l’identité polynômiale u2 = 1, en particulier u est diagonali-sable et on a E = E+⊕E−. L’identité Id ∈ GL(E) correspond au cas dim(E−) = 0,les réflexions au cas dim(E−) = 1, les retournements au cas dim(E−) = 2. La récur-rence s’arrête là ...

Proposition 5.3.6 Soit f une forme bilinéaire symétrique. Une symétrie u de Eest orthogonale si et seulement si E+ et E− sont orthogonaux.

Page 50: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

50

Démonstration. On suppose u orthogonale, soit x ∈ E+ et y ∈ E−. Alors f(x, y) =f(u(x), u(y)) = f(x,−y) = −f(x, y). Puisque car(k) 6= 2 on obtient x⊥y. Ré-ciproquement on suppose E+ et E− orthogonaux. Soit x, y ∈ E. On écrit x =x+ + x− et y = y+ + y− suivant la décomposition E = E+ ⊕ E−. On obtientf(x, y) = f(x+ + x−, y+ + y−) = f(x+, y+) + f(x−, y−) par orthogonalité de E+ etE−. Tandis que f(u(x), u(y)) = f(x+ − x−, y+ − y−) = f(x+, y+) + f(−x−,−y−) =f(x+, y+) + f(x−, y−) aussi. �Le même argument qu’en début de cette preuve montre que si x et y sont des vecteurspropres pour un endomorphismes orthogonal u associés à des valeurs propres λx etλy telles que λxλy 6= 1 alors x⊥y. Pour cette démonstration il n’est pas utile non plusde supposer f non dégénérée. Par contre si f est non dégénérée alors les inclusionsE+ ⊂ (E−)⊥ et E− ⊂ (E+)⊥ deviennent des égalités par calcul de dimensions.On obtient alors E = E+⊥E−, et en particulier ni E+ ni E− ne sont isotropes.Réciproquement on a :

Proposition 5.3.7 Soit f une forme bilinéaire symétrique non dégénérée, et F ⊂ Eun sous-espace non isotrope. Alors il existe une unique symétrie orthogonale de sous-espace positif E+ = F .

Démonstration. Puisque F est non isotrope et f non dégénérée on peut décomposer Een somme directe E = F ⊕F⊥. Alors l’endomorphisme u = IdF ⊕(− IdF⊥) convientet c’est le seul. �Par exemple la réflexion orthogonale sH d’hyperplan H avec H⊥ = kv est aussidéfinie par la formule

sH(x) = x− 2f(v, x)

f(v, v)v.

5.3.3 Générateurs de O(f) et SO(f).

Dans ce sous-paragraphe on suppose que f est une forme bilinéaire symétriquenon dégénérée et on notera q la forme quadratique associée à f .

Théorème 5.3.8 Le groupe orthogonal O(f) est engendré par les réflexions ortho-gonales.

Démonstration. On procède par récurrence sur n = dim(E). La propriété est vraieen dimension 1, car alors O(f) = {± Id}. On prend donc n > 1 et on suppose lethéorème vrai pour tout espace E de dimension au plus n−1. On démontre d’aborddeux lemmes calculatoires.

Lemme 5.3.9 E contient des vecteurs non nul et non isotropes pour f .

Démonstration. Soit x un vecteur isotrope pour f . Comme f est non dégénérée, ilexiste y ∈ E tel que f(x, y) 6= 0. Alors y = f(x, z)−1z vérifie f(x, y) = 1. Si y est nonisotrope alors y convient. Si y est isotrope alors x+y vérifie f(x+y, x+y) = 2 6= 0. �

Lemme 5.3.10 Si q(x) = q(y) 6= 0 alors (q(x+ y) = 0) =⇒ q(x− y) 6= 0.

Page 51: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

51

Démonstration. En effet sinon on aurait q(x+y) = 0 = 2q(x)+2f(x, y) et q(x−y) =0 = 2q(x)− 2f(x, y) et en ajoutant 4q(x) = 0. �On reprend la démonstration du théorème 5.3.8. On se donne donc u ∈ O(f) eton veut montrer que u est produit d’un nombre fini de réflexions orthogonales. Ondistingue les cas suivants :

1. L’endomorphisme u admet un vecteur fixe x non isotrope.2. Tout les vecteurs non isotrope de E vérifient u(x) 6= x. On fixe alors x non

isotrope dans E et on a donc y = u(x) qui vérifie q(x) = q(y), puis par lelemme les deux seuls sous-cas possibles :(a) q(x− y) 6= 0.(b) q(x− y) = 0 et alors q(x+ y) 6= 0.

Démonstration dans le cas 1. Soit H l’orthogonal de 〈x〉. Alors u(H) = H puisquef(x, y) = 0 équivaut à f(u(x), u(y)) = 0. On peut donc appliquer l’hypothèse derécurrence à u|H , qui s’écrit u|H = τ1 · · · τr où les τi sont des réflexions de H. Maissi on pose σi = τi ⊕ Id〈x〉 alors σi est une réflexion de E et u = σ1 · · ·σr, d’où lethéorème.Démonstration dans le cas 2(a). Alors H = 〈x − y〉⊥ contient x + y parce quef(x+y, x−y) = q(x)−q(y)+f(y, x)−f(x, y) = 0. Soit τH la réflexions orthogonaled’hyperplan H. Alors τH(x− y) = y− x et τH(x+ y) = x+ y donne par éliminationτH(y) = x. Ainsi x est un vecteur non isotrope et fixé par τH ◦ u : on est ramené aucas 1.Démonstration dans le cas 2(b). Le vecteur x + y est non nul non isotrope. SoitH = 〈x+ y〉⊥, et τH la réflexion orthogonale d’hyperplan H. Le même calcul qu’en(a) conduit à τH(y) = −x. Puis comme x n’est pas isotrope, on dispose de la réflexionτL d’hyperplan L = 〈x〉⊥ qui vérifie τL(−x) = x. Alors x est un vecteur fixe et nonisotrope de τL ◦ τH ◦ u : cela ramène au cas 1. �Remarque : Lorsque la forme f n’a pas de vecteurs isotropes (par exemple lorsquef est un produit scalaire euclidien) seul les cas 1 et 2(a) peuvent se produire et onvoit en outre par récurrence que u est produit d’au plus pu réflexions où pu est ladimension des supplémentaires de l’espace des points fixes de u, pu = n−dim(Ker(u−Id)). En général on sait aussi que n réflexions suffisent : c’est le théorème de Cartan-Dieudonné dont une démonstration se trouve p. 190 du Perrin.

En dimension 1 il n’y a pas de renversement. En dimension 2 le seul renversementest − Id qui n’engendre pas SO(f). En dimension supérieure on a :

Théorème 5.3.11 Soit f une forme bilinéaire symétrique non dégénérée sur E dedimension n ≥ 3 alors SO(f) est engendré par les renversements.

Démonstration. Il suffit de montrer que le produit de deux réflexions est un produitde renversements. On va voir que deux renversements suffisent et en particulier endimension 3 ou plus tout u ∈ SO(f) est produit de n renversements. Soient σ1 etσ2 deux réflexions orthogonale d’hyperplans (non-isotropes) H1 et H2. Si H1 = H2

alors σ1 ◦ σ2 = Id. On peut donc supposer H1 6= H2. Si on est en dimension 3 alorsτi = −σi est un renversement et on a σ1 ◦ σ2 = τ1 ◦ τ2. En dimension supérieure à 3on prend un sous-espace non isotrope V ⊂ H1 ∩H2 de codimension 3 dans E. AlorsE = V⊥V ⊥ et les σi se restreignent à l’identité sur V . On se ramène ainsi à V ⊥ de

Page 52: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

52

dimension 3 puisqu’il suffit de prolonger par l’identité sur V les renversements deV ⊥ pour obtenir des renversements de E. Si f est anisotrope la preuve est terminée.En général il reste à démontrer l’existence de ce sous-espace V non isotrope decodimension 3. En effet même si H1 et H2 sont non-isotropes leur intersection peutl’être. Soient x1 et x2 des vecteurs engendrant les orthogonaux respectifs de H1 etH2. Alors 〈xi〉 = H⊥i et comme Hi n’est pas isotrope xi non plus. Donc le radicalrad(f|(H1∩H2)) est égal au radical rad(f|〈x1,x2〉) de dimension au plus 1. Soit W unsupplémentaire (de dimension n− 2 ou n− 3) dans H1 ∩H2 à ce radical. Alors f|West non-dégénérée et W contient des sous-espaces non isotropes de dimension n−3 :pour cela il suffit de prendre, si dim(W ) = n − 2 l’hyperplan dans W orthogonal àun vecteur non isotrope. �

5.4 Classification des formes sesquilinéaires.En général la classification à équivalence près des formes sesquilinéaires (ou à

congruence près des formes quadratiques) est un problème difficile sur un corpsquelconque. On va présenter quelques cas particuliers plus accessibles. Le point dedépart est l’existence de bases orthogonales.

Définition 5.4.1 Soit f une forme sesquilinéaire sur E. Une base e1, · · · , en de Eest dite base orthogonale pour f lorsque pour tout i 6= j on a f(ei, ej) = 0.

Lorsque e est une base orthogonale la matrice Mate(f) est diagonale. La seule ma-trice diagonale et anti-symétrique est la matrice nulle, il n’y a donc pas de baseorthogonale pour une forme alternée non triviale. On n’étudiera pas dans ce coursla classification des formes alternées.

Théorème 5.4.2 Soit f une forme symétrique ou hermitienne sur E de dimensionfinie. Alors il existe une base orthogonale e pour f . Et en outre on a f(ei, ei)

σ =f(ei, ei).

Démonstration. C’est une récurrence immédiate sur dimE. �Pour classifier à équivalence près les formes sesquilinéaires on a déjà défini troisinvariants de leur classe d’équivalence : le rang, l’indice et le discriminant dansk/(k×)1+σ. En général ces invariants ne suffisent pas. Par exemple en dimension 2et pour k = R les formes quadratiques x2 + y2 et −x2 − y2 ne sont pas équivalenteset pourtant elles ont même rang, même indice et même discriminant.

Théorème 5.4.3 Soit E un k-espace vectoriel de dimension finie n.1. On suppose k algébriquement clos. Alors toutes les formes quadratiques non

dégénérées sur E sont équivalentes à la forme quadratique x21 + x2

2 + · · ·+ x2n.

Leur indice est la partie entière de n/2.2. On suppose k = R. Pour toute forme quadratique q, il existe p tel que 0 ≤ p ≤ n

et tel que q soit congruente à la forme

q(x1, · · · , xn) =

p∑i=1

x2i −

n∑i=p+1

x2i .

Page 53: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

53

À congruence près il y a exactement ces n+1 formes quadratiques non dégéné-rées sur E. Le couple (p, n− p) s’appelle la signature de q et c’est un systèmed’invariants complet pour les formes quadratiques à congruence près.

3. On suppose k = C et σ est la conjugaison complexe. Pour toute forme quadra-tique hermitienne q non dégénérées sur E il existe p tel que 0 ≤ p ≤ n et telque q soit équivalente à la forme

q(z1, · · · , zn) =

p∑i=1

zizi −n∑

i=p+1

zizi.

À équivalence près il y a exactement ces n+ 1 formes hermitiennes non dégé-nérées sur E.

Démonstration. Pour démontrer 1, soit e′ une base orthogonale pour une formequadratique f de rang n, et soit ai = f(e′i, e

′i). Puisque k est algébriquement clos

il existe des αi ∈ k× tels que pour tout i α2i = ai. Alors dans la base formée

des ei = α−1i e′i la matrice de q est la matrice identité. On dit que la base e est

orthonormale pour q.Pour démontrer 2 on part aussi d’une base orthogonale e′ pour une forme quadra-

tique q. Quitte à renumérotter les e′i on peut supposer q(e′i) = ai > 0 pour 1 ≤ i ≤ pet q(e′i) = −ai < 0 pour i > p. Puisque les ai sont positifs il existe des αi tels quepour tout i on ait α2

i = ai. Alors dans la base ei = α−1i e′i la forme quadratique q a la

matrice requise. On doit ensuite s’assurer que deux telles formes quadratiques avecdes invariants p distincts ne sont pas congruentes. En raisonnant matriciellement onpeut fixer une forme quadratique q et vérifier que si deux bases orthogonales e et e′de E sont telles que :

q(e1) = · · · = q(ep) = q(e′1) = · · · = q(e′p′) = 1

q(ep+1) = · · · = q(en) = q(e′p′+1) = · · · = q(e′n) = −1,

alors p = p′. Montrons le. Dans ce cas si F est le sous-espace de E engendré pare1, · · · , ep et G′ le sous-espace de E engendré par e′p+1, · · · , e′n alors q(x) > 0 pourx ∈ F \ {0} et q(x) < 0 pour x ∈ G′ \ {0}. Donc F et G′ sont en somme directe eton en tire p + n − p′ ≤ n soit p ≤ p′. Par symétrie on récupère l’autre inégalité eton a bien p = p′.

L’assertion 3 se démontre exactement comme l’assertion 2. Pour comprendrecette similarité il suffit de constater que dans les deux cas Im(q) ⊂ R et q(λx) =λ1+σq(x). Ainsi on peut normaliser modulo (k×)1+σ = R×>0 (dans les deux cas) etseul le signe de q(e′i) ∈ R est un invariant de q. �

On va classifier maintenant les formes quadratique ou hermitienne non dégénéréessur un corps fini k = Fq de caractéristique impaire. Comme dans le cas précédentle groupe quadratique F×q /(F×q )2 joue un rôle important. Puisque F×q est cyclique cegroupe quadratique est d’ordre 2, et on le représente dans F×q par le système {1, α}où α est un élément de F×q qui n’est pas un carré.

Théorème 5.4.4 Soit E un espace vectoriel de dimension n ≥ 1 sur Fq avec 2 - q.À congruence près il y a exactement deux classes de formes quadratiques non dégé-nérées sur E. Le discriminant dans F×q /(F×q )2 est un système d’invariant complet.

Page 54: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

54

Matriciellement ces classes de congruences sont représentées soit par la matrice Insoit par la matrice diagonale dont tous les coefficients diagonaux sont 1 sauf le der-nier égal à α.

Démonstration. Les deux matrices décrites plus haut ne sont pas congruentes parcequ’elles n’ont pas le même discriminant. Il s’agit donc de montrer que toute formequadratique non dégénérée est représentée dans une base convenable par une de cesdeux matrices. On procède par récurrence sur n = dim(E). Si n = 1 c’est évident. Onsuppose le théorème démontré en dimension n−1 ≥ 1. Soit x un vecteur non isotropede E et y un vecteur non isotrope de 〈x〉⊥. Alors q(λx+ µy) = λ2q(x) + µ2q(y). Onadmet provisoirement l’existence d’un couple (λ, µ) tel que pour z = λx+ µy on aitq(z) = 1. Alors l’hypothèse de récurrence appliquée à l’orthogonal de 〈z〉 permet deconclure. Il reste à démontrer le

Lemme 5.4.5 Soient u, v ∈ F×q . Alors l’équation λ2u + µ2v = 1 admet au moinsune solution (λ, µ) ∈ Fq × Fq.

Démonstration. Sur F×q le noyau de x 7→ x2 est ±1. Il y a donc (q − 1)/2 carrénon nuls dans Fq soit (q + 1)/2 carrés en tout. Puisque u et v sont non nuls lesapplications t 7→ ut et t 7→ 1 − vt sont injectives et les ensembles {uλ2, λ ∈ Fq} et{1 − vµ2, µ ∈ Fq} comptent tous deux (q + 1)/2 éléments. Leur intersection n’estpas vide (sinon leur réunion contiendrait q + 1 > q éléments distincts). Un élémentde cette intersection donne la solution requise. �

On classifie maintenant les formes hermitiennes associées à une involution σ nontriviale sur k fini. Alors dans ce cas on sait que l’ordre de k est un carré puisquek est de degré 2 sur le sous-corps (fini) fixé par σ. Réciproquement Fq2 admet uneunique involution non triviale x 7→ xq.

Théorème 5.4.6 Soit σ l’involution non triviale de k = Fq2. À équivalence près il ya une seule classe de forme σ-hermitienne non dégénérée sur l’espace de dimensionfinie E. Cette forme hermitienne est représentée dans une base convenable par lamatrice identité.

Soit f une forme hermitienne sur E de forme quadratique hermitienne q, soiente1, · · · , en une base orthogonale et notons ai = q(ei). Puisque f est hermitienneon a σ(ai) = ai et donc ai ∈ Fq = kσ. Maintenant q(λei) = λ1+σai et pour pouvoirnormaliser il faut disposer d’antécédents des a−1

i pour l’application normeNk/Fq(x) =x1+σ = x1+q. Le noyau de cette norme est formé des racines de l’équation xq+1 = 1et contient donc au plus q+1 éléments. L’image de N a donc au moins q2−1/q+1 =q − 1 = o(F×q ) éléments, c’est-à-dire que N est surjective. �

5.5 Théorème de Witt.Définition 5.5.1 On appelle espace quadratique régulier un espace E muni d’uneforme quadratique non dégénérée.

Dans toute la suite on considère des espace quadratique régulier sur un corps k decaractéristique différente de 2.

Page 55: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

55

5.5.1 Plan hyperbolique.

Définition 5.5.2 Un plan hyperbolique est un espace régulier de dimension 2 (planrégulier) admettant un vecteur isotrope.

Proposition 5.5.3 Soit (E, q) un espace régulier et x un vecteur isotrope de E.Alors il existe un plan P de E contenant x et tel que (P, q|P ) soit hyperbolique.

Démonstration. Puisque q est régulière il existe y ∈ E telle que f(x, y) 6= 0. AlorsP = 〈x, y〉 convient. �

Proposition 5.5.4 Soit (E, q) un plan hyperbolique. Il existe une base e = (e1, e2)et une base ε = (ε1, ε2) telle que

Mate(q) =

(0 11 0

)et Matε(q) =

(1 00 −1

)On dit que la base e est une base hyperbolique.

Démonstration. Par définition il existe e1 ∈ E avec q(e1) = 0. Puisque q est nondégénérée il existe y ∈ E avec f(e1, y) = 1. Alors y n’est pas colinéaire à e1 et pourtout λ ∈ k on a f(e1, λe1 + y) = 1 et q(λe1 + y) = 2λ + q(y). Il suffit donc deposer e2 = (−q(y)/2)e1 +y pour obtenir la base e voulue. Avec la matrice Mate(q) =(

0 11 0

)on voit que

f(αe1 + βe2, α′e1 + β′e2) = α′β + αβ′.

Donc ε1 = (e1 + e2)/2 et ε2 = (e1 − e2)/2 convient. �

Corollaire 5.5.5 Dans un plan hyperbolique, il y a exactement deux droites de vec-teurs isotropes. Les sous-espaces totalement isotropes sont donc de dimension 1.

Démonstration. À partir de la matrice Mate(q) =

(0 11 0

)on voit que q(αe1 +

βe2) = 2αβ. �

Proposition 5.5.6 Un plan quadratique (P, q) est hyperbolique si et seulement sile discriminant de q est −1(k×)2 dans k/(k×)2.

Démonstration. Si (P, q) est hyperbolique alors le discriminant de q calculé dans lesbases de la proposition 5.5.4 vaut −1. Réciproquement soit (P, q) un plan quadra-tique de discriminant −1(k×)2, soit f1, f2 une base orthogonale de P et soit a = q(f1)et b = q(f2). Puisque le discriminant modulo les carrés est un invariant il existe α ∈ ktel que −ab = α2 et donc −b/a = (α/a)2. Avec la formule q(xf1 + yf2) = ax2 + by2

on vérifie que (α/a)f1 + f2 est isotrope. �

Corollaire 5.5.7 Si k est algébriquement clos tout plan régulier est hyperbolique.

Page 56: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

56

5.5.2 Sous-espaces hyperboliques, seti et setim.

Définition 5.5.8 Un sous-espace hyperbolique est un espace somme directe ortho-gonale de plans hyperboliques.

Un sous-espace hyperbolique E = P1⊥ · · ·⊥Pr est donc de dimension paire n = 2r.Si on se donne une base hyperbolique ei, fi de chaque Pi alors la matrice de q dansla base B = e1, · · · , er, f1, · · · , fr est

MatB(q) =

(0 IrIr 0

).

Dans une base orthogonale convenablement ordonnée et normalisée B′ la matrice deq est

MatB′(q) =

(Ir 00 −Ir

).

Proposition 5.5.9 Un espace vectoriel de dimension 2r est hyperbolique si et seule-ment si il est régulier et possède un sous-espace totalement isotrope de dimensionr.

Démonstration. Soit E = P1⊥ · · ·⊥Pr un espace hyperbolique (donc régulier) dedimension n = 2r. On choisit dans chaque Pi un vecteur isotrope ei. Alors le sous-espace engendré par les ei est de dimension r et totalement isotrope. Réciproquementon procède par récurrence sur r. Le cas r = 1 suit directement de la définition desplans hyperboliques. On suppose le théorème vrai pour r et on se donne un espacerégulier E de dimension 2r+ 2 contenant F totalement isotrope de dimension r+ 1.Soit e1, · · · , er+1 une base de F . Il existe u ∈ E tel que f(er+1, u) = 1 et forcémentu /∈ F et P := 〈u, er+1〉 est un plan hyperbolique pour la restriction de q. Enparticulier P est non isotrope et on a E = P⊥P⊥. En outre puisque F est totalementisotrope et er+1 ∈ F on voit que x ∈ F ∩ P⊥ équivaut à x ∈ 〈u〉⊥ ∩ F . La formelinéaire x 7→ f(x, u) est non-nulle sur F donc son noyau est de dimension r. Donc lesous-espace F ∩ P⊥ est totalement isotrope de dimension r. Par récurrence P⊥ esthyperbolique puis E = P⊥P⊥ aussi. �On appelle parfois lagrangien un tel sous-espace totalement isotrope de dimensionmaximale d’un espace hyperbolique.

Proposition 5.5.10 Un sous-espace S totalement isotrope d’un espace régulier Eest contenu dans un sous-espace hyperbolique.

Démonstration. On procède par récurrence sur n = dimS. Si n = 1 et S = 〈s〉 alorspour tout u ∈ E tel que f(s, u) 6= 0 le plan 〈u, s〉 est hyperbolique. On suppose laproposition vraie pour dimS = n et on suppose que S est totalement isotrope dedimension n+ 1. On prend en+1 ∈ S et y ∈ E avec f(en+1, y) = 1, et on considère leplan hyperbolique P = 〈en+1, y〉. Alors comme dans la preuve précédente on vérifieque E = P⊥P⊥ et que dim(S ∩P⊥) = n. Par récurrence (S ∩P⊥) est contenu dansun espace hyperbolique H et alors S ⊂ (H⊥P ) aussi. �

Corollaire 5.5.11 Si S est un sous-espace totalement isotrope de E régulier alorsil existe S ′ totalement isotrope de même dimension que S et tel que S ∩ S ′ = 0.

Page 57: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

57

Démonstration. Lors de la récurrence de la preuve de la proposition 5.5.10 on adémontré en fait que toute base e1, · · · , en d’un sous-espace totalement isotrope Sse complète en une base e1, e

′1, · · · , en, e′n telle que les couples (ei, e

′i) forment n bases

hyperboliques. Le sous-espace S ′ engendré par les e′i convient. �Le corollaire qui suit permet de plonger les sous-espaces isotropes dans des sous-espaces non isotropes. Ceci ramène beaucoup de questions au cas non isotrope enparticulier la démonstration du théorème de Witt à suivre.

Corollaire 5.5.12 Soit (E, q) un espace régulier, soit F ⊂ E un sous-espace, soitF0 = rad(q|F ) et U un supplémentaire dans F de F0 (de sorte que q|U soit non dégé-nérée). Alors il existe un sous-espace hyperbolique H de E contenant F0 et orthogonalà U .

Démonstration. U donc U⊥ est non isotrope. Le sous-espace F0 est contenu dans U⊥donc dans un sous-espace hyperbolique H ⊂ U⊥. �

Proposition 5.5.13 Soit (E, q) un espace quadratique régulier, tous les setim de Eont la même dimension.

Démonstration. Soient S et T deux setim. On choisit un supplémentaire S1 (resp.T1) à S ∩ T dans S (resp. dans T ) et on a S = S1 ⊕ S ∩ T et T = T1 ⊕ S ∩ T .

Lemme 5.5.14 T1 ∩ S⊥1 = {0}

Démonstration. Pour tout x ∈ S⊥ on a q(x) 6= 0 ou x ∈ S sinon S + kx serait unseti contenant strictement S. Soit x ∈ T1∩S⊥1 . Alors x ∈ T et donc x est orthogonalà S ∩ T puisque T est totalement isotrope. Ainsi x est orthogonal à S1 et à S ∩ Tdonc à S. Comme x ∈ T on a q(x) = 0 et donc x ∈ S ∩ T1 = S ∩ T ∩ T1 = {0}. �On reprend la preuve de la proposition. Par le lemme on a dimT1 +dimS⊥1 ≤ dimEet on en tire dimT1 ≤ dimS1 puis dimT ≤ dimS. Par symétrie cette inégalité estune égalité. �

Théorème 5.5.15 Soit E un espace quadratique régulier.

1. E est somme directe orthogonale d’un espace hyperbolique H avec un espaceanisotrope 1 G.

2. Si E est somme directe orthogonale E = H⊥G avec H hyperbolique et Ganisotrope alors l’indice de q vaut exactement dimH/2.

Démonstration. Soit S un setim de E et H un sous-espace hyperbolique contenantS. Alors E = H⊥H⊥. Soit x ∈ H⊥ avec q(x) = 0. Alors S + kx est un seti et doncx = 0 par maximalité de S. L’espace G = H⊥ est bien anisotrope ce qui montre1. Pour 2 il s’agit de montrer qu’un setim F de H est aussi un setim de E. OrF ⊕G = F⊥ car l’inclusion ⊂ est immédiate et les dimensions sont les mêmes. Ainsitout x ∈ F⊥ s’écrit x = y + z avec y ∈ F et z ∈ G. Puisque F est un seti et F⊥Gon a q(x) = q(z). Autrement dit x isotrope et x ∈ F⊥ si et seulement si x ∈ F . Celadémontre la maximalité de F . �

1. on dit que (G, q) est anisotrope lorsque q(x) 6= 0 pour tout x non nul de G.

Page 58: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

58

5.5.3 Théorème de Witt.

Dans un espace vectoriel E sans structure quadratique supplémentaire GL(E)agit sur les sous-espaces de E et deux sous-espaces sont dans la même orbite si etseulement si ils ont même dimension. Si on se fixe un espace quadratique (E, q)général le groupe orthogonal O(q) agit aussi sur les sous-espaces et si F et F ′ sontdans la même orbite alors ils ont même dimension et pour la restriction de q ilssont isométrique c’est à dire que la matrice de q|F est congruente à celle de q|F ′ . Lethéorème de Witt donne l’implication réciproque et ramène l’étude des orbites dessous-espaces de E sous l’action de O(q) à une question d’équivalence de formes.

Théorème 5.5.16 (Witt) Soit (E, q) un espace quadratique, F, F ′ ⊂ E des sous-espaces et σ : (F, q)

∼−→ (F ′, q) une isométrie.1. Si (E, q) est régulier, alors il existe u ∈ O(q) telle que u|F = σ.2. Si F est non isotrope, alors il existe u ∈ O(q) telle que u|F = σ.3. Si F et F ′ sont supplémentaire dans E et orthogonaux alors il existe u ∈ O(q)

telle que u|F = σ.

Démonstration. Pour 3 on écrit E = F ⊕ F ′. Alors l’isométrie

u = σ ⊕ σ−1 : F ⊕ F ′ −→ F ′ ⊕ F = E

prolonge σ.On montre d’abord que 1 se ramène à 2. On suppose E régulier et F quelconque.

Il s’agit ensuite de prolonger σ en une isométrie définie sur un espace non isotropecontenant F . Soit F0 = rad(q|F ) et F ′0 = rad(q|F ′). Alors σ(F0) = F ′0 et pour toutsupplémentaire U à F0 dans F , la restriction de q à U est régulière et on a F ′ =F ′0 ⊕ σ(U). Par le corollaire 5.5.12 il existe H hyperbolique dans E de dimension2 dimF0 = 2 dimF ′0 orthogonal à U et contenant F0. Alors H⊥U contient F etest régulier. Pour nous ramener à 2, il reste à prolonger σ en une isométrie (nonsurjective) σ′ : H⊥U −→ E. Pour cela il suffit de compléter une base f de F0 enune suite de bases hyperboliques de H, puis de compléter la base σ(f) de F ′0 enune suite de bases hyperboliques d’un H ′ hyperbolique contenant F ′0 comme setim.En envoyant la première suite de bases hyperboliques sur la seconde on définit uneisométrie ϕ : H −→ H ′ qui prolonge σ|F0 . Alors σ′ = ϕ⊕ σ|U convient.

On montre 2. On suppose F régulier, et on procède par récurrence sur la dimen-sion t = dimF (étonnant, non ?). Si t = 1 alors F = kx et q(x) 6= 0. En reprenant lamême démarche que dans la démonstration du théorème 5.3.8 on voit que quitte àcomposer σ à gauche par des réflexions orthogonales de E on peut supposer σ(x) = x.Et dans ce dernier cas IdE est orthogonale et prolonge σ. On suppose 2 vrai pourtout espace de dimension n− 1 ≥ 1 et on prend F régulier de dimension n. Partantd’une base orthogonale e1, · · · , en de F on peut supposer (quitte à composer σ àgauche par des réflexions orthogonales) que σ(en) = en. Alors F ′ = 〈e1, · · · , en−1〉et G′ = 〈σ(e1), · · · , σ(en−1)〉 sont contenus dans l’hyperplan H orthogonal à en, dedimensions n − 1 et isométriques par σ|F ′ . Par récurrence il existe une isométrie u′de H qui prolonge σ|F ′ . Ainsi on obtient u dans O(q) prolongeant σ à E en posantu = u′ ⊕ Id〈en〉. �

Page 59: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

59

Corollaire 5.5.17 Si q est régulière alors O(q) opère transitivement sur les seti demême dimension (en particulier sur les setim).

Démonstration. Deux setis de même dimension sont isomorphes comme espace vec-toriels donc isométriques. �

Corollaire 5.5.18 Soient F, F ′ ⊂ E deux sous-espaces isomorphes comme espacesquadratiques.

1. Si (E, q) est régulier, alors F⊥ et (F ′)⊥ sont isomorphes (comme espaces qua-dratiques).

2. Si F est non isotrope, alors F⊥ et (F ′)⊥ sont isomorphes (comme espacesquadratiques).

Démonstration. Dans les deux cas le théorème de Witt donne une isométrie u de Eprolongeant l’isométrie entre F et F ′. Alors u(F⊥) = u(F )⊥ = (F ′)⊥ et u définitpar restriction une isométrie entre les deux orthogonaux. �

Ce dernier corollaire s’appelle parfois "théorème de simplification de Witt", et ilse reformule alors :

Théorème 5.5.19 (Simplification de Witt) Soient (E, q) et (E ′, q′) deux espacequadratiques réguliers isomorphes. On suppose que E = A⊥B et E ′ = A′⊥B′ avec(A, q|A) et (A′, q′|A′) isomorphes. Alors (B, q|B) et (B′, q′|B′) sont aussi isomorphes.

Corollaire 5.5.20 Si E se décompose de deux façon différente E = H⊥G = H ′⊥G′avec H,H ′ hyperboliques et G,G′ anisotrope, alors il existe u ∈ O(q) telle que u(H) =H ′ et u(G) = G′. En particulier la forme anisotrope qa = q|G est bien définie par qà équivalence près.

Démonstration. Les deux setim de H et H ′ ont même dimension, donc les deuxespaces hyperboliques aussi et ils sont isomorphes (comme espaces quadratiques).Par simplification les espaces anisotropes aussi. �

Une telle écriture E = H⊥G avec H hyperbolique et G anisotrope s’appelle unedécomposition de Witt de q.

Corollaire 5.5.21 Soient q et q′ deux formes non dégénérées sur E, d’indices res-pectifs ν(q) et ν(q′) et de formes anisotropes associées respectives qa et q′a. Alors

q ∼ q′ ⇐⇒ (ν(q) = ν(q′) et qa ∼ q′a) .

Démonstration. En effet à équivalence près q est déterminée par sa décompositionde Witt, et le sous-espace hyperbolique H est déterminé par l’indice ν(q). �

Page 60: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

60

5.5.4 Exercices : calculs d’indice.

Exercice 5.3 Soit q une forme quadratique sur Rn non dégénérée de signature(p, n− p). Quel est l’indice de q ?

Exercice 5.4 Soit k un corps algébriquement clos et soit q une forme quadratiquenon dégénérée sur kn. Montrer que l’indice de q est la partie entière de n/2 (celatermine la preuve du 1 du théorème 5.4.3).

Exercice 5.5 Soit k = Fq avec 2 - q et n = 2.1. À quelle condition sur q, la classe de −1 est-elle un carré ?2. Soit α ∈ F×q qui n’est pas un carré. Montrer que la forme quadratique de rang

2 et de discriminant α est anisotrope si et seulement si 4 | q − 1.3. Que peut-on dire de l’indice de la forme quadratique de rang 2 et de discrimi-

nant 1 ?

Page 61: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

Chapitre 6

Réseaux.

6.0 prérequis à propos des Z-modules.

Dans ce chapitre et contrairement aux habitudes j’impose des pré-requis assezélevés. Voici la liste des notions admises ici. Je suppose connue la définition de Z-modules libres, de rang des Z-modules libres, le principe qu’un sous-module de Zn

est libre de rang inférieur ou égal à n, l’égalité entre le rang d’un sous-module M deZn et la dimension du Q espace vectoriel de Qn engendré par M . On utilisera aussile théorème de la base adaptée sur Z dont voici un énoncé :

Théorème 6.0.1 Soit M un sous-Z-module de Zn. Alors il existe une Z-base deZn, disons e1, · · · , en, et une suite d’entier positifs ou nul ordonnés par divisibilitéd1 | · · · | dr | dr+1 = 0 | · · · | dn = 0 tels que d1e1, · · · , dnen soit une base de M . Lasuite des di est un invariant de la classe d’isomorphisme de Zn/M et on appelle lesdi les diviseurs élémentaires de M ⊂ Zn. On a bien sur en général

Zn/M ∼=n⊕i=1

Z/(di)

et pour r = n :

o(Zn/M) =n∏i=1

di

Ces notions sont strictement contenues dans le programme de l’UV de quatrièmeannée "modules sur les anneaux principaux". J’indiquerai brièvement en cours lefil conducteur des démonstrations de cette théorie dans la cas particulier des Z-modules. Voir les sections 1 à 4 du chapitre XIX du livre des Gras pour un exposédétaillé de cette théorie.

6.1 Sous-groupes discrets de Rn.

On fixe un entier n et on étudie l’espace euclidien Rn muni de la métrique eucli-dienne ‖x‖. Dans la suite on notera Bf (a, r) la boule fermée de centre a et de rayonr dans Rn (resp. Bo(a, r) la boule ouverte). Lorsqu’il n’est pas utile de préciser on

61

Page 62: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

62

notera B(a, r). On dit qu’un espace topologique général est discret lorsque tous sessous-ensembles sont ouverts (et il suffit de vérifier que tous ses points sont ouverts).Dans Rn on a la caractérisation suivante des sous-groupes discrets (pour la topologieinduite par la métrique de Rn).

Lemme 6.1.1 Soit G < Rn un sous-groupe de Rn muni de la topologie induite parcelle de Rn. Les assertions suivantes sont équivalentes :

1. G est discret.2. Pour tout compact C de Rn l’intersection C ∩G est finie.3. Pour tout ε > 0 l’intersection B(0, ε) ∩G est finie.4. Il existe η > 0 tel que B(0, η) ∩G = {0}.

Démonstration. Par définition de la topologie induite (la topologie trace) une familled’ouverts élémentaire de G est donnée par les Bo(a, r) ∩ G. Dans le groupe topo-logique Rn les translations sont bi-continues et toutes les questions topologiques se"recentrent" en 0. Cela explique l’équivalence entre 1 et 4, mais détaillons-la quandmême. Par définition 4 est équivalent à "{0} est ouvert dans G". Cela entraîne quetout singleton {g} = {0} + g ⊂ G est image par une application bi-continue d’unouvert. Tous les singletons donc tous les sous-ensembles de G sont alors ouverts.L’implication 2⇒ 3 est immédiate. Pour conclure on démontre 3⇒ 4 et 4⇒ 2.

On suppose 3 et on cherche η tel que B(0, η) ∩ G = {0}. On prend ε > 0 et onécrit B(0, ε) ∩G = {0, x1, · · · , xk} où k = #(B(0, ε) ∩G)− 1. Si k = 0 alors η = εconvient. Sinon η = 1

2min ‖xi‖ convient.

On suppose 4 et soit C un compact de Rn. Supposons, en vue d’une contradiction,que C ∩ G soit infini. Alors C ∩ G contient une suite infinie dont on extrait parcompacité une sous-suite convergente à termes deux à deux distincts (xi)i∈N ⊂ G∩C.Soit x = lim xi. On peut donc trouver i, j ∈ N avec xi 6= xj, ‖x − xi‖ < η/2 et‖x− xj‖ < η/2. Mais alors 0 6= xi − xj ∈ B(0, η) ∩G, ce qui contredit 4. �

Corollaire 6.1.2 Les sous-groupes de R sont denses ou discrets.

Soit G un sous-groupe non discret de R. En niant 4, on voit que G contient unesuite (xn) de réels tous non nuls qui converge vers 0. Comme G est un groupe onpeut prendre les xn tous positifs. Soit x ∈ R avec x > 0. Alors pour tout n il existeun entier rn (la partie entière de x/xn) tel que

rnxn ≤ x < (rn + 1)xn.

En particulier la suite des (rnxn) ⊂ G converge vers x. Cela montre que G∩R+ estdense dans R+. Par symétrie G est dense dans R. �

Exercice 6.1 Soient x, y ∈ R linéairement indépendants sur Q. Alors le groupe〈x, y〉 est dense dans R.

Lemme 6.1.3 Soit G un sous-groupe de Rn. On a équivalence entre les trois asser-tions :

1. Il existe f ∈ AutR(Rn) avec G = f(Zn).

Page 63: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

63

2. Il existe M ∈ GLn(R) avec G = MZn.

3. Il existe une base de Rn qui engendre G comme Z-module.

Si un groupe G vérifie l’une de ces assertions alors il est discret et libre de rang n.

Démonstration. L’équivalence entre 1, 2 et 3 est immédiate. Un groupe G qui vérifie1 est libre de rang n. On doit montrer qu’un tel groupe est discret. Soit e1, · · · , enla R-base de Rn qui est aussi une Z-base de G. Alors tout x ∈ Rn assez proche de 0s’écrit x =

∑λiei avec λi ∈]− 1; 1[ pour tout i. Mais un tel x appartient à G si et

seulement si les λi sont entiers c’est-à-dire nuls. On obtient ainsi un η > 0 tel queG ∩B(0, η) = {0}. �

Remarque : L’implication réciproque (à savoir G sous-groupe discret de rang nengendre Rn sur R) est vraie. Cette implication est l’enjeu du théorème de Jacobi-Bravais à suivre.

Définition 6.1.4 On appelle réseau de Rn un Z-module libre de rang n engendrépar une R-base de Rn.

Lemme 6.1.5 Soit G = MZn = NZn un réseau obtenu à partir de deux matricesM,N de GLn(R). Alors MN−1 ∈ GLn(Z) et en conséquence

det(M) = ± det(N).

Démonstration. En partant de MZn = NZn on arrive à N−1MZn = Zn qui entraîneN−1M ∈ Mn(Z). Par symétrie la matrice inverse M−1N appartient aussi à Mn(Z),c’est-à-dire que toutes deux sont dans GLn(Z). �

Définition 6.1.6 Si G = MZn est un réseau alors | det(M)| est un invariant de G,on l’appelle le déterminant du réseau G.

Définition 6.1.7 Soit G = ⊕ni=1Zei un réseau de Rn. On appelle parallélotopefondamental de G le convexe :

P(e1, · · · , en) = {x ∈ Rn, x =n∑i=1

λiei, 0 ≤ λi < 1}.

Un parallélotope fondamental (parfois appelé domaine fondamental) d’un réseaun’est pas un invariant du réseau. Il s’agit d’un système de représentant dans Rn deRn/G. Il y autant de tels parallélotopes que de bases (à permutation près) du réseau.Cependant le volume de ce parallélotope est un invariant :

Proposition et définition 6.1.8 Un parallélotope fondamental P d’un réseau Gest mesurable (au sens de la mesure de Lebesgue µ de Rn) et on a µ(P) = det(G).Cet invariant se note aussi µG et s’appelle le co-volume ou la mesure de la mailledu réseau G.

Page 64: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

64

Démonstration. On note ε la base canonique de Zn. Le parallélotope fondamental P0

de Zn associé à ε est évidement mesurable de mesure 1. On part de P = P(e1, · · · , en)et de la matrice M = Matε(e) telle que M(ε) = (e). Alors M(P0) = P et

µ(P) =

∫P

dµ =

∫M(P0)

dµ = | det(M)|∫P0

dµ = | det(M)|,

parce que le changement de variable x 7→Mx a pour jacobienne M . �

Proposition et définition 6.1.9 Si H ⊂ G est un réseau de Rn contenu dans leréseau G on appelle indice de H dans G et on note (G : H) l’ordre du quotient (fini)G/H. On a :

µH = µG(G : H).

Démonstration. Il suffit de prendre pour parallélotopes fondamentaux ceux obtenusà partir d’une base de G adaptée à H pour G et de la base de H déduite de laprécédente pour H. �

Le théorème fondateur de la théorie des sous-groupes discrets de Rn affirme queles notions de Z-rang et de R-dimensions coïncident pour ces sous-groupes. (Penserau sous-groupe de rang 2 engendré par 1 et

√2 dans R)

Théorème 6.1.10 (Jacobi–Bravais) Soit G un sous-groupe discret de Rn, soit Vle sous-espace de Rn engendré par G et soit r = dimR V . Alors G est Z-libre de rangr.

Remarque : Attention si r < n le volume µG n’est pas défini.Démonstration. On prend (e1, · · · , er) ⊂ G un système de vecteurs R-libre de rangmaximal, et soit H le sous-groupe de G engendré par ces ei. On se donne l’ensembleP1 = {

∑ri=1 λiei, 0 ≤ λi < 1}. Par construction P1 est un système de représentants

de V/H. L’adhérence de P1 est compacte et comme G est discret l’intersection G∩P1

est finie. Forcément G est engendré par (e1, · · · , er)∪ (G∩P1) donc est de type finidonc libre. Il reste à voir que le Z-rang de G est au plus r. Soit x ∈ G et écrivons x =∑r

i=1 αiei avec α ∈ R. Pour tout entier m on considère x(m) = mx −∑

iE(mαi)ei.Alors pour tout m on a x(m) ∈ G ∩P1 et comme cet ensemble est fini il existe l 6= jtels que x(l) = x(j). On en déduit (j − l)x =

∑i(E(jαi)− E(lαi))ei c’est-à-dire que

x est dans le Q-espace vectoriel engendré par les ei. �

Corollaire 6.1.11 Un sous-groupe Z-libre de Rn de Z-rang supérieur ou égal à n+1n’est pas discret.

Ce corollaire immédiat "écrase" et généralise l’exercice 6.1

6.2 Théorème de Minkowski.

Lemme 6.2.1 (Minkowski) Soit G un réseau de Rn et soit Σ un sous-ensemblemesurable de Rn tel que µ(Σ) > µG. Alors il existe x, y ∈ Σ avec x 6= y et x−y ∈ G.

Page 65: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

65

Démonstration. Soit P un parallélotope fondamental pour G. Les translatés P + g,g ∈ G donnent une partition de Rn :

Rn = qg∈G

(P + g).

D’où une partition Σ = qg∈G

((P + g) ∩ Σ) et en passant aux mesures :

µ(Σ) =∑g∈G

µ((P + g) ∩ Σ) =∑g∈G

µ(P ∩ (Σ− g)).

La dernière égalité provient de l’invariance par translation de µ. Maintenant si lesensembles (P ∩ (Σ − g)) sont disjoints alors la dernière somme est majorée par µGce qui contredit µ(Σ) > µG. Il existe donc g, g′ ∈ G tels que g 6= g′ et P ∩ (Σ− g) ∩(Σ − g′) 6= ∅, c’est-à-dire qu’il existe x, y ∈ Σ avec x − g = y − g′. On en déduitx− y = g − g′ ∈ G \ {0} puisque g 6= g′ et g, g′ ∈ G. �

Théorème 6.2.2 (Minkowski) Soit G un réseau de Rn et S ⊂ Rn mesurable vé-rifiant les trois hypothèses suivantes :

1. S est symétrique par rapport à 0 (autrement dit −S ⊂ S).2. S est convexe (autrement dit pour tout x, y ∈ S le segment [x, y] est contenu

dans S).3. µ(S) > 2nµG ou µ(S) ≥ 2nµG avec S compact.

Alors S ∩G contient un élément non nul.

Démonstration. On suppose d’abord µ(S) > 2nµG. On applique le lemme 6.2.1 à Σ =12S. On trouve x, y distincts dans 1

2S tels que x−y ∈ G. Mais x−y = 1

2(2x−2y) ∈ S

puisque S est symétrique et convexe. D’où la conclusion lorsque µ(S) > 2nµG. Onsuppose maintenant S compact et µ(S) ≥ 2nµG. En appliquant le premier cas à(1 + 1/n)S on obtient une suite décroissante de compacts non vide

Kn =

((1 +

1

n

)S

)∩G.

Alors l’intersection desKn est non vide et si x ∈ ∩nKn alors x ∈ S∩G par compacitéde S. Alternativement les seuls compacts discrets sont les ensembles finis et une suitedécroissante d’ensemble finis est stationnaire. �

6.3 Applications diophantiennes.

6.3.1 Approximations diophantiennes simultanées.

On fixe n. On note ε la base canonique de Zn et on se donne x = (x1, · · · , xn) ∈Rn \Qn.

Lemme 6.3.1 Soit G le Z-module engendré par {ε1, · · · , εn, x}. Alors G n’est pasdiscret.

Page 66: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

66

Démonstration. Par hypothèse sur x ce Z-module est au moins de rang n + 1. Lecorollaire 6.1.11 conclut. �

Théorème 6.3.2 Soient x1, · · · , xn, n nombres réels. Alors pour tout ε tel que 0 <ε < 1, il existe un entier q indépendant de i et n entiers (pi)1≤i≤n tels que∣∣∣∣xi − pi

q

∣∣∣∣ < ε

q.

Démonstration. Puisque G n’est pas discret la boule fermée

Bε = {(x1, · · · , xn) ∈ Rn, sup(xi) ≤ ε}

contient un élément de G non nul que l’on écrit g =∑aiεi+ax et on a |ai+axi| ≤ ε

pour tout i. Puisque ε < 1 on a forcément a 6= 0 (le réseau Zn lui est discret et vérifieBε ∩ Zn = {0} pour ε < 1). Comme a 6= 0 on obtient pour tout i :∣∣∣xi +

aia

∣∣∣ ≤ ε

a.

Cela montre le théorème (en prenant ε = ε/2, pi = −ai et a = q). �

6.3.2 Equations diophantiennes linéaires.

On prend n ≥ 2. Les équations diophantiennes linéaires sont des équations de laforme

n∑i=1

aixi = b (6.1)

données par des entiers a1, · · · , an non tous nuls (on suppose an 6= 0 pour fixer lesidées) et un entier b et pour lesquelles on cherche les solutions x1, · · ·xn entières,c’est-à-dire telles que (x1, · · · , xn) ∈ Zn. Lorsque les ai et b sont rationnels on seramène à une équation diophantienne en chassant les dénominateurs. Lorsque l’undes paramètres est irrationnels souvent l’ensemble des solutions est vide et dans tousles cas on n’a plus affaire à un problème diophantiens.

Lemme 6.3.3 Si x0 = (x01, · · · , x0

n) est une solution particulière de 6.1 alors toutesolution x est de la forme x = y + x0 où y est une solution de l’équation homogèneassociée 6.2 :

n∑i=1

aixi = 0 (6.2)

Démonstration. C’est évident. �

Lemme 6.3.4 L’équation générale 6.1 admet une (donc plusieurs) solutions si etseulement si le pgcd des ai divise b.

Page 67: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

67

Démonstration. Dans un anneau principal un pgcd des ai est un générateur de l’idéal(principal) engendré par ces ai. Avec cette définition le lemme devient tautologique.En vue d’une méthode de calcul des solutions il faut remarquer que l’algorithmed’euclide donne à la fois ce pgcd d et des coefficients de Bezout tels que d =

∑aiui,

c’est-à-dire une solution particulière si elle existe puisque b = b′d =∑aiuib

′. �

Lemme 6.3.5 L’ensemble des solutions (y1, · · · , yn) de l’équation homogène 6.2 estun sous-groupe discret de rang n − 1 contenant comme sous-groupe d’indice fini lesous-groupe Γ engendré par les γi = −anεi + aiεn pour 1 ≤ i ≤ n− 1.

Démonstration. Soit G l’ensemble des solutions de 6.2. Alors G est le noyau dela forme Z-linéaire ϕ : (x1, · · · , xn) 7→

∑aixi. Clairement les γi sont linéairement

indépendants (la matrice des coordonnées des γi est triangulaire inférieure avec ansur la diagonale pour i < n), et ils appartiennent à G dont le rang est donc supérieurou égal à n − 1. Réciproquement comme G est dans l’hyperplan de Qn associé à ϕson rang est inférieur donc égal à n− 1. �

Définition 6.3.6 On appelle système fondamental de solutions de (6.2) une Z-basede l’ensemble des solutions.

Théorème 6.3.7 Soit e1, · · · , en une base de Zn adaptée au sous-groupe Γ du lemme6.3.5, c’est-à-dire telle qu’il existe des q1, · · · , qn−1 ∈ N non nuls ordonnés par divisi-bilité et que q1e1, · · · , qn−1en−1 soit une base de Γ. Alors e1, · · · , en−1 est un systèmefondamental de solutions de l’équation 6.2 et (G : Γ) =

∏n−1i=1 qi.

Démonstration. Soit ϕ : Zn −→ Z la forme linéaire ϕ(x1, · · · , xn) =∑aixi. Par

définition G = Kerϕ. Pour i < n on a qiei ∈ Γ ⊂ G et donc qiϕ(ei) = ϕ(qiei) = 0.Puisque Z est sans torsion on a ei ∈ G pour i < n, et donc 〈e1, · · · , en−1〉 ⊂ G ⊂ Zn.Tout y ∈ Zn s’écrit y =

∑λiei et il vient ϕ(y) = λnϕ(en). Puisque ϕ est non-nulle

on doit avoir ϕ(en) 6= 0 et on en déduit y ∈ G ⇐⇒ λn = 0. �

6.3.3 Théorème des deux carrés.

Définition 6.3.8 On dit qu’un entier n est somme de 2 carrés lorsqu’il existe a, b ∈N tels que n = a2 + b2.

Définition 6.3.9 Soit n ∈ N et p un nombre premier. On appelle valuation p-adiquede n et on note vp(n) le plus grand entier positif ou nul tel que pvp(n) | n.

Remarque : La factorisation d’un entier positif n en puissances de nombre premierss’écrit donc :

n =∏p∈P

pvp(n).

Proposition 6.3.10 Un entier positif n ≡ 3[4] n’est pas somme de deux carrés.

Démonstration. Il suffit de réduire modulo 4 l’équation a2 + b2 = n. Les carrésmodulo 4 sont 0 et 1 et leur somme ne peut pas valoir 3 modulo 4. �

Page 68: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

68

Théorème 6.3.11 Si p est un nombre premier congru à 1 ou 2 modulo 4, alors pest somme de deux carrés.

Démonstration. Pour p = 2 on a 2 = 1 + 1 = 12 + 12. On suppose p ≡ 1[4].Alors F×p est cyclique d’ordre divisible par 4, donc contient u avec u2 = −1. SoitR = {(a, b) ∈ Z2; a ≡ ub[p]}. Alors R est un réseau de co-volume p puisque c’estle noyau de l’application surjective Z2 −→ Fp définie par (a, b) 7→ a − ub. Par lethéorème de Minkowski le disque de rayon r contient un point non nul de R dès quer2 > (4p/π). On prend r tel que (4p/π) < r2 < 2p. Soit (a, b) le point de R nonnul contenu dans ce disque. Alors on a 0 < a2 + b2 < 2p tandis que a2 + b2 ≡ 0[p].Automatiquement a2 + b2 = p. �

Lemme 6.3.12 L’anneau A = Z[i] est euclidien donc principal. Si n est somme dedeux carrés et si p ≡ 3[4] est un nombre premier divisant n alors vp(n) est pair.

Démonstration. Montrer que Z[i] est euclidien pour la norme N(a+ ib) = a2 + b2 estun exercice bateau. Soit p ≡ 3[4]. Alors l’équation N(a+ ib) = p n’a pas de solutiondans A et on peut en déduire que p est encore irréductible dans A. On note σ laconjugaison de Z[i]. On suppose que p ≡ 3[4] divise n = a2 + b2 = (a + ib)(a − ib).Par le lemme de Gauß on obtient p | a+ ib ou p | a− ib. Soit s tel que (a+ ib) ∈ psAet a+ ib 6∈ ps+1A. Alors par conjugaison et comme σ(p) = p on voit que a− ib ∈ psAet a − ib 6∈ ps+1A. D’où n = (a + ib)(a − ib) ∈ p2sA \ p2s+1A. En particulier p2s+1

ne divise pas n dans Z non plus. En passant aux normes on voit ensuite que (p2)2s

divise n2 dans Z. �

Corollaire 6.3.13 Un entier positif n est somme de deux carrés si et seulement siles vp(n) sont pairs pour tout p ≡ 3[4].

Démonstration. En regroupant ce qui précède on voit qu’il reste à démontrer qu’unproduit de deux entiers chacun somme de deux carré est aussi somme de deux carré.Cela revient à la multiplicativité de la norme dans Z[i] puisque

(a2 + b2)(c2 + d2) = N(a+ ib)N(c+ id) = N((a+ ib)(c+ id))

= (ac− bd)2 + (ad+ bc)2.

6.3.4 Théorème des quatres carrés.

Proposition 6.3.14 Tout nombre premier est somme de quatre carrés.

Démonstration. On peut supposer p impair (et même p ≡ 3[4] mais cela ne sertpas). Par le principe des tiroirs déjà utilisé pour démontrer le lemme 5.4.5 il existeu, v dans Z tels que u2 + v2 + 1 ≡ 0[p]. On considère le réseau R = {(a, b, c, d) ∈Z4, c ≡ ua+vb[p], d ≡ ub−va[p]}. De même que précédemment on montre que R estd’indice p2 dans Z4. le volume de la sphère de rayon r en dimension 4 est (π2r4)/2et on choisit r tel que 16p2 < (π2r4)/2 < (π2/2)4p2, c’est-à-dire (π2r4)/2 > 16p2 etaussi r2 < 2p. Par le théorème de Minkowski il existe un point non nul (a, b, c, d) deR contenu dans la sphère de rayon r. On en tire 0 < a2 + b2 + c2 + d2 < 2p tandisque a2 + b2 + c2 + d2 ≡ 0[p] d’où p = a2 + b2 + c2 + d2. �

Page 69: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

69

Théorème 6.3.15 (Lagrange) Tout nombre entier est somme de quatre carrés.

Démonstration. Comme pour le théorème des deux carrés il s’agit de montrer quele produit de deux sommes de quatre carrés est une somme de quatre carrés. Iciaussi cela se ramène à la multiplicativité d’une sorte de norme mais il s’agit dela norme réduite associée aux quaternions de Hamilton c’est-à-dire une Q algèbrenon commutative. Voir le début du paragraphe 5.7 du "Théorie Algébrique desNombres" de Pierre Samuel (le lemme 2 suffit à nos besoins). Alternativement onpeut se contenter de bombarder la formule :

(a2 + b2 + c2 + d2)(A2 +B2 + C2 +D2) =

(aA− bB − cC − dD)2 + (aB + bA+ cD − dC)2

+ (aC − bD + cA+ dB)2 + (aD + bC − cB + dA)2.

Page 70: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

70

Page 71: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

Chapitre 7

Réduction des endomorphismes.

Étant donné un endomorphisme u d’un k-espace vectoriel E de dimension finien, réduire u c’est trouver une base dans laquelle la matrice de u soit "le plus simplepossible". Matriciellement on cherche dans la classe de similitude de Matε(u) unematrice "simple". Par exemple diagonaliser (matrice diagonale), trigonaliser (matricetriangulaire inférieure ou supérieure), Jordaniser (matrice de Jordan) lorsque c’estpossible sont des réductions. La seule réduction générale abordée dans ce cours serala réduction de Frobenius (en bloc diagonaux de matrices compagnons) qui donneun représentant "canonique" de la classe de similitude de Matε(u).

7.1 sous-espaces stables par u.Définition 7.1.1 On appelle sous-espace stable par u un sous-espace F ⊂ E tel queu(F ) ⊂ F .

Exemples : Si P ∈ k[X] alors Im(P (u)) et Ker(P (u)) sont stables par u. Enparticuliers les sous-espaces propres et les sous-espaces caractéristiques de u sontstables par u. Plus généralement on a le lemme

Lemme 7.1.2 Soit u, v ∈ Endk(E) deux endomorphismes qui commutent. AlorsKeru et Imu sont stables pour v.

Démonstration. Soit x ∈ Keru, alors u(v(x)) = v(u(x)) = v(0) = 0 et donc v(x) ∈Keru. Soit x = v(y) ∈ Im(v). Alors u(x) = u(v(y)) = v(u(y)) ∈ Im v. �

Définition 7.1.3 On appelle polynôme minimal de u et on note µu(X) le générateurunitaire de l’idéal de k[X] des polynômes annulant u.

µu(X)k[X] = {P ∈ k[X]; P (u) = 0}.

L’existence de µu est assurée parce que n2 = dimk(End(E)) est finie et donc lesendomorphismes 1, u, u2, · · · , un2 sont liés. Le théorème de Cayley-Hamilton assureen outre que le degré de µu est inférieur ou égal à n.

Lemme 7.1.4 Soit E ′ ⊂ E un sous-espace stable par u, soit E ′′ = E/E ′ l’espacequotient et soit u′ et u′′ les endomorphismes de E ′ et respectivement E ′′ induits paru. Alors µu′ et µu′′ divisent µu.

71

Page 72: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

72

Démonstration. En effet µu(u′) = 0 et µu(u′′) = 0. �

Lemme 7.1.5 Soit E1 · · ·Es des sous-espaces stables tels que E = E1 + · · · + Es,et soit Mi le polynôme minimal de l’endomorphisme de Ei induit par u. Alors µu =ppcm(Mi).

Démonstration. Soit M = ppcm(Mi). Par le lemme 7.1.4 chaque Mi divise µu doncM aussi. Réciproquement M(u) est nul sur tous les Ei donc sur E et µu diviseM . �

Définition 7.1.6 Pour tout λ ∈ k on appelle sous-espace propre pour u associé àλ et on note Eλ le noyau Ker(λ IdE −u). Lorsque Eλ 6= {0} on dit que λ est unevaleur propre de u. L’ensemble des valeurs propres de u s’appelle le spectre de u etse note Spec(u). Un vecteur non nul de Eλ s’appelle un vecteur propre pour λ.

Définition 7.1.7 Soit ε une base de E. Le déterminant ci dessous ne dépend pasdu choix de ε, on l’appelle polynôme caractéristique de u et on le note χu :

χu(X) = det(XIn −Matε(u)).

L’indépendance vis à vis de la base vient de la multiplicativité du det puisque pourM ∈ GLn(k) on a

det(XIn −M Matε(u)M−1) = det(M(XIn −Matε(u))M−1) =

det(XIn −Matε(u)).

Pour que λ ∈ k soit valeur propre de u il faut et il suffit que l’endomorphismeλ IdE −u ne soit pas injectif c’est-à-dire que son déterminant soit nul ou encore queλ soit racine de χu.

Proposition 7.1.8 Soient E ′ un sous-espace stable par u, soit E ′′ = E/E ′ et soientu′ (resp. u′′) l’endomorphisme de E ′ (resp. E ′′) induit par u. Alors χu = χu′χu′′.

Démonstration. Il suffit d’écrire la matrice de u dans une base de E complétant unebase de E ′ et d’utiliser la formule du déterminant des matrices triangulaires parblocs. �

Définition 7.1.9 On dit que u est trigonalisable lorsqu’il existe une base ε de Etelle que la matrice de Matε(u) soit triangulaire.

Matε(u) =

λ1 ∗ · · · ∗0 λ2 · · · ∗...

... . . . ...0 0 · · · λn

Nota Bene : Les λi ne sont pas supposés distincts.

Proposition 7.1.10 L’endomorphisme u est trigonalisable sur k si et seulement siχu est scindé sur k.

Page 73: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

73

Démonstration. C’est une récurrence facile sur la proposition 7.1.8. En outre si ilexiste une base ε avec

Matε(u) =

λ1 ∗ · · · ∗0 λ2 · · · ∗...

... . . . ...0 0 · · · λn

,

alors χu =∏

i(X − λi). �

Théorème 7.1.11 (Cayley-Hamilton) Dans Endk(E) on a χu(u) = 0 et dansk[X] on a les divisibilités :

µu | χu | µnu.

Démonstration. Quitte à étendre les scalaires au corps de décomposition L de χuon peut supposer χu scindé. Par le lemme 7.1.4 appliqué aux sous-espaces propresassociés à la valeur propre λ on montre que X−λ divise µu. Cela donne alors χ | µnudans L[X] et donc dans k[X] (par unicité du reste de la division euclidienne). Il resteà montrer que χu(u) = 0 lorsque χu est scindé. Mais en utilisant une base ε telle que

Matε(u) =

λ1 ∗ · · · ∗0 λ2 · · · ∗...

... . . . ...0 0 · · · λn

,

on peut voir par récurrence sur k

∀j ≤ k∏i≤k

(λi IdE −u)(ej) = 0.

7.2 Théorème des noyaux et applications.

7.2.1 théorème des noyaux.

Lemme 7.2.1 (des noyaux) Soit P un polynôme annulant u et décomposé en P =P1P2 avec (P1, P2) = 1, et soit Ei = Ker(Pi(u)), pour i = 1, 2. On a

1. E1 = Im(P2(u)), E2 = Im(P1(u)) et E = E1 ⊕ E2.2. Les projecteurs E � Ei appartiennent à k[u].

Démonstration. On pose F1 = Im(P2(u)) et F2 = Im(P1(u)). Comme 0 = P1(u) ◦P2(u) = P2(u) ◦ P1(u) on a Fi ⊂ Ei. On part d’une équation de Bezout 1 = R1P1 +R2P2 entre les Pi. Tout x ∈ E s’écrit x = P1(u)R1(u)(x) + P2(u)R2(u)(x) doncE = F1 + F2. Si z ∈ E1 ∩ E2 alors z = R1(u) ◦ P1(u)(z) + R2(u) ◦ P2(u)(z) = 0, etdonc E1 ∩ E2 = {0}. On en déduit E = F1 ⊕ F2 et Ei = Fi. Enfin P1(u) ◦R1(u) estle projecteur sur E2 et P2(u) ◦R2(u) est le projecteur sur E1. �Par récurrence on déduit du lemme des noyaux le théorème du même nom :

Page 74: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

74

Théorème 7.2.2 (des noyaux) Soit P un polynôme annulant u décomposé en unproduit P = P1P2 · · ·Ps avec (Pi, Pj) = 1 pour i 6= j. Soit Ei = Ker(Pi(u)) et pourtout i soit Qi =

∏j 6=i Pj et Fi = Ker(Qi(u)). On a

1. pour tout i, Ei = Im(Qi(u)), Fi = Im(Pi(u)).2. E = E1 ⊕ · · ·Es et pour tout i, Fi = ⊕j 6=iEj.3. Les projecteurs sur Ei sont dans k[u].

7.2.2 endomorphisme diagonalisable et critère de diagonali-sation.

Proposition 7.2.3 L’endomorphisme u est diagonalisable sur k si et seulement siµu est scindé sur k avec des racines simples.

Démonstration. Si u est diagonalisable on vérifie que∏

λ∈spec(u)(X − λ) est le po-lynôme minimal de u. Réciproquement on applique le théorème des noyaux à lafactorisation de µu en produit de polynômes de degré 1 distincts. �

Corollaire 7.2.4 Si u est diagonalisable et si E ′ ⊂ E est stable alors les endomor-phismes induits par u sur E ′ et E/E ′ sont diagonalisables.

Démonstration. Exercice. �

Corollaire 7.2.5 Lorsque k est fini avec q éléments u est diagonalisable si et seule-ment si uq = u.

Démonstration. Exercice. �

Corollaire 7.2.6 On suppose u diagonalisable d’espaces propres E1, · · · , Ep asso-ciés aux valeurs propres λ1, · · · , λp.

1. Un sous-espace F ⊂ E est stable par u si et seulement si F est de la formeF = F1 ⊕ · · · ⊕ Fp avec Fi ⊂ Ei.

2. Un endomorphisme v de E commute à u si et seulement si tous les Ei sontstables par v.

Démonstration. 1. Les sous-espaces F de cette forme sont évidemment u-stables.Tout sous-espace F ⊂ E contient la somme directe F ∩ Ei ⊕ · · ·F ∩ Ep. Récipro-quement si F est u-stable alors F est stable par tout endomorphisme de k[u] etdonc par les projecteurs πi : E −→ Ei. Tout x de F s’écrit donc x =

∑πi(x) avec

πi(x) ∈ F ∩ Ei.2. On note C(u) l’algèbre (contenant k[u]) des endomorphismes de E qui com-

mutent à u. On suppose que v ∈ C(u) et on prend x ∈ Ei. Alors u(v(x)) = v(u(x)) =v(λix) = λiv(x), et donc v laisse Ei stable. Réciproquement si v laisse les Ei stablealors sa restriction aux Ei est un endomorphisme qui commute avec la restriction deu puisque cette dernière est l’homothétie de rapport λi. On obtient v(u(x)) = u(v(x))pour tout x dans Ei et pour tout i puis v ∈ C(u). �

Page 75: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

75

Remarque : On pose ni = dimVi. On déduit de 2 la décomposition

C(u) '∏i

End(Vi),

et doncdim C(u) =

∑i

dim(End(Vi)) =∑i

n2i ≥

∑i

ni = n.

Corollaire 7.2.7 Soit F ⊂ Endk(E) un ensemble d’endomorphismes diagonali-sables et commutant deux à deux. Alors il existe une base de E qui les diagonalisesimultanément.

Démonstration. On peut supposer sans perte de généralité que les v ∈ F ne sont pastous des homothéties (ces dernières sont diagonales dans toute base). On procèdepar récurrence sur n = dimE. Si n = 1 il n’y a rien à démontrer. On prend u ∈ Fayant (au moins) deux espaces propres distincts et on décompose suivant le spectrede λ :

E =⊕

λ∈Spec(u)

Eλ.

Puisque tous les v ∈ F commutent à u les Eλ sont v stables pour tout v ∈ F . Parrécurrence on trouve une base de Eλ diagonalisant simultanément tous les v|Eλ pourtous les v ∈ F et tous les λ ∈ Spec(u). En recollant ces bases on obtient une basede E qui diagonalise tous les v ∈ F . �

Définition 7.2.8 Soit λ ∈ Spec(u).

1. La multiplicité de λ comme racine de χu(X) est la multiplicité algébrique deλ.

2. La dimension nλ = dimEλ de l’espace propre associé à λ est la multiplicitégéométrique de λ.

3. Soit mλ la multiplicité de λ comme racine de µu(X). Le sous-espace

Ecλ = Ker((λ IdE −u)mλ),

s’appelle espace caractéristique et se note Ecλ.

Proposition 7.2.9 On suppose χu scindé sur k (donc µu aussi).

1. E est somme directe des espaces caractéristiques associés à ses valeurs propres.

E =⊕

λ∈Spec(u)

Ecλ.

2. Pour tout λ ∈ spec(u) la dimension de l’espace caractéristique associé à λ estégal à la multiplicité algébrique de λ : dimEc

λ = nλ

Page 76: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

76

Démonstration. L’affirmation 1. vient du théorème des noyaux appliqué au polynômeµu. Pour 2. soit dλ = dimEc

λ. Par le lemme 7.1.2 les sous-espaces caractéristiquesassociés à u sont stables et la restriction uλ de u à Ec

λ est un endomorphisme. On a∏λ∈Spec(u)

(X − λ)nλ = χu(X) =∏

λ∈Spec(u)

χuλ(X).

Il suffit donc de voir que λ est la seule racine du polynôme (forcément scindé) χuλ(X).Mais par définition de Ec

λ le polynôme minimal µλ de uλ divise (X − λ)mλ . �Forcément l’espace propre associé à λ est contenu dans l’espace caractéristique

Ecλ. On obtient donc le critère de diagonalisation portant sur χu :

Proposition 7.2.10 L’endomorphisme u est diagonalisable si et seulement si χuest scindé et pour tout λ ∈ Spec(u) les multiplicités algébrique et géométrique coïn-cident :

∀λ ∈ Spec(u) nλ = dimEλ.

Démonstration. Exercice. �Exercice 7.1 Montrer que µuλ = (X − λ)mλ.

Exercice 7.2 Montrer les deux inégalités 1 ≤ mλ ≤ nλ. Pour chacune donner descas d’égalités et d’autres exemples d’inégalités strictes.

Exercice 7.3 Soit λ ∈ Spec(u). Montrer que pour tout n ∈ N on a

Ker(u− λ IdE)mλ+n = Ker(u− λ IdE)mλ

et que mλ est le minimum des entiers avec cette propriété (c’est la raison pourlaquelle on prend la puissance mλ dans la définition de l’espace caractéristique).

7.2.3 La version diagonalisable plus nilpotent de Dunford.

Théorème 7.2.11 (Dunford) On suppose χu scindé sur k. Il existe deux uniquesendomorphismes de E noté δ et ν qui commutent avec δ diagonalisable, ν nilpotentet u = δ + ν. De plus δ (et donc ν) appartient à k[u].

Démonstration. On écrit Spec(u) = {λ1, · · · , λp}, on note mi la multiplicité de λicomme racine de µu et on note E1, · · · , Ep les sous-espaces caractéristiques Ei =Ker(λi IdE −u)mi . Par la proposition 7.2.9 on peut décomposer E =

⊕pi=1Ei. Les

sous-espaces Ei sont u-stable et donc les restrictions ui de u à Ei sont des endo-morphismes et u = u1 ⊕ · · · ⊕ up. On pose δi = λi IdEi et νi = ui − di. Alors δiet νi commutent, δi et diagonalisable et νmii = 0 par définition de Ei. On obtientl’existence de δ et ν en posant δ = δi ⊕ · · · δp et ν = u− δ = ν1 ⊕ · · · ⊕ νp.

Par la proposition 7.2.9 la projection πi : E −→ Ei appartient à k[u] et il existedonc Pi(X) ∈ k[X] tel que Pi(u) = πi. Il suit δ =

∑pi=1 λiPi(u) ∈ k[u] et ν = u− δ ∈

k[u]. Cela permet de montrer l’unicité. En effet soit δ′ et ν ′ deux endomorphismescommutant tels que u = δ′ + ν ′ et δ′ diagonalisable et ν ′ nilpotent. Alors δ′ et ν ′commutent deux à deux, donc commutent avec u et donc aussi avec δ et ν qui sontpolynomiaux en u, et on a δ − δ′ = ν ′ − ν. Puisque δ et δ′ commutent ils sontsimultanément diagonalisable et δ − δ′ aussi. Puisque ν et ν ′ commutent et sontnilpotent leur différence ν ′− ν est nilpotente aussi. Ainsi δ− δ′ = ν ′− ν est à la foisdiagonalisable et nilpotent, c’est-à-dire nul. �

Page 77: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

77

7.3 La version semi-simple plus nilpotent de Dun-ford.

Dans ce paragraphe on suppose que le corps de base k est parfait. Concrètementcela veut dire soit que la caractéristique de k est nulle car(k) = 0 soit, si car(k) = p,que le Frobenius x 7→ xp est surjectif sur k. Par exemple les corps algébriquementclos sont parfait, les corps finis sont parfait tandis que pour tout nombre premier p,le corps Fp(T ) n’est pas parfait puisque T 6∈ (Fp(T ))p. Les extensions algébrique descorps parfait sont séparable, c’est-à-dire que les racines des polynômes irréductiblesà coefficient dans k sont simples dans toute clôture algébrique de k. Cette hypothèsesert essentiellement à faciliter la description des endomorphismes semi-simple (onpourrait les appeler "potentiellement diagonalisable").

Définition 7.3.1 Un endomorphisme u ∈ Endk(V ) est dit semi-simple lorsque toutsous-espace vectoriel u-stable F ⊂ E admet un supplémentaire stable.

Proposition 7.3.2 On suppose k parfait. Un endomorphisme u de E est semi-simple si et seulement si µu est sans facteur carré dans k[X], autrement dit si etseulement si µu n’a que des racines simples dans un clôture algébrique de k.

Démonstration. On suppose u semi-simple. On décompose µu(X) en produit depuissances d’irréductibles µu =

∏pi=1 P

αii (X), avec les Pi(X) irréductibles sur k[X]

et deux à deux distincts. Il s’agit de montrer que pour tout i on a αi = 1. Par lelemme des noyaux on peut décomposer E = E1 ⊕ · · · ⊕ Ep avec Ei = Ker(Pαi

i (u)).L’espace Ker(Pi(u)) est stable, il admet donc un supplémentaire F dans E stablepar u. Le sous-espace Fi = F ∩ Ei est alors un supplémentaire stable dans Ei deKer(Pi(u)). Avec ces notations on a l’équivalence entre Fi = {0} et αi = 1. Onsuppose, en vue d’une contradiction, qu’il existe x 6= 0 dans Fi, en particulier x ∈ Eiet Pi(u)(x) 6= 0. Alors le maximum l des entiers m tels que Pm

i (u)(x) 6= 0 vérifie1 ≤ l < αi, et Pi(u)P l

i (u)(x) = 0. Il suit P li (u)(x) ∈ F ∩Ker(Pi(u)) puisque ces deux

espaces sont stables, et donc P li (u)(x) = 0 ce qui contredit la définition de l.

Réciproquement, on suppose µu(X) sans facteurs carrés, et on le factorise enµu(X) =

∏pi=1 Pi(X) avec les Pi(X) deux à deux distincts et irréductibles. Soit F

un sous-espace u-stable. Par le lemme des noyaux on écrit E = E1 ⊕ · · · ⊕ Ep avecEi = Ker(Pi(u)) et des projecteurs πi : E −→ Ei polynomiaux en u. En particuliercomme F est u-stable on a F = (F ∩E1)⊕· · ·⊕ (F ∩Ep) et il suffit de trouver, pourtout i, un supplémentaire u-stable dans Ei aux sous-espace u-stable Fi = Ei ∩ F ,c’est-à-dire un supplémentaire ui-stable si on note ui = u|Ei . Par construction, µui =Pi(X) est irréductible et donc l’algèbre Ai := k[ui] ≡ k[X]/(Pi(X)) est un corpscommutatif. Alors Ei est muni de la structure de Ai-espace vectoriel naturelle etles sous-Ai-espaces vectoriels de Ei sont exactement les sous-k-espaces u-stable deEi. Comme Ai est un corps ses sous-espaces u-stables ont tous des supplémentairesu-stables. �Remarque : Avec cette caractérisation, on constate que les polynômes minimauxdes endomorphismes semi-simples ont des racines simples dans une clôture algébriquek de k. Cela signifie que leurs matrices associées a priori non diagonalisable dansMn(k) deviennent diagonalisable dans Mn(k).

Page 78: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

78

Exercice 7.4 On suppose u diagonalisable. Montrer que tout sous-espace F admetun supplémentaire u-stable.

Théorème 7.3.3 (Dunford) On suppose k parfait et u quelconque. Il existe deuxuniques endomorphismes de E noté σ et ν qui commutent avec σ semi-simple, νnilpotent et u = σ + ν. De plus σ (et donc ν) appartient à k[u], et si χu est scindéalors σ = δ est diagonalisable.

Démonstration. Soit χu(X) le polynôme caractéristique de u. Soit P (X) le produitavec multiplicité 1 de tous les facteurs irréductibles de χu. Alors un endomorphismeannulé par P (X) sera semi-simple. On va chercher, dans k[u] une solution ρ(u)(avec ρ ∈ k[X]) de l’équation P (ρ(u)) = 0 telle que u − ρ(u) soit nilpotent. Alorsσ = ρ(u) et ν = u − ρ(u) conviendront et seront des éléments de k[u]. La preuvede l’unicité est alors exactement la même que dans la version δ + ν du théorème(le seul endomorphisme semi-simple et nilpotent est l’endomorphisme nul). On vaprocéder de façon complètement explicite en utilisant une variante polynômiale dela méthode de Newton d’approximation en analyse archimédienne des zéros desfonctions analytiques. Puisque P est sans facteur carré et que k est parfait le pgcdunitaire pgcd(P (X), P ′(X)) est égal à 1, et on dispose d’une équation de Bezout1 = A(X)P (X) +B(X)P ′(X). On définit par récurrence

ρ0(X) = X

ρn+1(X) = ρn(X)−B(ρn(X))P (ρn(X))

Lemme 7.3.4 (Newton P -adique) Soit t ∈ N tel que (P (X))t divise P (ρm(X))alors (P (X))2t divise P (ρm+1(X)).

Démonstration. On utilise un développement limité (à l’ordre 1) de P (X) en X eton obtient

P (X + Y ) = P (X) + Y P ′(X) + Y 2 · · ·

Pour X = ρn(X) et Y = −B(ρn(X))P (ρn(X)) on obtient

P (ρn+1(X)) = P (ρn(X))(1−B(ρn(X))P ′(ρn(X)) + P (ρn(X)) · · · )

Mais par construction P (X) divise 1 − B(X)P ′(X) et donc (P (ρn(X)))2 diviseP (ρn+1(X)). �Par récurrence et puisque P (X) = P (ρ0(X)) se divise lui-même on montre queP 2m(X) divise P (ρm(X)). Ainsi on démontre :

1. P (X) divise ρm+1(X)− ρm(X) pour tout m donc divise X − ρm(X) pour toutm.

2. Pour 2t ≥ n = dim(E) on a la suite de divisibilité dans k[X] :

µu(X) | χu(X) | P 2t(X) | P (ρt(X)).

Autrement dit dans l’algèbre k[u] ∼= k[X]/µu(X) où P (X) est nilpotent on a :1. Pour tout m, u− ρm(u) est nilpotent.2. Pour 2t ≥ n = dim(E), l’endomorphisme P (ρt(u)) est nul.

Page 79: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

79

Cela donne donc l’existence dans k[u] des endomorphismes σ = ρt(u) et ν = u − σdu théorème. Lorsque simultanément k est parfait et χu est scindé on dispose desdeux décomposition u = δ + ν = σ + ν ′, mais δ est diagonalisable donc semi-simpleet l’unicité dans la deuxième version conduit à δ = σ et ν = ν ′. �

Remarque : Lorsque χu est scindé et même si k n’est pas parfait, la preuveci-dessus fonctionne parfaitement. Cette seconde approche est à la fois plus généraleet aussi fournit une méthode complète explicite pour trouver δ ∈ k[u] en fonctionde u, sous réserve qu’on connaisse le polynôme P (produit des irréductibles divisantχu ou, c’est la même chose, divisant µu).

Je détaille les étapes principale de ce calcul. On suppose u donné par sa matriceM dans la base canonique de E.

1. On calcule χM(X) (éventuellement par une triangulation de Gauß pour opti-miser le temps de calcul).

2. Si χ′M(X) 6= 0 (par exemple pour car(k) = 0) alors on calcule le pgcd unitaire(χM(X), χ′M(X)) par l’algorithme d’Euclide sur les polynômes et on a

P (X) = χM(X)/(χM(X), χ′M(X)).

Lorsque χ′M(X) 6= 0 le calcul explicite de P (X) peut se révéler un problèmeplus difficile que la réduction explicite de Dunford de M .

3. On calcule (algorithme d’Euclide) une équation de Bezout

1 = A(X)P (X) +B(X)P ′(X).

4. On calcule dans k[M ] la suite récurrente M0 = M et

Mn+1 = Mn −B(Mn)P (Mn).

On s’arrête dès que cette suite est stationnaire c’est-à-dire P (Mn) = 0. On saita priori qu’on devra effectuer au plus t itération pour 2t ≥ n.

7.4 Réduction de Jordan.

Définition 7.4.1 On appelle bloc de Jordan de taille s associé à la valeur propre λla matrice Js(λ) = [ai,j] ∈Ms(k) telle que ai,j = λδi,j + δi+1,j.

Concrètement ce sont des matrices triangulaires supérieures avec λ sur la diagonale,1 sur la "sur-diagonale" et 0 partout ailleurs. Par exemple :

J1(λ) = [λ] J2(λ) =

[λ 10 λ

]J3(λ) =

λ 1 00 λ 10 0 λ

· · ·Clairement Js(λ)− λIs est nilpotente d’ordre exactement s, en particulier :

µJs(λ) = χJs(λ) = (X − λ)s.

Page 80: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

80

Décomposer (lorsque c’est possible) un endomorphisme u en bloc de Jordan c’esttrouver une base ε de E dans laquelle Matε(u) soit "diagonale par bloc", chaquebloc diagonaux égaux à un Jsi(λi). Une telle matrice est alors triangulaire supérieureet toutes les valeurs propres λi présentes sur la diagonale doivent appartenir à k.Autrement pour que u admette une décomposition de Jordan sur k il est nécessaireque χu soit scindé. On va voir que cette condition est aussi suffisante, mais enattendant il y a un cas particulier où il est très facile de scinder χu.

7.4.1 Réduction des endomorphismes nilpotents.

Un endomorphisme nilpotent vérifie ut = 0 pour un t entier. En particulierµu | X t et donc χu = Xn puis µu | Xn. On va étudier une façon très visuelle detrouver et décrire une décomposition de Jordan d’un tel endomorphisme u. Cettetechnique peut être rendue complètement explicite et conduire à une méthode decalcul comme en section précédente (on dit "algorithme") mais quelques-uns desdétails seront laissés aux lecteurs.

Lemme 7.4.2 Pour tout entier t ≥ 1, l’endomorphisme u définit par factorisationun morphisme injectif

u :Kerut+1

Kerut↪→ Kerut

Kerut−1.

En particulier pour le rang tu tel que µu = X tu :

0 = dim(Kerutu+1/Kerutu) ≤ dim(Kerutu/Kerutu−1) ≤ · · · ≤ dim(Keru).

Démonstration. En partant de l’inclusion évidente u(Kerut+1) ⊂ Kerut on ob-tient un morphisme ϕ : Kerut+1 u−→ Kerut � Kerut/Kerut−1. Bien sur Kerϕ =u−1(Kerut−1) = Kerut, et u est une application injective par factorisation. �

En appliquant successivement le théorème du rang on trouve aussi :

n = dim(Kerutu) = dim(Kerutu/Kerutu−1) + dim(Kerutu−1)

= · · ·

=tu∑t=1

dim(Kerut/Kerut−1)

On appelle tableau de Young associé à l’endomorphisme nilpotent u un tableau(à case vide) avec dim(Kerut/Kerut−1) cases dans la t-ième colonne. Dans un teltableau le nombre de lignes diminue quand on passe d’une colonne à sa voisine dedroite, et le nombre total de cases est n = dimE. Par exemple voici le tableau deYoung (en dimension 9) associé à un endomorphisme u tel que dim(Keru) = 4,dim(Keru2) = 7 et Keru3 = E de dimension 9.

Page 81: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

81

Pour décomposer en blocs de Jordan cet endomorphisme on va remplir les casesdu tableau de Young colonnes par colonnes mais en commençant par la droite. Onchoisit une base x1, x2 de Keru3/Keru2 (de dimension 2) que l’on relève en x1, x2

dans E. On remplit la dernière colonne du tableau.

x1

x2

Par le lemme 7.4.2 le système u(x1), u(x2) est encore libre dans Keru2/Keru eton peut choisir x3 dans Keru2/Keru pour que u(x1), u(x2), x3 soit une base duquotient Keru2/Keru. On relève x3 en x3 ∈ Keru2 ⊂ E et on remplit l’avantdernière colonne :

u(x1) x1

u(x2) x2

x3

On finit en complétant le système libre u2(x1), u2(x2), u(x3) par un vecteur x4 pouravoir une base de Keru et on obtient :

u2(x1) u(x1) x1

u2(x2) u(x2) x2

u(x3) x3

x4

Évidemment ce processus qui se comprend parfaitement sur cet exemple est com-plètement général, le seul argument utilisé est l’injectivité de

u :Kerut+1

Kerut↪→ Kerut

Kerut−1,

qui permet en appliquant u à une base de Kerut+1/Kerut d’obtenir un systèmelibre de Kerut/Kerut−1, qui se complète en une base etc. . .Pour terminer il faut lirele tableau de Young ligne par ligne de gauche à droite (normalement quoi) et onobtient la base ε de E qui suit

u2(x1), u(x1), x1, u2(x2), u(x2), x2, u(x3), x3, x4.

Page 82: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

82

Et voici la matrice de u dans cette base :

Matε(u) =

0 1 0 0 0 0 0 0 00 0 1 0 0 0 0 0 00 0 0 0 0 0 0 0 00 0 0 0 1 0 0 0 00 0 0 0 0 1 0 0 00 0 0 0 0 0 0 0 00 0 0 0 0 0 0 1 00 0 0 0 0 0 0 0 00 0 0 0 0 0 0 0 0

u2(x1)u(x1)x1

u2(x2)u(x2)x2

u(x3)x3

x4

=

J3(0) 0 0 0

0 J3(0) 0 00 0 J2(0) 00 0 0 J1(0)

De façon générale il y aura autant de "blocs" de Jordan que de lignes dans la premièrecolonne et chaque bloc aura la taille correspondant au nombre de cases dans saligne. Cela démontre l’existence d’une décomposition de Jordan pour les matricesnilpotentes et donne une ébauche d’algorithme de calcul. Pour avoir l’algorithmecomplet il faudrait décrire un processus de complétion en une base de tout systèmelibre des espaces quotients Kerut/Kerut−1. Cela est parfaitement élémentaire etpeut se traiter comme toujours par du pivot de Gauß. On a démontré la partieexistence d’une décomposition de Jordan dans la proposition ci-dessous :

Proposition 7.4.3 Tout endomorphisme nilpotent admet une décomposition en blocde Jordan. Deux matrices nilpotentes sont semblables si et seulement si leur décom-position de Jordan est la même (à permutation des blocs près).

Démonstration. Deux matrices nilpotentes semblables représentent le même endo-morphisme u dans des bases éventuellement différentes. Mais alors on a vu dansla partie existence que le nombre et la taille des blocs de Jordan déterminent etsont uniquement définis par la suite des dimensions dim(Ker(ut)/Ker(ut−1)) quielle-même ne dépend que de u. �

7.4.2 Réduction de Jordan.

Théorème 7.4.4 (Décomposition de Jordan) On suppose χu scindé sur k et onécrit Spec(u) = {λ1, · · · , λp}. Alors il existe une base ε de E dans laquelle Matε(u)soit diagonale par blocs le i-ième bloc étant un bloc de Jordan Jsi(λti) avec 1 ≤ i ≤ qpour un entier q ≥ p et 1 ≤ ti ≤ p.

Démonstration. On commence par décomposer E en sous-espaces caractéristiquesE = E1 ⊕ · · · ⊕Ep. Comme les Ei sont stables pour u lorsqu’on recolle des bases detous les Ei en une base de E, la matrice de u relative à cette base est diagonale parbloc, chaque bloc étant la matrice de la restriction ui = u|Ei . Il suffit donc de trouverune décomposition de Jordan de tous les ui c’est-à-dire qu’on se ramène au casSpec(u) = {λ}. Dans ce cas on a χu(X) = (X−λ)n et en particulier l’endomorphisme

Page 83: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

83

v = u − λIE est nilpotent. Par la proposition 7.4.3 l’endomorphisme v admet unedécomposition de Jordan et sa matrice dans une base convenable est diagonale parblocs avec q blocs de Jordan du type Js1(0), · · · , Jsq(0) pour une suite d’entiersdécroissante s1 ≥ s2 ≥ · · · ≥ sq ≥ 1 et

∑si = n. En conséquence dans cette même

base la matrice de u = v + λ IdE est diagonale par blocs les blocs diagonaux étantJs1(λ), · · · , Jsq(λ). �

Remarques : Une matrice diagonale est déjà sous forme de Jordan. Réciproque-ment le polynôme minimal de Js(λ) est (X − λ)s. En particulier un endomorphismeu tel que χu soit scindé est diagonalisable si et seulement si sa réduction de Jordann’admet que des blocs de taille 1 c’est-à-dire est déjà diagonale. En fait les blocs deJordan (à permutation près) fournissent une système complet d’invariant des classesde similitudes des matrices.

Proposition 7.4.5 Soit A et B des matrices de Mn(k) telle que χA et χB soientscindés sur k. Alors A et B sont semblables si et seulement si elles ont même dé-composition de Jordan (à permutation des blocs près).

il y a un sens évident : si deux matrices ont même décomposition de Jordan, ellessont semblables. Réciproquement si A et B sont semblable soit u l’endomorphismede kn représenté par A et B dans des bases distinctes. Alors la dimension des espacescaractéristiques de u détermine la somme des tailles des blocs de Jordan associé àchaque valeur propre de A, et cette taille est la même pour B. Ainsi on peut supposerque A et B sont semblables et ont une seule valeur propre (alors commune) et égaleà λ. Mais dans ce cas A− λIn et B − λIn sont semblables et nilpotentes : elles ontmême réduction de Jordan. �

Remarque : Dans la construction de la proposition 7.4.3 les blocs de Jordanarrivent naturellement ordonné par taille décroissante (le nombre de cases par lignedécroît dans un tableau de Young). Dans tout ce qui précède les parenthèses (àpermutation des blocs près) pourraient être supprimée si on se fixe un ordre surle spectre commun aux matrices semblables. En conclusion la suite des tailles desblocs de Jordan donne un système complet d’invariant des classes de similitudes desmatrices à coefficient dans un corps k qui scinde tous les polynômes caractéristiquesc’est-à-dire algébriquement clos et la matrice réduite de Jordan (convenablementordonnée) donne un représentant canonique de chaque classe de similitude. C’est cemême problème que la réduction de Frobenius résout mais sur un corps quelconque.

7.5 Réduction de Frobenius.

Définition 7.5.1 Soit P = Xn+an−1Xn−1 + · · ·+a0 un polynôme de k[X]. On note

C(P ) et on appelle matrice compagnon de P (X) la matrice C(P ) = [ci,j] ∈ Mn(k)avec ci,j = δi+1,j pour j < n et ci,n = −ai−1.

Page 84: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

84

Autrement dit on a

C(P ) =

0 0 · · · −a0

1 0 −a1

0 1. . . .... . . 0 −an−2

0 · · · 0 1 −an−1

.

L’espace vectoriel E = k[X]/(P ) peut être muni de sa base "canonique"

1, X, · · · , Xn−1.

Alors l’application X : Q(X) 7→ XQ(X) est un endomorphisme de E et puisquemodulo P on a XXn−1 ≡ Xn ≡ −

∑n−1i=0 aiX

i la matrice de cette application dansla base canonique est C(P ). C’est pour cette raison que la matrice C(P ) est associéeà P . D’un point de vue plus élémentaire, on a aussi le lemme :

Lemme 7.5.2 P est le polynôme minimal de C(P ) et donc aussi son polynômecaractéristique.

Démonstration. On note ε1, · · · , εn la base canonique de E = kn et u = uP l’endo-morphisme de E représenté par C(P ). alors pour i ≤ n − 1 on a u(εi) = εi+1 etdonc le système ε1, u(ε1), · · · , u(εn−1) est libre (c’est même la base canonique de E).Le degré de µC(P ) est donc n et on a déjà µC(P ) = χC(P ). Il reste donc à voir queP (u) = 0. Sur la matrice C(P ) on constate immédiatement :

1. Pour i ≤ n− 1 on a ui(ε1) = εi+1

2. un(ε1) = u(un−1(ε1)) = u(εn) = −∑n−1

i=0 aiεi+1

Il suit donc P (u)(ε1) = 0, puis pour tout i avec 2 ≤ i ≤ n comme u commute àP (u) on en tire P (u)(εi) = P (u)(ui−1(ε1)) = ui−1P (u)(ε1) = 0. �Pour des raisons évidentes en termes de k[u]-module on dit que E est cycliquelorsqu’il existe e ∈ E tel que e, u(e), · · · , un−1(e) engendre E sur k (cela revient àdire que e engendre E sur k[u]). L’exemple canonique (i.e. à isomorphisme près leseul) d’espace cyclique est k[X]/(P (X)) muni de l’endomorphisme X. Le théorèmequi suit est une conséquence immédiate de la classification des modules de torsionsur les anneaux euclidiens, mais on va le démontrer autrement.

Théorème 7.5.3 (Frobenius) Soit M une matrice de Mn(k). Alors il existe uneunique suite de polynômes unitaires P1 | P2 | · · ·Pt telle que M soit semblable à unematrice diagonale par blocs chaque bloc étant C(Pi). Deux matrices sont semblablessi et seulement les suites de polynômes qui leurs sont associées coïncident. Pour cetteraison on appelle P1, · · · , Pk les invariants de similitude de M .

Automatiquement on a alors µM = Pt et χM =∏

i Pi, et ce théorème contientCayley-Hamilton. En cours j’indiquerai oralement comment ce théorème se déduitde la classification et comment l’algorithme de Smith appliqué à la matrice caracté-ristique XIn −M donne une méthode de calcul complète et efficace de la suite desPi(X). À mon goût ceci est le seul bon point de vue. Cependant, si les étudiants

Page 85: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

85

ne maîtrisent pas assez bien la théorie des modules sur les anneaux principaux oueuclidiens ils doivent disposer d’une approche plus élémentaire. C’est cette approchepénible et fastidieuse que j’ai extrait (et compilé) des livres de Fresnel et Goblot etque je vais suivre jusqu’à la fin de ce polycopié.

La démonstration du théorème 7.5.3 occupe la suite et la fin de cette section etse subdivise en existence et unicité.

7.5.1 Partie existence du théorème 7.5.3.

L’existence dans 7.5.3 se déduit de la proposition (voir théorème V.5 p.112 duGoblot) :

Proposition 7.5.4 Il existe une unique suite de polynômes unitaires (les dernierséventuellement égaux à 1) D1, · · · , Dn avec Dn | Dn−1 | · · · | D1 tels que E sedécompose en somme directe de sous-espaces stables cycliques E = E1 ⊕ · · · ⊕ Enavec si l’on note ui la restriction de u à Ei l’égalité µui = Di.

Soit u l’endomorphisme de kn représenté dans la base canonique par M . On com-mence par un lemme :

Lemme 7.5.5 Il existe un sous-espace F stable pour u, cyclique pour la restrictionu′ = u|F et tel que µu = µu′

Démonstration. C’est le lemme 3.1.8 p.119 de l’"algèbre des matrice" de Fresnel, maisje préfère la preuve p.105 du Goblot. On suppose pour commencer que µu = Pm

est puissance d’un seul irréductible. Il existe donc x ∈ E avec Pm−1(x) 6= 0. Alorsle sous-espace u-stable engendré par x (l’espace vectoriel engendré par les ui(x))convient. Lorsque µu(X) =

∏ti=1 P

eii (X) pour des Pi irréductibles deux à deux

distincts on utilise le lemme des noyaux pour décomposer E = E1 ⊕ · · · ⊕ Et avecEi = Ker(Pi(u)) et aussi µu|Ei = Pmi

i , et on prend dans chaque Ei un xi tel quePmi−1i (u)(xi) 6= 0. Alors le sous-espace stable engendré par

∑i xi convient. �

Pour démontrer la proposition 7.5.4 on procède par récurrence sur n = dimE.On prend E1 = F où F est le sous-espace stable fournit par le lemme 7.5.5 et on notee1 ∈ E1 un vecteur tel que les ui(e1) engendrent E1. Si F admet un supplémentairestable W alors on aura µu|W | µu = D1 et on peut conclure par récurrence puisquedimW < n. En outre on sait, parce que le théorème 7.5.3 est démontrée par laclassification des modules qu’un tel supplémentaire stable existe. Tout le problèmedans cette approche élémentaire et de décrire à la main un tel supplémentaire stableW !

On considère l’endomorphisme u′ induit par u sur E ′ = E/F et µu′ | µu = D1.Par récurrence on peut décomposer E ′ = E ′2⊕ · · ·⊕E ′n avec des E ′i cycliques et sur-lesquels l’endomorphisme u′i induit par u′ admet pour polynôme minimal D′i avecD′n | · · · | D′2 = µu′ | D1. Soient ei des générateurs des espaces cycliques E ′i et soientxi ∈ E des relevés des ei. La relation D′i(u)(ei) = 0 donne D′i(u)(xi) ∈ k[u](e1) etl’existence de Si(X) tel queD′i(u)(xi) = Si(u)(e1). PuisqueD′i | µu on a un polynômeNi tel que µu = NiD

′i et il suit 0 = µu(u)(xi) = NiD

′i(u)(xi) = Ni(u) ◦ Si(u)(e1)

et puisque µu = D1 est le polynôme minimal de la restriction de u au sous-espacestable engendré par e1 on en tire µu = NiD

′i | NiSi, soit D′i | Si. On pose Ui pour le

Page 86: 1 Cours,master2ièmeannée,1ersemestre.jrbelliard.perso.math.cnrs.fr/alggendef.pdf · 2012-09-11 · l’égalité g0(c) = g(c) pour tout c2C. On fixe cet on choisit a2ˇ 1(c) ˆA.

86

polynôme Ui = Si/D′i et ei = xi − Ui(u)(e1). Notons µei pour le polynôme minimal

de l’endomorphisme induit par u sur le sous-espace stable engendré par ei. DansE/F le vecteur ei s’envoie sur ei et donc D′i | µei . Réciproquement on vérifie sur ladéfinition de ei que D′i(u)(ei) = 0, d’où l’égalité µei = D′i. On note Ei le sous-espacestable engendré par ei. Par construction la restriction de la projection canoniqueE −→ E/F est surjective depuis E2 + · · ·+En −→ E ′2⊕· · ·⊕E ′n, et comme dim(Ei)est majorée par le degré de µei = D′i cette surjection est forcément un isomorphisme.On conclut en prenant E1 = F . �

7.5.2 Partie unicité du théorème 7.5.3.

On part de la décomposition E = E1 ⊕ · · · ⊕ En en sous-espaces Ei qui soientu-stables cyclique donnée par la proposition 7.5.4. On note ui les endomorphismesde Ei induits par i et Di la suite de polynômes avec Dn | · · · | D2 | D1 = µu. Ils’agit de vérifier que cette suite D1, · · · , Dn est intrinsèque à la paire (E, u) et nedépend pas du choix de la décomposition E = E1 ⊕ · · · ⊕ En. On a déja D1 = µu.On écrit une factorisation µu =

∏ti=1 P

mii avec des Pi irréductibles deux à deux

distincts. On procède par récurrence sur le nombre∑

imi de facteurs irréductiblesde µu (avec multiplicité). Si µu = P1 est irréductible alors tous les Di valent soit 1soit µu et il existe p tel que Di = µu pour i ≤ p et Di = 1 pour i > p. Mais alorson a dim(Ei) = deg(µu) pour i ≤ p et Ei = 0 pour i > p, et donc p = n/ deg(µu) nedépend que de E et u. Cela initialise la récurrence.

On montre l’hérédité. Soit P un facteur irréductible de µu et soit E ′ = ImP (u)et u′ l’endomorphisme de E ′ induit par u. Une seconde de réflexion montre queµu′ = µu/P . Pour tout i l’espace E ′i = P (u)(Ei) est cyclique avec un polynômeminimal noté D′i. On obtient la décomposition E ′ = E ′1 ⊕ · · ·E ′n. Soit p l’indice telque P | Dp et P - Dp+1. Par Bezout pour i ≥ p + 1 l’endomorphisme P (u) estinversible sur Ei et on a alors E ′i = Ei avec polynôme minimal Di. Tandis que pouri ≤ p alors P | Di et les espaces Ei/E ′i et E ′i sont cycliques de polynômes minimauxP et Di/P . Ainsi la suite de polynômes D′i satisfait les conditions de divisibilité pourl’espace E ′. Par récurrence cette suite est intrinsèque au couple (E ′, u′) qui lui nedépend que de (E, u) et P , mais pas des Ei. En ce qui concerne les Di eux-mêmeson a Di = PD′i pour i ≤ p et Di = D′i pour i > p : il reste seulement à vérifier quel’entier p lui-même est intrinsèque. Mais on a

n = dimE =∑i

deg(Di) =∑i≤p

(deg(D′i) + deg(P )) +∑i>p

deg(D′i)

= p deg(P ) + dimE ′.