Polynôme d

144
Polynôme d'endomorphisme Un article de Wikipédia, l'encyclopédie libre. Aller à : Navigation , rechercher En algèbre linéaire , on utilise fréquemment la notion de polynôme d'endomorphisme (ou de matrice ), qui est une combinaison linéaire de puissances (au sens de la composition de fonctions ) de l'endomorphisme. Pour un endomorphisme u d'un espace vectoriel E sur elle donne à E une structure de -module . L'application la plus intéressante réside dans la recherche des polynômes annulateurs de l'endomorphisme : les relations caractéristiques des projecteurs (p 2 = p), des symétries (s 2 = Id) constituent les exemples les plus simples de polynômes annulateurs. De plus la recherche de polynômes annulateurs permet de déterminer les valeurs propres d'une matrice sans en calculer le polynôme caractéristique , voire de prouver très simplement la diagonalisation. Sommaire [masquer ] 1 Intérêt du concept 2 Définition et premières propriétés 3 Idéaux annulateurs 4 Polynôme minimal o 4.1 Décomposition en somme directe de sous-espaces stables o 4.2 Cas où le polynôme minimal est scindé o 4.3 Diagonalisabilité o 4.4 Théorème de Cayley-Hamilton 5 Voir aussi Intérêt du concept [modifier ]

Transcript of Polynôme d

Page 1: Polynôme d

Polynôme d'endomorphismeUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En algèbre linéaire, on utilise fréquemment la notion de polynôme d'endomorphisme (ou de matrice), qui est une combinaison linéaire de puissances (au sens de la composition de fonctions) de l'endomorphisme.

Pour un endomorphisme u d'un espace vectoriel E sur elle donne à E une structure de -module.

L'application la plus intéressante réside dans la recherche des polynômes annulateurs de l'endomorphisme : les relations caractéristiques des projecteurs (p2 = p), des symétries (s2 = Id) constituent les exemples les plus simples de polynômes annulateurs.

De plus la recherche de polynômes annulateurs permet de déterminer les valeurs propres d'une matrice sans en calculer le polynôme caractéristique, voire de prouver très simplement la diagonalisation.

Sommaire

[masquer] 1 Intérêt du concept 2 Définition et premières propriétés 3 Idéaux annulateurs 4 Polynôme minimal

o 4.1 Décomposition en somme directe de sous-espaces stables o 4.2 Cas où le polynôme minimal est scindé o 4.3 Diagonalisabilité o 4.4 Théorème de Cayley-Hamilton

5 Voir aussi

Intérêt du concept [modifier]

Si u est l'endomorphisme que nous étudions, on peut l'appliquer deux fois à un vecteur, on note alors u2 l'application associée. En fait, on peut l'appliquer autant de fois qu'on le souhaite. Ceci nous permet d'élever un endomorphisme à une puissance entière. On peut aussi additionner plusieurs endomorphismes et les multiplier par un nombre. En conséquence il est possible d'appliquer un polynôme à un endomorphisme.

Ce concept est archétypal d'une démarche souvent féconde en mathématiques. Elle consiste à établir un pont entre deux théories. Dans cet article le pont est établi entre les polynômes et les applications linéaires. Il est bâti sous la forme d'un morphisme d'algèbre entre les polynômes et les endomorphismes. Il permet alors d'exporter les propriétés de commutativité, des idéaux principaux, d'appliquer l'identité de Bézout ou une interpolation lagrangienne. Par delà l'aspect

Page 2: Polynôme d

élégant d'une telle démarche, l'essentiel des théorèmes strictement associés aux applications linéaires se démontre sans trop de dédales calculatoires.

Dans la pratique, cette démarche permet de démontrer l'existence du polynôme minimal et de déterminer la structure des polynômes annulateurs. Elle propose une approche permettant de comprendre l'origine de la notion de vecteur propre généralisé ainsi que de sous-espace caractéristique. Dans le cas où le corps est algébriquement clos, elle permet même de fournir une réduction simple de l'endomorphisme, dite réduction de Jordan. Elle permet alors de comprendre pourquoi le polynôme caractéristique est un multiple du polynôme minimal, et fournit donc une démonstration du théorème de Cayley-Hamilton. Elle est enfin la base d'une famille d'algorithmes souvent largement plus rapides qu'une approche par les déterminants.

Définition et premières propriétés [modifier]

Soit E un -espace vectoriel. Nous utilisons la notation usuelle L(E) pour désigner l'ensemble des

endomorphismes et K[X] désigne ici l'anneau des polynômes formels. Soit un

endomorphisme et un polynôme.

On définit par P[u] = a0IdE + a1u + a2u2 + ... + apup. C'est la définition naturelle d'un polynôme d'endomorphisme.

Si on note u0 = Id on peut écrire, pour , .

L'anneau des polynômes peut être considéré comme un espace vectoriel sur . Avec ses trois opérations : addition, produit scalaire et multiplication, il forme une structure que l'on appelle une algèbre. Il en est de même pour les endomorphismes munis de la composition comme multiplication. À la différence des endomorphismes, les polynômes forment une algèbre commutative. Il n'est pas surprenant que l'application naturelle de l'espace des polynômes dans l'ensemble des endomorphismes soit un morphisme d'algèbre. Un morphisme d'algèbre est une application respectant les trois opérations de l'algèbre, l'addition, le produit scalaire et la multiplication.

L'application ψu, qui à P associe P[u] est un morphisme de -algèbres de dans L(E). L'image de ψu est une sous-algèbre abélienne de L(E).

Cela signifie que deux polynômes du même endomorphisme commutent entre eux. Cette propriété provient du fait que la commutativité est toujours transportée par un morphisme.

Si x est un vecteur propre de valeur propre λ, alors il est aussi vecteur propre de l'endomorphisme P[u] avec la valeur propre P(λ). En particulier si P[u] = 0 alors les valeurs propres sont parmi les racines de P. Cependant la réciproque n'est pas vraie, toutes les racines de P ne sont pas forcément valeurs propres de u.

[Dérouler] Démonstration

Idéaux annulateurs [modifier]

Page 3: Polynôme d

Le reste de l'article ne considère que le cas où l'espace vectoriel est de dimension finie n.

Un morphisme entre deux structures est un outil puissant. Les propriétés de l'une des structures se trouvent transportées par le morphisme dans son image. Le paragraphe précédent utilise cette propriété pour démontrer le caractère commutatif de l'espace des polynômes d'un endomorphisme particulier. Le noyau d'un morphisme d'algèbre est une sous-algèbre. Cette propriété est un des éléments permettant d'établir la définition et les propositions suivantes :

L'ensemble des polynômes qui annulent un endomorphisme est un idéal principal non réduit à 0; on l'appelle Idéal annulateur. On appelle polynôme annulateur un élément de l'idéal annulateur. Il existe un unique polynôme unitaire qui l'engendre; il est appelé polynôme minimal.

Un idéal est un sous-groupe additif stable par multiplication par tout élément de l'anneau.

Soit x un vecteur de E et u un endomorphisme, alors l'ensemble des polynômes de u qui annulent x est un idéal principal contenant l'idéal annulateur. On l'appelle idéal annulateur de x. Il existe un unique polynôme unitaire qui l'engendre; il est appelé polynôme minimal de x.

Il est possible de remarquer que l'idéal annulateur, qui annule tout vecteur, annule aussi x. L'idéal annulateur de x contient donc l'idéal annulateur de u. L'intérêt du concept d'idéal annulateur réside dans le fait qu'il permet de trouver des sous-espaces stables de u. Sur ces sous-espaces stables, l'endomorphisme peut s'exprimer plus simplement. Cette démarche consistant à décomposer l'espace E en sous-espaces stables et en somme directe procède de la démarche dit de réduction d'endomorphisme.

1. Le noyau d'un polynôme d'endomorphisme de u est un sous-espace vectoriel stable par u.2. Soit (Pi[X]) une famille finie de polynômes premiers entre eux deux à deux. Alors la

famille des (kerPi[u]) est une somme directe de sous-espaces stables par u qui engendre

l'espace . De plus, les projecteurs associés s'expriment comme des polynômes en u.

La dernière propriété est essentielle pour la réduction d'endomorphisme. Elle intervient dans la suite de l'article, pour l'analyse du polynôme minimal et pour l'analyse du cas où il est scindé. Elle intervient enfin dans la décomposition de Dunford.

[Dérouler] Démonstration

Polynôme minimal [modifier]

Article détaillé : Polynôme minimal d'un endomorphisme.

Le polynôme minimal cache une décomposition en somme directe de sous-espaces stables. Cette décomposition est au cœur de la compréhension de la structure d'un endomorphisme. Elle correspond à la décomposition du polynôme en facteurs premiers entre eux. Elle permet d'établir des théorèmes parmi les plus importants de l'algèbre linéaire pure. Elle nous renseigne sur l'existence d'un vecteur dont le polynôme minimal est le polynôme minimal de l'endomorphisme, elle donne un majorant du degré de ce polynôme, elle permet de trouver des réductions puissantes dans le cas ou le polynôme est scindé, elle donne une condition nécessaire et suffisante de diagonalisation. Enfin elle permet de démontrer le théorème de Cayley-Hamilton.

Page 4: Polynôme d

Décomposition en somme directe de sous-espaces stables [modifier]

1. Soit (χi) une décomposition en facteurs tous de degré supérieur à 1 et premiers deux à deux du polynôme minimal χ d'un endomorphisme u. Alors la suite des noyaux (kerχi[u]) est une décomposition en somme directe de l'espace E de sous-espaces stables par l'endomorphisme.

2. Il existe un vecteur x de E dont le polynôme annulateur est égal au polynôme annulateur de l'endomorphisme.

3. Le polynôme minimal est de degré inférieur ou égal à n.

[Dérouler] Démonstration

Cas où le polynôme minimal est scindé [modifier]

Article détaillé : Réduction d'endomorphisme.

Dire que le polynôme minimal est scindé signifie qu'il s'exprime comme produit de puissances de polynômes du premier degré. Si l'on note χ le polynôme minimal, cela signifie que:

Si l'on note Ei le noyau de l'endomophisme , alors le paragraphe précédent nous indique que la suite (Ei) forme une somme directe de l'espace E de sous-espaces non réduits à 0 et stables par l'endomorphisme. On appelle ces sous-espaces les sous-espaces caractéristiques. Cette approche permet d'effectuer la première étape dans la réduction des endomorphismes en dimension finie et si le polynôme minimal est scindé. Les deux principales propriétés de cette approche sont les suivantes:

1. L'espace E est somme directe de ses sous-espaces caractéristiques.2. L'endomorphisme u est la somme d'un endomorphisme diagonalisable et d'un

endomorphisme nilpotent. Les deux endomorphismes commuttent entre eux.

Les démonstrations et l'analyse complète se trouvent dans l'article Réduction d'endomorphisme au paragraphe sur la décomposition de Dunford.

Diagonalisabilité [modifier]

Article détaillé : Diagonalisation.

L'utilisation des polynômes fournit un critère spectaculaire de diagonalisabilité. Ce critère est un cas particulier du paragraphe précédent.

Un endomorphisme u est diagonalisable si et seulement son polynôme minimal est scindé sur K et à racines simples.

C'est en effet un cas particulier du cas précédent. Si les racines sont simples alors la composante nilpotente est nulle et le résultat est démontré. Si l'endomorphisme est diagonalisable alors les

Page 5: Polynôme d

espaces propres se confondent avec les espaces caractéristiques et toute valeur propre possède une multiplicité égale à 1.[réf. souhaitée]

Théorème de Cayley-Hamilton [modifier]

Article détaillé : Théorème de Cayley-Hamilton.

Il existe un polynôme important associé à un endomorphisme. C'est celui défini par le déterminant de l'application u − λId. On l'appelle polynôme caractéristique. Il est important car ses racines sont les valeurs propres de l'endomorphisme associé. Cette propriété est partagée par le polynôme minimal. Elle amène donc la question : quel est le rapport entre polynôme caractéristique et polynôme minimal ? La réponse est le théorème de Cayley-Hamilton :

Théorème de Cayley-Hamilton — Le polynôme minimal divise le polynôme caractéristique.

Pour s'en rendre compte, il est plus simple de plonger le corps dans sa clôture algébrique. Dans ce contexte, il est possible d'appliquer une Réduction de Jordan à l'endomorphisme. Sa représentation matricielle est alors triangulaire avec comme valeurs diagonales les valeurs propres. Leurs ordre de multiplicité dans le polynôme caractéristique est la dimension de l'espace caractéristique de valeur propre associée. Cette multiplicité est toujours supérieure à celle du polynôme minimal qui a pour multiplicité l'ordre de l'application nilpotente associée.

Il existe une démonstration qui ne fait pas appel à la construction des polynômes d'endomorphismes, elle est donnée dans l'article Théorème de Cayley-Hamilton.

Polynôme minimal d'un endomorphismeUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

Le polynôme minimal est un outil qui permet d'utiliser des résultats de la théorie des polynômes à l'algèbre linéaire. Il est en effet possible d'appliquer un polynôme à un endomorphisme, comme expliqué dans l'article intérêt du concept de polynôme d'endomorphisme.

Il est défini comme le polynôme normalisé (son coefficient de plus haut degré est égal à 1) de plus petit degré qui annule un endomorphisme c'est-à-dire une application linéaire d'un espace vectoriel dans lui-même.

Il est utilisé essentiellement en dimension finie ; il joue un rôle important dans la réduction d'endomorphisme. Il dispose de propriétés fortes dont la plus célèbre est probablement le théorème de Cayley-Hamilton.

Les démonstrations associées au polynôme minimal se trouvent essentiellement dans l'article Polynôme d'endomorphisme qui approfondit ce concept dans un cadre théorique plus large.

Il existe un cas particulier, utilisé dans le cadre de la théorie de Galois et la théorie algébrique des nombres appelée polynôme minimal d'un nombre algébrique.

Sommaire

Page 6: Polynôme d

[masquer] 1 Définition 2 Intérêt du concept 3 Approche par l'exemple

o 3.1 Existence du polynôme minimal o 3.2 Valeurs propres et racines o 3.3 Polynôme minimal et diagonalisation o 3.4 Polynôme minimal et polynôme caractéristique

4 Propriétés

5 Théorie de Galois

Définition [modifier]

On suppose que E est un espace vectoriel de dimension finie et égale à n. Soit u un endomorphisme de E. Nous avons la définition suivante:

Le polynôme minimal de l'endomorphisme u est le polynôme unitaire de plus petit degré qui annule u.

Intérêt du concept [modifier]

Le polynôme minimal est l'outil théorique central pour la réduction d'endomorphisme dans le cas de la dimension finie. Une réduction est une approche fréquente en algèbre, consistant à réduire un concept en des sous-concepts plus simples et qui décrivent parfaitement le concept initial. Dans le cas des endomorphismes, il en existe deux ayant un rôle particulier, les endomorphismes nilpotents et les endomorphismes diagonalisables ; les polynômes minimaux apparaissent donc pour l'analyse théorique de ces applications linéaires.

La raison du rôle central de cet outil réside dans le fait que la notion de polynôme d'endomorphisme est le cadre théorique pour la démonstration des théorèmes permettant la réduction. Le polynôme minimal y joue un rôle clé. Les démonstrations associées à cet article se trouvent naturellement traitées dans l'article associé.

Par delà son rôle théorique, le polynôme minimal propose une approche appliquée très opérationnelle. Il joue donc un rôle dans l'analyse des matrices en général et plus particulièrement dans le cas de la Réduction de matrice, des Matrices diagonales ou nilpotentes.

Sa dimension appliquée sort des frontières de l'algèbre linéaire pour offrir un outil opérationnel de résolution d'équations différentielles linéaires où il est utilisé dans de cas physiques comme les systèmes oscillants.

Approche par l'exemple [modifier]

Considérons le cas où n est égal à 2, où l'espace vectoriel est réel, ce qui signifie que les multiplications scalaires des vecteurs ont lieu sur les réels. Soit un endomorphisme u ayant la représentation matricielle suivante dans une base (e1, e2):

Page 7: Polynôme d

Calculons alors la représentation matricielle du carré de u, on trouve:

Existence du polynôme minimal [modifier]

On peut alors remarquer qu'il existe une relation de dépendance linéaire entre u2, u et Id l'endomorphisme identité. En effet:

Ce qui nous montre l'existence du polynôme minimal que nous notons

Dans cet exemple, nous avons montré l'existence du polynôme minimal et nous avons montré que son degré est égal à la dimension de l'espace vectoriel. Cette propriété est générale en dimension finie, le polynôme minimal existe toujours et son degré est inférieur ou égal à la dimension de l'espace.

Valeurs propres et racines [modifier]

Un vecteur propre est un vecteur non nul dont l'image par l'endomorphisme lui est proportionnelle. Une des propriétés du polynôme minimal réside dans le fait que ses racines sont les valeurs propres. Recherchons alors des vecteurs propres en utilisant cette propriété. Pour la valeur propre 2, on trouve:

et un vecteur propre est: u1 = e1 − e2

En résolvant ce système nous obtenons x = − y. En posant x = λ , nous obtenons y = − λ, qui est la description paramétrique de tout vecteur propre. En choisissant λ = 1, nous obtenons le vecteur propre (1,-1)

On peut vérifier de même que est un vecteur propre associé à la valeur propre 3. Cette approche permet de calculer les valeurs et vecteurs propres sans calcul de déterminant. Plus la dimension augmente, plus ce mode de calcul devient efficace.

Polynôme minimal et diagonalisation [modifier]

Nous disposons de deux vecteurs propres u1 et u2 qui forment une famille libre dans un espace de dimension 2, ils constituent donc une base. Nous pouvons alors remarquer que dans cette base, l'endomorphisme s'exprime sous la forme:

Page 8: Polynôme d

Une telle matrice possède des termes tous nuls en dehors de la diagonale. Cet exemple illustre une propriété importante du polynôme minimal. L'endomorphisme est diagonalisable si et seulement si le polynôme possède toutes ses racines et qu'aucune de ses racines ne soit multiple.

Polynôme minimal et polynôme caractéristique [modifier]

Le polynôme caractéristique correspond au déterminant de l'application . Il possède une propriété particulière. À l'instar du polynôme minimal, ses racines sont aussi les valeurs propres. Calculons alors le polynôme caractéristique P de notre endomorphisme:

Le polynôme caractéristique est égal dans ce cas au polynôme minimal. Il existe toujours une relation entre les deux, même si l'égalité n'est pas systématique. Dans le cas général, le polynôme minimal divise le polynôme caractéristique.

Propriétés [modifier]

En dimension finie, le polynôme minimal existe toujours et il est de degré inférieur ou égal à la dimension de l'espace.

Les polynômes qui annulent l'endomorphisme et que l'on appelle polynômes annulateurs de u forment un idéal principal dans l'anneau des polynômes.

La notion de polynôme minimal d'un endomorphisme peut être restreinte à un vecteur. Le polynôme minimal d'un vecteur x est le polynôme normalisé de plus petit degré qui, appliqué à u, annule x.

Si x est un vecteur, alors le polynôme minimal de x divise le polynôme minimal. Il existe au moins un vecteur tel que les deux polynômes soient égaux.

Les racines du polynôme minimal forment l'ensemble des valeurs propres. Un endomorphisme est diagonalisable si et seulement si son polynôme minimal

est scindé (c'est-à-dire qu'il possède toutes ses racines) sans racine multiple. Le Théorème de Cayley-Hamilton nous indique que le polynôme minimal divise

le polynôme caractéristique.

Toutes ces propriétés sont démontrées dans l'article Polynôme d'endomorphisme qui développe la théorie mathématique associée à ce concept et présente d'autres propositions plus avancées.

Théorie de Galois [modifier]

Article détaillé : polynôme minimal d'un nombre algébrique.

En théorie de Galois, étant donnés une extension de corps et un élément α de qui est algébrique sur , le polynôme minimal de α est le polynôme normalisé p, à coefficients dans ,

Page 9: Polynôme d

de degré minimum tel que p(α)=0. Le polynôme minimal est irréductible, et tout autre polynôme non nul q tel que q(α)=0, est multiple de p.

C'est en fait le polynôme minimal de l'endomorphisme de défini par u(x) = αx où est considéré comme un -espace vectoriel.

En algèbre linéaire, un endomorphisme laisse stable un sous espace vectoriel F quand les éléments de F ont pour image un élément de F.

La recherche de sous-espaces stables est étroitement liée à la théorie de la réduction des endomorphismes.

Sommaire

[masquer] 1 Définitions

o 1.1 Représentation matricielle o 1.2 Exemples o 1.3 Extension de la notion o 1.4 Stabilité et trigonalisation o 1.5 Sous -espace caractéristiques o 1.6 Sous-espaces cycliques o 1.7 Sous-espaces stables et dualité o 1.8 Commutation et stabilité

2 Voir aussi

Définitions [modifier]

Soient E espace vectoriel et u endomorphisme de E.

Un sous-espace vectoriel F de E est dit stable par u quand , c'est à dire :

. Dans ce cas u induit sur F un endomorphisme

L'endomorphisme induit est la double restriction de l'endomorphisme initial avec à la fois un nouvel ensemble de départ et un nouvel ensemble d'arrivée. La condition de stabilité est une condition nécessaire et suffisante pour que cette double restriction soit une application.

Représentation matricielle [modifier]

Si E est de dimension finie et muni d'une base adaptée à F (c'est-à-dire une base de F complétée en une base de E), la matrice représentative de u peut être notée par blocs

Page 10: Polynôme d

Alors F est un espace stable par u si et seulement si C = 0, et dans ce cas la matrice de l'endomorphisme induit sur F est A.

Exemples [modifier]

Soit E un espace vectoriel et u un endomorphisme de E. Les deux sous-espaces triviaux {0} et E sont stables par u.

Un endomorphisme pour lequel les seuls sous-espaces stable sont les deux sous-espaces triviaux est qualifié d'endomorphisme irréductible. Tout endomorphisme d'une droite vectorielle est irréductible. Toute rotation d'un plan euclidien dont l'angle n'est pas un multiple de π est irréductible. En dimension finie, un endomorphisme est irréductible si et seulement si il est cyclique et son polynôme minimal est irréductible.

Soit E un espace vectoriel et u un endomorphisme de E. Soit une famille de sous-

espaces stables par u. alors et sont stables par u Une droite est stable par un endomorphisme u si et seulement si elle est engendrée par un

vecteur propre de u. En conséquence, toute sous-espace engendré par des vecteurs propres de u est stable par u. Si E est diagonalisable, on obtient ainsi tous les sous-espaces stables par u.

Extension de la notion [modifier]

Pour E un espace vectoriel, F un sous-espace vectoriel de E et X un ensemble d'endomorphismes de E, on dit que F est stable par X si F est stable par tout élément de X.

Stabilité et trigonalisation [modifier]

On suppose encore E de dimension finie n. Un endomorphisme est dit trigonalisable quand il possède une matrice représentative triangulaire supérieure.

Cela revient à chercher des espaces , de dimensions respectives 1,2,..., n, tous stables par u. On parle alors de drapeau stable par u.

Sous -espace caractéristiques [modifier]

Soit E un K-espace vectoriel, u un endomorphisme de E et P un polynôme à coefficients dans K. Les sous-espaces KerP(u) et ImP(u) sont stables par u. Pour que cette construction soit intéressante, il est nécessaire que l'endomorphisme P(u) soit à la fois non nul et non inversible. C'est ce qui arrive en dimension finie lorsque le polynôme P est un diviseur strict du polynôme minimal de u.

Soit λ une valeur propre de u, c'est à dire, en dimension finie, une racine du polynôme πu. Notons γ la multiplicité de λ dans le polynôme πu. On peut définir deux espaces stables intéressant :

s'appelle espace propre associé à la valeur propre λ

Page 11: Polynôme d

s'appelle sous-espace caractéristique associé à la valeur propre λ, il contient l'espace propre ci-dessus. L'espace caractéristique associée à la valeur propre \lambda est égal à l'espace propre associé à la même valeur propre ssi la multiplicité de cette valeur propre dans le polynôme minimal πu vaut 1.

Lorsque le polynôme πu est scindé, le théorème de décomposition des noyaux permet d'affirmer que les sous-espaces caractéristiques sont supplémentaire. Dans ce cas u est diagonalisable ssi chaque espace caractéristique est égal à l'espace propre correspondant.

Sous-espaces cycliques [modifier]

Soit E un K-espace vectoriel et u un endomorphisme de E. Soit x un vecteur de E. L'ensemble

est stable par u. On l'appelle sous-espace cyclique engendré par x.

On dit que E est un endomorphisme cyclique ssi il existe un vecteur x de E tel que le sous-espace cyclique engendré par x est égal à E.

Si E est de dimension n et u est un endomorphisme cyclique de E, alors

est une base de E et la matrice de u dans cette base est une matrice compagnon.

En dimension finie, un endomorphisme diagonalisable est cyclique ssi les valeurs propres de cet endomorphisme sont simples (sont des racines simples du polynôme caractéristique.) Plus généralement, un endomorphisme est cyclique ssi son polynôme minimal et son polynôme caractéristique sont égaux (au signe près).

Sous-espaces stables et dualité [modifier]

Soit E un espace vectoriel et u un endomorphisme de E. Si F est stable par u, l'orthogonal de F est stable par tu.

Soit E un espace préhilbertien et u un endomorphisme de E. On suppose que u admet un adjoint u * (c'est toujours le cas en dimension finie). Alors un sous-espace est stable par u ssi son orthogonal est stable par u^*.

En particulier, dans un cadre euclidien ou hermitien, un hyperplan H est stable par l'endomorphisme u si et seulement si un vecteur normal à H est propre pour l'adjoint u*.

Commutation et stabilité [modifier]

Si deux endomorphismes u et v commutent, tout espace propre pour l'un est stable par l'autre. .

Polynôme caractéristiqueUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

Page 12: Polynôme d

En algèbre linéaire, à toute matrice carrée ou à tout endomorphisme d'un espace vectoriel de dimension finie est associé un polynôme appelé polynôme caractéristique. Il renferme d'importantes informations sur la matrice ou sur l'endomorphisme, comme ses valeurs propres, son déterminant et sa trace.

Sommaire

[masquer] 1 Motivation 2 Définition formelle [1] 3 Coefficients 4 Exemple 5 Propriétés 6 Matrice compagnon 7 Matrice triangulaire 8 Notes et références

9 Voir aussi

Motivation [modifier]

Étant donné une matrice carrée M d'ordre n, nous voulons trouver un polynôme dont les racines sont précisément les valeurs propres de M.

Si M est une matrice diagonale ou plus généralement une matrice triangulaire, alors les valeurs propres de M, λ1, ..., λn sont les coefficients diagonaux de M et nous pouvons définir le polynôme caractéristique comme étant

Nous remarquons que ce polynôme est le déterminant det(XIn − M) où In est la matrice unité.

Pour une matrice quelconque M, nous pouvons voir que si λ est une valeur propre de M, alors il existe une colonne propre V non nulle tel que MV = λV, soit (λIn-M)V = 0 (où In est la matrice unité.) Puisque V est non nulle, cela implique que la matrice λIn-M est singulière, et donc a son déterminant nul. Nous venons de démontrer que les valeurs propres de M sont des zéros de la fonction λ ↦ det(λ·In − M) ou des racines du polynôme det(XIn − M).

Définition formelle[1] [modifier]

Soit M une matrice carrée d'ordre n à coefficients dans un anneau commutatif. Le polynôme caractéristique de M, noté pM(X), est le polynôme défini par

où In désigne la matrice identité d'ordre n. pM est bien un polynôme puisque le déterminant d'une matrice est défini comme une somme de produits.

Remarque

Page 13: Polynôme d

Au lieu de l'expression (2), certains auteurs définissent le polynôme caractéristique comme étant det(M − XIn). Ceci induit un changement de signe lorsque l'ordre n est

impair, puisque l'on a : . Nous avons retenu la définition (2), qui présente l'avantage de rendre le polynôme caractéristique unitaire. De cette façon, lorsque le polynôme caractéristique se laisse effectivement décomposer en facteurs du premier degré, ses expressions (1) et (2) coïncident.

Coefficients [modifier]

Le polynôme pM(X) d'une matrice carrée M d'ordre n est unitaire (son coefficient dominant est égal à 1) et de degré n. Son développement est donné par

où fi(M) est une fonction polynomiale[2] en les coefficients de la matrice M. Deux matrices semblables ont même polynôme caractéristique. Autrement dit, pour toute matrice inversible P, fi(PMP − 1) = fi(M). Un développement explicite du déterminant de X-M donne[3] :

.

En particulier, le coefficient constant pM(0) est égal à (-1)n fois le déterminant de M, et le coefficient de Xn-1 est égal à l'opposé de la trace de M.

Pour une matrice M d'ordre 2, le polynôme caractéristique s'exprime simplement comme

La propriété la plus importante des polynômes caractéristiques est que les valeurs propres de M sont exactement les racines du polynôme pM(X) (une implication a été démontrée dans le

paragraphe Motivation.) En notant les racines de P prises avec multiplicité,

où si désigne le i-ième polynome symétrique élémentaire. (Ici, les racines sont prises dans une

extension finie de K lorsque K n'est pas clos.) Tout fonction polynomiale en les coefficients de la matrice M et invariante par similitude est une fonction polynômiale en les coefficients du polynôme caractéristique. Cette propriété est par exemple utilisée dans la définition et la classification des classes caractéristiques en géométrie différentielle, ce qui dépasse de loin le niveau de cet article.

Lorsque le corps de base K est de caractéristique nulle (par exemple, K=R ou C), les coefficients fi (M) s'expriment comme des fonctions polynômiales en

.

Page 14: Polynôme d

Cette égalité est une conséquence d'un résultat de réduction, et dont la démonstration s'appuie sur le lemme des noyaux.

Exemple [modifier]

Supposons que nous voulions déterminer le polynôme caractéristique de la matrice

Nous devons calculer le déterminant de la matrice

et celui-ci est égal à

Ce dernier polynôme est le polynôme caractéristique de M.

On peut aussi utiliser la formule

pour le cas d'une matrice de dimension (2,2).

Propriétés [modifier]

Le polynôme pM(t) est unitaire (son coefficient dominant est égal à 1) et son degré est égal à n.

Pour une matrice A d'ordre 3, le polynôme caractéristique s'exprime simplement comme

,

avec ai,j l'élèment en position (i, j) dans la matrice A.

Page 15: Polynôme d

Le théorème de Cayley-Hamilton affirme qu'en remplaçant X par M dans pM(X), on obtient la matrice nulle: pM(M) = 0. Ce qui signifie que le polynôme caractéristique est un polynôme annulateur de M. Par conséquent, il est possible de démontrer que le polynôme minimal divise le polynôme caractéristique de M.

Deux matrices semblables ont le même polynôme caractéristique. La réciproque n'est pas vraie en général : deux matrices ayant même polynôme caractéristique ne sont pas nécessairement semblables.

La matrice M et sa transposée ont le même polynôme caractéristique.

Une matrice M est semblable à une matrice triangulaire si et seulement si son polynôme caractéristique peut être complètement décomposé en produit de facteurs de degré un à coefficients dans .

En fait, M est même semblable à une matrice de Jordan dans ce cas.

1. Propriété de commutation : pAB = pBA

Cas d'un corps quelconque (avec astuce en utilisant les matrices par blocs) :

Il suffit de prendre le déterminant des deux membres de cette équation pour arriver au résultat.

Cas des corps ou :

Le fait de remarquer que l'ensemble des matrices inversibles est dense dans : permet de conclure.

Matrice compagnon [modifier]

Soit un polynôme à coefficients dans . La matrice d'ordre n

Page 16: Polynôme d

qui admet p(X) comme polynôme caractéristique (et polynôme minimal), est appelée matrice compagnon du polynôme (ou selon certains ouvrages, sa transposée). Une des méthodes utilisées en calcul numérique pour calculer des valeurs approchées des racines d'un polynôme est d'en construire la matrice compagnon puis de calculer des valeurs approchées des valeurs propres de cette matrice à l'aide d'une méthode itérative.

Matrice triangulaire [modifier]

Dans le cas d'une matrice triangulaire (supérieure) d'ordre n, matrice de la forme :

le déterminant pT(X) = det(XIn − T) qui exprime le polynôme caractéristique se factorise :

Le même raisonnement s'applique bien sûr au cas d'une matrice triangulaire inférieure. D'une façon générale, les valeurs propres d'une matrice triangulaire coïncident donc effectivement avec ses éléments diagonaux, comme annoncé au début.

Lemme des noyauxUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En algèbre linéaire, le lemme des noyaux est un résultat sur la réduction des endomorphismes. Dans un espace vectoriel E sur un corps K, si un opérateur u de E est annulé par un polnôme P(X) à coefficients dans K, alors ce lemme prévoit une décomposition de E comme somme directe de sous-espaces vectoriels stables par u. Ces derniers se définissent comme noyaux de polynômes en u, les projecteurs associés étant eux-mêmes des polynômes en u.

Page 17: Polynôme d

La démonstration traduit l'identité de Bezout portant sur les polynômes à des sous-espaces vectoriels. Résultat fondamental, le lemme des noyaux conduit à la décomposition de Dunford puis à la décomposition de Jordan. Plus modestement, le lemme des noyaux montre qu'un opérateur u est diagonalisable s'il est annulé par un polynôme à racines simples.

Sommaire

[masquer] 1 Enoncé

o 1.1 Démonstration 1.1.1 Initialisation 1.1.2 Hérédité

2 Applications

Enoncé [modifier]

Lemme des noyaux — Soit E un espace vectoriel sur un corps K et soit f un endomorphisme de

E. Si (avec ) sont premiers entre eux deux à deux, alors les sous-espaces vectoriels Vi = ker(Pi(f)) (où ) sont en somme directe et

De plus, la projection sur Vi parallèlement à est Qi(u) pour un polynôme Qi.

Démonstration [modifier]

Par récurrence sur n. On pose

Initialisation [modifier]

On suppose n = 2. On a alors P = P1P2. D'après le théorème de Bézout, il existe

tel que U1P1 + U2P2 = 1. On en déduit que (U1P1 + U2P2)(f) = idE (idE désignant l'application identité de E).

Soit . On a

, donc

.

Soit . On a alors x = [(U1P1)(f)](x) + [(U2P2)(f)](x). Or

Page 18: Polynôme d

ce qui montre que . De même, on montre que

.

On en déduit donc que

Hérédité [modifier]

Supposons le lemme des noyaux démontré pour un . On a

. On pose et Q2 = Pn + 1. On a donc P = Q1Q2. Les polynômes Q1 et Q2 sont premiers entre eux, donc d'après l'étude ci-dessus, on a

. Or en appliquant l'hypothèse de récurrence,

. Finalement,

ce qui montre que le lemme des noyaux est vrai pour n + 1.

Applications [modifier]

Le lemme des noyaux sert pour la réduction des endomorphismes. Par exemple :

Réduction à une forme diagonale par blocs — Soit E un espace vectoriel de dimension finie sur

un corps K et soit f un endomorphisme de E. Soit un polynôme annulateur de f (par

exemple son polynôme caractéristique, d'après le théorème de Cayley-Hamilton) et une factorisation de P dont les facteurs sont deux à deux premiers entre eux. Alors il existe une base

de E et des matrices telles que

où ni = dimkerPi(f).

[Enrouler] Démonstration

Par hypothèse kerP(f) = E, donc, d'après le lemme des noyaux :

Page 19: Polynôme d

Chaque sous-espace kerPi(f) est stable par f, donc la matrice de f dans n'importe quelle base de E adaptée à la décomposition précédente en sous-espaces stables, est diagonale par blocs comme souhaité.

Décomposition de DunfordUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En mathématiques, la décomposition de Dunford s'inscrit dans la problématique de la réduction d'endomorphisme. Cette approche consiste à décomposer l'espace vectoriel en une somme directe de sous-espaces stables où l'expression de l'endomorphisme est plus simple.

Ce n'est pas une réduction dans le sens où elle n'est pas maximale. C'est-à-dire qu'il est parfois possible de pousser la décomposition en sous-espaces vectoriels plus petits.

Elle suppose comme hypothèses que l'espace vectoriel est de dimension finie et que le polynôme minimal est scindé, c'est-à-dire qu'il s'exprime comme produit de polynômes du premier degré. C'est toujours le cas si le corps est algébriquement clos, comme par exemple celui des nombres complexes. Dans le cas ou la propriété n'est pas vérifiée, alors il est possible d'étendre le corps à sa clôture algébrique, et l'espace vectoriel à ce nouveau corps et dans ce contexte d'appliquer la décomposition de Dunford. Le corps des nombres réels se voit par exemple très généralement étendre pour permettre une application de cette décomposition.

La décomposition de Dunford prouve que tout endomorphisme est la somme d'un endomorphisme diagonalisable et d'un endomorphisme nilpotent, les deux endomorphismes commutant et étant uniques.

Cette décomposition est largement appliquée. Elle permet un calcul matriciel souvent rapide. C'est néanmoins souvent sous la forme de la réduction de Jordan qu'elle est utilisée.

Sommaire

[masquer] 1 Théorème 2 Démonstration

o 2.1 Via les sous-espaces caractéristiques o 2.2 Via les projecteurs

3 Cas d'applications

4 Réduction de Jordan

Théorème [modifier]

Page 20: Polynôme d

Le théorème de diagonalisabilité permet de déterminer la structure de u quand il admet un polynôme annulateur scindé à racines simples. La décomposition de Dunford s'applique à un cas plus général.

Théorème de la décomposition de Dunford — Soit u un endomorphisme d'un espace vectoriel E. Si u admet un polynôme minimal scindé, alors il peut s'écrire sous la forme u=d+n avec d un endomorphisme diagonalisable et n un endomorphisme nilpotent tels que d et n commutent (c'est-à-dire dn=nd). De plus d et n sont des polynômes en u et sont uniques.

Démonstration [modifier]

Via les sous-espaces caractéristiques [modifier]

Article détaillé : Sous-espace caractéristique.

L'idée initiale de cette approche est donnée par la proposition suivante, démontrée dans l'article sur les polynômes d'endomorphismes dans le paragraphe sur les polynômes minimaux :

Soit une décomposition en facteurs de degré supérieur ou égal à 1 et premiers deux à deux du polynôme minimal d'un endomorphisme u. Alors la suite des

noyaux est une décomposition de l'espace E en somme directe de sous-espaces stables par l'endomorphisme.

Or, si le polynôme minimal est scindé, il peut s'écrire sous la forme:

Si l'on note le noyau de l'endomorphisme , alors le paragraphe précédent nous

indique que la suite forme une somme directe de l'espace E de sous-espaces non réduits à 0 et stables par l'endomorphisme. On appelle ces sous-espaces les sous-espaces caractéristiques. Nous avons alors les trois propriétés suivantes:

L'espace E est somme directe de ces sous-espaces caractéristiques. Les sous-espaces caractéristiques sont non réduits au vecteur nul et stables par

l'endomorphisme. La restriction de l'endomorphisme à est la somme d'une

homothétie de rapport et d'un endomorphisme nilpotent d'ordre .

La suite des est la suite des valeurs propres (i.e. le spectre de u). Les sous-espaces propres associés sont inclus dans les sous-espaces caractéristiques.

Ces considérations permettent de démontrer la décomposition de Dunford. Elle permettent de plus de démontrer les propriétés suivantes :

Le polynôme minimal est le produit des polynômes de degré 1 et de racine les valeurs propres à la puissance l'indice de l'endomorphisme nilpotent associé.

Le polynôme caractéristique est le produit des polynômes de degré 1 et de racines les valeurs propres à la puissance la dimension de l'espace caractéristique associé.

Page 21: Polynôme d

Le déterminant est égal au produit des valeurs propres élevées à la puissance la dimension de l'espace caractéristique associé.

La trace est égale à la somme des valeurs propres pondérées par les dimensions des espaces caractéristiques associés.

[Dérouler] Démonstration

Via les projecteurs [modifier]Article détaillé : Projecteur (mathématiques).Un résultat notoire de l'approche par les polynômes d'endomorphismes réside dans le fait que la connaissance du polynôme minimal permet de définir une algorithmique fournissant à la fois les projecteurs sur les espaces caractéristiques mais aussi la composante diagonale et nilpotente de l'endomorphisme.La projection sur Ei parallèlement à la somme directe des autres espaces caractéristiques s'exprime comme un polynôme de l'endomorphisme u.

La composante diagonale d de l'endomorphisme u s'exprime comme un polynôme de l'endomorphisme u.

La composante nilpotente n de l'endomorphisme u s'exprime comme un polynôme de l'endomorphisme u.

[Dérouler] Démonstration

Cas d'applications [modifier]En dimension finie le théorème de Cayley-Hamilton assure que χu(u) = 0 où χu désigne le polynôme caractéristique de u. Si χu

est scindé alors u est décomposable.C'est en particulier le cas pour tout endomorphisme d'un espace de dimension finie sur un corps algébriquement clos (

notamment).Réduction de Jordan [modifier]La décomposition de Dunford permet d'obtenir la réduction de Jordan en dimension finie. En effet, d et n commutent donc les sous-espaces propres de d sont stables par n.La restriction de n au sous-espace propre admet une matrice formée de blocs de Jordan nilpotents ce qui donne, en ajoutant λIp, des blocs de Jordan pour d+n dans une base adaptée. Ainsi on obtient une matrice diagonale par blocs formée de blocs de

Jordan en utilisant l'union de ces bases.Réduction d'endomorphismeUn article de Wikipédia, l'encyclopédie libre.(Redirigé depuis Réduction des endomorphismes)Aller à : Navigation, rechercherEn mathématiques, et plus particulièrement en algèbre linéaire, la réduction d'endomorphisme est une technique mathématique qui a pour objectif d'exprimer des matrices et des endomorphismes sous une forme plus simple, notamment pour faciliter les calculs. Cela consiste essentiellement à trouver une base de l'espace vectoriel qui permet d'exprimer plus simplement l'endomorphisme dans cette nouvelle base, et à décomposer l'espace en sous-espace vectoriels stables par l'endomorphisme.

Sommaire

[masquer] 1 Motivation

Page 22: Polynôme d

o 1.1 Le concept de réduction o 1.2 Endomorphisme et vecteur propre o 1.3 Réduction de Jordan o 1.4 Endomorphisme et distance o 1.5 Analyse fonctionnelle et opérateur linéaire

2 Histoire 3 Cas général de la dimension finie

o 3.1 Réduction et sous-espaces propres o 3.2 Diagonalisation

3.2.1 Diagonalisation et polynôme caractéristique 3.2.2 Endomorphisme diagonalisable et polynôme minimal

o 3.3 Cas où le polynôme minimal est scindé 3.3.1 Réduction et endomorphisme nilpotent 3.3.2 Décomposition de Dunford 3.3.3 Réduction de Jordan

o 3.4 Cas du corps des réels o 3.5 Cas d'un corps quelconque

4 Utilisation de la réduction en dimension finie 5 Réduction et forme bilinéaire en dimension finie 6 Réduction et analyse fonctionnelle 7 Sources

o 7.1 Liens internes

o 7.2 Références

Motivation [modifier]Le concept de réduction [modifier]La technique de réduction en algèbre est fréquente, elle consiste à réduire un concept, en sous-concepts les plus simples possible et permettant de reconstruire le cas général. Dans le cas des endomorphismes (c’est-à-dire des applications linéaires d'un espace vectoriel dans lui-même) la technique consiste à décomposer l'espace vectoriel en espaces plus petits. Cette réduction doit posséder six propriétés :L'endomorphisme définit par restriction un nouvel endomorphisme sur chacun des sous-espaces (c'est-à-dire chacun est un sous-espace vectoriel stable), ainsi la petite structure est une entité intrinsèque avec sa propre cohérence.

1. Les intersections des sous-espaces pris deux à deux sont réduites au vecteur nul, ce qui assure l'indépendance de chacune des petites structures.

2. Elles engendrent l'espace entier, ce qui offre l'exhaustivité de l'analyse.3. La réduction décrit l'intégralité de la structure originelle.4. Elle est maximale, c'est-à-dire qu'il n'existe pas de décomposition en éléments plus petits

et donc plus simple.5. Elle est aussi simple que possible, c'est-à-dire que pour chacune des sous-structures il

n'existe pas de représentation plus élémentaire.

Toutefois, elle n'est pas unique.

Endomorphisme et vecteur propre [modifier]

La structure d'espace vectoriel sur lequel s'applique l'endomorphisme possède des propriétés différentes selon les cas. Dans l'hypothèse où la dimension est finie, alors la structure du corps détermine l'essentiel des propriétés de réduction. Une approche très générale, pour établir la relation entre la structure du corps et la réduction des endomorphismes consiste à analyser la

Page 23: Polynôme d

structure de l'anneau des polynômes associée au corps. Cette approche est analysée dans l'article polynôme d'endomorphisme. Le cas le plus simple est celui où le corps est dit algébriquement clos, c'est-à-dire que tout polynôme admet au moins une racine. C'est le cas des nombres complexes. Alors la réduction est particulièrement efficace. La notion de valeur propre devient le bon outil dans ce contexte. En fait, l'analyse du polynôme minimal montre qu'il existe un cas, générique du point de vue topologique, mais qui n'est pas le cas général, où il existe une base de vecteurs propres. On parle alors de diagonalisation.

Réduction de Jordan [modifier]

Ce qui empêche que le cas générique évoqué ci-dessus, celui de la diagonalisation, soit le cas général, ce sont essentiellement les endomorphismes nilpotents. Le cas général, comprenant cette obstruction due aux endomorphismes nilpotents, a été analysé par le mathématicien Camille Jordan. On montre que tout endomorphisme en dimension finie sur un corps algébriquement clos se décompose en sous-espaces caractéristiques où l'endomorphisme est la somme d'une homothétie et d'un endomorphisme nilpotent.

Endomorphisme et distance [modifier]

Il existe un cas particulier d'espace vectoriel : ceux qui sont munis d'une distance compatible avec la structure vectorielle. Un cas important est celui où la distance est euclidienne (ou hermitienne dans le cas complexe). L'ajout de cette structure offre une nouvelle voie d'accès à la problématique de la réduction d'endomorphisme. S'il est compatible avec la distance, c'est-à-dire s'il est normal, alors une nouvelle approche est possible. Dans ce contexte, l'exception nilpotente est absente. La réduction est plus simple et les techniques algorithmiques associées plus rapides.

Analyse fonctionnelle et opérateur linéaire [modifier]

Ce cas guide Hilbert dans une nouvelle direction. La généralisation de l'approche aux opérateurs différentiels. Ces opérateurs comme le laplacien ou le d'alembertien sont la clé d'importants problèmes en physique. Ils peuvent se représenter comme une équation linéaire, mais dans un espace de dimension infinie. Si l'approche générale de Jordan est vouée à l'échec car les polynômes ne s'appliquent pas dans ce contexte, en revanche ces opérateurs présentent les bonnes propriétés de compatibilité vis-à-vis d'une distance qu'il est possible de définir sur l'espace. Hilbert, propose une approche novatrice, consistant à étudier les propriétés géométriques de ces espaces de dimension infinie, au lieu de se limiter à une analyse d'un point particulier: la fonction solution de l'équation. Cette approche ouvre une nouvelle branche des mathématiques devenue essentielle au siècle dernier: l'analyse fonctionnelle. La physique moderne, aussi bien sous sa forme quantique que sous sa forme relativiste, utilise largement cette vision des choses.

Histoire [modifier]

Cette section est vide, pas assez détaillée ou incomplète. Votre aide est la bienvenue !

Cas général de la dimension finie [modifier]

Réduction et sous-espaces propres [modifier]

Article détaillé : Valeur propre (synthèse).

Page 24: Polynôme d

Il existe un premier candidat naturel pour une réduction, elle correspond à une décomposition en sous-espaces propres. Une présentation complète du concept est proposé dans l'article détaillé.

En résumé, on peut dire qu'un vecteur propre est un vecteur non nul dont l'image par l'endomorphisme est colinéaire au vecteur d'origine. Le rapport de colinéarité est appelé valeur propre. L'ensemble des vecteurs propres pour une valeur propre donnée associée au vecteur nul forme un sous-espace vectoriel appelé sous-espace propre.

Une décomposition en sous-espaces propres représente donc un grand nombre des propriétés recherchées pour une réduction.

Les espaces propres sont stables par l'endomorphisme. L'intersection de deux sous-espaces propres est réduite au vecteur nul. La restriction de l'endomorphisme à un sous-espace propre est une homothétie, c'est-à-dire

une application qui à un vecteur x associe le vecteur λ.x. C'est donc une application particulièrement simple.

Les propriétés recherchées dans la réduction sont presque rassemblées.

[Dérouler] Démonstration

Diagonalisation [modifier]

Fig. 4. Endomorphisme diagonalisable en dimension 3 sur les nombres réels: un cube est transformé en parallélépipède.Article détaillé : Diagonalisation.Il suffirait en effet d'une propriété supplémentaire pour permettre une réduction à l'aide de cette approche: que la somme directe des sous-espaces propres est l'espace vectoriel entier. Cela signifie qu'il existe une base B de vecteurs propres. Les deux propriétés manquantes sont alors réunies, la réduction est alors composée de sous-espaces de dimension 1, ceux qui sont engendrés par les vecteurs de la base. Cette décomposition est maximale car il n'existe pas de décomposition en somme directe de sous-espaces non réduits au vecteur nul qui contiennent plus de sous-espaces que la dimension de l'espace.Le fait que B soit une base garantit que la décomposition engendre bien l'espace entier.En termes plus formels, si u est un endomorphisme d'un -espace vectoriel de dimension finie égale à n, où n est un entier strictement positif. Alors les trois propositions suivantes sont équivalentes. Elles fournissent la définition d'un premier cas de réduction pour u.u est diagonalisable

Il existe une base de vecteurs propres. La somme des dimensions des sous-espaces propres est égale à la dimension de

l'espace entier.

Page 25: Polynôme d

La somme des sous-espaces propres est l'espace entier. Toute représentation matricielle de u est diagonalisable.

La démonstration se trouve dans l'article Diagonalisation, sauf pour la dernière équivalence qui est traitée dans Matrice diagonale.

Diagonalisation et polynôme caractéristique [modifier]

Article détaillé : Polynôme caractéristique.

Il existe d'autres propriétés importantes associées à cette définition. Elles proviennent essentiellement d'une approche polynômiale sur l'endomorphisme. Le polynôme caractéristique est, en dimension finie, un outil puissant d'analyse des endomorphismes. Il est défini comme le déterminant suivant: det(u -λ.I ). Comme le déterminant s'annule si et seulement si le noyau de l'application linéaire associée n'est pas réduit au vecteur nul, le polynôme possède comme racines les valeurs propres de l'endomorphisme. Trois propriétés analysent la relation entre diagonalisation et polynômes caractéristiques.

Si le polynôme caractéristique possède n racines distinctes alors l'endomorphisme est diagonalisable.

C'est une condition suffisante, mais non nécessaire. Considérons le cas d'une homothétie dans le cas où n n'est pas égal à 1. Le polynôme caractéristique ne possède qu'une racine multiple. Pourtant l'endomorphisme est clairement diagonalisable car toute base est constituée de vecteurs propres uniquement. Il existe de plus la condition nécessaire suivante:

Si l'endomorphisme est diagonalisable, alors le polynôme caractéristique est scindé.

Dire que le polynôme caractéristique P(X) est scindé signifie qu'il peut s'écrire comme puissance de monômes:

Pour l'obtention d'une condition nécessaire et suffisante à partir du polynôme caractéristique, une définition supplémentaire est nécessaire.

l' ordre de multiplicité algébrique d'une valeur propre est l'ordre de multiplicité de la racine dans le polynôme caractéristique.

L'ordre de multiplicité algébrique d'une valeur propre λ correspond donc à la puissance du monôme (X-λ) dans le polynôme caractéristique. L'adjonction de cette définition permet l'expression d'une condition nécessaire et suffisante de diagonalisabilité.

L'endomorphisme est diagonalisable si et seulement si, tout sous-espace propre possède une dimension égale à la multiplicité algébrique de la valeur propre associée.

[Enrouler] Démonstration

Page 26: Polynôme d

Si le polynôme caractéristique possède n racines distinctes, alors l'endomorphisme est diagonalisable.

Si le polynôme caractéristique possède n racines distinctes alors il existe n vecteurs propres aux valeurs propres associées distinctes. Or l'article sur les valeurs propres nous apprend dans la boîte déroulante des propriétés supplémentaires des propriétés des valeurs et vecteurs propres' dans le cas de la dimension finie, qu'ils sont linéairement indépendants. Or une famille libre de cardinal égal à la dimension de l'espace forme une base. Ce qui démontre la proposition.

L'endomorphisme est diagonalisable si et seulement si, tout sous-espace propre possède une dimension égale à la multiplicité algébrique de la valeur propre associée.

Si l'endomorphisme est diagonalisable, alors il existe une représentation matricielle diagonale. Le calcul du polynôme caractéristique à l'aide d'une telle représentation montre immédiatement que la dimension d'un sous-espace propre est égale à la multiplicité algébrique du polynôme caractéristique.

Réciproquement, si la multiplicité algébrique de la valeur propre est égale à la dimension du sous-espace propre associé, alors la somme des dimensions des sous-espaces propres est égale au degré du polynôme et donc à la dimension de l'espace entier. Le paragraphe précédent montre que cela prouve le caractère diagonalisable de l'endomorphisme.

Si l'endomorphisme est diagonalisable, alors le polynôme caractéristique est scindé.

C'est une conséquence directe de la proposition précédente.

Endomorphisme diagonalisable et polynôme minimal [modifier]

Article détaillé: Polynôme d'endomorphisme

Si l'approche par le polynôme caractéristique offre des premiers résultats, elle n'est néanmoins pas intégralement satisfaisante. En effet, le calcul du polynôme est souvent lourd, et la recherche de la dimension des sous-espaces propres n'est pas simple.

Le concept de polynôme d'endomorphisme propose un autre candidat, souvent plus pertinent pour l'analyse des applications linéaires en dimension finie. C'est le polynôme minimal. À l'instar du polynôme caractéristique, ses racines sont aussi les valeurs propres. Le polynôme minimal est souvent plus appliqué. Enfin, le polynôme minimal dispose de propriétés théoriques fortes, que l'on trouve dans l'article Polynôme d'endomorphisme. On y trouve par exemple la condition nécessaire et suffisante suivante:

Un endomorphisme u est diagonalisable si et seulement si son polynôme minimal est scindé sur K et à racines simples.

Cas où le polynôme minimal est scindé [modifier]

Réduction et endomorphisme nilpotent [modifier]

Article détaillé: Endomorphisme nilpotent

Page 27: Polynôme d

Même dans le cas où le polynôme minimal est scindé, il existe au moins un cas où la diagonalisation est impossible, celui des endomorphismes nilpotents. L'unique valeur propre est 0, donc l'unique sous-espace propre est son noyau. En conséquence le seul endomorphisme nilpotent diagonalisable est l'endomorphisme nul.

Les endomorphismes nilpotents disposent néanmoins d'une réduction traitée et démontrée dans l'article Endomorphisme nilpotent dans le paragraphe nilpotence et réduction en dimension finie.

Il existe une suite de sous-espaces vectoriels stables par u, non réduits au vecteur nul, qui engendrent par somme directe l'espace tout entier, et telle que, pour tout i, il existe un vecteur non nul d'indice pour lequel la famille

forme une base de . La juxtaposition de ces familles forme une base de l'espace entier. On appelle ces sous-espaces des espaces de Jordan.

Nous y trouvons bien toutes les caractéristiques d'une réduction, une décomposition en somme directe de sous-espaces stables qui engendre l'espace entier. Cette décomposition est bien maximale comme le montre l'article précédent, et pour un sous-espace, il est difficile de trouver une représentation plus simple.

Décomposition de Dunford [modifier]

Article détaillé : Décomposition de Dunford.

Si le cas des endomorphismes nilpotents apparaît dans un premier temps comme une exception au cas diagonalisable, la théorie des polynômes d'endomorphismes nous montre que cette exception est unique. Plus précisément, dans le cas de la dimension finie et si le polynôme minimal est scindé, alors la proposition suivante, connue sous le nom de décomposition de Dunford est vraie:

L'endomorphisme u est la somme d'un endomorphisme diagonalisable et d'un endomorphisme nilpotent qui commutent entre eux.

Démonstration dans Polynôme d'endomorphisme

Dans le contexte du théorème, le polynôme minimal s'écrit sous la forme suivante:

Or une propriété démontrée dans l'article sur les polynômes d'endomorphismes dans le paragraphe

sur les polynômes minimaux indique que la suite des noyaux est une décomposition en somme directe de l'espace E de sous-espaces stables par l'endomorphisme. Ces noyaux s'appellent les espaces caractéristiques. Sur chacun de ces sous-espaces la restriction de u est la somme d'une homothétie et d'un endomorphisme nilpotent. Ces restrictions possèdent donc une représentation simple.

Les quatre propriétés suivantes résument l'essentiel des propriétés associées à la décomposition de Dunford:

L'espace E est somme directe de ses espaces caractéristiques.

Page 28: Polynôme d

Les sous-espaces caractéristiques sont non réduits au vecteur nul et stables par l'endomorphisme. La restriction de l'endomorphisme à est la somme d'une

homothétie de rapport et d'un endomorphisme nilpotent d'ordre .

La suite des est la suite des valeurs propres. Les sous-espaces propres associés sont inclus dans les sous-espaces caractéristiques.

Les projecteurs sur les espaces caractéristiques ainsi que les endomorphismes diagonalisables et nilpotents s'expriment sous forme de polynômes d'endomorphisme de u.

Démonstration dans Décomposition de Dunford

L'hypothèse sur le fait que le polynôme minimal soit scindé représente une contrainte souvent faible. La clôture algébrique des nombres complexes garantit déjà la généralité de la condition. Pour le cas des nombres réels, il est toujours possible d'étendre l'espace vectoriel aux corps des complexes pour la recherche des solutions, puis dans un deuxième temps de ne choisir que des solutions réelles. Pour les applications, cette démarche est souvent utilisée par les physiciens.

Réduction de Jordan [modifier]

Article détaillé : Réduction de Jordan.

La décomposition de Dunford n'est néanmoins pas une réduction. En effet, cette décomposition n'est pas maximale. Un sous-espace caractéristique se décompose encore.

Sur un sous-espace caractéristique, la restriction de l'endomorphisme s'exprime comme la somme d'une homothétie et d'un endomorphisme nilpotent. Or tout sous-espace est stable par une homothétie. Il est donc possible de choisir la décomposition que l'on souhaite pour les sous-espaces caractéristiques. La réduction des endomorphismes nilpotents nous fournit une décomposition en sous-espaces stables maximales à l'aide de la définition des espaces de Jordan.

Un espace de Jordan est un sous-espace vectoriel stable par l'endomorphisme et disposant d'une base (e1, e2, ep) tel que:

Cette définition nous permet alors de décrire la Réduction de Jordan pour tout endomorphisme sur un espace vectoriel de dimension finie disposant d'un polynôme minimal scindé:

L'espace vectoriel est somme directe d'espaces de Jordan. Il n'existe aucune décomposition en somme directe de l'espace vectoriel non réduit au vecteur nul et stable par u comportant plus de composantes que celle de Jordan.

Soit E un espace vectoriel sur et u un endomorphisme de E, alors :

Le vecteur x de E non nul est dit vecteur propre de u si et seulement s'il existe un élément λ de tel que u(x) = λx,

le scalaire λ élément de est dit valeur propre de u si et seulement s'il existe un vecteur x non nul de E tel que u(x) = λx,

soit λ une valeur propre de u alors l'ensemble constitué des vecteurs propres de valeur propre λ, et du vecteur nul, forme un sous-espace vectoriel de E appelé espace propre de u associé à la valeur propre λ.

Page 29: Polynôme d

En mathématiques, le spectre d'un endomorphisme d'espace vectoriel E (et de matrice associée A dans une base quelconque de E) est l'ensemble des valeurs propres de cet endomorphisme.

Sommaire

[masquer] 1 Cas de la dimension finie

o 1.1 Représentation matricielle o 1.2 Représentation par endomorphisme

2 Dimension quelconque

Cas de la dimension finie [modifier]

Représentation matricielle [modifier]

Si E est un K-espace vectoriel de dimension finie, on appelle spectre de la matrice

l'ensemble de ses valeurs propres :

.

Les valeurs propres sont solution de l'équation: P(X) = 0, où P(X) est le polynôme caractéristique associé à l'endomorphisme. Le polynôme caractéristique est donné par la relation :

P(X) = det(A − X * I)

(det est l'opérateur "déterminant", A la matrice de l'endomorphisme dans une base de E, et I la matrice identité)

En algèbre linéaire, le projecteur est un endomorphisme qu'on peut présenter de deux façons équivalentes

c'est une projection linéaire associée à une décomposition de E comme somme de deux sous-espaces supplémentaires, c'est-à-dire qu'elle permet d'obtenir un des termes de la décomposition correspondante

c'est aussi un endomorphisme idempotent : il vérifie p2=p

On peut aussi définir, dans un espace de Hilbert, le projecteur sur un convexe fermé (notion topologique et non plus algébrique)

c'est l'application qui a tout élément de l'espace associe l'élément du convexe le plus proche

dans le cas où le convexe est un sous-espace vectoriel, on retrouve un cas particulier de projection orthogonale

Sommaire

[masquer]

Page 30: Polynôme d

1 Définition de la projection vectorielle o 1.1 Propriétés o 1.2 Identification des projecteurs et des projections o 1.3 Projecteur associé à un autre projecteur

2 Projecteurs associés à une famille d'espaces supplémentaires 3 Symétries 4 Projecteurs orthogonaux 5 Représentation matricielle en base adaptée 6 Voir aussi

o 6.1 Articles connexes

Définition de la projection vectorielle [modifier]

Soit F un sous-espace vectoriel de E, G un supplémentaire dans E. N'importe quel vecteur x de E peut s'écrire d'une façon unique comme somme d'un vecteur de F et d'un vecteur de G :

. La projection p sur F parallèlement à G est alors l'application p qui associe à tout x de E le vecteur x' de F.

Propriétés [modifier]

Im(p)=F :

o

o Ker(p)=G :

o et

o

Identification des projecteurs et des projections [modifier]

Définissons les projecteurs de E comme les endomorphismes p de E vérifiant p2=p. On vient de voir que toute projection est un projecteur. On prouve maintenant la réciproque.

Théorème de caractérisation des projecteurs

Tout projecteur de E est une projection, précisément la projection sur Im p parallèlement à Ker p. Notamment si p est un projecteur Im p et Ker p sont des sous-espaces supplémentaires.

Démonstration : on fait une démonstration valable en toute dimension

les deux espaces sont en somme directe : si x est dans leur intersection, x est de la forme p(y) et vérifie p(x)=0=p2(y)=p(y)=x.

Page 31: Polynôme d

tout vecteur x de E se décompose, sous la forme (d'ailleurs unique) x = p(x) + [x − p(x)]

Le premier élément est dans Im p, le second dans Ker p.

Finalement « projecteurs » et « couples d'espaces vectoriels supplémentaires » se correspondent bijectivement.

Projecteur associé à un autre projecteur [modifier]

La projection sur G parallèlement à F est l'application q=Id-p, appelé aussi projecteur associé à p.

L'image de q n'est autre que le noyau de p, l'image de p est le noyau de q.

Projecteurs associés à une famille d'espaces supplémentaires [modifier]

Un espace vectoriel E est somme directe de sous espaces vectoriels si et seulement

si pour tout il existe des projecteurs vérifiant :

et si .

Symétries [modifier]

Une symétrie vectorielle est un endomorphisme s tel que s2 est l'identité (ne pas confondre avec endomorphisme symétrique).

p est un projecteur si et seulement si s=2p-Id est une symétrie vectorielle

La recherche des endomorphismes tels que p2=p, ou que s2=Id effectuée ici est un cas particulier simple du traitement de l'équation P(u)=0 pour P polynôme et u endomorphisme, voir l'article polynôme d'endomorphisme pour des généralisations.

Projecteurs orthogonaux [modifier]

Dans un espace quadratique, un projecteur est un endomorphisme symétrique si et

seulement si . On a alors un projecteur orthogonal, ou une projection orthogonale.

Représentation matricielle en base adaptée [modifier]

En choisissant une base de l'espace qui soit la réunion d'une base du noyau et d'une base de l'image (ce qui est possible, car image et noyau sont supplémentaires), on obtient une représentation matricielle vérifiant les propriétés suivantes :

Sur la diagonale apparaissent uniquement des "1" et des "0", et le nombre de "1" est égal au rang du projecteur ;

Les autres coefficients sont nuls.

Page 32: Polynôme d

En algèbre linéaire, une matrice carrée M d'ordre n ( ) à coefficients dans un corps commutatif K, est dite diagonalisable si elle est semblable à une matrice diagonale, c'est-à-dire s'il existe une matrice inversible P et une matrice diagonale D telles que PDP − 1 = M.

Par exemple, toute matrice diagonale est diagonalisable, il suffit de prendre P = In (où In est la matrice identité) dans la définition. Ainsi la matrice nulle est diagonalisable, la matrice identité, les matrices scalaires, ...

Rappelons que si E est un espace vectoriel de dimension finie, alors un endomorphisme f de E est diagonalisable lorsqu'il existe une base de E telle que la matrice de f relativement à cette base soit diagonale.

Notons can(M), l'endormorphisme de Kn canoniquement associé à la matrice M, c'est-à-dire l'application linéaire de Kn dans Kn qui a pour matrice relativement à la base canonique de Kn, la matrice M.

Le concept de changement de base permet de démontrer que la matrice M est diagonalisable si et seulement si can(M) est diagonalisable.

La diagonalisation d'une matrice se ramène donc à la diagonalisation d'un endomorphisme d'un espace vectoriel de dimension finie et réciproquement.

La diagonalisation des matrices (ou des endomorphismes) est intéressante parce que les matrices diagonales sont très faciles à manipuler :

leurs valeurs propres et vecteurs propres se déterminent aisément, on les élève à des puissances entières en élevant tout simplement leurs coefficients

diagonaux à cette puissance, ce qui permet d'en déduire les puissances d'une matrice diagonalisable. Ces puissances représentent le résultat d'applications successives de cette matrice, et sont utiles pour simuler des itérations en analyse numérique. (voir Varga, Matrix Iterative Analysis)

K étant un corps commutatif, nous noterons dans tout l'article l'espace vectoriel des

matrices carrées d'ordre n, et l'espace vectoriel des matrices à n lignes et une colonne. En diagonalisant une matrice, on se place dans une base où l'on travaille avec une matrice diagonale, ce que simplifie énormément les calculs. Et en général une réduction d'endomorphisme permet de simplifier les calculs. On peut donc faire appel à cette méthode pour les problèmes de résolution de systèmes d'équations linéaires par exemple.

Sommaire

[masquer] 1 Diagonalisation des matrices

o 1.1 Définitions o 1.2 Recherche des valeurs propres o 1.3 Recherche des vecteurs colonnes propres o 1.4 Méthodes pratiques de diagonalisation

2 Propriétés 3 Exemples

o 3.1 Exemple 1

Page 33: Polynôme d

o 3.2 Exemple 2 o 3.3 Exemple 3

4 Les applications o 4.1 Puissances de matrices o 4.2 Systèmes Récurrents o 4.3 Systèmes Différentiels o 4.4 Équations Différentielles du nième ordre

5 Voir aussi

Diagonalisation des matrices [modifier]

Définitions [modifier]

Article détaillé : Valeur propre.

Définition 1 —  Soit et soit . Le scalaire λ est appelé valeur propre de

M, s'il existe un vecteur colonne X non nul de telle que MX = λX.

L'ensemble des valeurs propres d'une matrice M s'appelle le spectre de M et est noté généralement Sp(M) ou Spec(M).

Remarque: Il est important de préciser que le vecteur colonne X doit être non nul, sinon tout scalaire de K serait valeur propre de M puisqu'on a toujours M0 = λ0!

Définition 2 — Soit . Un vecteur X non nul de est appelé généralement vecteur propre ou encore vecteur colonne propre ou colonne propre si et seulement s'il existe tel que MX = λX.

On dit alors que X est une colonne propre associée à la valeur propre λ.

Remarque: La condition dans la définition , a pour conséquence qu'un vecteur propre possède une unique valeur propre. Cette condition n'est pas toujours utilisée dans la définition. C'est néanmoins la convention utilisée dans Wikipedia.

Définition 3 — Soit et soit une valeur propre de M. Le sous-espace

propre associé à la valeur propre λ est le noyau de l'endomorphisme . Il est habituellement noté Eλ.

Mais il est quelquefois défini comme étant le noyau de la matrice M − λIn (In étant la matrice unité d'ordre In), c'est-à-dire l'ensemble:

,

aussi égal à

Page 34: Polynôme d

.

Ces définitions correspondent exactement à celles données dans le monde des endomorphismes (cf Valeur propre).

Recherche des valeurs propres [modifier]

Théorème — Considérons une matrice M d'ordre n à coefficients dans un corps commutatif K et . Les propositions suivantes sont équivalentes:

λ est valeur propre de M ( ), M − λIn non inversible,

le système (M − λIn)X = 0 d'inconnue admet au moins une solution non nulle,

, det(M − λIn) = 0 (det désigne le déterminant d'une matrice).

De ce théorème se déduisent différentes techniques de recherche des valeurs propres. Étant donné un scalaire λ de K, il est possible de déterminer si M − λIn est inversible ou le rang de M − λIn en réduisant la matrice par la méthode de Gauss. Cette réduction s'effectue en choisissant si possible, un pivot indépendant de λ afin d'éviter les distinctions de cas.

Il est parfois plus efficace, lorsque la matrice M − λIn comporte « beaucoup de zéros », de résoudre le système (M − λIn)X = 0 dans lequel λ est considéré comme paramètre, en recherchant les solutions non nulles, ce qui a l'avantage de donner en même temps les vecteurs colonnes propres.

Enfin le calcul du déterminant de M − λIn peut donner les valeurs propres. Cela revient à déterminer les racines du polynôme caractéristique.

D'autre part, les valeurs propres d'une matrice M, peuvent être obtenues à partir d'un polynôme annulateur P, c'est-à-dire tel que P(A) = 0. Si λ est une valeur propre de M alors λ est racine du polynôme P. La réciproque n'étant pas vraie, il faut déterminer les racines de P pour lesquelles M − λIn n'est pas inversible. Par exemple, si A est une matrice d'un projecteur, alors A2 = A donc le polynôme P(X) = X2 − X est annulateur de A. Les valeurs propres possibles de A sont alors 0 et 1. Mais le projecteur nul, n'admet que 0 comme valeur propre.

Les méthodes de recherche des valeurs propres débouchent sur la détermination de racines de polynômes, ce qui pose généralement des problèmes dans le cas où l'ordre de la matrice est supérieur à 5 à cause de l'absence de formule générale donnant les racines en fonction des coefficients.

Donnons maintenant quelques moyens de détection d'erreurs dans la recherche des valeurs propres.

Nous savons que les sous-espaces propres associés aux différentes valeurs propres d'une matrice M d'ordre n sont en somme directe et donc la somme des dimensions reste inférieure à la dimension de Kn. Ainsi une matrice M d'ordre n ne peut admettre plus de n valeurs propres distinctes.

Page 35: Polynôme d

La trace d'une matrice M est un invariant de similitude c'est-à-dire que pour toute matrice inversible P, tr(P − 1MP) = trM. Donc la trace d'une matrice M est égale à la somme de ses valeurs propres (comptées avec leur multiplicité). Ainsi lorsqu'une matrice d'ordre n admet n valeurs propres distinctes, la trace constitue une sorte de somme de contrôle.

Recherche des vecteurs colonnes propres [modifier]

Les colonnes propres associées à une valeur propre λ peuvent être obtenues en résolvant le système (M − λIn)X = 0, mais la connaissance de la dimension du sous-espace propre associé peut aider à les obtenir plus facilement. Par exemple si on sait qu'il y a n valeurs propres distinctes, alors la dimension des sous-espaces propres est égale à un, et il suffit de trouver une seule colonne non nulle solution du système (M − λIn)X = 0, les autres lui seront proportionnelles. Si les valeurs propres ont été déterminées en réduisant M − λIn par la méthode de Gauss, alors le nombre de pivots donne le rang de la matrice et d'après le théorème du rang, la dimension du sous-espace propre associé est égale à n − rg(M − λIn).

Méthodes pratiques de diagonalisation [modifier]

Dans la plupart des cas, il est nécessaire de calculer le polynôme caractéristique de la matrice, afin de déterminer ses valeurs propres et les sous-espaces propres associés :

Pour le polynôme caractéristique est où

T est l'indéterminée et est la matrice unité de .Les valeurs propres sont les racines de , il y a donc au plus valeurs propres de multiplicité .On détermine ensuite les sous-espace propres associés à chaque valeur propre:

La matrice ne sera diagonalisable que si la dimension de chaque sous-espace propre est égale à la multiplicité de la valeur propre , ce qui signifie que pour chaque on

a une base de vecteurs propres que l'on note , .Alors il existera une matrice inversible U telle que U − 1MU soit égale à une matrice diagonale dont les coefficients diagonaux sont les répétés fois et sera la matrice

dont les colonnes sont les vecteurs (l'ordre n'a pas d'importance, mais si on a le

vecteur sur la k-ième colonne de , alors on a la valeur propre sur la k-ième colonne de ).

Il est aussi possible de déterminer directement les valeurs propres, et des bases des sous-espaces propres associés. La matrice M est diagonalisable si et seulement si la somme des dimensions des différents sous-espaces propres est égale n. Si la matrice est diagonalisable, alors il existe une matrice inversible P obtenue en plaçant les unes à côté des autres, les colonnes propres formant une base de chacun des sous-espaces, et la matrice D = P − 1MP est alors diagonale. La dimension du sous-espace propre associé à une valeur propre, correspond au nombre de fois que celle-ci est répétée sur la diagonale de la matrice diagonale D semblable à la matrice M.

Propriétés [modifier]

Les résultats fondamentaux sur la diagonalisation des matrices sont les suivants:

Page 36: Polynôme d

Une matrice A d'ordre n sur un corps commutatif K est diagonalisable si et seulement si la somme des dimensions de ses sous-espaces propres est égale à n, et si et seulement s'il

existe une base de constituée de vecteurs colonnes propres de A. Si une telle base existe, alors il est possible de former la matrice P ayant comme colonnes ces colonnes propres, P est inversible et P − 1AP sera alors une matrice diagonale. Les coefficients diagonaux de cette matrice ne sont autres que les valeurs propres de A.

Une matrice peut être diagonalisable sur un corps commutatif K si son polynôme minimal est scindé et que toutes ses racines sont simples, c'est-à-dire s'il est produit de polynômes à coefficients dans K du premier degré distincts. Ce n'est cependant pas une condition nécessaire.

Le résultat suivant, suffisant mais pas nécessaire, est souvent utile:

Une matrice A d'ordre n est diagonalisable sur le corps K si elle a n valeurs propres distinctes dans K, c'est-à-dire si son polynôme minimal a n racines distinctes dans K.

En général, sur presque toutes les matrices sont diagonalisables. Plus précisément: l'ensemble des matrices complexes d'ordre n qui ne sont pas diagonalisables, considéré comme un sous-

ensemble de , est un ensemble de mesure nulle pour la mesure de Lebesgue. On peut également signaler que les matrices diagonalisables forment un sous-ensemble dense dans l'ensemble des matrices pour la topologie donnée par n'importe quelle norme matricielle.

Le résultat ne tient pas sur . À mesure que n augmente, il devient (dans un certain sens) de moins en moins probable qu'une matrice réelle d'ordre n, aléatoirement choisie, soit diagonalisable sur .

Exemples [modifier]

Exemple 1 [modifier]

Matrices non diagonalisables:

Certaines matrices réelles ne sont pas diagonalisables sur le corps des réels. Considérons par exemple la matrice

La matrice B n'a pas de valeurs propres réelles, ainsi il ne peut exister de matrice réelle Q inversible telle que Q − 1BQ soit une matrice diagonale. Mais, il est possible de diagonaliser B sur le corps des complexes. En prenant,

Alors Q − 1BQ est diagonale.

Page 37: Polynôme d

Cependant, il existe aussi des matrices non diagonalisables, même si le corps des complexes est utilisé. Cela se produit si les multiplicités algébriques et géométriques des valeurs propres ne coïncident pas. Par exemple, considérons:

La matrice n'est pas diagonalisable: il n'existe pas de matrice U inversible telle que U − 1CU soit diagonale. En effet, C a une valeur propre (qui est 0) et cette valeur propre a un ordre de multiplicité algébrique égal à 2 et géométrique égal à 1.

Exemple 2 [modifier]

Considérons la matrice:

Cette matrice admet comme valeurs propres:

Ainsi A qui est de rang 3, a 3 valeurs propres distinctes, donc est diagonalisable.

Si nous voulons diagonaliser A, nous avons besoin de déterminer les vecteurs propres correspondants. Il y a par exemple:

On vérifie facilement que Avk = λkvk.

Maintenant soit P la matrice ayant ces vecteurs propres comme colonnes:

Alors « P diagonalise A », comme le montre un simple calcul:

Page 38: Polynôme d

Remarquez que les valeurs propres λk apparaîssent sur la diagonale de la matrice dans le même ordre que nous avons placé les colonnes propres pour former P.

Exemple 3 [modifier]

Soit

(voir le calcul d'un déterminant)Donc les valeurs propres sont :

2 de multiplicité 2 -3 de multiplicité 1

Calcul des sous-espaces caractéristiques :

Calcul de E2 : On cherche les tels que :

Donc On procède de même pour et on obtient :

On a bien : et , donc cette matrice est diagonalisable.

Une diagonalisation possible est : , avec

Page 39: Polynôme d

Les applications [modifier]

Puissances de matrices [modifier]

La diagonalisation peut être utilisée pour calculer efficacement les puissances d'une matrice diagonalisable A. Supposons que nous ayons obtenu:

P − 1AP = D

où D est une matrice diagonale. Alors

Ak = (PDP − 1)k = PDkP − 1

et cette dernière puissance est facile à calculer puisque la puissance kème d'une matrice diagonale s'obtient en élevant les coefficients diagonaux à la puissance k.

Par exemple considérons la matrice suivante:

En calculant les différentes puissances de M nous obtenons les formes suivantes:

Ce phénomène peut être expliqué en diagonalisant M. Pour ce faire, nous avons besoin d'une base

de formée de vecteurs colonnes propres de M. Une telle base de colonnes propres est donnée par:

où les ei désignent les vecteurs de la base canonique de .

L'inverse de la matrice de passage peut s'obtenir à partir de

Un calcul direct montre que

Ainsi, a et b sont les valeurs propres associées à u et v, repsectivement. D'après la linéairité de la multiplication par une matrice, nous avons donc

Page 40: Polynôme d

En revenant à la base canonique, nous avons:

Les relations précédentes, exprimées sous forme matricielle donnent:

ce qui explique le phénomène précédent.

Définition [modifier]

Soit un espace vectoriel sur un corps et un endomorphisme de , est dit nilpotent si et seulement s'il existe un entier n tel que . Le plus petit entier n vérifiant cette propriété est appelé indice de l'endomorphisme.

Soit x un vecteur, alors on appelle indice de x pour l'application nilpotente le plus petit entier p tel que up(x) = 0.

Intérêt du concept [modifier]

Nilpotence et réduction [modifier]

Un enjeu important en mathématique est celui de la réduction, c’est-à-dire de la décomposition d'un concept en sous-concepts plus simples et qui décrivent l'intégralité du concept initial. Dans le cadre des applications linéaires la réduction est traitée dans l'article Réduction d'endomorphisme. En dimension finie, les endomorphismes nilpotents jouent un rôle important dans le cas ou est un corps algébriquement clos. Un corps est dit algébriquement clos si et seulement si tous les polynômes sont scindés, autrement dit si tous les polynômes s'écrivent comme produit de polynômes du premier degré. C'est par exemple le cas pour les nombres complexes. Sous cette hypothèse, la théorie de la réduction d'endomorphisme montre que le cas général se résume à la somme d'un endomorphisme diagonalisable et d'un nilpotent. Ce résultat est connu sous le nom de Décomposition de Dunford.

Si la clôture algébrique du corps n'est plus vraie, alors il est toujours possible d'étendre l'espace vectoriel sur un corps algébriquement clos. Cette technique est largement utilisée. Pour les réels, la physique n'utilise pratiquement que cette approche.

Applications [modifier]

Puisqu'il est possible d'étendre à la clôture algébrique, la réduction des endomorphismes dans ce contexte joue un rôle essentiel en mathématique. Les endomorphismes nilpotents sont donc nécessaires à divers branches des mathématiques. En algèbre linéaire, ils interviennent naturellement dans la réduction de Jordan qui correspond à un cas important de réduction des endomorphismes. Les techniques utilisées sont celles des polynômes d'endomorphismes. Les conséquences se retrouvent sur la résolution de systèmes d'équations linéaires, dans la résolution d'équations différentielles linéaires où ils apparaissent comme des cas limites. En mathématiques

Page 41: Polynôme d

appliquées, ils sont importants pour la recherche d'algorithmes, on utilise alors essentiellement les matrices nilpotentes où des représentations simples sont alors nécessaires.

Propriétés [modifier]

L'exemple illustre l'essentiel des propriétés des endomorphismes nilpotents. On y trouve des propriétés sur l'indice des endomorphismes et des vecteurs, des conditions nécessaires et suffisantes grâce aux polynômes. Des réductions avec une décomposition en espaces propres et l'existence d'une base réduite. Il existe aussi des propriétés calculatoires des matrices nilpotentes traitées dans l'article Matrice nilpotente.

Nilpotence et indice [modifier]

L'indice d'un endomorphisme nilpotent possède deux grandes propriétés :

L'indice d'un endomorphisme nilpotent est inférieur ou égal à la dimension de l'espace (pour la démonstration penser à utiliser la suite (kerfn)).

Il existe un vecteur dont l'indice est celui de l'endomorphisme.

Nilpotence et polynômes en dimension finie [modifier]

Les polynômes fournissent non seulement des conditions nécessaires et suffisantes pour la nilpotence, mais renseignent de plus sur l'indice.

Un endomorphisme est nilpotent si et seulement si son polynôme caractéristique est égal à ( − X)n ou n est la dimension de l'espace.

Un endomorphisme est nilpotent si et seulement si son polynôme minimal est égal à Xp ou p est l'indice de l'endomorphisme.

Le polynôme minimal d'un vecteur x est égal à ou px est l'indice du vecteur x.

Nilpotence et réduction en dimension finie [modifier]

Le principe de réduction consiste à trouver une décomposition en somme directe de sous-espaces stables de l'espace vectoriel. Il en existe une pour les endomorphismes nilpotents. Et elle est compatible avec la réduction de Jordan. Cette approche est générale à l'analyse des endomorphismes. Dans le cas des endomorphismes nilpotents, elle est intimement liée à la notion de base réduite.

Si est un vecteur d'indice p alors la famille est une famille libre.

Il existe une suite de sous-espaces vectoriels stables par u, non réduits au vecteur nul, qui engendrent par somme directe l'espace tout entier, et tel que, pour tout i, il existe un vecteur non nul d'indice pour lequel la famille

forme une base de . La réunion de ces familles forme une base de l'espace entier. On appelle ces sous-espaces des espaces de Jordan.

Page 42: Polynôme d

La restriction de u à est de noyau non réduit au vecteur nul et possède une unique valeur propre 0. Cette propriété reste vraie pour l'endomorphisme lui-même.

La décomposition est maximale, c’est-à-dire qu'il n'existe pas de décomposition en sous-espaces vectoriels stables qui génèrent en somme directe l'espace entier et qui comprennent plus d'éléments que la décomposition précédente si aucun sous-espace vectoriel est réduit au vecteur nul.

[Enrouler] Démonstration

Un endomorphisme u est nilpotent si et seulement si son polynôme minimal est égal à Xp ou p est l'indice de l'endomorphisme.

Par définition de la nilpotence, Xp est un polynôme annulateur de l'endomorphisme u, et ce n'est le

cas d'aucun de ses diviseurs stricts. Comme est un anneau euclidien, et donc qu'il vérifie l'identité de Bezout, le polynôme unitaire Xp divise tous les polynômes annulateurs de u : on dit que Xp est le polynôme minimal de u. De la même façon où px est l'indice du vecteur x, est le plus petit polynôme unitaire au sens de la divisibilité qui, appliqué à u, annule x, c'est-à-dire le polynôme minimal de x. Cela a pour conséquence immédiate qu'aucun polynôme de u non nul de degré strictement inférieur à px n'annule x, ce qui se traduit sur l'espace vectoriel par :

Si x est un vecteur d'indice px alors la famille est une famille libre.

Il existe toujours un vecteur dont l'indice est celui de l'endomorphisme.

En effet le polynôme minimal d'un vecteur divise le polynôme minimal de l'endomorphisme, donc est un Xk, pour k ≤ p, et si aucun n'était de degré p, Xp − 1 annulerait u.

L'indice d'un endomorphisme nilpotent est toujours inférieur ou égal à la dimension de l'espace.

Cette proposition est une conséquence directe des deux résultats précédents.

Il existe une suite (Ei) de sous-espaces vectoriels stables par u, non réduit au vecteur nul, qui engendre par somme directe l'espace tout entier, et tel que, pour tout i, il existe un vecteur xi non nuls d'indice pi pour lequel la famille

forme une base de Ei.

À noter que pi > 0, et que les indices pi=1 sont ceux de vecteurs du noyau de u. Démontrons ce résultat par récurrence sur p l'indice de l'endomorphisme.

Si p est égal à 1. L'endomorphisme est nul et le résultat est trivial.

Supposons le résultat vrai pour k et démontrons le pour k+1. Soit u un endomorphisme d'indice k+1. Considérons alors la restriction de u à u(E). C'est un endomorphisme nilpotent d'indice k. Par hypothèse de récurrence, il existe une suite (Fi) de sous-espaces vectoriels stables par u, non réduit au vecteur nul, qui engendre par somme directe l'espace u(E), et tel que, pour tout i, il

Page 43: Polynôme d

existe un vecteur u(xi) non nuls d'indice ki pour lequel la famille est une base de Ei.

Montrons alors que la suite forme une famille libre de E que nous noterons . Pour cela, considérons une combinaison linéaire nulle de cette famille :

Si nous appliquons l'endomorphisme u à cette égalité, en retranchant tous les termes nuls de la

forme on obtient:

Cette combinaison linéaire est la combinaison linéaire d'une base de u(E), on en déduit la nullité de tous les coefficients αij pour j différent de ki. En supprimant tous ces termes dans l'égalité (1), on obtient :

C'est une combinaison linéaire nulle d'éléments d'une base de u(E) (ki ≥ 1), les coefficients sont donc aussi nuls. Toute combinaison linéaire vérifiant (1) ne possède donc que des coefficients nuls, ce qui montre que la famille est libre.

E est la somme de l'espace engendré par et du noyau de u. En effet, par construction de la

famille , son image engendre u(E), et donc tout vecteur de E a même image qu'une combinaison linéaire de cette famille, et la différence entre les deux vecteurs est donc dans le noyau de u.

Quand la famille n'est pas génératrice de E, on peut donc la compléter par des vecteurs du noyau, chacun d'indice 1, ce qui termine la preuve.

La restriction de u à Ei est de noyau non réduit au vecteur nul et possède une unique valeur propre 0. Cette propriété reste vraie pour l'endomorphisme lui-même.

La restriction de u à Ei est un endomorphisme nilpotent, son polynôme minimal est une puissance de X, la seule valeur propre est 0 et comme 0 est valeur propre, le noyau est non nul. Ce raisonnement s'applique aussi à u sur l'espace vectoriel entier, ce qui démontre la fin de la proposition.

Un endomorphisme est nilpotent si et seulement si son polynôme caractéristique est égal à ( − X)n ou n est la dimension de l'espace.

La seule valeur propre est 0, donc sur sa clôture algébrique, le polynôme caractéristique est scindé et possède pour racine uniquement 0. Ce polynôme est donc une puissance de X, et de degré n. Son signe provient du signe du monôme de plus haut degré de tous les polynômes caractéristiques.

Page 44: Polynôme d

Applications en mathématiques [modifier]

Matrice nilpotente [modifier]

Les résultats théoriques obtenus à l'aide de l'analyse des endomorphismes nilpotents ont des conséquences importantes sur les matrices nilpotentes. Ces résultats sont traités dans l'article Matrice nilpotente.

Réduction des endomorphismes [modifier]

Dans le cas où le corps est algébriquement clos et en dimension finie, les endomorphismes nilpotents jouent un rôle particulier dans la problématique de la réduction des endomorphismes. Le cas général, celui où toutes les racines du polynôme minimal sont simples, correspond aux endomorphismes diagonalisables. Ce cas génère un ensemble d'endomorphismes partout dense. En revanche, en cas de racine multiple, alors il existe une composante nilpotente.

Cette décomposition joue un rôle important dans les calculs que l'on observe dans l'univers des matrices. Elle permet par exemple de prouver que toute matrice est trigonalisable et offre une forme particulièrement simple en bloc de Jordan.

De nombreux algorithmes relèvent directement de cette décomposition. Elle permet d'accélérer massivement la résolution d'un système d'équations linéaires.

Équation différentielle linéaire [modifier]

La réduction de Jordan joue un rôle particulier pour les équations différentielles linéaires. Par exemple, dans le cas où les coefficients sont constants, alors le calcul de l'exponentielle d'une matrice dans le cas général est largement plus simple dans le cas d'une représentation matricielle réduite par la méthode de Jordan. Il est alors important de pouvoir calculer l'exponentielle d'une matrice nilpotente. Ce cas est exposé dans l'article Matrice nilpotente.

Groupes de Lie [modifier]

Dans l'étude des groupes de Lie, on s'intéresse parfois à ce que l'on appelle groupes de Lie nilpotents. Comme pour tout groupe de Lie, leur structure est décrite par leur fibré tangent, qui est muni d'une structure d'algèbre de Lie. Les représentations de ces algèbres dans les endomorphismes s'obtiennent à partir d'endomorphismes nilpotents.

Réduction de JordanUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercherPour les articles homonymes, voir Jordan.

La réduction de Jordan est la traduction matricielle de la réduction des endomorphismes introduite par Jordan. Cette réduction est tellement employée, en particulier en analyse pour la résolution d'équations différentielles ou pour déterminer le terme général de suites récurrentes, qu'on la nomme parfois « jordanisation des endomorphismes ».

Page 45: Polynôme d

Elle consiste à exprimer la matrice d'un endomorphisme dans une base où l'expression de l'endomorphisme est réduite dite base de Jordan. La réduction consiste à déterminer une décomposition de Dunford c'est-à-dire trouver un endomorphisme diagonalisable et un endomorphisme nilpotent tel que les deux commutent et que leur somme soit égale à l'endomorphisme initial, puis sur chaque espace caractéristique une réduction de Jordan sur le facteur l'endomorphisme nilpotent.

Sommaire

[masquer] 1 Construction de la base de Jordan 2 Blocs de Jordan 3 Jordanisation d'un endomorphisme dans un corps algébriquement clos

o 3.1 Propriétés des blocs o 3.2 Application aux classes de similitude des matrices

4 Exemples de réduction de Jordan o 4.1 Exemple 1 o 4.2 Exemple 2 o 4.3 Groupe simple d'ordre 168

5 Réduction de Jordan et systèmes différentiels

6 Voir aussi

Construction de la base de Jordan [modifier]

Soit u un endomorphisme sur un espace vectoriel E tel que son polynôme minimal soit scindé. Il possède alors les propriétés suivantes:

E est la somme directe des espaces caractéristiques de u. Ils sont notés ici Ei et les valeurs propres associés λi.

La restriction de u à Ei est la somme d'une homothétie de rapport λi et d'un endomorphisme nilpotent noté ni.

Ces résultats sont démontrés dans l'article décomposition de Dunford.

Il existe une base Eij de Ei tel que où

est égal soit à 0 soit à 1 et .

Ce résultat est démontré dans l'article Endomorphisme nilpotent.

Blocs de Jordan [modifier]

Page 46: Polynôme d

On appelle bloc de Jordan une matrice de la forme

On appelle bloc de Jordan nilpotent une telle matrice où les coefficients diagonaux sont tous

nuls, c'est-à-dire de la forme

Jordanisation d'un endomorphisme dans un corps algébriquement clos [modifier]

On considère un endomorphisme dans un espace vectoriel de dimension finie, de polynôme caractéristique scindé. Le théorème de Jordan nous informe qu'il admet une représentation matricielle de la forme suivante

où les scalaires λi sont les valeurs propres de l'endomorphisme considéré.

Ainsi sur un corps algébriquement clos, et par exemple dans , tout endomorphisme admet une décomposition de ce type.

Attention : il n'y a pas a priori un bloc de Jordan pour chaque valeur propre, plusieurs λi peuvent avoir la même valeur.

Propriétés des blocs [modifier]

Prenons un endomorphisme u admettant une telle représentation. On étudie une valeur propre particulière λ de l'endomorphisme u. On regroupe ensemble les vecteurs associés aux blocs . Ils forment l'espace caractéristique associé à la valeur propre λ. C'est un espace stable sur lequel u − λId induit un endomorphisme nilpotent nλ.

Page 47: Polynôme d

La multiplicité de λ (multiplicité dans le polynôme caractéristique) est égale à la dimension de l'espace caractéristique.

La multiplicité de λ dans le polynôme minimal est égal à l'indice de nilpotence de l'endomorphisme nλ.

Application aux classes de similitude des matrices [modifier]

On se place sur un corps algébriquement clos. Deux matrices sont semblables si et seulement si elles ont la même écriture en blocs de Jordan, à l'ordre près des blocs.

Exemples de réduction de Jordan [modifier]

Examinons les méthodes de détermination des matrices de passage par deux exemples.

Exemple 1 [modifier]

Déterminons la matrice de passage pour l'exemple suivant:

Recherchons les espaces caractéristiques, c’est-à-dire vecteurs x solutions de

Qui nous permettront de déterminer la suite de vecteurs dont les éléments forment les colonnes de la matrice de passage.

Remarquons alors que 5 est valeur propre et que le premier vecteur de la base de définition de la matrice possède pour polynôme minimal associé (X-5)4. Son espace caractéristique est donc l'espace entier. Si nous notons v ce vecteur alors, la famille composée des éléments (A − 5I)3(v), (A − 5I)2(v), (A − 5I)(v) et v forme une base de Jordan.

Nous avons déterminé la matrice de passage:

Page 48: Polynôme d

Et la matrice de Jordan est la suivante:

Exemple 2 [modifier]

Considérons l'exemple suivant

Les valeurs propres de B sont 4, 4, 2 et 1. De plus, on remarque que:

Nous en déduisons que l'espace vectoriel se décompose en somme directe suivante:

Nous remarquons que le vecteur colonne (0,0,−1,1)T a pour image par la matrice (-1,0,1,-1)T. Ces deux vecteurs colonnes engendrent l'espace caractéristique de valeur propre 4.

On en déduit

Nous en déduisons la matrice de passage et la forme de Jordan:

Page 49: Polynôme d

et

Groupe simple d'ordre 168 [modifier]

Article détaillé : groupe simple d'ordre 168.

Il existe, à un isomorphisme près, un unique groupe simple d'ordre 168. Il peut être vu comme le groupe linéaire d'un espace vectoriel de dimension 3 sur le corps fini à deux éléments. La réduction de Jordan est une méthode pour déterminer la structure de ce groupe.

Réduction de Jordan et systèmes différentiels [modifier]

Un système d'équations différentielles linéaires en y peut se réduire à une équation différentielle matricielle d'ordre 1 : u'(t) = Au(t) et la condition initiale u(0) = u0, où u(t) est un vecteur colonne contenant les dériviées successives de y. La résolution est alors explicite lorsque le système d'équations différentielles est à coefficients constants : u(t) = exp(tA)u0. L'avantage de la forme normale de Jordan réside dans la facilité de calculs des matrices des blocs de Jordan. En effet, l'exponentielle d'un bloc de Jordan nilpotent de taille p est

On voit de cette manière l'intérêt calculatoire de cette méthode.

Forme linéaireUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercherPour les articles homonymes, voir Forme.

Page 50: Polynôme d

Cet article est une ébauche concernant l'algèbre.Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

En algèbre linéaire, les formes linéaires désignent un type particulier d'applications linéaires. L'étude spécifique qu'on leur accorde est motivée par le fait qu'elles jouent un rôle primordial en mathématiques, et en analyse, par exemple dans la théorie des distributions, ou dans l'étude des espaces de Hilbert.

Les formes linéaires sur un espace vectoriel portent parfois également le nom de covecteur. Ce terme qui prend sens dans le cadre général des tenseurs et du calcul tensoriel rappelle que si les formes linéaires peuvent être représentées par un système de coordonnées comparable à celui des vecteurs, elles s'en distinguent pour ce qui est des formules de transformations.

Sommaire

[masquer] 1 Définition

o 1.1 Espace dual o 1.2 Représentations matricielles o 1.3 Exemples

2 Base duales et antéduales 3 Propriétés algébriques 4 Formes linéaires continues 5 Formes linéaires continues sur un espace de Hilbert 6 Référence

7 Voir aussi

Définition [modifier]

Une forme linéaire sur un espace vectoriel E sur un corps K (ou covecteur de E) est une application linéaire définie sur E et à valeurs dans K.

En d'autres termes, on dit que l'application de E dans K est une forme linéaire si :

Espace dual [modifier]

L'ensemble des formes linéaires sur E est lui-même un K-espace vectoriel. On l'appelle le dual de E et il est noté E * ou hom(E,K). Ainsi, si φ et ψ sont des formes linéaires et a et b des éléments de K :

L'application constante de valeur 0K s'appelle la « forme linéaire nulle ».

On note parfois (où ) pour φ(x). Cette notation est appelée crochet de dualité.

Page 51: Polynôme d

Représentations matricielles [modifier]

Une base de E étant donnée, les composantes d'un vecteur sont ordonnées sous forme de vecteur colonne :

Au contraire, une forme linéaire ou covecteur est représentée par un vecteur ligne à n composantes :

Le crochet de dualité est le produit matriciel

Selon la convention d'Einstein, ce résultat peut se noter et est un scalaire (en réalité une matrice (1,1)).

Exemples [modifier]

L'application

est une forme linéaire sur Si L1(Ω) est le -espace vectoriel des fonctions à valeurs complexes qui sont intégrables

sur l'espace mesuré Ω, alors l'intégrale est une forme linéaire sur L1(Ω). Cela signifie que

Base duales et antéduales [modifier]

L'ensemble des formes linéaires sur un espace vectoriel E est lui même un espace vectoriel et se note en général E * .Il est appelé espace vectoriel dual de E, ou plus simplement espace dual de E. Si E est de dimension finie n, il est remarquable que E * soit aussi de dimension finie n. En d'autres termes, on peut aussi dire qu'un espace de dimension finie est isomorphe à son dual.

Page 52: Polynôme d

Cependant, il n'y a pas d'isomorphisme canonique dans le sens où si E est quelconque, il est nécessaire de se donner une base arbitraire afin de pouvoir définir un isomorphisme le reliant à E *

. Si une base de E, on définit sur celle-ci les formes linéaires notées par :

(où δij est le symbole de Kronecker, c'est-à-dire valant 1 si i = j et 0 sinon).

Ces formes linéaires sont aussi appelées les projections des coordonnées, l'image d'un vecteur x

par n'est autre que la i-ème coordonnée du vecteur x dans la base . Le résultat

important est que la famille de formes linéaires forme une base de E * ; on appelle

aussi cette base la base duale de la base .

Inversement, si on se donne une base de E * , il existe une unique base

de E telle que:

La base s'appelle la base antéduale de la base .

Propriétés algébriques [modifier]

Si est une forme linéaire non nulle, alors elle est surjective. On a donc .

Si est une forme linéaire non nulle, alors son noyau est un hyperplan de E.

Réciproquement, si H est un hyperplan de E, il existe une forme linéaire telle que

 ; cette forme linéaire (nécessairement non nulle) est unique, à un coefficient multiplicatif non nul près.

Enfin, une propriété importante est que deux formes linéaires ont le même noyau si et seulement si elles sont proportionnelles.

Formes linéaires continues [modifier]

Si on considère un espace vectoriel normé E sur le corps ou , alors on sait définir la notion de continuité de n'importe quelle application linéaire et en particulier, on dispose d'une notion de continuité pour les formes linéaires.

Si E est un espace vectoriel normé et est une forme linéaire continue alors elle est uniformément continue.

Formes linéaires continues sur un espace de Hilbert [modifier]

On suppose désormais que E est un espace de Hilbert sur le corps et on note le produit scalaire sur cet espace vectoriel.

Page 53: Polynôme d

On démontre grâce au théorème de représentation de Riesz que les formes linéaires continues sur E s'expriment alors toutes d'une manière simple en fonction du produit scalaire et plus précisément :

Espace dualUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En mathématiques, l'espace dual d'un espace vectoriel E est l'ensemble des formes linéaires sur E.

La structure d'un espace et celle de son dual sont très liées. La fin de cet article présente quelques résultats sur les liens entre espace dual et hyperplans, ce qui permet une compréhension « géométrique » de certaines propriétés des formes linéaires.

Le dual topologique est une variante très considérée en analyse fonctionnelle, lorsque l'espace vectoriel est muni d'une structure additionnelle d'espace vectoriel topologique.

Sommaire

[masquer] 1 Définitions

o 1.1 Exemples 1.1.1 Cas d'un espace préhilbertien

2 Dualité en dimension finie o 2.1 Exemple

3 Orthogonal 4 Représentation des sous-espaces

5 Voir aussi

Définitions [modifier]

Article détaillé : Forme linéaire.

Soient un corps, E un K-espace vectoriel

On appelle forme linéaire sur E toute application linéaire de E vers K, c'est-à-dire toute

application telle que

L'ensemble des formes linéaires sur E est un K-espace vectoriel, dit espace dual de E ; il est noté E * .

Page 54: Polynôme d

Si φ est un élément de E * et x un élément de E, on écrit parfois pour φ(x). Cette notation est dite crochet de dualité.

Exemples [modifier]

Cas d'un espace préhilbertien [modifier]

Si l'espace vectoriel E est un espace préhilbertien, c'est-à-dire muni d'un produit scalaire , on a un moyen naturel de « plonger » E dans E * , c'est-à-dire d'associer à chaque élément de E un élément du dual, et ce de manière à former un isomorphisme entre E et un sous-espace de E *  : à

chaque élément x de E on associe la forme linéaire . Alors

l'application est une application linéaire injective, donc l'espace E est isomorphe au sous-espace f(E) de E * .

Dualité en dimension finie [modifier]

Si l'espace E est de dimension finie n, alors l'espace dual E * , isomorphe à E, est lui aussi de dimension n. On peut raffiner ce résultat.

Théorème de la base duale — Soit une base de E. Alors la famille de vecteurs de E * définie par

(où xi est la coordonnée de x correspondant au vecteur ei) définit une base de E * , appelée base duale. Et par construction, on a

dimE = dimE * .

En dimension finie, un espace a donc la même dimension que son espace dual. Remarquons que d'après le Théorème de Erdös-Kaplansky, ceci est faux pour tout espace vectoriel de dimension infinie

Exemple [modifier]

Les polynômes de Lagrange associés à des scalaires (voir Interpolation lagrangienne) s'ils sont tous distincts deux à deux forment une base de l'ensemble des polynômes

dont la base duale est formée des fonctions d'évaluations .

Orthogonal [modifier]

Ici, E est un espace vectoriel quelconque (on ne suppose pas de dimension finie).

Si A est un sous-espace de E, on définit l'orthogonal de A dans E * par :

Page 55: Polynôme d

Si B est un sous-espace de E * , on définit l'orthogonal de B dans E par :

Il ne faut pas confondre la notion d'orthogonal d'un sous-espace dans la théorie de dualité avec l'orthogonalité dans la théorie des espaces euclidiens.

Représentation des sous-espaces [modifier]

Ce paragraphe présente une application très importante de l'étude de l'espace dual : la représentation d'un sous-espace comme intersection d'hyperplans. On se restreint ici au cas d'un espace vectoriel de dimension finie.

Soit E un K-espace vectoriel de dimension finie n.

Soit F un sous-espace de dimension p (distinct de E) ; on a donc p < n.

Alors, il existe q = n − p formes linéaires indépendantes telles que

c'est-à-dire

Ce théorème généralise les résultats élémentaires connus en dimension 2 ou 3 sur la représentation de droite ou de plan par des équations. En particulier, dans un espace vectoriel de dimension 3, l'intersection de 2 plans indépendants est une droite.

Nota : il ne faut pas confondre la notion de droite ou de plan dans un espace affine (qui correspond à l'intuition géométrique) et celle, utilisée ici, de droite vectorielle ou de plan vectoriel. On appelle droite vectorielle un sous-espace de dimension 1, et plan vectoriel un sous-espace de dimension 2.

On peut donc représenter un sous-espace F de dimension p par q équations linéaires indépendantes, où

q = dimE − p.

HyperplanUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

Page 56: Polynôme d

En mathématiques, et plus particulièrement en algèbre linéaire, les hyperplans sont des sous-espaces vectoriels particuliers.

Sommaire

[masquer] 1 Définition 2 Caractérisation 3 Lien avec les formes linéaires 4 Exemples

5 Représentation des sous-espaces

Définition [modifier]

Soit E un -espace vectoriel et H un sous-espace vectoriel de E.

On dit que H est un hyperplan de E si H est de codimension 1.

Remarques :

Dans un espace de dimension finie n, les hyperplans sont donc les sous-espaces vectoriels de dimension n-1.

Dans , la notion d'hyperplan est confondue avec celle de plan, mais ce n'est plus vrai quand la dimension de l'espace est supérieure à 3.

Caractérisation [modifier]

On montre l'équivalence des propriétés suivantes :

H est un hyperplan Il existe une droite D telle que

Lien avec les formes linéaires [modifier]

On montre que les hyperplans sont exactement les noyaux des formes linéaires non nulles.

C'est-à-dire : H est un hyperplan de E

[Enrouler] Démonstration

Soit H un hyperplan de E. On cherche à construire une forme linéaire non nulle dont H est le noyau.

Page 57: Polynôme d

H est un hyperplan donc par définition il admet un supplémentaire dans E de dimension égale à 1.

C'est donc une droite vectorielle engendrée par un (xo ne peut être nul car il n'appartient pas à H qui contient 0). On a donc

Tout vecteur x de E se décompose donc de la façon suivante:

Posons une application qui a tout vecteur de E associe le scalaire associé à xo

dans sa décomposition suivant . Montrons alors que est linéaire: On prend deux vecteurs x et y quelconque de E qui se décomposent comme ci-dessus:

En prenant un scalaire quelconque on obtient:

Ce qui montre que est linéaire, de plus son ensemble d'arrivée est K, c'est donc bien une forme linéaire. De plus elle n'est pas nulle (par exemple xo a pour image 1).

Prenons un . Par décomposition xH = xH + 0xo donc et donc

. On a donc .

Réciproquement, soit . Alors ce vecteur n'est pas engendré par xo et donc appartient à

H. On a donc et donc par double inclusion .

H est donc le noyau d'une forme linéaire non nulle.

Réciproquement, soit une forme linéaire non nulle et H son noyau. Montrons que H est un hyperplan de E. Pour cela, on va montrer que H admet un supplémentaire de dimension 1.

est non-nulle, il existe donc un vecteur xo de E non-nul tel que . Montrons alors

que . Soit x dans E. Comme , on peut écrire la tautologie suivante:

Page 58: Polynôme d

Il est clair que car est bien dans K.

D'autre part:

Donc . Autrement dit, tout vecteur de E se décompose en somme d'un élément de la droite vectorielle engendrée par xo et d'un élément du noyau H, ie E = H + xoK. Montrons maintenant que cette somme est directe.

Soit . On peut donc écrire x = λxo avec . Et donc .

Mais comme x est dans H on a également . C'est-à-dire λ = 0 (car ) et

donc x=0. D'où et la somme est directe.

Par conséquent, soit, par définition:

H est un hyperplan de E.

Interprétation de ce résultat dans le -espace vectoriel  :

Toutes les formes linéaires sur peuvent s'écrire sous la forme suivante :

avec fixé. Le résultat

précédent nous indique que tout hyperplan de peut s'écrire comme le noyau d'une forme

linéaire. Autrement dit

Ce lien entre hyperplan et noyau d'une forme linéaire exprime en fait la notion d'équation d'un hyperplan, donc ici d'un plan (vectoriel).

Exemples [modifier]

Page 59: Polynôme d

Dans l'espace vectoriel des matrices carrées d'ordre n à coefficients dans

. L'ensemble des matrices de trace nulle est un hyperplan de E.

Dans l'espace vectoriel des polynômes à une indéterminée. L'ensemble des

polynômes divisibles par X: est un hyperplan de E.

Pour ces deux exemples, la démonstration est immédiate en utilisant le résultat sur les formes linéaires: le noyau d'une forme linéaire non nulle est un hyperplan.

Représentation des sous-espaces [modifier]

Soit F un sous-espace vectoriel de dimension finie.

On peut représenter ce sous-espace comme une intersection finie d'hyperplans indépendants. Ce théorème est détaillé dans l'article espace dual.

Somme directeUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En algèbre, le terme de somme directe s’applique à plusieurs situations différentes

Sommaire

[masquer] 1 Somme directe de sous-espaces vectoriels

o 1.1 Somme directe de deux sous-espaces vectoriels o 1.2 Somme directe de plusieurs sous-espaces vectoriels

1.2.1 Somme directe orthogonale 2 Somme directe externe et produit cartésien

o 2.1 Somme directe externe de deux K-espaces vectoriels o 2.2 Somme directe externe de plusieurs K-espaces vectoriels

2.2.1 Remarque à propos d'autres structures algébriques 3 Propriété universelle de la somme directe

4 Voir aussi

Somme directe de sous-espaces vectoriels [modifier]

Somme directe de deux sous-espaces vectoriels [modifier]

Article détaillé: Sous-espaces supplémentaires

Page 60: Polynôme d

Soient F1 et F2 deux sous-espaces vectoriels de l’espace vectoriel E. On dit que F1 et F2 sont en somme directe si et seulement si pour tout élément u de F1 + F2, il existe un unique couple

de tel que u = u1 + u2.

On dit aussi dans ce cas que la somme F1 + F2 est directe.

En d'autres termes, la somme de deux sous-espaces vectoriels F1 et F2 est directe si la décomposition de tout élément de F1 + F2 en somme d'un élément de F1 et d'un élément de F2 est unique.

La somme sera alors notée : .

On dispose des caractérisations usuelles suivantes :

F1 et F2 sont en somme directe si et seulement si, pour tout u1 de F1 et u2 de F2,

F1 et F2 sont en somme directe si et seulement si

Cas de la dimension finie : lorsque F1 et F2 sont de dimensions finies, les assertions suivantes sont équivalentes :

1. La somme F1 + F2 est directe.

2. .3. En juxtaposant ("réunissant") une base de F1 et une base de F2, on constitue une base de F1

+ F2.

Sous-espaces supplémentaires : deux sous-espaces F1 et F2 de E sont dits supplémentaires

lorsque . Cela signifie que pour tout élément u de E, il existe un unique couple

de tel que .

Somme directe de plusieurs sous-espaces vectoriels [modifier]

On peut généraliser la notion de somme directe à une famille finie de sous-espaces vectoriels de E.

On dit qu'une famille de sous-espaces vectoriels de E est en somme directe si et

seulement si, pour tout élément u de la somme , il existe un k-uplet unique

de tel que .

On dit aussi dans ce cas que la somme F des sous-espaces est directe.

Page 61: Polynôme d

En d'autres termes, la somme est directe si la décomposition de tout élément de en somme d'éléments des est unique.

Pour désigner une somme directe, on se sert des notations ou .

Comme dans le cas de 2 sous-espaces vectoriels, on peut caractériser les sommes directes par l'unicité de la décomposition du vecteur nul :

La somme est directe si et seulement si :

l'unique k-uplet de tel que est celui dont tous les éléments sont nuls.

Remarque : dès que la famille comprend au moins 3 sous-espaces, il ne suffit pas pour que la

somme soit directe que leurs intersections deux à deux soient réduites à , c'est-à-dire que :

pour tout i et pour tout j, i différent de j.

On s’en convaincra en regardant dans les sous-espaces vectoriels :

.

Leurs intersections deux à deux sont réduites à {(0 ; 0)}, mais leur somme

(égale à ) n'est pas directe.

En effet, les 3 vecteurs appartiennent

respectivement à  ; ils sont non nuls, et tels que : la décomposition du vecteur nul n'est pas unique.

En revanche, on montre que les sous-espaces de la famille des sont en somme directe dans si et seulement si :

Page 62: Polynôme d

Lorsque les sous-espaces vectoriels sont de dimensions finies, on a encore l'équivalence des assertions suivantes :

1. Les sont en somme directe.

2. .

3. En juxtaposant une base de , ... , une base de , on constitue une base de la somme.

Exemple : soient E un espace vectoriel sur K de dimension finie, et f un endomorphisme de E

ayant exactement p valeurs propres (distinctes) appelées . On désigne par l'endomorphisme identique de E.

Pour tout entier i tel que 1 ≤ i ≤ p, est le sous-espace propre de f associé à la valeur propre .Les deux propriétés suivantes sont classiques :

La somme est directe.

si et seulement si f est diagonalisable.

Lorsque c'est le cas, on constitue une base de E diagonalisant f en juxtaposant une base

de , ... , une base de .

Somme directe orthogonale [modifier]

On désigne ici par E un espace préhilbertien réel ou complexe (espace vectoriel réel ou complexe

muni d'un produit scalaire). Soit une famille de sous-espaces vectoriels de E. S'ils sont deux à deux orthogonaux, leur somme est directe. Elle est alors appelée somme directe orthogonale.

Un exemple très simple est l'espace constitué des vecteurs orthogonaux à tous les vecteurs

d'un sous-espace vectoriel F : il est en somme directe avec F. L'égalité n'est pas toujours vérifiée lorsque la dimension est infinie. Par contre, elle l'est dès que E est de dimension finie.

Deux espaces qui sont à la fois supplémentaires et orthogonaux sont dits supplémentaires orthogonaux. Un sous-espace vectoriel F de E, même s'il a des supplémentaires, n'en a pas nécessairement un qui lui soit orthogonal. Des conditions suffisantes sont que l'espace E soit de

Page 63: Polynôme d

dimension finie ou que l'espace F soit fermé (preuve). Cette question est liée à la possibilité d'effectuer une projection orthogonale.

Lorsque les sous-espaces vectoriels sont de dimensions finies, on a l'équivalence des assertions suivantes :

1. Les sont en somme directe orthogonale.

2. En juxtaposant une base orthogonale de , ... , une base orthogonale de , on constitue une base orthogonale de la somme.

Somme directe externe et produit cartésien [modifier]

Lorsque deux sous-espaces F1, F2 d'un espace vectoriel E sont en somme directe, l'application suivante est bijective :

Il existe dans ce cas une unique structure d'espace vectoriel sur le produit cartésien telle que cette application soit un isomorphisme d'espaces vectoriels ; la loi interne et la loi externe sont définies respectivement par les relations :

et ,où u1, v1 sont dans F1, u2, v2 sont dans F2, et α est dans K.

Ceci incite, si E1 et E2 sont deux espaces vectoriels quelconques sur le même corps K, à définir leur somme directe, dite alors externe.

Somme directe externe de deux K-espaces vectoriels [modifier]

La somme directe externe de deux K-espaces vectoriels E1 et E2 est le produit cartésien

sur lequel on définit

une addition :

une multiplication externe par les éléments de K :

(où )

Muni de ces deux lois de composition, l'ensemble est un espace vectoriel sur K.

Dès lors, et sont deux sous-espaces de , respectivement isomorphes à E1 et E2 (on a "plongé" E1, E2 dans le produit cartésien) ; la relation

justifie l'appellation de somme directe externe.

Lorsque E1 et E2 sont de dimensions finies, il en est de même de leur somme directe externe, et :

Page 64: Polynôme d

(car est somme directe des deux sous-espaces et , qui ont même

dimension que , respectivement).

Somme directe externe de plusieurs K-espaces vectoriels [modifier]

On définit de même la somme directe externe de k espaces vectoriels

sur le même corps K.

Lorsque sont de dimensions finies, il en est de même de leur somme directe externe, et :

.

Remarque à propos d'autres structures algébriques [modifier]

On définit de manière analogue la somme directe externe d'un nombre fini de groupes additifs, ou d'anneaux, ou de A-modules sur le même anneau A.

Par exemple, si A1 et A2 sont deux anneaux, on définit sur deux lois de composition interne :

une addition :

une multiplication :

Muni de ces deux lois de composition, l'ensemble est un anneau. Même si A1 et A2 sont intègres, leur produit cartésien ne l'est pas : a1, a2 étant deux éléments non nuls de A1, A2

respectivement, on a : .

Propriété universelle de la somme directe [modifier]

Soit A un anneau ; soit une famille de A-modules, N un A-module ; soit

une famille d'applications linéaires.

Alors il existe une unique application A-linéaire telle que : ,

avec l'injection canonique.

Page 65: Polynôme d

[Enrouler] Démonstrations

Par analyse synthèse :

Supposons qu'un tel φ existe. Soit  ; on a :

avec δik symbole de Kronecker ; on a :

et, pour , φ((xn + xm) = φ((xn,0) + (0,xm)) = fn(xn) + fm(xm) par A-linéarité, donc

ce qui assure l'unicité de φ

Posons donc  ; les fi étant linéaires, φ est linéaire.

Soit , on a :  ;

ainsi nous avons bien , donc φ existe bien.

Forme quadratiqueUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En mathématiques, une forme quadratique est un polynôme homogène de degré deux avec un nombre quelconque de variables. Par exemple, la distance comprise entre deux points dans un espace euclidien à trois dimensions s'obtient en calculant la racine carrée d'une forme quadratique impliquant six variables qui sont les trois coordonnées de chacun des deux points.

Les formes quadratiques d'une, deux et trois variables sont données par les formules suivantes :

Page 66: Polynôme d

L'archétype de forme quadratique est la forme sur qui définit la structure euclidienne. C'est pourquoi la théorie des formes quadratiques utilise la terminologie de la géométrie (orthogonalité). La géométrie est un bon guide pour aborder cette théorie, malgré quelques pièges.

Les formes quadratiques interviennent dans de nombreux domaines des mathématiques :

La classification des coniques et plus généralement des quadriques projectives équivaut essentiellement à celle des formes quadratiques sur l'espace vectoriel correspondant.

Si est une fonction , la partie d'ordre 2 de son développement de Taylor, disons en 0, définit une forme quadratique.

Si 0 est un point critique, cette forme, dans le cas où elle est non dégénérée, permet de décider si on a affaire à un maximum local, à un minimum local ou à un point selle.

Les formes quadratiques interviennent en Mécanique du solide (ellipsoïde d'inertie) et en Statistique (analyse en composantes principales).

Les formes quadratiques interviennent pour la résolution d'équations diophantiennes, Joseph-Louis Lagrange les utilise pour la démonstration du théorème des deux carrés de Fermat.

Sommaire

[masquer] 1 Formes quadratiques sur un espace vectoriel

o 1.1 Expression matricielle o 1.2 Rang o 1.3 Sous-espaces orthogonaux o 1.4 Discriminant o 1.5 Le problème de classification

2 Cas de corps de caractéristique deux 3 Généralisations 4 Liens internes

5 Références

Formes quadratiques sur un espace vectoriel [modifier]

Soit un espace vectoriel V sur un corps F. Pour l'instant, nous supposons que F possède une caractéristique différente de 2. C'est le cas, en particulier, pour les corps réels et complexes qui sont de caractéristique 0. Le cas où la caractéristique vaut 2 sera traité séparément.

Une application Q : est appelée forme quadratique sur V s'il existe une forme bilinéaire symétrique B : telle que

Page 67: Polynôme d

B est appelée la forme bilinéaire associée. Si sont des vecteurs de V,

donc nous pouvons retrouver la forme bilinéaire B à partir de Q :

C'est un exemple de polarisation d'une forme algébrique. Il existe alors une correspondance bijective entre les formes quadratiques sur V et les formes bilinéaires symétriques sur V. À partir d'une forme donnée, nous pouvons définir de manière unique l'autre forme.

Quelques autres propriétés des formes quadratiques :

et Q obéit à la règle du parallélogramme :

Les vecteurs u et v sont orthogonaux par rapport à B ssi

Pour toute forme quadratique, il existe une base orthogonale, c'est-à-dire

une base telle que pour . C'est une conséquence immédiate de la réduction de Gauss.

Expression matricielle [modifier]

Si V est de dimension n, et si est une base de V, on associe à B la matrice

symétrique B définie par p. La forme quadratique Q est alors donnée par

où les sont les coordonnées de u dans cette base, et u la matrice colonne formée par ces coordonnées. On dit que B est la matrice de Q par rapport à la base.

Q(u) est un polynôme homogène de degré deux par rapport aux coordonnées de u, conformément à notre définition de départ.

Soit une autre base de V, et soit la matrice de passage exprimant les anciennes coordonnées en fonction des nouvelles. De la relation on tire pour la matrice de B dans la nouvelle base. On dit que B et B' sont congruentes.

Rang [modifier]

Page 68: Polynôme d

Le noyau d'une forme quadratique Q ( on dit aussi radical) est par définition le sous-espace vectoriel

Cet espace est le noyau de l'application linéaire de V dans l'espace dual V* qui associe à x la

forme linéaire Une forme quadratique est dite non dégénérée si rad(Q)=0, autrement dit si l'application linéaire ci-dessus est un isomorphisme.

Le rang de Q est par définition dim V - dim(rad(Q)). C'est aussi le rang de la matrice de Q par rapport à une base quelconque.

Sous-espaces orthogonaux [modifier]

Si W est un sous-espace vectoriel de V, l'orthogonal de W est le sous-espace

Cette notion généralise l'orthogonalité dans les espaces euclidiens, mais il y a quelques

pièges. Par exemple sur , la forme quadratique est non dégénérée,

mais chacun des sous-espaces et est son propre orthogonal. Plus

généralement, si Q est non dégénérée, on a bien , comme

dans le cas euclidien. Mais l'intersection n'est pas forcément réduite à zéro.

Discriminant [modifier]

Soit q une forme quadratique et A sa matrice par rapport à une base de V. Si l'on effectue un

changement de base de matrice Q, la matrice de q dans la nouvelle base sera .

D'après les propriétés élémentaires des déterminants, . Si q est

non dégénérée, l'image du déterminant dans le groupe quotient ne dépend pas de la base. C'est cet élément que l'on appelle le discriminant de la forme quadratique. Si q est dégénérée, on convient que le discriminant est nul.

Exemples

Corps des complexes

Si , le quotient est réduit à l'élément neutre, et le discriminant est sans intérêt.

Corps des réels

Si , le quotient s'identifie à , vu comme sous-groupe multiplicatif de . On peut donc parler de formes quadratiques à discriminant positif ou négatif. Par exemple, le discriminant de la forme quadratique ax2 + 2bxy + cy2 sur , supposée non

Page 69: Polynôme d

dégénérée, est donnée par le signe de . S'il est positif, la forme est définie positive ou définie négative, s'il est négatif, la réduction de Gauss sera de la forme

. On retrouve, ce qui n'est pas surprenant, la théorie de l'équation du second degré.

Corps finis

Si p est un nombre premier, et K le corps à p éléments, la théorie élémentaires des résidus

quadratiques assure que est encore isomorphe au groupe à deux éléments.

Le problème de classification [modifier]

On dira que deux formes quadratiques Q et Q' sont équivalentes s'il existe une application

linéaire inversible telle que . Il revient au même de dire que leur matrices dans une même base sont congruentes. Classer les formes quadratiques sur un espace vectoriel V c'est

déterminer les classes d'équivalence de la relation précédente (qui est clairement une relation d'équivalence)

déterminer les orbites de l'ensemble des formes quadratiques sous l'action du groupe linéaire

donnée par

(ce ne sont que deux façons d'exprimer la même chose).

On a les résultats suivants.

Si V est un espace vectoriel de dimension finie sur un corps F algébriquement clos

(de caractéristique ) deux formes quadratiques sont équivalentes si et seulement si elles ont même rang. C'est une conséquence directe de la réduction de Gauss

Si V est un espace vectoriel de dimension finie sur ,

deux formes quadratiques sont équivalentes si et seulement si elles ont même rang et même signature (loi d'inertie de Sylvester).

Deux formes quadratiques équivalentes ont même rang et même discriminant, mais l'inverse est loin d'être en général vrai.

Cas de corps de caractéristique deux [modifier]

La théorie des formes quadratiques de caractéristique deux possède une petite saveur différente, essentiellement parce que la division par 2 n'est pas possible. Il n'est plus vrai non plus que chaque forme quadratique est de la forme Q(u) = B(u,u) pour une forme bilinéaire symétrique B. En outre, même si B existe, elle n'est pas unique : puisque les formes alternées

Page 70: Polynôme d

sont aussi symétriques en caractéristique deux, on peut ajouter toute forme alternée à B et obtenir la même forme quadratique.

Une définition plus générale d'une forme quadratique qui marche pour toute caractéristique est la suivante. Une forme quadratique d'un espace vectoriel V sur un corps F est comme une application telle que

et , et

est une forme bilinéaire sur V.

Généralisations [modifier]

On peut généraliser la notion de forme quadratique à des modules sur un anneau commutatif. Les formes quadratiques entières sont importantes en théorie des nombres et topologie.

Réduction de GaussUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En mathématiques, la réduction de Gauss est un algorithme permettant de représenter toute forme quadratique sur un espace vectoriel de dimension finie (sur un corps commutatif de caractéristique différente de deux) comme une combinaison linéaire de carrés de formes linéaires indépendantes. La méthode employée est proche de la mise sous forme canonique d'une équation du second degré. Cet algorithme est nommé ainsi en l'honneur du mathématicien Carl Friedrich Gauss.

Sommaire

[masquer] 1 Enoncé 2 Exemples 3 Applications

4 Liens internes

Enoncé [modifier]

Réduction de Gauss — Pour toute forme quadratique sur un espace vectoriel de dimension finie, il existe un entier naturel non nul r, des formes linéaires indépendantes et des éléments du corps de base, tous non nuls, tels que

[Dérouler]

Page 71: Polynôme d

Démonstration

En langage matriciel, cela signifie que toute matrice symétrique est congruente à une matrice diagonale, c'est-à-dire que pour toute matrice symétrique M d'ordre n, il existe une matrice inversible Q telle que tQMQ soit diagonale (les coefficients diagonaux sont les complétés par des zéros si r < n).

L'entier r est le rang de la forme quadratique. C'est aussi le rang de n'importe quelle matrice représentant cette forme dans une base.

Contrairement aux valeurs propres, les ci ne sont pas uniques, même à permutation près.

Exemples [modifier]

Soit une forme quadratique sur l'espace vectoriel définie par

(On a désigné par un élément de )

Alors

.

Autre exemple :

On a alors

Applications [modifier]

Si le corps de base est le corps des nombres complexes ou plus généralement un corps algébriquement clos, il existe r formes linéaires indépendantes telles que

Autrement dit, sous l'action du groupe linéaire, les formes quadratiques sont classées par leur rang. En langage matriciel, deux matrices symétriques complexes sont congruentes si et seulement si elles sont même rang.

Si le corps de base est le corps des nombres réels, il faut prendre en compte le signe des ci. Il existe un entier s (inférieur ou égal à r) tel que

Page 72: Polynôme d

Cet entier ne dépend pas de la décomposition d'après la loi d'inertie de Sylvester.

Si s < = n et r = s, la forme quadratique est positive (définie positive si et seulement si r=n),

si r < = n et s = 0 elle est négative (définie négative si et seulement si r=n).

Si le corps de base est le corps des nombres rationnels ou un corps fini, la réduction de Gauss ne permet pas d'effectuer complètement la classification des formes quadratiques.

Elle donne un algorithme pour trouver une base dans laquelle la matrice de q est diagonale.

Loi d'inertie de SylvesterUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

La loi d'inertie de Sylvester est un théorème de classification des formes quadratiques sur un espace vectoriel réel de dimension finie.

Soit un espace vectoriel sur de dimension n, et une forme quadratique de rang r. Il existe

un entier et des formes linéaires indépendantes telles que

.

Cette écriture n'est pas unique, mais l'entier s n'en dépend pas. On l'appelle l'indice de .

Deux formes quadratiques sur sont équivalentes si et seulement si elles ont même rang et même indice.

Preuve.Le théorème de réduction de Gauss assure de l'existence de r des formes linéaires

indépendantes et de réels tous non nuls tels que . L'existence de la décomposition annoncée s'obtient en renumérotant les de façon à mettre en

premier ceux qui sont strictement négatifs, puis en remplaçant par .

Pour montrer que s ne dépend que de q, montrons que c'est le maximum des dimensions des sous-espaces sur lesquels q est définie négative. (On montrerait de même que r-s est le

Page 73: Polynôme d

maximum des dimensions des sous-espaces sur lesquels q est définie positive). Soient

une base de dans laquelle sont les r premières fonctions

coordonnées (en particulier, est une base du radical de ), et (resp.) le sous-espace engendré par (resp. ). On obtient une

décomposition

en somme directe de sous-espaces deux à deux orthogonaux pour la forme bilinéaire associée à , la restriction de à (resp. ) étant définie positive (resp. définie négative). Soit un sous-espace de dimension m sur lequel est définie négative. Comme est définie positive sur

, ces deux sous-espaces sont en somme directe et est non dégénérée sur cette somme,

donc , c'est-à-dire .

Passons maintenant au critère d'équivalence. Si est une forme quadratique s'écrivant

,

et si est une application linéaire inversible, on a

Les formes sont indépendantes si les le sont, donc et ont même indice (on sait

déjà d'après la théorie générale qu'elles ont même rang). Réciproquement, si et ont même indice et même rang, elles ont même matrice par rapport à des bases convenables et sont donc bien équivalentes.

Matrice définie positiveUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En algèbre linéaire, la notion de matrice définie positive est analogue à celle de nombre réel strictement positif.

On introduit tout d'abord les notations suivantes ; si a est une matrice à éléments réels ou complexes :

désigne la transposée de a a * désigne la matrice transconjuguée de a (conjuguée de la transposée)

Page 74: Polynôme d

On rappelle que :

désigne le corps des nombres réels désigne le corps des nombres complexes

Sommaire

[masquer] 1 Matrice symétrique réelle définie positive

o 1.1 Exemple de base o 1.2 Exemple   : matrice de Hilbert

2 Matrice hermitienne définie positive 3 Propriétés 4 Critère de Sylvester

5 Voir aussi

Matrice symétrique réelle définie positive [modifier]

Soit M une matrice symétrique réelle d'ordre n. Elle est dite définie positive si elle vérifie l'une des 3 propriétés équivalentes suivantes :

1. Pour toute matrice colonne non nulle à n éléments réels, on a

.

(autrement dit, la forme quadratique définie par est strictement positive pour )

2. Toutes les valeurs propres de M sont strictement positives, c'est-à-dire :

.

3. La forme bilinéaire symétrique définie par la relation

est un produit scalaire sur (identifié ici à l'espace vectoriel des matrices colonnes à n éléments réels).

Une matrice symétrique réelle est dite définie négative si son opposée (symétrique elle aussi) est définie positive.

La propriété 1 signifie que M définit sur une forme quadratique définie positive, la propriété 2 que sur , vu comme espace euclidien avec le produit scalaire

, M définit un opérateur auto-adjoint positif. L'équivalence entre 1 et 2 vient de cette double interprétation, à la lumière de la réduction de Gauss et du théorème spectral. Si 1 est vraie, sachant que les valeurs propres d'une matrice symétrique réelle sont réelles, on voit en appliquant 1 aux vecteurs propres que les valeurs propres sont strictement

positives. Si 2 est vraie, il existe une matrice orthogonale telle que soit diagonale

Page 75: Polynôme d

(parce que est symétrique réelle) à coefficients diagonaux strictement positifs (c'est l'hypothèse 2 sur les valeurs propres). Mais comme Q − 1 = tQ, la matrice est aussi congrue à

la matrice diagonale en question, donc la forme quadratique est définie positive.

Exemple de base [modifier]

Pour toute matrice réelle , les matrices symétriques et sont positives ; elles sont définies positives si et seulement si est inversible. Les matrices de Gram donnent un exemple de cette situation.

Exemple : matrice de Hilbert [modifier]

On appelle matrice de Hilbert la matrice (symétrique d'ordre n) , telle que

. Elle est définie positive.

En effet, soit une matrice colonne quelconque à n éléments réels .

On remarque que . Alors, par linéarité de l'intégrale :

,

d'où enfin : .Dans cette dernière intégrale, l'intégrande est continu et à valeurs positives. Par conséquent :

 ;

si , alors pour tout .

Donc pour tout .Il en résulte que les , coefficients d'un polynôme admettant une infinité de racines, sont tous nuls, c'est-à-dire .

Ceci prouve que pour toute matrice colonne non nulle à n éléments réels.

Page 76: Polynôme d

Nota : ceci est un cas particulier d'une propriété des matrices de Gram. La matrice de Gram d'une famille de n vecteurs d'un espace préhilbertien (réel ou complexe) est définie positive si et seulement si la famille est libre.

Matrice hermitienne définie positive [modifier]

On étend les propriétés et définitions précédentes aux matrices complexes hermitiennes.

Soit M une matrice hermitienne d'ordre n. Elle est dite définie positive si elle vérifie l'une des 3 propriétés équivalentes suivantes :

1. Pour toute matrice colonne non nulle à n éléments complexes, on a .

2. Toutes les valeurs propres de M sont strictement positives, c'est-à-dire :

.

3. La forme sesquilinéaire définie par la relation

est un produit scalaire sur (identifié ici à l'espace vectoriel des matrices colonnes à n éléments complexes).

Une matrice hermitienne est dite définie négative si son opposée (hermitienne elle aussi) est définie positive.

Propriétés [modifier]

Les propriétés suivantes sont communes aux matrices symétriques réelles et aux matrices complexes hermitiennes.

1. Toute matrice définie positive est inversible (à déterminant réel strictement positif), et son inverse est elle aussi définie positive.

2. Si M est définie positive et r est un nombre réel strictement positif, alors rM est définie positive.

3. Si M et N sont définies positives, alors M + N est définie positive.4. Si M et N sont définies positives, et si MN = NM (on dit qu'elles commutent), alors

MN est définie positive.5. Une matrice M est définie positive si et seulement s'il existe une matrice définie

positive A telle que A2 = M ; dans ce cas, la matrice définie positive A est unique, et on peut la noter A = M1 / 2 (voir l'article racine carrée d'une matrice).

Cette propriété est utilisée pour la décomposition polaire.

Critère de Sylvester [modifier]

Pour qu'une matrice , réelle symétrique ou complexe hermitienne, soit

définie positive, il faut et suffit que les n matrices aient

Page 77: Polynôme d

leur déterminant strictement positif, autrement dit que tous les mineurs principaux aient leur déterminant strictement positif.

Remarque 1. Pour n=2, le critère de Sylvester est essentiellement le critère de positivité du trinôme du second degré.

Remarque 2. Plus généralement, l'indice d'une matrice symétrique réelle inversible est égal au nombre de changements de signes dans la suite de ses n + 1 mineurs principaux (en incluant det(A0) = 1).

Preuve. Notons q la forme quadratique associée à A, définie par .

La condition est nécessaire. On remarque d'abord que si q est définie positive, alors . En effet, par rapport à une base orthogonale pour cette forme quadratique (il en

existe, d'après la réduction de Gauss), la matrice de q s'écrit les étant tous

strictement positifs. Alors (Q étant la matrice de passage), donc . Le résultat s'ensuit, en appliquant le même raisonnement à la restriction de

q aux sous-espaces , pour .

Montrons maintenant que la condition est suffisante. On procède par récurrence sur la dimension. Pour n=0 c'est évident puisqu'en dimension 0 l'ensemble des vecteurs non nuls est

vide. Supposons la propriété vraie pour n-1 et notons . Par hypothèse de

récurrence, est définie positive. De plus, q est est non dégénérée (parce que ) donc

Soient e un vecteur non nul de et a = q(e). Alors et ont même signe d'après le même argument que dans la première partie (qui met implicitement en jeu le

discriminant), or par hypothèse et sont strictement positifs. Donc a>0, si

bien que la restriction de q à est, elle aussi, définie positive, ce qui montre que q est définie positive.

Dans le cas complexe, la preuve est analogue, en considérant la forme hermitienne définie par la matrice.

Matrice semi-définie positiveUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

En algèbre linéaire, la notion de matrice semi-définie positive (on dit aussi : matrice positive) est analogue à celle de nombre réel positif ou nul.

Page 78: Polynôme d

La notion de matrice semi-définie positive est très proche de celle de matrice définie positive.

Sommaire

[masquer] 1 Matrice symétrique réelle semi-définie positive

o 1.1 Exemple 2 Matrice hermitienne semi-définie positive

3 Voir aussi

Matrice symétrique réelle semi-définie positive [modifier]

Soit M une matrice symétrique réelle d'ordre n. Elle est dite semi-définie positive si elle vérifie l'une des 2 propriétés équivalentes suivantes :

1. Pour toute matrice colonne à n éléments réels, nous avons

.

2. Toutes les valeurs propres de M sont positives ou nulles, c'est-à-dire :

.

Exemple [modifier]

Étant donné un vecteur aléatoire à valeurs dans dont chaque composante admet une variance, on définit sa matrice des covariances :

Celle-ci est semi-définie positive. En effet, pour toute matrice colonne à n éléments réels notés  :

Elle est définie positive si et seulement si la seule combinaison linéaire de qui soit certaine est celle dont tous les coefficients sont nuls.

Matrice hermitienne semi-définie positive [modifier]

On étend les propriétés et définitions précédentes aux matrices complexes hermitiennes.

Soit M une matrice hermitienne d'ordre n. Elle est dite semi-définie positive si elle vérifie l'une des 2 propriétés équivalentes suivantes :

1. Pour toute matrice colonne à n éléments complexes, on a

(où désigne la matrice transconjuguée de ).

Page 79: Polynôme d

2. Toutes les valeurs propres de M sont positives ou nulles, c'est-à-dire :

.

Décomposition polaireUn article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercher

Sommaire

[masquer] 1 Décomposition polaire d'une matrice réelle 2 Décomposition polaire d'une matrice complexe 3 Références

4 Voir aussi

Décomposition polaire d'une matrice réelle [modifier]

Les applications suivantes sont des homéomorphismes, et même des difféomorphismes.

Autrement dit, toute matrice inversible réelle se décompose de façon unique en produit d'une matrice orthogonale et d'une matrice symétrique strictement positive.

Les applications suivantes sont surjectives mais en général non injectives :

Décomposition polaire d'une matrice complexe [modifier]

Les applications suivantes sont des homéomorphismes, et même des difféomorphismes.

Autrement dit, toute matrice inversible complexe se décompose de façon unique en produit d'une matrice unitaire et d'une matrice hermitienne strictement positive.

Page 80: Polynôme d

Les applications suivantes sont surjectives mais en général non injectives :

Remarque. Pour n=1, on retrouve l'écriture z = reiθ d'un nombre complexe non nul. C'est la raison du nom de décomposition polaire : c'est une sorte de généralisation des coordonnées polaires. Espace préhilbertien [modifier]

Article détaillé : Espace préhilbertien.

Un espace préhilbertien est un espace vectoriel réel ou complexe que l'on a muni d'un produit scalaire. La définition du produit scalaire quitte alors le champ de la géométrie traditionnelle.

Produit scalaire réel [modifier]

Les propriétés algébriques vues dans le cas de la dimension 2 ou 3 sont suffisantes pour définir un produit scalaire dans un espace vectoriel réel quelconque.

Soit un espace vectoriel réel.

On dit qu'une application φ :

est un produit scalaire si elle est :

bilinéaire  : φ est linéaire relativement à chaque argument (l'autre étant fixé).

symétrique :

positive :

définie :

Il est naturel de se poser la question réciproque : Est-il possible de définir une géométrie à l'aide d'un espace vectoriel et d'un produit scalaire ? La longueur est alors donnée par la norme, et l'angle θ entre deux vecteurs et par la formule :

Une telle géométrie vérifie les inégalités triangulaires et de Cauchy-Schwarz, le théorème de Thalès, de Pythagore, ses isométries sont les rotations et les symétries.

Produit scalaire hermitien [modifier]

Pour adapter cette définition aux espaces vectoriels complexes, nous avons besoin de la notion de « semi-linéarité »:

Page 81: Polynôme d

Une application f d'un espace vectoriel complexe dans est dite semi-linéaire si elle vérifie :

Soit donc maintenant un espace vectoriel complexe.

On dit qu'une application φ :

est un produit scalaire hermitien (ou simplement un produit scalaire) si elle est :

sesquilinéaire  : c'est-à-dire

linéaire relativement au second argument (le premier étant fixé) semi-linéaire relativement au premier argument (le second étant fixé)

symétrique hermitienne :

positive :

définie :

Remarque : la convention de linéarité à droite, semi-linéarité à gauche n'est pas universelle, certains auteurs utilisent la convention inverse. Dans un espace vectoriel complexe, muni d'un tel produit scalaire, sont encore vérifiés le théorème de Pythagore, l'inégalité de Cauchy-Schwartz et l'inégalité triangulaire.

Exemples [modifier]

Dans l'espace , on définit le produit scalaire canonique :

.

Dans l'espace , on définit le produit scalaire canonique :

.

Soit le des fonctions continues de l'intervalle dans .

L'application est un produit scalaire sur E.

Soit le des fonctions continues de l'intervalle dans ,

Page 82: Polynôme d

L'application : est un produit scalaire sur .Remarque : Si , au lieu de travailler sur des fonctions continues, on travaille sur des fonctions continues par morceaux, la forme bilinéaire construite est bien positive mais n'est pas définie : (f|f) = 0 implique que f est nulle sauf sur un nombre fini de points.

Espace euclidien [modifier]

Article détaillé : Espace euclidien.

Un espace euclidien est un espace vectoriel sur , généralement défini de manière axiomatique de dimension finie et muni d'un produit scalaire.

Un tel espace possède de nombreuses propriétés à la fois algébriques et géométriques. Le produit scalaire met en évidence des applications linéaires particulières aux propriétés multiples. Elles permettent, entre autres, de définir de nombreuses structures additionnelles, souvent elles aussi euclidiennes. Elle offre un cadre géométrique qui permet de généraliser bon nombre de résultats vrais sur les nombres réels. Il devient ainsi possible d'appliquer des résultats de l'analyse réelle à la géométrie différentielle.

Espace hermitien [modifier]

Article détaillé : Espace hermitien.

Un espace hermitien est un espace vectoriel défini sur les nombres complexes et disposant d'un produit hermitien, correspondant à une généralisation du cas réel. Le terme de produit scalaire est aussi utilisé dans ce contexte. Les résultats et propriétés des espaces euclidiens se traduisent souvent simplement dans cet espace.

Espace de Hilbert [modifier]

Article détaillé : Espace de Hilbert.

Un espace de Hilbert peut être réel ou complexe. Il correspond exactement aux deux cas précédent, à la différence que la dimension n'est pas nécessairement finie. Si la théorie et les démonstrations sont différentes de la situation en dimension finie, certains résultats se généralisent. Une hypothèse topologique est néanmoins souvent nécessaire, celle de la complétude de l'espace métrique associé. Pour cette raison, un espace de hilbert est par définition complet.

Cet espace est utilisé pour résoudre des problèmes d'analyse fonctionnelle, particulièrement des équations aux dérivées partielles

Définition formelle [modifier]

Soit K un corps muni d'une valeur absolue et E un K-espace vectoriel.

Page 83: Polynôme d

Une norme sur E est une application sur E à valeurs réelles positives et satisfaisant les hypothèses suivantes :

séparation :  ;

homogénéité :  ; sous-additivité (appelé également Inégalité triangulaire) :

.

Remarques  Les corps des réels et des complexes ne sont pas les seuls à admettre une valeur

absolue. Tout corps supporte la valeur absolue constante égale à 1 en dehors de 0.Dans le cas des corps valués, la norme est même ultramétrique en vérifiant une certaine condition plus forte que la sous-additivité.

Une fonction de E dans qui ne satisfait que les hypothèses d'homogénéité et de sous-additivité est appelée semi-norme.

Un espace vectoriel muni d'une norme est alors appelé espace vectoriel normé (parfois abrégé en EVN).

Article détaillé : Espace vectoriel normé.

L'image d'un vecteur x par la norme se note usuellement et se lit « norme de x ».

Premières propriétés [modifier]

La norme est sous-linéaire, c'est-à-dire qu'elle vérifie la propriété suivante :

. Plus généralement, on obtient par récurrence immédiate l'inégalité dans  :

. La séparation et l'homogénéité garantissent les propriétés de séparation et de symétrie

de la fonction . La sous-additivité justifie alors l'inégalité triangulaire,

nécessaire pour montrer que d est une distance sur E, qui plus est invariante par translation.Un espace vectoriel normé est donc un espace métrique homogène et la topologie associée est compatible avec les opérations vectorielles.

La sous-additivité permet d'obtenir la propriété suivante :

qui montre que la norme est une application 1-lipschitzienne donc continue. La norme est aussi une fonction convexe, ce qui peut être utile pour résoudre des

problèmes d'optimisation.

Page 84: Polynôme d

Topologie [modifier]

Article détaillé : Espace vectoriel topologique.

Une norme sur un espace vectoriel définit une distance d sur par la formule suivante :

De plus, à d est associée, comme à toute distance, une topologie séparée. Un ouvert pour cette topologie est une partie de E vérifiant la propriété suivante :

Cette topologie possède la propriété suivante :

Proposition —  L'addition de dans et la multiplication externe de dans sont continues.

[Enrouler] Démonstrations

Soient un point de et un accroissement, alors :

La majoration précédente montre que l'addition est 2-Lipschitzienne donc uniformément continue.

Soient un point de et un accroissement, alors, si

et  :

La dernière majoration montre l'uniforme continuité de la multiplication externe sur toute boule de de centre 0 et rayon M, donc la continuité sur .

Boule [modifier]

Article détaillé : Boule (mathématiques).

Cette construction d'une topologie donne toute son importance à la notion de boule ouverte de centre et de rayon , c'est-à-dire l'ensemble des points dont la distance à est strictement inférieure à . Toute boule ouverte est l'image de la boule unité (ouverte) par une translation de vecteur et d'une homothétie de rapport .

Page 85: Polynôme d

Les boules ouvertes centrées en un point forment une base de voisinages du point , elles caractérisent donc la topologie. Si K=R ou C, toute boule ouverte est convexe. En effet, comme la convexité est conservée par translation et homothétie, il suffit de montrer cette propriété pour la boule ouverte unité. Si et sont deux points de cette boule et si est un réel entre zéro et un, alors :

La propriété suivante est donc vérifiée :

Propriété —  Un espace vectoriel normé sur R ou C est localement convexe.

Ce qui signifie que tout point admet une base de voisinages convexes, par exemple les boules ouvertes centrées en ce point.

Norme équivalente [modifier]

Article détaillé : Norme équivalente.

Plus la topologie contient d'ouverts, plus précise devient l'analyse associée. Pour cette raison une topologie contenant au moins tous les ouverts d'une autre est dite plus fine. La question se

pose dans le cas de deux normes et sur un même espace vectoriel , de savoir à quel critère sur les normes correspond une telle comparaison entre leurs topologies associées.

est dite plus fine que si toute suite de vecteurs de convergeant pour

converge pour , ou encore, s'il existe un réel strictement positif α tel que :

Cette définition est légitimée par le fait que est plus fine que si et seulement si sa topologie associée est plus fine que

et sont dites équivalentes si est plus fine que et est plus fine que

, ou encore, s'il existe deux réels strictement positifs α et β tels que :

Cela correspond au fait que les boules ouvertes des deux normes puissent s'inclure l'une dans l'autre à dilatation près, ou encore que les deux topologies associées soient les mêmes. En termes métriques, les deux structures sont même uniformément isomorphes. Sur un espace vectoriel réel ou complexe de dimension finie, toutes les normes sont équivalentes (cf topologie d'un espace vectoriel de dimension finie).

Constructions génériques [modifier]

Tout produit scalaire sur un espace vectoriel réel E définit la norme euclidienne associée par :

Page 86: Polynôme d

.Une norme est euclidienne (c'est-à-dire provient d'un produit scalaire) si et

seulement si l'application est bilinéaireet dans ce cas cette application est le produit scalaire associé.

Si f est une application linéaire injective de E dans F alors toute norme sur F induit une norme sur E par l'équation

. Si C est un ouvert convexe borné et équilibré d'un espace vectoriel réel ou complexe

E, alors la jauge de C est une norme définie par

et dont C est la boule unité ouverte.

Si E et F sont deux espaces vectoriels normés réels ou complexes, l'espace des applications linéaires continues est muni de la norme d'opérateur s'écrivant :

.

Exemples [modifier]

En dimension finie [modifier]

Article détaillé : Topologie d'un espace vectoriel de dimension finie.

Page 87: Polynôme d

On considère le vecteur sur Kn,

la norme euclidienne est obtenue à partir du produit scalaire ou du produit hermitien canoniques :

et elle correspond à la norme habituellement utilisée pour la distance entre deux points dans le plan ou l'espace usuels (la présence du 2 en indice est expliquée juste après);

la norme 1 est donnée par la somme des modules (ou valeurs absolues) des coefficients :

et induit la distance de déplacement à angle droit sur un damier (ou dans les rues de Manhattan[1]) ;

plus généralement, pour tout p supérieur ou égal à 1, la norme p est donnée par la formule suivante :

,elle identifie donc la norme euclidienne avec la norme 2, mais n'a surtout d'intérêt que dans sa généralisation aux espaces de fonctions ;

Page 88: Polynôme d

la norme « infini »[2] d'un vecteur est la limite de ses normes p lorsque p tend vers l'infini :

,elle induit la distance de déplacement par les faces et par les coins dans un réseau, comme celui du roi sur l'échiquier.

Les relations d'équivalence entre ces normes sont :

L'inégalité triangulaire pour les normes p s'appelle l'inégalité de Minkowski, elle est une conséquence de résultats de convexité parmi lesquels l'inégalité de Hölder.

D'autres exemples apparaissent classiquement :

La norme sur l'espace des quaternions est la norme euclidienne appliquée à la base (1,i,j,k).

L'espace des polynômes de degré inférieur ou égal à n peut être muni de normes issues d'espaces de fonctions (voir ci-dessous).

En dimension infinie [modifier]

Sur l'espace des fonctions continues définies sur un segment [a,b] de et à valeurs réelles ou complexes, on retrouve des normes p définies de manières analogues à celles sur les espaces vectoriels de dimension finie pour p supérieur ou égal à 1 :

qui permettent notamment de définir les espaces L p .En particulier, la norme euclidienne associée au produit scalaire ou hermitien canonique est définie par

.La norme « infini » ou norme sup ou encore norme de la convergence uniforme s'écrit quant à elle

et s'obtient là aussi comme limite des normes p lorsque p tend vers l'infini.Toutes ces normes ne sont pas équivalentes deux à deux.Par ailleurs elles s'étendent aisément aux espaces de fonctions continues sur un compact de , voire aux fonctions continues à support compact.

Page 89: Polynôme d

Sur l'espace des fonctions dérivables à dérivée continue, on peut utiliser l'une des normes ci-dessus ou prendre en compte aussi la dérivée à l'aide d'une norme comme suit :

afin de considérer l'application dérivée de dans comme continue. Sur l'espace des suites bornées, la norme naturelle est la norme sup :

Norme d'algèbre [modifier]

Définition [modifier]

Une norme sur une algèbre A est dite norme d'algèbre s'il existe une constante réelle C telle que

.

Quitte à multiplier la norme par C, cette constante peut être ramenée à 1. La condition est alors celle de sous-multiplicativité.

Dans le cas d'une algèbre réelle ou complexe, la condition est équivalente à la continuité du produit comme application bilinéaire.

Si l'algèbre est unitaire, on peut exiger de la norme qu'elle vérifie aussi :

,

auquel cas la multiplication par une constante ne peut plus être utilisée pour « renormaliser » la norme.

Exemples [modifier]

L'application module est une norme d'algèbre sur considéré comme -algèbre.

La norme d'opérateur sur est une norme d'algèbre.

La norme « infini » sur induit la norme d'opérateur sur qui s'écrit

.

Théorème de Cayley-Hamilton

Page 90: Polynôme d

Un article de Wikipédia, l'encyclopédie libre.

Aller à : Navigation, rechercherPour les articles homonymes, voir Hamilton.

En algèbre linéaire, le théorème de Cayley-Hamilton (qui porte les noms des mathématiciens Arthur Cayley et William Hamilton) affirme que tout endomorphisme d'un espace vectoriel de dimension finie sur un corps quelconque annule son propre polynôme caractéristique.

En termes de matrice, cela signifie que :

si A est une matrice carrée d'ordre n et si

est son polynôme caractéristique (polynôme d'indéterminée X), alors en remplaçant formellement X par la matrice A dans le polynôme, le résultat est la matrice nulle :

Le théorème de Cayley-Hamilton s'applique aussi à des matrices carrées à coefficients dans un anneau commutatif quelconque.

Un corollaire important du théorème de Cayley-Hamilton affirme que le polynôme minimal d'une matrice donnée est un diviseur de son polynôme caractéristique.

Sommaire

[masquer] 1 Motivation 2 Exemple 3 Démonstration

o 3.1 Une preuve o 3.2 Une variante o 3.3 Remarques additionnelles sur la démonstration

4 Abstraction et généralisations 5 Références

6 Voir aussi

Motivation [modifier]

Ce théorème possède deux familles d'utilisation:

Il permet d'établir des résultats théoriques, par exemple pour calculer le polynôme caractéristique d'un endomorphisme nilpotent.

Page 91: Polynôme d

Il autorise aussi des simplifications puissantes dans les calculs de matrices. L'approche par les polynômes minimaux est en général moins coûteuse que celle par les déterminants.

On trouve ce théorème utilisé dans les articles sur les polynômes d'endomorphisme, endomorphismes nilpotents, et plus généralement dans la théorie générale des matrices

Exemple [modifier]

Considérons par exemple la matrice

.

Le polynôme caractéristique s'écrit

Le théorème de Cayley-Hamilton affirme que

A2 − 5A − 2I2 = 0

et cette relation peut être rapidement vérifiée dans ce cas. De plus le théorème de Cayley-Hamilton permet de calculer les puissances d'une matrice plus simplement que par un calcul direct. Reprenons la relation précédente

A2 − 5A − 2I2 = 0A2 = 5A + 2I2

Ainsi, par exemple, pour calculer A4, nous pouvons écrire

A3 = (5A + 2I2)A = 5A2 + 2A = 5(5A + 2I2) + 2A = 27A + 10I2

et il vient

A4 = A3A = (27A + 10I2)A = 27A2 + 10A = 27(5A + 2I2) + 10AA4 = 145A + 54I2.

On peut également utiliser la relation polynomiale initiale A2 − 5A − 2I2 = 0 pour prouver l'inversibilité de A et calculer son inverse. Il suffit en effet de mettre en facteur une puissance de A là où c'est possible et

A(A − 5I) = 2I2

ce qui montre que A admet pour inverse

Page 92: Polynôme d

Démonstration [modifier]

Une preuve [modifier]

Quelle que soit la matrice , il existe une matrice explicitement déterminée, Comp(S), la matrice complémentaire de S, qui vérifie SComp(S) = Comp(S)S = detSIn. La matrice Comp(S) est la transposée de la comatrice ou matrice des cofacteurs de S. Cette relation reste encore vraie si les coefficients de S appartiennent à un anneau, puisqu'on n'a pas

fait de divisions. On peut donc poser S = XIn − A, dont les coefficients sont dans et on a alors la relation:

Partons de (1), en écrivant

avec , et

On peut développer le produit (XIn − A)Comp(XIn − A) :

qui est identique à

Les polynomes (2) et (3) sont égaux. Par conséquent,

pnIn = Bn − 1

piIn = Bi − 1 − ABi

p0 = − AB0

Il vient alors

Page 93: Polynôme d

Comme la somme est télescopique, elle est nulle. Donc, P(A)=0. La preuve ne consiste pas en une substitution de X par A dans des égalités de polynômes, mais à une identification de leurs coefficients.

Une variante [modifier]

On peut également aligner des idées abstraites.

Commençons par introduire un morphisme d'évaluation approprié à la résolution du

problème. Tout d'abord, étant une algèbre commutative sur , on a un morphisme

d'évaluation : (qui envoie X sur A et λ sur λIn pour tout scalaire λ). Ce morphisme d'anneaux commutatifs induit un morphisme d'évaluation sur les anneaux de

matrices .

Une notation auxiliaire nous sera utile : pour deux matrices carrées (n,n) notées C = (cij) et D = (dij), on notera la matrice à coefficients matriciels de terme général cijD. Si le lecteur connaît le produit de Kronecker de deux matrices, il pourra remarquer que c'est presque la même chose que à ceci près que est une matrice (n,n) dont les coefficients sont des matrices (n,n) tandis que est une matrice (n2,n2). Les formules ci-dessous ne contiennent de fait que deux cas particuliers de cette opération : des produits de la forme c'est-à-dire des matrices carrées avec des C sur la diagonale et des 0 ailleurs et un produit c'est-à-dire une variante de A où la matrice aijIn vient remplacer le coefficient aij.

Cette notation posée, appliquons le morphisme d'évaluation à la relation :

On obtient une relation

dans laquelle M est une certaine matrice à coefficients dans dont on n'aura besoin de rien savoir.

Ainsi on a écrit une formule juste, et on en pâtit : on n'a du coup pas fini, l'évaluation de XIn − A par une technique rigoureuse ne fournit pas 0 mais une bizarre matrice à coefficients matriciels.

Il faut une deuxième idée pour conclure. Elle consiste à remarquer que si est un anneau et E un -module à droite, pour tous entiers r, s, t on peut définir par les formules habituelles un produit matriciel :

Page 94: Polynôme d

pour laquelle on a associativité si on veut calculer des produits à trois termes :

Appliquons cette notion à (pour les puristes à ) qui est un module (dont la multiplication s'écrit spontanément à gauche mais peut l'être à droite si on préfère,

l'anneau étant commutatif) sur l'anneau commutatif , la multiplication externe

étant l'application : définie par (ce étant le produit matriciel ordinaire de la matrice carrée par la matrice colonne ).

Multiplions à gauche la relation ( * ) par le vecteur ligne où désigne la base canonique de  : en utilisant l'expression de droite dans ( * ) on obtient le

vecteur ligne .

Si maintenant on utilise l'expression de gauche dans ( * ) et qu'on déplace les parenthèses par associativité de la multiplication matricielle un peu inhabituelle décrite ci avant, on est amené à calculer le produit :

Pour chaque indice j, on ne peut que constater que sa j-ème composante vaut :

.

En multipliant ceci à droite par l'inoffensive matrice M et en comparant les deux expressions du produit, on conclut que pour tout indice j, p(A)ej = 0.

Et donc p(A) = 0[1].

Remarques additionnelles sur la démonstration [modifier]

La preuve qui a été donnée évite la substitution de X par une matrice dans un contexte non commutatif, mais les manipulations effectuées sont quand même proches de cette idée : on a bien décomposé l'équation en composantes suivant les puissances de X, on a multiplié à gauche par Aj la composante qui était en facteur de Xj, et on a additionné tout ensemble. En fait, on a utilisé l'opération EvA définie en (5), sans supposer qu'il s'agisse d'un

homomorphisme d'anneaux, de dans . L'opération EvA est une évaluation à gauche, parce que la multiplication par l'indéterminée scalaire X est remplacée par la multiplication à gauche par A.

Une autre observation est importante : la forme exacte du polynôme Comp(XIn − A) n'a aucune importance. Il y a donc quelque chose à exploiter ici, ce que n'ont pas manqué de faire les mathématiciens.

Page 95: Polynôme d

Soit M un anneau non commutatif ; on peut définir une division euclidienne d'un polynôme

par un polynôme B monique. C'est un polynôme dont le coefficient du terme de plus haut degré est une unité de M, c'est-à-dire un élément de M qui possède un inverse dans

M. Plus précisément, il existe deux polynômes , avec R de degré strictement inférieur au degré de B, tels que

P = BQ + R.

La démonstration est entièrement analogue à celle du cas scalaire. Si B = XIn − A, alors le reste R est de degré 0, et donc identique à une constante appartenant à M. Mais dans ce cas, en raisonnant exactement comme dans la démonstration du théorème de Cayley-Hamilton, on arrive à la conclusion

EvA(P) = R.

Il s'ensuit que EvA(P) est nul si et seulement si P est divisible à gauche par XIn − A.

La démonstration du théorème de Cayley-Hamilton donne aussi une autre information : le polynôme Comp(XIn − A) est le quotient à gauche de p(X)In par tIn − A. Comme p(X)In et XIn − A appartiennent tous deux au sous-anneau commutatif K[A][X], la division à gauche se passe entièrement dans ce sous-anneau, c'est donc une division ordinaire. En particulier, les coefficients matriciels de Comp(XIn − A) sont des combinaisons linéaires de puissances de A. En d'autres termes, la matrice complémentaire d'une matrice A est un polynôme en A, ce qu'il n'est pas facile de déduire directement de la définition d'une matrice complémentaire. Mieux, on peut calculer explicitement ses coefficients à partir de ceux du polynôme caractéristique p(X), puisqu'il s'agit de faire une division euclidienne ordinaire, et on trouve

On aurait pu également obtenir cette relation directement à partir du théorème de Cayley-Hamilton, en vertu de l'identité

Définition [modifier]

Trace d'une matrice carrée [modifier]

Étant donnée une matrice carrée à coefficients dans un corps K ou dans un anneau A, sa trace, notée Tr(A), est la somme de ses coefficients diagonaux :

.

Page 96: Polynôme d

La trace est un scalaire. Pour toutes matrices carrées A et B (de même ordre) et pour tout scalaire , les propriétés suivantes sont vérifiées :

AT désigne la transposée de A, et AB le produit matriciel de A et de B.

La propriété 4 a pour corolaire[1] important l'égalité suivante, valable pour toute matrice carrée A et pour toute matrice inversible P de même ordre :

Autrement dit, la trace est un « invariant de similitude » pour les matrices carrées d'ordre

donné. Ainsi, la trace est une forme linéaire sur l'espace vectoriel des matrices carrées d'ordre n (propriétés 1 et 2), invariante par transposition (propriété 3) et par similitudes.

Inversement, toute forme linéaire sur l'espace invariante par similitude est proportionnelle à la trace.

Trace d'un endomorphisme [modifier]

Sur un espace vectoriel E de dimension finie n, la trace d'un endomorphisme , notée Tr(u), est définie comme la trace de la représentation matricielle de u relativement à une base préalablement fixée de E. La propriété (P5) ci-dessus montre que cette définition ne dépend pas du choix arbitraire de .

En effet, étant données deux bases et , est introduite la matrice de passageP de la base à la base . Les matrices A et A' représentant u respectivement dans et vérifie la relation dite « de changement de base »[réf. nécessaire] : A' = P − 1AP. Par la propriété (P5), Tr(P − 1AP) = Tr(A), donc Tr(A') = Tr(A).

Les propriétés suivantes sont vérifiées pour tous endomorphismes et pour tout scalaire .

De plus, si (c'est-à-dire que v est un automorphisme), alors :

Page 97: Polynôme d

Autrement dit la trace est une forme linéaire sur l'espace vectoriel , invariante par transposition et par conjugaison.

Trace d'une forme quadratique [modifier]

Soit (E,g) un espace euclidien de dimension finie. Pour toute forme quadratique q sur E, il existe un opérateur symétrique A sur (E,g) tel que

q(v) = g(v,Av).

La trace de A est appelée trace de la forme quadratique q par abus de langage. Sa définition dépend explicitement du choix de la métrique euclidienne g.

Exemples [modifier]

Soit E un espace vectoriel de dimension n.

La trace de l'identité est : Tr(I) = n = dim(E). La trace d'une transvection est aussi dim(E). Pour tous opérateurs u et v, on pose [u,v]=uv-vu. La trace de [u,v] est nulle, ce qui

signifie exactement Tr(uv)=Tr(vu).

Dans les espaces euclidiens :

La trace d'une rotation de R2 d'angle θ est donnée par : Tr(Rθ) = 2cosθ. Plus généralement[réf. nécessaire] pour tout entier , la trace d'une rotation d'axe Δ et

d'angle θ dans l'espace à n dimensions est donnée par : Tr(RΔ,θ) = n − 2 + 2cosθ.

Pour des matrices :

Toute permutation (où représente le groupe symétrique d'ordre ) est

représentée par une matrice carrée d'ordre , définie par :

La trace de la matrice Mσ s'interprète alors comme le nombre de points fixes de la permutation σ :

La trace de la matrice d'adjacence d'un graphe est nulle (si un sommet ne boucle pas sur lui-même).

Applications [modifier]

Réduction d'opérateurs [modifier]

Un projecteur p de E est un opérateur vérifant p2=p. Le lemme des noyaux implique que E est la somme directe du noyau F de p et de l'image G de p ; et p se restreint en l'identité sur G.

Page 98: Polynôme d

Géométriquement, p est la projection sur G parallèlément à F. En concaténant des bases de F et G, on a une base de E dans laquelle le matrice de u est diagonale avec comme coefficients 0 et 1. Il s'en suit que la trace de p est la dimension de G :

.

Plus généralement, les traces fournissent des informations sur la réduction des opérateurs. On rappelle que le polynôme caractéristique de u est

P(X) = det(X − u).

Si P(X) est scindé (par exemple, si le corps de base K est algébriquement clos) alors u est triangularisable. Autrement dit, il existe une base de E dans laquelle l'opérateur u s'écrit sous la forme d'une matrice triangulaire supérieure. Les coefficients diagonaux sont les racines de son polynôme caractéristique P(X) comptées avec multiplicité, qui sont les valeurs propres de u. On les note ici . Par définition, la trace de u est

.

En particulier, le développement du polynôme caractéristique est

.

Les autres coefficients du polynôme caractéristique sont les valeurs des polynômes symétriques élémentaires en . Par conséquent, si le corps K est de caractéristique nulle, les coefficients s'expriment comme des polynôme en les traces des puissances de u :

pour .

Par exemple, si E est de dimension 3,

.

L'application suivante est un exercice proposé au concours d'entrée de l'[[[École polytechnique (France)|[École polytechnique]][2]. Soit u un opérateur sur un espace vectoriel

réel E, tel que . Alors u est un opérateur nilpotent.

Divergence [modifier]

Article détaillé : Divergence (mathématiques).

Page 99: Polynôme d

Etant donné un espace vectoriel réel E de dimension finie, le déterminant définit une application det de l'espace des opérateurs sur E vers R, qui est homogène de degré n. Le nombre det(u) s'exprime comme une fonction polynômiale en les coefficients de la matrice représentant u dans une base quelconque de E. La fonction det est donc différentiable. Sa différentielle en l'identité est la trace. Autrement dit, pour tout opérateur u sur E,

det(I + u) = 1 + Tr(u) + o(u)

où o(u) signifie que le reste est négligeable devant u quand u tend vers zéro. Comme conséquence, pour tout opérateur u sur E,

det(exp(u)) = exp(Tr(u)).

En particulier, l'exponentielle de u est de déterminant 1 ssi u est un opérateur de trace nulle. Ce résultat s'interprète dans la théorie des groupes de Lie comme suit. L'application det est un morphisme continu de groupes du groupe linéaire GL(E) vers R. Son noyau, l'ensemble des opérateurs de déterminant 1, donc est un sous-groupe de GL(E), noté SL(E). Il s'agit d'un groupe de Lie classique, c'est-à-dire d'un sous-groupe fermé de GL(E). Géométriquement, un opérateur appartient à SL(E) ssi il préserve le volume de Lebesgue de E. Son algèbre de Lie

est exactement l'ensemble des opérateurs u de trace nulle, noté .

Sur un ouvert U de E, un champ de vecteurs X est une application . Si cette application est lipschitzienne, le théorème de Cauchy-Lipschitz affirme l'existence de solutions maximales de l'équation différentielle ordinaire

c'(t) = X(c(t)) (1).

Le flot de X est la famille de difféomorphismes ft qui envoient x sur c(t), où c est la solution de (1) avec comme condition initiale c(0)=x. Le flot est défini localement. On introduit la divergence de X

div(X)(x) = Tr(dX(x))

où dX(x) désigne la différentielle de X en x, qui est un opérateur sur E. Le flot ft préserve le volume de Lebesgue ssi la divergence est nulle. Plus précisément, pour tout ouvert Ω dont l'adhérence est incluse dans U,

.

(Cette égalité permet d'étendre la définition de la divergence, par exemple sur des variétés orientées en présence de formes volumes. Voir divergence (mathématiques).)

Forme de Killing [modifier]

Article détaillé : Forme de Killing.

Si est une algèbre de Lie sur un corps K, la représentation adjointe de , notée ad, est donnée par

Page 100: Polynôme d

ad(X)(Y) = [X,Y].

La forme de Killing sur est la forme bilinéaire symétrique

.

Les automorphismes de l'algèbre de Lie préserve la forme de Killing. En particulier, sa représentation adjointe préserve B. La forme de Killing a été introduite par Cartan[réf. nécessaire] pour caractériser la semi-simplicité des algèbres de Lie. Quand K=R, elle fournitaussi des infiormations sur le groupe de Lie associé. Voir critère de Cartan.

Soit G un groupe de Lie (par exemple, un sous-groupe fermé de GL(E)). Par définition, son algèbre de Lie est l'espace des champs de vecteurs sur G invariants à gauche, muni du crochet de Lie [,] (commutateur de champs de vecteurs). La forme de Killing associée B définit une métrique pseudo-riemannienne bi-invariante sur G. Si la forme de Killing B est définie positive, alors la métrique associée est une métrique riemannienne à courbure positive. Le théorème de Meyers implique que G est compact. D'autres liens existent.

Produit scalaire canonique [modifier]

Soit et deux matrices dans . On remarque que

On dispose ainsi d'une écriture agréable du produit scalaire canonique sur l'espace Rnp.

Si H est un espace de Hilbert de dimension finie, la transposée d'un opérateur u sur H est un

opérateur sur H. On définit alors le produit scalaire sur l'espace des opérateurs sur H :

.

Avec cette définition, il apparait clairement que les opérateurs symétriques et les opérateurs

antisymétriques forment deux sous-espaces orthogonaux de . La transposée est la symétrie orthogonale par rapport à l'espace des opérateurs symétriques.

Formes n-linéaires alternées [modifier]

La notion de forme n-linéaire alternée généralise les propriétés précédentes. Elle se définit comme une application de En dans , qui est :

linéaire en chaque variable. Ainsi pour des vecteurs x1, ..., xn, x'i et deux scalaires a et b

alternée, signifie qu'elle s'annule à chaque fois qu'elle est évaluée sur un n-uplet contenant deux vecteurs identiques

Page 101: Polynôme d

L'article application multilinéaire procède à l'étude systématique des formes n-linéaires alternées sur un espace vectoriel de dimension n.

Le résultat principal est la possibilité de ramener le calcul de l'image de (x1,...,xn) à celui d'images des vecteurs de base par n-linéarité. En outre le caractère alterné permet de changer l'ordre des vecteurs, de sorte qu'il suffit de connaître l'image f(e1,...,en) des vecteurs d'une base, pris dans l'ordre, pour connaître f. Remettre les vecteurs dans l'ordre fait intervenir la notion de permutation.

Théorème

L'ensemble An(E) des formes n-linéaires alternées sur un espace vectoriel de dimension n constitue un espace vectoriel de dimension 1.

De plus, si est une base de E, on peut exprimer l'image d'un n-uplet de vecteurs par

avec Xij la i-ème composante de xj et qui dénote la signature de la permutation σ (un pour une permutation paire, -1 pour une impaire).

Déterminant d'une famille de n vecteurs dans une base [modifier]

Définition

On suppose E muni d'une base . L'application déterminant en base B est l'unique forme n-linéaire alternée sur E vérifiant detB(e1,...,en) = 1, abrégé en detB(B) = 1

Il faut se représenter cette quantité comme une sorte de volume de pavé, relativement à la base B.

Formule de Leibniz

Page 102: Polynôme d

Gottfried Leibniz introduit les premiers déterminants de taille 3 et plus

Soient x1,...xn des vecteurs de E. Il est possible de représenter ces n vecteurs par n matrices colonnes, formant par juxtaposition une matrice carrée X.

Le déterminant de x1,...xn relativement à la base B vaut alors

Cette formule porte parfois le nom de Leibniz. Elle présente peu d'intérêt pour le calcul pratique des déterminants, mais permet d'établir plusieurs résultats théoriques.

En physique, on rencontre souvent la formule de Leibniz exprimée à l'aide du symbole de Levi-Civita, en utilisant la convention d'Einstein pour la sommation des indices :

Formule de changement de base

Si B et B ’ sont deux bases de E, les applications déterminants correspondantes sont proportionnelles (avec un rapport non nul)

Ce résultat est conforme à l'interprétation en termes de volume relatif.

Déterminant d'une matrice [modifier]

Article détaillé : Calcul du déterminant d'une matrice.

Soit une matrice A=(aij) carrée d’ordre n à coefficients réels. Les vecteurs colonnes de la matrice peuvent être identifiés à des éléments de l'espace vectoriel . Ce dernier est muni d'une base canonique.

Page 103: Polynôme d

Il est alors possible de définir le déterminant de la matrice A comme le déterminant du système de ses vecteurs colonnes relativement à la base canonique. Il est noté det(A) puisqu'il n'y a pas d'ambiguïté sur la base de référence.

Par définition même, le déterminant dépend de façon linéaire de chaque colonne, et est nul lorsque deux colonnes sont égales. Le déterminant de la matrice identité vaut un. Enfin il vérifie la formule de Leibniz

Ce déterminant se note fréquemment avec des barres verticales :

La présentation matricielle apporte une propriété essentielle : une matrice a même déterminant que sa transposée

Ce qui signifie que le déterminant de A se voit aussi comme le déterminant du système des vecteurs lignes, relativement à la base canonique.

[Dérouler] Formule du déterminant de la transposée - démonstration

Déterminant d'un endomorphisme [modifier]

Soit u un endomorphisme d'un espace vectoriel de dimension finie. Toutes les matrices représentatives de u ont le même déterminant. Cette valeur commune est appelée déterminant de u.

Le déterminant de u est la valeur par laquelle u multiplie les déterminants de vecteurs

[Dérouler] Démonstration de ces deux propriétés

Notamment les endomorphismes de déterminant 1 conservent le déterminant des vecteurs. Ils forment un sous groupe de Gl(E), noté Sl(E), et appelé groupe spécial linéaire. Dans un

Page 104: Polynôme d

espace réel de dimension deux, ils se conçoivent comme les applications linéaires conservant les aires orientées, en dimension trois les volumes orientés.

On démontre que ce groupe est engendré par les transvections, dont la matrice dans une base adaptée est de la forme

Effet d'une transvection dans l'espace (conservation du volume)

Fig. 8. Cube avant transvection Fig. 9. Cube après transvection

Par construction même du déterminant des endomorphismes, deux matrices semblables ont même déterminant.

Propriétés [modifier]

Quitte à effectuer le choix d'une base, il est possible d'énoncer ces propriétés dans le cadre matriciel.

Caractère n-linéaire alterné [modifier]

L'application déterminant sur les familles de vecteurs est une forme multilinéaire alternée. Utiliser cette propriété sur une matrice demande d'exprimer le système de vecteurs colonnes, ou de vecteurs lignes.

Par exemple si la matrice A admet pour colonnes C1, ..., Cn avec Ci de la forme Ci=aC 'i+C ' 'i

Voici l'effet des opérations élémentaires sur les colonnes de la matrice

multiplier une colonne par a, entraîne la multiplication du déterminant par la même valeur

Page 105: Polynôme d

échanger deux colonnes, entraîne la multiplication du déterminant par -1 ajouter à une colonne une combinaison linéaire des autres colonnes ne modifie pas le

déterminant.

Notamment, si toutes les colonnes sont multipliées par a, le résultat est une multiplication par an du déterminant

En revanche, il n'existe pas de formule simple exprimant le déterminant de la somme A+B de deux matrices. En effet, appliquer la multilinéarité par rapport aux colonnes demande d'écrire les colonnes de la somme comme Ai+Bi, puis d'appliquer n fois la propriété de linéarité. Finalement, le déterminant de A+B se scinde en une somme de 2n déterminants hybrides det(A1, A2, B3, A4,..., Bn), formés d'un certain nombre de colonnes de A et de B.

Il est possible d'effectuer également des opérations élémentaires sur les lignes, qui ont les mêmes propriétés que les opérations sur les colonnes. Opérer sur les lignes suivant la technique du pivot de Gauss fournit une méthode systématique de calcul des déterminants ; c'est la méthode la plus efficace en règle générale.

Article détaillé : Calcul des déterminants.

Propriétés de morphisme et d'annulation [modifier]

Augustin Louis Cauchy prouve que le déterminant constitue un morphisme de groupes

Cas d'annulation des déterminants

le déterminant d'un système de n vecteurs est nul si et seulement si ce système est lié (et ceci est valable quelle que soit la base de référence)

le déterminant d'une matrice (ou d'un endomorphisme) est nul si et seulement si cette matrice (ou endomorphisme) est non inversible.

Page 106: Polynôme d

Ces propriétés expliquent le rôle essentiel que peuvent jouer les déterminants en algèbre linéaire. Ils constituent un outil fondamental pour prouver qu'une famille de vecteurs est une base.

Démonstration du cas d'annulation si le système est lié, une colonne est combinaison linéaire des autres. Par une

opération élémentaire, il est possible de se ramener à un déterminant ayant une colonne nulle, donc nul.

si le système est libre, il est possible de le considérer comme une base B' et lui appliquer la formule de changement de bases : detB(B ').detB ' (B)=1.

Propriété de morphisme

ainsi si M est inversible alors

et le déterminant est un morphisme de groupes de dans

Démonstration de la propriété de morphismeLa double application de la formule pour l'image d'une famille de vecteurs donne le résultat, en prenant les vecteurs images des vecteurs de la base B eux-mêmes

Il existe une généralisation de la formule de déterminant d'un produit pour le cas de deux matrices rectangulaires : c'est la formule de Binet-Cauchy.

Cofacteurs et formule de récurrence [modifier]

Article détaillé : Comatrice.

Soit A une matrice carrée de taille n, et A(x) la matrice dont les coefficients sont les mêmes que ceux de A, sauf le terme d'indice i, j qui vaut ai, j+x (c'est la modification d'un des coefficients de la matrice, toutes choses égales par ailleurs). Par la formule de linéarité pour la j-ème colonne, il est possible d'établir

Le terme noté Cofi, j est appelé cofacteur d'indice i, j. Il se calcule de la façon suivante : en notant M(i;j) le déterminant de la sous-matrice déduite de M par suppression la ligne i et la colonne j, le cofacteur est (-1)i+j fois M(i;j).

Il admet les interprétations suivantes

Page 107: Polynôme d

augmenter de x le coefficient d'indice i, j de la matrice (toutes choses égales par ailleurs) revient à augmenter le déterminant de x fois le cofacteur correspondant

le cofacteur est la dérivée du déterminant de la matrice A(x)

Formules de Laplace

Pierre-Simon Laplace

Si n>1 et A est une matrice carrée de taille n alors il est possible de calculer son déterminant en fonction des coefficients d'une seule colonne et des cofacteurs correspondants. Cette formule, dite formule de Laplace, permet ainsi de ramener le calcul du déterminant à n calculs de déterminants de taille n-1.

Formule de développement par rapport à la colonne j

On peut donner également une formule de développement par rapport à la ligne i

Comatrice et calcul de l'inverse

La comatrice de A, est la matrice constituée des cofacteurs de A. Elle généralise les formules de développement du déterminant par rapport aux lignes ou colonnes

La matrice transposée de la comatrice est appelée matrice complémentaire de A. Notamment si A est inversible, l'inverse de A est un multiple de la matrice complémentaire. Cette approche offre une formule de la matrice inverse, ne nécessitant que des calculs de déterminants

Page 108: Polynôme d

En algèbre linéaire, la base duale est une base de l'espace dual d'un espace vectoriel E de dimension finie, construite à partir d'une base de E. Il est rappelé que l'espace dual de E, noté E * est l'espace des formes linéaires sur E. La réduction des formes quadratiques est un exemple dans lequel les bases duales peuvent intervenir. Elles interviennent aussi pour transporter des structures géométriques d'un espace vectoriel réel ou complexe sur son espace dual, ce qui intervient notamment en géométrie différentielle.

Sommaire

[masquer] 1 Définition

o 1.1 Base duale de la base duale o 1.2 Changement de bases

2 Applications

o 2.1 Réduction de Gauss

Définition [modifier]

Soit E un espace vectoriel sur un corps K de dimension finie n . Soit une base de E (famille libre et génératrice). Comme est une famille génératrice, tout vecteur v de E s'écrit de manière unique comme une combinaison linéaire des vecteurs ei :

où est un scalaire, un élément du corps K. L'application est une forme

linéaire sur E. L'application peut aussi étre définie comme l'unique forme linéaire sur E

vérifiant, pour tout entiers j entre 1 et n, où δij vaut 1 ou 0 suivant que i et j sont

égaux ou non. La famille forme une base de l'espace dual E * , appelée la base duale de . De plus, toute forme linéaire u sur E s'écrit :

(1).

Cette construction suffit à montrer qu'un espace vectoriel et son dual ont la même dimension.

Base duale de la base duale [modifier]

Il existe une injection naturelle de E dans le bidual de E (= dual du dual de E), donné par l'évalutation des formes linéaires en les vecteurs :

Page 109: Polynôme d

ι(v)(λ) = λ(v).

Comme E, E* et E** ont même dimesion, cette application linéaire injective est un

isomorphisme. Une autre manière d'obtenir ce résultat est la suivante. Soit la

base duale de . L'équation (1) se traduit par :

.

Changement de bases [modifier]

Article détaillé : Matrice de passage.

Soit une seconde base de E, qui admet une base duae notée

. La matrice de passage de à est la matrice M donnée par les coefficients

. L'équation (1) donne

L'application de M au n-uplet des coordonnées d'un vecteur v dans la base donne le n-uplet des coordonnées de v dans . Explicitement,

.

Si M − 1 = (Mij) désigne l'inverse de la matrice M et ses coefficients, alors M − 1 est la matrice

de passage de la base duale à , ce qui signifie

.

Applications [modifier]

Réduction de Gauss [modifier]

Article détaillé : réduction de Gauss.

Soit q une forme quadratique sur un espace vectoriel réel E. Alors il existe une base

de E, telle que

où est la base duale de .

Page 110: Polynôme d

L'esapce vectoriel est le noyau de q. Les entiers r et s ne dépendent pas du choix de la base e, et le couple (r,s) s'appelle la signature de q.