close

Se connecter

Se connecter avec OpenID

algèbre linéaire

IntégréTéléchargement
L'ALGÈBRELINtiAIRJ3
C, QUE SAIS-JE 7
L
P
D
EC O
E
>>
O AI
S
NC
N
w 1251
L’ALGÈBRE
LINÉAIRE
Jacques BOUTELOUP
m
M D
x
É
u
PRESSES UNWERSITAIRES
108, BOULEVAF~D S
A
J
I
I
&
~
~
T
T
b
E
I
m
DE FRANCE
A
1
I
P
9
V
A
7
M
I
I
,
”
,
D6pôt lÇgal. - ire Çdition : 2e trimestre 1967
2e Çdition : le* trimestre 1971
Tous droits de traduction, de reproduction et d’adaptation
r&erv& pour tons pays
0 1967, Pmssea tJniversi&res de France
INTRODUCTION
L’importance croissante de l’alg&bre linéaire, due
à son utilisation dans les domaines les plus variés
des mathématiques et de la physique, est l’un des
traits les plus frappants de l’évolution actuelle des
L’étude traditionnelle des détermathématiques.
minants et systèmes linéaires, rénovée par l’introduction du calcul matriciel, s’est maintenant fondue
dans un vaste ensemble où les notions d’espace
vectoriel et #application
linéaire sont les outils
indispensables. L’ouvrage de J. Bouteloup, CoZcuZ
matriciel élémentaire, paru dans la collection u Que
sais-je ? 1)(no 927), donne un exposé, avec de nombreux exemples numériques, des questions accessibles avec un bagage mathématique modeste ; il
sera indiqué dans le courant de l’ouvrage par la
rhférence C&IE. Ce livre se place à un niveau nettement plus élevé, correspondant à celti des classes
préparatoires aux grandes écoles scientifiques, toutes
les questions d’algèbre linéaire à leur programme
étant traitées de façon concise mais complète. Cet
ouvrage suppose également connues les propriétés
fondamentales d’algèbre générale, exposées notamment dans : Queysanne et Delachet, I,‘uZgèbre moderne, 8~Que sais-je ? )), no 661 (référence AiIf). Pour
ne pas tomber dans une généralisation excessive à
ce niveau, l’ouvrage ne traite que de l’alg&bre lin&ire sur un corps commutatif ; mais il ne se limite
pas, par contre, au cas particulier usuel des espaces
vectoriels de dimension finie sur R ou C, se plaçant
dans l’hypothèse d’un corps quelconque et essayant
6
L’ALGBBRE
LINL?AIRE
de distinguer avec prkision les propriMa valables
Egalement en dimension infinie. D’assez nombreux
compléments intéressants, sortant du programme
des claszes préparatoires, sont également trait& ;
citons notamment l’&ude des réduites de Jordan,
ainsi que des notions sur les fonctions de matrices,
en narticulier sur les exponentielles de matrices.
Le >alcul tensoriel est simplement &oqué, étant
de la même collection :
traité dans l’ouvrage
A. Delachet, Le calcul tensoriez, a Que sais-je ? 11,
ne 1336.
CHAPITREPREMIER
ESPACES VECTORIELS
1. Axiomes de la &ructmw d’espace vectoriel et
conséquences. - La d#inition d’une structure d’espace vectoriel sur un ensemble E (dont les dléments
sont alors appelés vecteurs, et représentds ici en
caract&res gras) n&essite la donnée préalable d’un
corps commutatif K (dont les dléments sont appelés
scalaires). La structure est alors caractérisée :
1) Par une loi interne de groupe commutatif, notÇe
additivement (donc comme l’addition dans K, ce
* ne peut entraîner de confusion), l’élément neutre
vecteur nd)
étant reprt5sentJ par 0, et l’opposé du
?-or
vecteur v par - v ;
2) Par une loi externe, d’ensemble d’opÇrateurs K,
appelée produit externe, le composb du scalaire a
et du vecteur v étant noté av, ou a.v (ou même va)
(la représentation
étant donc la même que celle
du produit dans K). La loi externe doit vérifier les
axiomes suivants :
(a + b) v = av + bv (distributivité par rapport aux
sommes dans K) ;
a (II + v) = au + av (distributivité par rapport aux
sommes dans E) ;
a. (fw) = ab .v d’où a. (bv) = fi. (av) (associativité
par rapport aux produits dans K) ;
e.v = v, e désignant l’él6ment neutre multiplicatif
de K.
L’ALGÈBRE
8
LINEAIRE
Supposant connues du lecteur les propriétés de
groupe commutatif, nous développerons donc simplement les propriétés faisant intervenir la loi
externe.
Ov = 0 car uv = (a + 0) v = av + Ov
aO=O
car av=a(v+O)=av+aO
Réciproquement, UV = 0 entraîne a = 0 ou Y = 0
pz ~~l.,~
f9= <BYV
~~~~l~j.
et O = a-‘*
(-a)~=-(av)car(-o)v+uv=(-a+a)v=Ov=O
De même
a (-
v) = -
(av)
(-
a) (-
v) = (Iv
(règle des signes)
Ces résultats permettent d’étendre la distributivité aux différences : (o - b) v = (o + (- a)) v
= uv+(-b)v=uv-bvet,demême:a(u-v)
= ml - UV.
Nous en déduisons finalement, par extension de
proche en proche, la règle générale de distributivité
pour le produit d’une somme algébrique de scalaires
par une somme algébrique de vecteurs :
(a - b + c).(u - v) = au - bu + cu - av + bv - cv
Une combinaison
linéaire
de vecteurs est une
expression de la forme : a1v, + aeve + . . . + or vP.
P
(Nous la désignerons souvent par I: oivi, ou plus
i-l
brièvement par &zivi.) L’utilisation de I’associativité permet d’étendre la règle au produit d’une
somme algébrique de scalaires par une combinaison
linéaire de vecteurs :
(a -
b).(cw
+ PV) = aau f
a#v -
bau - bgv
Notons que si u est combinaison linéaire de v,,
. . . , vP, et si chacun de ces vecteurs est combinaison
ESPACES
VECTORIELS
9
linéaire de w,, . , ., wp, on en déduit aisément par
application des règles précédentes que u est luimême combinaison linéaire de w,, . . ., w9.
Influence de la caractéristique du corps. - Le corps K est
de caractéristique nulle (ou infinie, selon
les auteurs)
(AM, 8 30) si e + e + . . . + e est toujours
différent
de 0.
dit
Il est aisé de démontrer
que si on pose, pour
n E Z, ne =
. . . + e (n fois)
si n > 0, ns = 0 si n = 0, et
e+e+
ru3 = - (1 R 1 e) si n < 0, l’application
n -+ ne est un isomorphisme
de Z sur un sous-anneau
de K. Cela permet
d’identifwr l’élément
ne de K avec l’élément
n de Z (en particulier l’élément
neutre
e sera donc représenté
par 1). Nous
aurons alors : v + v + . . . f v (n fois) = Iv + Iv + . . . +
Iv = (1 + 1 + . . . + 1) v = nv.
L’ensemble
des éléments
p.q-l
de K (p E Z, qE Z) constitue
alors
un saus-corps
isomorphe
à Q ; on notera
usuellement
un tel élément
p/q ;
nous pouvons
alors parler
de p/q.v
; c’est un vecteur
w tel
que qw=pv.
Si le corps K est de caractéristique
k (k désignant
le plus
petit entier
> 0 tel que e + e + . . . + e (k fois) = 0). nous
avons u-s = re, ne ayant
la même signification
que ci-dessus,
et r étant le reste de la division
de n par k (0 6 r < k). L’ensemble
des éléments
ne de K est maintenant
isomorphe
g Z/(k), anneau
des classes résiduelles
d’entiers
modulo
k
(AM, 3 12) (Z/(k) comportant
des diviseurs
de 0 si k n’est pas
premier,
on en déduit
que la caractéristique
d’un corps est
un nombre
premier).
Nous
avons
alors v + v + . . . + v
(n fois) = (ne).~
= (re).v
; cette
somme
est en particulier
nulle si n est multiple
de k ; on l’écrit
parfois
nv, mais on
prendra
soin de ne pas lui appliquer
inconsidérément
une
propriété
vue ci-dessus
(UV = 0, avec a E K, entraîne
a = 0
ou v = 0). Quant
& la notation
p/q.v, rions ne l’emploierons
que pour 0 < q < k, p/q désignant
l’élément
pe.(qe)-l de K.
La structure d’espace vectoriel s’est édifiée à
partir des propriétés des vecteurs usuels de la géométrie. Dans la présentation moderne des mathématiques, au contraire, cette structure, introduite
de façon purement algébrique comme ci-dessus,sert
de base à l’introduction ultérieure des notions géométriques. Mais de nombreux exemples de cette
structure apparaissent dans des domaines mathé-
10
L’ALGEBRE
LINERIRE
matiques
variés. ‘En particulier, si nous considkrons
les fonctions définies sur un certain ensemble E et
prenant leurs valeurs dans un corps K, nous pouvons
faire correspondre aux fonctions f et g la fonction
f+ g définie par (f+ e) (4 =f(4
+ g (4 et la
fonction kf défiuie par (kf) (a) = k.f(a). La vérification des axiomes est aisée et nous définissons
ainsi un espace vectoriel, sur K, de fonctions à
valeurs dans K. En particulier, l’ensemble E de
définition peut être une partie de RP (fonctions
de p variables). On pourra particulariser en exigeant
de ces fonctions certaines propriétés, $ condition,
bien entendu, que ces propriétés soient vérifiées
par f + g et kf lorsqu’elles le sont par f et g. Nous
parlerons ainsi d’espace vectoriel de fonctions continues, de fonctions dérivables jusqu’à un certain
ordre, de polynômes, de polynômes de degré Q n
fixé, etc. Notons enfin que K est muni de façon
évidente d’une structure d’espace vectoriel sur luimême, ou sur un sous-corps quelconque, le produit
externe cohcidant avec le produit interne dans le
corps.
2. Familles libres et liées. - On emploie fréquemment le motfamille (ou encore système)pour désigner
tme partie quelconque (hic ou infinie) d’un espace
vectoriel E. Nous dirons qu’une famille A est libre
(ou encore que les vecteurs de A sont indépendants)
si toute combinaison linéaire d’un nombre fhi de
vecteurs de A ne peut être nulle que si tous ses
(v;EAVi)
=+&
coefficients sont nuls : X&vi=0
= OVi. Sinon, la famille A est dite liée ; on pourra
alors écrire une telle relation avec des coefficients
non tous nuls ; elle sera dite relation a%liaison.
Si A se compose d’un seul vecteur v # 0, A est
libre (AV = 0 + h = 0).
ESPACES
VECTORIELS
11
Si 0 EA, A est liée (relation de liaison A.0 = 0
avec h # 0).
SiBcA,Bliée
*Aliée;doncAlibre
=+Blibre
(toute relation de liaison entre vecteurs de B est
aussi une relation de liaison entre vecteurs de A).
Si A est liée, l’un au moins des vecteurs de A
est combinaison linéaire d’autres vecteurs de A.
Car si on considére une relation de liaison : h,v,
+ hv = 0, avec par exem~e’~.‘fOh’oné,déduitvi--~~(h3-lv~.. . hp
Si A est libre, tout vecteur ne peut s’exprimer que
d’une seule façon comme combinaison linéaire de
vecteurs de A. Soit en effet : u = IZhivi = ~yivi ;
en ajoutant éventuellement des vecteurs multipliés
par 0, on peut supposer que les vecteurs intervenant
dans les 2 combinaisons sont les mêmes ; nous en
déduisons alors X (A: - y{) vi = 0, d’où ?Q= YiVi,
puisque A libre ; les 2 expressions de u sont identiques.
Considérons une partie quelconque A de E, et
soit B c A. Nous dirons Que B, supposéelibre, est
une famille libre maximale de A si la réunion de B
et d’un autre vecteur quelconque de A est liée. Nous
dirons Fe B est une famille génératrice de A (ou
engendre A) si tout vecteur de A est combinaison
linéaire de vecteurs de B ; nous dirons qu’elle est
génératrice minimale si elle cessed’&tre génératrice
quand on en supprime un vecteur. Nous pouvons
alors énoncer l’équivalence logique : B famille libre
génératrice de A o B famille libre maximule de
A o B famille génératrice minimale de A.
chii-lvp.
En effet, si la première
propriété
est vérifiée,
tout vecteur
de A # 0 n’appartenant
pas ~3 B est combiuaison
linéaire
B
coefficients
non tous nuls de vecteurs
de B, ca qui donne une
relation
de liaison pour la famille obtenue
en ajoutant ce
L’ALGÈBRE
12
LINEfAIRE
vecteur
à B ; d’autre
part, si B privée d’un vecteur
était génératrice,
ce vecteur
serait donc combinaison
linéaire
d’autres
vecteurs
de B, ce qui conduirait
a une relation
de liaison
entre vecteurs
de B. Les 2 autres propriétés
sont donc vérifiées.
Réciproquement,
si B est libre maximale,
tout autre vecteur
Y
de A vérifie
une relation
de liaison avec certains vecteurs
de B,
et son coefficient
dans cette relation
n’est pas nul, sinon on
aurait
une relation
de liaison
entre vecteurs
de B ; on peut
donc exprimer
v comme combinaison
linéaire
de vecteurs
de B,
et B est génératrice
de A. Si B est génératrice
minimale,
elle
est lire,
car sinon on exprimerait
un vecteur
de B comme
combinaison
linéaire
d’autres
; en le remplaçant
par cette
valeur
dans toute
relation
où il intervient,
on voit
que B
privée
de ce vecteur
serait encore génératrice.
Lorsque B vérifie l’une de ces propriétés équivalentes, tout vecteur de A est donc combinaison
linéaire d’une façon et d’une seule de vecteurs de B.
Lorsque A coïncide avec l’espace vectoriel E
étudié, une famille B possédant ces propriétés est
appelée base de l’espace.
Nous admettrons le théorème : Tout espace vectoriel posdde une base (1). Notons que cette base
peut fort bien être infinie ; tout vecteur de l’espace
est combinaison linéaire d’un nombre hi de vecteurs de la base, mais l’ensemble total des vecteurs
de la base est alors infini. Ainsi, l’espace vectoriel
des polynômes à 1 indéterminée possède la base
infinie formke des monômes 1, x, x?, . . ., x”, . . .,
tout polynôme étant combinaison linéaire d’un
nombre fini de ces monômes.
3. Sous-espaces; intersection et somme. - Un
sous-espace vectoriel F de E est une partie de E
poss6dant la structure d’espace vectoriel pour les
lois définies sur E. Pour cela, il faut et il suffit que F
(1) La d6monstration
de ce th6oréme
(cf. DELACHET,
L’analyse
mathdmatique.
p.
78).
utilise 4 l’axiome du choix w
( Que sais-je 7 B, no 373,
ESPACES
VECTORIELS
13
soit stable pour ces lois, c’est-à-dire que u E F,
VEF~UUEF,
n+v~F.
Nous aurons alors, en
faisant 0 = -l,-u~F,doncO=u+(-~)EF;
les propriétt%, vérifiées en général, le seront en
particulier pour des vecteurs de F. Usuellement,
on vérifiera simultanément la stabilité pour les
2 lois, de façon symétrique, par : u E F, v E F
* au + bv E F. Notons que E et l’ensemble réduit
au vecteur 0 sont 2 sous-espacesparticuliers.
Etant donnés des sous-espacesFi de E en nombre
quelconque (hi ou inhi), l’ensemble intersection G
(ensemble des vecteurs contenus dans tous, non vide
puisqu’il contient le vecteur nul) est également un
sous-espace, car u E G, v E G * u E Fi, v E Fi, VF+
donc au + bv E Fi, VFi, donc au + bv E G. Nous
l’appellerons le sous-espaceintersection, et le représenterons par fi Fi ou FI n F, n . . . n Fp dans le
cas d’un nombre hi (notation sans ambiguïté
d’après les propriétés d’associativité et de commutativité de l’intersection).
A étant une partie quelconque de E, nous pouvons
considérer l’ensemble des sous-espacesFi contenant
A (non vide, E répondant h la question) ; le sousespace n Fi contient A (v E A 3 Y E Fi, VFi, donc
v E n Fi) et est donc le plus petit sous-espace(au
sens de l’inclusion) contenant A. Nous l’appellerons
sous-espaceengendré par A, et le représenterons ici
par A. Ce sous-espace, contenant A, contient toute
combinaison linéaire de vecteurs de A. Mais, réciproquement, l’ensemble des combinaisons linéaires
de vecteurs de A est un sous-espace(car si u et v
sont combinaisons linéaires de vecteurs de A, il en
est de même de au + bv) contenant A. C’est donc A
(sinon A ne serait pas le plus petit). Toute famille
génératrice de A est génératrice de A (tout vecteur
14
L’ALG&UU%
LINÉAIRE
de A, combinaison linéaire de vecteurs de A, est
combinaison linéaire de vecteurs de cette famille) ;
si elle est libre, c’est donc une base de A, considéré
comme espace vectoriel.
Etant donnés des sous-espaces Fi de E, leur
réunion ne possèdepas en général la structure d’espace vectoriel. (Par exemple, si u E Fr, $ Fs et
v E Fs, $ Fr, ce sont 2 vecteurs de F, u Fs, mais on
ne peut rien dire de leur somme.) Nous appellerons
sous-espacesommedes Fi (en nombre fini ou infini)
le sous-espace engendré par leur réunion. C’est
donc le plus petit sous-espace contenant tous les
sous-espaces donnés. Nous le représenterons par
xFi. Dans le cas d’un nombre fini de sous-espaces,
la somme possède les propriétés d’associativité et
de commutativité de la réunion, et nous pourrons
la noter sans ambiguïté Fr + Fs + . . . + F,. Tout
vecteur du sous-espace somme est combinaison
linéaire de vecteurs des Fi ; dans une telle combinaison nous pouvons réunir tous les vecteurs appartenant à un même sous-espaceFi ; leur combinaison
linéaire partielle est un vecteur de Fc Finalement,
tout vecteur de xFi s’écrit v, + . . . + vi + . . .
+ v,, les vi appartenant à des sous-espacesFi distincts. Si l’on possède dans chaque Fi une famille
génératrice, leur réunion constitue visiblement une
famille génératrice de IZFi.
Nous rencontrons
là un aspect de structures
très générales.
La notion
de sous-espace
engendré
par A, en particulier
de
somme. a été obtenue
en utilisant
uniquement
le fait que la
famille’9
des sous-espaces
vectoriels
possède les proprgtés
:
1) Toute intersection
d’éléments
de 9 appartient
à 9; 2) EE~.
On dit qu’une
telle famille
constitue
une famille
de Moore,
l’application
qui fait passer de A à A étant
dite fermeture
de Moore.
A toute famille
de sous-espaces
Fi, partie
de 9,
correspondent,
au sens de l’inclusion,
des sous-espaces
mujor<mts (contenant
tous les Fi) et minorants
(contenus
dans
ESPACES
VRCTORIELS
15
tous les FS) ; nous venons
de mettre
en évidence
une borne
inférieure
(plus
grand
des sous-espaces
minorants= sousespace intersection)
et une borne supérieure
(plus petit
des
majorants
= sous-espace
somme)
de la famille.
Lorsque,
pour
une relation
d’ordre
sur un ensemble
9 (ici relation
d’inclusion), toute partie
finie possède une borne supérieure
et une
borne inférieure,
on dit que la relation
d’ordre
définit
sur S
une structure
de treifZis ; lorsqae,
comme
c’est le cas ici, la
propriété
s’étend
B une partie
quelconque,
on dit que c’est
une structure
de treillis
complet.
Nous dirons que ~Fi est somme directe des F,
si v, + . . . +Pi+
. . . +V~=O,
avecviEFi,entraîne vi = OVr (les vecteurs de la somme appartenant à des sous-espaces distincts, et la propriété
étant vraie pour toute somme de ce type). Si la
somme est directe, tout vecteur de l’espace somme
s’exprime d’une seule façon comme somme de vecteurs des FS : soit, en effet, u = xvi = xv;, avec
vi E Fi, V; E F( ; nous pouvons supposer en ajoutant
éventuellement des vecteurs nuls que les 2 sommes
sont composées de vecteurs des mêmes espaces;
nous avons alors X (vi - v;) = 0 d’où v, - vl
= OVi. Si la somme est directe, toute réunion de
familles libres des Fi est une famille libre de ZFJ.
Supposons
en effet que nous ayons une relation
de liaison
entre vecteurs
d’une telle réunion
; nous séparerons
dans cette
relation
tous les vecteurs
correspondant
à chaque
sousespace Fi+ et formerons
des sommes
partielles
telles qae :
wi, w; E Fi ; la relation
s’écrit
alors
hi,%
+ . . . +kqvq=
~wi=Od’ohwi=OVi;wi=Oentraînehi,=
. . . =&.=O
d’après
l’hypothèse
de famille
libre sur Fg. Finalement~toua
les coefficients
de la relation
sont nuls.
Toute réunion de bases des Fi (familles libres g&&ratrices) est donc une base de l’espace somme.
Une condition nécessaire pour qu’une somme de
sous-espaces soit directe est que L’intersection de
2 quelconques d’entre eux se r6duise au vecteur nul.
Cette condition est suffkante &ns le cas de somme
L’AL GABRJZ LINÉAIRE
16
de 2 sous-espaces,mais non suffisante dans le cas
gth?ral .
Si, en effet, v E Fi n Fi, v # 0, nous avons
v + (-'v)
= 0, avec v E Fi, (- v) E Fi ; la somme
n’est pas directe.
Soient maintenant 2 sous-espacesFr, F, tels que
Fr n Fs = (0) ; soient vr E F, vs E Fe avec vr + vs
=O;ilenrésultevr=
-vs~Fs,
donc VrEFrnFs
et vr = 0, d’où vs = 0. La somme est directe.
Donnons
un contre-exemple
dans le cas général.
Soient
v, # 0 engendrant
un sous-espace
F,, vs # 0 #Fr
(le paragraphe 5 montrera
qu’on peut construire
un tel exemple
dans
tout espace de dimension
> 1) engendrant
F,, enfin v, + vs
engendrant
Fs. On vérifie
aisément
que les intersections
mutuelles se réduisent
au vecteur
nul (par exemple
w E FI n F, *
w=hvI=y(vI+v,),y#Osiw#O;alorsvs=@-y)/y.vr,
en contradiction
avec l’hypothèse).
Cependant
la somme n’est pas directe,
puisque
:
(-
-9
+ (-
va) + h
.i.
E
l
e
+ vs) = 0
Dans le cas général, une condition suffisante
pour que la somme de p sous-espacessoit directe
est que :
(Fr
+ F, +
. . . + Fi)
n F,+r
= (0}
Vi
1G i < p
Démontrons
cette propriété
par récurrence
; on a en particulier
Fr n F, = { 0} et la somme
de F, et F, est directe ;
supposons
que la somme
de Fr, . . ., Fi soit directe; soit
VI+ . . . + y + vi+1 = 0
v~EF~;v~+~=-
--(Vu+
. . . +v~)E(F~+
. . . +Fi)nFi+I;
donc v{+~ = 0, d’où v1 + . . . + vi = 0 et vk = OVk à cause
de l’hypothèse
de récurrence
; donc la somme de F,, . . ., Fi,
F i+l est directe.
On note parfois que la somme de p sous-espaces
est directe en l’écrivant Fr 0 . . . 0 F,,.
4. Sous-espaces supplémentaires. Projections. Nous dirons que 2 sous-espacesF, et F, de E sont
f
ESPACES
VECTORIELS
17
supplémentaires lorsque leur somme est directe et
identique à E ; on doit donc avoir :. FI + F, = E,
Fr n Fs = (0). Tout vecteur v de E est alors
somme d’un vecteur vr de Fr et d’un vecteur vs
de Fs parfaitement caractéris& par v. Le vecteur v,
est appel6 projection de Y sur Fr paralldlement h F,
(cette terminologie se justifiant parce que cette
notion introduit immédiatement celle de projection
cylindrique en géométrie affine). De v = v, + vz,
w = wr + ws on déduit immédiatement av + bw
= (avr + bw,) + (avs + bw.J ; ainsi, le vecteur av
+ bw a pour projection av, + bw,; plus généralement, on voit aussitôt que si un vecteur est combinaison linéaire de plusieurs autres, sa projection est
combinaison linéaire des projections avec les mêmes
coefficients. En appliquant au vecteur nul, nous en
déduisons que la projection d’une famille liée donne
une famille liée ; en cons+uence, l’independance
des projections des vecteurs d’une famille permet
d’affirmer l’indépendance de ces vecteurs. Les réciproques sont fausses ; av, + bw, = 0 n’entraîne pas
en général av + bw = 0 ; cependant ce vecteur sera
nul si ses 2 projections sont nulles : l’existence de
la même relation de liaison pour les projections
sur Fr parallèlement à Fs et sur F, parallèlement
à Fr permet d’affirmer la même relation de liaison
pour les vecteurs considérés.
On démontre (par utilisation de l’axiome du
choix) que tout sous-espacede E possèdedes sousespacessupplémentaires. Nous établirons cette proprikté $ 6 dans le cas où E est de dimension finie.
5. Espace produit. Espace quotient. - Etant donnés p espaces vectoriels E,, . . ., E sur le même
corps K, il est immédiat de véri Her qu’on définit une structure d’espace vectoriel sur K pour
18
L’ALGÈBRE
LIN8AIRE
l’ensemble produit E, x . . . x Es en posant :
(VI, ***, v,)+(wl,...,w~)=(vl+wl,...,v,+w~)
etk(v,, . . . . v) = (kv,, . . . . kvJ.Levecteurnulest
(0, *-a, 0) et l’opposé de (vr, . . . , vs) est (- v,, . . .,
- vs), L’ensemble produit muni de cette structure
sera appelé espace vectoriel produit des E, et désigné par Er lorsque tous les Ei sont identiques g E.
En particulier, le corps K étant muni de sa structure
d’espace vectoriel sur lui-même, nous définissons
ainsi l’espace vectoriel Kp (donc caractérisé par :
. . ..
0 (k,, . . . . k,)+b
(k;, . . ., k;)=(ak,+bk;,
ak, + bkp), toutes les lettres désignant des éléments
de 9).
Proposons-nous maintenant de rechercher une
relation d’bquivalence R compatible avec la structure
d’espace vectoriel, c’est-à-dire telle que : v = v’,
w I w’ (mod R) =t- UV + bw z UV’ + bw’ (mod R).
ConsidBrons a priori une telle relation, et désignons
par A la classede 0 ; v E A, w E A z- v m 0, w zz 0,
donc UV + bw s 0, d’où av + bw E A ; A est donc
un sous-espace vectoriel ; v = v’ 3 v - v’ m v’
’ = 0, donc v - v’ E A. Réciproquement, consiGr&s un sous-espacevectoriel quelconque, A, et la
relation R : vsv’
(mod R)ov-v’EA.
On
v&ifie immédiatement la réflexivité, la symétrie
et la transitivité qui font de R une relation d’équivalence; veAcrv
3 0 (en faisant v’=O);
enfin
v 2 v’ , w E w’ =t- v - v’ E A, w - w’ E A, d’où
a (v - v’) + b (w - w’) = (av + bw) - (UV’ + bw’)
E A, c’est-à-dire av + bw = av’ + bw’. Ainsi : Toute
relation d’équivalence compatible avec la structure
d’espace vectoriel est de la forme v = v’ 0 v - v’
E A, A &ant un sous-espacevectoriel quelconque qui
constitue la classede 0.
Considérons alors l’ensemble quotient E/R (noté
aussi E/A), c’est-&&
l’ensemble des classes
ESPACES
VECTORIELS
19
d’équivalence ; les propriétés de R entraînent que
cl (v + w) (nous désignerons ainsi la classe d’un
vecteur, ici v + w) et cl (kv) sont connues lorsque
cl (v) et cl (w) le sont ; nous poserons d (v) + cl (w)
= cl (v + w) et kcl (v) = cl (kv) ; nous aurons alors :
cl (av + bw) = acl (v) + bel (w) ; la vérification des
axiomes de la structure d’espace vectoriel est immédiate. Muni de cette structure, E/A est appelé espace
quotient de E par son sous-espaceA.
Supposons que A possède un supplémentaire B.
Soient Y = v, + v,, v’ = vi + vi ; vl, vi E A; vs, vi
~B;v=v’(modR)
+v-v’~Aov-v’=vI
- vi, d’après l’unicité de la décomposition, donc
v, = v;. Une classe d’équivalence est donc un ensemble de vecteurs ayant même projection sur B
parallèlement à A ; elle est caractérisée par un
vecteur de B ; nous avons ainsi une correspondance
bijective entre E/A et B. Si cl (v) + vz et cl (w) + w,,
on a Y = v, + vs, w = wr + ws, donc UV + bw a
pour projection sur B uvs + bw,, et acl (v) + bel (w)
=cl(av+bw)-+crv,+bw,
6. Théorème fondamental sur les familles libres
génératrices finies. - Théorème : Si une partie A
quelconque de E contient une famille libre génératrice B composéed’un nombrefini p de vecteurs, toute
autie famille libre génératrice de A est finie et comporte p vecteurs.
Ce théorème se démontre par la méthode d’éckunge. Désignons par v,, . . ., vP les vecteurs de B,
et supposons qu’une autre famille libre génératrice B’ comporte au moins p vecteurs : wr, . . ., wPm
Tout vecteur de A est combinaison linéaire des
vecteurs de B, en particulier wr, soit : wr = C+v*
Tous les ai ne sont pas nuls (car w, = 0 ne pourrait
appartenir à une famille libre) ; si ai # 0, nous
20
’
!:
L’ALGJ?BPE
LINEAIRE
pouvons alOrS
exprimer Vi comme combinaison
linéaire de w, et des autres vecteurs de B et, lorsque
nous le remplacerons par cette valeur, tout vecteur
de A apparaîtra comme combinaison linéaire de w,
et de vecteurs de B privée de vi. Nous recommencerons
l’opération en appliquant cette conclusion
à w,. Supposons que nous ayons ainsi pu obtenir
après k opérations une famille génératrice de A
formée de w,, . . . , w, et de B privée de k vecteurs.
Nous exprimons alors w,+, comme combinaison
linéaire de vecteurs de cette famille, soit : w&+i
tous
les bj ne Sont. pas nuls,
= CbjVj + n,w,;
sinon nous aurions une relation de liaison entre
vecteurs de la famille libre B’ ; nous pouvons alors
en déduire (si bi # 0) vi comme combinaison linéaire
de w19 . . ., wk9wk+l et desvecteurs restants de B et,
en le remplaçant par cette valeur, obtenir finalement
une famille génératrice dans laquelle vi a Bté remplacé par wk+ia La méthode se poursuit. Au bout
de p opérations, nous obtenons la famille génératncewi, . . ..w., - B’ ne peut donc comporter d’autres vecteurs, car un tel vecteur suppl6mentaire
serait combinaison linéaire de w,, . . ., wr, ce qui
conduirait à une relation de liaison entre vecteurs
de B’. Donc B’ ne contient que p vecteurs. Si nous
supposions maintenant que B’ comporte q < p vecteurs, nous échangerions les rôles, partant de B’
pour arriver à B, et en conclure que p = q.
Le théorème est ainsi démontré, et, bien entendu,
nous pouvons l’énoncer en parlant de familles libres
maximales ou génératrices minimales (5 2). Si A
contient de telles familles avec un nombre fini de
vecteurs, ce nombre invariable sera appelé le rang
de A ; 1 vecteur non nul étant indépendant, le
rang 0 signifie que A se réduit au vecteur nul. Si
les familles libres maximales comportent une infinité
ESPACES
VECTORIELS
21
de vecteurs, A sera dite de rang infini ; on démontre
alors qu’il existe une correspondance bijective entre
2 familles libres maximales (ce qui redonne bien
l’égalité du nombre de vecteurs lorsque ce nombre
est fini). Il existe en particulier toujours des familles
libres maximales finies lorsque A est elle-même
tiie ; A comportant p vecteurs est de rang r < p.
Lorsque A coïncide avec l’espace vectoriel E ou
l’un de ses sous-espaces, notre théorème affirme
donc l’égalité du nombre de vecteurs de 2 bases
finies ; on remplace alors en général le mot rang
par le mot dimension.
Si A est de rang r, une famille libre de k < T vecteurs n’est pas maximale ; on peut donc lui ajouter
un vecteur pour constituer une famille libre de
k + 1 vecteurs ; si k + 1 < r, on recommence.
Ainsi : Toute famille libre non maxinude peut être
compl&Gepour constituer une famille libre maximale.
Reprenons notre méthode d’échange ; une famille
intermédiaire est génératrice et comporte p vecteurs ; elle est donc génératrice minimale et libre ;
ainsi, à partir d’une famille libre maximale B, on
peut en constituer une autre en remplaçant k vecteurs de B par k choisis dans une autre B’ ; on peut
choisir arbitrairement, soit ceux par lesquels on
remplace (z+, . . . , wP dans la démonstration), soit
ceux que l’on remplace (en permutant les rôles de B
et B’), mais évidemment pas les 2 à la fois. On peut
faire cela pour les vecteurs de complétion d’une
famille libre non maximale (que l’on choisit comme
vecteurs à remplacer) et qui peut ainsi être compIétée par des vecteurs choisis (non arbitrairement)
dans une autre famille libre maximale. Cette propriété, appliquée à l’espace total, porte le nom de
théorème de la base incompkite (c’est ainsi qu’on
appelle alors une famille libre non maximale) : ~128
22
L'ALG$BRB
LINEAIRE
base incompldte peut être complhfe, pour constituer
une base véritable, par des vecteurs pris (non arbitrairement) dans une autre base quelconque.
Si A est de rang r, le sous-espace engendré par A
est de dimension r (toute famille libre génératrice
de A étant une base de ce sous-espace).
Si l’espace total E est de dimension Gnie n, toute
famille libre comporte au maximum n vecteurs, et
en conséquence le rang de A quelconque est fini
et < n. Si A est un sous-espace distinct de E, sa
dimension est strictement inférieure à n (car s’il était
de dimension n, on y trouverait
une famille libre
génératrice de n vecteurs, qui serait libre maximale,
donc génératrice, de E ; tout vecteur de E, combinaison linéaire de vecteurs de cette famille, appartiendrait
au sous-espace).
Notons que ce résultat
est en défaut si A n’est pas un sous-espace ; nous
proposons de montrer en exercice que si F est un
sous-espace quelconque distinct de E, son compltfmentaire (au sens de la théorie des ensembles, qu’il
ne faut donc pas confondre avec un supplémentaire)
est toujours
de rang n.
Un exemple immédiat d’espace vectoriel de dimension n est donné par l’espace vectoriel
des
polynômes de degré < n à coefficients dans K. On
constate en effet que 1, x, . . ., x+l constituent une
base d’un tel espace.
Etant donnés p espaces vectoriels E,, . . ., ET 5
dimensions finies, chacun d’eux étant caractense
par une base (par exemple E, par v,, . . ., vii), on
constate aisément que l’ensemble des vecteurs de
la forme (0, . . ., 0, v{~, 0, . . ., 0) constitue
une
famille libre génératrice
de E, x . . . x E, ; le
nombre de ces vecteurs, qui constitue la dimension
de l’espace produit,
est égal à la somme des dimensions des E,. En particulier,
le corps K, considéré
ESPACES VECTORIELS
\
i
1
23
comme espace vectoriel sur lui-même, est Bvidemment de dimension 1, une base étant son klkment
neutre 1 ; Kn est donc de dimension n, une base
(que nous appellerons base canonique) étant formée
des éléments de la forme (0, . . . , 0, 1, 0, . . . , 0). Un
espace vectoriel de dimension n, E, étant caractérisk
par une base e,, tout vecteur Y est caractérisé comme
combinaison
linéaire unique des e,, CXie,, donc
par l’élément a = (x1, . . . , x,J de Kn. On a une
correspondance
bijective
entre E et Kn. A w
= ïcyiei correspondant
p = (yr, . . . , yJ, on a visiblement av + bw = x (a%< + byJ ei ; il lui correspond donc aa + bp.
Les propriktés
de la somme directe entraînent
que la dimension ah espace somme directe de
plusieurs autres de dimensions finies est la somme
des dimensions. En particulier,
2 sous-espaces sup
plémentaires
de E de dimension n sont de dimensions p et n - p. Une base B de E étant choisie,
nous appellerons
sous-espace
de base un sousespace FI engendré par un certain nombre de vecteurs de B ; tout vecteur d’un tel sous-espace est
de la forme zxjej, les ej formant un sous-ensemble
de B ; il est caractérisé par le fait que certaines de
ses composantes d’indices déterminés sont toujours
nulles ; le sous-espace
de base engendré par les
vecteurs résiduels e, de B, Fs, est supplémentaire
de FI car tout vecteur
de E s’écrit v = ~X,ej
+ zcx,ek et v = 0 entraîne la nullité de xxjej et
de ZZxkek, B étant libre ; Xx.e. est la projection
de v sur F, parallèlement à F,. Mous montrons ainsi
que tout sous-espacede E de dimension finie posséde
au moins un supplémentaire ; il suffit d’y choisir
une base ej et de compléter par des e, pour constituer
une base B de E ; nous sommes ramenés au cas
Btudié ci-dessus.
L’ALGÈBRE
LINÉAIRE
7. Relation
entre les dimensions
de 2 sous-espaees,
de leur
intersection
et de leur somme.
- Soient p, q, i, s les dimensions
de ces sous-espaces
; nous supposons
que la somme n’est pas
directe,
d’où i # 0 ; considérons
une base de i vecteurs
ek: de
l’intersection
FI n Fs, complétée
par p - i vecteurs
uk pour
constituer
une base de F,, et par Q - i vecteurs
vk pour
constituer
une base de F,. Tout vecteur
de l’espace
somme
est combinaison
linéaire
des vecteurs
ek, uk, vk, en nombre
égal à i + p - i + q - i = p + q - i. Supposons
que nous
ayons entre ces vecteurs
une relation
de liaison
: &ek
+
&
uk + xv, vk = 0. Nous en déduisons
: I;& ek + &k uh =
- &kvk
; ce vecteur
est contenu
dans F, (1s~ membre),
dans
F, (2s membre),
donc dans Fi n F, ; il est donc combinaison
linéaire
des ek, et on a une relation
de la forme : - &vk
=
&k ek ; c’est une rehtiOu
de liaison
entre vecteurs
de la base
en sont nuls ; vk = OVk ; donc :
de F, ; tous les coefficients
x&ek
+ &‘kuk
= 0 ; c’est une relation
de liaison
entre vecteurs de la base de F,, d’où lk = 0, yk = OVk. Tous les vecteurs introduits
sont donc indépendants
; leur ensemble
est
une base de l’espace somme et s = p + p - i, d’où la relation
fondamentale
: p + 9 = i + s. Pour
i = 0, on retrouve
la
propriété
de somme directe.
8. Restriction
du corps des scalairea.
- E étant un espace
vectoriel
sur K, considérons
un sous-corps
K, de K ; nous
pouvons
considérer
uniquement
des produits
externes
par des
éléments
de K,, définissant
ainsi une structure
d’espace vectoriel de E sur K1. Considérons
une base (non nécessairement
finie) ei de E sur K, et une base hk de K considéré
comme
espace vectoriel
sur K~ ; tout vecteur
de E s’écrit v = &ei
;
xi E K, d’où xi = &klk,
avec aik E K1: On voit aussitôt
que v est combinaison
linéaire,
a coefficients
dans’ K1, des
vecteurs
de la forme
lkei ; ces vecteurs
sont indépendants
sur KI; si nous considérons
en effet une relation
de liaison
z
Àkes- . - 0, nous devons
aVOir
xaikhk
= Ovi
g cause
kiask
de l’indépendance
des ei, d’où aik = O&iQk
à cause de l’indépendance
des &. Ainsi, les vecteurs
hke; constituent
une base
de E sur K1. On en déduit
que si E sur K et K sur & sont
de dimensions
finies n et p, E sur K1 est de dimension
np ;
si l’une des dimensions
est infinie,
la dimension
de E sur &
est infinie.
On constate
aisément
que le corps C des complexes
est de
dimension
2 sur le corps R des réels, une base étant (1, i);
ESPACES
VECTORIELS
25
tout espace vectoriel
complexe
de dimension
n est ainsi un
espace vectoriel
réel de dimension
2n. On démontre
que R
est de dimension
infinie
sur le corps Q des rationnels
: tout
espace vectoriel
sur R est ainsi un espace vectoriel
de dimension infinie
sur Q.
9. Généralisations
de la structure.
- La commutativité
du
corps K n’a pas été utilisée
dans ce qui précède ; en fait, elle
sera utilisée
dans des chapitres
ultérieurs
de cet ouvrage,
et
c’est pourquoi
nous nous sommes limités
& ce cas usuel. Mais
il est intéressant
de noter que les propriétés
précédentes
sont
encore valables
pour un corps non commutatif;
le 3* axiome
de la loi externe
étant uniquement
noté a.(bv)
= ab.v, nous
parlerons
d’espace vectoriel
à gauche sur K ; le produit
externe
par ab s’obtient
en faisant
d’abord
celui par b ; nous pouvons
imaginer
un axiome
analogue
dans lequel
il faudrait
faire
d’abord
le produit
par a; nous noterons
alors le produit
externe
: va ; l’axiome
sera : (va). b = v.ab ; nous dirons que
c’est une structure
d’espace
vectoriel
h droite.
Nous pouvons
maintenant
généraliser
en supposant
que
l’ensemble
des scalaires
n’est plus un corps, mais seulement
un anneau
possédant
un élément
neutre
multiplicatif.
La
structure
définie
par les mêmes axiomes
est dite structure
de
modub
à gauche
(ou & droite)
(ou simplement
module
si
l’anneau
est commutatif).
11 est aisé de vérifier
qu’on définit,
pour tout anneau
A, une structure
de module
sur l’anneau
Z
des entiers,
en posant
: px = x + . . . + x p fois, si p > 0,
0x = 0 et (- p).x = - (pz). Les propriétés
précédentes
sont
cette fois profondément
modifiées
; av = 0 n’entraîne
plus
a = 0 où v = 0 même si l’anneau
d’opérateurs
est d’intégrité
(par exemple,
dans la structure
de Z-module
sur un anneau
de caractéristique
finie p, on a pa = OVa). Dans une famille
liée, il peut se faire qu’aucun
vecteur
ne soit combinaison
linéaire
des autres.
(Les démonstrations
de ces 2 propriétés
utilisaient
l’existence
d’un inverse.)
Une famille
libre
génératrice
(encore
appelée
base pour l’espace
total)
est encore
libre maximale
et génératrice
minimale,
mais les réciproques
sont fausses. Le théorème
fondamental
sur l’égalité
du nombre
de vecteurs
de 2 bases finies n’est plus vrai. Notons cependant
qu’il est vrai pour les modules
sur certains
anneaux,
notamment les anneaux
commutatifs.
10. Struetnre
d’algèbre.
- Nous considkons
de nouveau
un corps commutatif
K. Nous dirons qu’un
ensemble
E est
une algèbre sur K s’il est muni à la fois d’une structure
d’an-
26
L'ALG&BRB
LINEAIRE
wau et d*une structure
d’espace vectoriel
sur K, avec m&me
loi additive,
les produits
externe
et jnteme
vérifiant
l’axiome
:
Qs.y = x.ay
= a (~.y)
(produit
interne
de l’anneau
noté .).
Nous aurons
en particulier
une telle structure
si E est un
anneau
contenant
K dans son centre (c’est-à-dire
tel qu’un
élément
quelconque
de K soit permutable
avec tous les éléments de E, ce qui est réalisé en particulier
si E est commutatif),
le produit
externe
étant identique
au produit
interne
de E. Dans le cas g&nnéral, si E possède un élément
neutre
multiplicatif
e (ce que nous supposerons
réalisé dans la suite),
on constate
aisément
que l’application
k + ke est un isomorphisme de K sur un sous-anneau
de E, qui est ainsi un corps KI
isomorphe
B K avec lequel on peut «l’identifier
», étant ainsi
ramené
au cas particulier
précédent.
Le produit
interne
de
2 éléments
de E est parfaitement
défini
quand on connatt
le
produit
de 2 éléments
d’une base : e6.q = xI+ek
; c’est ce
qu’on
appelle
la table de muZtipZication
dekl’algèbre
; bien
entendu,
les coefficients
&,‘k ne peuvent
être choisis arbitrairement.
Par exemple,
C est une algèbre
sur R ; une base
étant (1, i) et 1 étant
élément
neutre,
la table se réduit
B
is = - 1 qui définit
parfattement
le produit
dans C (cf. AM,
5 45).
Un exemple
d’algèbre
sur K est donné par l’ensemble
des
polynômes
g une indéterminée
31 coefficients
dans K, muni
des lois usuelles de somme, produit
interne,
et produit
externe
par un élément
de K. Soit alors une algèbre
E sur K ; nous
pouvons
définir
la valeur
numérique
d’un polynôme
P(X)
pour un élément
xs de E ; ce sera l’élément
de E, noté P (xs),
obtenu en remplaçant
l’iudéterminée
X par q, et en appliquant
les lois de l’algèbre
; si P (X) m a, + a,X + . . . + a,Xs,
P(xJ
= aee + aIxo + . . . + a,$.
Désignons
par
P + Q
et PQ les somme et produit
formels
(c’est-à-dire
dans l’anneau
des polyn8mes)
de 2 polynômes
P et Q ; en utilisant
les
axiomes
de la structure
d’algèbre,
on vérifie
aisément
que
P + Q) (4 = P (4 + Q (x,h
PQ (4 = P (4. Q (4 ; autrement
dit, les polynômes
somme
et produit
prennent
les
valeurs
numériques
somme et produit
; il en résulte
que les
éléments
P (x,,) et Q (x0) de E sont permutables
; pour xs
fixé, l’application
P (X) -+ P (x,,) est un komomorpkisme
de
l’anneau
des polynômes
dans l’anneau
E ; on vérifie également
que si k E K, kP (X) -+ kP (x0) ; nous dirons
que c’est un
homomorphisme
de l’algèbre
des polynômes
dans l’algèbre
E
(5 11). A toute relation
formelle
de polynômes
utilisant
les
opérations
de l’algèbre,
nous pouvons
ainsi faire correspondre
ESPACES VECTORIELS
27
une relation
numérique
analogue.
Par exemple,
si a E K est
racine
de P(X),
nous avons
une relation
de la forme
:
P (X) m (X - a) Q (X)
donnant
dans E la relation
P (xs)
= (s - 4 Q 64 ; si x,, = ae, P (xe) = 0 ; nous définissons
ainsi une racine scalaire
de P (X) dans E. P (X), de degré n,
a au maximum
n racines ; s’il en possède n (ce qui est toujours
le cas si K est algébriquemeru
clos, en particulier
K = C),
nous aurons
alors
P(X)
G a,, (X - c(r) . . . (X - as), d’où
P (x,J = a, (x,, - a, e) . . . (x,, - a, e). Si E ne comporte
pas
de diviseurs
de 0, P (x0) ne peut être nul que si l’un des facteurs
du 2e membre
est nul, et P (X) ne comporte
pas alors d’autres
racines dans E que ses racines scalaires
; cette conclusion
est
évidemment
en défaut
si E comporte
des diviseurs
de 0 ;
P (X) peut même
avoir
dans ce cas (5 49) une infinité
de
racines
dans E.
Pour
P fixé,
x0 + P (xs) définit
une application
de E
dans E appelée fonction
polynôme;
si nous la désignons
de
façon générale
par P (x), P(X)
+ P (x) définit
un homomorphisme
de l’algèbre
des polynômes
sur K dans l’algèbre
des
applications
de E dans E (espace vectoriel
de ces applications
muni
du produit
f. g tel que f .g (x) = f (x) .g (x), à ne pas
confondre
avec f o g (x) = f (g (x))).
On aura soin de ne pas généraliser
ce qui précède
aux
polyn8mes
à plusieurs
indéterminées
; ainsi on ne peut écrire
(se + yo)* = xg + y: + 2 xoy,,,
si se, ys non permutables.
APPLICATIONS
CHAPITREII
APPLICATIONS
LINÉAIRES
11. Propriét&
fondamentales
des applications Ii- Une application
linéaire d’un espace
vectoriel E dans un espace vectoriel E’, détlnis sur
le même corps, est un homomorphisme de E dans E’,
relativement
à leurs structures
d’espaces vectoriels,
c’est-à-dire
une application
f « conservant
» les
2 opérations fondamentales
somme et produit externe, ces 2 hypothèses se traduisant
par un axiome
unique : f(av + bw) = af (v) + bf(w),
Va, b E K,
v, w E E. Si elle est bijective, nous parlerons d’isomorphisme de E sur E’ ; elle possède alors une application réciproque f -l, qui est aussi une application
linéaire (car si l’on pose v’ =f(v),
w’ =f(w),
l’axiome fondamental se traduit parf-l
(UV’ + bw’)
= av + bw) ; nous dirons alors que E et E’ sont
isomorphes. Si E et E’ sont confondus, nous parlerons d’endomorphisme
dans le cas général, d’automorphisme dans le cas d’isomorphisme.
Ces mots
ont une signification
générale, relative à des structures quelconques ; il sera entendu dans la suite que,
employés sans précision, ils seront toujours relatifs
à la structure
d’espace vectoriel.
IléaireS.
E
Si
et
morphisme
conservant
E'
sont munis de structures
d’algèbres,
de l’algèbre
E dans E’ sera une application
le produit
interne
: f(x.y)
=f(x).f(y).
un homolinéaire
L’axiome de définition se généralise immédiatement : f(&vJ
= Euif(
Si A est une partie
quelconque de E, nous désignerons par f(A)
(dit
LINÉAIRES
29
image de A) l’ensemble des homologues des vecteurs de A, c’est-à-dire
des f(v),
v E A ; toute fa’ e génératrice de A a ainsi pour transformée une
&e
génératrice
de f(A).
Si A est un sousespace, f(A)
en est un : (f(v) ~f(4
f(w) ~f(4
=s uf(v) + bf(w) = f(uv + bw) ef(A))
; nous pouvons alors considérer f comme opérant uniquement
sur l’espace vectoriel A ; nous défmissons ainsi la
restriction de f à A. Si A est quelconque, engendrant
le sous-espace A, on a f(A) = f(A).
La condition
pour quefsoit surjective est évidemmentf(E)
= E’ ;
l’homologue d’une famille génératrice de E est alors
une famille génératrice de E’.
Lorsque
f est quelconque,
l’application
réciproque f-l n’est pas définie ; nous désignerons par
f-l (A’), A’ étant une partie quelconque de E’, l’ensemble des antécédents des vecteurs de A’, c’est-àdire des vecteurs v tels que f(v) E A’. Attention !
Si f n’est pas surjective,
un vecteur de A’ peut ne
pas avoir d’antécédent.
On notera que f (f-1
(A’))
= A’ n f(E).
Si A est un sous-espace, f-l (A’) en
est un (vEf-r
(A’), w Ef--1 (A’) =s f(v) E A’, f(w)
EA’, f(aV+bw)=af(v)+bf(w)E8’,
av+bw
~f-l (A’)). Nous appellerons en particulier noyau de
f et désignerons par Ker (f) = f-l { 0) l’ensemble
,des antécédents du vecteur nul de E’ (initiale du
mot Kemel ou Kem, traduction
anglaise ou allemande de noyau) ; f (v) = f(w)
* f (v - w) = f(v)
-f(w)=Oev-wEKer(f).
Une condition
nécessaire et suffisante
pour que f soit injective
est donc que Ker (f) = (0). Notons que si v’ Ef (A),
on a Y’ = f (v), Y E A ; si Y’ a pour antécédent vi,
f (vi) = f (v), vi = Y + w avec w E Ker (f) ; autrement dit : f-l (f(A)) = A + Ker (f). Si f est injective, l’homologue d’une famille libre est une famille
libre (car J$ f (vi) = 0 S- ~AiVi EKer (f), d’où
30
LI4LGÈBRE
LINÉAIRE
X?$vi = 0, et hi = OVi) ; une famille libre gdnératrice de A a pour homologue une famille libre gén&
ratrice de f (A) ; si A est de rang fini r, f (A) est alors
également de rang r.
Une application linéaire est parfaitement définie
par la donnée des homologues des vecteurs d’une
base B de E ; car si les f (ei) sont connus, v = xxi ei
a pour homologue f(v)
= &if(ei).
Réciproquement, on peut choisir arbitrairement une famille
de vecteurs e; de E’ en correspondance bijective
avec B ; il existe une application linéaire telle que
e, + ei V, (au vecteur xxiei, on fait correspondre
&e;,
et l’on vérifie immédiatement qu’on a bien
une application linéaire). D’après ce qui précède,
f surjective of(B)
génératrice de E’ ; f injective
of(B)
libre d ans E’ (car réciproquement si f(B)
libre, Y = &ei E Ker (f) * f(V) = ~Xi f (ei) = 0,
d'où
Xi = OVi et Y = 0) ; donc f bijective of(B)
base de E’ ; 2 espacesisomorphes de dimension finie
ont ainsi même dimension.
12. Exemples d’applications linéaires. - Un exemple immédiat d’application linéaire injective est
donné par l’application d’un sous-espace A de E
dans E qui, à tout vecteur de A, fait correspondre
ce même vecteur considéré comme élément de E ;
c’est l’injection canonique de A dans E. Un exemple
d’automorphisme de E est fourni par l’application
Y + kv, k étant un élément fixé différent de 0 de K ;
nous l’appellerons homothétie de rapport k. Le chapitre précédent nous a donné plusieurs exemples
d’applications linéaires ; l’un des résultats fondamentaux du 5 6 s’exprime en disant que tout espace
vectoriel de dimension finie n sur K est isomorphe
h Kn. La réalisation d’un tel isomorphisme nécessite
le choix d’une base de E. Nous parlerons d’isomor-
APPLICATIONS
LINÉAIRES
31
phisms canonique lorsque nous pourrons définir de
façon naturelle un isomorphisme sans choisir arbitrairement une base. Ainsi, l’espace vectoriel des
polynômes à une indéterminée de degré < n est muni
d’un isomorphisme canonique sur K”, par : a, + a, X
+ . . . + anT1Xn-l + (ao,*$, . . . , ai-1). Le”$4 nôus
donne un exemule remarquable d’endomornhisme
surjectif, la projkztion sur Gn sous-espaceF,; parallèlement à un sous-espace supplémentaire Fs :
v = Vl + v, + Vl ; v,=Osiv=vs~Fs;lenoyau
est Fs. La définition de l’espace quotient E/A, 5 5,
nous fournit un exemple d’application surjective :
v -f cl (v), de noyau A ; si B est supplémentaire
de A, il résulte de ce paragraphe qu’on a entre E/A
et B un isomorphisme canonique cl (v) + vs, si
v = v1 + vs ; c’est la restriction à B de l’application
de E sur E/A. Il en résulte que si A et E sont de
dimensions p et n, E/A est de dimension n - p.
Dans unti application linéaire quelconque, f(E)
est isomorphe cf EIKer (f), donc à tout supplémentaire
de Ker (f) dans E. (En effet f(v) =f(w)
* v - w
E Ker (f), donc v et w éléments de la même classe;
on a une correspondance bijective entre f(E)
et E/Ker (f),
et af (v) + bf (w) = f (av + bw)
+ cl (av + bw) = ad (v) + bd (w).) A étant un
sous-espace quelconque de E, la restriction de f
à A a pour noyau A n Ker (f) ; f(A) est donc isomorphe à A/A n Ker (f) ; en particulier, si A est de
dimension finie p, A II Ker (f) est de dimension
finie i, et f (A) est de dimension p - i ; on a donc
toujours dim f (A) < dim A, et cette propriété
s’étend immédiatement au rang d’une partie quelconque.
nit
F,x
Etant
donnée
p sous-espaces
FI, . . ., FP de E, on défiuue application
linéaire
surjective
de l’espace
produit
. . . x FP dam
l’espace
somme
FI + . . . + FP par
32
L’ALGÈBRE
LINÉAIRE
APPLICATIONS
si v, + . . .
(VI, ..*, vp) -f vx + . . . + v ; elle est injective
%, c’est-&-dire
si la somme
est
+v*=o*(v,,
. . ..vJ=
e
directe ; une somme directe est ainsi canoniquement
isomorphe
B un produit.
Si nous considérons
maintenant
un produit
d’espaces
vectoriels
quelconques
: E, x . . . x E , nous voyons
~~l~emble
des vecteurs
de la forme :,(O, . . . , 8 , vi, 0, . . . , 0),
* constitue
un sous-espace
Ei canoniquement
isomorpe
& Ei (en faisant
correspondre
vi, à ce vecteur)
;
directe
des Ei. Etant
donnés
qx
. . . X EP est somme
2 sous-espaces
supplémentaires
A et B de E, E = A + B est
isomorphe
B A x B, donc à A x E/A ; on met ainsi en évidence une sorte de réciprocité
entre produit
et quotient.
13. Opérations sur les applications linéaires. Considérons l’ensemble des applications linéaires
de E dans E’, noté Horn (E, E’) (End (E) si E et E’
confondus) ; sifet g en sont 2 éléments, on peut leur
associer l’application v *f(v)
+ g (v) ; on vérifie
aisement que c’est une application linéaire, appelée
sommede f et g, et notée f + g ; on vérifie de même
que cette loi somme est une loi de groupe commutatif, 1’6lément neutre Btant l’application nulle, notée 0, telle que v -+ OVv, et l’opposéede f étant définie par v -+ -f(v).
D’autre part, Vk E K, nous
vérifions également que Y -+ kf (v) est une appli
cation linéaire, notée kf, et appelée produit de par k. Enfin, nous vérifions les axiomes relatifs à
cette loi externe qui permettent d’affirmer que
Horn (E, E’), muni de ces 2 lois, est doté d’une
structure d’espace vectoriel sur K. (Nous laissons le
soin au lecteur de faire les démonstrations, toutes
très simples ; on notera que 2 applications linéaires
sont égalessi elles donnent même homologue à tout
vecteur ; la distributivité par rapport aux sommes
dans Horn (E, E’), p ar exemple, k (f + g) = kf + kg
résulte du fait que ces 2 applications, à tout vecteur Y, font correspondre le meme homologue :
k (f (4 + g (v)) = kf (4 + kg (+)
Considérons maintenant 3 espaces vectoriels E,
/
LINÊ‘AIRES
33
E’, E”, des applications linéaires f de E dans E’
et g de E’ dans E” ; conformément à la déhnition
générale du produit de 2 applications, nous désignerons par g 0 f (parfois par gf lorsqu’aucune confusion
ne sera à craindre) l’application Y +g (f(v)), qui
est également une application linéaire (somme et
produit externe, « conservés » par les 2 applications,
le sont évidemment dans la succession des 2).
Comme tous les produits définis par succession, il
possède la propriété d’associativit6 : h o (g of)
= (h 0 g) 0 f; c’est l’application : v + h [g (f(v))].
Nous avons évidemment Of = g 0 = 0,O désignant
l’application nulle ; mais réciproquement, on peut
avoir g of = 0 avec g # 0, f # 0. De façon précise :
pour que, f étant donnée, g 0 f = 0 *g = 0, il faut
et il suffit que f soit surjective ; pour que, g étant
donnée,gof=O*f=O,ilfautetilsuffitQueg
soit injective. Autrement ,dit, dans un produit
d’applications linéaires, les applications surjectives
sont les élthents réguliers à droite, les applications
injectives sont les éléments réguliers à gauche. (On
dit également simplifiables.)
En effet : soit f surjective,
et g of = 0 ; Vv’ E E’, 3v E E,
v’ = f(v),
d’où g (v’) = g of(v)
= 0 ; donc g = 0. Soit f non
surjective,
donc f(E)
# E’ ; choisissons
une base ei dansf(E)
complétée
par des vecteurs
ei pour constituer
une base de E’ ;
définissons
g par g (eJ = OVi, et g (ei) = w arbitraire
non
nul de E” ; on a g#O
et VuEE,f(v)=&ei,
d’où
g(f(v))=O;
doncgof=
0. Soit g injective,
et g of=
0 ;
Vv E E, g (f(v))
= 0, d’où f(v)
= 0 ; donc f = 0. Soit g non
injective
; 3~’ Ë E’,
# 0 avec g (v’) = 0 ;- choisissant
une
base ei dans E, définissons
f par f (eJ = v’ Vi ; on a f # 0
etV~EE,v=&e~,d’ohf(v)=(&)v’etgCf(v))=O;
donc g of = 0. Les directes
sont immédiates
; les réciproques
supposent
soit E”, soit E’ non réduits
au vecteur
nul; elles
semblent
utiliser
l’hypothèse
de dimension
finie ; il n’en est
rien, car l’existence-d’une
base et le théorème
de la base
incomplète
sont vrais même en dimension
infime.
2
L’ALGABRE
34
Relativement
vérifie aisément
=
k(gof);go(h+fi)
LINÉAIRE
aux opérations
précédentes,
les propriétés
: g o (kf)
= (kg)
APPLICATIONS
on
of
=gofi+gofa;kl+gsbf
= gI f + ga o f (par exemple, les 2 membres de 1.a
28 relation sont égaux comme représentant
l’appho
cation: v + g Lf.tWI + g [fi WI = g [fi (4 + fi Wls
Nous possédons en particulier ces propriétés pour
les endomorphismes
d’un espace vectoriel E ; elles
montrent
que End (E) est muni à la fois d’une
structure
d’espace vectoriel et d’une structure
d’unnecru, avec l’axiome sur les 2 produits,
c’est-à-dire
finalement d’une structure
d’algèbre.
L’algèbre des
endomorpbismes
possède un élément neutre multiplicatif, l’application
unité v -f v, que nous *gnerons par e. Nous pouvons appliquer les conslderations du CJ10 et considérer notamment
des poly
nômes d’endomorpbismes.
Les noyaux
des polynômes
P (f),
Q (f),
. . . d’un même
endomorphisme
f possèdent
des propriétés
remarquables
f
P divise
Q j Ker (P (f))
c Ker (Q (f)).
En effet,
SI
Q = RP et v E Ker (P (f)),
Q cf) (v) = R (f) [P (f) (v)l =
R (f) (0) = 0, donc v E Ker (Q (f)).
Si
D est le p.3. c.d
dss polphe~
Pi. Ker (D (f))
= n Ker (Pi (f)).
En effet,
D divise
Pi, donc Ker (D (f)
c Ker (Pi(f))
Vi, d’où Ker (D(f))
c n Ker (Pi (f)).
D’autre
il existe
des polynômes
Ui tels
part
(relation
de Bezout),
donc,
si v E n Ker (Pi (f)),
D (f)(v)
que
D=xUiPi;
XlJ. (f)
[pi (f)
(v)] = XV; (f)
(0) = I;O = 0, d’oh
7~ Ke: (D (f)) et n Ker (Pi (f))
c Ker (D (f)),
ce qui achève
la démonstration.
En particulier,
si les polynômes
Pi sont
premiers
entre eux dans l’ensemble,
l’intersection
des noyaux
des endomorphismes
Pc (f)
se réduit
au vecteur
nrd (cm
D = 1 et D (f) = e, de noyau réduit
à { 0)).
Si M est le p .p .c.m
des polynômes
Pi, Ker (M (f))
= x Ker (Pi (f)).
En effet,
Pi divisant
M, Ker (Pi (f))
c Ker (M (f))
Vi, d’où XKer
(Pi (f))
c Ker (M (f)).
D’autre
part,
Vi,
M = P, Qi, les polynômes.
Qi étant
premiers
entre eux dans l’ensemble
; il existe donc des polynômes lJ< tels que XUi QG = 1. Si v E Ker(M(f)),
Y = e(v)
- Xvi, avec vi = Ui Qc (f) (v) ; Pi (f) (~6) = Pi Ui Qi (f) (Vi)
LIN*AIRES
= Vi M (f) (vi) = 0, d’où vi E Ker (Pi (f)),
et
c B Ker (Pi
( f b\.
. ..“I,
p--.
.
S-upposons les pol+n.&we
Pon a M = Pr.P,
. . . Ln, u auwu Y~b, La somml
est directe ; en effet, Pi, premie----- r
avec
In nrndnit
. rlnnr
Ko*
35
Ker
(a6 (f))
“.A
IP.I
Kei[(Pr.P,
. . . P+J(~)]=Ke.
,- I,J ,J+ * * - -i-fie’t=j-lL
,,,
et la propriété,
d’après
une propriété
caractéristique
de la
somme
directe
(5 3). Ainsi
: le noyau
de Z’endomorphisme
représenté
par le produit
de polynômes
premiers
entre eux 2 0 2
est la somme directe des noyaux
des endomorphismes
représentés
par ces polynômes.
Notamment
si, dans cette
hypothèse,
est l’espace
total qni est
<p1*p2 -** P,) (f) = 0, le noyau
amsr somme directe
des noyaux
des endomorphismes
Pi (f) ;
cette propriété
sera appliquée
$ 52.
Nous dirons que g est inverse à droite de f, et
f inverse à gauche
de g, si f o g = e (application
unité de E’) ; f est alors surjectif, car fo [g (v)] = v
(donc g (v) antécédent de Y arbitraire) ; g est
injectif, car g (v) = 0 +- Y = e (v) = f [g (v)] = 0.
Réciproquement,
f, application
surjective
de E sur E’, est
inversible
à droite ; 1 base ei de E’ étant donnée, on définit
g
par g (4 = .yir ui étant
un antécédent
quelconque
de ej
par f (on utrhse donc l’axiome
du choix) ; on constate
que
fog
= e. De même,
g, application
injective
de E’ dans E,
est inversible
à gauche ; les g (ej) forment
une famille
libre q
de E que l’on complète
par des vk pour constituer
une base
de E; on définit f par f (q) = ei, f (vk) étant arbitrairement
choisi ; on constate
que fo z = e.
Notons
qu’un
inv&seӈ
droite
g et un inverse
A gauche h
de f sont nécessairement
égaux,
car h = h o e = h o (f o g)
= (h of) o g = e o g = g (propriété
valable
pour toute loi
associative)
; il peut exister
plusieurs
inverses
B droite,
mais
alors il n’y a pas d’inverse
B gauche,
et réciproquement
; en
particulier,
un inverse
bilatère
s’il existe,
est unique.
Les réciproques ci-dessus sont évidentes dans la
réunion des 2 cas, c’est-à-dire lorsque f est bgectif;
l’inverse est l’endomorphisme réciproque f-1 (définissant l’application f(v) -+ v, d’où f of-l = f-l
36
L’ALGBBRE
LINlhlIRE
endomorphisme est
in&&
si fs = e, ce qui entraîne f inversible (d’inVe :rse f”) donc bijectif;
Si f est inversible, f-1 l’est, d’inverse $ D’autre
pa%f,g,
h, .‘. . étant inversibles, il en est de même
defogoho
. ..et(fogoh
. ..)-r=
. ..h-log-l
of-lT,an
éléments
inver&bles
de
I&d
(E) forment
-.l
- -----~~
donc un groupe, dit groupe linéaire de E et noté
GL (E). La relation ci-dessus donne en partmuher :
(y)-‘=
(f-l)” ; cet endomorphisme 6tant noté f-”
on définit ainsi les puissances entières négatives,
d’où f”, Vn E Z, en posant f0 = e. qn vérifie que
les propriétés fondamentales des pmssances sont
encore vraies, c’est-à-dire : f’o fP =fn+P, (f”)r = f””
si f et g sont permutables. (Ces
et (fog)” =f”og”
propriétés sont évidemment valables dans tout
groupe.) Rappelons enfin qu’on définit sans ambiguïté les quotients à droite et à gauche par un élément
inversible : fog=heg=f-loh;gof=ho
g = bof-1.
Si g est un isomorphisme de E sur E’, on vérifie
aisément que f -+ h = gofog-l(d’oùg-lohog=f)
est un isomorphisme de End (E), muni de sa structure d’algèbre, sur End (E’) (par exemple : (g ofi og-‘)
0 (g ofi
0 g-l) = g 0 (fi of.) 0 g-r). Si f est inversrble,
h l’est aussi. Les groupes GL (E) et GL (E’) sont
donc alors isomorphes.
nou.9donneun exemple
La projectia in 8ui un sous-espace
of=
e). Nous dirons qu’un
d’endomorphisme
idempotent
: fB = f(v$
vr+
vr). Montrons
que cette relation
caractérise
les projectrons.
Etant
donne un
endomorpbisme
quelconque
f, on peut
écrue
: V = f(V)
d’où- E 7 f IF) + F. F étant
l’ensemble
des
+ (v - f(v)),
is&&’
que F est un sous-espace
;
e v sur f(E)
si la somme est directe,
l’hypo:
e’eSt%-dire
S~~[E)
n F = { 0 1; c’est ici qu’intervient
thèse fa =f, carf(vr)
= vs 1 &Vs) * f (vr) =f(f(vJ)
=fV2)
\ _ f Iv-l = 0. Notons
que
dans ce cas
- f(f(v2))
= f(v2, iv) L’&
v g v-- .f(v) EF et réciproqneF = Ker (f) car fi
APPLICATIONS
LIN&AIRES
ment V = Vl -~(VI)*~(V)
que, dans une projection,
supplémentaires.
31
=Y(y)
l’image
-f(vl)
de E
et
= 0. On vérifie
le noyau
sont
Les homothéties constituent visiblement un sousensemble de l’algèbre des endomorpbismes isomorphe au corps de base K. On démontre que c’est
le centre de cette algèbre, c’est-à-dire l’ensemble
des endomorpbismes permutables avec un endomorphisme quelconque.
14. Applications
linéaires
entre espaces de dimenfinies.
- Lorsque f(E)
est de dimension
finie r, l’application linéaire f est dite de rang r ;
nous serons dans ce cas si E’ est de dimension finie n’,
et r< n’; nous serons Egalement dans ce cas si E
est de dimension finie n ; alors Ker (f) = Ker (f) n E
est de dimension finie d, et le résultat fondamental
du 5 12 montre que r = n - d, d’où r Q n. Nous
supposerons dans la suite de ce paragraphe que n
et n’ existent. Les applications surjectives sont
caractérisées par r = n’, les applications injectives
par r = n. Nous en déduisons la conséquence fondamentale suivante : Si une application linéaire entre
2 espacesde même dimension finie (en particulier un
endomorphisme d’un tel espace) possède l’une des
2 proprit%és : injective, ou surjective, elle possède
l’autre, et est donc bijective.
sions
Ce résultat
est faux en dimension
infinie.
Exemple
: dans
l’espace
vectoriel
de tous les polynômes
à 1 indéterminée,
la
dérivation
P (X) + P’ (X) est une application
linéaire
sur-
jective sansêtre injective, et
P(X)
-f
X
P(t) dt est une
I a
.
.
. . .
. .
apphcatron
Imearre
mjective
sans être surjective
(a étant un
scalaire fixé) ; on vérifie
que la dérivation
possède une infinité
d’inverses
A droite (deuxième
application
ci-dessus,
Va) ; mais
elle ne possède pas d’inverse
à gauche. La notion d’application
linéaire
se généralise
aisément
aux modules,
et on peut parler
de dimension
finie lorsqu’il
y a 11118 base finie ; le résultat
ci-
L*ALG&BRE
38
LINEAIRE
APPLICATIONS
g;$)j
dessus ne se gknéralise
pas ; notons
cependant
que, pour les
modules
de dimension
finie sur les anneaux
commutatifs,
tout
endomorphisme
surjectif
est injectif,
la réciproque
étant fausse.
Nous déduisons de ce qui précède des propriétés
remarquables des endomorphismes d’un espace de
dimension finie ; tout endomorphisme régulier unilatère (ou inversible unilatère) est surjectif, ou
injectif, donc bijectif, donc inversible et régulier.
Ainsi : il n’existe pas d’endomorphismes réguliers ou
inversibles d’un seul côté ; il y a équivalence entre
les 5 propriétés : régulier, inversible, injectif, surjectif,
bijecti$ E étant de dimension n, le groupe de ces
endomorphismes, isomorphe à GL (K”), sera d$igné
par GL,, (K) (ainsi caractérisé à une isomorphe près
par la donnée de n et K).
Nous désignerons ci-dessous par r (f) et d (f) le
rang de f et la dimension de Ker (f) ; ces nombres
vérifient, relativement aux opérations étudiées cldessus,des inégalités remarquables : r (g of) = dim g
[fr)Jtz
$~&<~g’o~) rJfd;L;($)‘)
rbf)
= E’ =- g ID)I
= r (9). bai
:
r(gof) a r(g)
G r(f)
On 8 en particulier r (g of) = r (f) si g est injective.
On a en particulier r (g of) = r (g) si f(E) = E’
donc si f est surjective.
On généralise immédiatement : le rang d’un
produit est inférieur ou égal à celui de chacun des
facteurs.
Soit v’ E (f + g) (E) ; v’ = f(v) + g (4 E f(E) + g (Eh donc
(f+g)(E)cf(E)+g(E)
et dimtf+dtE)Gd=tf(E)
+
g (E))
< dim f (E)
si k # 0 r (kf)
+
= r (f)
bijectkw)
; notamment,
f=f+g-g,r(f)~r(f+g)+rtg),etr(f+g)~r(f)
dim
g (E).
Ainsi
:
(produit
de f par une homothétie,
r (- f) = r (f) ; donc, en posant :
LINÉAIRES
39
id. en emmtant f et g, et finalement : r (f + g)
- r td P.
bnsiaérons&
nouveau
un produit
g of; si v E Ker (g of),
(g 0 f) (v) = 0, d’où, si v’ = f(v),
g (v’) = 0 et v’ E Ker (g) ;
donc, f [Ker (g of)]
c Ker (g) ; d’autre
part,
v E Ker (f)
=+f(v)=O,d’où(gof)(v)=O,
doncKer(f)cKer(gof).
Nous
en déduisons
: d( )a
dimf
[Ker(gof)]
= dim
Ker(gof)-dimKer(go
P )nKer(f)=dimKer(gof)
- dimKer(f)
= d(gof)
- d(f).
Ainsi
:
d(gof)
G d(f)+
d(g)
L’inégalité
peut s’écrire : n - r (g 0 f) < n - r (f) + n’ - r (g),
d’où r (g of) > r (f) + r (g) - n’ (n’ dimension
de l’espace
intermédiaire
E’) ; elle se généralise
immédiatement
g un
y-luit
quehque
: d (fi o fi . . . o f,) =S d (fi) + d (fi)
. . . +d(fn).
15. Formes linéaires. - Une forme linéaire sur E
est une application linéaire de E dans K (considéré
comme espace vectoriel sur lui-même) ; elle fait
donc correspondre à tout vecteur v de E un scalaire f (v) tel que f (XzieJ = &f
(eJ. Sauf pour
la forme linéaire nulle (f(v) = Ovv), f(E), de dimension > 0, coïncide donc avec K, et f est surjective. La valeur f (v) d’un vecteur pour f est souvent
appelée produit intérieur de f et v; et notée < f, v >
(ou<v,f>);sif(v)=O,onditquefetvsont
orthogonaux ; pour f donnée, l’ensemble des vecteurs
orthogonaux à noyau de f, forme un sous-espace,
de dimension n - 1 si E de dimension n, dit hyperplan vectoriel d’équation f = 0 (droite vectorielle si
n = 2, plan vectoriel si n = 3). L’ensemble des
formes linéaires sur E forme (9 13) un espace vectoriel, appelé dual de E et noté E’.
Comme toute application linéaire, une forme
linéaire est caractérisée par les valeurs prises sur
les vecteurs de base ; si ai = f (ei), v = &II+
*f(V)
= &Xi; lorsque E est de dimension finie n, une forme f est ainsi caractérisée par ses
f,
.‘
,._
“V
*
::
An
L’ALGEBRE
APPLICATIONS
LINfiAIRE
LINEAIRES
41
/
16. Sous-espaces
orthogonaux.
- Soit A c E ; nous dirons
que f é E’ est orthogonale
B A si elle est orthogonale
à tous
les vecteurs
de A ; elle est alors orthogonale
& toute combinaison linéaire de vecteurs
de A, donc
au sous-espace
A
engendré
par A. Ces formes
f forment
un sous-espace
A’
deE’,~ar,siv~A,f,(v)=fs(v)=O~(of+bbf,)(v)=O;
nous dirons que A’ est le sous-espace orthogonal
h A. Supposons
E de dimension
finie n, et le sous-espace
A de dimension
p ;
choisissons
une base ei dans A, complétée
par des ei pour
constituer
une base de E ; f sera orthogonale
b A si et seulement si elle est orthogonale
B tous les ei, c’est-à-dire
si a.
= f (ei) = OVi 1 Q i G p, autrement
dit si les i premières
composantes
def dans la base duale des cpi sont nulles ; A’ est
donc le sous-espace
engendré
par les n - p derniers
vecteurs
de la base duale ; il est ainsi de dimension
n - p, isomorphe
b un supplémentaire
de A (dans l’isomorphisme
qui fait passer
d’une
base B la base duale),
donc isomorphe
& E/A. Nous
pouvons
intervertir
les rôles ; à tout nous-espace
B’ de dimension q de E’, nous ferons correspondre
l’ensemble
des vecteurs
orthogonaux,
formant
un sous-espace
de E ; nous partirons
cette fois d’une base de B’ complétée
dans E’ et considérerons
la base de E dont elle est duale, pour finalement
conclure
que
le sous-espace
orthogonal
est de dimension
n - q. En particulier, le sous-espace
orthogonal
B A’ contient
visiblement
A ;
mais il est de dimension
n - (n - p) = p ; il comcide
donc
avec A ; il y a réciprocité
complète
entre A et A’. Cette réciprocité
n’est
pas réalisée
en dimension
infinie.
Notons
que
A c B =z= B’ c A’, (A + B)’ = A’ n B’, (A n B)’ = A’ + B’.
(Les 2 premières
relations,
valables
en dimension
quelconque,
rkltent
immédiatement
des définitions
; la 3a, supposant
la
dimension
finie, se ramène
B la 2e en utilisant
la réciprocité
vue ci-dessus.)
Considérons
un système
de p équations
linéaires
homogènes
à n inconnues
; les p formes
linéaires,
supposées
de rang t,
représentées
par les premiers
membres
de ces équations
dans
me certaine
base de E’, caractérisent
un sous-espace
de
dimension
t de E’ ; toute solution
(~1, . . . , za) de ces équations
représente
les composantes
dans la base duale de E d’un
vecteur
du sous-espace
orthogonal
; ces « vecteurs
solutions
»
forment
ainsi un sous-espace
vectoriel
de dimension
n - t.
Réciproquement,
tout
sous-espace
A de dimension
p de E
peut
être caractérisé
par son sous-espace
orthogonal,
luimême engendré
par p formes
linéaires
indépendantes
; nous
6crirons
qu’un
vecteur
appartient
B A en écrivant
qu’il est
orthogonal
k ces n - p formes,
donc en écrivant
n - p équa-
n coefficients u,, c’est-à-dire par l’klément (a,, . . . , a,)
de K” ; g étant caractérisée par (b,, . . ., b,), on voit
aisément que af + @g est caractérisée
par (a%
+ p4, es-9 acr, + @J ; on a ainsi un isomorphisme
de E’ sur K”, et on en déduit finalement que tout
espace vectoriel de dimension Snie est isomorphe
B
son dual ; c’est faux en dimension intie.
On peut
encore dire que la valeur d’une forme, en dimension n, est celle d’un polynôme homogène du ler degré à n variables ; c’est de là qu’est issue la terminologie, le mot forme
désignant initialement
un
polynôme homogène. Notons que l’isomorphisme
mis
en évidence nécessite le choix d’une base B de E ;
nous pouvons préciser en considérant les n formes
linéaires particulières
<pi définies par : ‘pi (eJ = 1,
‘pi (ej) = 0 si j # i ; si f (v) = Xaixi,
nous avons
visiblement
f = Xa,<p; ; d’autre
part, Zai ‘pi = 0
signifie que cette forme est la forme nulle, donc que
ainsi une base
ai =f(ei)
= OVi; les ‘pi forment
de E’ qu’on appelle base duale de la base B de E.
(En dimension infinie les ‘pi forment une famille
libre mais non génératrice.)
Soit vs fixé ; g tout fi
E’, nous pouvons
faire correspondre
le scalaire
f(vs)
; à aff
Sg correspond
af(vs)
+ bg (vs) ;
nous définissons
ainsi une forme
linéaire
sur E’, donc un
élément
de son dual, appelé bidual de E et noté E”. Si E est
de dimension
finie, tout élément
de E” peut ainsi être caracen effet une base ci
térisé par un vecteur
de E ; choisissons
sur E’ est caracde E et la base duale Cpi ; une forme linéaire
térisée par les valeurs des cpi, soit cpi + si ; elle est alors caratmmétérisée par vs = &i ei, car ‘pi (vs) = %i ; nous VéliflOnS
diatement
que si vs et sv,, caractérisent
les formes linéaires
?
UV,, + bw,, caractérise
oh + by. Nous avons amsi
etysl.lrE’,
un isomorphisme
canonique
de E” sur E qui nous permettra
dans la suite de les identifier.
Il en résulte
qu’étant
donnee
une base quelconque
& sur E’, nous pouvons
caract$iser
les
formes linéaires
telles que : +i + 1, *j-t
0 si j # s par des
vecteurs
y de E, et constituer
ainsi une base de E dont les Jr$
constituent
la base duale.
t
42
L’ALGÈBRE
LINEAIRE
tiens linéaires
homogènes
vérifiées
par ses composantes
dans
nne certaine
base ; nous les appellerons
équations
du sousespace dans cette base.
Etant
données
p formes
linéaires
fi, considérons
l’application
linéaire
v-f
cfr (v), . . .,& (v))
de E dans KP ; SOII
noyau,
ensemble
des v tels que fi (v) = OVi, est donc de
dimension
n - r, si r est le rang de l’ensemble
des formes ;
cette application
est donc de rang r ; elle sera surjectiue
si
r = p ; cela signifiera
qu’étant
donnés p éléments
arbitraires
h. . . . , hP de K, 3v tel que fi (v) = & Vi. Ainsi : une propriéts’
caractéristique
des formes
linéaires
indépendantes
est de pouvoir
prendre
des valeurs arbitrairement
données ; c’est cette propriété
qui les rattache
à la notion
générale
de fonctions
indépendantes.
Nous pouvons
énoncer
ce résultat
: une condition
nhessaire
et suffisante
pour
qu’un
systhne
de p équations
liuéaires
ct n inconnues
ait des solutions
quels que soient les
seconds membres est que son rang (défini comme celui des formes
linéaires
constituant
les premiers
membres)
soit égal à p. La
solution,
si elle existe, sera unique
si l’application
linéaire
cidessus est injective,
c’est-à-dire
si r = n. Nous aurons
donc
une solution
et une seule quels que soient les seconds membres
si r = n = p (système
de Cramer).
17. Transposde
d’une
application
linéaire.
- Considérons
2 espaces vectorieb
E et E’ et une application
linéaire f de E
dans E’. A toute forme linéaire
‘p’ sur E’, nous pouvons
faire
correspondre
la forme linéaire
‘p = <p’ of sur E ; nous caractérisons ainsi une application
de E” dans E’, qui est linéaire,
carsiR=
’ of, acp + bq, = (acp’ + b<p;) of;
nous la désignerons
par Yf, et l’appellerons
transposée
de f; f + ‘f représente ainsi une application
de Horn (E, E’) dans Horn (E”, E’) ;
c’est une application
linéaire,
car si ‘g représente
l’application
‘p’+
<p1 = 9’ o g, t(af + bg) représente
l’application
<p’+ ‘p’
‘(of
o (af + Qg) = a (4 of) + b (9’ 0 g) = acp + bcpl ; donc
+ bg) = atf + b ‘g. Considérons
maintenant
une succession
d’applications
f de E dans E’ et g de E’ dans E” ; t(g of)
caractérise
l’application
de E”’
dans E’ : qY+
y” 0 (g on
= (9” 0 g) o$; l’application
(p”+$ = 9” 0 g est g ; 9 + ‘p
= ‘p’ 0 f est f; donc
cp”+
9 est ‘fo ‘g et ‘(g 0 f) = “fo ‘g.
Supposons
E, donc E’, de dimension
n, E’, donc E”
de
dimension
p, et f de rang r ; q’ appartient
au noyau
de “f si
‘p (v) = OVv, c’est-à-dire
cp’ (f(v))
= 0 ; q’ est ainsi caractérisée comme
élément
du sous-espace
orthogonal
B f(E), de
dimension
p - r ; l’espace
de départ
étant
de dimension
p,
‘f est donc de rang r : une application
lin&aire et sa transpos6e
!
APPLICATIONS
LINEAIRES
43
ont même rang ; f surjective
9 r = p e tf injective
; de
même f injective
-++ ‘f surjective.
Supposons
E et E’ confondus,
et f bijective,
d’où tf bijective;
on a f(f-*)otf=f(fof-l)=te=e
(car f=e*cp
= 9’);
donc t(f)-’
=‘(f-l);
cet isomorphisme,
noté tf-1,
est appelé isomorphisme
c0ntragrtiieu.t
de f.
18. Complexification
d’nn eapaee vectoriel
réel. - Le problème de l’extension
du corps des scalaires d’un espace vectoriel,
en quelque
sorte réciproque
de la restriction
étudiée
8 8, sera
étudié ici sous 2 aspects dans le cas particulier
usuel des corps R
et C (en fait, ce que nous dirons s’applique
à un corps commutatif quelconque
et 31 son etiension
quadratique,
lorsque
celleci est elle-même
un corps ; par exemple,
on peut remplacer
R
par Q et C par Q (i)). Etant donné un espace vectoriel
E sur R,
nous nous proposerons
d’abord
de le plonger
dans un espace
vectoriel
F sur C, c’est-à-dire
de déterminer
un isomorphisme
entre E et un sous-espace
E, de F considéré
(ce qni est loisible)
comme espace vectoriel
sur R. Le problème
est immédiatement
résolu en dimension
finie n, E étant isomorphe
& Ra, sousespace vectoriel
réel de C” (notons
bien que Rn n’est pas un
sous-espace
vectoriel
complexe
de C” ; si (a,, . . ., a,J E Rs,
k (ai, . . . , a,J E Rn si k E R mais non si k E C). Il est intéressant
de donner
une solution
intrinsèque,
valable
en dimension
infinie
; pour cela, il suffit de remarquer
que (v, v’)+
v + iv’
est un isomorphisme
de Ra x Rs sur Ca, considérés
comme
espaces
vectoriels
sur R, et que, dans cet isomorphisme,
a + ib) (v + iv’) = av - bv’ + i (bv + av’) -+ (av - bd,
alors donné un espace vectoriel
réel qnel6 v + av’). Etant
conque
E, nous considérerons
sur E x E la loi externe,
de
corps de scalaires
C, (a + ib) (v, v’) = (av - bv’, bv + av’) ;
il est immédiat
de vérifier
que, muni de cette loi et de sa loi
interne,
E x E est un espace vectoriel
F sur C, et que (v, v’)
= (v, 0) + i (v’, 0) ; la loi de définition
donne
a (v, v’)
(av, av’) pour
a E R, et l’on
obtient
bien la structure
zespace
vectoriel
réel de E x E comme
cas particulier;
enfin, relativement
à cette structure,
E est isomorphe
g l’ensemble des (v, 0). Si E est de dimension
n, avec la base des e;,
les (ei, 0) constituent
une base de E x E sur C (v = &eb
v’ = %iek
+ (v, v’) = 2 (xk + izk) (ek, 0)), de dimension
n,
et l’ensemble
des (e;, 0) et des (0, ei) une base de E x E sur
R, de dimension
2n. Une base telle que (ei, 0) est dite base
réelle de F ; un vecteur
réel (c*est&dire
contenu
dans l’ensemble des (v, 0) identifié
B E) a ses composantes
réelles dans
de telles bases ; les 2 vecteurs
(v, v’) et (v, - v’) sont: dits
L'ALGÈBRE
44
LINEAIRE
complexes
conjugués
; leurs composantes
de même rang, dans
une base réelle, sont complexes
conjuguées.
Un autre aspect
du problème
d’extension
est celui de la
détermination
sur un espace vectoriel
réel F d’une structure
d’espace vectoriel
complexe
; nous ne l’étudierons
que lorsque
ces espaces sont de dimensions
finies ; si F est (te dim~nsron.
n
sur C, il sera de dimension
2n sur R ; une condctcon necessave
est donc qw F soi: de dimension
paire
SUT R ; nous allons
le
montrer
que cette
condition
est suffisante
; supposant
problème
résolu,
remarquons
que v+
iv sera un isomorphisme f de l’espace
vectoriel
réel F vérifiant
fs = - t Réciproquement,
considérons
la base e,, . . . , r,, . . . , es,, de 1 espace
vectoriel
réel F, et définissons
f par f(~k)
= en+krf(en+k)
Vk 1s k < n ; f est un isomorphisme
vérifiant
posons
(a + ib) v = av + bf (v) ; nous vérifions
aisément
que nous
définissons
ainsi
sur F une structure
d’espace vectoriel
complexe,
redonnant
comme cas particulier
la structure
initiale
(lorsque
b = 0). Si F est l’espace
E x E
de l’alinéa
précédent,
on vérifie
qu’on obtient
la même structure
-.
crue DréCédemment
en prenant
la base définie
par ek
=
q
(ekr
oh
En+
k =
(0,
ekb
Etant
donné
un endomorphisme
g de l’espace
vectoriel
réel E, l’application
(v, v’)-+
(g (v), g (v’)) est un endomorphisme
de l’espace
vectoriel
réel E x E que nous noterons
g (v, v’) ; nous avons alors g [(a + ib) (v, v’)] = g (4~ - bd,
bv + av’) = (ag (v) - bg (v’), bg (v) + ag (v’)) = (a + ab) (g (4.
g en un
g (-9) = (a + 3 g ( v, v’) ; nous avons ainsi prolongé
de sa structure
d’espace
enclomorphisme
de E x E muni
vectoriel
complexe.
Notons
bien que g n’est pas l’endomorphisme
le plus général
de E x E. Etant
donné
un ,espace
vectoriel
réel F sur lequel on définit
une structure
_^
cl espace
vectoriel
complexe
au moyen
de f tel que f” = - e, nous
aurons,
g étant
un endomorphisme
quelconque
de F réel :
g [(a + ib) v] = g (av + bf (v)) = ag (v) + b (g of) (v) ct (a
+ ib) g (v) = ag (v) + b (f o g) (v) ; g n’est un endomorphtsme
de F complexe
que s’il est permutable
avec f. C’est le cas du
prolongement
aéfii ci-dessus. Notons également qu’une forme
linéaire
sur F ne peut l’être à la fois pour les 2 structures
; si,
en effet, cp est une forme linéaire
réelle sur F (application
de F
dans R), <p (v) et cp (iv) sont réels, alors que si cp est une forme
linéaire
complexe
‘p (iv) = i9 (v), en contradiction
avec le
résultat
précédent.
CHAPITRE III
MATRICES
19. Principes
fondamentaux
du calcul matriciel.
Etant
donné un ensemble E muni d’une certaine
structure algébrique, les matrices sur E sont des
familles Gnies d’éléments de E, représentées par des
tableaux rectangulaires, pour lesquelles on défhit
certaines opérations. Nous renvoyons le lecteur au
Calcul matriciel élémentaire pour les débitions classiques, de nombreux aspects élémentaires de la
question et, notamment, l’étude de certaines matrices particulières. Nous désignerons dans ce qui
suit les dimensions de la matrice par p (nombre
de lignes) et n (nombre de colonnes), l’élément
+r$ral par aij ; l’égalité de 2 matrices signifie I’égahte des dimensions, et des termes généraux correspondants : A = B o aiî = bij\di, j ; elle correspond à np égalités scalaires.
Usuellement, E sera toujours muni d’une loi de
groupe commutatiJ notée additivement ; on lui fait
correlpondre une loi additive entre matrices de
mêmes dimensions par : C = A + B
+ bii, Vi, j. On vérifie aussitôt qu’on d6zFzz
sur l’ensemble des matrices de dimensions données,
une loi de groupe commutatif, l’élément neutre
étant la matrice nulle (d’éléments tous égaux à 0,
notée 0 quelle que soit la dimension) et l’opposée
de A étant - A, d’élément général - aij.
E étant muni en outre d’une loi notée multiplicativement,
nous définirons le produit A.B
L’ALG&RRE
46
MATRICES
LINÉAIRE
de 2 matrices de dimensions p, n et p’, n’ lorsque
’ ; ce sera alors une matrice à p lignes et
:‘TZlonnes,
d’élément général ci,-= Zaik. bki (la
k
condition d’existence de ce produit se traduit par
le fait que le x comprend n = p’ termes ; on se
rappelle les résultats relatifs aux dimensions par la
règle mnémotechnique : p/n. n/n’ = p/n’). Si la loi
sur E est associative, le produit de matrices est également associatif (bien entendu, il faut s’assurer
que les produits en question sont définis), car
Clj = $a{k ( Ibklcf,)
donnant l’égalité
7
( Laik
bkl)
des termes généraux de (AB)C et A(BC). De même,
si le produit sur E est distributif par rapport à la
somme, cette distributivité
se conserve pour le
produit et la somme matriciels : zaik (bkj + ckj)
k
=
&ik
bkj
+
xaik
ckj
(égalité
analogue pour
la
dis&butivité
,k droite). Ces propriétés seront simultanément réalisées dans le cas usuel où E est muni
d’une structure d’anneau ; la somme et le produit
sont toujours définis entre matrices carrées de
même ordre ; les opérations précédentes définissent
alors sur l’ensemble des matrices carrées sur E
d’ordre donné une structure d’anneau.
Visiblement, A. 0 = 0. A = 0 VA ; mais, réciproquement, on verra 5 20 que le produit de 2 matrices
peut être la matrice nulle sans qu’aucune des 2 ne
soit nulle, même si l’anneau E sur lequel elles sont
délinies ne comporte pas de diviseurs de 0 ; de
même, la commutativité du produit dans E n’entraîne pas celle du produit matriciel.
On constate immédiatement que le produit de
la matrice A d’élément général aij par la matrice
scolaire d’hlément k et d’ordre convenable est la
41
matrice de mêmes dimensions que l’initiale et d’élément général bjj ; nous noterons cette matrice kA,
définissant ainsr le produit d’une matrice par un
scalaire, auquel nous pouvons appliquer les propriétés d’associativité et de distributivité du produit
matriciel, dont il est un cas particulier. En particulier, si E possède un élément unité e, la matrice
scalaire d’élément e est dite matrice unité et notée 1
(1, si l’on veut préciser son ordre) ; 1 .A = A. 1 = A.
Dans ce cas, on voit que les opérations somme et
produit par un scalaire, avec les propriétés indiquées,
définissent sur l’ensemble des matrices de dimensions données une structure de module sur E.
Si E est M corps commutatif K, nous avons sur
les matrices de dimensions données n et p une
structure d’espace vectoriel de dimension np (on
considère les np matrices telles que 4. délinie
par aiii = 1 et tous autres éléments nd s ; elles
forment une base de cet espace vectoriel) ; en particulier, l’ensemble des matrices uni-lignes à n colonnes (ou uni-colonnes à n lignes) est un espace
vectoriel de dimension n, canoniquement isomorphe
à K” (un élément de K” caractérisant la suite des
n éléments d’une telle matrice). En adjoignant le
produit matriciel général, nous obtenons sur l’ensemble des matrices carrées d’ordre donné une
structure d’algèbre.
Nous considérerons également le cas de 2 ensembles E et K (munis chacun d’une loi de groupe
commutatif additive), supposant défini le produit
externe d’un élément de E par un élément de K
(donnant M élément de E) ; nous détirons alors
par la même règle que précédemment le produit
externe d’une matrice sur E par une matrice sur K ;
nous aurons de façon analogue conservation de la
distributivité par rapport aux sommes et, si K est
48
L’ALG3bRE
LINBAIRE
muni d’un produit interne associatif par rapport
au produit externe, conservation de cette associativité ; nous pourrons considérer également le cas
particulier du produit par une matrice scalaire
sur K, notamment d’une matrice unité. Le cas
usuel sera celui où E est un espace vectoriel sur
le corps commutatif K ; nous représentons indifféremment le produit externe par av ou va ; nous
pouvons donc définir le produit 8 droite ou à
gauche d’une matrice sur E par une matrice sur K ;
les propriétés précédentes sont vérifiées, et l’ensemble des matrices sur E de dimensions données
forme ainsi un espace vectoriel sur K ; notamment,
les matrices uni-lignes à n colonnes forment un
espace vectoriel isomorphe à E”. Dans toute la
suite, nous utiliserons uniquement des matrices
sur un corps commutatif K, dit corps des scalaires,
représentées par des majuscules ordinaires, et des
matrices uni-lignes ou uni-colonnes sur M espace
vectoriel E sur K, représentées par des majuscules
en caractères gras.
20. Reprhsentations matricielles. - Considérons
n vecteurs VI, . . ., v,, de E combinaisons linéaires
de p autres n,, . . . , up, soit : vj = Zaiiui ; nous
*
introduirons la matrice A d’élément général a+
de telle façon que le je vecteur soit caractérisé
par les éléments de la je colonne de cette matrice ;
la règle du produit matriciel montre immédiatement que ceci se traduit par la relation : (vr, . . . , v,J
= tu17 . . . , up) .A. Si les ui forment une base de E
supposé de dimension p, l’unicité des composantes dans une base entraîne que la donnée des
v,. caractérise A ; B. A = B .A’ * A = A’, si B est
la matrice uni-ligne de cette base ; nous dirons
alors que les vi sont des vecteurs-colonnes de A ;
MATRICES
49
A étant donnée, si l’on change d’espace vectoriel
et de base, les vi sont remplacés par leurs homologues dans l’isomorphisme des 2 espacesvectoriels
qui fait correspondre les 2 bases; leur rang est
inchangé, et nous pouvons ainsi parler sans ambiguïté du rang des vecteurs-colonnes de A ; quand
nous parlerons de vecteurs-colonnes de A sans
préciser, nous supposerons que E est Kr rapporté
B sa base canonique. En particulier, M vecteur
unique v sera représenté dans une base par une
matrice uni-colonne X : v = B.X (une matrice à
un seul élément étant assimilée à cet élément).
Nous pouvons intervertir le rôle des lignes et des
colonnes ; M espace vectoriel E étant donné, nous
utiliserons cette 2e représentation pour son dual E* ;
les vecteurs-lignes de A représenteront ainsi des
formes linéaires : fi = Caij’pi aura ses coefficients
dans la ie ligne de A, Jt nous écrirons F = A.@,
F et @ désignant les matrices uni-colonnes ayant
pour éléments les fi et <pi; CDreprésentant la base
duals de celle représentée par B, nous aurons
si v a pour composantes les x1
fi (V) = IZaijxj,
dans cetle base, soit Y = A. X, en désignant par Y
et X les matrices uni-colonnes des yi = fi (v) et x. ;
si nous supposons les yi donnés, nous avons i a
représentation matricielle d’un système linéaire.
Les propriétés fondamentales des matrices sur un
corps commutatif sont obtenues en les considérant
comme opérateurs d’applications linéaires. Etant
donnée une application linéaire f de E, de dimension n, rapporté à la base q, . . ., e,, dans E’, de
dimension p, rapporté à la base II~, . . ., up, nous
appellerons matrice de f, avec ce choix de bases, la
matrice A admettant comme vecteurs-colonnes les
S(ei> exprimés dans la base des r+ c’est-à-dire telle
50
L’ALGÈBRE
LINI?A
IRE
MATRICES
51
que : (f(q),
. . .,f(eJ) = (q, . . ., %).A. Le vecteur v = xxjei de E a pour homologue f (v)
= Gjf
(ej) ; soient X et Y les matrices unicolonnes de v dans la base des ei et de f (v) dans la
base des p ; nous avons : f (v) = (f (q), . . .,
.f$>) X = (=lr . . . , ap) A-X et: d:autre part, f(v)
nous en dedmsons la relation
Ul, . . ..g)Y.
fondamentale : Y = A.X, qui montre qu’on obtient
en lignes au moyen de A les composantes yi de f(v)
dans la base des 4. Une matrice peut toujours être
ainsi interprétée ; nous pouvons notamment la
considérer comme réalisant une application limkire
de K+’ dans KP munis de leurs bases canoniques.
Considérons 2 applications linéaires f et g de E
dans E’ auxquelles correspondent pour un même
choix de bases les matrices A et B ; (CC~
+ @g)
=
af
(ej)
+
pg
(ej)
=
af;aqui
+
PIijlbijq
= T
fej)
employée ; si nous avions défini la matrice de
l’application en prenant les f (ej) comme vecteurs
lignes, A aurait été remplacée par la matrice transposée “A, d’élément général ai;. Les matrices transposées vérifient les relations : t(aA + PB) = a *A
+ f3‘B, t(AB) = ‘B ‘A (avec extension immédiate &
un produit quelconque) ; la dernière relation montre
que dans le cas étudié ici le produit à gauche utilisé
pour représenter une successiond’applications serait
remplacé par le produit à droite, en contradiction
avec la représentation moderne des produits de
transformations.
(aqj + Pbii) ~4 ; la matrice de af + & est donc
CrA+ @B. L’espace vectoriel des applications lin6aires de E (dimension n) dans E’ (dimension p)
est ainsi isomorphe à l’espace vectoriel des matrices
à n colonnes et p lignes. Considérons maintenant
un produit d’applications linéaires ; au vecteur de
matrice X dans une base de E correspond celui de
matrice Y dans une base de E’, puis celui de matrice Z dans une base de E”. De Y = A.X et
Z = B .Y nous déduisons Z = (BA) .X ; l’application linéaire produit g of est représentée par le
produit à gauche BA des matrices correspondantes.
En particulier, en supposant E, E’, E” confondus,
nous en déduisons que l’algèbre des endomorphismes
d’un espace vectoriel de dimension n sur K est isomorphe ~3 l’algèbre des matrices carrt5es d’ordre n
sur K.
Le r&ultat prhcédent
justifie
la reprbsentation
d’où
Les relations
ci-dessus
s’établissent
aisément
par un calcul
direct (CME, 5 8) ; mais elles résultent
également
de la notion
de transposée
d’une application
linéaire
(5 17). E et E’ étant
rapportés
à certaines
bases, rapportons
E” et E’ aux bases
duales +i et cpi ; f étant une application
linéaire
de matrice
A,
“f représente
l’application
g’ -+ g = g’ 0 f; f (ej) = ~~jni,
Takj<pj
($k of)
(ei) = ok’ ; l’homologue
de +k par “f est donc
de 1f dans les bases duales admet akj pour
; la matrice
bément
de la je ligne, ke colonne ; c’est donc tA. Ainsi, avec
un tel choix de bases, l’application
linéaire
transpoke
est représentée par lu matrice transposée,
ce qui explique
la terminologie
analogue,
et les relations
identiques
à celles du 5 17.
21. Propriétés
fondamentales
des matrices
sur
un corps commutatif.
- Le rang de l’application
représentée
par une matrice
A est la dimension def(E), d ont le rang des vecteurs f(e,) constituant une base de f(E) ; ce sont des vecteurs colonnes de A, et nous avons vu que le rang de ces
vecteurs colonnes avait une signification intrinséque ; nous l’appellerons le rang de A. Le noyau de
cette application linéaire, de dimension n - r, est
l’ensemble des vecteurs tels que Q (v) = ~~~j~,
linéaire
= OVi, les cpiétant les formes linéaires représéntées
L’ALGABRE
52
par les vecteurs lignes de A ; ces vecteurs formant un
sous-espace de dimension n - r, il résulte du 8 16
que le rang de ces formes est T ; ainsi le rang d’une
matrice est aussi égal à celui de sesvecteurs lignes.
Cette propriété
s’exprime
encore
même rang, ce qui résulte également
liuéaire
et sa transposée
ont même
MATRICES
LINÉAIRE
en disant que A et IA ont
du fait qu’une application
rang.
On appelle parfois &faut d’une matrice de rang r
à n colonnes la dimension d = n - r du noyau de
l’application linéaire qu’elle représente ; représentant le rang et ce nombre par r (A) et d (A), nous
déduisons immédiatement du 5 14 les relations :
r(AB)< r(A)
r(W~r(B)
Ir(A)-r~)l~r(A+B)~r(A)+r~)
d(AFK...)<d(A)+d@)+d(C)...
A, de rang r, ayant p lignes et n colonnes : si
r = p (matrice d’application surjective) X .A et X
ont même rang VX, et X.A=Y.A*X=Y;
si r = n (matrice d’application injective), A.X et X
ont même rang; A.X = A.Y * X = Y.
L’isomorphie entre l’anneau des endomorphismes
d’un espace vectoriel de dimension n, et l’anneau
des matrices carrées d’ordre n, et les rkultats du
3 14 montrent qu’il n’existe pas de matrices carrées
régulières unilatères ou inversibles unilatères, et
qu’il y a équivalence entre matrice carrée réguliére
et matrice carrée inversible, ces matrices caractérisant les automorphismes d’un espace vectoriel de
dimension n ; elles sont caractéria6es par leur
rang égal à leur ordre, c’est-à-dire par l’indépendance de leurs vecteurs colonnes, également par
I’indépendance de leurs vecteurs lignes ; bien entendu
nous désignerons le groupe multiplicatif de ces matrices d’ordre n par GL, (K). On pourrait répéter
ici les considérations du 5 13 sur l’inverse d’un
produit, les puiesanccs négatives... Notons que
/
53
A. A-1 = 1 =E-‘(A-1) ‘A = ‘1 = 1; donc, si A est
inversible, ‘A l’est, d’inverse ‘(A-1) ; la matrice ‘(A-1)
= (‘Q-1 sera désign6epar #A-l, et l’on vérifie immédiatement que ‘(ABC. . .)-l = lA-l #B-l C-1. . .
Tout système linéaire de p équations à n inconnues, représenté matriciellement par Y = AX, Y
étant supposée connue, peut être interprété comme
la recherche de l’antécédent d’un vecteur de matrice
colonne Y dans l’application linéaire de matrice A ;
il admet une solution VY si r = p, une solution
unique lorsqu’elle existe si r = n, une solution et
une seule VY si r = p = n (propriétés déjà établies
3 16, le rang introduit à ce moment étant celui des
vecteurs lignes de A). Dans le dernier cas, la solution
s’écrit immédiatement X = A-lY,
en utilisant la
matrice inverse. Mais réciproquement la résolution
élémentaire d’un tel système, avec des éléments
littéraux yi pour Y fait connaître la matrice de
l’application linéaire réciproque, c’est-à-dire A-r ;
c’est une méthode élémentaire de détermination de
la matrice inverse (CM& 5 16).
Plus généralement,
on peut considérer
un système
vectoriel,
Y = AX, X et Y désignant
maintenant
des matrices
uuicolonnes
de vecteurs
appartenant
h un certain
espace vectoriel;
si A est carrée régulière,
cette relation
est équivalente
à X = A-‘Y,
donnant
une solution
unique
; on a un résultat
analogue
pour Y = XA, X et Y désignant
maintenant
des
matribes
uni-lignes
de vecteurs : X = YA-1.
Un espace Vectoriel
à p dimensions étant donné,
rapporté à une certaine base, le système Y = AX
s’écrit : x,v,+
. . . + xnvn = w, les vi étant les
vecteurs représentés dans cette base par les colonnes de A, et w le vecteur de matrice uni-colonne Y ; le problème est donc celui de la mise en
évidence de w comme combinaison linéaire des vi ;
on interprète aisément sous cet aspect les résultats
L’ALGÈBRE
54
LINEAIRE
précédents, notamment le cas de Cramer, r = p = n,
les vi, indépendants, constituant une base de l’espace
vectoriel considéré.
Notons enfin le résultat important : le rang d’une
matrice
carrée
est
égal
à l’ordre
maximum
d’une
sous-matrice
régulière.
Soit en effet une matrice
A de rang r, 21p lignes ; considérons
une sous-matrice
carrée régulière
B d’ordre
p ; les p vecteurs
colonnes
de A (considérés
comme
vecteurs
de RP) dont les
composantes
appartiennent
à B ont pour projections
sur le
sous-espace
de base caractérisé
par les lignes de B (ensemble
des vecteurs
dont les composantes
non situées dans ces lignes
sont nulles) les vecteurs
colonnes
de B qui sont indépendants
;
ces p vecteurs
sont donc eux-mêmes
indépendants,
et le rang
de A est au moins égal 21l’ordre
maximum
d’une sous-matrice
carrée régulière.
Considérons
maintenant
r vecteurs
colonnes
indépendants
de A, vr, . . ., v, engendrant
un sous-espace
F
de KP ; si r = p, ils constituent
Ees vecteurs
colonnes
d’une
sous-matrice
carrée régulière
d’ordre
r ; si r < p, considérons
dans RP un sous-espace
supplémentaire
G de F ; choisissons
une base dans G (de dimension
p - r), complétée
par r vecteurs
choisis
dans la Base canonique
de RP, ces r vecteurs
engendrant
un sous-espace
de base H supplémentaire
de G.
Projetons
sur H parallèlement
B G ; le noyau
de l’application
est G ; F fi G = { 0) entraîne
que le sous-espace
F’ projection de F est de même dimension
r que F ; F’ est engendré
par les projections
vi, . . ., vi des vecteurs
vr, . . ., vr engendrant
F, qoi constituent
ainsi r vecteurs
indépendants
d’un
sous-espace
de base H de dimension
r ; leurs composantes
sont les éléments
d’une sous-matrice
carrée régulière
d’ordre
r ;
le rang ne peut donc pas surpasser
l’ordre
maximum
d’une
telle sous-matrice.
(Attention
! Les r vecteurs
engendrant
H
ne peuvent
être choisis arbitrairement,
en accord avec le fait
que toutes les sous-matrices
d’ordre
r dont les éléments
sont
régulières.)
composantes
de v,, . . ., vr ne sont pas forcément
22. Changements de bases. - Un espace vectoriel
de dimension n étant rapporté à une base que nous
qualifierons d’ancienne, une nouvelle base est caractérisée par la donnée de n vecteurs indépendants
constituant, exprimés dans l’ancienne base, les vecteurs colonnes d’une matrice dite motrice CEe
passage,
MATRICES
55
P, n6cessairement r6guli&e, d&nie par la relation :
B, = B.P, B et B, désignant les matrices uni-lignes
des bases. Désignons par X et X, les matrices unicolonnes des anciennes et nouvelles composantes
d’un vecteur v ; nous avons : v=BX=J+X,
= BPX,, d’où X = PX, ; nous obtenons ainsi en
lignes
au moyen de P les anciennes composantes en
fonction des nouvelles ; si nous voulions exprimer
de la même façon les anciens vecteurs de base, nous
écririons B = BIPsl, donnant ces vecteurs en colonnes ; la matrice les donnant en lignes est donc
rP-l ; les 2 matrices résolvant le problème de façon
analogue pour vecteurs de base et composantes sont
contragrédientes
l’une de l’autre ; on dit que les
composantes d’un vecteur se transforment de façon
contravariante
par changement de base. Si nous
envisageons des changements de base successifs,
nous aurons : X = PX,, XI = QX,, d’où X
= (PQ) X, ; la succession se traduit par le produit
cf droite
des matrices de passage correspondantes.
Considérons
une forme
linéaire
f de composantes
a; et
les bases daales des précédentes,
c’est-a-dire
telle
que f(v)
= (al, . . . , an) X = (b,, . . . , b,) Xl ; nous en déduisons
: (c+ . . . . a,JPK=
(b,, . . . . b,)X,
d’ou
(b,, . . . . bJ
un) P (unicité
des composantes
de f dans une
=(ul,...,
base) ; les coefficients
de la forme
se transforment
comme les
vecteurs
de base, d’où le nom de vecteur
couariant
donné &
un élément
de E’ (relativement
aux changements
de base
de E). Si Q est la matrice
de passage de l’ancienne
base duale
i la nouvelle.
nous avons A = OB (A et B étant les matrices
uni-colonnes’
des a; et des bJ,~d’où
(b,, . . ., b,) = (a,, . . .,
a.1 0-l.
et P = ‘0-l.
d’ou 0 = tP-l.
“G calcul tensorih utilise des notations
permettant
aisément
de retrouver
ces résultats
et de les généraliser.
Un vecteur
appartenant
g un sous-ensemble
fini est caractérisé
par un
indice inférieur,
ses composantes
par des indices
supérieurs
;
les éléments
du dual sont caractérisés
par les notations
opposées ; l’élément
général
(ie ligne, je colonne)
d’une matrice
est désigné par o$ ; le je vecteur
colonne,
dans la base des e+
b; dans
56
L’ALGÈBRE
est ainsi
: vj = :y a tg ; de même,
térisant
une
forme
linéaire
s’écrit
le ie vecteur
LINÉAIRE
ligne,
carac-
: f
= Xa; <p’. Les mat
trices
P et P-l
d’un changement
de base étant
de termes
généraux
ai et &, nous aurons
u5 = p$ e+, ej = (f3j y et,
en désignant
par x” et y’ les anciennes
et nouvelles
composantes d’un vecteur,
q et bi les anciens et nouveaux
coefficients
d’une forme
linéaire
: Z” = p;$*
ya = F@i ~‘9 bj = y a~,
03 = (@
b+ L’indice
de
sommation
(mdice
muet)
figure
toujours
une fois en position
supérieure
et une fois en position
inférieure,
ce qui permet
B certains
auteurs
d’alléger
l’écriture
en supprimant
le signe F, sous-entendu
par la présence
en 2 positions
d’un même mdice, par rapport
auquel il faut
sommer
(convention
d’Einstein).
23. Matrices équivalentes et semblables. - Deux
susceptibles de représenter la même application Linéaire, avec des choix de bases différents,
sont dites 6qquivalentes; la relation qui lie 2 telles
matrices est bien une relation d’équivalence, au sens
général du terme. Considérons l’application linkaire
définie par Y = AX et les changements de bases
dans les 2 espaces traduits par X = PX,, Y
= QY,, d’où Y1 = Q-lY ; nous en déduisons :
Y1 = Q-1 APX ; la nouvelle matrice
de l’application est B = Q-IAP, P et Q-l régulières ; réciproquement, si B = RAP, P et R régulières, nous
posons Q = R-l, et interprétons la relation comme
ci-dessus. Ainsi, on passed’une matrice à une matrice
équivalente par le produit à droite et à gauche (éventuellement d’un seul côté) par une matrice carrée
réguli&e. Deux matrices équivalentes ont évidemment
mêmesdimensions et même rang ; on vérifie ainsi la
propriété déjà vue que le produit par une matrice
régulière ne change pas le rang. Etant donnée une
matrice A caractérisant une application linéaire f
de E dans E’, prenons une base e,+r, . . ., e, dans le
matrices
MATRICES
57
noyau, complétée par q, . . . , e, engendrant un
supplémentaire F du noyau ; u1 = f (q), . . ., n,
= f (e-) sont indépendants puisque la restriction
de f à F est injective ; prenons ces vecteurs comme
.
r premrers vecteurs d’uue base de E’, que nous
complétons arbitrairement. On voit aussitôt que la
matrice B de f avec ces nouvelles bases est telle
que bu = ba = . . . = b,, = 1, tous les autres éléments étant nuls. Nous l’appellerons matrice réduite
équivalente à A ; elle ne dépend que des dimensions
de A et de son rang. Donc, 2 matrices de mêmes
dimensions et même rang sont équivalentes, puisque
équivalentes à la même matrice réduite. Nous
renvoyons à CME, 0 23, pour des compléments sur
l’obtention pratique de cette réduite et l’utilisation
pour le calcul d’une matrice inverse.
La similitude de matrices est le cas particulier
d’équivalence obtenu en ne considérant que des
endomorphismes, et en supposant qu’un vecteur et
son homologue sont représentés dans la même base;
les matrices P et Q précédentes sont donc confondues ; ainsi : 2 matrices semblablessont 2 matrices
carrées A et B unies par une relation de la forme :
B = P-1 AP ; c’est encore visiblement une relation
d’équivalence (d’ailleurs, A = PBP-1, et si C
= Q-rBQ, C = (PQ)-lA (PQ)).
On aboutit
également
à la relation
de
dérant
le transmué
d’un endomorphisme
phisme
g : h = g of0 g-l
(5 13) (v’
vi = g (vJ G- vi = h (v’)) ; les matrices
blables,
la matrice
de passage étant celle
similitude
en consif par un automor= g (v),
v, =f(v),
de f et h sont semde g-l.
Des relations A, = P-l AP, B, = P-‘BP,
on
déduit aisément : A1 + B, = P-l (A + B) P, A,&
= P-1 (AB) P, Ay = P-l A” P et plus généralement
f(AJ = P-If(A)
P, f(X) désignant un polynôme
quelconque ; on en déduit quef(A) = 0 ef(AJ
= 0.
FORMES
CHAPITRE IV
FORMES
lWULTILINlbIRES.
DÉTERMINANTS
24. Formes
multilinéairos.
- Nous appellerons
(pour
p = 2, forme
bilinéaire
;
lorsque p non précisé, forme multilinéaire) sur
p espacesvectoriels E,, . . . , E, (définis sur le même
corps K) une applicationfde E, x . . . x E, dans K
telle que, si l’on fixe tous les vecteurs sauf celui
de Ei, on obtienne une forme linéaire sur Ei ; autrement dit : f(. . ., av, + bvi, . . .) = af(. . ., vi, . . .)
+ bf (. * -, vi’, . . .) ; la ilxation de q des vecteurs
définit alors une forme (p - q)-linéaire
sur les espaces vectoriels restants. Il ne faut pas confondre avec
une forme linéaire ‘p sur l’espace vectoriel produit,
pour laquelle on aurait : cp(avr + bv;, . . . , avi + bv;,
. . ., av4, + bvk) = a<p(vl, . . ., vi, . . ., v,) + bp
(vi, . . .) v;, . . . , v;). Lorsque tous les espacesvectoriels seront identiques à E, nous parlerons de forme
p-linéaire sur E (à distinguer de forme li&aire
sur ED).
forme
Exemple
bilinéaire
p-linéaire
est une forme
:
sur l’espace
vectoriel
SUT(a. b), alors que tf(4
E desbfonctions
intégrables
g (41-f Ja UC4 -t g (4 dz est
une forme linéaire
sur E2.
Etant
données
2 formes p-linéaires
f et g, nous poserons
:
(af + bg) (vl, . . . , vp) = af (v,, . - -, vp) + bg (vl, . . . , v,), définissant
ainsi les 2 opérations
somme et produit
externe par un
scalaire,
déterminant
sur l’ensemble
des formes
p-linéaires
sur E, x . . . x E, une structure
d’espace
vectoriel
sur K.
Tous les espaces vectoriels
étant identiques h E, nous appellerons produit tensoriel f@ g d’une p-forme
et d’une q-forme
MULTILINEAIRES.
DETERMINANTS
59
la [p + q]-forme
définie par : (fS
g) (vr, . . . , vP, vo+r,
. . .,
vp+J
=f(vl.
. . . . vp).g (v,+~,
. . . . vp+J.
On vérifie
que ce
produit
est associatif,
distributif
par rapport
A la somme,
associatif
par rapport
au produit
externe.
Nous ne définissons
pas cependant
ainsi une structure
d’algèbre
sur l’ensemble
des
formes
multilinéaires
sur E, la somme
n’étant
définie
que
pour 2 formes
de même ordre p. En particulier,
le produit
tensoriel
de p formes
linéaires
définit
une forme p-linéaire
:
. ..@f.)(v,
,...,
v,)=fl(vl)...&(vp).
(fi@
Considérons une forme p-linéaire sur E de dimension n rapporté à une base e,, et posons f(eil, . . . , ei,,)
= 4, ...ip’ Soit vk = x GX~
ep(les notations tensorielles
indiquées FJ22 étaut<ici très indiquées) ; la propriét6
de linéarité permet d’exprimer f (vr, . . ., v,) sous
forme d’une somme de n termes, en utilisant la
décomposition de vi ; p our chacun des termes obtenus, on utilisera la décomposition de v,, et ainsi de
suite ; finalement, f(vl, . . . , vs) apparaît comme une
somme de n” termes : f(vl,
. . . , vP) =
x 4 X$ . . .
i,. ...*ip
@ 4, ...tp (un terme du 2 est obtenu en prenant la
iie composante de v,, . . ., la i,e composante de vD,
et le 2 est étendu à toutes les suites de p nombres,
pouvant être répétés, choisis parmi n). Réciproquement, si on se donne arbitrairement les ng
composantes t4 ...4P, on vérifie immédiatement que
l’expression ciidessus représente bien une p-forme
linéaire sur E.
Considérons
désignons
sons
du
==X&X~...
un changement
par r
résultat
les
nouvelles
ci-dessus
aFP til ...+
de base défini
:
par y
= yi
q ;
composantes
; nous déduiT$ ,,..., jP = f (a$,, . . ., uj,J
Cette formule
de transformation
géné-
ralise celle des coefficients
d’une forme
linéaire,
appelée vecteur covariant,
et justifie
le nom de tenseur couariant
d’ordre p
donné
Q la p-forme.
On a 1IL une introduction
naturelle
du
calcul
teneoriel,
le tenseur
le plus général
(sur un espace
vectoriel
de dimension
finie) pouvant
gtre caraetkisé
comme
60
L’ALGABRE
LINEAIRE
forme
multilinéaire
sur un produit
d’espaces
identiques
B E
et E’. Nous renvoyons
21l’ouvrage
de cette collection
consacré
au calcul tensoriel,
auquel
ce paragraphe
sert d’introduction.
La forme f est dite symétriquesi elle est invariante
par
toute
substitution effectuée
sur v,, . . ., vP. Toute
composante “il...@
est donc nécessairement
invariante
par toute
substitution
effectuée
sur 4, . . ., SP, et on s’assure
aisément
que cette condition
est suffisante.
25. Formes multilinéaires alternées. - Une pforme linéaire sur E est dite altetnke si elle est
nulle lorsque 2 des vecteurs vl, . . ., vp sont égaux ;
antisymktrique si la permutation de 2 vecteurs remplace sa valeur par la valeur opposée. Toute p-firme
alternée est antisymétrique, et réciproquement, toute
forme antisymétrique est alternée si le corps des scalaires est de caractéristique différente de 2. En effet :
sifalternée,
O=f(
. . . . vi+vi,
. . . . vj+vj,
. ..)
+f[
. . . . vi, . . . . vi, . ..) +f( . ..) vi, . . . . vi, . ..)
. . ., vi, . . . , vi, . ..) +f( . . . . vj, . . . . vj, . ..).
les 2 derniers termes sont nuls, et f (. . ., vi, . . .,
vi, . . .) = -f(.
. ., vi, . . ., vi, . . .). Si fantisymétrique : f (. . ., Vi, . . ., Vi, . . .) = - f(. . ., Vi, . . .,
vi, . . .) (en permutant les 2 vectepr;),.d’o& 2 f( . . . ,
zisiih;
..dé;ntL
eiela2propnete 81 K de mac. Rappelons Que toute
substitution est un produit de transpositions (échange
de 2 éléments d’une suite) ; une substitution paire
(CME, 8 22) est un produit d’un nombre pair de
transpositions (une transposition étant impaire), une
substitution impaire le produit d’un nombre impair
de transpositions ; il résulte alors de la détition
qu’une p-forme antisymétrique est invariante par
toute substitution paire effectuée sur les vecteurs, et
se change en son opposée par une substitution
impaire.
Une p-forme alternée est nulle si un vecteur est
combinaison linéaire des autres (s’exprimant par
FORMES
MULTILINBAIRES.
DÉTERMINANTS
61
lin&rité sous forme d’une combinaison linéaire de
formes nulles), donc si les vecteurs sont liés. Une
p-forme alternée sur E de dimension < p est donc
toujours nulle. On ne change pas la valeur d’une
p-forme alternée en ajoutant à l’un des vecteurs une
combinaison linéaire des autres (la forme obtenue
étant somme de l’initiale et d’une forme nulle).
Les composantes d’une p-forme alternée ti,...%
= f(eic . . ., cep)sont donc nulles si elles comportent
2 indices égaux ; étant donnée une suite i,, . . ., i,
de p indices distincts, une substitution permet d’en
déduire la suite k, < k, < . . . < k, des mêmes
indices dans l’ordre naturel ; la parité de cette
substitution est celle du nombre 1 d’inversions de la
suite i,, . . . , i, ; on aura donc : t4, ...* = (- l)I tk ,... kP.
Une composante telle que tk, ...ti est dite composante
stricte. Réciproquement, on constate aisément que,
les composantes strictes étant choisies arbitrairement, et les autres déterminées par les propriétés
ci-dessus, la p-forme obtenue est bien alternée. Une
composante stricte d’indices déterminés est obtenue
en choisissant, sans répétition et dans l’ordre naturel, p nombres parmi les n premiers ; il y a donc
Cn composantes strictes.
26. Déterminants de vecteurs et de matrices. - On
appdle déterminant sur un espacevectoriel de dimension n une n-forme alternée, notée : det (vl, . . ., v,).
Il possède donc une seule composante stricte :
. . . . e,) ; une composante quelconque
h.2 . .. n =det(q,
est det (I+ . . ., eh) = (- 1)I det (e,, . . ., e,) et l’on a
df?t(v,, . . . . vJ=Z(l)Ix$...xkdet(e,,
. . .. e,),
le x étant étendu à toutes les permutations des n
lers nombres. Si det (e,, . . ., e,) = 0, det (vI, . . ., v.)
=ovv,,
. . ..y.;
ce cas sans intérêt sera écarté
dans la suite ; alors det (e,, . . ., e,) = k # 0 et
1
62
L’ALGÉBRE
LINl?AIRE
~3~3
te&, q, . . .,
e,) = 1. Il y a donc toujours des
bases de déterminant 1, et le déterminant de n vecteurs est COMU
lorsqu’on a choisi arbitrairement
une base de référence de déterminant 1; on dit
alors que l’espace vectoriel est juz@.
On appelle déterminant de la matrice carrée A,
d’élément général ai,, noté det A (et représenté,
si A est explicitée, par le tableau des éléments de A
entre 2 traits verticaux) ; l’expression : Ç (- 1)I a,, 1
F%,.* * * ain,n,Z étant étendu à toutes lespermutationk
zl, . . ., i, de 1, . . ., n. D’après ce qui précède (avec
un retour aux notations matricielles classiques), si v,
= Zaij e,, c’est-à-dire si (vl, . . . , v,) = (9, . . . , e,) .A,
on a : det (Y~, . . . , v,) = det (e,, . . ., e,) . det A. C’est en
effet, compte tenu de la définition de det A, le
résultat fondamental ci-dessus si e,, . . ., e, constituent une base ; mais si e,, . . ., e, sont liés, les v,
appartiennent au sous-espace engendré par les e,,
de dimension < n, et sont eux-mêmes liés ; les
2 déterminants de vecteurs sont alors nuls.
Det A est une somme de termes,
chacun des termes
contenant 1 élément
et 1 seul de chaque ligne, 1 élément
et 1 seul
de chaque colonne de A ; il y a donc correspondance
bijective
entre les termes
de det A et ceux de det ‘A, 2 à 2 égaux au
signe près ; pour déterminer
le signe, nous effectuerons
une
substitution
sur les facteurs
de q, 1 q,,, . . . G,,
pour l’écrire
cette’
substitution,
(1, . . ., n)
ai.5, az,j, . - - an,jn ; dans
et (il, . . . , in) -f (1, . . . , n) ; les 2 suites
-+(ih
. . . . jx)
. . . , j,)
se déduisent
de (1, . . . , n) par
(il. . . . . in) et (h
2 substitutions
inverses
l’une
de l’autre,
de même
narité:
leurs nombres
d’inversions
sont de même parité,
et &. signe
B prendre
devant
le terme est le même dans les 2 cas. Ainsi :
Une matrice et sa transposéeont mêmedéterminant.
Enconséquence,(~)=A.(%)+det(vr,...,vn)=det
(3,
-..,
e,,).detA.
FORMES
MULTILINI?AIRES.
Dl.?TEBMINANTS
63
Le &terminant du produit de 2 matrices est égal
au produit de leurs déterminants. Soit en effet
hr --a, e,J une base de déterminant 1 ; posons,
AetBétantdonnées:(vr,
. . . . ~~)=(y,
...ie,,).A
(WI, s-s, wn)= (VI, *-*, v,J .B. On en déduit
ch (WI, . . ., wn)=det(vl,...,
v,)detB=detA.detB;
d’autre part, (wl, . . ., w,) = (en . . ., en). AB et
det (wl, . . ., w,) = det AB.
Donc,
det AB
= det A.det B. Extension immédiate à un produit
quelconque ; notamment det (A”) = (det A)“.
Une condition nécessaireet suffisante pour qu’une
matrice soit régulière est que son déterminant soit
différent de 0. En effet, det A = det (vl, . . ., v,J,
les vi étant les vecteurs colonnes de A dans une
base de déterminant 1, entraîne la nullité de det A
lorsque A n’est pas régulière, ses vecteurs colonnes
étant liés. Réciproquement, si A régulière, on a
A. A-i = 1, d’ou det A. det A-i = det 1, visiblement
égal à 1; donc det A # 0. On en déduit det A-1
= I/det A, et det (A”) = (det A)” Vn E Z.
Un endomorphisme f, caractérisé dans une base par
la matrice A, est caractérisé dans une autre base par
B = P-l AP ; il résulte de ce qui précède que det B =
det A; c’est donc un nombre caractéristique de f, que
nous appellerons déterminant de f. Choisissons une
.
base (q, . . .,
f (en)) = (y, .Y, Y$
conques, exprimons-les dan: la base des ei : (vr,
. . ., vJ=(q,...,
en). B ; nous aurons : (f (vJ, . . .,
f (V?a))= (f (4 . . . . f (e,)).B = (%, . . . . eJ.AB,
d’où det (vl, . . ., v,J = aet B, det (f (VI), - - -, f (vJ)
= det AB, et Gnalement : det (f (VI), . . . , f (v,J) = det
(Vl, -SS, v,J . det A = det (vi, . . ., v,J . det f. Un déterminant de vecteurs est, dans l’application, multiplié
par le déterminant de l’endomorphisme. Ilest conservé dans un endomorphisme unimodulaire (det,f- 1).
“~~a~~nt’nwet,(i,‘,;I
64
L’ALGÈBRE
LINÉAIRE
Comparons detBO(VI, . . ., v,) et det, (vl, . . ., v,),
relativement au même ensemble de vecteurs, les
bases de référence de déterminants 1 étant soit BO,
soit B ; soit P la matrice de passage de B, à B ;
nous aurons : (Y~, . . ., v,) = (q, . . ., u,J.A
(e,, . . . . e,) .PA, d’où det, (Y~, . . ., v,) = det A,
Et,. (vr, . . ., vn) = det PA. Ainsi : det, (VU . . ., v,)
= t-ht,* (vl, . . ., v,)/det P ; le nombre det P est
appelé module du changement de base.
27. Propriétés des déterminants de matrices. Etant donnée une matrice carrée A, nous pouvons
toujours la considérer comme représentant, en colonnes ou en lignes, des vecteurs v,, . . ., vn dans
une base de déterminant 1 ; nous avons alors
detA=det(v,,
. . . . v,J et les propriétés des déterminants de vecteurs, énoncées en utilisant leurs
composantes, donnent des propriétés correspondantes de det A ; nous les énonçons ci-dessous, en
employant le terme général rangée pour ligne ou
colonne.
Si les éléments d’une rangée sont multipliés par k,
det A est multiplié par k ; si uii = uii + &, pour i
fixé, Vj (ou j fixé, Vi), det A = D, + D,, D, et D,
étant les déterminants obtenus en remplaçant oi,
par uii ou pii. Ce sont les propriétés de linéarité, avec
extension immédiate au cas général d’éléments
d’une rangée combinaisons linéaires à coefficients
fixés d’autres éléments. Notons qu’il résulte de
la ire propriété que det (kA) = k” det A, si A
d’ordre n.
Toute substitution paire sur un ensemble de
rangées parallèles laisse invariant det A, toute substitution impaire le change en son opposé (propriétés
d’untisym&rie).
Det A est nul si les éléments d’une rangée sont
FORMES
MULTILINEAIRES.
DÉTERMINANTS
65
des combinaisons linéaires, a coefficients fixés, d’éléments de même rang de rangées parallMes (par
exemple : a;i = AU,, + y~, Vi, A, y, j, k, 1 fixés).
Det A ne change pas si l’on ajoute aux éléments
d’une rangée de telles combinaisons linéaires d’éléments de rangées paralMes.
Ces propriétés, notamment la dernière, sont très
utilisées pour « simplifier )) un déterminant, c’est-àdire former une matrice plus simple ayant même
déterminant que l’initiale (exemple, CME, Fj 32).
Etant donné un élément ai. de A, mettons 0.. en
facteur dans les termes de (2etA le contenan?; le
résultat est de la forme
aii. aii ; ctii est dit cojâcteur
de oii ; c’est donc une somme de termes, chacun
d’eux étant un produit d’éléments avec tm et un
seul dans chaque ligne sauf la 8, un et un seul dans
chaque colonne sauf la je ; on reconnaît là les termes
du déterminant d,i, dit mineur de a+., de la matrice
obtenue en supprimant la ie ligne et la je colonne ;
mais il faut voir si, dans ce cas, les termes sont
affectés ou non du même signe.
Considéronsdonc un terme de det A contenant a..
facteurs rangés dans l’ordre
des colonnes ; la sup$eszlz
de O<jfait diminuer de 1 certains
indices
de lignes
et de
colonnes,
ce qui ne change rien aux inversions,
mais supprime
les inversions
dues à i dans la suite des indices
de ligues ;
supposons
qu’il y ait k indices
plus grands
le précédant
; il
y a alors j - 1 - k plus petits
le précédant,
donc i - 1
-(j-l-k)=ij + k plus
petits
le suivant,
et le
nombre
total d’inversions
dues à i est k + i - j + k ; seule
la parité
de ce nombre
intervient
; c’est celle de i + j, la
même pour tous les termes de dii. On en conclut
:
aii=
(-
l)‘+i$
Considérons alors une ligne déterminée de A, soit
la ie, et groupons, dans le calcul de det A, les termes
contenant les ler, . . ., je, . . ., ne éléments de cette
ligne. Nous obtenons la relation : a,Ia+I + . . .
3
66
L’ALG&BR.E
LINEAIRE
a{jC$+
-0. + @inain = det A, dite dheloppement de det A par rapport aux éléments de la ie ligne ;
nous obtenons de même le développement par rapport aux éléments de la ja colonne : qi%i + . . .
+ aiiaij + . . . $ uniuni = det A. Ces développements permettent de ramener le calcul d’un déterminant à celui de déterminants d’ordre moins
élevé ; avant de les utiliser, on essaye de faire apparaître, au moyen des propriétés précédentes, des
zéros dans la rangée considérée (CIME,
3 34).
Plus généralement, nous écrirons les relations :
Eaiiuki = G,,.det A; Eaiiuü, = 8,. det A, aii (symbole
+
de Kronecker) désignant un nombre égal à 1
si i = j et à 0 si i # j. Ce sont en effet les relations
précédentes si i = k (Ire) ou j = k (2o) ; et si, par
exemple, i # k dans la Ire, nous avons le d&velop
pement d’un déterminant dans lequel les éléments
de la ko ligne (par rapport à laquelle on développe)
ont été remplacés par ceux de la ie (ce qui ne change
pas les cofacteurs), déterminant nul comme ayant
2 lignes identiques.
Posons bii = air ; c’est l’élément général de la
matrice transposée de celle des cofacteurs, que nous
appellerons matrice adjointe, Adj A. Les relations
deviennent : Qii bik = Si, .det A, par exemple ;
elles s’interprètent par des produits matriciels et
montrent que : A.Adj
A = det A.1 = Adj A.A.
Si A n’est pas régulière, A. Adj A = Adj A. A = 0
(ne présentant d’intérêt que si r = n - 1, car si
r<n1, les dii, déterminants de sous-matrices
d’ordre n - 1, sont nuls et Adj A = 0). Si A est
régulière, nous en déduisons la relation fondamenl/det A. Adj A, utilisée couramment
tale : A-l=
pour le calcul de A-1 (il faut donc calculer les q
FORAfÈS
MULTILIN~AIRES.
DETERMINANTS
67
= (- i)“+jdii, transposer leur matrice, et diviser
par det A). Notons qu’on déduit de cette relation
que det (Adj A) = (det A)n-l (déterminant adjoint)
(relation encore vraie si ht A = 0, Adj A étant
alors non régulière).
Le calcul de det A ne fait appel qu’h la structure
d’anneau
commutatif
de K ; on peut donc définir
par la même expression
algébrique
le déterminant
d’une
matrice
sur un anneau
comnutatif
quelconque.
La propriété
fondamentale
de régularité
se scinde
alors en deux
: une condition
nécessaire
et
suffisante
pour qu’une matrice
soit régulière
est que son déterminant
soit un élément
régulier
de l’anneau
: une condition
nhessaire
et suffisante
pour qu’une
matrice
soit inversible
est
que son déterminant
soit un élément
inversible;
la matrice
inverse
est alors obtenue
à partir
de l’adjointe
comme
cidessus.
28. Détermination
relations
de liaison.
du rang
d’une
matrice
et de
- Considérons une matrice
quelconque A à p lignes et n colonnes, et soit B
une sous-matrice carrée régulière d’ordre T, toutes
les sous-matrices carrées d’ordre > r étant supposées non régulières ; soient vj,, . . ., vjV les vecteurs
colonnes de A dont les composantes sont des ééments de B ; nous savons que ces vecteurs sont
indépendants (8 21) ; supposant n > r, nous allons
de nouveau démontrer que le rang de A ne surpasse
pas T en établissant des relations de liaison entre
les autres vecteurs colonnes de A et vr,, . . ., vjP
Considérons la sous-matrice d’ordre r + 1 ainsi
obtenue :
i est un indice de ligne fixé quelconque ; 1 est un
indice de colonne différent de ceux intervenant dans
B;j et k (prenant r valeurs distinctes) sont égaux
aux indices de colonnes (ou de lignes) de B en
68
L’ALGBBBE
LINl?AIRE
regard. Le déterminant de cette matrice est nul,
car si i est un indice intervenant dans B, il comporte
2 lignes identiques, et sinon c’est (à une permutation
près de lignes ou de colonnes) le déterminant d’une
sous-matrice d’ordre r + 1 de A. Le développement
par rapport aux éléments de la dernière ligne
donne : a,~~,~, + . . . + a,qj, + DU~, = 0, les aj
étant ind6pendants de i, et D, déterminant de B,
étant # 0. Cette relation, vraie vi, conduit à la
relation vectorielle : a, vj + . . . + a, v,, + Dv, = 0,
d’où Y, comme combi&on
linéaire de v,,, . . ., v,,.
Cette relation s’écrit symboliquement :
i *
B i%Z -0
_.............-...Ij *
l via ss* Vjr Va 1
représentant le résultat obtenu en a développant D
par rapport à la dernière ligne comme si ses6léments
étaient scalaires.
Cette méthode nous permet de déterminer n - r
relations de liaison entre n vecteurs de rang T, en
utilisant leurs composantes pour constituer les
vecteurs colonnes d’une matrice. Bien entendu,
nous obtiendrions de façon analogue les relations
entre les vecteurs lignes, en permutant lignes et
colonnes dans l’exposé ci-dessus.
Notons que le rang r, donc la nullité de tous les
déterminants extraits d’ordre > r, est obtenu en
supposant uniquement la nullité des déterminants
d’ordre r + 1 bordant celui de B (c’est-à-dire contenant les éléments de B, avec une ligne et une
colonne supplémentaires). Nous énonçons : La nullité
des déterminants d’ordre r + 1 bordant un déterminant d’ordre r cliff érent de 0 entra£ne la nullité de
tous les déterminants d’ordre > r.
La détermination du rang d’une matrice peut se
FOBMES
MULTILINÉAIBES.
DÉTERMINANTS
69
faire en Étudiant les déterminants de ses sousmatrices. On peut étudier ceux d’ordre maximum
(min (n, p)), puis, s’ils sont nuls, ceux d’ordre diminué
de l... On peut au contraire étudier ceux d’ordre 2,
puis, s’il y en a 1 différent de 0, ceux d’ordre 3... ;
dans ce cas, le théorème précédent rend un service
appréciable. Notons qu’on peut également déterminer le rang d’une matrice en la transformant
pour arriver à une matrice de rang évident (CME,
§tj 22 et 27).
29. Application aux systèmes linéaires. - Nous
représentons matriciellement un système linéaire
de p équations à n inconnues par A.X = Y, les
Béments y; de Y étant supposés connus. Lorsque
p = n, et A régulière (système de Cramer), la solution X = 8-l .Y s’exprime sous la forme : xi
et la parenthèse peut s’inter= l/detA. (pi<yi),
préter comme le développement d’un déterminant
par rapport à sa ie colonne : La valeur d’une inconnue
est égaleà unefraction, dont le dénominateur estle déterminant de la matrice du systhe, et dont le numérateur
s’en déduit en remplaçant les coefficients de l’inconnue
calculJe par les termes constants du second membre.
Dans le cas gén&al, nous déterminerons le rang r
de la ‘matrice du système, une sous-matrice régu
lière d’ordre r, B, dite sous-matrice principale,
équations et inconnues dont les coefficients interviennent dans sa formation étant dites équations
et inconnues principales. Les premiers membres des
équations principales sont des formes linéaires indépendantes x1, . . .,
les autres formes linéaires
leur étant liées par des relations établies précédemment (lesfi, considérés comme vecteurs, étant placés
dans la derniére colonne, puisqu’il s’agit de vecteurs
fi,,
70
L’ALG&BRE
LINÉAIRE
lignes de A) ; si a1 5, + . . . + a,&, + Dfi = 0 est
une telle relation de liaison, les formes A,, . . . ,fi,
pouvant
prendre des valeurs arbitraires
Y~,, . . .,
y(,,& prend nécessairement
la valeur y1 définie par :
+ cc,y+ + Dyz = 0, soit en explicitant :
aloi, + -
*
0
I
! 1
Yil
---.-.--. ^ .. ... . :. Yir
. . . qk . . . y$
=
Les yi étant donnés, si ce déterminant n’est pas nul,
la le équation ne peut donc être vérifiée ; s’il est nul,
elle est vérifiée dès que les équations principales le
de ce type, dits
sont. Il existe p - r déterminante
déterminants
caractt%istiques ; si T = p, ou si les
r caractéristiques
sont nuls, le système est dit
Pcompatible ; sinon, il n’a pas de solution. Le système
étànt compatible, il suffit de résoudre les équations
principales,
et pour cela, nous pouvons donner des
valeurs arbitraires aux n - r inconnues non principales ; il reste un système de Cramer donnant une solution et une seule pour l’ensemble des inconnues principales ; on dit qu’il y a irdétermination
d’ordre n - r.
Attention
! On ne peut toujours
prendre
arbitrairement
n - r inconnues
quelconques
; il faut que les r autres
soient
principales,
c’est-à-dire
que leurs coefficients
interviennent
dans la formation
d’une sous-matrice
régulière
d’ordre
r.
Un système
homogène
(y~ = OVi) a toujours
des solutions
;
on a vu que les vecteurs
(XI, . . ., za) solutions
forment
un
sous-espace
de K de dimension
n - r. Supposons
en particulier p = n = t + 1 ; les relations
fondamentales
du 5 27
montrent,
puisque
det A = 0, que les cofacteurs
akr, . . ., akn
des éléments
d’une ligne constituent
un ensemble
de solutions
;
ce résultat
est valable
Vk ; le sous-espace
des vecteurs
solutions étant de dimension
1, on en déduit
: Dans une matrice
des éléments
carrée d’ordre
n et rang n - 1, les cofacteurs
de 2 lignes sont proportionnels
: aii = i\akj, h indépendant
de j.
Le recours
à. la transposée
donne une propriété
analogue
pour
les colonnes.
II en résulte
que les déterminants
d’ordre
2
,
FORMES
MULTILINL?AIRES.
DETERMINANTS
71
extraits
de Adj A sont nuls : Adj A est alors de rang 1.
Dans le cas de p = r = R - 1, l’adjonction
de l’équation
supplémentaire
: 0x, + . . . + 0x, = 0 ramène
au cas précédent ; on obtient
ainsi un ensemble
de solutions
par les cofacteurs des éléments
de cette dernière
ligne.
30. Dérivée
d’nn déterminant;
application.
- Supposons
que les éléments
d’un déterminant
soient des fonctions
dériuables sur K (il peut s’agir de fonctions
dérivables
au sens de
l’analyse,
avec K = R ou C, ou de polynômes
sur K quelconque)
; la dérivée
d’un terme
de det A se composera
des
n termes
obtenus
en dérivant
l’un des facteurs
sans changer
les autres ; si nous réunissons
les termes obtenus
en dérivant
chaque
fois l’élément
de la ie ligne, noua obtenons
la valeur
d’un déterminant
déduit de l’initial
en remplaçant
les éléments
de la ie ligne par leurs dérivées.
Ainsi,
la dériw6e d’un déterminant
peut s’obtenir
sous la forme d’une somme de n déterminants obtenus
en dérivant
successivement
les kléments
d’une
ligne sans changer les autres. Bien entendu,
on a une propriété
analogue
en raisonnant
avec les colonnes.
Supposons
maintenant
que les Bléments
de la matrice
A (z)
soient des polynômes
sur le corps K de caractéristique
nulle;
on sait que, dans ce cas, une condition
nécessaire
et suffisante
pour
que 2s soit racine
d’ordre
k de P x) est que P (2s)
= p’ (x0) = . . . = P(k-l)
(xs) = 0 avec P f k, (x,,) # 0. Det A
est visiblement
un polynôme
D (r). Faisons
l’hypothèse
de
récurrence
suivante
: Dck) (z) est une somme
de termes
de
la forme : a (r) q (r), a (z) étant un déterminant
extrait
de A (z)
d’ordre
2 n - k et q (x) un polynôme
quelconque.
C’est vrai
pour D’ (x), somme de n déterminants
dont chacun d’eux est
somme de termes
de la forme f. a& (x) d;i (z), dii (2) étant un
déterminant
extrait
d’ordre
n - 1 ; et si c’est vrai pour D(k) (x),
nous remarquons
que (a (z) q (z))’ = a’ (x) q (x) + a (z) q’ (z)
et nous appliquons
g a’ (z) ce qui vient d’être dit pour D’ (x) ;
il apparaît
des mineurs
d’ordre
p - 1 de a (CV). si p est l’ordre
de a (x),
c’est-à-dire
des déterminants
extraits
de A (2)
d’ordre
> n - k - 1 ; Dtk+l)
(x) est bien de la forme indiquée.
Nous en déduisons
la propriét6
: Si A (xs) est de rang n - k,
xe est racine de D (x) d’ordre > k (car tous les mineurs
d’ordre
> n - k + 1 sont nuls pour
x = z,, d’où D (2s) = D’ (z,,)
= . . . = Dck-l)
(ze) = 0). Donc,
si x0 est racine d’ordre
k
de D (x), A (xe), de rang < n est de rang > n - k (car si
r < n - k, xs d’ordre
kr 3 n - r > k). En particulier,
si zs
est racine
simple,
A (zs) est exactement
de rang n - 1. Ce
résultat
sera utilisé
8 4.
ESPACES
CHAPITRE
ESPACES
31. Formes
EUCLIDIENS
V
ET HEBMTTIENS
bilin&ires.
- Une forme bilinéaire
E,, de dimensions
finies 9, na,
colonnes de v et w dans les bases ei et Es.
Nous supposerons
dans la suite que f est définie
sur un espace vectoriel unique E ; s’il est de dimension finie, f est ainsi caractérisée
par une matrice
carrée A ; dans un changement de base, on aura :
X = PX,, Y = PYI, d’où ‘XAY = ‘X, ‘PAPY, ; la
nouvelle matrice de f est B = tPAP ; on est en
présence d’un nouveau cas particulier d’équivalence
de matrices
carrées dit congruence de matrices ;
A et B ont même rang, représentant
par définition
le rang de f; f est dite dégénérée si r < n (dimension
de E), c’est-Mire
si A non régulière. Une matrice
congruente à A apparaît Egalement si l’on considère
un endomorphisme
g de matrice P ; g (v) et g (w)
sont de matrices PX et PY, et l’on a : f [g (v), g (w)]
= ‘(PX) A (PY) = IX ‘PAPY ; f [g (v), g (w)] est
donc une nouvelle forme bilinéaire ‘p (v, w) de matrice ‘PAP.
DeB=
ralement,
‘PAP,
nous
on déduit
appellerons
&t B = det A. (det P)*. P~US génédiscriminant
d’une
forme
bili-
EUCLIDIENS
ET
HERMITIENS
73
néaire
(définie
sur un espace vectoriel
quelconque
E) par
rapport
Q un ensemble
de p vecteurs
v,, . . ., vp et noterons
de la matrice
A d’élément
I+(V~
. . . . Vu), le déterminant
général
aij
= f(vi,
vi) (appelé
aussi déterminant
de Grue).
Soient (wI, . . . , wp> = (vr, . . . , vp>. P, P étant d’élément
général pi+ et B la matrice
d’élément
général bij = f (wi, wj) ; on a
wi = &&Vk,
wj = +VI>
d'où bij =,$iPljf
b'k> vz)
k
= $iPlj
I
akl = ~~kc-b~plj
(en
posant
Pij
= pji)
; donc
B
= :PAP et D (wI, . . ., w& = D (vx, . . ., vp) .(det P)“. L’espace vectone + etant supposé
de d*unension
n, et v,, . . ., vn en
constituant
une base, Dt (y, . . ., v,J est le déterminant
de
la matrice
de f dans cette base, # 0 si f non dégénérée
; alors,
liés. Ainsi:
D+l,
. . . . w,)=OodetP=O+w,,...,w,
une condition
nkessaire
et suffisante
de liaison
de n vecteurs
d’un espace à n dimensions
est la nullité du discriminant
relatif
à ces vecteurs d’une forme
bilinkaire
non dégénhée.
Le vecteur ws étant fixé, v -f f (v, wJ est une
forme linéaire sur E, que nous noterons & ; f étant
donnhe, on fait ainsi correspondre à tout vecteur w,
une forme linéaire, réalisant donc une application
de E dans E’ ; c’est une application linéaire, car
f (v* awo + bw)
= af (vy wo) + bf (Y Y)
e- Jlan, +br,
= a&, + b&. De même, w + f (vo, w) est, pour vo
fixé, une forme linéaire JIJ,, et nous définissons ainsi
une 2c application linéaire de E dans E’.
E, de dimension finie, étant rapporté à une base e,
et E’ à la base hale (pi, les matrices de w -f JI, et
v -+-‘+i sont respectivement la matrice A de f dans la
base ei et la matrice transposée tA.
En effet,
$ (v) = f (v, ej) = f (pi ai, ej) = FxJf (e;, ej)
= zz
du j: vecteur
de
i aij 3, d’où $ej = pij pi ; l’homologue
base a ses composantes
de A. De m%me, $& (w)
= Fijyj
la & lie
d’où
de A.
dans
la base duale
dans
la je colonne
= f (e;,W)=f (ei, Fyjej) = syjf (ei,4)
qq = Taifqj,
’
de compo\antes
sikes
dti
L’ALGBRRE
74
Le rang de f représente
ces 2 applications linéaires
non dégénérée, toute forme
mologue d’un vecteur et
Le résultat
obtenu
montre
2 applications
sont transposées
est vraie
en dimension
iufinie.
LINI?AIRE
ESPACES
donc le rang commun de
; elles sont bijectives sif
linéaire étant alors l’hod’un seul dans chacune.
que, en dimension
finie,
ces
l’une de l’autre
; cette propriété
32. Formes bilinéaires symétriques et formes qua- Une forme bilinéaire symétrique est
dratiques.
*telle que f (v, w) = f (w, v) Vv, w ; en dimension
finie, l’application
de cette condition aux vecteurs
de base conduit à la condition nécessaire a4i = oii,
c’est-à-dire A symdtrique, et cette condition est suffisante,
car alors : f (Y, w) = ‘XAY = “(“XAY)
= ‘YAX = f (w, v). L’intérêt
de ce cas particulier
est que les 2 applications
v -f +, et v + 4: sont
maintenant
confondues
: une telle forme réalise
donc une application linéaire bien caractérisée de E
dans E’ et notamment
un isomorphisme
lorsqu’elle
n’est pas dégénérée.
L’application
v +f (v, v) est appelée forme quadratique sur E, associée à f; on a visiblement,
en la
désignant
par cp : cp(Av)=A2q3(v)
et cp(v+w)
=f(v+w,v+W)=f(V,V)+ftW,W)+2f(v,W),
d’où ‘p (v + w) - cp (v) - <p(w) = 2 f (v, w). D’une
façon générale, on appelle forme quadratique sur E
une application
v -+ cp (v) de E dans K telle que
c~(Av)=A~~(v)etquecptv+w)-cptv)-cptw)
soit
une
trique).
pouvons
forme
bilinéaire
Si K n’est
introduire
(nécessairement
symé-
pas de caractéristique
la
forme
bilinéaire
2, nous
f
(Y,
w)
= 1/2 (cp (v + w) - ‘p (v) - ‘p (w)) et nous aurons
f (y, ~1 = 1/2 (4 ‘P (4 - <p(4 - ‘P (4) = 9>(4 ; la
correspondance
est réciproque, et f est dite forme
poZaire de ‘p. Les notions relatives à f (rang, dégéné-
EUCLIDIENS
ET HERMITIENS
75
rescence, matrice)
sont également utilisées pour
qualifier ‘p. En dimension finie, nous avons ‘p (v)
= XAX
= Eaii xf + 2 2 a,, xi xj (le 2s Z, à cause
de la symétrii, étant sims’ment
étendu aux couples
d’indices tels que i > j) ; c’est de cette expression
qu’est issue la terminologie (une forme quadratique
désignant initialement
un polynôme
du 2s degré
homogène) ; on passe de <p a sa forme polaire
en remplaçant
a,$
par o,i x, y4 et 2 a&$xi xJ par
aij (~~y, + xj yJ. En notant également 9 la fonction des n variables x, obtenue, nous vétions
que
d’où
f(v,w)=&,...,y,JA
en particulier
de la relation
<p (v) = 1/2 xxi
d’Euler
%
0
.
2,
= 112 lzy;
i
2
za9 (cas particulier
pour le: fo&ons
homogènes).
II est également
intéressant
de considérer
les formes
b&
néaires antisymétriques, caractérisées
par aii = - ai+ c’est-àdire par une matrice
antisymétrique
A = - 6A. Nous supposerons dans la fin de cet alinéa K de caractéristique
# 2. Une
forme
antisymétrique
en dimension
impaire
est toujours
dégénérée
car det A = (- I)@ det ‘A = - det A, d’où detA E 0.
Une forme bilinéaire
f quelconque
étant donnée, nous pouvons
poser g (v. w) = V2 U(T w) + f(w, VI), h (v, w) = 1/2 (fb. w)
- f(w,
v)), d’où f(v,
w)
trique
et h antisymétrique
= g (v, v) ; f(v,
v) est
mais sa matrice,
qui est
celle de f; ces 2 matrices
donc le rang de cp peut
= g (v, w) + h (v, w), g étant symé; h est donc alternée,
d’où S(v, v)
ainsi une forme
quadratique
cp (v),
celle de g, est 1/2 (A + tA), A étant
n’ont
pas forcément
m&me rang,
différer
de celui de fi On vhrifiera
1
76
notamment
2 formes
rang 2.
L’ALGÈBRE
LINÉAIRE
que ai f(v,
w) = p (v) q (w), p et q désignant
linéaires
indépendantes,
f est de rang 1 et <p de
33. Forme~ eespuüinéairea et forma hermitienuea.
- Pour Etendre à des espacesvectoriels complexes
certaines des propriétés des espaces vectoriels réels
que nous exposerons ci-après, il est apparu nécessaire de généraliser la notion de forme bilinéaire.
Nous supposerons le corps K muni d’un automorphisme involutif (c’est-à-dire égal à son inverse) que
nous désignerons par k + k ; cet automorphisme
peut être l’application identique, et nous retrouverons alors la notion de forme bilinhire comme cas
particulier ; sinon le cas usuel sera celui où K = C,
et où k est le complexe conjugué de k ; la terminologie
sera adaptée à ce cas particulier, k ktant appelé le
conjugué de k, et k = k étant traduit par k réel,
mais les résultats ci-dessous sont valables dans le
cas général (par exemple, K peut être le corps des
x + y 42, x et y variant dans Q, l’automorpbisme
étant x + y 2/Z -+ x - y 42 ; réel doit alors être
remplacé par rationnel). A la matrice A d’élément
génkral ai,., nous ferons correspondre la matrice
conjuguée A, d’élément général ü-; une matrice
réelle sera caractérisée
par
-_
-- A = A; visiblement,
A+B,AB=A.B,detx=detAet,si
A+B=
A régulière, (x)-l = A-l. Nous introduirons également la matrice A’ = IA = ‘(A) dite associée ou
adjointe complexe --de A ; (A + B)’ = A’ + B’ ;
(AB)’ = t(D) = CE3
‘A = B’ A’ ; et, si A réguEn se réfkrant aux souslière, (A’)-l = (A-l)‘.
matrices, Z à 2 conjuguées, donc simultanément
régulières ou non, on voit que A et A ont même
1
ESPACES
EUCLIDIENS
ET
HERMZTIENS
77
rang ; donc A et A’ = tz ont aussi même rang.
Une application semi-linéaire (ou antilinéaire) de
E, dans E, est défiuie par f (v + v’) = f(v) + f (v’)
etf(kv) = kf(v). 11est intéressant d’introduire l’espace vectoriel
ayant mêmes éléments que E,,
mais dans lequel la loi externe est telle que le
composé de a et v soit ü.v (ce point désignant la loi
externe SUTES) ; une application semi-linéaire de?,
dans E, est une application linéaire de E, dans Es.
On peut ainsi étendre aux applications semi-linéaires
les propriétés usuelles des applications linéaires.
Une forme sesquilinéaire à droite sur E est une
application de E2 dans K linéaire par rapport au
ler vecteur et semi-linéaire par rapport au 2e,
c’est-à-dire telle Ve f (vl + vi, v2) = f (vl, v2)
+ f tv;, v2)
y2
v2)
v2)
v2)
v2).
On détirait
de même une forme sesquilinéaire à
gauche ; les propriétés étant analogues, nous développerons uniquement le ler cas, parlant de formes
sesquiliuéaires sans préciser. En dimension fhie,
nous appellerons de même matrice de f la matrice A d’élément général uij = f (e<, eJ ; nous
aunes f (V, W) = f (xi ei, Eyj ei = zxijYi f (ei, ei)
(
1
= ~aiix~~~ = ‘XAY.
Le changement” de base X
Ë2
;f (VI, + v3= f (VI, + f (VI9
vi);
f (kv,, = kf (vl, maisf (vl,kv2)= @(vl,
= KX1, Y = PY1 donnera lXAY = fX,fPA%%l et
la nouvelle matrice de f sera tPAP, de même rang
que A ; ce rang sera par définition le rang def, dite
dégénérée si r < n ; “PAF est également la matrice
de la forme sesquilinéairef [g (v), g (w)], g étant un
endomorphisme de matrice P.
On
par
définit
rapport
comme
précédemment
le discriminant
de f
B un ensemble
Y,, . . ., v,, de vecteurs
comme
I
f
L’ALGÈBRE
78
LINÉAIRE
déterminant
de la matrice
d’élément
général
f(vi,
vi) ; on
que (IV~ ,...,
wg)=(vI
,...,
v,).P+D~f(w~
,... , wP)
montre
P.det P = Df (Vu, . . ., v&.Idet
Pla ; pu
= D,(v,,
. . . . vJ.det
en déduit
comme
précédemment
qu’une
condition
nécessaue
et suffisante
de liaison
de n vecteurs
en dimension
n est. la
nullité
de ce discriminant
pour une forme f non dégénérée.
A tout vecteur
w,, on fait de même correspondre
la forme
(v, ws) ; on voit aussitôt
que l’application
linéaire
+,, : v-f
wo + &, de E dans E’ est semi-linéaire
; c’est une application
linéaire
de E dans E’ ; la base duale de E’ étant prise comme
base de E’, le raisonnement
du 5 31 reste valable
; la matrice
de cette application
est celle de f; elle est bijective
(sur E’
donc sur E’) si f est non dégénérée.
Quant
à w + f (Ve, w),
c’est une forme
semi-linéaire.
ESPACES
EUCLIDIENS
ET
HEBMITIENS
= ‘m
79
donne :
34. Cas d’un espacevectoriel réel plong6 danaun espace
vectoriel complexe.- Nous considérons
l’espace
vectoriel
E
En dehors des formes bilinéaires, il n’existe pas
de formes sesquilinéaires symétriques, car f (v, -W)
= f (kw, v) G=k = ktfk. Nous appellerons forme
hermitienns
à droite
une forme sesquilinéaire à droite
telle que f (w, v) = f (Y, w) Vv, w ; on définit de
même une forme hermitienne à gauche ; nous ne
considérerons dans la suite que le ler cas, en omettant « à droite )I. Une condition nécessaire, en dimension finie, est gue la condition soit vérifiée par les
vecteurs de base, c’est-à-dire que aii f üii (entraînant a,; réel), donc A = A’ (o ‘A = A) ; une telle
matrice est appelée hermitienne. Cette condition est
suffisante, car f (v, w) = ‘XAT = t(lXAY) = “YAX
de dimension
n sur R, plongé
dans F de dimension
n sur C
et 2 n sur R, les bases de E étant dites bases réelles, et permettant
de définir
les vecteurs
réels, et les vecteurs
complexes
Con&@s
v, 7. Une forme
hilinéaire
symétrique
ou une forme
hermitienne
définies
sur l’espace
vectoriel
F sur C sont dites à
coefficients
réels si elles admettent
une matrice
réelle dans une
base réelle, donc dans toute base réelle (pour un changement
de
base réelle, P réelle, d’où A réelle -+ “PAP réelle ; cette matrice
est donc symétrique
réelle, cas particulier
commun
des symétriques complexeset hermitiermes).Elles ont des valeurs
réelles pour un vecteur
réel, et des valeurs
conjuguées
pour des
vecteurs
conjugués
(dont
les matrices
uni-colonnes
en bases
réelles sont conjuguées).
Leur restriction
?I E est une forme
bilinéaire
symétrique
réelle.
Réciproquement,
étant
dom&
une forme
bilinéaire
symétrique
sur E, on peut lui associer
une forme bilinéaire
symétrique
complexe
et une forme hermitienne sur F, en leur donnant
par définition
la même matrice
que la forme
initiale
dans une base réelle (donc dans toute
base réelle,
le changement
étant
le même) ; A étant
cette
matrice,
un changement
de base général
conduit
aux 2 matrices
“PAP et tPAF,
respectivement
symétrique
et hermitienne; sif et fi sont les2 formesobtenues, on a, A étant la
matrice
en base réelle : f (v, w) = %AY, fi (v, w) = “UT
d OU fi (v, w) = f (v, G). En appliquant
la remarque
de la fg
du 5 18, nous noterons
que ce ne sont pas des formes bilinéaires
pour la structure
d’espace vectoriel
de F sur R.
= tYA% = f (w, v). Notons qu’une matrice hermitienne a un déterminant réel, et que A hermitienne =r $A hermitienne, et A-1 hermitienne si A
régulière.
Lorsque f est hermitienne, v + f (Y, v) = <p (v)
est une application de Es dans R (ou plus généralement dans le corps des invariants de l’automorphisme, f (v, v) étant son propre conjugué) appelée
forme quadratique hermitienne. On a cp(kv) = k& (v)
35. Vecteurs conjugués ; vecteurs isotropes. Nous supposons donnée une forme hermitienne ou
bilinéaire symétrique f, les d&nitions étant valables
également pour la forme quadratique associée(par
exemple, nous parlerons indifféremment du noyau
defou de cp). D eux vecteurs sont dits conjuguésou
ortlfogonaux par rapport à f si f (v, w) = 0 ; cette
notion est réciproque, 0 étant son propre conjugué
(la dualité de terminologie provient du fait que la
f
80
L’ALGÈBRE
LINEAIRE
structure générale étudiée ici permet de retrouver
notamment la notion de géométrie métrique d’ortkogonalité, et la notion de géométrie projective de
conjugaison par rapport -a une conique ou quadrique) ; ceci signifie que 4, (v) = 0, c’est-à-dire
que la forme linéaire associéeà l’un est orthogonale
à l’autre. A étant une partie quelconque de E, les
vecteurs orthogonaux à tous les vecteurs de A sont
orthogonaux à tous ceux du sous-espaceF engendré
par A, et constituent un sous-espacedit conjugué de F
(ou orthogonal à F). Cespropriétés, qui se déduisent
de celles du 5 16 en utilisant l’application w + $,,
sont immédiates à prouver directement en utilisant
les propriétés de J
On appelle noyau le sous-espace conjugué de E,
c’est-à-dire l’ensemble des vecteurs u tels que
f (u, v) = ovv ; c’est le noyau de l’application
w + +, (w contenu dans ce noyau signifiant 9, = 0,
c’est-à-dire $, (v) = OVv). En dimension finie, il
est de dimension n - r (r, rang de f, est le rang de
l’application linéaire w -f 4, de E dans E’). D’une
façon générale, nous dirons que f est dégénéréesi son
noyau ne se réduit pas à 0. Dans ce cas, la notion
de sous-espacesconjugués n’est pas réciproque, car,
si Fe est le conjugué de F, le conjugué F, de F,
contient le noyau et ne coïncide donc pas avec F
si ce dernier ne le contient pas.
Remarquonsque toute partie de E’ constituant
un sousespace de E’ est un sous-espace
de E’ (les relations
v E A
j kv E AVk et v E A + kV E AVA étant équivalentes).
Considérons un sous-espace
F, de dimensionp,
de E, de dimension
n,
dont l’intersection
avec le noyau N est de dimension
i ; l’application v-f
& lui fait correspondre
un sous-espace
G de E’
de dimension
p - i ; F, est le sous-espace
de E orthogonal
B G, et est donc de dimension
n - (p - i) = n - p + i. Le
sous-espace
Fs, orthogonal
B Fs contient
F et N, donc F + N ;
ESPACES
EUCLIDIENS
ET
HERMITIENS
81
la dimension
de F + N est p + (n - r) - i ; on a N c Fs,
donc la dimension
de F,,, est : n - (n - p + i) + n - r ;
les dimensions
sont les mêmes ; ainsi : Fs, = F + N ; en particalier, N=(O}+Fss=F.
La notion de sous-espacesconjugués est ainsi réciproque lorsque, E étant de dimension~finie, f n’est pas
dégénérée.La somme de leurs dimensions est dans
ce cas égale à n!
Notons
les relations
analogues
à celles du 5 16 : F c G
=t- Go c FS, (F + G)o = FS n Go, (F IJ G)o = F, + Gs ; les
2 premières,
toujours
valables,
résultent
des définitions;
la
troisième,
supposant
la dimension
finie et f non dégénérée,
se
ramène
à la 2e en utilisant
la réciprocité
précédente.
Un vecteur est dit isotrope s’il est son propre
conjugué : f (v, v) = 9 (v) = 0 ; v isotrope * kv
isotrope Vk ; mais v1 et va étant isotropes non colinéaires, v, + v, n’est pas en général isotrope ; on
est amené à distinguer : les sous-espacesisotropes,
contenant un vecteur # 0 (nécessairement isotrope)
conjugué à tous les vecteurs du sous-espace(c’est-àdire d’intersection avec leur conjugué non réduite
à 0), et les sous-espacestotalement isotropes, dont
2 vecteurs quelconques sont conjugués (et ne contenant donc que des vecteurs isotropes) ; ces 2 notions
se confondent pour les sous-espacesde dimension 1.
E étant de dimension Me et f non dégénérée, un
sous-espacenon isotrope est supplémentaire de son
conjugué ; en particulier, un vecteur non isotrope
engendre un sous-espacede dimension 1 supph$mentaire de son conjugué.
Un ensemblede vecteurs non isotropes orthogonaux
2 à 2 est libre ; en effet : ~hivi = 0 +f(X&vi,
v,.)
= 0, d'où
(Vj, Vj) = 0 et
= OVj.
hjf
Aj
Notons
pour finir
que, sauf dans le cas particulier
d’une
forme
bilinéaire
avec un corps de caractéristique
2, il existe
toujours des vecteurs
non isotropes
si f # 0. Supposons
en effet que tous les vecteurs
soient
isotropes
; Vv, +, 0
82
L’ALGÈBRE
LINEAIRE
= f(v + +* v + r3 = f et 4 + f(V’. 4) + f (y, y’) + f (6 1’)
= f (v, v’) + f-V’)
; f étant non nulle, 3v, u’ avec f (v, v’)
= k # 0, d’où f (av/k,
v’) = a ; on a donc Vo, a + ii = 0 ;
en particulier,
1 + 1 = 0 ; K est de caractéristique
2 ; donc
a=o = a ; f est bilinéaire.
36. Réduction. - Nous dirons qu’une base est
orthogonale pour une forme bilinéaire symétrique
ou hermitienne si les vecteurs de base sont 2 à 2
orthogonaox pour cette forme, c’est-à-dire si ai,
= f (es,ej) = 0 pour i # j, c’est-a-dire si la matrice
de la forme dans cette base est diagonale. Théorème :
Sur un espace vectoriel de dimension finie sur un
corps de caractéristique # 2, toute forme bilinéaire
symétrique ou hermitienne possède des bases orthogonales. Autrement dit, on peut trouver des matrices
régulières P telles que, A étant symétrique, ‘PAP
soit diagonale, ou, A étant hermitienne, IPAP soit
diagonale.
Nous
démontrons
cette
propriété
par récurrence
sur la
dimension
de l’espace,
le théorème
étant évident
pour n = 1.
La supposant
vraie pour n - 1, nous considérons
un vecteur
non isozrope v et le sous-espace
conjugué
de celui engendr6
par v, qui lui est supplémentaire,
donc de dimension
n - 1;
la restriction
de la forme
à ce sous-espace
possède donc une
base orthogonale
de n - 1 vecteurs,
tous orthogonaux
à v
puisque
contenus
dans un sous-espace
conjugué,
et constituant
donc avec v une base orthogonale
de n vecteurs
pour
la forme.
Le théorème
peut être en défaut
si tous les vecteurs
sont isotropes
; la forme
est alors bilinéaire
symétrique
et
alternée,
le corps
étant
de caractéristique
2 ; exemple
:
2. Notons
que D diagonale
est
%Y, + %Y19 en dimension
symétrique
; D = tPAP
(P régulière)
j A symétrique
; le
problème
analogue
de réduction
pour une forme
bilinéaire
non symétrique
est donc impossible.
Dans le cas d’un espace
réel E plongé
dans un espace complexe
F, et d’une
forme
bilinéaire
symétrique
ou hermitienne
sur F à coefficients
réels,
le raisonnement
appliqué
à la forme
bilinéaire
symétrique
réelle obtenue
pour des vecteurs
réels montre
que la matrice
dia onale
peut
être
obtenue
par un changement
de base
fée f 0.
ESPACES
EUCLIDIENS
ET
HERMITIENS
a3
L’expression obtenue avec la matrice diagonale
est dite expression réduite de la forme ; le rang r de
cette forme est donc égal au rang, c’est-à-dire au
nombre d’éléments diagonaux non nuls, de cette
matrice diagonale. Désignons par x1, . . ., x, et
xi, . . ., XL les anciennes et nouvelles composantes
d’un vecteur ; ‘p (v) s’écrira donc Zhpx; Xl (cas
hermitien) ou zAi (x;)~, les xi étant r formes linéaires
indépendantes des xi. Réciproquement, supposons
que ‘p (v) puisse s’écrire ainsi ; cet ensemble de r vecteurs indépendants de E’ peut être complété pour
constituer une base de E’ ; nous avons alors n formes
linéaires indépendantes, définissant par leurs expressions en fonction des x4 une matrice régulière Q ; la
matrice P = Q-l caractérise un changement de
base conduisant pour ‘p à l’expression E&xil Xi,
les xi étant ces formes linéaires, donc assurant la
réduction ; on en déduit en particulier que le rang
d e ‘p (donc de f) est égal au nombre des formes
linéaires apparaissant initialement. Par exemple,
si la forme quadratique ‘p est le produit de 2 formes
linéaires indépendantes p et q, nous écrivons ‘p = pq
= UP + GV
- (b - d/fV ; b + dl2 et
(p - q)/2 étant indépendantes, le rang de ‘p est 2.
La méthode de Gouss s’inspire
des considérations
ci-dessus,
en transformant
la forme
quadratique
g, par éliminations
successives
des variables
; K est supposé
de caractéristique
# 2. Si g, comporte
au moins un terme carré, on peut l’écrire
:
2
‘p = CQ~ + q.p + +, p et 4 désignant
une forme
linéaire
et une forme
quadratique
ne contenant
plus
q, d’oit
cp
= qi (a~+ + p/2 qi)2 + J, - ps/4 an, et l’on applique
le procédé
B la forme
quadratique
4 - p2/4 o+i, ne contenant
plus q.
Si à un moment
quelconque
(qui peut être le début),
il n’y a
pas de termes
carrés, on écrit ‘p sous la forme : ‘p = 2 qj q y
+ xi .p + xj . q + #, p, q, J, ne contenant
plus q ni 3, d’où
9 = 2 aij
(xi + 42 aij)
(xi + ~/2 aid i- 4~ - PqP cyj.
Le
1” terme se met comme ci-dessus
sous forme d’une combinaison linéaire
de 2 carrés
de formes
linéaires.
On met ainsi
84
L’ALGBBRE
ESPACES
LINEAIRE
ET
HERMITIENS
85
notamment, CI existe toujours des busesorthonorrdes
pour une telle forme non &@nérée. Notons également
que, d&sque n > 1, il existe toujours des vecteurs isotropes # 0 (des vecteurs de la nouvelle base si r < n;
si r = n, avec ‘p = xx:, il suffit de prendre x1 = 1,
x2 = i, tous les autres xi nuls).
Pour une forme bilinéaire symétrique réelle ou
hermitienne, les éléments diagonaux & sont nécessairement réels, et leur signe intervient. Nous pouvons énoncer à ce propos le théorème d’inertie : Le
nombre d’éléments positifs et négatifs d’une matrice
diagonale représentant la forme ne dépendent que de
cetteforme (et sont donc indépendants de la méthode
de réduction utilisée).
finalement
cp sous la forme
d’une
combinaison
lin+ire
de
carrés de n formes lirAaires
au plus (il y en aura moms de n
si certaines
variables
disparaissent
spontanément
au cours des
calculs).
Il reste B voir que ces formes linéaires
sont mdépendantes ; soit une relation
de liaison : cqpr + . . . + as p,, = 0,
conduisant
à une égalité nnmérigue
à 0 quelles que soient les
valeurs
données aux variables
; seule pr contient
la ire variable
éliminée
; en faisant
cette variable
égale à 1, les autres à 0,
de même aa = 0 en utilisant
on obtient
a~ = 0 ; on obtient
la 2e variable
éliminée...
Si nous arrivons
B 2 formes
simultanément
introduites
par le 2e procédé,
nous donnerons
successivement
aux variables
éliminées
les valeurs
1, 1 et 1, - 1,
les autres ayant
des valeurs
nulles ; les 2 formes prennent
les
valeurs
1, 0 et 0, 1, et nous en déduisons
la nullité
des 2 coefficients
correspondants.
Finalement,
tous les a( sont nuls, et
les formes
sont indépendantes.
Un procédé
analogue,
mais
plus compliqué,
que nous ne développerons
pas, peut etre
employé
dans le cas hermitien.
37. Bases orthonormées ; théorème d’inertie. Un vecteur est dit normé si 9 (v) = 1 ; une base
orthogonale dont tous les vecteurs sont normés est
dite orthonormée ; la matrice dans cette base est la
matrice unité. Nous n’étudierons le problème de
détermination d’une base orthonormée que dans le
cas où K = R ou C, l’espace vectoriel étant supposé de dimension Gnie (en fait, comme dans,les
autres paragraphes ou nous ferons cette hypothese,
R peut être remplacé par un corps ordonné maximal,
c’est-à-dire non strictement contenu dans une extension algébrique qui soit un autre corps ordonné,
et C par son extension quadratique, q$ est alors un
corps algébriquement clos, c’est-à-dire sur lequel le
théorème de d’Alembert est vrai).
Etant donnée une forme bilinéaire symétrique
complexe, dont la forme quadratique associée est
mise sous la forme X&x!, le changement de base
défini par : xi = 2/A,xi, si & # 0, xl = x4 si & = 0,
conduit visiblement à une nouvelle matrice diagonale dont tous les éléments sont égaux à 1 ou 0 ;
EUCLIDIENS
Considérons
en effet 2 formes réduites
obtenues
avec les
bases ei et ei, avec dans le la cas p coefficients
positifs
(que
nous pouvons
supposer
les p premiers
en choisissant
convenablement
la base) et. q négatifs
(les q suivants)
et dans le
20 casp’ coefficientspositifs; désignons
par l&, Es, E, les sousespaces de bases engendrés
par q, . . . , eP ; eP+I, . . . , eP+9 ;
42, et par E; celuf engendré
par 4, . . . , t$, ; soit
yJ+q+1r
***,
enfin v E E; n (Es + Es) ; v a pour composantes
0, . . . , 0,
sions inférieure
d’où p’ < p
P+P=‘.
;
[
ou égale
; de même
?I n, soit p’ + q + (n - p - q) < n,
p < p’, d’où p = p’ et q = q’, puisque
Le couple (p, q) est appelé signature de la forme
(et également de la matrice qui la représente). Une
condition nécessaire et suffisante pour qu’il existe
desbasesorthonorméesest que cette signature soit (n, 0)
(ls’i existe une base orthonormée, on a évidemment
q = 0, et,- réciproquement, si tous les k
P =n,
86
L’ALGÈBRE
LINEAIRE
changement de base faisant passer à la matrice
unité) ; on voit de même que si la signature est (T, 0)
on pourra réduire à une matrice d’éldments 1 et 0, et,
dans le cas général, àune matrice d’éléments 1, - 1,O.
D’une façon générale, en dimension quelconque,
on dit qu’une forme quadratique (réelle ou hermitieye
yt définie positive si ‘p (v) 2 OVv avec ‘p (v)
= 0 (‘p ne comporte donc pas de vecteurs
Gtropes # 0), et semi-définie positive si <p(v) > 0
(pouvant donc avoir des vecteurs isotropes # 0).
En dimension finie, une condition nécessaireet suffisante pour qu’une forme soit semi-définie positive
est que sa signature soit (r, 0) (r < n) (car s’il y a un
coefficient A~négatif, on obtient une valeur négative
avec xi = 1, xk = 0 pour k # i ; et, réciproquement,
cp peut alors s’écrire : I%l” + . . . + Ix,/” > 0);
une condition nécessaire et suffisante pour qu’une
forme soit définie positive est que sa signature soit
(n, 0) (car, dans le cas précédent, avec r < n, des
vecteurs de la base finale sont isotropes et, réciproquement,q,=I%ls+
. . . +Ix,la=O
*x1=
...
= x, = 0, soit v = 0). Notons enfin que si n > 1,
une forme ne comportant pas de vecteurs isotropes
+ 0 est nécessairement de signature (n, 0) ou (0, n)
(car si hi > 0, ?,i < 0, on obtient avec xi = 2/-- Ai,
xi = fi<, x, = 0 pour k # i, k Zjunvecteur
isotrope).
Une forme
bilinéaire
symétrique
réelle étant
donnée,
son
extension
hermitienw
(a 34), ayant
même matrice
dans les
bases réelles, présente
mêmes formes
réduites
dans certaines
bases réelles et a donc même signature.
38. Espaces vectoriels euclidiens et hermitiens. On appelle espace vectoriel euclidien (respectivement hermitien) un espace vectoriel sur lequel a été
choisie une forme bilinéaire symétrique (respectivement hermitienne) non &?ghérée,f, qu’on appelle
ESPACES
EUCLIDIENS
ET
HERMITIENS
87
la forme métrique fondamentale. Le nombre f (v, w)
s’appelle le produit scalaire des 2 vecteurs, et se
représente en général par la notation simplifiée :
v.w ; dans ce cas, les propriétés classiques de f
s’énoncent différemment : distributivité du produit
scalaire par rapport aux sommes, associativité par
rapport aux produits externes, anti-commutativité (commutativité dans le cas euclidien) ; v. w =
ovw =sv=O(.f
non dégénérée). Les notions développées 5 35 (toujours énoncées avec l’adjectif
orthogonal), celles de bases orthogonales, orthonor,
mees...,
sont toujours relatives g cette forme fondamentale quand on ne précise pas ; les propriétés
qu’elles permettent d’introduire sont dites propriétés
dtriques. A tout vecteur v, f fait correspondre une
forme linéaire dont les composantes dans la base
duale des ei sont dites composantescovariantes de v
dans la base ei ; ce sont les &, (ei) = f (ei, v), c’est-àdire les produits scalaires ei.v.
En dimension finie, la structure est définie par la
donnée d’une base et d’une matrice (symétrique ou
hermitienne) caractérisant f dans cette base ; on
dksigne usuellement ses éléments par gii, son déterminant (# 0) par g. Le produit scalaire xgiixiyi,
égal à +, (v) est le produit intérieur du ler vecteur
et de la forme caractérisée par le second, et vaut
donc’ xxib, (si les b, sont les composantes covariantes du 2e vecteur) (bien entendu, Xgiixiyi,
et 2e expression Xaiyi, dans le cas euclidien).
Un espace euclidien réel (ou hermitien complexe)
est dit positif (ou proprement euclidien ou hermitien)
si f est définie positive, c’est-&-dire, en dimension
finie, s’il existe des bases orthonormées. Une telle
structure est alors définie a priori par le choix
(Grbitraire) d’une base comme base orthonormée
(f définie par cette base et la matrice 1). A tout
L’ALGBBRE
88
LIN3.?AIRE
vecteur, on peut faire correspondre le nombre réel
positif m)
dit norme de ce vecteur. En base
e, . w
orthonormée, v. w = xxi .yi. Notamment,
ri : les composantes covariantes sont les conjugées des composantes ordinaires (bien entendu,
e,.w = y6, égale à la composante ordinaire, en
espace euclidien).
Le discriminant
forme
fondamentale
d’une base orthonormée
est det 1 = 1. Sauf
par
mention
rapport
& la
expresse du
contraire, on prend toujours pour base de référence de déterminant 1 une base orhonormée. Si g, . . . , es est une telle base,
. . . . e+J.P*det
(vl,
d’où : Dt (y,
. . . . v,)=detP
. . ., v,J =
et
(dez (vl,
réel étant
donné,
on peut considérer
les extensions
complexes
de sa forme
fondamentale.
On
obtient
ainsi
un espace
euclidien
complexe
et un espace
hermitien
extensions
de cet espace. Le produit
scalaire
de
2 vecteurs
réels est le même dans les 3 espaces. Si l’espace
initial
est positif,
il en sera de même de l’espace
hermitien
obtenu
; une base orthonormée
de l’espace
initial
sera une
base orthonormée
pour les 3 espaces.
39. Inégalité de Schwarz. - Considérons un espace
hermitien ou euclidien réel positif. L’inégalité de
Schwarz exprime que : If (v, 4 l2=G‘p (4. ‘p (w), ce
que nous écrirons en prenant les racines carrées
. .
et en désignant par 1VI la norme de v
fiKYys~v)
= Iv\“) : Iv.wI Q lvl.lwl.
L’inBgalité est stricte si v, w indépendants.
Posons
en effet
f (v, w) =
cp(~+Xe’~w)>O,V’h~R,cequidonne:O<f(v+Ae~~w,
pSe.
D’après
l’hypothèse,
v + hd’w) = f (v, v) +A 2 e6ee-ief (w, w) + Pf(v,)
+ he-“e f (v, w) = X2 <p(w) + 2 hp + ‘p (v). Le trinôme
réel
en h étant > Otlx, son discriminant
est < 0, d’où p2 - ‘p (v)
‘p (w) < 0, qui exprime
le résultat.
La démonstration
se simplifie
dans le cas euclidien,
où 3 = 0. On a évidemment
l’égalité
si un vecteur
est nul ; sinon, l’égalité
signifie
que le
trin6me
s’annule
; il existe alors X tel que v + he”‘w = 0 ; les
ESPACES
EUCLIDIENS
2 vecteurs
sont
infinie.
liés.
Par exemple,
est une
forme
Notons
sur (a,
définissons
ainsi
de Schwars
que
la
une structure
:
s
’
89
dimension
peut
être
g (2)) + Jl f (z) g (z) dx
sur l’espace
b) et ‘p =
s’écrit
HERMITIENS
b, (f(x),
si a <
bilinéaire
intégables
galité
ET
vectoriel
des fonctions
(f (x))2 dx > 0 si f # 0. Nous
d’espace
euclidien
(J’$(z)g(x)dx)2
positif.
L’iné-
< ll(f(z))‘dx
. 1 (g W2 dz.
En
espace euclidien
positif,
le nombre
v.w/lvl.IwI,
déti
p our 2 vecteurs # 0 est
compris entre - 1 et 1 ; c’est, par a%finition, le
cosinus du couple ordonné de ces vecteurs.
La norme de v est un réel 2 0 satisfaisant aux
;~~~9~
Iv'lrPwg.V=
0; lkvl = lkl IV~ et
Cette dernière
tient en écrivant
+f(w,v)l<2~<2jvI
inégalité,
: f (v, w)
T Tf (
+ <p (4
= lvl~lw~]s~+f
1
dite
inégalité
de Minkowski,
wl.Douc,~v+w~*=(~(v+w)
+ f
(w,
s’ob-
+ f (w, v) = 2 p COS 0, d’où 1f (v, w)
Iv7 w) + (w.
41~lvS+lwl
f
v)*<
IvlS + WI’
+21v1 l WI
La possibilité de trouver une application de E
dans R+ satisfaisant à ces propriétés fait donner
à un tel espace le nom d’espace vectoriel normk.
On en déduit aisément que l’application de Es
dans R+, d (v, w) = 1v - w 1 possède les propriétés : d (v, w) = 0 0 Y = w ; d (v, w) = d (w, v) ;
d (v, w) < d (u, v) + d (u, w) (inégalité triangulaire) ;
ce sont les axiomes d’une distance, qui font de E un
espace métrique.
40. Procédé d’orthogonalisation
de Schnùdt.
- Considérons
un espace euclidien
ou hermitien
ne comportant
pas de vecteurs isotropes
différents
de 0. Etant
donnés p vecteurs
indépendants
u,, . . ., nr, ce procédé
permet
d’en déduire p vecteurs
appartenant
au sous-espace
engendré
par les q, et
90
L’ALGÈBRE
LINEAIRE
ESPACES
EUCLIDIENS
ET
HERMITIENS
91
/
orthogonaux
2 B 2. Nous
poserons
: y1 = u,, va = hlvl
-0. + &,i-lvi-l
+ q, . . . ; les vi
+4.
***, Yi=hilYl+
sont
combinaisons
linéaires
des y ; va .Y, = 0 o h,, 1ull*
f us.u, = 0, d’où &i puisque
ui # 0 ; supposons
que nous
ayons déterminé
les vecteurs
vr, . . ., viwl,
non nuls, orthogonaux
2 B 2; nous aurons
Vk<
i, vi.vk=Oo&I~kI*
+ u, .vk = 0, d’où Q puisque
vk # 0 ; d’autre
part,
le vecteur vi ainsi déterminé
est # 0, car sinon
nous pourrions
exprimer
q en combinaison
linéaire
de v,, . . ., vi-,,
donc
ui-r,
en contradiction
avec l’hypothèse
d’indéde ur,...,
pendance
des q. Nous avons ainsi démontré
par récurrence
la réussite
de la méthode
; elle pourrait
par contre
être en
défaut
s’il s’introduisait
des veeteurs
isotropes
(1 vk la = 0 ne
permet
pas en général
de réaliser
vi .vk = 0). Si ui .ns = 0,
va = h, . . . et si u1 = v,, . . . 5-X = vi-l, l’orthogonalité
de q avec u,, . . . . ré-,
conduit
visiblement
à vi = ui. Donc,
si les i premiers
vecteurs
initiaux
sont orthogonaux
2 & 2, le
procédé les redonne.
Il résulte de cela que, dons un sous-espace
de dimension
p, on peut trouver
p vecteurs orthogonaux
2 b 2,
notamment
en complétant
un ensemble de i < p Vecteurs orthogonauz 2 à 2.
Supposons
l’espace
positif;
tout vecteur
v # 0 peut être
normé, c’est-à-dire
remplacé
par le vecteur
V/I Y 1. de norme
1 ;
cela ne change
pas les orthogonalités.
On peut ainsi,
dans
tout sous-espace
de dimension
p, former
un ensemble orthonormé
de p vecteurs, et le compléter
pour constituer
une base orthonormée
de l’espace
total. L’ensemble
de p vecteurs
peut être
considéré
comme
définissant
une base orthonormée
du sousespace, et le produit
scalaire
de 2 vecteurs
du sous-espace
sera le même que celui calculé dans l’espace total. Autrement
dit, tout sous-espace
d’un espace positif
peut être lui-même
considéré
comme
un espace positif,
avec même définition
du
produit
scalaire dans les 2 cas. Notons
que, dans le cas général,
un sous-espace
d’un espace euclidien
(ou hermitien)
n’est pas
toujours
un espace euclidien
avec la même définition
du produit
scalaire ; c’est le cas d’un sous-espace
isotrope,
la restriction
de la forme
fondamentale
à ce sous-espace
étant
dégénérée.
41. Groupe orthogonal et groupe unitaire. - On
appelle isométrie, ou déplacement, sur un espace
euclidien ou hermitien E, un automorphisme
u tel
que le produit scalaire de 2 vecteurs soit égal à celui
de leurs homologues.
11 suffit,
pour cela, sur un corps de caractéristique
# 2,
en espace euclidien,
que <p tu (4) = cp (4 Vv ; cela résulte,
de 2f(v,
w) = <p (v + w) - ‘p (Y) - <p (w) et, en espace hermitien, de 2 f (v, w) = ‘p (v + w) + iq (Y + iw) - (1 + i) (‘p (v)
+ ‘p (w)),
relation
que nous laissons
au lecteur
le soin de
vérifier.
D’autre part, tout endomorphisme conservant le
produit
scalaire est injectif,
car u (Y) = 0 + v. w = u (v). u (w)
= OVw, donc
morphisme
Y
= 0 ; en dimension finie, c’est donc un auto-
répondant
à la question.
Le produit de 2 dkplacements
en est évidemment
un. Ils forment donc un sous-groupe
de GL (E)
caractérisé
par la forme fondamentale
f, et appelé
groupe orthogonal 0 (f) d ans le cas euclidien, groupe
unitaire U (f) d ans le cas hermitfen. Nous supposerons dans la suite la dimension finie ; une base B
étant choisie, le groupe est isomorphe au groupe G
de matrices représentant
les automorphismes
dans
cette base ; on choisit en général une base dans
laquelle la matrice A de f est la plus simple possible,
notamment
une matrice diagonale d’éléments tous
égaux à 1 ou - 1 pour un espace réel ou complexe.
P étant la matrice de l’automorphisme
u, fi (Y, w)
=f tu b% u 64) est une forme bilinéaire de matrice “PAP (tPAP, cas hermitien) ; u répond à la
question si les 2 formes sont identiques,
donc si
elles ont même matrice ; le groupe G des matrices P
est donc caractérisé par la relation : A = ‘PAP (ou
A = “PAF). Mais tPAP (ou ‘PAF) est la matrice
de fdans la base B, se déduisant de B par la matrice
.
de passage P ; amsi : les matrices de G sont les matrices
de passage de B h une autre base dans laquelle la forme
fondamentale posskle la mehte matrice.
Les conditions exprimant que P répond à la question s’obtiennent
en exprimant que et f ont même
matrice, donc que f (u (eJ, u (ei)) = f (ei, eJ Vi, j,
les CI, étant les vecteurs de B ; en revenant
à la
notation usuelle du produit scalaire, et en remar
fi
92
L’ALGBBRE
LINÉAIRE
quant pue u (ei) est le ie vecteur colonne de P
exprimé dans la base B, désigné par vi, nous écrirons
ces conditions : vi. vi = adj (éldment général de
A) Vi, j.
Par exemple,
f étant bilinéaire symétrique
réelle de signature (2, l), nous prendrons
pour A la matrice
diagonale
d’éléments (1, 1, - 1) ; le produit
scalaire
de 2 vecteurs
e’exprimera
alors par : +y1 + qys - 5~s.
Les matrices
de G
devront
alors
vérifier
: v,.v,
= v1.v* = v*.vs = 0, IVll’
= 1vals = - 1 vsl* = 1, d’où
finalement
les relations
:
72
ofa +21+38 - %a38
= cil%
+ (181~~
ya83
7 %y
a,,Q88 = 0; 4 + 4, - aa1 - q8 + aar - a,
a s=a& - a& + t& =l.
On appelle groupe orthogonal (ou unitaire) B
n variables (n dimension de E), 0, (9) (U, (K)) tout
groupe isomorphe à celui obtenu lorsque f possède
des bases orthonormkes (cas général en espace
euclidien complexe, cas de f définie positive en
espace euclidien réel ou hermitien) ; on peut alors
poser A = 1, et le groupe est en effet défmi à une
isomorphie près comme celui des matrices d’ordre n
vérifiant ‘P .P = 1 (ou ‘P .P = 1), qu’on appelle
matrices orthogonales (matrices unitaires dans le cae
hermitien). Une matrice orthogonale (ou unitaire)
représente donc une isométrie d’un espace euclidien
(ou hermitien) rapporté à une base orthonormée,
et est matrice de passage d’une base orthonorm6e &
une autre. Elle est caractérisée par ‘P = P-l, d’où
fP-l = P (pour une matrice unitaire : ‘P = P-l,
d’où IP--l = P, P’ = P-r). Elle est caractérisée par
les relations : vjsvk = 8jk, soit : x 1“ii 1”= lvj et
xaij aik =
on xadjïïi,
= 0 ) Vi et k # j. Si P
i
est orthogonale (ou unitaire),“P l’est aussi (CP)-1
= P = ‘(‘P) ou (‘P)-1 = P = (‘P)‘), et réciproquement. On peut donc caractkiser une matrice ortho-
ESPACES
EUCLIDIENS
ET
ZZERMZTZENS
93
gonale, ou unitaire, par les relations analogues avec
les vecteurs lignes.
P étant orthogonale, det P = det ‘P = det P-r,
d’où
P)” = 1 ; on classe ces matrices en orthogonales droites (det P = 1) et orthogonales gauches
(det P = - 1). L’égalité P = IP-1 donne : ai,
=
P (en désignant par oii l’élément général
de P et par aii son cofacteur) ; donc : tout éZém-ent
d’une matrice orthogonale est égal à son cofacteur ou
à l’opposé de ce cofacteur suivant que la matrice est
droite ou gauche. Pour une matrice unitaire, on eut
seulement affirmer que 1det P 1 = 1 et Paii 1
=
[a
Un changement particulier de base orthonormée
est obtenu en permutant les vecteurs de cette base ;
on obtient ainsi des matrices orthogonales particulières, les matrices de substitutions, pour l’étude
desquelles nous renvoyons à CME, $ 22.
(det
a;,/&
IUij
On appelle
similitude le produit
d’une homothétie
et d’un
déplacement.
Une similitude
de rapport
k (celui de l’homothétie)
multiplie
les produits
scalaires
par kg ; elle conserve
les rapports
de produits
scalaires,
les orthogonalités.
Elle
est représentée
en base orthonormée
par une matrice
de la
forme
kP, P étant
orthogonale
ou unitaire.
42. Espacca orientés.
- Etant donné un espace vectoriel
de
dimension
finie E sur un corps ordonn&, on dit que 2 bases
ont la même orientation
si le déterminant
de la matrice
de
passage P de la ire Q la 28 est positif.
C’est visiblement
une
relation
d’équivalence,
et il y a 2 classes de bases. L’espace
est dit orienté lorsqu’on
a choisi l’une de ces classes, dont les
bases seront
dites dires,
les autres étant
qualifiées
d’indirectes. Il suffit
évidemment
de choisir
a priori une base de
référence
comme
directe.
En espace jaugé,
2 bases de déterminant
1 ont même orientation
(puisque
alors det P = 1) ; on
oriente
cet espace en les prenant
comme bases directes.
Une
base sera alors directe si le déterminant
des vecteurs
de cette
base est positif
; on dira encore que cet ensemble
de n vecteurs
a nne orientation
directe.
Un endomorphisme
est dit direct
s’il est de déterminant
positif
; d’après la relation
: dst (u (vr),
n
94
L9ALG&BRE
LINEAIRE
direct
. . . u(vn))
= det(v,,
. . . . v,J . det u, un endomorphisme
conserve
l’orientation
de n vecteurs
: sinon. il est dit indirect.
Une isométrie
euclidienne
a toujours
un’ déterminant
égal
21 f 1 (A = IPAP =z- (det P)s = 1) ; une isométrie
directe
est donc une isométrie
unimodulaire
; elle est représentée
éventuellement
en base orthonormée
par une matrice
orthogonale droite ; on l’appelle
rotation
; det kI = kn det I montre
qu’une
homothétie
est toujours
directe
en dimension
paire,
directe
ou indirecte
selon le signe de k en dimension
impaire.
43. Endomorphisme
adjoint.
- Sur un espace euclidien
ou
hermitien,
on appelle
adjoint
de l’endomorphisme
u, et on
note u*, un endomorphisme
tel que : v.u* (w) = u (v).w,
vv,
w. Un endomorphisme
peut ne pas avoir
d’adjoint
en
dimension
infinie
; mais s’il existe, il est unique
car, u** vérifiant aussi la relation,
on a v.(u*
(w) - u** (w)) = OVv, d’où
U* (w) - IL** (w) = OVw,
donc u* = ut* ; d’autre
part,
la
permutation
de v et w montre
immédiatement
que l’adjoint
de u* est u. On déduit facilement
de la définition
: (aul + bus)
= au; + bu; ; (cdl 0 U‘J = 24; 0 24;.
En dimension
finie, soient A, P, Q, X, Y les matrices
de la
en espace
forme
fondamentale,
de u, u*, v, w ; nous aurons,
hermitien
: tXAv
= l(PX) Ay = tXtPAYVX,
Y, d’où Ag
= tPA et g = A-l”PA,
Q = A-lP’
A (en espace euclidien,
Q = A-1”PA)
* un endomorphisme
possède
tOujOUrS
un
adjoint,
et l’on’en
déduit
: r (u’) = T (u), det u’ = det u. On
vérifiera
que PQ = 1 o tPAF = A ; une condition
nécessaire et suffisante
pour que u représente
une isométrie
est
qu’il admette
pour inverse
u*. En base orthonormée,
on a
Q = P’ (tP eu euclidien).
Un endomorphisme
auto-adjoint
est son propre
adjoint;
sa matrice
vérifie AP = ‘PA, soit A = “PA?1.
En base orthonormée,
sa matrice,
vérifiant
P = P’, est hermitienne
(symétrique
en espace euclidien)
; c’est pourquoi
on l’appelle
alors
endomorphisme
hermitian
(ou symétrique).
Un endomorpbisme
est dit normal
s’il permute
avec son adjoint.
Cette notion
est
surtout
utilisée
en espace hermitien
positif
; la matrice
d’un
tel endomorphisme,
en base orthonormée,
vérifie
donc P . P’
= P’ . P ; elle est dite matrice
normale ; les matrices
unitaires,
kermitiennes,
antihermitiennes
(P = - P’), donc
en particulier
les matrices
orthogonales,
symétriques
et antisymé.
triques
ré&s,
sont des matrices
normales.
CHAPITRE
VI
DIAGONALISATION
ET TRIANGULATION
DES MATRICES
44. Vectenrs propres, valeurs propres, équation
caractéristique.
- On appelle vecteur
propre
d’un .
endomorphisme
u un vecteur v différent de 0 tel
que u (v) = Av, le scalaire A étant appelé valeur
propre
(ou valeur caractéristique)
; u (q) = Au, ;
u (4 = Au, * u (uvr + bv,) = A (ml + bv,) ; l’ensemble des vecteurs propres correspondant
à une
même valeur propre, auquel on adjoint le vecteur
nul, constitue ainsi un sous-espace vectoriel appelé
sous-espace propre
; 0 est valeur propre si u n’est
pas injectif, le sous-espace
propre correspondant
étant le noyau.
L’espace vectoriel E étant de dimension finie n,
rapporté à une base ei, l’endomorpbisme
u est représenté par une matrice carrée A ; valeurs propres et
vecteurs propres de u sont également appelés valeurs propres et vecteurs propres de A. L’égalité
vectorielle de définition se traduit alors par l’égalité
matricielle
: AX = hX, soit (A - AI) X = 0 ; les
composantes de v doivent être solutions du système
linéaire homogène de matrice A - hI ; pour obtenir
un vecteur solution v # 0, il faut et il suffit que le
rang de A - AI soit strictement
inférieur à n, d’oti
det (A - AI) = 0. On obtient une équation algébrique en A, dite équation caractéristique,
dont les
valeurs propres sont nécessairement
racines ; réciproquement,
a toute racine h de cette équation
96
L’ALGÈBRE
LIN&AIRE
correspond uu systéme (A - h1) X = 0 au moins
indéterminé d’ordre 1, conduisant à un sous-espace
propre au moins de dimension 1. Si h est racine
multiple d’ordre Q de l’équation caractéristique,
A - hI est de rang r z n - q (5 30), et le sousespace propre de dimension d = n - r é q ; il est
de dimension 1 pour une racine simple. Les valeurs
propres et composantes d’un vecteur propre d’une
matrice carrée donnée sont déterminées algébriquement par ce qui précède, et indépendantes de I’endomorphisme qu’elle est censéereprésenter ; on pourra
par exemple supposer Ve l’espace vectoriel est Kn
rapporté à sa base canonique. De même, valeurs
propres et vecteurs propres d’un endomorphisme
ont une signification intrinsèque ; iJ est d’ailleurs
immédiat de vérifier que 2 matrices semblables ont
la même équation caractéristique : B = P-l AP
=t- B - AI = P-l (A - h1) P, d’où det (B - AI)
= det (A - AI) Vh, d ‘où l’identité des polynômes (1).
Mais, bien entendu, les vecteurs propres de l’endomorphisme ont, dans les 2 cas, des composantes
différentes, obtenues par des systèmes différents,
puisqu’ils sont exprimés dans des bases différentes.
Pour des raisons de commodité d’écriture, nous
introduirons sous le nom de polynôme caractéristique
l’expression :f(A) = det (AI- A) = (- 1)” det (A - AI).
h--
On
a donc
f(X)
=
419
-
-<ia,
. . ..
-0,
h-%aI”-7
.
-.Q9
=?a*
-
a,,,
-aan
.:.,
. Le
L*a,,
coefficient
de hn est visiblement
1. Pour obtenir
devons prendre
un terme contenant
n - 1 éléments
donc nécessairement
le ne ; prenant
h dans n -
h”-l,
nous
diagonaux,
1 éléments
DIAGONALISATION
ET
TRIANGULATION
97
diagonaux,
nous aurons un terme partiel de la forme - qi V-1 ;
finalement,
le coefficient
de hn-l est - &i.
Le terme constant est obtenu pour ‘h. = 0 et vaut (- I)n det A. Le coefficient
de h est le terme
constant
du polyn8me
dérivé,
somme
des
n déterminants
obtenus
en remplaçant
une ligue par 0 . . . 0,
1,o . . . 0 (5 30) ; le développement
par rapport
B cette ligne
douue le cofacteur
d’un élément
diagonal
; on obtient
donc la
somme
des cofacteurs
des éléments
diagonaux
et, en faisant
h = 0 la somme
des cofacteurs
des éléments
diagonaux
de
- A, de la forme
(- l)n-‘~,
puisque
ce sont des déterminants d’ordre
n - 1 ; le coefficient
de An-1 est donc - &+
Nous avons ainsi : f 0,) = Y - 0; A”-~ + . . .
* G, = det A. Les G..sont donc des invariants
de &rk~de
de la matricé et des nombres caractéristiques de l’endomorphisme ; il en est nbtamment
ainsi de a, = J&, appelée trace de la matrice ou
de l’endomorphisme. Lorsque l’équation comporte
n racines (compte tenu des multiplicités), en particulier si K = C, det A est le produit des valeurs
propres, et la trace est la sommedes valeurs propres.
Bien entendu,
l’équation
caractéristique
peut n’avoir
racine ; il n’y a alors ni valeurs
propres,
ni vecteurs
Il en existe toujours
lorsque
K = C. Mais ce résultat
aucune
propres.
est faux
en
dimension
Suie
; l’endomorphisme
P (z) +
’ P (:) dt
I
de l’espace
vectoriel
des polynames
à coefficients
dks
C ne
possède pas de vecteur
propre.
Lorsque
K = R, on peut considérer,le
plongement
de E dans un espace complexe,
et iutroduire des valeurs
propres
complexes
; à toute racine complexe
correspond
la complexe
conjuguée
; on est conduit
à 2 systèmes
de matrices
conjuguées
; à tout vecteur
propre
solution
de l’un
correspond
le vecteur
propre
conjugué
solution
de l’autre.
Il est toujours
possible
de,former
une matrice
admettant
une
équationcaractéristiquedonnéeaptiori.Notammentlamatrice:
oo...o-t$
10.
. .
(1) On utilise le fait que 1’6galité numkique
des polynômes
Vh
entrahe
leur identitb
formelle, ce qui suppose le corps K infini.
Mais, s’il est fini, on peut toujours
supposer qae les matrices sont
h 6Mments dans un surcorps infini de K (par exemple le corps des
fractions rationnelles
dMnies sur lui).
.
.
.
.
.
0
.
--%.
OO..lO-a,
OO..Ol-a,
.L
BOUTELOUP
4
98
L’ALGBBZUC
LINEAIRE
a pour équation
caracthistique
:In + 4Vhn-l+
asP-s
+ . ..
+ u,+~A + a,, = 0, elle est dite partenuire
de cette équation.
On prouvera
aisément
ce résultat
en écrivant
le système
de
détermination
d’un vecteur
propre,
et en ajoutant
membre
h
membre
les équations
multipliées
par 1, À, . . . P-1,
ce qui
conduit
B la condition
d’existence
d’un vecteur
solution
non
nul, qui est la relation
ci-dessus.
Avec les ai tous nuls, on a un
exemple
de matrice
non nulle ayant
n valeurs
propres
nulles.
45. Diagonalisation des matrices. - Une matrice
carrée A est dite diagonalisable si elle est semblable
à une matrice diagonale D ; nous dirons également
que l’endomorphisme qu’elle représente est diagonalisable, ce qui veut dire qu’il existe une base dans
laquelle il est représenté par une matrice diagonale.
Les propriétés des matrices semblables et la simplicité du calcul sur les matrices diagonales (CME,
8 20) font comprendre l’intérêt de la recherche d’une
(( forme réduite n diagonale. A et D représentant le
même endomorphisme u, tout vecteur vi de la base
dans laquelle il est représenté par D a pour homologue le ie vecteur colonne de D, c’est-à-dire hvi ;
il est donc vecteur propre, et le ie élément diagonal
de D est la valeur propre correspondante ; réciproquement, si l’on possède une base de vecteurs
propres vi de A, la matrice D de l’endomorphisme
dans la base des vi aura comme éléments de la
ie colonne les composantes de l’homologue &vi,
soit 0 . . . 0, &, 0 . . . 0 ; elle sera diagonale. Ainsi :
une condition nécessaire et suffisante pour que A
soit diagonalisable est qu’il existe une baseformée de
vecteurs propres de A. La matrice diagonale D est
aussitôt connue, admettant comme éléments les
valeurs propres correspondantes ; mais on peut
former la matrice de passage P admettant pour
vecteurs colonnes les vi (exprimés dans l’ancienne
base, c’est+dire la base canonique de K”) ; on a
alors la vérification D = P-l AP.
DZAGONALZSATZON
ET
TRIANGULATION
99
Pour préciser cette condition, montrons que kr
somme de sous-espacespropres correspondant à des
V&U~S propres distinctes est directe. Soient en effet
E r, . . ., Ep des sous-espacespropres correspondant
aux valeurs propres distinctes&, . . ., h ; supposons
que la somme de E,, . . . , Ei soit directe et considérons l’égalité vr + . . . + v, + vi+, = 0 (4 E Ek) ;
nous en déduisons par l’endomorphisme u : A,v,
. . . -+-AiVi-j-A+ +I~i+i = 0, d’où (Ai+, - Al) v,
: . . . + (A,+, - &) vi = 0 ; d’après l’hypothèse de
récurrence, tous les vecteurs de cette somme doivent
être nuls, d’où vr = . . . = vi = 0 entraînant vi+r
= 0 ; la démonstration est encore valable pour
i = 1, et le résultat est établi par récurrence. S’il y a
une base de vecteurs propres, tout vecteur de E
appartient à l’espace somme des sous-espacespropres, qui coïncide avec E ; réciproquement, si cela
a heu, on obtient une base de E par réunion de bases
de ces sous-espaces, donc une base de vecteurs
propres. Or, la dimension de l’espace somme directe
est la somme des dimensions. Si di est la dimension
du ie sous-espace propre, la condition pour que A
soit diagonalisable est x di = n ; mais di < qi
(ordre de multiplicité
de la valeur propre) et
Xq<G 78., pour qu’il y ait l’égalité, il faut et il
suffit que di = qiVi et Zqi = n. Ainsi : une condifan nécessaireet suffisante pour qu’une matrice soit
diagonalisable est que l’équation caractéristique ait
n racines, pour une matrice d’ordre n, compte tenu
desmultiplicités, et qu’à toute racine multiple d’ordre q
corresponde un sous-espacepropre de dimension q.
En particulier, 1a matrice sera diagonalisable si
I’équation caractéristique a n racines distinctes
(4 = qi = 1Vi). Sur un corps algébriquement clos,
telqueC,onaZq~=n;ilsuffitquedi=q6Vi;
notamment la matrice est diagonalisabk s’il n’y a
100
L’ALGBBRE
DIAGONALISATION
LINEAIRE
ET
TRIANGULATION
101
L
pas de racines multiples. Notons que si A est racine
multiple d’ordre n, la matrice n’est pas diagonalisable si elle n’est pas a priori
diagonale ; car alors
D serait scalaire, de la forme AI, et P (AI) P-1 = AI.
En général, lorsqu’il y a des racines multiples, la
matrice n’est pas diagonalisable ; mais on forme
aisément un exemple où elle l’est, en partant (zpriori
de D diagonale d’éléments non tous distincts, et
en considérant une matrice semblable P DP-l.
D = P-1 AP s’écrit PD = AP. Il est aisé de voir que, si D
est une matrice
diagonale
dont les éléments
sont des valeurs
propres
de A, il existe toujours
des matrices
P non nulles
vérifiant
cette dernière
égalité ; si A n’est pas diigonalisable,
on ne peut en déduire
D = P-‘AP,
parce que toutes
les
matrices
P trouvées
sont non régulières.
Parmi les applications de la diagonalisation, citons
dès maintenant le calcul des polynômes de matrices ;
si A = P DP-i, f(A) = Pf (D) P-1 ; D étant diagonale d’élément général &, f(D) est diagonale d’élé; on en déduit f (A) (exemple
y&
,
46. Triangulation des matrices. - La forme
réduite diagonale ne pouvant toujours être obtenue
par similitude, il peut être intéressant de rechercher
une forme réduite triangulaire. Ces matrices ~OSsèdent des propriétés intéressantes dont le lecteur
pourra trouver la justification (d’ailleurs très simple)
dans CME, $ 21 : le résultat d’opérations du calcul
matriciel sur des matrices triangulaires de même
ordre et même espèceconduit à une matrice triangulaire de même ordre et même espèce ; si A est
triangulaire, d’élément diagonal général a,, f (A)
est triangulaire, d’élément diagonal général f (agi) ;
A triangulaire
est régulière si oii f OVi, A-l
étant alors triangulaire d’élément diagonal gb
néral l/aii. Notons également que le développe-
ment de det (U - A) par rapport aux lignes (ou
colonnes) successives montre aussitôt qu’il est égal
. . . (1 - QJ : les valeurs propres d’une
W-au)
matrice triangulaire sont ses él&mentsdiag0n0ux.
Le théorème fondamental peut s’énoncer sous
les 2 formes équivalentes : Il existe, pour tout endomorphisme d’un espacehermitien positif de dimension
finie (sur C) une buse orthonormde dans laquelle sa
matrice est triangulaire. Toute matrice A sur C est
semblableà une matrice triangulaire, avec une matrice
de passage unitaire. On passe du ler énoncé au 20
en considérant, dans une base orthonormée de
l’espace hermitien, l’endomorphisme de matrice A.
La propriété
étant évidente
pour n = 1, nous démontrons
cette propriété
par récurrence
sur la dimension,
en nous
plaçant
par exemple
dans le cas d’une triangulaire
supérieure
(un simple changement
d’indices
des vecteurs
utilisés donnerait
la démonstration
pour une triangulaire
inférieure).
L’équation
caractéristique
de notre endomorphisme
u ayant
toujours
au
moins une racine,
nous avons toujours
au moins un vecteur
propre,
que nous nomzons ; soit Y, ce vecteur,
engendrant
le
sous-espace
E,, et soit Es le sous-espace
orthogonal
B E,, qui
lui est supplémentaire,
v, ne pouvant
être isotrope
; Vv,
u(v)
= w + kv,, avec w E Es ; l’application
v + w est un
endomorphisme
u1 de E dans Es, produit
de u et de la projection sur Es parallèlement
à E,. D’après
l’hypothèse
de récurrence, il existe pour la restriction
de u, à Es une base orthoI
norme8
v,, . . ., v, par rapport
21 laquelle
la matrice
est triangulaire;
donc r(vi)=usvs+
. . . +uiv<
et u(vi)=<~vr
‘t-qv,+
. . . +ajvj;
d’autre
part, u (vr) = Xv,. L’ensemble
de l’espace
total E,
(VI, .*., vs) est une base orthonormée
dans laquelle
la matrice
de u est triangulaire,
d’aprbs
ces
relations.
Bien entendu,
étant donné un endomorphisme
d’un espace
vectoriel
quelconque
sur C, sa matrice
étant semblable
à une
matrice
triangulaire,
il existe
une base dans laquelle
il est
représenté
par une matrice
triangulaire.
Mais, pour un espace
euclidien
complexe,
on ne peut affirmer
l’existence
de la forme
réduite
en base orthonormée,
car la présence
de vecteurs
propres
isotropes
peut
rendre
impossible
le raisonnement
ci-dessus.
Autrement
dit, on ne peut affirmer
que toute matrice
102
L’ALGÈBRE
LINEAIRE
sur C est semblable
g une matrice
triangulaire
avec une matrice
de passage orthogonale.
Dans le cas d’un
espace euclidien
réel, il n’y a pas de vecteurs
isotropes
; mais c’est la non-réalité
des valeurs
propres
qui peut entraver
le raisonnement.
Nous
énoncerons
:
Toute matrice A sur R dont toutes les valeurs propres
sont rdelles est semblable Ct une matrice triangulaire
réelle
avec une matrice de passage orthogonale rt%lle.
Nous remarquerons
d’abord
que
la matrice
triangulaire
représentant
dans la base des vi sont éléments
sentant
u, autrement
dit que les
restriction
de ur sont valeurs
propres
thèse actuelle,
elles seront
toutes
reprendre
le raisonnement
général
dien réel positif.
les éléments
diagonaux
de
la restriction
de u, à Es
diagonaux
de celle reprévaleurs
propres
de cette
de u. Dans notre hyporéelles,
et nous pouvons
ci-dessus
en espace eucli-
Citons une application inthessante de la triangulation ; A étant semblable à T triangulaire d’él&
ment diagonal général 4, valeur propre de A, f(A)
est semblable àf(T), triangulaire d’élément diagonal
général f (&) qui est ainsi valeur propre de f (A),
s$ A~ apparaît p fois dans T, f (4) apparaît p fois
dans f (T) ; f (h,J peut être valeur propre d’ordre
> P, si f (Ai) = f 05) avec Ai # ?+ Nous énoncerons : si A est valeur propre de A d’ordre de multiplicité p, f (A) est valeur propre de f(A) d’ordre de
multiplicité > p. Ce résultat semble réservé à K = C ;
il n’en est rien, tout corps K pouvant être plonge
dans un surcorps algébriquement clos K, auquel on
peut appliquer les propriétés valables pour C ; la
propriété est générale.
Pratiquement,
le fait d’utiliser
une matrice
de passage
unitaire
pour
obtenir
une matrice
triangulaire
semblable
n’offre
souvent
aucun intérêt.
On pourra
triauguler
de proche
en proche.
Ayant
obtenu
p vecteurs
propres
indépendants
vi, . . ., vp pour A (on prendra
évidemment
p le plus grand
possible),
on les prendra
comme p premiers
vecteurs
d’une
base, pour
laquelle
on aura la matrice
de passage
P, B
DIAGONALISATION
ET
= P-1
AP
d’ordres
p et n - p, D*étant
diagonale.
Nous serons
à « trianguler
» B,. Supposons
que T1 = Q;lB$Qi,
1 étant
triangulaire
soit
unité
(CME,
Q-1
BQ
, D et B, étant
supérieure.
la matrice
ioz~
:
103
carrées
ramenés
T1 étant
s’6crivant
TRIANGULATION
Nous poserons
des matrices
:Q =
p ; le « produit par blocs » de
montre que (i
&)
= Q-l et
d’ordre
8 11)
= T triangulaire
A est%nsi
semblable
à T avec la matrice
de passage PQ. On
retrouve
la diagonalisation
si p = n ; si p = n - 1, B, étant
d’ordre
1, B est triangulaire.
Nous proposons
les 2 exemples
numériques
:
-13
-3
-4
( -
2:
-:
et
9)
6
0
( 1
-7
-
-f
20
8
0)
Dans le 1” cas, g la valeur
propre
triple
- 1 correspond
un
sous-espace
propre
de dimension
2 dans lequel on peut prendre
v, = (0, 2, 1) et vs = (1, 0, 2) ; complétant
par exemple
par
vs = (0, 0, l), nous formerons
P conduisant
B T = P-1 AP
-1
-2
=
0 -:
6 . Dans le 2e cas, & la valeur
propre
0
o-1
(
1
triple
2 correspond
un sous-espace
propre
de dimension
1;
nous y choisirons
v, = (2,4, - 1) et compléterons
par exemple
par vs = (0, 1,O) et vs = (0, 0,l) pour former
P conduisant
à
12
- 712 - lO\
; la matrice
B, peut être
- $2
triangulée
au moyen
lement,
==(i
avec
b
-?)
la
de Qr =
matrice
( _ i
de ’ pa&age’
semblableBA.
1)
et l’on
PQ,
trouve
la
matrice
finaT
104
L’ALGltBRB
LINEAIRE
47. Propriétis des matrices hermitiennes. - Si
A est hermitienne et P unitaire, T = P-r AP
est hermitienne,
puisque T’ = P’ A’ (P-l)’
= p-1Ap = T. Or, T étant supposée par exemple
triangulaire supérieure, pour j > i, aii = 5, = 0 ;
T est donc diagonale, d’kléments diagonaux réels,
puisque hermitienne. Ainsi : Toute matrice hermitienne (sur C) est diagonalisable avec une matrice de
passage unitaire, et toutes ses valeurs propres sont
réelles. C’est en particulier le cas d’une matrice
symdtrique réelle ; les valeurs propres étant réelles,
il existe une matrice triangulaire semblable TI
avec une matrice de passage orthogonale réelle PI,
et tTI = “PI “A tPïl = Pi1 AP = TI ; TI est symétrique, donc diagonale : Toute matrice symétrique
réelle est diagonalisable avec une matrice de passage
orthogonale réelle. Ce résultat ne s’étend pas aux
matrices symétriques complexes ; le raisonnement
précédent serait valable si l’on pouvait trianguler
avec une matrice de passage orthogonale, ce qui
n’est pas toujours possible ; une matrice symétrique
complexe peut ne pas être diagonalisable (exemple
CME, 5 38). Le résultat peut encore s’énoncer :
En espace hermitien ou euclidien réel positif, tout
endomorphisme auto-adjoint possddetoutes sesvaleurs
propres réelles et peut être représenté en base orthonormée par une matrice diagonale (puisque, dans une
base orthonormée quelconque, il est représenté par
une matrice hermitienne ou symétrique réelle). On
d6duit également de ce qui précède des propriétés
d’orthogonalités de vecteurs propres qui seront
développées au paragraphe suivant.
Une application importante de ces propriétés est
la réduction des formes hermitiennes ou bilinéaires
symétriques réelles en base orthonormée. La relation
D = P-lAP, avec A hermitienne, P unitaire et D
DIAGONALISATION
ET
TRIANGULATION
105
diagonale, s’écrit D = ‘QAQ, en posant Q = P, d’où
‘Q = P’ = P-l. La matrice unitaire Q (Q’ = 1P
= p-1 = Q-1) caractérise donc un changement de
base orthonormée (d’un espace hermitien positif)
conduisant pour la forme de matrice A à la forme
réduite db matrice D. Les coefficients de la forme
réduite, éléments de D, sont a priori COMUS
comme
étant les valeurs propres de A. On peut vérifier en
utilisant Q. Les résultats sont analogues pour une
forme bilinéaire symétrique réelle, avec P orthogonale réelle, et Q = P.
Des exemples
de ce cas sont traités
dans CME, 5 40. Noua
proposons
ici l’exemple
de la forme hermitienne
de matrice
:
3
l-i
.
i - 1 - i . Lesvaleurspropressont
2 dou4
1::
-1Ci
ble et 6 ; la forme
réduite.
pourra
donc s’écrire
: 2 47;
+ 2 x:X
+ 6 X: 7:. Pour vérifier.
nous écrirons
le svstème
.
correspondant
B h = 2, de rang 1, dont 1 vecteur
solution
est (i, - 1, 0) ; tout vecteur
orthogonal
(en espace hermitien
rapporté
B une base orthonormée)
a ses composantes
vérifiant : - iq - zr = 0 ; nous pouvons
ainsi trouver
le vecteur
’ - 1 - i) correspondant
B X = 2 et orthogonal
:;y
(1, - 19
m ; pour A = 6, nous pouvons
prendre
le vecteur
propre
(1, - i, 1 + i) et nous vérifions
qu’il est orthogonal
aux
2 premiers
; les normes
hermitiennes
de ces vecteurs
valent
respectivement
42,
2, 2 ; en divisant
par ces normes,
nous
obtenons
un ensemble
orthonormé
caractérisant
les vecteurs
colonnes d’une matrice
unitaire
P ; les relations
de changement
de’ base,
obtenues
avec
Q = P sont : x, = - ilq2.X;
+1/2.x;+1/2.r&...
En écrivant
la forme
au moyen
de
la matrice
initiale
et en remplaçant
les xi et yd par ces valeurs,
on doit retrouver
la forme
réduite.
““P
Y””
48. Propriétés
des matricea
normalw.
- Plus généralement,
si A est normale (sur C) et P unitaire,
T = P-1 AP est normale,
car T’ = P’A’
(P-1)’
= P-rA’P
et TT’ = P-‘AA’P
= P-1 A’ AP = T’ T. 11 en résulte
que T est diagonale
;
en effet
T triangulaire
supérieure,
d’élément
supposons
général
aij (donc aii = o pour
j < i) ; l’égalité
des premiers
éléments
diagonaux
de TT’ et T’ T donne : arr Z1r + un ürs
106
+
L’ALGBBRE
. . . +qnà,n=à,laIlra~où~z=
LINEAIRE
. . . =Cin=~~suppo-
sonaaloradémontrégueoki=O
pour 1~ k< i-l
etj#k;
l’égalité
des ie éléments
diagonaux
de TT’ et T’ T donne :
a$ à{i + %,i+*Q+1
+ *a+ + ain ài, = àli ai< + à& $g
a .-a.. ** = oi< o<i d’après
l’hypothèse
de récurrence
;
+&n,,é>
i,i+l=
. . . =ain=
O,d’oùaki=Opourlgkgi
et i # k, et la propriété
est établie
par récurrence.
Donc :
Toute matrice
normale
est diagonalisable
avec une matrice
de
passage unitaire
; il en résulte
notamment
qu’à toute valeur
propre
multiple
d’ordre
p correspond
un sous-espace
propre de
dimension
p. Réciproquement,
D diagonale
est évidemment
normale
; le raisonnement
ci-dessus montre
que A = P DP-l,
avec P unitaire,
est normale
; la propriété
établie est donc caractéristique
des matrices
normales.
Elle peut s’énoncer
: Tout
endomorphisme
normal,
en espace hermitien
positif,
se caractérise
comme un endonwrphisme
pouvant
&re représenté
par une matrice diagonale
en base orckononnés
; on peut dire encore qu’un
tel endomorphisme
se caractérise
comme possédant
une base
orthonormée
de vecteurs propres
; pour diagonaliser,
on doit
prendre
p vecteurs
de base dans tout sous-espace
propre
de
dimension
p, qui devient
donc un sous-espace
de base ;
2 sous-espaces
de hase d’intersection
réduite
à 0 sont évidemment tels que tout vecteur
de l’un soit orthogonal
& tout vecteur
de l’autre
; ainsi : 2 vecteurs propres
correspondant
h 2 valeurs
propres
distinctes
sont ortkogonauz;
pour
appliquer
B une
matrice
normale,
on se rappellera
qu’elle
représente
un tel
endomorphisme
en base orthonormée
; les composantes
des
2 vecteurs
vérifieront
xxi yi F 0. L’orthogonalité
hermitienne
donne
l’orthogonalité
euchdrenne
pour
des vecteurs
réels ;
c’est le cas pour
tous les vecteurs
propres
d’une
matrice
symétrique
réelle (matrice
A - 11 du système
réelle),
qui se
caractérise
ainsi comme
possédant
une base orthonormée
de
vecteurs propres
réels (car réciproquement
une telle matrice
sera diagonalisable
sur R et symétrique
comme semblable
à une
matrice
diagonale
avec une matrice
de passage orthogonale)
;
ce n’est pas le cas de tous les endomorphismes
normaux
en
espace euclidien
réel positif
dont la matrice,
vérifiant
AtA
‘AA, n’est pas forcément
symétrique,
pouvant
notamment
ze
antisymétrique
ou orthogonale.
P étant
unitaire,
et D = P-l AP, A hermitienne
o D
hermitienne
(§ 47) et, de même,
A antihermitienne
o D
antihermitienne.
Les matrices
hermitiennes
se caractérisent
donc comme
matrices
normales
g valeurs
propres
réelles.
D
antihermitienne
0 a;$ = - à+
donc
aii complexe
pur ; les
matrices
ontihermitiennes
se caractérisent
donc comme matrices
DIAGONALISATION
ET
TRIANGULATION
107
normales
SI valeurs
propres
complexes pures, leur seule valeur
propre
réelle éventuelle
étant 0 ; c’est le cas des matrices
ornisyifiézripues
réelles ; pour celles-ci,
le rang, égal B celui de D,
donc au nombre
de valeurs
propres
différentes
de 0, c’est&dire
non réelles, est donc
forcément
pair.
De même,
A unitaire
o D unitaire
+ ( aii 1* = Ni. Les
matrices
unitaires
se caractérisent
comme
matrices
normales dont les valeurs propres
sont toutes de module 1. C’est le
cas notamment
des matrices
ortkogonules
réelles. Ce qui a été
dit pour les matrices
symétriques
complexes
peut être répété
pour les matrices
orthogonales
complexes
; elles peuvent
ne
pas
être
diagonalisables;
exemple
:
Notons
que si q, . . . . z, sont les composantes
d’un vecteur
v d’une
matrice
orthogonale
(réelle
ou complexe),
d’où h = f 1,
on a : 2; + . . . + x: = 2 (xf + . . . + xi),
ou v isotrope.
Les matrices
orthogonales
réelles possèdent
les
2 propriétés
: elles peuvent
avoir les valeurs
propres
réelles 1
et - 1, et des valeurs propres complexes
de module 1 auxquelles
correspondent
des vecteurs
propres
isotropes.
On voit immédiatement
que la matrice
orthogonale
droite
d’ordre
2, caractérisant
une rotation
d’angle
0 (CME,
5 25). a pour valeurs
propres
COS 0 f i sin 8, la matrice
orthogonale
gauche d*ordre 2
ayant
pour valeurs
propres
1 et - 1.
Une matrice
orthogonale
réelle droite d’ordre
3, admettant
2 valeurs
propres
complexes
conjuguées
con a & i sin a. de
produit
réel > 0, a nécessairement
pour valeur propre réelle 1
(le déterminant,
produit
des valeurs
propres
valant
1); les
cas de 3 valeurs
réelles : 1,1, 1 et - 1, - 1,l rentrent
dans
cette hypothèse
avec a = 0 ou x. Faisons un changement
de
base orthonormée
directe
en prenant
comme 3e vecteur
de la
nouvelle
base le vecteur
propre
réel normé ; nous aurons une
nouvelle
matrice
orthogonale
droite (produit
de 3 orthogonales
propre
droites)
de la forme
: (i:,
i:,
H) ; des conditions
d’ortho-
gonalité
dorment
immoediatement
a” = Y’ = 0, et l’on
voit
aisément
que la matrice
sera orthogonale
droite
si
a
b
l’est;
nous
obtenons
finalement
la matrice
:
b’ )
( a’
-*ine
0
case
case 0 qui cara0téri8e
MO
rotation
ah+ 8
ke
0
0
1
L’AL
108
GBBRE
L INBAIRE
autour
d’un axe ayant la direction
du 3e nouveau
vecteur
de
base, c’est-h-dire
du vecteur
propre
réel ; les valeurs
propres
complexes
sont : COS 0 f i sin 0. L’angle
de rotation
est ainsi
connu au signe près ; pour préciser,
nous orienterons
l’axe de
rotation
de façon que 0 soit compris
entre 0 et x ; il est alors
facile de voir
que le sens de l’axe est celui du produit
vectoriel d’un vecteur
orthogonal
& l’axe et de son homologue.
On montrera
par
exemple
que
représente
une ro-
tation
de 2 x/3 autour
de l’axe ayant
direction
et sens du
1). Si A est orthogonale
gauche,
- A
vecteur
(-l,l,est orthogonale
droite ; on en déduit
que A possède les valeurs
propres
cas a f i sin a (a = 0 + x) et - 1.
49. Th6orème
de Cayley-Hamilton.
Polyu8me
minimum.
Considérons
un polyn8me
g (1) = a,, W + urÀP-l+
... +
I+~X
+ ap, et une matrice
carrée A d’ordre
n. Nous allons
montrer
qu’ilexiste
un couple unique de matrices
carrées d’ordre
n, Q (1) (dont les éléments
sont des polyn8mes
en h) et S (indépendante
deh) telles que l’on ait : g (1) 1 E Q (1) (M - A) + S ;
notre signe d’identité
signifie
que lee éléments
de même indice
des matrices
des 2 membres
sont des polynômes
identiques
;
cela est réalisé en particulier,
si le corps K est infini (hypothèse
que nous supposerons
réalisée dans la suite ; voir note du 8 44),
lorsque les matrices
des 2 membres
sont égales quel que soit h.
Il résulte de notre hypothèse
que les éléments
de Q (1) sont des
polyu8mes
de degré G p - 1; nous pouvons
donc écrire
:
-,+I?p,lesmatrices
Q(h)=W-lI’,+hp-sI’s+
. . . -+Xl?
I?i étant indépendantes
de 1. L’ident if mation
donne alors :
I’,=a,I;
rs-rrA=o,I;
. . . . rp-Pp-rA=ap-rI;
S - I’, A = ap 1; ces relations
déterminent
de façon unique
les Pi et S ; en les multipliant
respectivement
par AP, AP-l,
. . ., A, 1, et en ajoutant
membre
& membre,
nous obtenons
:
S=a,,AP+
. . . +a~-lA+a,,I=g(A).Donc,uuecondition
n&essaire
et sufli8ante
pour qu’il existe Q (1) telle que g (À)
IsQ(h)(XI-A)estqueg(A)=O.
Le déterminant
de AI - A est le polynôme
caractéristique
: f (A) 1 = Adj (XI - A). (XI - A), VX
fJ h 19 d’où la relation
ous en déduisons
donc que f(A)
= 0. C’est le théorème
de
Cayley-Hamilton
: Toute matrice
est racine
de son équation
caractéristique
considérée
comme équation
matricislle.
Ce résultat
nous amène
B considérer
l’ensemble
P des
polyn8mes
g (x) tels que g (A) = 0, qui contient
donc le
polyn8me
caractéristique
; g, h E P + g.g E PVp (puisque
DIAGONALISATION
ET
TRIANGULATION
109
gp (A) = g (A) p (A)) et ag + bh E P ; P constitue
donc un
idéal de polyn8mes.
Parmi
les polynômes
de P, il y en a de
degré minimum
; soit <p un tel polyn8me
; si g E P, et g = ‘pq
+ r (do r < do q), r E P contrairement
à l’hypothèse
de degré
minimum
pour
<p ; donc,
nécessairement
r = 0. Ainsi,
les
polynômes
de P sont les multiples
de ‘p ; notamment
ceux de
degré minimum
sont les produits
de <p par un scalaire ; nous
préciserons
p en lui imposant
d’être
unitaire
(coefficient
du
terme de plus haut degré égal à l), et l’appellerons
polynôme
minimum
de A. C’est donc un diviseur
du polynôme
caractéristique ; il est de degré Q n, et ses racines sont valeurs propres
de A.
Désignons
pard(X)lep.g.c.d
des éléments
de Adj (M - A),
c’est-à-dire
des cofacteurs
de ÀI -A
; nous pouvons
écrire
Adj (XI - A) = d (1) M (1) (M (1) étant une autre matrice
à
éléments
polynomiaux)
; d’autre
part, f(h)
est combinaison
linéaire
de cofacteurs,
donc divisible
par d (À) et f(A) = d (1)
+ (1). Nous en déduisons
la relation
: 6 (1) 1 = M (1) .(M - A),
d’où J, (A) = 0 ; donc (c, E P et $ = q<p. Supposons
q de degré
> 0; puisque
<p(A) = 0, 3N (1) telle que <p (X)I = N (1).
(AI -A),
d’où
+ (A) 1 = q (h) N (h) (M -A)
et
M (1)
= q (A) N (A), à cause de l’unicité
; les éléments
de M (A) sont
tous divisibles
par q (h), donc ceux de Adj (XI - A) par d (1)
q (h) contrairement
à l’hypothèse
d (1)p.g.c.d
; q (1) se réduit
donc nécessairement
à une constante,
et $ est polynôme
minimum. Ainsi : Lepolynhe
minimum
‘p est le quotieti dupolynhe
caractiristique
f par le p . g . c . d des cofacteurs de AI - A (f étant
unitaire,
on obtiendra
‘p unitaire
en prenant
d unitaire).
La
relation
<p (1) 1 = M (1) (AI - A) donne pour les déterminants
:
(9 (h))n = det M @),f(h)
; f(h)
= 0 G- ‘p (1) = 0, donc : toute
valeur propre
est racine du polynôme
minimum.
Si l’équation
caractéristique
possède n racines,
compte
tenu des multiplicités (notamment
si le corps
K est algébriquement
clos),
soit f(h)
= (A - hl)qz . . . (h - hp)4p, avec q1 + . . . + q, = n,
on a donc ‘p (1) = (AX1)i . . . (h-IJp,
avec l< ri& qt.
Nous supposerons
dans la suite K algébriquement
clos. Si A
est diagonalisable,
toutes les valeurs propres
sont racines simples
du polynôme
minimum.
Remarquons
d’abord
que si A et B
sont semblables,
g (A) = 0 <j g (Ii) = OVg ; 2 telles matrices
ont donc même idéal P et même polynôme
minimum
; il suffit
donc de démontrer
la propriété
ci-dessus
pour
la matrice
diagonale
D semblable
à A, d’élément
général h valeur propre
deA;sicp(h)=(h-h,)...
fp (Dl a pour étément
général
p (X;) = 0 ; donc
<p
Réciproquement,
si
110
L’ALGÈBRE
LINBAIBE
toutes les racines de ‘p (1) sont simples, A est diagonalisable.
Soit
en effet
: 0 =<p(A)
= (A-1,1)
.,. (A-$,1).
Je noyau
de l’applicationlinéaire
nulle est l’espace total, de dinîension
n ;
or (5 14), il est de dimension
inférieure
ou égale B la somme des
dimensions
des noyaux
des applications
dont elle est le produit;
le noyau de l’application
de matrice
A - & 1 est le sous-espace
propre correspondant
à &, de dimension
di ; on a donc n < z 4,
d’où, puisque
x di < n, x di = ta et A diagonalisable
(5 45).
Nous
avons
ainsi démontré
une propriété
caractéristique
remarquable
des matrices
diagonalisables.
Considérons
alors une équation
matricielle
g(X)
= 0, le
polynôme
g n’ayant
pas de racines scalaires
multiples
; toute
matrice
X carrée solution
a un polynôme
minimum
diviseur
de
g, donc sans racines multiples,
et est diagonalisable.
Ilsuffit
de
caractériser
les matrices
diagonales
solutions,
toutes les matrices
semblables
répondant
à la question.
L’ordre
étant
choisi, D
est solution
si son polynôme
minimum
est diviseur
de g, donc
si ses éléments
diagonaux
(racines
de ‘p) sont racines
de g.
Finalement,
A est solution
si A = P DP-l,
VP régulière,
avec
g (ai;) = OVaii élément
diagonal de D. Notamment,
les matrices
inwolutiues
: As = 1 (g (A) = 0 avec g = xs1) sont toutes
les matrices
diagonalisables
de valeurs
propres
1 et - 1 ; les
matrices
idempotentes
: As = A sont toutes les matrices
diagonalisables
de valeurs propres
0 et 1; on vérifie
aisément
B partir
de là qu’elles
caractérisent
des projections.
Tous les résultats
de ce paragraphe
peuvent
évidemment
être
appliqués
aux endomorphismes
d’un
espace
vectoriel
de
dimension
finie,
en utilisant
les matrices
les représentant
dans
une certaine
base.
50. Matricea
permutables.
Le corps K étant
toujours
supposé algébriquement
clos, supposons
que 2 matrices
carrées
de même ordre,
A et B, aient des équations
caractéristiques
sans racines
multiples.
Dans
ces conditions,
pour
que ces
2 matrices
soient permutables,
il faut et il suffit qu’elles aient
m&mes vecteurs propres (supposés
exprimés
dans la même base),
c’est-à-dire
qu’elles soient semblables
à des matrices
diagonales
(différentes)
avsc la même matrice
de passage.
Supposons
en
effet que AR = BA, et soit v un vecteur
propre de A, de matrice
uni-colonne
X dans la base canonique
de Kn ; on a : AX = hx,
d’où (BA) X = B (AX) = ÀBX, ce qui peut s’écrire
A (BX)
mX ; BX représente
donc un vecteur
propre
de A corresgndant
à h, donc colinéaire
à v, h étant racine simple ; ainsi,
BX = yX et X représente
donc également
un vecteur
propre
de B. Réciproquement,
si A = P DP-l,
B = P AP-l
(D et A
DIAGONALISATION
ET
TRIANGULATION
111
diagonales),
AB = P D AP-1
= P A DP1
= BA. On notera
la différence
avec les matrices
semblables
(même
matrice
diagonale,
avec matrices
de passage différentes).
51. Formes
lindaires
propres.
- Etant
donné un endomorphisme
u de l’espace
vectoriel
E, nous lui avons fait correspondre
(8 17) l’endomorphisme
transposé
fu de E’, qoi, B
toute forme linéaire f sur E, fait correspondre
la forme linéaire
fi définie par : fi(v) = f (u (v)). Noue dirons que f est une
forme linéaire
propre de u si fi = kf, c’est-à-dire
si f est vecteur
propre
de t~. E étant supposé de dimension
finie, rapporté
à
une base e;, dans laquelle
u a pour matrice
A, f~ est représenté
dans la base duale par lA (8 20) ; les coeflicients
d’une forme
linéaire
propre,
relativement
à la base des ei, sont donc les
composantes
d’un vecteur
propre
de :A. Les valeurs propres
sont les m&mes, car j(A - 11) =‘A-?&
d’où de.t (A-M)
= det (“A - 11) Vh ; mais bien entendu
les systèmes
correspondants
sont différents,
conduisant
à des résultats
différents
pour les composantes
d’un vecteur propre et d’une forme linéaire
propre.
Notons
la propriété
intéressante
: un ueczeur propre
et
une forme
linéaire
propre
correspondant
h des valeurs propres
di$j%rentes sont ortkogonauz.
Soient en effet X et I’ les matrices
uni-colonnes
de v et f dans la base des ei et la base duale ;
ona:AX=?X,fAl?=yl?,d’oùtI’A=y(I’ettI’AX=hfPX
soit
et
sih#y,cequi
exprime
la propriété.
=y”rx
(h-yyrx=o
‘rx=o,
52. Réduitea
de Jordan.
- Le corps K étant
supposé algébriquement
clos, nous nous proposons
de corac&iser
une
matrice
à une similitude
près par une a forme réduite
n triangulaire
choisie a le plus simplement
possible n pour pouvok
être utilisée
avec fruit
dans diverses
applications
(formation
de, f (A), f étant
un polynôme
quelconque
; détermination
a priori
du rang de f (A) ; étude générale
des matrices
permutables,
etc.);
bien entendu,
le problème
peut être énoncé
comme celui de recherche
d’une base dans laquelle
la matrice
d’un endomorphisme
doué
d’un espace vectoriel
de dimension
finie présente
cette forme simple, La forme réduite
de Jordan
à laquelle
nous allons aboutir
est la plus utilisée
dans ce but.
Nous désignerons
par R l’ordre
de la matrice
A, par f et ‘p ses
polynômes
caractéristique
et minimum,
par & une valeur
propre
quelconque,
par q; et kt (1 G ki < qi) sea ordres
de
multiplicité
comme racine de f et <p. La matrice
A représentant
dans l’espace vectoriel
Kn rapporté
à une certaine
base l’endomorphisme
u. nous avons
: 0 = ‘p (18) = II (u - &e)4.
Les
112
L’ALGÈBRE
LINfiAIRE
divers polyn8mes
x - h sont premiers
entre eux 2 ZI 2, donc
aussi les polynames
(x - kJki ; il en résulte
(5 13) que KS
est somms directe des noyaux
des endomorphismes
(u - Aie)% ;
nous obtiendrons
une base de cet espace par réunion
de bases
de ces novaux
: c’est la recherche
d’une base remaruuable
d’un tel noyau ‘que nous allons maintenant
envisager
: nous
désignerons
pour simplifier
par A sans indice la valeur
propre
utilisée
(multiplicités
q, k).
Nous dirons que v E Kn est d’ordre p si (u - he)P-l(v)
# 0,
(u - he)p (v) = 0 ; l’ensemble
des vecteurs
d’ordre
< p,
he)P, est un sous-espace,
désigné
par FP, de
noyau
de (udimension
dp ; bien entendu,
p < c( j Fp c Fa. 11 existe
des vecteurs
d’ordre
1. X étant valeur
uronre.
D’autre
Tart.
il existe des vecteurs
d’ordre
k, car sinon*(en.supposant
k 5 1);
(u - he)k (k) = 0 entraînerait
(u - he)k-l
(v) = 0 ; si <p (2)
= (x - h) + (x), on aurait V v E Kn, (u - Ae)k [+ (u) (v)] = 0,
d’où
(u - Xe)!+-1 [+ (u) (v)] = 0 et (u - hep-‘.+
(u) = 0 ;
<p ne serait pas polynôme
minimum.
Nous avons donc finalement:
1~ dl<
. . . < dPel<
dP< . . . < dkel<
db
Choisissons
dans Fk un supplémentaire
@k de Fk.-l, de dimension pk = dk - dk-l,
dont les veCteUC3
# 0, n’appartenant
pas
à Fk-lr
sont nécessairement
d’ordre
k, et une baseBkdans
@k ;
si k = 1, ~1 = F, et B, est une base de notre noyau. Supposons
k > 1 ; si vi E Bk, (u - Xe) (vi) est d’ordre
k - 1 ; la famille
(u - he) (Bk) de ces vecteurs
est libre, car Zad.(u
- he) (vi)
ZZZ 0 s’écrit
(u - Xe) (I;a; v;) = 0 : si Ça; v; # 0, il est
d’ordre
k > 1 ‘comme’
àpp&“&ant
.à Q, l’kg&é
&t donc
impossible,
d’où
ca; vi = 0 et ai = OVi, Bk étant
libre.
Nous avons ainsi une famille libre de pk vecteurs
de Fkel d’ordre
1~- 1, engendrant
donc un sous-espace
CI$ dont l’intersection
avec Fk-s
se réduit
au vecteur
nul. Ainsi, dkwl > pk + dk-2,
d’où, en posant
pk-1 = dkvl - db-s,
&-la
& si pk-l>
pkr
nous plongeons
@i dans un supplémentaire
ak-1 de Fk-s par
en adjoignant
gk-1 = pk-lpk vecteurs
rapport
à Fkel,
d’ordre
k - 1 à la famille
libre (u - he) (Bk) (il suffit
de
comuléter
la base incomplète
de FI,-, formée de (u - he) (BL.)
et d’une base de Fk-s)
; k pJ+l =‘&.+
g&1 VeCieUrS
d’o&
k - 1 obtenus
forment
une famille
libre Bk-~ engendrant
@kk-l ; si pk-l = pk,@&l
coïncide
avec Wb Si k = 2, nous
avons terminé,
la réunion
des bases B, et B, de <I>, et Q1 nous
.
donnant
une base de Fs ; sinon, no& cont&uon<
D’une façon générale,
supposons
qu’au bout de p opérations
nous ayons obtenu
des sous-espaces
@k,@kk-l,
. . . , @gkep+L dont
les vecteurs
sont respectivement
d’ordres
k, k - 1, . . . , k - p
.
/
DIAGONALISATION
ET
TRIANGULATION
113
+ 1, ces SOUS-eSpaU
étant engendrés
par les bases Bk, Bk-l,
. . . , Bk-p+l,
et de dhmsions
pkr pk..lr . . . , pk-p+l.
si k -p
+ 1 > 1, nous considérons
la famille
(u - he) (Bkwpf3
; elle
est libre,
car si vi E Bk-p+l,
O=IZai.(u--ls)(v;)=(u-Xe)
(&
vi) entraine
x<ri vi = 0, car sinon il serait d’ordre
1 en
contradiction
avec son appartenance
à @kd’où a; = OVi.
hs vecteurs
de (u - le) (I&+l)
sont d%re
k -p
et engendrent
un sous-espace
@&,.l
de Fk.+
dont l’intersection
avec Fk-P-l
se réduit
au vecteur
nul ; donc dkmP 3 pk-p+l
+ d,-,-,
; mous Posons Pk-p = dkep - dkmpml & PQ,+
1;
+~ dans un supplénous plongeons
@ksi Pk--P > Pk-p+lt
mentaUe
@k-p
de FksP+
par rapport
f FkAp en adjoignant
gksp = pk-p-pk-p+l
Vecteurs
d’ordre
k-p
à la famille
(u - he) (Bk-p+l),
constituant
ainsi une famille
libre Bk.p
engendrant
@k-p de dimension
pkmp ; les vecteurs
de ce sousespace
sont d’ordre
k-p
puisque
son intersection
avec
Fk-P-l
se réduit
au vecteur
nul. Si p+,
= pk-pfl,@kk-p
= @&+‘.
L’operation
décrite
ci-dessus
est la dernière
lorsque p = k
- 1. Nous avons alors obtenu
les sous-espaces
@k, . . . , C+.
Notons
que, V p, tout vecteur
# 0 de @k + a>k-l + . . . +
@k-p+
1 est d’ordre
> k -p
; soit en effet v = vk + vk.1 +
. . . + vk-,,+l
(vi E @i) ; si v est d’ordre
< k - p, nous aurons (u - ley(v) = (u - he)k-s (v) = . . . = (u - he)k-P
(V) = 0 ; la première
relation
donne
(u - he)k-’
(vk) = 0,
d’où vk = 0 ; compte tenu de vk = 0, la 2e donne (u - Xe)k-*
(vk-1)
= 0, d’où vk-1 = 0 ; la nullité
des p - 1 premiers
étant assurée, la dernière
relation
donne (u - he)k-P (vkTP+l)
= 0, d’où vkep+i
= 0 et finalement
v = 0. Il résulte alors
de cette propriété
que (@k + @,&1 + . . . + @k-,+1)
fl @kvp
=. { 0 } V p, donc que la somme de @k . . . @, est directe ; cette
somme directe
aD, + . . . + @,Q est de dimension
p1 + . . . +
+ (dk - dk-,)
= d,+ et colncide
e sous-espace
total Fk, noyau
de (u-hep,
dont
nous avons ainsi obtenu une base remarquable,
B, U . . . U Bk,
réunion
des bases des sous-espaces
en somme directe.
Au cours de l’exposé
ci-dessus,
nous avons introduit
des
mites
d’entiers
remarquables
: dP, dimension
de Fp (notamment,
dimension
de l?,, soua-espace
propre
correspondant
B 1) ; pp. dimension
de 9 ; gP, nombre
de nouveaux
vecteurs
introduits
pour compléter
une base de QP (nous poserons donc
& = pk). Nous avons les relations
: p = d - dPml (2 d p d k),
gp=pP-pP+I(l~p~~-l$.Onend~duitaisé-
4,
p1=4;
L’ALGÈBRE
114
ment
-t
les
. . . +p,,
relations
y$‘;
intéressantes
pp=&,+gp+i+
suivantes
. . . +gk,
LINEAIRE
DIAGONALISATION
: dp = p1 +
v&‘;
pa
l’ensemble
La matrice
B semblable
& A représentant
u avec cette nouvelle base admet comme vecteurs
colonnes les homologues
de
ces vecteurs
de base. Considérons
une suite v,, . . . vi d’itérés ;
nous avons
: Vs = (u - 18) (VI), . . ., Vi = (u - 1s) (Vi-*),
(u - Xe) (vi) = 0, d’où : u (vr) = Iv, + vs, . . ., u (vi-r)
=
AV;-,
+ vi, u (vi) = Xv;. L’un de ces vecteurs
ayant le rang j
dans la base globale,
nous obtenons
donc pour la je colonne : À
dans la je ligne et 1 dans la j + le (0 pour le dernier
itéré) ;
de colonnes
115
TRIANGULATION
correspondant
se P&ente
sous la forme
:
0
&,=
-d
_ (2<pd
k1). gk = dk-dk-1,
g, =
: 2-&+‘d
zfg;+
2 g + . . . +(p~)&Mip(g,
+
. . . + gk) (2 : P =S W, 4 E & f
. . . + gk. Bien
entendu,
dp > 0, pp > 0, alors que gp 3 0 (mais gk > 0).
Nous obtenons
une base de Km par réunion
des bases ainsi
mises en évidence
; il nous faut préciser
en choisissant
l’ordre
de ces vecteurs
de base. Bien entendu,
nous ordonnons
la suite
des valeurs
propres,
et nous prenons
successivement
tous les
vecteurs
de base correspondant
à une même valeur
propre
;
il nous faut ordonner
une telle suite de vecteurs
de base. Pour
cela, nous ordonnons
l’ensemble
des gk vecteurs
choisis en
premier
; nous prenons
le premier,
suivi de ses (k - 1) itérés
par u - Xe apparaissant
dans Bk-r,
. . . , B, ; puis le deuxième
suivi
de ses (k - 1) itérés et ainsi de suite jusqu’au
gke ;
nous ordonnons
ensuite l’ensemble
des gk-r
vecteurs
choisis
en second ; nous prenons
le premier
suivi
de ses (k - 2)
iterea, etc. ; l’opération
se termine
en prenant
les g, vecteurs
choisis en dernier.
Nous avons ci-dessous
explicité
un exemple
correspondant
B k = 5 : g, = 2, g, = 0, g, = 1, g, = 3,
g1 = 1 ; les vecteurs
de base ont été représentés
par une case
portant
le numéro
d’ordre
du choix ; l’itéré
d’un vecteur
est
représenté
par la case située en dessous ; les bases B,, B,, B,,
B,, B, correspondent
donc aux cases situées sur les diverses
lignes horizontales
les unes au-dessous
des autres ; notamment,
les ueeteurs propres
(ceux de BI) sont de numéros
5,lO.
13,17,
19, 20.
ET
7
, la matrice
C, dite
bZoc de Jordm,
étant
une matrice
0-ii
triangulaire
inférieure
dont tous les éléments
de la diagonale
principale
(gui comcide
avec celle de la matrice
globale) sont
égaux a la valeur
propre
À, tous les éléments
de la diagonale
parallèle
contiguë
égaux B 1, et tous les autres nuls ; ainsi, un
a 0 0
bloc de Jordan
d’ordre
3 s’écrit
:
1 h 0 ; un bloc de
( 0 1 h1
Jordan
d’ordre
1 se réduit
au seul élément
h. La matrice
globale
B, dite réduite de Jordun,
est donc une matrice
quosi
diagonale
(CIME,
5 20) triangulaire
inférieure
dont les blocs
diagonaux
sont des blocs de Jordan.
Le nombre
de ces blocs
correspondant
à une valeur
propre
donnée est donc gk + gk-r
du sous-espocs propre
Fl.
+ . . . + g, = 4 ; c’est la dimension
Les matrices
semblables
A et B admettent
la valeur
propre
h
au même ordre de multiplicité
; or, pour B, cet ordre est égal
au nombre
d’éléments
de la diagonale
principale
égaux
à h,
soit : kgk+(k-l)gk-l+...$-2g,+g,=dk;
ah6
l’ordre de multiplicité
q de la valeur
propre
dans le polynôme
caractéristique
est égal a la dimension
de P,+ ; quant à la muhiplicité
k dans le polyngme
minimum,
elle donne l’ordre
maximum des blocs de Jordan
intervenant.
Bien entendu,
2 matrices
ayant la même réduite
de Jordan
sont semblables
(puisque
toutes 2 semblables
à cette réduite).
Mais,
réciproquement,
2 matrices
semblables
peuvent
être
considérées
comme représentant
le même endomorphisme
u ;
or notre réduction
a été obtenue
en utilisant
uniquement
des
propriétés
de cet endomorphisme
(et certains
choix arbitraires
de vecteurs
pris dans certains
ensembles,
et d’ordres
pour des
suites de vecteurs)
; nous pouvons
donc répéter
exactement
les
mêmes opérations
et aboutir
à la même base pour une matrice
semblable
; c’est ce qui justifie
notre méthode
qui a pu paraître
a priori
bizarre
et compliquée.
Ainsi,
on peut faire correspondre
ZI 2 matrices
semblables
la même réduite
de Jordan,
et une matrice
est ceraetérieée
à une similitude
près par sa
réduite
de Jordan,
à l’ordre
près des blocs. Une matrice
diagonale est une réduite
de Jordan
particulière,
caractérisée
par
l’ordre
1 pour tous les blocs. Donc, pour qu’une
matrice
soit
diagonalisable,
il faut et il suffit que sa réduite
de Jordan
soit
diagonale,
ce qui peut s’exprimer
de diverses
façons : pour
116
L’ALG&BRE
LINEAIRE
4
toute valeur
propre,
dk = q doit être égal au nombre
de
blocs de Jordan,
autrement
dit le sous-espace
propre
doit &re
de dimension
q ; pour toute valeur
propre,
l’ordre
maximum
k
des blocs de Jordan
doit être égal a 1, autrement
dit le polynôme minimum
q doit être sans racines multiples
; on retrouve
ainsi 2 propriétés
classiques
(58 45 et 49). Un autre cas intéressant
est celui où k = q ; on aura alors un seul bloc de
Jordan,
c’est-à-dire
un sous-espace
propre
de dimension
1;
si cette propriété
a lieu pour toutes
les valeurs
propres,
le
polynôme
minimum
est identique
au polygame
caractéristique.
Il résulte de ce qui précède qu’une matrice
dont on connait
le polynôme
caractéristique,
c’est-à-dire
les valeurs
propres
avec leurs multiplicités,
est caractérisée
à une similitude
près
par la donnée, pour tout 1, de la suite gk, . . . , gr ; on peut choisir
arbitrairement
cette suite d’entiers
2 0 (car on sait construire
une réduite
de Jordan
répondant
g la question),
à la seule
condition
que gr + 2 gs + . . . + kgk = q, ordre de multiplicité
de h. Une telle matrice
est donc aussi caractérisée
à une similitude
près par la suite pk, . . . , pl, soumise
à la condition
d’être
;yrUe
(au sens large)
(gp = pp - pp+r 2 0) et telle que
. . . +pk=q;
dememepourlasuitedk
,...,
~SOUmise aux conditions
: dk = q, dkml < dk, dPml < 2 dP - dP+ 1
(2<pd
k-l),2dx-de>
0, ce qui entraine
notamment
qu’elle
sera s~ictsnwnt
décroissante.
Rappelons
que dP est
la dimension
du noyau
de (uhe)p; donc (uhe)p et la
matrice
(A - ÀI)p sont de rang II - dP ; pP= dP - dPwI représente
la diminution
de rang quand on passe de (A - M)p-l
P (A - M)p ; on caractérise
donc également
A B une similitude
près par la suite des rangs des matrices
(A - M)p (16 p < k)
soumise k des conditions
aisément
déduites
de celles ci-dessus.
Notons
que (u - Ae)k et (u - Ae)P, p > k, ont le même noyau ;
en effet, le noyau
du premier
est inclus
dans celui du 2s ;
d’autre
part, si ‘p (r) = (z - @+(2),onaO=(u-Xe)k+(n)
= (u - lw)p J, (u), et le polynôme
d, (r) étant
premier
avec
toutes les puissances
de z - h, la dimension
du noyau est dans
les 2 cas n diminuée
de la dimension
du noyau
de J, (u), les
2 noyaux
étant
supplémentaires
(5 13) ; autrement
dit, il
n’existe
pas de vecteurs
d’ordre
> k, et (AM)p
pour
p> kalerangde(A-hI)k.Enparticulier,sik=
l,(A-M)P
est de rang n - q, V p > 0 ; si k = q, tous les gîi sont nuls
saufgk=l,pp=lVp,A-hIestderangn-l,(A-M)P
de rang n - p V p < q. Dans l’exemple
numérique
précédemment utilisé avec k = 5, on vérifiera
que q = 20 (d’où R 3 20).
et l’on obtiendra
les rangs suivants
: n - 7 pour A - M,
n-13
pour
(A-UP,
n-16
pour
(A-lDs,
n-18
DIAGONALISATION
ET
TRIANGULATION
117
n20 pour
(A-AI)p
Slorsque
p,
5.
pour
(A-W,
Les considérations
précédentes
permettent
de compléter
les résultats
du 5 49 relativement
à la résolution
d’une équation
matricielle
g (X) = 0, lorsque
le polynôme
g présente
des
racines multiples.
Toute matrice
solution
sera semblable
B une
réduite
de Jordan
dont le polyn6me
miniium
p sera diviseur
de g ; pour cela, les valeurs
propres
(éléments
diagonaux)
doivent
être des racines
de g, et pour toute racine X de g
d’ordre
p utilisée,
on doit avoir des blocs de Jordan
d’ordre
maximum
k Q p ; le polyn8me
‘p admettra
h comme racine avec
la multiplicité
k et sera bien diviseur
de g. On appliquera
notarn.
ment aux matrices
p-nilpotentes
: XP = 0. Par exemple,
les
matrices
X telles sue X* = 0 sont. outre les matrices
nulles,
pour
l’ordre
l’ordre
2 les
3 celles
matrices
semblables
semblables
k
?I
d’éléments
diagonaux
0, d’ordre
maximum
2) ; les matrices
telles que X3 = 0 ne diffèrentpas
des précédentes
pour l’ordre 2,
alors que pour l’ordre
3 on trouve
les matrices
semblables
IO
0 o\
à \O
y i) telles que Xa # 0.
La recherche
de la réduite
de Jordan
d’une matrice
donnée
et de la matrice
de passage sont évidemment
très pénibles
dès
que l’ordre
s’élève.
Nous ne pouvons
entrer
ici dans le détail
des méthodes
numériques
pratiques
utilisées
pour simplifier
ces
recherches
; nous nous contenterons
de prendre
quelques
exemples
numériques
simples
et d’abord
d’étudier
à ce point
de vue les 2 matrices
triangulées
a la fin du 5 46. La première
admet la valeur
propre
triple
- 1, B laquelle
correspond
un
sous-espace
propre
de dimension
2 ; il y a donc 2 blocs de
-1
Jordan
et la réduite
est (
1 -1
à l’ordre
près des
blocs ; le polynôme
minimum
est (z + 1)‘. Nous considérons
Pendomorphisme
u représenté
par cette
matrice
dans Cs
rapporté
& sa base canonique
; le noyau de (u + e)2 est l’espace
total, et il nous suffit de trouver
M vecteur
non propre qui sera
ainsi d’ordre
2 ; nous considérons
par exemple
celui de composantes 0, 1,O et déterminons
son itéré par u + e ; enfin nous
prenons
un vecteur
propre
composantes
vérifiant
4 x1 + z,
- 2 r, = 0) indépendant
de i ‘itéré précédent,
par exemple
de
composantes
0, 2, 1; une matrice
de passage
est ainsi
L’ALGBBRE
118
; nous
tuer la
valeur
propre
polynome
0, 0 a
puis-4,-
laissons
le soin
LINEAIRE
au lecteur
d’effec-
vérification
PB = AP. La deuxième
matrice
admet
propre
triple
2, B laquelle
correspond
un sous-espace
de dimension
1; il y a donc un seul bloc de Jordan
;
minimum
est (F - 2)* ; le vecteur
de composantes
pour itérés par u - 2 e ceux de composantes
4, 0,
8, 2 ; nous obtenons
:
B=(;
;
i)
P=(i
;
la
le
1,
1
CHAPITRE
VII
FONCTIONS DE MATRICES
Dans tout ce chapitre, nous considérons des matrices à éléments dans C.
‘i)
4
PB=AP=
Soit,
comme
dernier
?l
( 1
-8
115
4
4)
exemple,
*@Ii$~)
b polynôme
caractéristique
est (x - 1)’ (z + 1) ; & A 3: 1
correspond
un système
de rang 3 (3 = ze, x, = 0, z., = xs)
conduisant
à un sous-espace
propre
de dimension
2 ; il y a
2 blocs de Jordan;
leurs ordrespossibles
sont 3, 1 ou 2, 2
conduisant
aux
polynômes
miniia
bc - 1)8 (r + 1) ou
(z - 1)s (x + 1) ; nous calculons
(A - 1:” (A + 1) et constatons qu’elle
est nulle ; c’est donc la 2s hypothèse
qui est
réalisée.
A la valeur
propre
0 de (A - I)* correspond
le système de rang 1: z, - 2, + #s = 0 ; parmi les vecteurs
solutions
nous choisissons
ceux de composantes
l,O, 0, 0.0 et 0, 0, 1, 1, 0,
qui engendrent
bien un sous-espace
de vecteurs
d’ordre
2,
car UV, + bv, vecteur
propre
donne a = b = 0 ; nous déterminons
leurs itérés par P - 8. Enfin,
la valeur
propre
- 1
conduit
au système
: xl = x4 = x6 = 0, x, = 2, ; nous choisissons : 0, 1, 1, 0, 0. Nous obtenons
ainsi les résultats
:
/
B =OOlO
I 0011
\ 0 0
0
0 I
0 0
- v
P-00101
I 0
\o
1
1
0
0 I
1 0 0 o/
53. Extension de propriétés usuelles d’analyse
aux matrices. - Considérons une matrice qwelconque A (x) dont les éléments sont des fonctions
d’une variable x ; si tout élément cfii (x) a une
limite finie aii lorsque x -+x0, nous &rons que la
matrice d’élément général aij est la limite de A (z)
lorsque x -+ x0. Bien entendu, on peut supposer
que x + CO, et notamment considérer une matrice
dont les éléments sont des fonctions de l’entier
positif n tendant vers + 00. Les propriétés usuelles
des limites et les définitions du calcul matriciel
montrent aussitôt que les limites d’une somme ou
d’un produit de matrices ayant des limites dans les
mêmes conditions existent et sont respectivement
la somme ou le produit des limites ; de même, si
A (x) -+ &, kA (LX)+ kA,, ; on en déduit plus généralément que, f étant un polynôme quelconque,
et A (x) carrée de limite As, f[A (z)] +f(AJ
;
P étant ilxe, B (LX)= P-l A (LX)P + P-l A,P ; nous
pouvons donc appliquer les considérations actuelles
aux endomorphismes d’un espace vectoriel de dimension
finie, représentés dans une base par une
matrice variable. Nous dirons que A (z) est continue
pour x0 si A (x0) existe et si A (z) -+ A (x0) lorsque
x + x0 ; on voit immédiatement que pour cela il
faut et il suffit que tous les éléments de A (a$ soient
120
L’ALG&BRE
LINEAIRE
des fonctions continues pour x,,. Dans ce cas, nous
appellerons dérivée de A (z) la limite (si elle existe)
de I/(x - x,,). [A (x) - A (x0)] ; cette matrice est
d’élkment général .[t<j (z) - Taj(X~)]/(X - x,-Jet nous
en déduisons auswtot que, pour que A (z) soit dérivable, il faut et il suffit que tous ses kléments le
soient, la dérivée, notee A’ (x) ktant d’élément g6nkrai a& (z). On en déduit que si A est constante, sa
dérivée est nulle et que, réciproquement, si la dérivée est nulle dans un certain intervalle, la matrice
est constante dans cet intervalle ; la dérivée d’une
somme est visiblement la somme des dérivkes ; la dérivée de a,, (%) bkj (X) étant a& (z) bkf (X) + adk(z)
b; (x), il en résulte que [A (z) B (x)]’ = A’ (z) B (z)
+ A(z) B’ (z) ; notamment f(z) A (z) =f(z) 1.A (2)
a pour dérivée f’ (z) A (z) + f(z) A’ (x), f(z) itant
un scalaire variable ; le résultat ci-de%us s’étend
aisément à un produit quelconque ; Pétant constante, la dérivée de P-l A (z) P est P-l A’ (z) P, et
nous pouvons parler de dérivée d’un endomorphisme. Les éléments de Adj (A) et det (A) Btant des
polynômes par rapport aux éléments de A sont
dérivables lorsque A l’est ; dans ce cas, si A-l (z,,)
existe, det (A (x,,)) # 0 et les éléments de A-1 étant
des fractions rationnelles de dénominateur det A (z)
sont dérivables pour x,, ; A-1 est ainsi dérivable
lorsqu’elle est déhie ; de AA-I = 1, nous déduisons
A’ A-1 + A (A-l)’ = 0, d’où (A-l)’ = - A-l A’ A-l.
Etant donnée une fonction f(x) et une matrice
carrée fixée A, nous avons déhi f(A) lorsque f est
un polynôme ; la notion de limite permet d’étendre
cette définition ; f(z) étant, pour x hé, la limite
du polynôme f, (z) lorsque n + + CO, il est intéressant d’étudier la limite de la matricef, (A) et de
la prendre éventuellement, lorsqu’elle existe, comme
déhition de f(A). C’est ce que nous ferons pour
FONCTIONS
DE MATRICES
121
une fonction développable en série entière dans un
certain dispue D (qui peut être tout le plan) ; f(z)
est, pour x E D, la limite de fn (2) = ao + %x
+ a Xn ; nous introduirons donc la matrice
f’ (Ài = %‘I + %A + . . . + a A” ; si cette matke a une limite lorsque n -r”+ co, nous dirons
que la série de Neumann de terme général a,,An
converge, et nous prendrons la limite comme définition de f(A). Notons que si B = P-1 AP, fn (B)
= P-‘f* (A) P ; l’existence de f(A) entraîne donc
celle de f(B) et nous aurons : f(B) = P-lf (A) P ;
nous pouvons ainsi définir la fonctionf(u)
de I’endomorphisme u. Nous pouvons en particulier prendre
pour B une matrice triangulaire semblable à A ; ses
éléments diagonaux sont les valeurs propres h et
f, (B) admet pour éléments diagonaux les fn (1) ;
une condition nécessairede convergence est donc que
f, (1) ait une limite finie%,
donc que toutes lesvaleurs
propres de A soient de module inférieur ou kgal au
rayon de convergence R de la série entière ; la réciproque sera établie 5 55 ; la limite f(B) admet
comme éléments diagonaux les limites f(h) ; nous
en déduisons qu’c3 toute valeur propre A multiple
d’ordre q de A correspond la valeur propre f (h) multiple d’ordre q de f(A) (notons que f(l) peut être
effectivement d’ordre > q, sif(A) = f (1’) avec h’ # 1).
Si A et C commutent, on a visiblement f, (A) g, (C) =
g, (C) fn (A) quels que soient les polynômes f, et g, ;
le passageà la limite donne f(A) g (C) = g (C)f(A) ;
2 fonctions quelconques de ces matrices commutent.
Avant de continuer l’étude générale, nous allons
étudier le cas particulier très usuel des exponentielles de matrices.
54. Exponentiellee de matrices. - A carrée d’ordre p étant donnée, nous considérons donc la ma-
122
L’ALGÈBRE
LINEAIRE
trice:f,(A)=I+l/l!A+
. . . +l/n!An,d’&?ment général air [j’,, (A)] = $, + 111 ! aij (A) + . . .
+ l/n ! oij (A”). Désignons par M un majorant des
modules des 6léments de A (1aij (A) 1 < MVi, i) ;
MOUS avons 1oij (A”) 1< p”-lM”
; en effet, supposant
cette relation vraie pour n, nous écrivons ai,.(A”+i)
= pa (A”) %j (A), d’où 1+j (A”+‘) 1~ k 1a, (An) 1
I%j(A)l~
[pn-‘Mn.Ml
= p”M”+l.
Nous avons
a fortiori
aii (A”) 1 < (PM)” ; la s&ie de terme
gén&al (pM)“/n ! converge vers exp (PM), donc
la sGrie de terme général a{, (A”)/n ! converge absolument. Ainsi, VA, f, (A) a une limite lorsque n
tend vers l’in&& appelée exponentielle de A, et notée exp (A) (ou e*). Si A = k1, f, (A) = (1 + k/l !
+ k”/n !) 1, et exp (kI)Y= exp (k) .I ; notamLent ‘exp (0) = 1. Les valeur6 propres de A étant
A1, l *-* hp, celles de exp (A) sont exp (A,), . . .,
exp (&,) ; d’où det [exp (A)] = exp (A,) . . . exp (hp)
. . . + h) = exp [tr (A)] ; notamment,
= =p
(Al+
exp (A) est toujours régulière.
Considérons une variable scalaire t ; le terme
général ocj [exp (tA)] est la somme de la série
de terme général l/n ! odj (tA)” = I/n ! t”aij (A”) ;
le terme général aij [exp (tA)]’ de la matrice
dérivée est donc la somme de la série des dérivées (dérivabilité terme à terme d’une série entière), de lcr terme oij (A) et de terme général
t-qn
- 1) ! oij (A”) ; nous avons donc : [exp (tA)]’
=Km@-++
co)[A+tAs/l!+
. . . +t”-I/(n-l)!
A”] = lim [A (1 + l/l ! A + . . . + t”-l/(n - 1) !
An--l)] = A. exp (tA) ; nous aurions pu de même
mettre A en facteur à droite, d’où finalement la
relation : [exp ($A)]’ = A.exp (tA) = exp (zA) .A.
Supposons que les matrices A et B, de même ordre,
commutent. Considérons la matrice : ezp [t (A + B)]
P
FONCTIONS
DE MATRICES
123
.exp (- tA) .exp (- tB) ; sa d&ivée vaut : (A + B)
.exp[t(A+B)].exp(-tA).exp(-tB)-exp[t(A
zxi)i.A.-p
(- tA).exp(-tB) - exp EttA + B)]
- tA) . B . exp (- tB) ; A et B permutent avec
t (A + B) et - tA, donc avec leurs exponentielles ;
il en résulte aisément que la dérivée considérée est
nulle quel que soit t ; la matrice introduite est donc
constante ; en égalant sesvaleurs pour t = 0 et t = 1,
nous obtenons : exp (A + B) .exp (- A) .exp (- B)
= 1. En supposant d’abord que B = 0, cette relation
dorme : exp (A). exp (- A) = 1; l’inverse de exp (A)
est donc exp (- A). En utilisant ce fait, la relation
générale s’écrit : exp (A + B) = exp A.exp (B).
Nous pouvons définir B partir des exponentielles
les fonctions trigonométriques et hyperboliques
fondamentales d’une matrice en posant : 2 ch (A)
= exp (A) + exp (- A); 2 sk (A) = exp (A)
- exp (- A) ; 2 COS(A) = exp (iA) + exp (- iA) ;
2 i sin (A) = exp (iA) - exp (- ;A). On en déduit
leur mise en évidence comme sommes des séries de
Neumann correspondant aux séries entières admettant pour sommes les fonctions scalaires correspondantes. Les formules algébriques de la trigonométrie ordinaire ou hyperbolique peuvent se
démontrer en utilisant les propriétés de l’exponentielle ; nous les étendrons à des matrices permutables
en utilisant la relation fondamentale donnant
exp (A + B);
ainsi, par exemple, AB = BA
*~OS(A+
B)=cosA.cosB-sinA.sinB;Apermutant avec’elle-même, nous avonstoujours sin 2 A
= 2 sin A. COSA, COS2 A = (COSA)s - (sin A)s, etc.
La notion d’exponentielle de matrice permet de
présenter simplement la r&olution d’un système
différentiel linéaire a coefficients constants. Considérons le système de n équations : y; = &yj
+ 5,
L’ALGÈBRE
124
LINÉAIRE
FONCTIONS
DE MATRICES
125
c
les a,, étant dés constantes, les f( des fonctions
données, intégrables, de x et les y4 des fonctions
inconnues de x (au nombre de n). En introduisant
la matrice carrée A d’élément général Uii, et les
matrices uni-colonnes Y et F d’éléments y6 et A,
le système s’écrit : Y’ = A.Y + F. Posons Z
= exp (- xA) .Y, d’où Y = exp (%A). Z et Y’
= A. exp (zA) . Z + exp (xA) Z’. Le système devient : exp (SA). Z’ = F, d’où Z’ = exp (- %A). F ;
réciproquement, si Z’ a cette valeur, on constate aussitôt que Y = exp (%A).Z est solution ;
=P (- xA) .F est une matrice uni-colonne d’élément général ‘pi ; hi désignant une primitive de ‘pi,
l’élément général de Z doit être hi + c, ; on obtient
ainsi Z, puis Y d’où les yi en fonction des n constantes arbitraires ci. Un cas très simple est celui
d’un système sans « seconds membres 11(JI: = OVi) ;
alors Z’ = F = 0 ; Z est d’élément général ci.
55. Détermina
tien des fonctiom
de matrieea
an moyen
dea
réduites
de Jordan.
- La méthode
utilisée
ci-dessus
pour
introduire
exp (A) est très particulière,
et ne nous conduit
pas d’ailleurs
a un calcul effectif
simple.
Il nous faut définir
un procédé général,
conduisant
à un calcul pratique
abordable.
C’est
très
simple
lorsque
A est
diagonalisable.
Si
D = P-l AP, nous aurons f, (A) = Pf, (D) P-1 ; f, (D)
est
la matrice
diagonale
d’élément
général
f, (hi) ; si 1h 1 < R,
rayon
de convergence
de la série entière
de somme f(z)
(éventuellement
si / & 1 = R), f, (&) tend vers f (&) lorsque
n+
+ ce. Si la condition
est vérifiée
par toutes les valeurs
propres,
f(D),
doncf(A)
existent,
et f(A)
est déterminée
par
f(A)
= Pf(D)
P+,f(D)
étant la matrice
diagonale
d’élément
général f&).
Si A n’est pas diagonalisable,
nous utiliserons
une méthode
analogue,
D étant
remplacée
par une réduite
de Jordan
T.
Il nous faut donc calculer f (T), f désignant
d’abord
un polynôme. La théorie
du produit
par blocs de 2 matrices
montre
que f(T)
est une matrice
quasi diagonale
obtenue
avec la
même partition
de lignes que T, au bloc diagonal
T1 de T
correspondant
le bloc diagonal
f(Ti)
de f(T)
(CME, $5 11
et 20). 11 nous suffit
donc de calculer
f(T1)
pour un bloc de
Jordan
T1, que nous supposerons
d’ordre
p, d’élément
diagonal h. Le calcul des premières
puissances
de Tl et un raisonnement
par récurrence
dans le cas général
montrent
que
(T#
est une matrice
triangulaire
inférieure
dont les éléments
de la diagonale
principale
sont égaux à hs, et ceux des diagonales parallèles
respectivement
B Ci hn-l,
Cz hne2, . . . C$ lai”-’
pour la diagonale
de rang i + 1 (Ci = n !/p ! (n - p) ! désignant le nombre
de combinaisons
de p objets choisis parmi II ;
le raisonnement
par récurrence
utilise
la formule
Ci, +1
= ($ + G-1)
; si p > R + 1, les éléments
des diagonales
de rang > n + 1 sont nuls ; si p < n + 1, l’élément
or, vaut
($-1Xo-9+1.
Soit alors f(x)
un polynôme
quelconque
de
degré n; nous pouvons
écrire :f(z)=f(O)+f’(O).z+
.. .
+f(‘(0).x’-‘/(n
- l)! +fcn)
(0).xn/n!,
d’où
: f(T1)
(0).(Tl)“-‘/(n
- 1) !
=f(O)I
+f’
O).T1 + . . . + f-)
ainsi comme combinaison
+ fcn) (0). (TlP I n ! ; f (Tl) apparak
linéaire
de matrices
ci-dessus
calculées ; c’est une triangulaire
inférieure
dont les éléments
de la diagonale
principale
sont
égaux
à : f(o)+f’(O)A+
(O).P/n
! =f(h),
et
. . . +f@)
dont ceux de la diagonale
parallèle
de rang i + 1 sont égaux
à : f”’ (0) C$i ! + . . .*+fcnB1)
(0) $-lX’L-a-l/(n
- l)!
+f’e’
(0) Ci, hnmi/n !, soit, en posantf”)
(z) = g (2), l/i ! & (0)
(n4-1’
(O)h”-“-‘/(n
_ i _ l)! + gcnFi)(0)hnwg/
&‘z
i; 5 g (X)/i ! = f(i) (A)/i ! ; les diagonales
éventuelles
de rann > n + 1 ont notamment
leurs éléments
nuls. et sinon
= fiv-1)
fi)/@ - 1) 1
Nous auuliuuerons
ce résultat
à la fonction
f(x) définie
comme
SI&&
de la série entière
limite
du poly&ne
fn (x).
A toute valeur
propre
A correspond
dans T u,n bloc de Jordan
d’ordre
maximum
k ; fn (T) est une matrice
quasi diagonale
dont un bloc diagonal
d’ordre
p est une triangulaire
inférieure
dont les éléments
des diagonales
sont respectivement
égaux
à f,, @) . . . f F-”
(A)/@ - 1) ! Donc, pour que f(T),
donc f (A)
aient une limite
lorsque
n-f
+ cc, il faut et il suffit que, pour
toute valeur
propre h caractérisée
par k, f* (A), . . . , fr-”
(A)
aient
des limites.
Cette
condition
est notamment
réalisée
lorsque
) h 1 < R (même rayon
de convergence
pour une série
entière
et les séries obtenues
en dérivant
terme
a terme).
Ainsi, f (A) existe en particulisr
si toutes les valeurs propres de A
sont de modales strictement
inférieurs
à R, rayon de convergence
de la série entière de somme f(x),
ce qui est notammati
réalisé
quelle que soit A si cet+ série mt de rayon de corwergence
in-
(cp,f(Tlj
126
L’ALGÈBRE
LINBAIRE
f(A)
fini
(cas de l’exponentielle
par exemple).
On a alors
= Pf (T) P-l,
f(T) étant une matrice quasi diagonale dont
les blocs
diagonaux
correspondent
à ceux
de T, un bloc
d’ordre
p, élément
diagonal
X, de T conduisant
au bloc triaugulaire
inférieur
dont les éléments
des diagonales
sont égaux
BIBLIOGRAPHIE
SOMMAIRE
fb-1) (h)/(p - l)!
comme
application
théorique,
la série de
terme
général
k”x* ; son rayon
de convergence est l/Ikj;f,(A)=I+kA+
. . . +kfiAn
a 1 limite
si, pour toute valeur
propre
h de A, 1 h 1 < l/j k 1. Supposons
cela réalisé.
Nous
avons
: f, (x) (1 - h) = 1 - kn+lx”+(
d’où f,(A) (1 - kA) = 1 - kn+lAn+l
* lorsque
n-f
+ CO
knflAn+l
= fn+l (A) - f,, (A) tend ver: 0 ; nous avons don:
à la limite f (A) (1 - kA) = 1, d’où f (A) = (1 - kA)-‘.
Nous proposons
comme
exemple
numérique
celui des matrices A,, A,, As dont nous avons déterminé
les réduites
de
Jordan
5 52, les fonctions
étant
respectivement
exp (z),
sin (z), 2”. Les réduites
de Jordan
correspondantes
étant B,,
Bs, B,, nous obtenons
:
/Ile
0
0 \
exp(B,) = lie l/e
0
t 0
0
l/e )
sin (B,)
=
(
COS (2)
(2)/2
- sin
sin (2)
sin (2)
cas 0 (2)
1000
n100
(BSP
= i 00
e?(2)0
1
0
0
0;
0;
0y
(- 0 1)” 1
Nous
laissons
le soin au lecteur
d’en déduire
: exp (AI)
= P. exp(B,).P-l,
P étant la matrice
de passage déterminée
4 52, et, de la même façon, sin (A,) et (A#.
Cette méthode
de détermination
des fonctions
de matrices
est très intéressante
au point de vue théorique,
nous conduisant au résultat
fondamental
énoncé
ci-dessus
; mais n’oublions pae qu’au point de vue pratique
la détermination
d’une
réduite
de Jordan
demande
de longs calculs.
Une méthode
très intéressante
et nettement
plus simple
est celle utilisant
les « composantes
n d’une matrice,
dont l’exposé
ne pouvait
trouver
place dans cet ouvrage,
et pour
laquelle
nous renvoyons
aux ouvrages
de Gantmacher et de Souriau
citée WI
bibliographie.
En dehors des trois ouvrages citb h l’Introduction,
voici, parmi
les tr& nombreux
livres consacr6s & l’alg&bre lln&lre
ou & ses applications, quelques ouvrages particull&rement
inthessauts
:
A. LICENEROWI~Z,
Ar@bre et unaZgse ZZn.?afres, Masson. On y trouvera notamment
des applications
varl6es de l’algèbre llx&aire B
_l’analyse.
J.-M. SOURIAU, Calcul Zin&dre, 2 tomes, Presses Universitaires
de
Fmuce, coll. 4 Euclide *. Un expos6 assez dlffQent
des expos6s
classiques,
avm une Btude d6taWe
des espaces euclldkns
et
hermitieus
eu vue des applications
& la physique.
F. FL GANTMACHER,
Th&orie des matrices. 2 tomes, Dunod. Traductien française de 1’6dition rosse ; l’un des grands ( claasiqaes n
du calcul matriciel.
D. PHAM Techni uea du cuZcuZ mtdriciel.
Dunod. Ouvrage abordaut
les probkues
Il e calcul mmkiqne
dans ce domaine.
M. DBNIS-PAPIN
et A. KAVFMAN, Cours de caZcuZ mutrZeieZ appliqué
Albin Michel. Nombreuses
applications
du calcul matriciel
B la
physique.
R. G~IRON,
CaZcuZ fensoriel. Vuibert.
Expo&
d’algèbre et analyse
teusorielh
avec applications.
TABLE
DES MATI$BES
hTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
CHU~~ PREMIER. - Espaces vectoriels
. . . .. . .. .. .
Axiomes de la structure,
7. -Familles
libres et Ii&, 10. Sous-espaces. intersection
et somme, 12. - Sous-espaces suppl6mentaires.
rojections,
16. - Espace produit,
espace quotient, 17. - ! hkorème
fondamental,
19. - Relation
entre
dimensions
de I?ntersection
et de la somme de deux souses aces, 24. - Restriction
du CO s des scalaires, 24. - GB&ra pisations, 25. - Structure
d BP
a g&bre, 25.
CHAPITRE II. - Applications
lin6ainx
.. . . .. . .. . .. . .
ProprIWs
fondamentales,
28. - Exemples,
30. - Op&atiens, 32. - Applications
Iinbaires entre espaces de dimensions finies, 37. - Formes
linéaires.
39. - Sous-espaces
orthogonaux,
41. - TransposBe
d’une application
linéaire,
42. - Complexiflcation
d’un espace vectoriel réel, 43.
CEUPITRE III. -
Matrices . . . . . . . . . . . . . . . . . . . . . . . .
Principes fondamentaux
du calcul matriciel,
45. - Repr&
sentations
matricielles,
48. - Matrices
sur un corps commutatif, 51. - Changements
de base, 54. - Matrices
&uivalentes et semblables.
56.
CHAPITRE
Iv. - Formes
multilinéaires.
Déterminants.
Formes multilin&&es,
58. - Formes
multilimkires
alterdes, 60. - DBterminants
de vecteurs,
61. - Propri&&
des
dbterminants
de matrices,
64. - Rang d’une matrice
et de
relations de liaison, 67. - Application
aux systémes IinWres.
69. - D&ivBe d’un dbterminant,
71.
CHAPITRE
v. Espaces
euclidiens
et hermitiens.
. .. .
Formes bilin&ires,
12. - Formes bilinkaires
sym&riques
et formes quadratiques.
74. Formes
sesquiIin&aires
et
hermitiennes.
76. - Formes sur un espace r6el long6 dans
un espace complexe,
79. - Vecteurs
conjugo Bs, vecteurs
isotropes, 79. - RBduction,
82. - ThBoréme d’inertie,
84. Espaces euclidiens et hermitiens.
86. - InégaIitB de Schwarz,
38. ProcBdB
d’orthogonalisation
de Schmi&,
89. Groupes orthogonal
et unitaire,
90. - Espaces orie&%,
93.
- Endomorphisme
adjoint,
94.
CUITRE VI. - Diagonalisation
et triangulation
des
matncea........................................
Vecteurs
propres,
valeurs
propres,
Bquation
caractkistique, 95. - Diagonalisation
des matrices, 98. - TrianguIay;; des matrices, 100. - PropriétBs des matrices hermitiennes,
. - Propriétks
des matrices normales, 105. - ThBor&me de
Cayley-Hamilton,
polynôme minimum,
108. -Matrices
permutables, 110. - Formes Iindaires propres, 111. - RBduites de
Jordan,
111.
CHAPITRE VII. - Fonctions
de matrieea
. .. .. . . . .. , .
Extension
de propri&t&
usuelles d’analyse aux matrices, 119.
- Exponentielles
de matrices,
121. - Détermination
des
fonctions
de matrices au moyen des réduites de Jordan, 124.
BIBLIOGRAPHIE SOMMAIRE . . . . . . . . . . . . . . . . . . . . . . . . .
1971. - Imprimerie
l%DIT. Iv’ 91 bla
des Presse~ Uaiveraitsires
-ENFaANcs
de Franoe. -
5
7
28
45
58
72
95
119
127
VendBme (l?rsnoe)
II@. N’ 22 26s
Auteur
Документ
Catégorie
Без категории
Affichages
0
Taille du fichier
5 417 Кб
Étiquettes
1/--Pages
signaler