Réduction d'endomorphismes PDF
Document Details
Tags
Summary
Ce document présente un cours complet sur la réduction d'endomorphismes et de matrices. Il aborde des sujets tels que les valeurs et vecteurs propres, les polynômes caractéristiques, la diagonalisation et la trigonalisation.
Full Transcript
Réduction d’endomorphismes. Chap. 07 : cours complet. 1. Eléments propres d’un endomorphisme. Définition 1.1 : valeur et vecteur propre d’un endomorphisme Définition 1.2 : spectre d’un endomorphisme Définition 1.3 : sous-espace propr...
Réduction d’endomorphismes. Chap. 07 : cours complet. 1. Eléments propres d’un endomorphisme. Définition 1.1 : valeur et vecteur propre d’un endomorphisme Définition 1.2 : spectre d’un endomorphisme Définition 1.3 : sous-espace propre d’un endomorphisme Théorème 1.1 : liberté d’une famille de vecteurs propres Théorème 1.2 : somme directe de sous-espaces propres 2. Polynôme caractéristique d’un endomorphisme en dimension finie. Théorème 2.1 et définition 2.1 : polynôme caractéristique d’un endomorphisme en dimension finie Théorème 2.2 : lien entre valeurs propres et racines du polynôme caractéristique Théorème 2.3 : expression du polynôme caractéristique Définition 2.2 : multiplicité d’une valeur propre Théorème 2.4 : majoration du nombre de valeurs propres Théorème 2.5 : somme et produit des racines du polynôme caractéristique d’un endomorphisme en dimension finie 3. Eléments propres et polynôme caractéristique d’une matrice carrée. Définition 3.1 : valeur et vecteur propre d’une matrice carrée, spectre d’une matrice carrée Théorème 3.1 : comparaison des spectres réels et complexes Définition 3.2 : polynôme caractéristique d’une matrice carrée Théorème 3.2 : lien entre valeurs propres d’un endomorphisme et d’une matrice 4. Diagonalisation des endomorphismes en dimension finie et des matrices carrées. Définition 4.1 : endomorphisme diagonalisable en dimension finie Définition 4.2 : matrice carrée diagonalisable Théorème 4.1 : caractérisation des endomorphismes diagonalisables en dimension finie Remarque : polynôme caractéristique scindé dans le cas d’un endomorphisme diagonalisable Théorème 4.2 : interprétation de la diagonalisabilité en termes de vecteurs propres Théorème 4.3 : cas d’un endomorphisme dont les valeurs propres sont simples Théorème 4.4 : diagonalisabilité d’un endomorphisme en dimension finie en termes de dimensions Théorème 4.5 : lien entre multiplicité d’une valeur propre et dimension du sous-espace propre associé, endomorphismes diagonalisables en dimension finie en termes de multiplicités Théorème 4.6 : puissances d’une matrice carrée diagonalisable Remarque : utilisation du théorème 7.5 pour le calcul d’une puissance de matrice carrée à l’aide d’une division euclidienne Théorème 4.7 : application à la résolution des suites récurrentes linéaires à coefficients constants 5. Trigonalisation des endomorphismes en dimension finie et des matrices carrées. Définition 5.1 : endomorphisme trigonalisable en dimension finie Définition 5.2 : matrice carrée trigonalisable Théorème 5.1 (admis) : caractérisation des endomorphismes trigonalisables en dimension finie Théorème 5.2 : trigonalisabilité des matrices carrées complexes Théorème 5.3 : éléments diagonaux d’une matrice triangulaire ou diagonale semblable à une matrice carrée 6. Sous-espaces vectoriels stables par un endomorphisme. Définition 6.1 : sous-espace vectoriel stable par un endomorphisme Définition 6.2 : endomorphisme induit par un endomorphisme dans un sous-espace vectoriel stable Théorème 6.1 : stabilité des sous-espaces propres par un endomorphisme commutant Théorème 6.2 : caractérisation des vecteurs propres en termes de droite stable Théorème 6.3 : traduction matricielle de la stabilité d’un sous-espace vectoriel Chapitre 07 : Réduction d’endomorphismes – Cours complet. -1- Théorème 6.4 : généralisation du théorème 6.4 Théorème 6.5 : caractérisation des matrices triangulaires supérieures en termes de sous-espaces stables 7. Polynômes d’endomorphisme, de matrice carrée. Définition 7.1 et théorème 7.1 : polynôme d’un endomorphisme, polynôme d’une matrice carrée Théorème 7.2 : stabilité des images et noyau de polynômes d’endomorphismes Théorème 7.3 : correspondance polynôme – polynôme d’endomorphisme, de matrice carrée Définition 7.2 et théorème 7.4 : polynôme annulateur d’un endomorphisme ou d’une matrice carrée Théorème 7.5 : valeurs propres et polynômes annulateurs Théorème 7.6 (admis) : Cayley-Hamilton Remarque : calcul de la puissance kème d’une matrice carrée à l’aide d’un polynôme annulateur Théorème 7.7 (admis) : caractérisation de la diagonalisabilité à l’aide d’un polynôme annulateur Théorème 7.8 : diagonalisabilité d’un endomorphisme induit par un endomorphisme diagonalisable Chapitre 07 : Réduction d’endomorphismes – Cours complet. -2- Réduction d’endomorphismes. Chap. 07 : cours complet. 1. Eléments propres d’un endomorphisme. Définition 1.1 : valeur et vecteur propre d’un endomorphisme Soit (E,+,.) un K-espace vectoriel et soit : u ∈ L(E). On dit que : λ ∈ K, est une valeur propre de u si et seulement si : ∃ x ∈ E, x ≠ 0, u(x) = λ.x. On dit que : x ∈ E, est vecteur propre de u si et seulement si : x ≠ 0, et : ∃ λ ∈ K, u(x) = λ.x. Définition 1.2 : spectre d’un endomorphisme Soit (E,+,.) un K-espace vectoriel et soit : u ∈ L(E). L’ensemble des valeurs propres de u (éventuellement vide) est appelé spectre de u et est noté Sp(u). Définition 1.3 : sous-espace propre d’un endomorphisme Soit (E,+,.) un K-espace vectoriel, u ∈ L(E), et : λ ∈ Sp(u). Alors : Eλ = ker(u – λ.IdE), est appelé sous–espace propre de E associé à λ. C’est l’ensemble constitué du vecteur nul et des vecteurs propres de u associés à λ. Théorème 1.1 : liberté d’une famille de vecteurs propres Soit (E,+,.) un K-espace vectoriel et soit : u ∈ L(E). Soient λ1, …, λn des valeurs propres distinctes de u et x1, …, xn, des vecteurs propres de u associés à ces différentes valeurs propres. Alors la famille (x1, …, xn) est libre dans E. Démonstration : On procède par récurrence sur n. Le résultat est immédiat pour : n = 1, puisqu’un vecteur propre est non nul. Supposons-le vrai pour n donné, n ≥ 1, et considérons (x1, …, xn+1) des vecteurs propres de u associés à des valeurs propres distinctes λ1, …, λn+1 de u. Soit alors la combinaison linéaire : α1.x1 + … + αn+1.xn+1 = 0 (L1). L’image par u de cette combinaison donne : α1.λ1.x1 + … αn+1.λn+1.xn+1 = 0 (L2). En calculant [L2 – λn+1.L1], on obtient : α1.(λ1 – λn+1).x1 + … + αn.(λn – λn+1).xn = 0. Puisque les vecteurs (x1, …, xn) sont des vecteurs propres associés à des valeurs propres distinctes de u, tous les coefficients de la dernière combinaison linéaire sont nuls, et les valeurs propres étant distinctes, on en déduit que : ∀ 1 ≤ i ≤ b, αi = 0. Enfin, en reprenant (L1), puisque xn+1 est non nul, on termine avec : αn+1 = 0, et la famille (x1, …, xn+1) est libre. Théorème 1.2 : somme directe de sous-espaces propres Soit (E,+,.) un K-espace vectoriel et soit : u ∈ L(E). Soient λ1, …, λn des valeurs propres distinctes de u. Alors la somme E λ1 (u ) +... + E λn (u ) est directe. Démonstration : Montrons que tout élément de la somme se décompose de façon unique suivant cette somme. Pour cela, soit : x = x1 + … + xn ∈ E λ1 (u ) +... + E λn (u ) , mais se décomposant aussi en : x = x’1 + … + x’n. Alors : (x1 – x’1) + … + (xn – x’n) = 0. Or si dans les n différences qui apparaissent (et qui sont chacune dans un sous-espace propre de u différent), il y en avait une non nulle, cela fournirait, en ne gardant dans l’égalité précédente que les différences non nulles, une combinaison linéaire nulle de vecteurs propres de u associés à des valeurs propres distinctes, ce qui est impossible. Toutes les différences sont donc nulles et : ∀ 1 ≤ i ≤ n, xi = x’i, et la décomposition de x est unique. 2. Polynôme caractéristique d’un endomorphisme en dimension finie. Chapitre 07 : Réduction d’endomorphismes – Cours complet. -3- Théorème 2.1 et définition 2.1 : polynôme caractéristique d’un endomorphisme en dimension finie Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). Alors : χu(λ) = det(λ.idE – u) = (-1)n.det(u – λ.idE), est une fonction polynomiale en λ à coefficients dans K, et χu est appelé polynôme caractéristique de u. Si B est une base de E et A la matrice représentative de u dans B, on a : χu(λ) = (-1)n.det(A – λ.In). Démonstration : Soit B une base de E, et A la matrice représentative de u dans B. L’endomorphisme (u – λ.idE) de E a pour matrice représentative (A – λ.In) dans la base B, donc : det(u – λ.idE) = det(A – λ.In). Appelons c1, …cn les vecteurs de Kn qui ont pour coordonnées dans la base canonique C de Kn les valeurs apparaissant en colonnes dans A, et e1, …, en les vecteurs de C. Alors : det(A – λ.In) = detC(c1 – λ.e1, …, cn – λ.en). On peut alors développer ce déterminant par n-linéarité et obtenir 2n termes en tout. Cette expression est alors polynomiale en λ à coefficients dans K. De plus, et puisque le déterminant d’un endomorphisme en dimension finie ne dépend pas de la base dans laquelle on exprime sa matrice représentative, χu a donc une expression identique, quelque soit la base B de E que l’on choisisse pour représenter u. Théorème 2.2 : lien entre valeurs propres et racines du polynôme caractéristique Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). Pour tout : λ ∈ K, on a les équivalences : (λ ∈ Sp(u)) ⇔ ((u – λ.idE) non inversible) ⇔ (χu(λ) = 0). En particulier, les valeurs propres d’un endomorphisme d’un espace vectoriel réel de dimension finie sont les racines réelles de son polynôme caractéristique. Démonstration : On peut écrire, pour : λ ∈ K : (λ ∈ Sp(u)) ⇔ (∃ x ∈ E, x ≠ 0, u(x) = λ.x) ⇔ (ker(u – λ.idE) ≠ {0}) ⇔ ((u – λ.idE) non injective). Or E étant de dimension finie, on a ensuite : ((u – λ.idE) non injective) ⇔ ((u – λ.idE) non bijective), pour terminer avec : ((u – λ.idE) non bijective) ⇔ (det(u – λ.idE) = 0) ⇔ (χu(λ) = 0). Théorème 2.3 : expression du polynôme caractéristique Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). Alors χu est de degré n et : χu(λ) = λn – tr(u).λn–1 + … + (–1)n.det(u). Démonstration : On reprend une base B de E et l’expression obtenue dans la démonstration du théorème 2.1. Après développement, on avait obtenu 2n termes pour det(A – λ.In). Le terme constant correspond au choix de ci à chaque étape du développement soit à detC(c1, …, cn). Dans l’expression de χu(λ), il vaut donc : (-1)n.det(A) = (-1)n.det(u). Le terme de plus haut degré correspond au choix de λ.ei à chaque étape du développement, donc à un seul terme de degré n et à un coefficient égal à : (-1)n.detC(e1, …, en). Dans l’expression de χu(λ), il vaut donc : (-1)n.(-1)n.det(In) = 1. Le terme de degré (n – 1) enfin correspond à choisir (n – 1) fois λ.ei à chaque étape du développement n et une fois ci, soit n combinaisons donnant finalement : (−1) n −1. ∑ det k =1 C (e1 ,..., ek −1 , c k , ek +1 ,..., en ). 1 L 0 a1,k 0 L 0 0 O M M M M M O 1 a k −1, k M M Chacun de ces déterminants vaut : det C (e1 ,..., ek −1 , c k , ek +1 ,..., en ) = M 0 a k ,k 0 M = a k ,k. M M a k +1,k 1 O M M M M M O 0 0 L 0 a n ,k 0 L 1 Donc le coefficient de λ n-1 dans χu(λ) vaut : (-1).(-1).[a1,1 + … + an,n] = – tr(A) = – tr(u). n n-1 Chapitre 07 : Réduction d’endomorphismes – Cours complet. -4- Définition 2.2 : multiplicité d’une valeur propre Soit (E,+,.) un K-espace vectoriel de dimension n, u ∈ L(E), et : λ ∈ Sp(u). On appelle multiplicité de λ sa multiplicité comme racine de Pu. Théorème 2.4 : majoration du nombre de valeurs propres Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). L’endomorphisme u admet au plus n valeurs propres (chacune comptée avec sa multiplicité). Démonstration : Les valeurs propres de u sont les racines de son polynôme caractéristique, qui est de degré n. Donc u admet au plus n valeurs propres (chacune comptée avec sa multiplicité), puisque χu admet au plus n racines. On aurait pu aussi utiliser le premier théorème démontré dans ce chapitre. Théorème 2.5 : somme et produit des racines du polynôme caractéristique d’un endomorphisme en dimension finie Soit (E,+,.) un K-espace vectoriel de dimension n, u ∈ L(E), et A la matrice représentative de u dans une base B de E. Si on note λ1, …, λn les racines dans de Pu, chacune répétée avec sa multiplicité, on a : n n tr (u ) = tr ( A) = ∑ λi , et : det(u ) = det( A) = ∏ λi. i =1 i =1 En particulier, si χu est scindé dans K (toutes ses racines sont dans K), alors les égalités précédentes sont valables pour les valeurs propres de u à la place des racines de χu. Démonstration : En utilisant les relations entre coefficients et racines d’une équation polynomiale, on a immédiatement : − tr (u ) λ1 + … + λn = − = tr(u) = tr(A), et : 1 (−1) n. det(u ) λ1…λn = (−1) n. = det(u) = det(A). 1 Et si χu est scindé, alors les racines de χu sont les valeurs propres de u. 3. Eléments propres et polynôme caractéristique d’une matrice carrée. Définition 3.1 : valeur et vecteur propre d’une matrice carrée, spectre d’une matrice carrée Soit : A ∈ Mn(K). On dit que : λ ∈ K, est valeur propre de A si et seulement si : ∃ X ∈ Mn,1(K), X ≠ 0, A.X = λ.X. On dit que : X ∈ Mn,1(K), est vecteur propre de A si et seulement si : X ≠ 0, et : ∃ λ ∈ K, A.X = λ.X. Le spectre de A est l’ensemble de ses valeurs propres comme élément de Mn(K), et est noté SpK(A) ou Sp(A) lorsqu’il n’y a pas d’ambiguïté. Une matrice réelle admet donc un spectre réel et un spectre complexe. Théorème 3.1 : comparaison des spectres réels et complexes Soit : A ∈ Mn( ). Le spectre réel de A est inclus dans son spectre complexe. Démonstration : Soit λ une valeur propre réelle de A. Alors : ∃ X ∈ Mn,1( ), X ≠ 0, A.X = λ.X. Or une telle matrice colonne réelle X est aussi une matrice de Mn,1( ), et donc X étant non nulle, il existe une matrice colonne non nulle X, à coefficients complexes telle que : A.X = λ.X. A ce titre, on a bien : λ ∈ Sp (A). Définition 3.2 : polynôme caractéristique d’une matrice carrée Le polynôme caractéristique de A est le polynôme défini par : χA(λ) = det(λ.In – A) = (-1)n.det(A – λ.In), et c’est le polynôme caractéristique de l’endomorphisme canoniquement associé à A. Chapitre 07 : Réduction d’endomorphismes – Cours complet. -5- Théorème 3.2 : lien entre valeurs propres d’un endomorphisme et de sa matrice représentative Soit : A ∈ Mn(K), et u l’endomorphisme de Kn, canoniquement associé à A. Les valeurs propres de A comme élément de Mn(K) sont les valeurs propres de u. On a donc : SpK(A) = Sp(u). Démonstration : Soit A une valeur propre de A dans K. Alors : ∃ X ∈ Mn,1(K), X ≠ 0, A.X = λ.X. Or si u est l’endomorphisme de Kn canoniquement associé à A, et si x est le vecteur de Kn dont les coordonnées dans la base canonique de Kn sont données par X, A.X correspond aux coordonnées dans la base canonique de Kn de u(x), et on a bien alors : x ≠ 0, u(x) = λ.x. Le vecteur x est alors vecteur propre de u et : λ ∈ Sp(u). Réciproquement, si λ est valeur propre de u, x un vecteur propre dans Kn associé à λ, la relation vectorielle : u(x) = λ.x, conduit à l’égalité matricielle : A.X = λ.X, et X étant une matrice de Mn,1(K) non nulle, λ est bien un élément de SpK(A). Théorème 3.3 : spectre de deux matrices semblables Soient A et B deux matrices semblables de Mn(K). Alors : Sp(A) = Sp(B). Démonstration : On peut le montrer matriciellement ou en utilisant l’endomorphisme canoniquement associé à A. En effet, en notant u l’endomorphisme canoniquement associé à A (dans Kn), alors : SpK(A) = Sp(u). Mais : ∃ P ∈ Gln(K), B = P-1.A.P, et si B représente la base canonique de Kn, alors P correspond à la matrice de passage de B à une base B’ de Kn, et B est alors la matrice représentative de u dans B’. Or on a vu que : Sp(u) = SpK(B), puisque les valeurs propres de u sont les racines de son polynôme caractéristique, soit celui de A ou de B indifféremment. Finalement : SpK(A) = SpK(B). rappel : Deux matrices A et B de Mn(K) sont semblables dans Mn(K) si et seulement si elles représentent le même endomorphisme dans deux bases de Kn. 4. Diagonalisation des endomorphismes en dimension finie et des matrices carrées. Définition 4.1 : endomorphisme diagonalisable en dimension finie Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). L’endomorphisme u est dit diagonalisable si et seulement si il existe une base de E dans laquelle la matrice de u est diagonale. Définition 4.2 : matrice carrée diagonalisable Soit : A ∈ Mn(K). On dit que A est diagonalisable si et seulement si A est semblable à une matrice diagonale, autrement dit : ∃ P ∈ Gln(K), ∃ D ∈ Mn(K), D diagonale, D = P-1.A.P. Théorème 4.1 : caractérisation des endomorphismes diagonalisables en dimension finie Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). Il y a équivalence entre les propositions suivantes : u est diagonalisable, il existe une base de E formée de vecteurs propres de u. E est la somme directe des sous-espaces propres de u, la matrice représentative de u dans une base B’ quelconque de E est diagonalisable. Démonstration : Démontrons ces équivalences par quatre implications. i) ⇒ ii). Supposons donc u diagonalisable. La base dans laquelle la matrice de u est diagonale est alors clairement une base de E formée de Chapitre 07 : Réduction d’endomorphismes – Cours complet. -6- vecteurs propres de u. ii) ⇒ iii). Si on considère une base B de E formée de vecteurs propres de u (qu’on suppose regroupés par α 1 0 L L L L 0 0 O O M M O α O M 1 valeurs propres), la matrice de u dans B s’écrit : A = mat(u,B) = M O O O M. M O αp O M M O O 0 0 L L L L 0 α p Les valeurs propres de u sont alors bien les αi. De plus (par exemple) l’espace propre de u associé à α1 s’obtient en résolvant : u(x) = α1.x, soit en résolvant le système matriciel : A.X = α1.X. Si α1 est répété k fois dans A, ce système est équivalent à : xk+1 = … = xn = 0. Donc : (x ∈ ker(α1.idE – u)) ⇔ (x ∈ Vect(e1, …, ek)), et : ker(α1.u – idE) = Vect(e1, …, ek). On obtient un résultat identique pour chaque valeur propre de u, et comme la base B est la réunion de bases des différents sous-espaces propres de u, la somme directe de ces sous-espaces propres de u est bien égale à E. iii) ⇒ iv). Reprenons la base B adaptée à la somme directe précédente : chaque vecteur de cette base est alors vecteur propre de u et la matrice D représentative de u dans B est diagonale. Si on considère une autre base B’ de E et la matrice A représentative de u dans B’, alors : A = P-1.D.P, en notant P la matrice de passage de B dans B’. Les matrices A et D sont donc semblables, et A est diagonalisable. iv) ⇒ i). Si enfin la matrice A de u dans une base B de E est diagonalisable, il existe P, inversible, telle que : D = P-1.A.P, soit diagonale. La matrice P s’interprète alors comme la matrice de passage de la base B à une base B’ de E (les vecteurs de B’ ont leurs coordonnées dans B écrites en colonne dans P). Enfin la matrice représentative de u dans B’ est D qui est diagonale et tout vecteur de B’ est vecteur propre de u. Remarque : Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). Si u est diagonalisable, son polynôme caractéristique est scindé sur K (pas de réciproque). Démonstration : Soit B une base de E formée de vecteurs propres de u et D la matrice représentative de u dans B. n Alors : χu(λ) = (-1)n.det(D – λ.In) = ∏ (λ − d i =1 i ,i ) , qui est scindé dans K. Théorème 4.2 : interprétation de la diagonalisabilité d’une matrice en termes de vecteurs propres Soit : A ∈ Mn(K), une matrice diagonalisable, et u l’endomorphisme canoniquement associé à A. Si : D = P-1.A.P, où : P ∈ Gln(K), D ∈ Mn(K), diagonale, alors P peut s’interpréter comme la matrice de passage de la base canonique de Kn à une base de vecteurs propres de u. Démonstration : Si on noté B’ la famille (dans n) donnée par les vecteurs colonnes de P, alors P étant inversible, B’ est une base de n, et P est la matrice de passage de la base canonique de n à B’. De plus, la matrice de u dans B’ est D, et il est alors immédiat que chaque vecteur de B’ est vecteur propre de u (avec pour valeur propre associé l’élément diagonal de D associé). Théorème 4.3 : cas d’un endomorphisme dont les valeurs propres sont simples Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). Chapitre 07 : Réduction d’endomorphismes – Cours complet. -7- Si le polynôme caractéristique de u est scindé dans K et à racines simples, alors u est diagonalisable et tous ses sous-espaces propres sont de dimension 1. Démonstration : L’endomorphisme u admet donc n valeurs propres simples. Chacune a un sous-espace propre de dimension au moins 1 (puisqu’il y a au moins pour chacune un vecteur propre (non nul) associé) et ces sous-espaces sont en somme directe. Donc la somme de leurs dimensions valant n, chacun a une dimension au plus égale à 1. Finalement, chaque dimension est égale à 1, et la somme directe est égale à E. On en conclut que u est bien diagonalisable, avec n sous-espaces propres de dimension 1. Théorème 4.4 : diagonalisabilité d’un endomorphisme en dimension finie en termes de dimensions Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). L’endomorphisme u est diagonalisable si et seulement si : ∑ dim( E λ (u )) = n. λ∈Sp ( u ) Démonstration : Notons : F = ⊕ E λ (u ) , la somme (directe) des sous-espaces propres de u. λ∈Sp ( u ) Alors : dim( F ) = ∑ dim( Eλ (u )) , puisque la somme est directe, et : F ⊂ E. λ∈Sp ( u ) Mais alors : (u diagonalisable) ⇔ (F = E) ⇔ (dim(F) = dim(E)) ⇔ ( n = dim( F ) = ∑ dim( Eλ (u )) ). λ∈Sp ( u ) Théorème 4.5 : lien entre multiplicité d’une valeur propre et dimension du sous-espace propre associé, endomorphismes diagonalisables en dimension finie en termes de multiplicités Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). la dimension d’un sous-espace propre de u est inférieure ou égale à la multiplicité de la valeur propre correspondante, soit : ∀ α ∈ Sp(u), 1 ≤ dim(Eα(u)) ≤ mult(α), une valeur propre simple conduit toujours à un sous-espace propre associé de dimension 1, u est diagonalisable si et seulement si χu est scindé sur K et chaque sous-espace propre de u a pour dimension la multiplicité de la valeur propre correspondante. Démonstration : Notons α une valeur propre de u et Eα(u) le sous-espace propre associé. Soit : B = (e1, …, en), une base de E adaptée à ce sous-espace propre, et : p = dim(Eα(u)) ≥ 1. La matrice de u dans cette base s’écrit : α.I p B matB(u) = = A, avec : B ∈ Mp,n-p(K), et : C ∈ Mn-p,n-p(K). 0 n− p, p C Puis : χu(λ) = (λ – α)p.det(λ.In-p – C) = (λ – α)p.χC(λ). Donc α est racine de χu d’ordre au moins p, et p est inférieur à la multiplicité de α comme racine de χu. Si maintenant on considère une valeur propre simple α, alors : 1 ≤ dim(Eα(u)) ≤ 1, et : dim(Eα(u)) = 1. Enfin, si u est diagonalisable, alors dans une base formée de vecteurs propres (donc formée de bases issues des espaces propres de u), la matrice de u est diagonale et en recalculant χu à partir de cette matrice, on constate que : ∀ α ∈ Sp(u), dim(Eα(u)) = mult(α). Réciproquement, si χu est scindé sur K et si : ∃ α ∈ Sp(u), telle que : dim(Eα(u)) ≤ mult(α) – 1, alors : ∑ ∑ ∑ dim( E λ (u )) = dim( Eα (u )) + dim( E λ (u )) ≤ mult (α ) − 1 + mult (λ ) ≤ n − 1 , λ∈Sp ( u ) λ ≠α λ ≠α puisque la somme des multiplicités donne le degré de χu. La somme des dimensions ne pouvant être égale à n, u ne peut être diagonalisable autrement dit, on vient de prouver par contraposée la réciproque de l’implication précédente donc cette même réciproque. Théorème 4.6 : puissances d’une matrice carrée diagonalisable Soit : A ∈ Mn(K), diagonalisable, et : P ∈ Gln(K), D ∈ Mn(K), D diagonale, telles que : D = P-1.A.P. Alors : ∀ k ∈ , Ak = P.Dk.P-1. Démonstration : Pour : k = 0, avec la convention habituelle : D0 = A0 = In, l’égalité est vérifiée, et si elle est vérifiée pour Chapitre 07 : Réduction d’endomorphismes – Cours complet. -8- un entier n donné, k ≥ 0, il est clair que : Ak+1 = Ak.A = P.Dk.P-1.P.D.P-1 = P.Dk+1.P-1. Remarque : Voir remarque suivant le théorème 7.6 de Cayley-Hamilton permettant le calcul de Ak en utilisant une division euclidienne. Théorème 4.7 : suites récurrentes linéaires à coefficients constants Soit (un) une suite telle que : ∃ p ∈ *, ∃ (a0, …, ap-1) ∈ Kp, a0 ≠ 0, ∀ n ∈ , u n + p = a p −1.u n + p −1 +... + a 0.u n. La suite (Xn) définie par : 0 1 0 L 0 un 0 O O O M ∀ n ∈ , X n = M , vérifie alors : ∀ n ∈ , X n +1 = A. X n , où : A = M O O O 0 . u n + p −1 0 L 0 0 1 a L L a1 a p −1 0 On peut alors calculer tous les termes de (Xn) et de (un) à l’aide de : ∀ n ∈ , X n = A n.X 0. En particulier, les termes de la suite (un) ne dépendent donc que de n et de u0, …, up-1. Démonstration : Il suffit de développer l’égalité matricielle pour constater que (Xn) vérifie la relation proposée. La suite du théorème est également immédiate. Remarque : Lorsque : p = 2, on peut remarquer que si (un) vérifie : ∀ n ∈ , u n + 2 = α.u n +1 + β.u n , la matrice A 0 1 associée vaut alors : A = , et son polynôme caractéristique est : χ A (λ ) = λ2 − α.λ − β. β α On retrouve ainsi l’équation caractéristique attachée à une suite récurrente linéaire double. Lorsque cette équation admet deux racines distinctes (dans ), A est diagonalisable et l’expression de (un) en fonction des deux suites (r1n) et (r2n) en découle immédiatement par le biais de An. Lorsque cette équation admet une racine double dans , A n’est que trigonalisable (sinon elle serait déjà diagonale car semblable à une matrice de type r.I2) et le calcul de An fait alors apparaître des termes en rn et en n.rn-1 (termes qu’on peut remplacer par n.rn en factorisant par r puisque 0 n’est pas racine de χA). 5. Trigonalisation des endomorphismes en dimension finie et des matrices carrées. Définition 5.1 : endomorphisme trigonalisable en dimension finie Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). On dit que u est trigonalisable si et seulement si il existe une base de E dans laquelle la matrice représentative de u est triangulaire supérieure. Définition 5.2 : matrice carrée trigonalisable Soit : A ∈ Mn(K). On dit que A est trigonalisable si et seulement si A est semblable à une matrice triangulaire supérieure. Théorème 5.1 : caractérisation des endomorphismes trigonalisables en dimension finie Soit (E,+,.) un K-espace vectoriel de dimension n, et : u ∈ L(E). L’endomorphisme u est trigonalisable si et seulement si son polynôme caractéristique est scindé sur K. Démonstration (hors programme) : Le résultat est immédiat si : dim(E) = 1. Supposons-le vrai pour tout K-espace vectoriel de dimension : 1 ≤ k ≤ n, pour un entier : n ≥ 1. Soit maintenant E un K-espace vectoriel de dimension (n+1) et : u ∈ L(E). Si on suppose χu scindé, alors : ∃ α ∈ K, χu(α) = 0. Notons Eα(u) le sous-espace propre associé. Chapitre 07 : Réduction d’endomorphismes – Cours complet. -9- - si : dim(Eα(u)) = n + 1, alors : u = α.idE, et u est diagonalisable donc trigonalisable. - si : dim(Eα(u)) ≤ n, puisque Eα(u) est de dimension au moins 1, soit E’ un supplémentaire de Eα(u) dans E, qui vérifie donc : E = Eα(u) ⊕ E’, et : 1 ≤ dim(E’) ≤ n. Soit p le projecteur sur E’ dans la direction Eα(u). On peut ainsi définir une application linéaire u’ sur E’ par : ∀ x ∈ E’, u’(x) = pou(x). Soit enfin : B = (e1, …, ek, ek+1, …, en+1), une base de E adaptée à la décomposition en somme directe donnée au-dessus c'est-à-dire telle que (e1, …, ek) soit une base de Eα(u) et : B’ = (ek+1, …, en+1), est une base de E’. α.I k * La matrice de u dans cette base est la matrice par blocs : matB(u) = A = , 0 A' où : A’ = matB’(u’), puisque u’ « enlève » dans u(x) la partie se trouvant dans Eα(u). (λ − α ).I k * Donc : χ u (λ ) = det(λ.I n +1 − A) = = (λ − α ) k.χ u ' (λ ). 0 λ.I n +1−k − A' Puisque χu est scindé sur K, χu’ l’est aussi. Donc u’ est trigonalisable et on peut trouver une base : C’ = (e’k+1, …, e’n+1), de E’ dans laquelle la matrice de u’ est triangulaire supérieure. On constate alors que la matrice de u dans la base : C = (e1, …, ek, e’k+1, …, e’n+1), de E est triangulaire supérieure également. En effet : - ∀ 1 ≤ i ≤ k, u(ei) = α.ei, et : - ∀ k+1 ≤ i ≤ n+1, u(e’i) se décompose en : u (e' i ) = f i + f ' i , avec : fi ∈ Eα(u), et : f’i ∈ E’. Donc : p (u (e' i )) = p ( f i ) + p ( f 'i ) = f i , soit : u ' (e' i ) = f i = a ' k +1,i.e' k +1 +... + a ' i ,i.e'i , soit enfin : u (e' i ) = (a '1,i.e1 +... + a ' k ,i.ek ) + (a ' k +1,i.e' k +1 +... + a 'i ,i.e' i ). Ceci se traduit bien pour la matrice matC(u) par le fait qu’elle est triangulaire supérieure. Et évidemment, on a ainsi terminé la démonstration par récurrence du théorème. Théorème 5.2 : trigonalisabilité des matrices carrées complexes Toute matrice de Mn( ) est trigonalisable. Démonstration : Soit : A ∈ Mn( ), et u l’endomorphisme de n canoniquement associé à A. Puisque χu est scindé dans , u est donc diagonalisable et A aussi. Théorème 5.3 : éléments diagonaux d’une matrice triangulaire ou diagonale semblable à une matrice carrée donnée Soit : A ∈ Mn(K), diagonalisable ou trigonalisable. Si D est une matrice diagonale semblable à A (ou T une matrice triangulaire supérieure semblable à A), on trouve sur la diagonale de D (ou de T) les valeurs propres de A, chacune répétée avec sa multiplicité. Démonstration : Si A est diagonalisable out trigonalisable, et donc semblable à une matrice triangulaire supérieure ou diagonale, notée A’, alors : ∀ P ∈ Gln(K), A’ = P-1.A P. n On a alors : χA = χA’, mais comme le polynôme caractéristique χA’ de A’ vaut : χA’(λ) = ∏ (λ − a ' i =1 i ,i ) , les valeurs propres de A sont donc bien les éléments diagonaux de A’. 6. Sous-espaces vectoriels stables par un endomorphisme. Définition 6.1 : sous-espace vectoriel stable par un endomorphisme Soit (E,+,.) un K-espace vectoriel, F un sous-espace vectoriel de E et : u ∈ L(E). On dit que F est stable par u (ou que u stabilise F) si et seulement si : u(F) ⊂ F, ou : ∀ x ∈ F, u(x) ∈ F. Chapitre 07 : Réduction d’endomorphismes – Cours complet. - 10 - Définition 6.2 : endomorphisme induit par un endomorphisme dans un sous-espace vectoriel stable Soit (E,+,.) un K-espace vectoriel, u ∈ L(E), et F un sous-espace vectoriel de E stable par u. L’endomorphisme û défini sur F par : ∀ x ∈ F, û(x) = u(x), est appelé endomorphisme induit par u sur F. Théorème 6.1 : stabilité des sous-espaces propres par un endomorphisme commutant Soient (E,+,.) un K-espace vectoriel, et : (u,v) ∈ L(E)2, tel que : uov = vou. Alors Im(u) et ker(u) sont stables par v. Plus généralement, tout sous-espace propre de u est stable par v. Démonstration : Soit : x ∈ ker(u). Alors : u(v(x)) = v(u(x)) = v(0) = 0, et : v(x) ∈ ker(u). Donc ker(u) est bien stable par v. Soit: y ∈ Im(u), et: x ∈ E, y = u(x). Alors : v(y) = v(u(x)) = u(v(x)), qui est bien un élément de Im(u), et Im(u) est stable par v. Soit : λ ∈ Sp(u), et : x ∈ Eλ(u). Alors : u(v(x)) = v(u(x)) = v(λ.x) = λ.v(x), et : v(x) ∈ Eλ(u). Le sous-espace propre Eλ(u) est bien stable par v. Théorème 6.2 : caractérisation des vecteurs propres en termes de droite stable Soit (E,+,.) un K-espace vectoriel, et : u ∈ L(E). Pour tout x non nul dans E, la droite Vect(x) est stable si et seulement si x est vecteur propre de u. Démonstration : Supposons que x soit vecteur propre de u (pour la valeur propre λ). Alors : ∀ x’ = α.x ∈ Vect(x), u(x’) = u(α.x) = α.u(x) = α.λ.x, et : x’ ∈ Vect(x), qui est bien stable par u. Supposons Vect(x) stable par u. Alors : u(x) ∈ Vect(x), et comme {x} constitue une base de Vect(x) : ∃ α ∈ K, u(x) = α.x, ce qui traduit bien le fait que x est vecteur propre de u (pour la valeur α). Théorème 6.3 : traduction matricielle de la stabilité d’un sous-espace vectoriel Soit (E,+,.) un K-espace vectoriel de dimension finie, u ∈ L(E), et F un sous-espace vectoriel de E. Il y a équivalence entre : F est stable par u, A B dans toute base B0 de E adaptée à F, mat(u,B0) = . 0 C Démonstration : Travaillons par double implication. [⇒]. Supposons F stable par u, et considérons une base B0 de E adaptée à F, s’écrivant : B0 = BF ∪ B’. Alors tout vecteur e de BF est tel que u(e) s’écrit comme combinaison linéaire des vecteurs de BF. Il est alors clair que la matrice de u dans B0 est de la forme annoncée. [⇐]. Si la matrice de u dans la base B0 (du type BF ∪ B’) est de la forme proposée, tout vecteur de BF a une image par u qui s’écrit comme combinaison linéaire des vecteurs de BF. Par linéarité, tout vecteur de F a aussi une image par u qui s’écrit comme combinaison linéaire des vecteurs de BF, et F est bien stable par u. Théorème 6.4 : généralisation du théorème 6.3 Soit (E,+,.) un K-espace vectoriel de dimension finie tel que : E = E1 ⊕ E2 ⊕…⊕ Ep, et : u ∈ L(E). Il y a équivalence entre : ∀ 1 ≤ i ≤ p, Ei est stable par u, Chapitre 07 : Réduction d’endomorphismes – Cours complet. - 11 - A1 0 L 0 0 O O M dans toute base B0 adaptée à : E = E1 ⊕ E2 ⊕…⊕ Ep, mat(u,B0) = . M O O 0 0 L 0 A p En particulier dans ce cas, le déterminant de u est le produit des déterminants des p endomorphismes induits par u dans les sous-espaces vectoriels Ei. Démonstration : La démonstration est identique à la démonstration précédente, en travaillant cette fois sur chaque sous- espace vectoriel. Comme par ailleurs, la matrice est diagonale par blocs, le déterminant de mat(u,B) est égal au produit des déterminants des matrices diagonales. Or chaque u induit dans chaque sous-espace Ej vectoriel un endomorphisme dont la matrice dans la base de Ej qui a conduit à la base B0 adaptée à la décomposition, est égale à Aj, donc dont le déterminant vaut det(Aj), d’où le résultat annoncé. Théorème 6.5 : caractérisation des matrices triangulaires supérieures en termes de sous-espaces stables Soit (E,+,.) un K-espace vectoriel de dimension finie n, muni d’une base : B = (e1, …, en), et : u ∈ L(E). Il y a équivalence entre : ∀ 1 ≤ k ≤ n, u stabilise Vect(e1, …, ek), la matrice de u dans B est triangulaire supérieure. Démonstration : Là encore, travaillons par double implication. [⇒]. Si u stabilise chaque sous-espace vectoriel Vect(e1, …, ek), alors : u(ek) ∈ Vect(e1, …, ek), et : ∃ (a1,k, …, ak,k) ∈ Kk, u(ek) = a1,k.e1 + … + ak,k.ek, et il est alors clair que la matrice de u dans la base B est triangulaire supérieure. [⇐]. Si maintenant la matrice de u dans B est triangulaire supérieure, alors : ∀ 1 ≤ k ≤ n, u(ek) ∈ Vect(e1, …, ek), donc : ∀ 1 ≤ j ≤ k ≤ n, u(ej) ∈ Vect(e1, …, ek), et donc : ∀ x ∈ Vect(e1, …, ek), u(x) ∈ Vect(e1, …, ek), par combinaison linéaire. Finalement, Vect(e1, …, ek) est stable par u. 7. Polynômes d’endomorphisme, de matrice carrrée. Définition 7.1 et théorème 7.1 : polynôme d’un endomorphisme, polynôme d’une matrice carrée N Soient (E,+,.) un K-espace vectoriel, u ∈ L(E), et : P = ∑a k =0 k. X k ∈ K[X]. Si A est la matrice représentative de u dans une base B de E, P(A) est la matrice représentative de P(u) dans cette même base B. Démonstration : Puisque les matrices représentatives d’une composée ou d’une combinaison linéaire d’endomorphismes de E sont respectivement le produit ou la combinaison linéaire des matrices représentatives de ces mêmes endomorphismes, le résultat en découle. Théorème 7.2 : stabilité des images et noyau de polynômes d’un endomorphisme par cet endomorphisme Soient (E,+,.) un K-espace vectoriel, u ∈ L(E), et : P ∈ K[X]. Les sous-espaces vectoriels Im(P(u)) et ker(P(u)) sont stables par u. Démonstration : P(u) et u sont des endomorphismes de E qui commutent, du fait de la linéarité de u. Chapitre 07 : Réduction d’endomorphismes – Cours complet. - 12 - N En effet, en notant : P = ∑a k =0 k. X k , on a : P(u) = aN.uN + … + a1.u + a0.idE, et : ∀ x ∈ E, P(u)ou(x) = aN.u (u(x)) + … + a1.u(u(x)) + a0.u(x) = u(aN.uN(x) + … + a1.u(x) + a0.x) = uoP(u)(x). N Donc Im(P(u)) et ker(P(u)) sont stables par u. Théorème 7.3 : correspondance polynôme – polynôme d’endomorphisme, de matrice carrée Soient (E,+,.) un K-espace vectoriel et : u ∈ L(E). ∀ (P,Q) ∈ K[X]2, ∀ (λ,µ) ∈ K2, (λP + µ.Q)(u) = λ.P(u) + µ.Q(u), ∀ (P,Q) ∈ K[X]2, (P.Q)(u) = P(u)oQ(u). N N En particulier, si : P = λ. ∏ ( X − α k ) , alors : P(u) = λ.∏ (u − α k.Id E ) = λ.(u − α 1.Id E ) o... o (u − α N.Id E ). k =1 k =1 Les mêmes résultats sont vrais pour les polynômes de matrices carrées. Démonstration : Soient : (λ,µ) ∈ K2, et P et Q deux éléments de K[X], avec : N N P= ∑ ak.X k , et : Q = k =0 ∑ b.X k =0 k k , où : N = max(deg(P),deg(Q)), et la convention : ∀ deg(P) < k, ak = 0, et : ∀ deg(Q) < k, bk = 0. N k N Alors : (λ.P + µ.Q )(u ) = ∑ k =0 ( λ.a k + µ.bk ). X (u ) = ∑ k =0 (λ.a k + µ.bk ).u k = λ.P(u ) + µ.Q(u ). D’autre part, toujours avec les conventions : ∀ deg(P) < k, ak = 0, et : ∀ deg(Q) < k, bk = 0, on a : 2. N k 2. N k ( P.Q)(u ) = ∑ ∑ ai.bk −i . X k (u ) = ∑ ∑ ai.bk −i .u k . k =0 i =0 k =0 i =0 N N Mais puisque u est linéaire, on peut écrire : ∀ 0 ≤ i ≤ n, u i o ∑ b j.u j = ∑ b j.u i + j , et donc : j =0 j =0 N N N N 2. N N P(u ) o Q(u ) = ∑ ai.u i o ∑ b j.u j = ∑ ai. ∑ b j.u i + j = ∑ ∑ ai.bk −i .u k , i =0 j =0 i =0 j = 0 k =0 i =0 en réarrangeant les termes de la somme obtenue (ce qui donne la deuxième égalité). On en déduit l’égalité voulue. Enfin, si : P = 1, alors : P(u) = idE, et plus généralement : N N si : P = λ. ∏ ( X − α ) , alors : P(u) = λ.∏ (u − α k =1 k k =1 k.Id E ) = λ.(u − α 1.Id E ) o... o (u − α N.Id E ). Définition 7.2 et théorème 7.4 : polynôme annulateur d’un endomorphisme ou d’une matrice carrée Soient (E,+,.) un K-espace vectoriel et : u ∈ L(E). On appelle polynôme annulateur de u un polynôme P de K[X] tel que : P(u) = 0. Si : A ∈ Mn(K), on appelle polynôme annulateur de A un polynôme P de K[X], tel que : P(A) = 0. Si E est de dimension finie et si A représente u dans une base B de E, alors P est annulateur de u si et seulement si P est annulateur de A. De plus, tout endomorphisme u d’un espace vectoriel de dimension finie admet un polynôme annulateur non nul. Démonstration : Si E est de dimension finie et si A représente u dans une base B de E, alors pour tout polynôme P, P(A) est la matrice représentative de P(u) dans B, d’où l’équivalence proposée. De plus, si E est de dimension n, alors la famille (idE, u, …, un²) est de cardinal (n2 + 1) donc est liée dans L(E). Donc : ∃ (a0, a1, …, an²) ∈ Kn², non tous nuls, tels que : a0.idE + a1.u + … + an².un² = 0. Le polynôme : P = a0 + a1.X + … + an².Xn², est alors non nul, annulateur de u. Théorème 7.5 : valeurs propres et polynômes annulateurs Soient (E,+,.) un K-espace vectoriel et : u ∈ L(E). Chapitre 07 : Réduction d’endomorphismes – Cours complet. - 13 - Pour tout polynôme P de K[X], et toute valeur propre λ de u, P(λ) est valeur propre de P(u). En particulier, si P est un polynôme annulateur de u, toute valeur propre de u est racine de P, autrement dit les racines d’un endomorphisme sont toujours racines de tout polynôme annulateur de cet endomorphisme. Démonstration : Soit donc x un vecteur propre de u associé à λ. Puisque : u(x) = λ.x, il est immédiat par récurrence que : ∀ k ∈ , uk(x) = λk.x, et donc : ∀ P ∈ K[X], P(u)(x) = P(λ).x, autrement dit, puisque x est non nul, P(λ) est bien valeur propre de P(u). En particulier, si P est un polynôme annulateur de u, la seule valeur propre de P(u) étant 0 (c’est l’endomorphisme nul), on en déduit que pour toute valeur propre λ de u, P(λ) vaut 0 et λ est racine de P. Théorème 7.6 : de Cayley-Hamilton Soient (E,+,.) un K-espace vectoriel de dimension finie n, et : u ∈ L(E). Le polynôme caractéristique de u est un polynôme annulateur de u. Démonstration (hors programme) : Soit : x ∈ E. Notons par ailleurs χu le polynôme caractéristique de u. Si x est nul, alors : χu(u)(x) = 0, puisque Pu(u) est un endomorphisme de E. Supposons maintenant x non nul. il y a des entiers k tels que la famille {x, u(x), …, uk-1(x)} soit libre. En effet, pour : k = 1, la famille {x} est libre, étant donné que x est non nul. De plus, les familles de type précédent ne peuvent comporter plus de n vecteurs, car : dim(E) = n. Il existe donc un plus grand entier p tel que {x, u(x), …, up-1(x)} soit libre. notons : F = Vect(x, u(x), …, up-1(x)). La famille {x, u(x), …, up-1(x)} est évidemment une base de F, puisqu’elle est libre par construction et génératrice de F par définition de F. De plus, F est stable par u. En effet, tous les vecteurs parmi x, u(x), …, up-2(x) ont évidemment une image par u dans F. Puis {x, u(x), …, up(x)} est liée (par définition de p) et donc : ∃ (a0, …, ap) ∈ Kp+1, non tous nuls, tel que : a0.x + … + ap.up(x) = 0. Or si ap était nul, tous les autres le seraient aussi du fait de la liberté de la famille {x, u(x), …, up-1(x)}. Donc ap est non nul et up(x) peut s’écrire comme combinaison linéaire de u, u(x), …, up-1(x), et donc appartient à F. Il est alors clair que tout vecteur de F (comme combinaison linéaire des vecteurs de la base précédente) a aussi son image par u dans F. notons û l’endomorphisme induit par u dans F. 0 L L 0 α0 1 O M M La matrice de û dans la base précédente de F est : A = 0 O O M M , où la dernière colonne M O O 0 M 0 L 0 1 α p −1 correspond aux coordonnées de up(x) dans la base {x, …, up-1(x)}. Le polynôme caractéristique de û est alors : χû(λ) = [λp – αp-1.λp-1 – … – α0], comme on le montre en développant par exemple le déterminant correspondant par rapport à la dernière colonne. Et dans ce cas : χû(u)(x) = [up(x) – αp-1.up-1(x) – … – α0.x] = 0. considérons enfin une base B obtenue en complétant la base précédente de F en une base de E. A C La matrice de u dans cette base est alors : , puisque F est stable par u. 0 B Le polynôme caractéristique de u est alors : χu(λ) = χû(λ).det(λ.In-p – B) = χû(λ).Q(λ). Donc : χu(u) = χû(u)oQ(u) = Q(u)oχû(u). On constate alors que : χu(u)(x) = Q(u)[χû(u)(x)] = Q(u)(0) = 0. Finalement, on a montré que : ∀ x ∈ E, χu(u)(x) = 0, soit : χu(u) = 0. Chapitre 07 : Réduction d’endomorphismes – Cours complet. - 14 - Remarque : Si : A ∈ Mn(K), alors on peut obtenir Ak, pour tout entier k à l’aide d’une division euclidienne. En effet : ∀ k ∈ , ∃ (Qk,Rk) ∈ K[X]2, Xk = χA.Qk + Rk, deg(Rk) ≤ n – 1, et : ∀ k ∈ , Ak = Rk(A). Démonstration : Pour : k ∈ , il suffit d’effectuer la division euclidienne de Xk par χA qui garantit que : ∃ ! (Qk,Rk) ∈ K[X]2, Xk = χA.Qk + Rk, avec : deg(Rk) < n, et : Ak = χA(A).Qk(A) + Rk(A) = Rk(A), du fait du théorème de Cayley-Hamilton. Théorème 7.7 : caractérisation de la diagonalisabilité à l’aide d’un polynôme annulateur Soit (E,+,.) un K-espace vectoriel de dimension finie n, et : u ∈ L(E). L’endomorphisme u est diagonalisable si et seulement si u admet un polynôme annulateur scindé à racines simples dans K. De même, u est diagonalisable si et seulement si : P = ∏( X − λ ) , est un polynôme annulateur de u. λ∈Sp ( u ) Démonstration (hors programme) : [⇒] Supposons u diagonalisable. Notons D sa matrice dans une base de E formée de vecteurs propres de u. Alors D comporte sur sa diagonale les valeurs propres de u, répétées avec leur multiplicité. Or, pour tout polynôme P de K[X], P(D) est la matrice diagonale qui comporte sur sa diagonale les éléments P(di,i), où di,i sont les éléments diagonaux de D soit les valeurs propres de u. Donc si on prend pour P le polynôme ∏ ( X − λ ) , alors : P(D) = 0, et : P(u) = 0. λ∈Sp ( u ) P est bien annulateur pour u (et c’est un polynôme scindé à racines simples dans K). [⇐] Commençons par démontrer le résultat suivant : « si un polynôme P de K[X] s’écrit : P = (X – α).Q, tel que α ne soit pas racine de Q, alors : ker(P(u)) = ker(u – α.idE) ⊕ ker(Q(u)) ». Soit : x ∈ ker(u – α.idE) ∩ ker(Q(u)). Alors : u(x) = α.x, donc : Q(u)(x) = Q(α).x, en reprenant le principe de la démonstration du théorème 7.5. Or α n’est pas racine de Q donc : x = 0, et les deux noyaux sont en somme directe. D’autre part, puisque α n’est pas racine de Q, les polynômes Q et (X – α) sont premiers entre eux. Donc : ∃ (A,B) ∈ K[X]2, A.(X – α) + B.Q = 1 (égalité de Bézout), et : A(u)o(u – α.idE) + B(u)oQ(u) = idE. Soit alors : x ∈ ker(P(u)). Alors : x = y + z, avec : y = A(u)((u – α.idE)(x)), et : z = B(u)(Q(u)(x)). Dans ce cas : Q(u)(y) = A(u)(Q(u)((u – α.idE)(x))) = A(u)(P(u)(x)) = A(u)(0) = 0, soit : y ∈ ker(Q(u)), et : (u – α.idE)(z) = (u – α.idE)(B(u)(Q(u)(x))) = B(u)(P(u)(x)) = B(u)(0) = 0, soit : z ∈ ker(u – α.idE). Donc : x ∈ ker(u – α.idE) ⊕ ker(Q(u)), soit : ker(P(u)) ⊂ ker(u – α.idE) ⊕ ker(Q(u)). Soit enfin : y ∈ ker(Q(u)), et : z ∈ ker(u – α.idE). Alors : P(u)(y) = (u – α.idE)(Q(u)(y) = (u – α.idE)(0) = 0, et : y ∈ ker(P(u)), de même pour z. Donc : ker(u – α.idE) ⊕ ker(Q(u)) ⊂ ker(P(u)), soit finalement l’égalité. On a donc bien montré le résultat annoncé. Supposons maintenant que u admette un polynôme P annulateur scindé à racines simples dans K. Si P n’est pas normalisé, on le divise par son coefficient dominant et on peut alors supposer que : k P= ∏ ( X − λ ) , où les λ sont distincts deux à deux. i =1 i i Alors : P(u) = 0, et : ker(P(u)) = E. Puisque les valeurs λi sont distinctes deux à deux, par récurrence on constate que : ker(P(u)) = E = ker(u – λ1.idE) ⊕ … ⊕ ker(u – λk.idE). Enfin, si on considère une base de E adaptée à cette somme directe, c’est une base formée de vecteurs propres de u, donc u est diagonalisable. Théorème 7.8 : diagonalisabilité d’un endomorphisme induit par un endomorphisme diagonalisable Soit (E,+,.) un K-espace vectoriel de dimension finie n, et : u ∈ L(E). Chapitre 07 : Réduction d’endomorphismes – Cours complet. - 15 - Soit F un sous-espace vectoriel de E stable par u et û l’endomorphisme induit par u dans F. Si u est diagonalisable, û est aussi diagonalisable. Démonstration : Puisque u est diagonalisable, il existe un polynôme P de K[X], scindé à racines simples dans K, tel que : P(u) = 0. Or cela se traduit par : ∀ x ∈ E, P(u)(x) = 0. Mais on constate alors que : ∀ x ∈ F, P(u)(x) = 0, et comme : ∀ x ∈ F, u(x) = û(x), on en déduit que : ∀ x ∈ F, P(û)(x) = 0, et finalement : P(û) = 0. On vient donc de mettre en évidence un polynôme annulateur de û, scindé à racines simples dans K, et û est donc diagonalisable. Chapitre 07 : Réduction d’endomorphismes – Cours complet. - 16 -