Full Transcript

# Algèbre Linéaire et Applications ## Chapitre 1 : Algèbre Matricielle ### 1.1 Introduction Ce chapitre traite de l'algèbre matricielle, un outil essentiel dans de nombreux domaines tels que l'ingénierie, l'économie, les statistiques et l'informatique. Nous définirons les matrices, les opérations...

# Algèbre Linéaire et Applications ## Chapitre 1 : Algèbre Matricielle ### 1.1 Introduction Ce chapitre traite de l'algèbre matricielle, un outil essentiel dans de nombreux domaines tels que l'ingénierie, l'économie, les statistiques et l'informatique. Nous définirons les matrices, les opérations matricielles et leurs propriétés. ### 1.2 Définitions et Notations **Définition 1.1:** Une matrice $A$ de taille $m \times n$ est un tableau rectangulaire de scalaires (nombres réels ou complexes) disposés en $m$ lignes et $n$ colonnes. On la note : $A = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{bmatrix}$ où $a_{ij}$ représente l'élément situé à la $i$-ème ligne et $j$-ème colonne de $A$. **Notation:** - $M_{m,n}(\mathbb{R})$ : ensemble des matrices de taille $m \times n$ à coefficients réels. - $M_{m,n}(\mathbb{C})$ : ensemble des matrices de taille $m \times n$ à coefficients complexes. - Si $m = n$, on parle de matrice carrée d'ordre $n$ et on note $M_n(\mathbb{R})$ ou $M_n(\mathbb{C})$. **Exemples:** 1. $A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \in M_2(\mathbb{R})$ est une matrice carrée d'ordre 2. 2. $B = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix} \in M_{2,3}(\mathbb{R})$ est une matrice de taille $2 \times 3$. 3. $C = \begin{bmatrix} 1+i & 2 \\ 3 & 4-i \end{bmatrix} \in M_2(\mathbb{C})$ est une matrice carrée d'ordre 2 à coefficients complexes. ### 1.3 Opérations sur les Matrices #### 1.3.1 Addition Matricielle **Définition 1.2:** Soient $A, B \in M_{m,n}(\mathbb{R})$ (ou $M_{m,n}(\mathbb{C})$). La somme de $A$ et $B$, notée $A + B$, est une matrice de taille $m \times n$ définie par : $(A + B)_{ij} = a_{ij} + b_{ij}$ pour tout $i, j$. **Exemple:** $A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix}$, $B = \begin{bmatrix} 5 & 6 \\ 7 & 8 \end{bmatrix}$ $A + B = \begin{bmatrix} 1+5 & 2+6 \\ 3+7 & 4+8 \end{bmatrix} = \begin{bmatrix} 6 & 8 \\ 10 & 12 \end{bmatrix}$ #### 1.3.2 Multiplication par un Scalaire **Définition 1.3:** Soit $A \in M_{m,n}(\mathbb{R})$ (ou $M_{m,n}(\mathbb{C})$) et $\alpha \in \mathbb{R}$ (ou $\mathbb{C}$). Le produit de $A$ par le scalaire $\alpha$, noté $\alpha A$, est une matrice de taille $m \times n$ définie par : $(\alpha A)_{ij} = \alpha a_{ij}$ pour tout $i, j$. **Exemple:** $A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix}$, $\alpha = 2$ $\alpha A = 2 \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} = \begin{bmatrix} 2 & 4 \\ 6 & 8 \end{bmatrix}$ #### 1.3.3 Multiplication Matricielle **Définition 1.4:** Soient $A \in M_{m,n}(\mathbb{R})$ et $B \in M_{n,p}(\mathbb{R})$. Le produit de $A$ et $B$, noté $AB$, est une matrice de taille $m \times p$ définie par : $(AB)_{ij} = \sum_{k=1}^{n} a_{ik} b_{kj}$ pour tout $i = 1, \dots, m$ et $j = 1, \dots, p$. **Remarque:** Le produit $AB$ n'est défini que si le nombre de colonnes de $A$ est égal au nombre de lignes de $B$. **Exemple:** $A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix}$, $B = \begin{bmatrix} 5 & 6 \\ 7 & 8 \end{bmatrix}$ $AB = \begin{bmatrix} (1 \times 5) + (2 \times 7) & (1 \times 6) + (2 \times 8) \\ (3 \times 5) + (4 \times 7) & (3 \times 6) + (4 \times 8) \end{bmatrix} = \begin{bmatrix} 19 & 22 \\ 43 & 50 \end{bmatrix}$ #### 1.3.4 Transposition Matricielle **Définition 1.5:** Soit $A \in M_{m,n}(\mathbb{R})$. La transposée de $A$, notée $A^T$, est une matrice de taille $n \times m$ définie par: $(A^T)_{ij} = a_{ji}$ pour tout $i, j$. En d'autres termes, les lignes de $A$ deviennent les colonnes de $A^T$ et vice versa. **Exemple:** $A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \\ 5 & 6 \end{bmatrix}$ $A^T = \begin{bmatrix} 1 & 3 & 5 \\ 2 & 4 & 6 \end{bmatrix}$ ### 1.4 Propriétés des Opérations Matricielles #### 1.4.1 Propriétés de l'Addition Matricielle 1. **Commutativité:** $A + B = B + A$ pour toutes matrices $A, B \in M_{m,n}(\mathbb{R})$. 2. **Associativité:** $(A + B) + C = A + (B + C)$ pour toutes matrices $A, B, C \in M_{m,n}(\mathbb{R})$. 3. **Élément neutre:** Il existe une matrice nulle $0 \in M_{m,n}(\mathbb{R})$ telle que $A + 0 = A$ pour toute matrice $A \in M_{m,n}(\mathbb{R})$. 4. **Élément opposé:** Pour toute matrice $A \in M_{m,n}(\mathbb{R})$, il existe une matrice $-A \in M_{m,n}(\mathbb{R})$ telle que $A + (-A) = 0$. #### 1.4.2 Propriétés de la Multiplication par un Scalaire 1. **Distributivité par rapport à l'addition matricielle:** $\alpha(A + B) = \alpha A + \alpha B$ pour tout scalaire $\alpha$ et toutes matrices $A, B \in M_{m,n}(\mathbb{R})$. 2. **Distributivité par rapport à l'addition scalaire:** $(\alpha + \beta)A = \alpha A + \beta A$ pour tous scalaires $\alpha, \beta$ et toute matrice $A \in M_{m,n}(\mathbb{R})$. 3. **Associativité:** $\alpha(\beta A) = (\alpha \beta)A$ pour tous scalaires $\alpha, \beta$ et toute matrice $A \in M_{m,n}(\mathbb{R})$. 4. **Élément neutre:** $1 \cdot A = A$ pour toute matrice $A \in M_{m,n}(\mathbb{R})$. #### 1.4.3 Propriétés de la Multiplication Matricielle 1. **Associativité:** $(AB)C = A(BC)$ pour toutes matrices $A \in M_{m,n}(\mathbb{R})$, $B \in M_{n,p}(\mathbb{R})$, $C \in M_{p,q}(\mathbb{R})$. 2. **Distributivité à gauche:** $A(B + C) = AB + AC$ pour toutes matrices $A \in M_{m,n}(\mathbb{R})$, $B, C \in M_{n,p}(\mathbb{R})$. 3. **Distributivité à droite:** $(A + B)C = AC + BC$ pour toutes matrices $A, B \in M_{m,n}(\mathbb{R})$, $C \in M_{n,p}(\mathbb{R})$. 4. **Non-commutativité:** En général, $AB \neq BA$. 5. **Élément neutre:** La matrice identité $I_n \in M_n(\mathbb{R})$ est telle que $AI_n = A$ pour toute matrice $A \in M_{m,n}(\mathbb{R})$ et $I_mA = A$ pour toute matrice $A \in M_{n,m}(\mathbb{R})$, où $I_n$ est une matrice carrée d'ordre $n$ avec des 1 sur la diagonale principale et des 0 ailleurs. #### 1.4.4 Propriétés de la Transposition Matricielle 1. $(A^T)^T = A$ pour toute matrice $A \in M_{m,n}(\mathbb{R})$. 2. $(A + B)^T = A^T + B^T$ pour toutes matrices $A, B \in M_{m,n}(\mathbb{R})$. 3. $(\alpha A)^T = \alpha A^T$ pour tout scalaire $\alpha$ et toute matrice $A \in M_{m,n}(\mathbb{R})$. 4. $(AB)^T = B^T A^T$ pour toutes matrices $A \in M_{m,n}(\mathbb{R})$ et $B \in M_{n,p}(\mathbb{R})$. ### 1.5 Types de Matrices Plusieurs types de matrices ont des propriétés particulières qui méritent d'être mentionnées : 1. **Matrice carrée:** Une matrice $A \in M_{n,n}(\mathbb{R})$ est dite carrée d'ordre $n$. 2. **Matrice diagonale:** Une matrice carrée $A$ est diagonale si $a_{ij} = 0$ pour tout $i \neq j$. On la note $diag(a_{11}, a_{22}, \dots, a_{nn})$. 3. **Matrice identité:** La matrice identité $I_n$ est une matrice diagonale avec tous les éléments diagonaux égaux à 1. 4. **Matrice triangulaire supérieure:** Une matrice carrée $A$ est triangulaire supérieure si $a_{ij} = 0$ pour tout $i > j$. 5. **Matrice triangulaire inférieure:** Une matrice carrée $A$ est triangulaire inférieure si $a_{ij} = 0$ pour tout $i < j$. 6. **Matrice symétrique:** Une matrice carrée $A$ est symétrique si $A^T = A$, c'est-à-dire $a_{ij} = a_{ji}$ pour tout $i, j$. 7. **Matrice antisymétrique:** Une matrice carrée $A$ est antisymétrique si $A^T = -A$, c'est-à-dire $a_{ij} = -a_{ji}$ pour tout $i, j$. En particulier, les éléments diagonaux d'une matrice antisymétrique sont nuls. 8. **Matrice orthogonale:** Une matrice carrée $A$ est orthogonale si $A^T A = A A^T = I_n$. ### 1.6 Exercices 1. Soient $A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix}$ et $B = \begin{bmatrix} 5 & 6 \\ 7 & 8 \end{bmatrix}$. Calculer $A + B$, $2A$, $AB$ et $A^T$. 2. Soit $A = \begin{bmatrix} 1 & 0 & 2 \\ 0 & 1 & 1 \\ 2 & 1 & 3 \end{bmatrix}$. Vérifier si $A$ est symétrique. 3. Montrer que si $A$ est une matrice carrée, alors $A + A^T$ est symétrique et $A - A^T$ est antisymétrique. 4. Soient $A$ et $B$ deux matrices carrées d'ordre $n$. Montrer que $(AB)^T = B^T A^T$. 5. Soit $A = \begin{bmatrix} cos(\theta) & -sin(\theta) \\ sin(\theta) & cos(\theta) \end{bmatrix}$. Montrer que $A$ est une matrice orthogonale.