Messenger_creation_9362961733814801.jpeg
Document Details

Uploaded by EverlastingSynergy9009
Full Transcript
# Algèbre Linéaire et Géométrie Vectorielle ## 1. Vecteurs dans $\mathbb{R}^n$ ### Définition d'un vecteur Un vecteur dans $\mathbb{R}^n$ est une liste ordonnée de $n$ nombres réels, représentée par une colonne : $\vec{v} = \begin{bmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{bmatrix}$ où $v_1, v_2...
# Algèbre Linéaire et Géométrie Vectorielle ## 1. Vecteurs dans $\mathbb{R}^n$ ### Définition d'un vecteur Un vecteur dans $\mathbb{R}^n$ est une liste ordonnée de $n$ nombres réels, représentée par une colonne : $\vec{v} = \begin{bmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{bmatrix}$ où $v_1, v_2,..., v_n \in \mathbb{R}$. ### Opérations vectorielles Soient $\vec{u}, \vec{v} \in \mathbb{R}^n$ et $c \in \mathbb{R}$ un scalaire. * **Addition vectorielle :** $\vec{u} + \vec{v} = \begin{bmatrix} u_1 + v_1 \\ u_2 + v_2 \\ \vdots \\ u_n + v_n \end{bmatrix}$ * **Multiplication scalaire :** $c\vec{v} = \begin{bmatrix} cv_1 \\ cv_2 \\ \vdots \\ cv_n \end{bmatrix}$ ### Propriétés des opérations vectorielles Pour tous vecteurs $\vec{u}, \vec{v}, \vec{w} \in \mathbb{R}^n$ et scalaires $a, b \in \mathbb{R}$ : 1. $\vec{u} + \vec{v} = \vec{v} + \vec{u}$ (Commutativité) 2. $(\vec{u} + \vec{v}) + \vec{w} = \vec{u} + (\vec{v} + \vec{w})$ (Associativité) 3. $\vec{u} + \vec{0} = \vec{u}$ (Vecteur nul) 4. $\vec{u} + (-\vec{u}) = \vec{0}$ (Inverse additif) 5. $a(\vec{u} + \vec{v}) = a\vec{u} + a\vec{v}$ (Distributivité scalaire) 6. $(a + b)\vec{u} = a\vec{u} + b\vec{u}$ (Distributivité scalaire) 7. $a(b\vec{u}) = (ab)\vec{u}$ (Associativité scalaire) 8. $1\vec{u} = \vec{u}$ (Identité scalaire) ## 2. Produit Scalaire et Orthogonalité ### Définition du produit scalaire Le produit scalaire (ou produit intérieur) de deux vecteurs $\vec{u}, \vec{v} \in \mathbb{R}^n$ est défini par : $\vec{u} \cdot \vec{v} = u_1v_1 + u_2v_2 +... + u_nv_n = \sum_{i=1}^{n} u_iv_i$ ### Norme d'un vecteur La norme (ou longueur) d'un vecteur $\vec{v} \in \mathbb{R}^n$ est définie par : $\| \vec{v} \| = \sqrt{\vec{v} \cdot \vec{v}} = \sqrt{v_1^2 + v_2^2 +... + v_n^2}$ ### Distance entre deux vecteurs La distance entre deux vecteurs $\vec{u}, \vec{v} \in \mathbb{R}^n$ est définie par : $d(\vec{u}, \vec{v}) = \| \vec{u} - \vec{v} \|$ ### Orthogonalité Deux vecteurs $\vec{u}$ et $\vec{v}$ sont orthogonaux si et seulement si leur produit scalaire est nul : $\vec{u} \cdot \vec{v} = 0$ ### Propriétés du produit scalaire Pour tous vecteurs $\vec{u}, \vec{v}, \vec{w} \in \mathbb{R}^n$ et scalaire $c \in \mathbb{R}$ : 1. $\vec{u} \cdot \vec{v} = \vec{v} \cdot \vec{u}$ (Commutativité) 2. $\vec{u} \cdot (\vec{v} + \vec{w}) = \vec{u} \cdot \vec{v} + \vec{u} \cdot \vec{w}$ (Distributivité) 3. $(c\vec{u}) \cdot \vec{v} = c(\vec{u} \cdot \vec{v})$ (Associativité scalaire) 4. $\vec{v} \cdot \vec{v} \geq 0$, et $\vec{v} \cdot \vec{v} = 0$ si et seulement si $\vec{v} = \vec{0}$ (Positivité) ### Inégalité de Cauchy-Schwarz $|\vec{u} \cdot \vec{v}| \leq \| \vec{u} \| \| \vec{v} \|$ ### Inégalité triangulaire $\| \vec{u} + \vec{v} \| \leq \| \vec{u} \| + \| \vec{v} \|$ ## 3. Espaces Vectoriels et Sous-Espaces ### Définition d'un espace vectoriel Un espace vectoriel sur un corps $\mathbb{K}$ (souvent $\mathbb{R}$ ou $\mathbb{C}$) est un ensemble $V$ muni de deux opérations : * Addition vectorielle : $\vec{u} + \vec{v} \in V$ pour tous $\vec{u}, \vec{v} \in V$ * Multiplication scalaire : $c\vec{v} \in V$ pour tout $\vec{v} \in V$ et $c \in \mathbb{K}$ Ces opérations doivent satisfaire les huit axiomes énumérés précédemment (propriétés des opérations vectorielles). ### Exemples d'espaces vectoriels * $\mathbb{R}^n$ : L'ensemble des vecteurs à $n$ composantes réelles. * $\mathbb{C}^n$ : L'ensemble des vecteurs à $n$ composantes complexes. * $M_{m,n}(\mathbb{R})$ : L'ensemble des matrices $m \times n$ à coefficients réels. * $P_n(\mathbb{R})$ : L'ensemble des polynômes de degré au plus $n$ à coefficients réels. * $C(I)$ : L'ensemble des fonctions continues sur un intervalle $I$. ### Définition d'un sous-espace vectoriel Un sous-ensemble $H$ d'un espace vectoriel $V$ est un sous-espace vectoriel si : 1. $\vec{0} \in H$ (Le vecteur nul est dans $H$) 2. $\vec{u}, \vec{v} \in H \Rightarrow \vec{u} + \vec{v} \in H$ (Fermeture sous l'addition) 3. $c \in \mathbb{K}, \vec{v} \in H \Rightarrow c\vec{v} \in H$ (Fermeture sous la multiplication scalaire) ### Combinaison linéaire Une combinaison linéaire de vecteurs $\vec{v}_1, \vec{v}_2,..., \vec{v}_p$ dans un espace vectoriel $V$ est un vecteur de la forme : $c_1\vec{v}_1 + c_2\vec{v}_2 +... + c_p\vec{v}_p$ où $c_1, c_2,..., c_p \in \mathbb{K}$ sont des scalaires. ### Enveloppe linéaire (Span) L'enveloppe linéaire de vecteurs $\vec{v}_1, \vec{v}_2,..., \vec{v}_p$ dans un espace vectoriel $V$, notée Span{$\vec{v}_1, \vec{v}_2,..., \vec{v}_p$}, est l'ensemble de toutes les combinaisons linéaires possibles de ces vecteurs. Span{$\vec{v}_1, \vec{v}_2,..., \vec{v}_p$} forme un sous-espace vectoriel de $V$. ## 4. Indépendance Linéaire et Bases ### Définition de l'indépendance linéaire Des vecteurs $\vec{v}_1, \vec{v}_2,..., \vec{v}_p$ dans un espace vectoriel $V$ sont linéairement indépendants si l'équation $c_1\vec{v}_1 + c_2\vec{v}_2 +... + c_p\vec{v}_p = \vec{0}$ a seulement la solution triviale $c_1 = c_2 =... = c_p = 0$. Sinon, ils sont linéairement dépendants. ### Définition d'une base Une base d'un espace vectoriel $V$ est un ensemble de vecteurs $\mathcal{B} = \{\vec{b}_1, \vec{b}_2,..., \vec{b}_n\}$ tel que : 1. $\mathcal{B}$ est linéairement indépendant. 2. $V = \text{Span}\{\vec{b}_1, \vec{b}_2,..., \vec{b}_n\}$ ( $\mathcal{B}$ engendre $V$). ### Dimension d'un espace vectoriel La dimension d'un espace vectoriel $V$, notée $\dim(V)$, est le nombre de vecteurs dans une base de $V$. Si $V$ admet une base finie, on dit que $V$ est de dimension finie. ### Théorèmes importants * **Théorème de la base incomplète :** Si $V$ est un espace vectoriel de dimension finie, tout ensemble linéairement indépendant de vecteurs de $V$ peut être complété pour former une base de $V$. * **Théorème de la dimension :** Si $H$ est un sous-espace vectoriel d'un espace vectoriel de dimension finie $V$, alors $\dim(H) \leq \dim(V)$. De plus, si $\dim(H) = \dim(V)$, alors $H = V$. ## 5. Applications Linéaires ### Définition d'une application linéaire Une application linéaire (ou transformation linéaire) est une fonction $T: V \rightarrow W$ entre deux espaces vectoriels $V$ et $W$ qui satisfait : 1. $T(\vec{u} + \vec{v}) = T(\vec{u}) + T(\vec{v})$ pour tous $\vec{u}, \vec{v} \in V$. 2. $T(c\vec{v}) = cT(\vec{v})$ pour tout $\vec{v} \in V$ et scalaire $c$. ### Noyau et image d'une application linéaire * **Noyau (Kernel) :** Le noyau de $T$, noté $\text{Ker}(T)$, est l'ensemble des vecteurs de $V$ qui sont envoyés sur le vecteur nul de $W$ : $\text{Ker}(T) = \{\vec{v} \in V \mid T(\vec{v}) = \vec{0}\}$ $\text{Ker}(T)$ est un sous-espace vectoriel de $V$. * **Image (Image) :** L'image de $T$, notée $\text{Im}(T)$, est l'ensemble des vecteurs de $W$ qui sont l'image d'au moins un vecteur de $V$ : $\text{Im}(T) = \{\vec{w} \in W \mid \exists \vec{v} \in V \text{ tel que } T(\vec{v}) = \vec{w}\}$ $\text{Im}(T)$ est un sous-espace vectoriel de $W$. ### Théorème du rang Pour une application linéaire $T: V \rightarrow W$ où $V$ est de dimension finie, on a : $\dim(\text{Ker}(T)) + \dim(\text{Im}(T)) = \dim(V)$ $\dim(\text{Ker}(T))$ est appelé la nullité de $T$, et $\dim(\text{Im}(T))$ est appelé le rang de $T$. ### Matrice d'une application linéaire Étant donné une application linéaire $T: V \rightarrow W$ et des bases $\mathcal{B}$ de $V$ et $\mathcal{C}$ de $W$, on peut représenter $T$ par une matrice $A$ telle que : $[T(\vec{v})]_{\mathcal{C}} = A[\vec{v}]_{\mathcal{B}}$ où $[\vec{v}]_{\mathcal{B}}$ et $[T(\vec{v})]_{\mathcal{C}}$ sont les vecteurs de coordonnées de $\vec{v}$ et $T(\vec{v})$ dans les bases $\mathcal{B}$ et $\mathcal{C}$, respectivement. ## 6. Valeurs Propres et Vecteurs Propres ### Définition des valeurs propres et vecteurs propres Soit $A$ une matrice carrée $n \times n$. Un scalaire $\lambda$ est une valeur propre de $A$ s'il existe un vecteur non nul $\vec{v} \in \mathbb{R}^n$ tel que : $A\vec{v} = \lambda\vec{v}$ Le vecteur $\vec{v}$ est appelé vecteur propre associé à la valeur propre $\lambda$. ### Polynôme caractéristique Pour trouver les valeurs propres de $A$, on résout l'équation caractéristique : $\text{det}(A - \lambda I) = 0$ où $I$ est la matrice identité $n \times n$. Le polynôme $\text{det}(A - \lambda I)$ est appelé le polynôme caractéristique de $A$. ### Espace propre L'espace propre associé à une valeur propre $\lambda$ est l'ensemble des vecteurs propres associés à $\lambda$, augmenté du vecteur nul : $E_{\lambda} = \{\vec{v} \in \mathbb{R}^n \mid A\vec{v} = \lambda\vec{v}\}$ $E_{\lambda}$ est un sous-espace vectoriel de $\mathbb{R}^n$. ### Diagonalisation Une matrice $A$ est diagonalisable s'il existe une matrice inversible $P$ et une matrice diagonale $D$ telles que : $A = PDP^{-1}$ où les colonnes de $P$ sont des vecteurs propres linéairement indépendants de $A$, et les éléments diagonaux de $D$ sont les valeurs propres correspondantes. ### Critères de diagonalisabilité Une matrice $A$ est diagonalisable si et seulement si la somme des dimensions de ses espaces propres est égale à la dimension de l'espace vectoriel ambient (généralement $\mathbb{R}^n$).