Full Transcript

# Capítulo 4 Espacios Vectoriales ## 4.1 Espacios Vectoriales Axiomas ### Definición 4.1 Un **espacio vectorial** es un conjunto no vacío $V$ de objetos, llamados vectores, en el cual se han definido dos operaciones, llamadas **adición** y **multiplicación escalar** (multiplicación por un escalar...

# Capítulo 4 Espacios Vectoriales ## 4.1 Espacios Vectoriales Axiomas ### Definición 4.1 Un **espacio vectorial** es un conjunto no vacío $V$ de objetos, llamados vectores, en el cual se han definido dos operaciones, llamadas **adición** y **multiplicación escalar** (multiplicación por un escalar), que satisfacen los diez axiomas siguientes. #### Axiomas 1. Si $\mathbf{u}$ y $\mathbf{v}$ son objetos en $V$, entonces $\mathbf{u} + \mathbf{v}$ está en $V$. 2. $\mathbf{u} + \mathbf{v} = \mathbf{v} + \mathbf{u}$ 3. $\mathbf{u} + (\mathbf{v} + \mathbf{w}) = (\mathbf{u} + \mathbf{v}) + \mathbf{w}$ 4. Existe un vector $\mathbf{0}$ en $V$ tal que $\mathbf{u} + \mathbf{0} = \mathbf{u}$ para todo $\mathbf{u}$ en $V$. 5. Para cada $\mathbf{u}$ en $V$, existe un vector $-\mathbf{u}$ en $V$ tal que $\mathbf{u} + (-\mathbf{u}) = \mathbf{0}$. 6. Si $k$ es cualquier escalar y $\mathbf{u}$ es un objeto en $V$, entonces $k\mathbf{u}$ está en $V$. 7. $k(\mathbf{u} + \mathbf{v}) = k\mathbf{u} + k\mathbf{v}$ 8. $(k + m)\mathbf{u} = k\mathbf{u} + m\mathbf{u}$ 9. $k(m\mathbf{u}) = (km)\mathbf{u}$ 10. $1\mathbf{u} = \mathbf{u}$ ### Definición 4.2 Sea $V$ un espacio vectorial y sea $W$ un subconjunto no vacío de $V$. Si $W$ es un espacio vectorial bajo las operaciones de adición y multiplicación escalar definidas en $V$, entonces se dice que $W$ es un **subespacio** de $V$. #### Teorema 4.1 Si $W$ es un conjunto de uno o más vectores de un espacio vectorial $V$, entonces $W$ es un subespacio de $V$ si y sólo si se cumplen las dos condiciones siguientes: 1. Si $\mathbf{u}$ y $\mathbf{v}$ están en $W$, entonces $\mathbf{u} + \mathbf{v}$ está en $W$. 2. Si $k$ es cualquier escalar y $\mathbf{u}$ está en $W$, entonces $k\mathbf{u}$ está en $W$. ## 4.2 Combinaciones Lineales y Espacio Generado ### Definición 4.3 Un vector $\mathbf{w}$ se dice que es una **combinación lineal** de los vectores $\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_r$ si puede expresarse en la forma $\mathbf{w} = k_1\mathbf{v}_1 + k_2\mathbf{v}_2 + \dots + k_r\mathbf{v}_r$ donde $k_1, k_2, \dots, k_r$ son escalares. ### Definición 4.4 Si $\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_r$ son vectores en un espacio vectorial $V$, y si todo vector en $V$ puede expresarse como una combinación lineal de $\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_r$, entonces se dice que estos vectores **generan** a $V$. ### Definición 4.5 Si $\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_r$ son vectores en un espacio vectorial $V$, entonces el **espacio generado** por $\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_r$ es el subespacio de $V$ que consiste en todas las combinaciones lineales de $\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_r$. #### Teorema 4.2 Si $\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_r$ son vectores en un espacio vectorial $V$, entonces el espacio generado por $\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_r$ es un subespacio de $V$. ## 4.3 Independencia Lineal ### Definición 4.6 Si $S = \{\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_r\}$ es un conjunto de vectores, entonces la ecuación $k_1\mathbf{v}_1 + k_2\mathbf{v}_2 + \dots + k_r\mathbf{v}_r = \mathbf{0}$ se cumple si $k_1 = k_2 = \dots = k_r = 0$; si existen otras soluciones, entonces se dice que $S$ es un **conjunto linealmente dependiente**. ### Definición 4.7 Si $S = \{\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_r\}$ es un conjunto de vectores, entonces se dice que $S$ es un **conjunto linealmente independiente** si la ecuación $k_1\mathbf{v}_1 + k_2\mathbf{v}_2 + \dots + k_r\mathbf{v}_r = \mathbf{0}$ se cumple sólo si $k_1 = k_2 = \dots = k_r = 0$. #### Teorema 4.3 Si $S = \{\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_r\}$ es un conjunto de vectores, entonces $S$ es linealmente dependiente si y sólo si al menos uno de los vectores en $S$ puede expresarse como una combinación lineal de los otros. ## 4.4 Base y Dimensión ### Definición 4.8 Si $V$ es cualquier espacio vectorial y $S = \{\mathbf{v}_1, \mathbf{v}_2, \dots, \mathbf{v}_n\}$ es un conjunto de vectores en $V$, entonces $S$ se llama **base** para $V$ si se cumplen las siguientes condiciones: 1. $S$ es linealmente independiente. 2. $S$ genera a $V$. ### Definición 4.9 La **dimensión** de un espacio vectorial $V$ se define como el número de vectores en una base para $V$. Además, se dice que el espacio vectorial $\mathbf{0}$ tiene dimensión cero. #### Teorema 4.4 Si $V$ es un espacio vectorial de dimensión finita, entonces todos las bases de $V$ tienen el mismo número de vectores. #### Teorema 4.5 Sea $V$ un espacio vectorial de dimensión $n$, y sea $S$ un conjunto de $n$ vectores en $V$. Entonces, $S$ es una base para $V$ si y sólo si $S$ es linealmente independiente o $S$ genera a $V$. ## 4.5 Rango, Nulidad, Espacio de los renglones y Espacio de las columnas de una matriz ### Definición 4.10 El **espacio de los renglones** de $A$ es el subespacio de $R^n$ generado por los vectores renglón de $A$, y el **espacio de las columnas** de $A$ es el subespacio de $R^m$ generado por los vectores columna de $A$. ### Definición 4.11 El **rango** de $A$ se define como la dimensión del espacio de los renglones de $A$, y la **nulidad** de $A$ se define como la dimensión del espacio nulo de $A$. #### Teorema 4.6 Si $A$ y $B$ son matrices equivalentes por renglones, entonces: 1. Los espacios nulos de $A$ y $B$ son iguales. 2. Los espacios de los renglones de $A$ y $B$ son iguales. 3. Los vectores renglón diferentes de cero en la forma escalonada reducida por renglones de $A$ forman una base para el espacio de los renglones de $A$. #### Teorema 4.7 El rango de una matriz $A$ es igual al número de variables principales (variables principales) en la solución general de $A\mathbf{x} = \mathbf{0}$. #### Teorema 4.8 Si $A$ es una matriz de $m \times n$, entonces el rango de $A$ más la nulidad de $A$ es igual a $n$. #### Teorema 4.9 Si $A$ es una matriz de $m \times n$, entonces el rango de $A$ es igual a la dimensión del espacio de las columnas de $A$. ### Definición 4.12 Si $A$ es una matriz de $m \times n$, entonces el **espacio nulo** de $A$ es el conjunto de todas las soluciones del sistema homogéneo $A\mathbf{x} = \mathbf{0}$. ## 4.6 Transformaciones Lineales ### Definición 4.13 Una **transformación lineal** es una función $T: V \rightarrow W$ que satisface las siguientes condiciones para todos los vectores $\mathbf{u}$ y $\mathbf{v}$ en $V$ y todos los escalares $k$: 1. $T(\mathbf{u} + \mathbf{v}) = T(\mathbf{u}) + T(\mathbf{v})$ 2. $T(k\mathbf{u}) = kT(\mathbf{u})$ ### Definición 4.14 Si $T: V \rightarrow W$ es una transformación lineal, entonces el **núcleo** (o kernel) de $T$ es el conjunto de todos los vectores $\mathbf{u}$ en $V$ tales que $T(\mathbf{u}) = \mathbf{0}$, y la **imagen** (o rango) de $T$ es el conjunto de todos los vectores $\mathbf{w}$ en $W$ tales que $\mathbf{w} = T(\mathbf{u})$ para algún vector $\mathbf{u}$ en $V$. #### Teorema 4.10 Si $T: V \rightarrow W$ es una transformación lineal, entonces: 1. El núcleo de $T$ es un subespacio de $V$. 2. La imagen de $T$ es un subespacio de $W$. ### Definición 4.15 Si $T: V \rightarrow W$ es una transformación lineal, entonces la **nulidad** de $T$ se define como la dimensión del núcleo de $T$, y el **rango** de $T$ se define como la dimensión de la imagen de $T$. #### Teorema 4.11 Si $T: V \rightarrow W$ es una transformación lineal, y si $V$ tiene dimensión finita, entonces $\text{rango}(T) + \text{nulidad}(T) = \text{dim}(V)$ ### Definición 4.16 Si $T: V \rightarrow W$ es una transformación lineal, entonces se dice que $T$ es **uno a uno** (o inyectiva) si $T(\mathbf{u}) = T(\mathbf{v})$ implica que $\mathbf{u} = \mathbf{v}$. ### Definición 4.17 Si $T: V \rightarrow W$ es una transformación lineal, entonces se dice que $T$ es **sobre** (o suprayectiva) si la imagen de $T$ es igual a $W$. #### Teorema 4.12 Si $T: V \rightarrow W$ es una transformación lineal, y si $V$ y $W$ tienen dimensión finita, entonces $T$ es uno a uno si y sólo si la nulidad de $T$ es cero. #### Teorema 4.13 Si $T: V \rightarrow W$ es una transformación lineal, y si $V$ y $W$ tienen dimensión finita, entonces $T$ es sobre si y sólo si el rango de $T$ es igual a la dimensión de $W$. ## 4.7 Matrices de Transformaciones Lineales ### Teorema 4.14 Sea $T: V \rightarrow W$ una transformación lineal, donde $V$ es un espacio vectorial de dimensión finita $n$ y $W$ es un espacio vectorial de dimensión finita $m$. Si $B$ es una base para $V$ y $B'$ es una base para $W$, entonces existe una matriz $A$ de $m \times n$ tal que $[T(\mathbf{x})]_{B'} = A[\mathbf{x}]_B$ para todo $\mathbf{x}$ en $V$. La matriz $A$ se llama la **matriz de $T$ relativa a las bases $B$ y $B'$**. ### Teorema 4.15 Sea $T: R^n \rightarrow R^m$ una transformación lineal. Entonces, existe una matriz $A$ de $m \times n$ tal que $T(\mathbf{x}) = A\mathbf{x}$ para todo $\mathbf{x}$ en $R^n$. La matriz $A$ se llama la **matriz estándar** para $T$. ## 4.8 Isomorfismo ### Definición 4.18 Si $T: V \rightarrow W$ es una transformación lineal que es uno a uno y sobre, entonces se dice que $T$ es un **isomorfismo**, y se dice que los espacios vectoriales $V$ y $W$ son **isomorfos**. ### Teorema 4.16 Si $V$ y $W$ son espacios vectoriales de dimensión finita, entonces $V$ y $W$ son isomorfos si y sólo si tienen la misma dimensión.