Document Details

MatureBugle

Uploaded by MatureBugle

Udelar

Gabriel Iglesias, Mateo Viñales, Nahuel Alonzo, Bautista Tiscordio

Tags

linear transformations matrix algebra vector spaces mathematics

Summary

This document is a summary of a course, specifically covering topics in linear algebra, such as transformations, matrices, and vector spaces. It appears to be lecture notes or study materials rather than exam questions.

Full Transcript

-Los círculos de Guerberoff- SE SALVA GAL 2 CARAJO By: Gabriel Iglesias, Mateo Viñales, Nahuel Alonzo, Bautista Tiscordio. Matriz asociada a una transformación lineal: Propiedades: 1. 𝐶𝑜𝑜𝑟𝑑𝐵 𝑇(𝑣) = 𝑏(𝑇)𝑎 𝐶𝑜𝑜𝑟𝑑𝐴 (𝑣) 2. 𝑏(𝑇 + 𝑆)𝑎 = 𝑏(𝑇)𝑎 + 𝑏(𝑆)𝑎 3. 𝑏(𝛼...

-Los círculos de Guerberoff- SE SALVA GAL 2 CARAJO By: Gabriel Iglesias, Mateo Viñales, Nahuel Alonzo, Bautista Tiscordio. Matriz asociada a una transformación lineal: Propiedades: 1. 𝐶𝑜𝑜𝑟𝑑𝐵 𝑇(𝑣) = 𝑏(𝑇)𝑎 𝐶𝑜𝑜𝑟𝑑𝐴 (𝑣) 2. 𝑏(𝑇 + 𝑆)𝑎 = 𝑏(𝑇)𝑎 + 𝑏(𝑆)𝑎 3. 𝑏(𝛼𝑇)𝑎 = 𝛼𝑏(𝑇)𝑎, 𝛼 ∈ 𝐾 DEFINICIÓN: Operador lineal. Cuando una transformación lineal va desde un espacio vectorial en si mismo se llama operador lineal. 𝑇: 𝑉 → 𝑉 Cambio de bases: Cuando se tienen dos bases distintas se cumple la siguiente relación: 𝑏̃(𝑇)𝑎̃ = 𝑏̃ (𝐼𝑑)𝑏 𝑏(𝑇)𝑎 𝑎(𝐼𝑑)𝑎̃ 𝑏̃(𝐼𝑑)𝑏 y 𝑎(𝐼𝑑)𝑎̃ son matrices de cambio de base. Las matrices de cambio de base se arman colgando los vectores de a como combinación lineal de 𝑎̃. DEFINICIÓN: Matriz invertible. Sean 𝐴, 𝐵 ∈ 𝑀𝑛𝑥𝑛. Entonces A y B son semejantes si y solo si: ∃ 𝑃 ∈ 𝑀𝑛𝑥𝑛 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑙𝑒 ∶ 𝐵 = 𝑃−1 𝐴𝑃 TEOREMA: Si A, B son matrices semejantes entonces: 1. Rango(A) = Rango(B) 2. Traza(A) = Traza(B) 3. Det(A) = Det(B) DEFINICIÓN: Vector propio. Sea V un espacio vectorial sobre K. Un vector propio de T asociado al valor propio es un 𝑣 ∈ 𝑉, 𝑣 ≠ 0 ∶ 𝑇(𝑣) = 𝜆𝑣 DEFINICIÓN: Subespacio propio. Dado un T operador lineal, 𝜆 valor propio, un subespacio propio asociado al valor propio de 𝜆: 𝑆𝜆 = {𝑣 ∈ 𝑉 ∶ 𝑇(𝑣) = 𝜆𝑣} LEMA: 𝑆𝜆 es un subespacio vectorial de V. OBSERVACIÓN: 𝑆𝜆 = 𝑁(𝑇 − 𝜆𝐼𝑑) PROPOSICIÓN: (Como hallar un subespacio propio) v (x1, x2, … , xn) es vector propio de T, si y solo si es solución no trivial del siguiente sistema: 𝑥1 0 (𝐴 − 𝜆𝐼𝑑) 𝑥2 = 0 … … ( ) (0) 𝑥𝑛 COROLARIO: (Como hallar un valor propio) Se cumple que 𝜆 es un valor propio de T si y solo si 𝐷𝑒𝑡(𝐴 − 𝜆𝐼𝑑) = 0. Las soluciones de dicha ecuación se llaman raíces características de A, y componen la ecuación característica. LEMA: Si A, B son matrices semejantes, entonces tienen los mismos valores propios. OBSERVACIÓN: No se cumple el recíproco. DEFINICIÓN: Matriz diagonalizable. 𝑏 Sea 𝑇: 𝑉 → 𝑉, entonces esta es diagonalizable si ∃ 𝐵 → 𝑉 ∶ 𝑏(𝑇)𝑏 es una matriz diagonal. TEOREMA: (IMPORTANTE) 𝑏 𝑇: 𝑉 → 𝑉 es diagonalizable ↔ ∃ 𝐵 → 𝑉 formada por vectores propios de T. OBSERVACIÓN: La forma diagonal es única, los únicos cambios posibles son la variación en el orden de los valores propios. TEOREMA: 𝑇: 𝑉 → 𝑉 operador lineal. Sean 𝜆1 , 𝜆2 , … , 𝜆𝑛 valores propios distintos y 𝑣1 , 𝑣2 , … , 𝑣𝑛 vectores propios asociados a cada valor propio. Entonces: {𝑣1 , 𝑣2 , … , 𝑣𝑛 } es un conjunto L.I COROLARIO: (IMPORTANTE) Si 𝐷𝑖𝑚(𝑉) = 𝑛 𝑦 𝑇: 𝑉 → 𝑉 tiene n valores propios distintos, entonces T es diagonalizable. LEMA: La suma de subespacios propios asociados a valores propios distintos es suma directa. PROPOSICIÓN 𝐷𝑖𝑚(𝑉) = 𝑛, 𝑇: 𝑉 → 𝑉, 𝜆1 , 𝜆2 , … , 𝜆𝑟 valores propios de T. Entonces es equivalente: 1. T es diagonalizable. 2. 𝑉 = 𝑆𝜆1 ⊕ 𝑆𝜆2 ⊕ … ⊕ 𝑆𝜆𝑟 3. dim(𝑆𝜆1 ) + dim(𝑆𝜆2 ) + ⋯ + dim(𝑆𝜆𝑟 ) = 𝑛 DEFINICIÓN: Multiplicidad algebraica y multiplicidad geométrica. 𝐷𝑖𝑚(𝑉) = 𝑛, 𝑇: 𝑉 → 𝑉, 𝜆 valor propio de T, entonces: Multiplicidad algebraica de 𝜆. ma(𝜆): multiplicidad de 𝜆 como raíz del polinomio característico. Multiplicidad geométrica de 𝜆. mg(𝜆) = dim (𝑆𝜆 ) PROPOSICIÓN: Si 𝜆 es valor propio de T entonces: 1 ≤ 𝑚𝑔(𝜆) ≤ 𝑚𝑎(𝜆) ≤ 𝑛 COROLARIO: (IMPORTANTE) 𝑇: 𝑉 → 𝑉 es diagonalizable ↔ toda raíz 𝜆 del polinomio característico está en K y cumple que 𝑚𝑔(𝜆) = 𝑚𝑎(𝜆) TEOREMA DE GERSHGORIN: Dado 𝐴 ∈ 𝑀𝑛𝑥𝑛 (ℂ): 1. Si 𝜆 es valor propio de A entonces: 𝜆 ∈ ⋃𝑛𝑖=1 𝐶𝑖 2. Si el conjunto 𝑀 = 𝐶𝑖1 ∪ 𝐶𝑖2 ∪ … ∪ 𝐶𝑖𝑛 es disjunto de los restantes discos, entonces en M hay exactamente n valores propios (contados con su multiplicidad). Se tiene un círculo de Gershgorin por fila, donde el centro del mismo es el término que ocupa la diagonal, y el radio es la suma de los términos restantes en la fila. OBSERVACIÓN: Si no se encuentra un valor propio en 𝑁(𝑇 − 𝜆𝐼𝑑), entonces se debe buscar en 𝑁(𝑇 − 𝜆𝐼𝑑)2 y así sucesivamente, debido a que se cumple: 𝑁(𝑇) ⊆ 𝑁(𝑇 2 ) … ⊆ 𝑁(𝑇 𝑛 ) DEFINICIÓN: Subespacio invariante. Dado 𝑇: 𝑉 → 𝑉, un subespacio 𝑊 ⊆ 𝑉 es invariante si 𝑇(𝑊) ⊆ 𝑊 DEFINICIÓN: Sub bloque y bloque de Lebron. Un sub bloque de Jordan es: 𝜆 0… 0 0 1 𝜆 … 0 0 𝑠𝐽(𝜆) = 0 1 … 𝜆 0 ⋮ ⋮ ⋮ ⋮ ( 0 0 … 1 𝜆) Un bloque de Jordan: 𝑠𝜆1 0 … 0 0 1 𝑠𝜆2 … 0 0 𝐽(𝜆) = 0 1… 𝑠𝜆3 0 ⋮ ⋮ ⋮ ⋮ ( 0 0 … 1 𝑠𝜆𝑛) Donde 𝑠𝜆𝑛 son sub bloques de Jordan. DEFINICIÓN: Producto interno. V espacio vectorial sobre K, una función ⟨. ,. ⟩ ∶ 𝑉𝑥𝑉 → 𝐾 es un producto interno en V si cumple: 1. 〈𝑢 + 𝑣, 𝑤〉 = 〈𝑢, 𝑤〉 + 〈𝑣, 𝑤〉 2. 〈𝛼𝑢, 𝑣〉 = 𝛼〈𝑢, 𝑣〉 3. 〈𝑢, 𝑣〉 = ̅̅̅̅̅̅̅ 〈𝑣, 𝑢〉 4. 〈𝑣, 𝑣〉 ≥ 0, 𝑠𝑖 〈𝑣, 𝑣〉 = 0 ↔ 𝑣 = 0 OBSERVACIONES: I. 〈𝑢, 𝑣 + 𝑤〉 = 〈𝑢, 𝑣〉 + 〈𝑢, 𝑤〉 II. 〈𝑢, 𝛼𝑣〉 = 𝛼̅〈𝑢, 𝑣〉 III. 〈0, 𝑣〉 = 〈𝑣, 0〉 = 0 DEFINICIÓN: Norma. V espacio vectorial sobre K, una función ‖. ‖: 𝑉 → 𝑅 es una norma en V si: 1. ‖𝑣‖ ≥ 0, 𝑦 ‖𝑣‖ = 0 ↔ 𝑣 = 0 2. ‖𝛼𝑣‖ = |𝛼|‖𝑣‖ 3. ‖𝑣 + 𝑤‖ ≤ ‖𝑣‖ + ‖𝑤‖ DEFINICIÓN: Norma inducida por producto interno. Se define la norma inducida por el producto interno como: ‖𝑣‖ = √〈𝑣, 𝑣〉 LEMA: Si ‖. ‖ es una norma inducida por un producto interno, entonces se cumple: ‖𝑣 + 𝑤‖2 + ‖𝑣 − 𝑤‖2 = 2‖𝑣‖2 + 2‖𝑤‖2 DESIGUALDAD DE CAUCHY-SCHWARZ: Dado V espacio vectorial con producto interno, y una norma inducida por el producto interno se cumple: |〈𝑣, 𝑤〉| ≤ ‖𝑣‖‖𝑤‖ Y si se cumple: |〈𝑣, 𝑤〉| = ‖𝑣‖‖𝑤‖ entonces {𝑣, 𝑤} es L.D DEFINICIÓN: Ángulo entre dos vectores: 〈𝑣, 𝑤〉 cos(𝜃) = ‖𝑣‖‖𝑤‖ COROLARIO: (Desigualdad triangular para la norma inducida por un producto interno). Se cumple: ‖𝑣 + 𝑤‖ ≤ ‖𝑣‖ + ‖𝑤‖ DEFINICIÓN: Vectores ortogonales. Sea V espacio vectorial con producto interno, entonces se dice que v y w son ortogonales si: 〈𝑣, 𝑤〉 = 0 Notación: 𝑣 ⊥ 𝑤 DEFINICIÓN: Conjuntos ortogonales. A es un conjunto ortogonal si ∀𝑣, 𝑤 ∈ 𝐴, 𝑐𝑜𝑛 𝑣 ≠ 𝑤 → 𝑣 ⊥ 𝑤 Si además ‖𝑣‖ = 1, ∀𝑣 ∈ 𝐴 se dice que A es un conjunto ortonormal. TEOREMA: Sea V espacio vectorial con producto interno, entonces si {𝑣1 , 𝑣2 , … , 𝑣𝑛 } ⊆ 𝑉 es un conjunto ortogonal tal que 𝑣𝑖 ≠ 0 entonces: {𝑣1 , 𝑣2 , … , 𝑣𝑛 } es un conjunto L.I TEOREMA DE PITÁGORAS: Sea V espacio vectorial con producto interno, {𝑣1 , 𝑣2 , … , 𝑣𝑟 } un conjunto ortogonal, entonces se cumple que: 𝑟 2 𝑟 ‖∑ 𝑣𝑖 ‖ = ∑‖𝑣𝑖 ‖2 𝑖=1 𝑖=1 MÉTODO DE ORTONORMALIZACIÓN DE GRAM-SCHMIDT. Sirve para encontrar una base ortonormal a cualquier base, donde el primer vector coincide y los siguientes se construyen: 𝑤1 = 𝑣1 〈𝑣𝑘. 𝑤𝑘−1 〉 〈𝑣𝑘. 𝑤1 〉 𝑤𝑘 = 𝑣𝑘 − 𝑤𝑘−1 − ⋯ − 𝑤 〈𝑤𝑘−1 , 𝑤𝑘−1 〉 〈𝑤1 , 𝑤1 〉 1 PROPIEDADES DE BASES ORTONORMALES. 𝑏.𝑜.𝑛 Sea V con producto interno: {𝑣1 , 𝑣2 , … , 𝑣𝑛 } → 𝑉 1. Si 𝑣 = ∑𝑛𝑖=1 𝛼𝑖 𝑣𝑖 y 𝑤 = ∑𝑛𝑖=1 𝛽𝑖 𝑤𝑖 entonces 〈𝑣, 𝑤〉 = ∑𝑛𝑖=1 𝛼𝑖 𝛽̅𝑖 2. ∀𝑣 ∈ 𝑉 ∶ 𝑣 = 〈𝑣, 𝑣1 〉𝑣1 + 〈𝑣, 𝑣2 〉𝑣2 + ⋯ + 〈𝑣, 𝑣𝑛 〉𝑣𝑛 3. ∀𝑣 ∈ 𝑉 ∶ ‖𝑣‖2 = ∑𝑛𝑖=1|〈𝑣, 𝑣1 〉|2 DEFINICIÓN: Complemento ortogonal. V espacio vectorial con producto interno, 𝑆 ⊆ 𝑉. El complemento ortogonal de S es el conjunto: 𝑆 ⊥ = {𝑣 ∈ 𝑉 ∶ 𝑣 ⊥ 𝑠 ∀𝑠 ∈ 𝑆} = {𝑣 ∈ 𝑉 ∶ 〈𝑣, 𝑠 〉 = 0 ∀𝑠 ∈ 𝑆} PROPOSICIÓN: 𝑆 ⊥ es un subespacio de V. PROPOSICIÓN: V espacio vectorial con producto interno. S subespacio vectorial (de 𝑏 dimensión finita) y 𝐵 = {𝑠1 , 𝑠2 , … , 𝑠𝑛 } → 𝑆. Entonces 𝑣 ∈ 𝑆 ⊥ ⟷ 𝑣 ⊥ 𝑠𝑖 ∀𝑖 = 1, 2, … , 𝑟. PROPOSICIÓN: (IMPORTANTE) V especio vectorial con producto interno, S subespacio vectorial. Entonces: 𝑉 = 𝑆 ⊕ 𝑆⊥ DEFINICIÓN: Proyección ortogonal. Dado 𝑣 ∈ 𝑉, 𝑣𝑠 se llama proyección ortogonal de v sobre el subespacio S y se denota: 𝑘 𝑏.𝑜.𝑛 𝑃𝑠 (𝑣) = ∑〈𝑣, 𝑠𝑖 〉𝑠𝑖 , {𝑠1 , 𝑠2 , … , 𝑠𝑛 } → 𝑆 𝑖=1 OBSERVACIONES: La definición de proyección ortogonal no depende de la b.o.n. 𝑃𝑠 : 𝑉 → 𝑉 es un operador lineal. TEOREMA: V espacio vectorial con producto interno S subespacio. Entonces: ‖𝑣 − 𝑃𝑠 (𝑣)‖ ≤ ‖𝑣 − 𝑠‖ ∀𝑠 ∈ 𝑆 4 EL SANTO GRIAL DE LOS VERDADERO O FALSO. Considere un operador lineal 𝑇: 𝑅 3 → 𝑅 3 con valores propios 𝜆 ≠ 𝜇. Si 𝑚. 𝑎(𝜆) = 2 entonces la 𝑚. 𝑔(𝜇) = 1 VERDADERO Sea V un espacio vectorial y 𝑇: 𝑉 → 𝑉 una transformación lineal. Si 𝑊 ⊆ 𝑉 es un subespacio invariante bajo T y dim(𝑊) = 2 entonces W es un subespacio propio de T. FALSO Considere una matriz 𝐴 ∈ 𝑀3𝑥3 sobre el cuerpo K y sean 𝐶1 , 𝐶2 , 𝐶3 los círculos de Gershgorin. Si 𝐶𝑖 ∩ 𝐶𝑗 = ∅ entonces A es diagonalizable. VERDADERO Sea V un espacio vectorial con producto interno y 𝑆 ⊆ 𝑉 entonces S es un conjunto ortonormal si y solo si S es L.I. FALSO (NO SE CUMPLE EL RECÍPROCO) Sea V un espacio vectorial con producto interno, dim(𝑉) = 𝑛 y 𝑇: 𝑉 → 𝑉 una transformación lineal tal que cero es valor propio de T. Si 𝑆 = 𝑁(𝑇) entonces dim(𝑆 ⊥ ) = 𝑛 − 1. FALSO (dim(N(T))>=1) Sea V un espacio vectorial con producto interno. Considere un subespacio 𝑆 ⊆ 𝑉, 𝑆 ≠ 0, y la proyección ortogonal sobre S. Entonces existe 𝑣 ∈ 𝑉, 𝑣 ≠ 0 tal que 𝑃𝑆 (𝑣) = 𝑣. VERDADERO Sea 𝑇: 𝑉 → 𝑉 una transformación lineal y 𝜆 un valor propio de T. Entonces dim(𝑁(𝑇 − 𝜆𝐼𝑑)) = 𝑚. 𝑎(𝜆) FALSO Sea 𝐴 ∈ 𝑀𝑛𝑥𝑛 (𝑅). Si A es diagonalizable, entonces todos sus valores propios son reales y distintos dos a dos. FALSO Si 𝑇: 𝑉 → 𝑉 es diagonalizable, entonces 𝑇 𝑛 es diagonalizable para todo 𝑛 ∈ 𝑁, 𝑛 > 0. VERDADERO Si 𝐴 ∈ 𝑀𝑛𝑥𝑛 (𝑅) tal que 𝐴𝑡 𝐴 = 𝐼𝑑, entonces las columnas de A forman una base ortonormal de 𝑅 𝑛. VERDADERO Si 𝐴 ∈ 𝑀𝑛𝑥𝑛 (𝐶) no diagonalizable, entonces existe 𝜆 ∈ 𝐶 valor propio, tal que la 𝑚. 𝑎(𝜆) ≥ 2. VERDADERO Sea V un espacio vectorial con producto interno y S un subespacio de V. Entonces 𝐾𝑒𝑟(𝐼𝑑 − 𝑃𝑠) = 𝑆 ⊥ , siendo Id la transformación identidad. FALSO Sea V un espacio vectorial con producto interno, {𝑣, 𝑤} un conjunto ortonormal y 𝛼, 𝛽 dos reales. Si los vectores 𝛼𝑣 + 𝛽𝑤 y 𝛼𝑣 − 𝛽𝑤 son ortogonales. Entonces |𝛼| = |𝛽|. VERDADERO PROPIEDAD IMPORTANTE: Si los círculos de Gershgorin no tocan el origen (eje y) entonces la matriz es invertible. PROPIEDAD IMPORTANTE: Si dos matrices tienen la misma forma canónica de Jordan, entonces son semejantes. IMPORTANTE: El rango(T)=dim(Im(T)) IMPORTANTE: El 0 es valor propio de una transformación lineal si y solo si ésta no es invertible, del mismo modo, el 0 no es valor propio de una transformación lineal si y solo si ésta es invertible.

Use Quizgecko on...
Browser
Browser