Mínimos Cuadrados - Resumen GAL 2 - Segundo Parcial - PDF

Summary

This document provides an outline on the method of least squares, starting with the definition of the problem and the criteria for finding the optimal solution. It introduces analytical and geometrical approaches, followed by a derivation process using matrices. The document continues with a discussion on linear transformations and inner products, covering functional linear transformations.

Full Transcript

MÍNIMOS CUADRADOS: Teniendo los datos del tipo: (𝑥1 , 𝑦1 ), (𝑥2 , 𝑦2 ), … , (𝑥𝑛 , 𝑦𝑛 ). Donde 𝑥𝑖 son las variables independientes y los 𝑦𝑖 son las variables de respuestas. Dado un modelo de la forma: 𝑦 = 𝛼𝑥 + 𝛽, y a partir de los datos de debe hallar 𝛼 y 𝛽. Error: Dada la recta 𝑦 = 𝛼𝑥 + 𝛽 definimos...

MÍNIMOS CUADRADOS: Teniendo los datos del tipo: (𝑥1 , 𝑦1 ), (𝑥2 , 𝑦2 ), … , (𝑥𝑛 , 𝑦𝑛 ). Donde 𝑥𝑖 son las variables independientes y los 𝑦𝑖 son las variables de respuestas. Dado un modelo de la forma: 𝑦 = 𝛼𝑥 + 𝛽, y a partir de los datos de debe hallar 𝛼 y 𝛽. Error: Dada la recta 𝑦 = 𝛼𝑥 + 𝛽 definimos el error: 𝑛 𝜖 = ∑ 𝜖𝑖 2 , 𝑐𝑜𝑛 𝜖𝑖 = 𝑦𝑖 − (𝛼𝑥𝑖 + 𝛽) 2 𝑖=1 Criterio de ajuste: Calcular 𝛼 y 𝛽 que minimicen el error cuadrático. Enfoque analítico: 𝜖 2 = 𝜖 2 (𝛼, 𝛽). Hallar los valores de 𝛼 y 𝛽 que minimizan la segunda derivada parcial respecto a cada una de las variables. Enfoque geométrico: Dada la recta 𝑦 = 𝛼𝑥 + 𝛽 y las n observaciones (𝑥𝑖 , 𝑦𝑖 ), 𝑖 = 1, 2, … , 𝑛 se construyen las siguientes matrices y vectores: 𝑦1 𝑦1 1 𝛼 𝑦 = (…) 𝐴 = (… …) 𝑧 = (𝛽 ) 𝑦3 𝑦𝑖 1 De esta manera queda: 𝜖1 𝑦1 − (𝛼𝑥1 + 𝛽) 𝜖 = (…) = ( … ) = 𝑦 − 𝐴𝑧 𝜖3 𝑦𝑛 − (𝛼𝑥𝑛 + 𝛽) Ahora, se debe calcular el z que minimiza: ‖𝑦 − 𝐴𝑧‖2 Notar que: 𝐴𝑧 ∈ 𝑆, el subespacio generado por las columnas de A, Entonces: 𝐴𝑧𝑠𝑜𝑙 = 𝑃𝑠 (𝑦) Lema: Considerar S subespacio generado por las columnas de A, Rn con el producto usual. Entonces: 𝑆 ⊥ = {𝑥 ∈ 𝑅 𝑛 ∶ 𝐴𝑡 𝑋 = 0} Asi queda que: 𝐴𝑧𝑠𝑜𝑙 = 𝑃𝑠 (𝑦) = 𝑦 − 𝑃𝑠⊥ (𝑦) (𝐴𝑡 𝐴)𝑧𝑠𝑜𝑙 = 𝐴𝑡 𝑦 − 𝐴𝑡 𝑃𝑠⊥ (𝑦) 𝐴𝑡 𝑃𝑠⊥ (𝑦) es cero, por el lema anterior, entonces: (𝐴𝑡 𝐴)𝑧𝑠𝑜𝑙 = 𝐴𝑡 𝑦 Si A tiene rango máximo se cumple que 𝐴𝑡 𝐴 es invertible. Notar que: 𝑛 𝑛 𝑛 2 ∑ 𝑥𝑖 ∑ 𝑥𝑖 ∑ 𝑥𝑖 𝑦𝑖 𝑡 𝑖=1 𝑖=1 𝑡 𝑖=1 𝐴 𝐴= 𝑛 𝐴 𝑦= 𝑛 ∑ 𝑥𝑖 𝑛 ∑ 𝑦𝑖 ( 𝑖=1 ) ( 𝑖=1 ) TRANSFORMACIONES LINEALES CON PRODUCTO INTERNO: Funcionales lineales: V espacio vectorial sobre K con producto interno, un funcional lineal es: 𝑇: 𝑉 → 𝐾 Lema: Sea V espacio vectorial con producto interno: Si 〈𝑣, 𝑤〉 = 〈𝑣, 𝑤 ̃〉 ∀𝑣 ∈ 𝑉 entonces 𝑤 = 𝑤 ̃. TEOREMA DE REPRESENTACIÓN DE RIESZ: V espacio vectorial con producto interno, dim(𝑉) = 𝑛 finita. Si 𝑇: 𝑉 → 𝐾 es una funcional lineal entonces existe un único 𝑤 ∈ 𝑉 ∶ 𝑇(𝑣) = 〈𝑣, 𝑤〉 ∀𝑣 ∈ 𝑉, donde 𝑤 es el representante de Riesz del funcional T. El representante de Riesz de calcula de la forma: 𝑤 = ∑𝑛𝑖=1 ̅̅̅̅̅̅̅ 𝑇(𝑒𝑖 )𝑒𝑖. ADJUNTA DE UNA TRANSFORMACIÓN LINEAL: V, W espacios vectoriales sobre K, 𝑇: 𝑉 → 𝑊 transformación lineal. Decimos que T tiene adjunta si existe una función 𝑇 ∗ : 𝑊 → 𝑉 tal que 〈𝑇(𝑣), 𝑤〉𝑊 = 〈𝑣, 𝑇 ∗ (𝑤)〉𝑉 Teorema: V, W espacios vectoriales sobre K de dimensión finita, con productos internos sobre V y W. Entonces toda transformación lineal: 𝑇: 𝑉 → 𝑊 tiene una única transformación lineal adjunta: 𝑇 ∗ : 𝑊 → 𝑉 PROPIEDADES DE LA ADJUNTA: 1. (𝑇1 + 𝑇2 )∗ = 𝑇1 ∗ + 𝑇2 ∗ 2. (𝛼𝑇)∗ = 𝛼̅𝑇 ∗ 3. (𝑆 𝑜 𝑇)∗ = 𝑇 ∗ 𝑜 𝑆 ∗ 4. 𝑇 ∗∗ = 𝑇 ∗ 5. 𝑇 ∗ −1 = 𝑇 −1 6. 𝐼𝑑∗ = 𝐼𝑑 7. 𝜆 es valor propio de T ↔ 𝜆̅ es valor propio de 𝑇 ∗ REPRESENTACIÓN MATRICIAL DE LA ADJUNTA: Trabajando con bases ortonormales B y C, V y W espacios vectoriales sobre K con producto interno. 𝑇: 𝑉 → 𝑊 transformación lineal: ̅̅̅̅̅𝐵𝑡 𝐵(𝑇 ∗ )𝐶 = 𝐶(𝑇) OPERADORES AUTOADJUNTOS: V espacio vectorial sobre K con producto interno. 𝑇: 𝑉 → 𝑉 operador lineal. Definición: T es autoadjunto ⟷ 𝑇 ∗ = 𝑇 Esto es, si y solo si: 〈𝑇(𝑣), 𝑤〉𝑊 = 〈𝑣, 𝑇(𝑤)〉𝑉 Definición: 𝐴 ∈ 𝑀𝑛𝑥𝑛 (𝐾) es hermítica si 𝐴 = 𝐴𝑡̅ Teorema: V espacio vectorial con producto interno sobre el cuerpo 𝐾 = 𝑅, 𝑇: 𝑉 → 𝑉 operador lineal. Entonces son equivalentes: 1. T es autoadjunto. 𝑏𝑜𝑛 2. ∀ 𝐵 → 𝑉 se cumple que 𝐵(𝑇)𝐵 es simétrica. 𝑏𝑜𝑛 3. ∃ 𝐵0 → 𝑉 para la cual 𝐵0 (𝑇)𝐵0 es simétrica. Si el cuerpo es 𝐾 = 𝐶 se cumple exactamente lo mismo, solo que en lugar de matriz simétrica, es una matriz hermítica. Teorema: V espacio vectorial con producto interno sobre 𝐾 = 𝐶. 𝑇: 𝑉 → 𝑉 operador autoadjunto, si 𝜆 es valor propio de T entonces 𝜆 es real. Corolario: V espacio vectorial con producto interno sobre C, dim (𝑉) finita, 𝑇: 𝑉 → 𝑉 operador autoadjunto. Entonces todas las raíces de 𝑋𝑇 son reales. Teorema: V espacio vectorial con producto interno sobre R, dim (𝑉) finita, 𝑇: 𝑉 → 𝑉 operador autoadjunto. Entonces todas las raíces de 𝑋𝑇 son reales. Corolario: 𝐴 ∈ 𝑀𝑛𝑥𝑛 (𝑅). Si A es simétrica todas las raíces del p.c. son reales. 𝐴 ∈ 𝑀𝑛𝑥𝑛 (𝐶). Si A es hermítica todas las raíces del p.c. son reales. Proposición: V espacio vectorial con producto interno sobre K. 𝑇: 𝑉 → 𝑉 operador autoadjunto. Si 𝜆1 𝑦 𝜆2 son vaps distintos de T entonces 𝑆𝜆1 𝑦 𝑆𝜆2 son ortogonales. Lema: V espacio vectorial con producto interno sobre K, 𝑆 ⊂ 𝑉 subespacio vectorial, 𝑇: 𝑉 → 𝑉 operador autoadjunto. Entonces si S es invariante bajo T, 𝑆 ⊥ es invariante bajo T. TEOREMA ESPECTRAL PARA OPERADORES AUTOADJUNTOS: V espacio vectorial con producto interno sobre K (𝐾 = 𝑅 o 𝐾 = 𝐶), dim(𝑉) = 𝑛, 𝑇: 𝑉 → 𝑉 operador autoadjunto. Entonces existe una base ortonormal de V formada por vectores propios de T. Teorema: V espacio vectorial con producto interno sobre K, dim(𝑉) = 𝑛, 𝑇: 𝑉 → 𝑉 operador 𝑏𝑜𝑛 lineal. Si existe 𝐵 → 𝑉 formada por vectores propios de T y las raíces de 𝑋𝑇 son reales, entonces T es autoadjunto. (Recíproco del teorema espectral). TEOREMA ESPECTRAL PARA MATRICES SIMÉTRICAS Y HERMÍTICAS: 1. Si 𝐴 ∈ 𝑀𝑛𝑥𝑛 (𝑅) es simétrica entonces ∃ 𝑃 ∈ 𝑀𝑛𝑥𝑛 (𝑅) invertible con 𝑃−1 = 𝑃𝑡 ∶ 𝐷 = 𝑃𝐴𝑃−1 2. Si 𝐴 ∈ 𝑀𝑛𝑥𝑛 (𝐶) es hermítica entonces ∃ 𝑃 ∈ 𝑀𝑛𝑥𝑛 (𝐶) invertible con 𝑃 −1 = 𝑃̅𝑡 ∶ 𝐷 = 𝑃𝐴𝑃−1 Definición: 𝑃 ∈ 𝑀𝑛𝑥𝑛 (𝑅) invertible con 𝑃−1 = 𝑃𝑡 → matriz ortogonal. 𝑃 ∈ 𝑀𝑛𝑥𝑛 (𝐶) invertible con 𝑃−1 = 𝑃̅𝑡 → matriz unitaria. Proposición: V, W espacios vectoriales con producto interno sobre un cuerpo K, 𝑇: 𝑉 → 𝑊 transformación lineal. Entonces son equivalentes: 1. T preserva el producto interno: 〈𝑇(𝑣1 ), 𝑇(𝑣2 )〉𝑊 = 〈𝑣1 , 𝑣2 〉𝑉 2. T preserva la norma:‖𝑇(𝑣)‖𝑊 = ‖𝑣‖𝑉 Definición: V, W espacios vectoriales con producto interno sobre K, 𝑇: 𝑉 → 𝑊 transformación lineal: T es una isometría lineal ↔ T preserva el producto interno. Proposición: Si 𝑇: 𝑉 → 𝑊 es una isometría lineal → T es inyectiva. Observación: No se cumple lo mismo con la sobreyectividad. Proposición: Con dim(𝑉) , dim(𝑊) finitas y 𝑇: 𝑉 → 𝑊 es una isometría lineal. Entonces T es sobreyectiva ↔ dim(𝑉) = dim(𝑊) Corolario: V espacio vectorial con producto interno sobre K, dim(𝑉) finita, 𝑇: 𝑉 → 𝑉 es una isometría lineal → T es un isomorfismo. Proposición: Si dim(𝑉) = dim(𝑊) finita, 𝑇: 𝑉 → 𝑊 es una transformación lineal. Son equivalentes: 1. T isometría. 𝑏𝑜𝑛 𝑏𝑜𝑛 2. Para toda 𝐵 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } → 𝑉 se cumple 𝑇(𝐵) = {𝑇(𝑣1 ), 𝑇(𝑣2 ), … , 𝑇(𝑣𝑛 )} → 𝑊 𝑏𝑜𝑛 𝑏𝑜𝑛 3. Existe 𝐵0 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } → 𝑉 tal que 𝑇(𝐵0 ) = {𝑇(𝑣1 ), 𝑇(𝑣2 ), … , 𝑇(𝑣𝑛 )} → 𝑊 Proposición: V espacio vectorial con producto interno sobre K, dim(𝑉) finita, 𝑇: 𝑉 → 𝑉 operador lineal. Entonces: T es invertible y 𝑇 −1 = 𝑇 ∗ ↔ T es una isometría lineal. Proposición: V espacio vectorial con producto interno sobre K, 𝑇: 𝑉 → 𝑉 invertible tal que 𝑇 −1 = 𝑇 ∗ : 1. Si 𝐾 = 𝑅 se dice que T es ortogonal. 2. Si 𝐾 = 𝐶 se dice que T es unitaria. Proposición: 𝑏𝑜𝑛 1. 𝐴 ∈ 𝑀𝑛𝑥𝑛 (𝑅), A es ortogonal si las columnas {𝐴1 , … , 𝐴𝑛 } → 𝑅 𝑛 𝑏𝑜𝑛 2. 𝐴 ∈ 𝑀𝑛𝑥𝑛 (𝐶), A es unitaria si las columnas {𝐴1 , … , 𝐴𝑛 } → 𝑅 𝑛 Lema: V espacio vectorial con producto interno sobre 𝑅 (𝑜 𝐶), dim(𝑉) finita, 𝑇: 𝑉 → 𝑉 𝑏𝑜𝑛 operador lineal y B→ 𝑉, entonces: T es ortogonal (o unitario) ↔ 𝐵(𝑇)𝐵 es ortogonal. Teorema: V espacio vectorial con producto interno sobre 𝐶, 𝑇: 𝑉 → 𝑉 operador unitario. 1. Si 𝜆 es valor propio de T entonces |𝜆| = 1 2. Si dim(𝑉) es finita → todas las raíces de 𝑋𝑇 tienen módulo 1. FORMAS CUADRÁTICAS: Definición: 𝐵: 𝑅 𝑛 → 𝑅 es forma cuadrática en 𝑅 𝑛 si: 1. B polinomio. 2. Todos los monomios de B tienen grado 2. Proposición: B forma cuadrática en 𝑅 𝑛 : 𝐵(𝑥) = 𝑥 𝑡 𝐴𝑥, con 𝐴 ∈ 𝑀𝑛 (𝑅) simétrica. Observación: Se cumple el recíproco. Proposición: 𝐵(𝑥) = 𝑥 𝑡 𝐴𝑥 forma cuadrática → ∃ 𝑃 ∈ 𝑀𝑛 (𝑅) ortogonal : con el cambio de variable 𝑥 = 𝑃𝑥`, la forma cuadrática queda: 2 2 𝐵(𝑃𝑥`) = 𝜆1 𝑥 `1 + ⋯ + 𝜆𝑛 𝑥 ` 𝑛 Donde 𝑃 es la matriz de los valores propios colgados, y 𝜆1 … 𝜆𝑛 son los valores propios de A. Teorema: 𝐵(𝑥) = 𝑥 𝑡 𝐴𝑥 forma cuadrática con A simétrica. Entonces: 1. B definida positiva ↔ todos los vaps son positivos. 2. B semidefinida positiva ↔ todos los vaps son mayores o iguales a cero, y uno es cero. 3. B definida negativa ↔ todos los vaps son negativos. 4. B semidefinida negativa ↔ todos los vaps son menores o iguales a cero, y uno es cero. 5. B indefinida ↔ existen vaps negativos y positivos. REGLA DE DESCARTES: Dado: 𝑃(𝜆) = 𝑎𝑛 𝜆𝑛 + ⋯ + 𝑎1 𝜆 + 𝑎0 polinomio con todas las raíces en R, entonces: El número de raíces positivas es igual al número de cambios de signos dados en el polinomio. -EL SANTO GRIAL DE LOS VERDADEROS O FALSOS- Existe 𝑇: 𝑅 3 → 𝑅 3 un operador autoadjunto no nulo tal que 𝑇 2 = 0. FALSO. El vector X que minimiza ‖𝑌 − 𝐴𝑋‖2 es la solución del sistema (𝐴𝑡 𝐴)𝑋 = 𝐴𝑡 𝑌. VERDADERO. Todo operador 𝑇: 𝑅 𝑛 → 𝑅 𝑛 ortogonal es diagonalizable. FALSO. Sea 𝑇: 𝐶 𝑛 → 𝐶 𝑛 un operador unitario y 𝜆 ∈ 𝐶 valor propio de T. Entonces 𝜆 = 1 o 𝜆 = −1. FALSO. Sea 𝑇: 𝑅 𝑛 → 𝑅 𝑛 un operador lineal. Si 𝜆 y 𝜇 son dos valores propios distintos de T, entonces los subespacios asociados a cada valor propio son ortogonales. FALSO. Toda isometría lineal 𝑇: 𝑃2 → 𝑅 3 es invertible. VERDADERO. (Justo coinciden dimensiones) Sea 𝑇: 𝑉 → 𝑉 un operador diagonalizable. Existe una base ortonormal de V formada por vectores propios de T. FALSO. (La base no necesariamente tiene que ser ortonormal). Sean dos funcionales lineales S y T, de V en K. Si w1 es el representante de Riesz de T y w2 es el representante de Riesz de S, entonces el representante de Riesz del funcional T + S es w1 + w2. VERDADERO. Sea V un espacio vectorial con producto interno sobre el cuerpo K, y S un subespacio de V, con S no nulo y distinto de V, considerar la proyección ortogonal sobre S. Entonces Ps es un operador ortogonal. FALSO. Sea 𝑇: 𝑅 𝑛 → 𝑅 𝑛 un operador autoadjunto. Si 𝜆 y 𝜇 son dos valores propios distintos de T, entonces los subespacios asociados a cada valor propio son ortogonales. VERDADERO. 𝑏𝑜𝑛 Sea V un espacio vectorial con producto interno, 𝐵 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } → 𝑉, T un operador lineal tal que: ‖𝑇(𝑣𝑖 )‖ = ‖𝑣𝑖 ‖ para todo i desde 1 hasta n. Entonces T es una isometría. FALSO. (Se conserva la norma únicamente para los vectores de la base, no para todos los del espacio) Sea V espacio vectorial con producto interno sobre K, 𝑆 ⊂ 𝑉 subespacio vectorial, 𝑇: 𝑉 → 𝑉 operador autoadjunto. Entonces si S es invariante bajo T, 𝑆 ⊥ es invariante bajo T. VERDADERO. Sea 𝑇: 𝑉 → 𝑉, 𝐾 = 𝐶 tal que 𝑇 ∗ = 𝑇 2017. Entonces T es diagonalizable. VERDADERO. Sea 𝑇: 𝑅 2 → 𝑅 2 la simetría respecto a una recta. Entonces T es ortogonal y autoadjunta. VERDADERO. Sea 𝑇: 𝑉 → 𝑉, 𝐾 = 𝐶, T unitaria, B base ortonormal de V, entonces |det (𝐵(𝑇)𝐵| = 1. VERDADERO. Si 𝑇: 𝑉 → 𝑉, 𝐾 = 𝐶, T unitario y autoadjunto, entonces 𝑇 = 𝐼𝑑. FALSO. Sea V un espacio vectorial (Real o complejo) y 𝑇: 𝑉 → 𝑊 una transformación lineal. Entonces si {𝑒1 , … , 𝑒𝑛 } es una base ortonormal de V: 𝑇 ∗ (𝑤) = 〈𝑤, 𝑇(𝑒1 )〉𝑒1 + ⋯ + 〈𝑤, 𝑇(𝑒𝑛 )〉𝑒𝑛. VERDADERO. Sea V un espacio vectorial (Real o complejo) entonces 𝜆 es valor propio de T si y solamente si 𝜆 es valor propio de 𝑇 ∗. FALSO. (Utilizar la definición de adjunta, y se ve que los valores propios de 𝑇 ∗ son los conjugados de los valores propios de T, si fuera K=R sería verdadera) Sean T1 y T2 operadores autoadjuntos en un espacio vectorial V (Complejo o real). Entonces T1 + T2 es un operador autoadjunto en V. VERDADERO. Sea T un operador autoadjunto en K-espacio vectorial V. Entonces 𝛼𝑇 es autoadjunto para todo 𝛼 perteneciente a K. FALSO. Una matriz es ortogonal si y solamente si sus filas forman una base ortonormal de Rn (con el producto interno usual). VERDADERO. Sea Q forma cuadrática en Rn y A su matriz simétrica asociada. Entonces Q es definida positiva si y solamente si todos los valores propios de A son positivos no nulos. VERDADERO. Sea Q forma cuadrática en R2 y A su matriz simétrica asociada. Entonces Q es indefinida si y solamente si det(A)

Use Quizgecko on...
Browser
Browser