Transformaciones Lineales y Matrices
43 Questions
0 Views

Choose a study mode

Play Quiz
Study Flashcards
Spaced Repetition
Chat to Lesson

Podcast

Play an AI-generated podcast conversation about this lesson

Questions and Answers

Si $v$ y $w$ son vectores ortogonales, cul de las siguientes afirmaciones es siempre verdadera?

  • La norma de la suma de $v$ y $w$ es igual a la suma de las normas de $v$ y $w$.
  • El ngulo entre $v$ y $w$ es 90 grados. (correct)
  • El producto interno de $v$ y $w$ es igual a 0. (correct)
  • La norma de la diferencia de $v$ y $w$ es igual a la suma de las normas de $v$ y $w$.

Sea $A$ un conjunto ortonormal. Qu se puede afirmar sobre cualquier par de vectores $v$ y $w$ en $A$?

  • El producto interno de $v$ y $w$ es 1.
  • La norma de $v$ es igual a la norma de $w$. (correct)
  • El producto interno de $v$ y $w$ es 0. (correct)
  • El ngulo entre $v$ y $w$ es 45 grados.

Dado un espacio vectorial $V$ con un producto interno ., ., cules de las siguientes condiciones son necesarias para que una funcin .: $V$ $$ sea una norma inducida por el producto interno?

  • + + (correct)
  • + + = 2 + 2 (correct)
  • = || (correct)
  • 0 y = 0 = 0 (correct)

Si |, | = , qu podemos concluir sobre los vectores $v$ y $w$?

<p>Son linealmente dependientes. (C)</p> Signup and view all the answers

Considera un sub bloque de Jordan $s_J()$. Cul es el rango de esta matriz?

<p>El rango de $s_J()$ es igual a la dimensin del sub bloque de Jordan. (B)</p> Signup and view all the answers

Sea () un bloque de Jordan asociado a un valor propio $$. Cul de las siguientes afirmaciones es incorrecta?

<p>El bloque de Jordan () es una matriz diagonalizable. (D)</p> Signup and view all the answers

Si = , , entonces cul es el valor de ?

<p>, 2, + , (B)</p> Signup and view all the answers

Considera la desigualdad de Cauchy-Schwarz. Cundo la igualdad |, | = se cumple?

<p>Cuando $v$ y $w$ son linealmente dependientes. (D)</p> Signup and view all the answers

Si $A$ es un conjunto ortogonal, qu podemos afirmar sobre el conjunto $B$ formado al multiplicar cada vector en $A$ por un escalar distinto de cero?

<p>El conjunto $B$ es linealmente independiente. (B), El conjunto $B$ tambin es ortogonal. (C)</p> Signup and view all the answers

Si una matriz A ∈ 𝑀3𝑥3 sobre el cuerpo K tiene círculos de Gershgorin 𝐶1, 𝐶2, 𝐶3 tal que 𝐶𝑖 ∩ 𝐶𝑗 = ∅ para todo i ≠ j, ¿qué se puede afirmar con certeza sobre A?

<p>A es diagonalizable. (C)</p> Signup and view all the answers

Si T: V → V es una transformación lineal diagonalizable y 𝜆 es un valor propio de T con multiplicidad algebraica m.a(𝜆) = 2, ¿cuál de las siguientes afirmaciones es FALSA?

<p>La multiplicidad geométrica de 𝜆 es 2. (B)</p> Signup and view all the answers

Sea V un espacio vectorial con producto interno y S un subespacio de V. Si 𝑃𝑆 es la proyección ortogonal sobre S, ¿qué se puede decir sobre el núcleo de (𝐼𝑑 − 𝑃𝑆)?

<p>Es el complemento ortogonal de S. (D)</p> Signup and view all the answers

Considere una matriz A ∈ 𝑀𝑛𝑥𝑛(𝑅) tal que 𝐴𝑡𝐴 = 𝐼𝑑. ¿Cuál de las siguientes afirmaciones es VERDADERA?

<p>Las columnas de A forman una base ortonormal de 𝑅𝑛. (D)</p> Signup and view all the answers

Si 𝑇: 𝑉 → 𝑉 es una transformación lineal tal que 0 es un valor propio de T, y 𝑆 = 𝑁(𝑇) es el núcleo de T, ¿qué se puede afirmar sobre la dimensión de 𝑆⊥, el complemento ortogonal de S?

<p>dim(𝑆⊥) = dim(𝑉) - 1. (D)</p> Signup and view all the answers

Sea V un espacio vectorial con producto interno y {𝑣, 𝑤} un conjunto ortonormal. Si 𝛼 y 𝛽 son números reales tales que los vectores 𝛼𝑣 + 𝛽𝑤 y 𝛼𝑣 − 𝛽𝑤 son ortogonales, ¿cuál de las siguientes afirmaciones es VERDADERA?

<p>|𝛼| = |𝛽|. (D)</p> Signup and view all the answers

Si una matriz A ∈ 𝑀𝑛𝑥𝑛(𝐶) no es diagonalizable, ¿qué se puede afirmar sobre sus valores propios?

<p>Al menos un valor propio tiene multiplicidad algebraica mayor o igual a 2. (A)</p> Signup and view all the answers

Considere un operador lineal 𝑇: 𝑅3 → 𝑅3 con valores propios distintos 𝜆 y 𝜇. Si la multiplicidad algebraica de 𝜆 es 2, ¿cuál es la multiplicidad geométrica de 𝜇?

<p>1 (A)</p> Signup and view all the answers

¿Cuál de las siguientes afirmaciones es FALSA en relación con la proposición "V espacio vectorial con producto interno, S subespacio vectorial (de dimensión finita) y B = {s1, s2, … , sn} → S. Entonces v ∈ S⊥ ⟷ v ⊥ si ∀i = 1, 2, … , r"?

<p>La proposición es válida solo si S tiene dimensión finita. Si S tuviera dimensión infinita, la proposición no sería válida. (D)</p> Signup and view all the answers

Sea V un espacio vectorial con producto interno, y sea S un subespacio vectorial de V. ¿Cuál de las siguientes opciones describe correctamente la relación entre S y S⊥?

<p>S y S⊥ son subespacios de V, y su intersección contiene solo el vector cero. (A)</p> Signup and view all the answers

Sea {v1, v2, ... , vn} una base ortonormal de V. ¿Cuál es la proyección ortogonal de un vector v ∈ V sobre el subespacio generado por v1 y v2?

<p>⟨v, v1⟩v1 + ⟨v, v2⟩v2 (C)</p> Signup and view all the answers

Si {v1, v2, v3} es un conjunto ortogonal en un espacio vectorial con producto interno, ¿cuál es la norma de la suma de estos vectores, expresada en términos de las normas individuales de cada vector?

<p>‖v1 + v2 + v3‖ = √(‖v1‖2 + ‖v2‖2 + ‖v3‖2) (D)</p> Signup and view all the answers

Si S es un subespacio vectorial de un espacio vectorial V con producto interno, ¿cuál de las siguientes condiciones garantiza que S⊥ es también un subespacio vectorial de V?

<p>S debe ser un subespacio cerrado de V. (C)</p> Signup and view all the answers

Dados dos subespacios ortogonales S y T de un espacio vectorial V con producto interno, ¿qué podemos decir sobre la proyección ortogonal de un vector v ∈ V sobre S + T?

<p>La proyección ortogonal de v sobre S + T es la suma de las proyecciones ortogonales de v sobre S y sobre T. (C)</p> Signup and view all the answers

Si v ∈ V y S es un subespacio de V, ¿cuál de las siguientes afirmaciones es FALSA sobre la proyección ortogonal de v sobre S, denotada como Ps(v)?

<p>Ps(v) es ortogonal a v - Ps(v). (D)</p> Signup and view all the answers

Sea {v1, v2} una base del subespacio S de un espacio vectorial V con producto interno. ¿Cuál de las siguientes opciones representa una base ortonormal para S, usando el método de Gram-Schmidt?

<p>{v1/‖v1‖, (v2 - ⟨v2, v1⟩v1/‖v1‖2)/‖v2 - ⟨v2, v1⟩v1/‖v1‖2‖} (C)</p> Signup and view all the answers

Si {v1, v2, ... , vn} es una base ortonormal de un espacio vectorial V con producto interno, ¿cuál de las siguientes afirmaciones es VERDADERA sobre la proyección ortogonal de un vector v ∈ V sobre el subespacio generado por {v1, v2, ... , vk} (con k < n)?

<p>La proyección ortogonal de v sobre el subespacio generado por {v1, v2, ... , vk} es ∑(i=1 to k)⟨v, vi⟩vi. (A)</p> Signup and view all the answers

Sea V un espacio vectorial con producto interno, y S un subespacio vectorial de V. ¿Cuál de las siguientes afirmaciones es FALSA respecto a la proyección ortogonal Ps: V → V?

<p>Ps(v) es siempre ortogonal a v - Ps(v). (C)</p> Signup and view all the answers

¿Cuál de las siguientes afirmaciones es verdadera acerca de un operador lineal?

<p>Siempre existe un vector propio no nulo asociado a cada operador lineal. (C)</p> Signup and view all the answers

¿Qué condición debe cumplirse para que dos matrices sean semejantes?

<p>Deban existir matrices invertibles que relacionen ambas matrices. (D)</p> Signup and view all the answers

¿Cuál de las siguientes es una forma de hallar un valor propio de una matriz?

<p>Resolviendo el sistema (A - λId)v = 0. (B)</p> Signup and view all the answers

¿Qué representa el subespacio propio asociado a un valor propio λ?

<p>Es el conjunto de soluciones para el sistema (A - λId)v = 0. (A)</p> Signup and view all the answers

¿Cuál es la característica de una matriz diagonalizable?

<p>Puede ser expresada como una matriz producto de sus vectores propios. (B)</p> Signup and view all the answers

¿Cuál de las siguientes afirmaciones es cierta sobre las matrices semejantes?

<p>Pueden ser diferentes en forma, pero tienen los mismos valores propios. (A)</p> Signup and view all the answers

¿Cuál es el criterio que se utiliza para determinar si una matriz es invertible?

<p>Su determinante debe ser diferente de cero. (C)</p> Signup and view all the answers

¿Cuál de las siguientes ecuaciones se utiliza para encontrar las raíces características de una matriz?

<p>Det(A - λId) = 0. (C)</p> Signup and view all the answers

¿Qué se afirma sobre un operador lineal T: V → V si tiene n valores propios distintos?

<p>T es diagonalizable. (B)</p> Signup and view all the answers

¿Qué implica que una raíz λ del polinomio característico cumpla mg(λ) = ma(λ)?

<p>T es diagonalizable. (B)</p> Signup and view all the answers

¿Cómo se relacionan la multiplicidad algebraica y geométrica de un valor propio λ en un operador lineal T?

<p>1 ≤ mg(λ) ≤ ma(λ). (B)</p> Signup and view all the answers

¿Qué define un subespacio invariante respecto a un operador lineal T: V → V?

<p>T(W) ⊆ W. (B)</p> Signup and view all the answers

¿Qué significa que la suma de subespacios propios asociados a valores propios distintos sea suma directa?

<p>La intersección de los subespacios es trivial. (A)</p> Signup and view all the answers

Según el Teorema de Gershgoren, ¿qué se puede afirmar sobre los valores propios de una matriz A?

<p>Los valores propios se encuentran en la unión de discos relacionados. (C)</p> Signup and view all the answers

Si un operador lineal T: V → V tiene un valor propio λ que no se encuentra en N(T - λId), ¿qué se debe hacer para encontrar dicho valor propio?

<p>Examinar N(T - λId)². (D)</p> Signup and view all the answers

¿Qué se entiende por multiplicidad algebraica de un valor propio λ?

<p>Cantidad de veces que λ aparece como raíz del polinomio característico. (A)</p> Signup and view all the answers

Flashcards

Operador lineal

Una transformación lineal que va de un espacio vectorial a sí mismo. Es decir, la entrada y la salida son del mismo espacio vectorial.

Matriz asociada a una transformación lineal

Una matriz que representa una transformación lineal en relación a dos bases diferentes.

Vector propio

Un vector que no cambia su dirección cuando se aplica una transformación lineal, solo se escala por un factor.

Subespacio propio

Un subespacio vectorial formado por todos los vectores propios asociados a un valor propio.

Signup and view all the flashcards

Valor propio

Un valor que multiplica un vector propio para obtener el resultado de aplicarle la transformación lineal.

Signup and view all the flashcards

Matriz diagonalizable

Una matriz que se puede diagonalizar mediante una transformación de semejanza.

Signup and view all the flashcards

Matrices semejantes

Dos matrices que se pueden convertir una en la otra mediante una transformación de semejanza.

Signup and view all the flashcards

Matriz invertible

Una matriz que se puede expresar como el producto de una matriz invertible y su inversa.

Signup and view all the flashcards

Producto Interno

Una función ⟨.,.⟩ ∶ 𝑉𝑥𝑉 → 𝐾 que cumple ciertas propiedades, como la linealidad en la primera entrada, la conjugación en la segunda entrada, y la positividad.

Signup and view all the flashcards

Norma

Una función ‖.‖: 𝑉 → 𝑅 que cumple ciertas propiedades, como no negatividad, homogeneidad y desigualdad triangular.

Signup and view all the flashcards

Norma Inducida por Producto Interno

La norma inducida por un producto interno se calcula como la raíz cuadrada del producto interno del vector consigo mismo.

Signup and view all the flashcards

Lema de la Norma

Una identidad que relaciona las normas de la suma y la resta de dos vectores.

Signup and view all the flashcards

Desigualdad de Cauchy-Schwarz

Una desigualdad que establece un límite superior para el valor absoluto del producto interno entre dos vectores.

Signup and view all the flashcards

Ángulo entre dos vectores

El ángulo entre dos vectores se define mediante el coseno del ángulo, que es igual al producto interno de los vectores dividido por el producto de sus normas.

Signup and view all the flashcards

Desigualdad Triangular

Una identidad que establece que la norma de la suma de dos vectores es menor o igual que la suma de las normas de los vectores.

Signup and view all the flashcards

Vectores Ortogonales

Dos vectores son ortogonales si su producto interno es igual a cero.

Signup and view all the flashcards

Conjunto Ortogonal

Un conjunto de vectores donde cada par de vectores distintos es ortogonal.

Signup and view all the flashcards

Conjunto Ortonormal

Un conjunto ortogonal donde la norma de cada vector es igual a 1.

Signup and view all the flashcards

Conjunto linealmente independiente de vectores propios

Conjunto de vectores propios asociados a valores propios distintos de un operador lineal. Si este conjunto es linealmente independiente, puede usarse para diagonalizar el operador.

Signup and view all the flashcards

Teorema de independencia lineal para conjuntos ortogonales

Un conjunto ortogonal de vectores no nulos en un espacio vectorial con producto interno siempre es linealmente independiente.

Signup and view all the flashcards

Diagonalización de operadores lineales

Si un operador lineal tiene tantos valores propios distintos como la dimensión del espacio vectorial, entonces es diagonalizable.

Signup and view all the flashcards

Teorema de Pitágoras para vectores ortogonales

En un espacio vectorial con producto interno, la norma de una suma de vectores ortogonales es igual a la raíz cuadrada de la suma de las normas al cuadrado de cada vector.

Signup and view all the flashcards

Suma Directa de Subespacios Propios

La suma de los subespacios propios asociados a valores propios distintos es la suma directa de esos subespacios.

Signup and view all the flashcards

Ortonormalización de Gram-Schmidt

Un proceso que permite convertir cualquier base de un espacio vectorial con producto interno en una base ortonormal. Se construyen vectores ortogonales a partir de los vectores de la base original.

Signup and view all the flashcards

Multiplicidad algebraica y geométrica de un valor propio

Dos conceptos que describen las propiedades de un valor propio. La multiplicidad algebraica es la multiplicidad del valor propio como raíz del polinomio característico. La multiplicidad geométrica es la dimensión del subespacio propio asociado al valor propio.

Signup and view all the flashcards

Base ortonormal (b.o.n.)

Un conjunto de vectores ortogonales y unitario (norma uno) en un espacio vectorial con producto interno.

Signup and view all the flashcards

Propiedad del producto interno con una base ortonormal

El producto interno entre dos vectores expresados como combinaciones lineales de una base ortonormal se calcula como la suma de los productos de los coeficientes correspondientes.

Signup and view all the flashcards

Subespacio Invariante

Un subespacio 𝑊 de 𝑉 es invariante bajo una transformación lineal 𝑇 si la aplicación de 𝑇 a cualquier vector en 𝑊 produce otro vector que también está en 𝑊. En otras palabras, 𝑇 no saca vectores del subespacio 𝑊.

Signup and view all the flashcards

Descomposición de un vector en una base ortonormal

Todo vector en un espacio vectorial con producto interno se puede expresar como la suma de sus proyecciones ortogonales sobre los vectores de una base ortonormal.

Signup and view all the flashcards

Diagonalizabilidad de un operador lineal

Un operador lineal 𝑇: 𝑉 → 𝑉 es diagonalizable si, y solo si, la suma de las dimensiones de los subespacios propios asociados a todos los valores propios es igual a la dimensión del espacio vectorial.

Signup and view all the flashcards

Complemento ortogonal (S⊥)

El conjunto de todos los vectores ortogonales a cada vector de un conjunto S en un espacio vectorial con producto interno. Básicamente, es el conjunto de vectores que son perpendiculares a S.

Signup and view all the flashcards

Relación entre multiplicidad algebraica y geométrica

La multiplicidad geométrica de un valor propio siempre es menor o igual que su multiplicidad algebraica.

Signup and view all the flashcards

Propiedad del complemento ortogonal

El complemento ortogonal de un subespacio S es también un subespacio en el mismo espacio vectorial.

Signup and view all the flashcards

Vector ortogonal a un subespacio

Si S es un subespacio de dimensión finita, entonces un vector es ortogonal a S si es ortogonal a cada vector de una base de S

Signup and view all the flashcards

Descomposición ortogonal de un espacio vectorial

Un espacio vectorial con producto interno se puede descomponer como la suma directa de un subespacio S y su complemento ortogonal S⊥.

Signup and view all the flashcards

Multiplicidad algebraica y geométrica

Si la multiplicidad algebraica de un valor propio (𝜆) es 2, entonces la multiplicidad geométrica del otro valor propio (𝜇) debe ser 1.

Signup and view all the flashcards

Subespacio invariante vs. Subespacio propio

Un subespacio invariante no siempre es un subespacio propio. Un subespacio invariante es un subespacio que, bajo la acción de la transformación lineal, no sale de sí mismo. Un subespacio propio está asociado a un valor propio y contiene todos los vectores que se multiplican por ese valor propio bajo la transformación.

Signup and view all the flashcards

Círculos de Gershgorin y Diagonalización

Si los círculos de Gershgorin no se intersectan, entonces la matriz es diagonalizable. Los círculos de Gershgorin son un método para estimar la ubicación de los valores propios de una matriz.

Signup and view all the flashcards

Conjunto ortonormal vs. Linealmente independiente

Un conjunto ortonormal no siempre es linealmente independiente. Un conjunto ortonormal es aquel en el que todos los vectores son ortogonales entre sí y tienen norma 1. Un conjunto linealmente independiente es aquel donde ningún vector puede expresarse como combinación lineal de los demás.

Signup and view all the flashcards

Cero como valor propio, espacio nulo y dimensiones

Si cero es un valor propio de una transformación lineal, entonces la dimensión del espacio nulo de la transformación (N(T)) es mayor o igual a 1. Esta afirmación es correcta, ya que el espacio nulo de una transformación lineal contiene todos los vectores que se transforman en el vector cero.

Signup and view all the flashcards

Proyección ortogonal y vectores

La proyección ortogonal sobre un subespacio no siempre produce el mismo vector. La proyección ortogonal es una operación que encuentra el vector más cercano al original en un determinado subespacio.

Signup and view all the flashcards

Dimensión del espacio nulo y multiplicidad algebraica

La dimensión del espacio nulo de una transformación lineal menos una constante (lambda I) no es igual a la multiplicidad algebraica de lambda. La dimensión del espacio nulo es la multiplicidad geométrica del valor propio.

Signup and view all the flashcards

Diagonalización y valores propios

Una matriz diagonalizable no siempre implica que todos sus valores propios sean reales y distintos. Una matriz es diagonalizable si existe una base de vectores propios para el espacio vectorial correspondiente. Los valores propios pueden ser complejos o repetidos.

Signup and view all the flashcards

Study Notes

Matriz Asociada a una Transformación Lineal

  • Una transformación lineal que mapea un espacio vectorial a sí mismo se llama operador lineal.
  • CoordẞT(v) = b(T)a Coorda(v)
  • b(T + S)a = b(T)a + b(S)a
  • b(aT)a = ab(T)a, α ∈ Κ

Cambio de Bases

  • Si se tienen dos bases diferentes, existe una relación entre ellas: b(T)ã = b(Id)b b(T)a a(Id)ã
  • b(Id)b y a(Id)ã representan matrices de cambio de base.
  • Las matrices de cambio de base se construyen expresando los vectores de la base "a" como combinación lineal de los vectores de la base "ã".

Matriz Invertible

  • Si A y B son matrices n x n, son semejantes si existe una matriz invertible P tal que: B = P⁻¹AP

Propiedades de Matrices Semejantes

  • Rango(A) = Rango(B)
  • Traza(A) = Traza(B)
  • Det(A) = Det(B)

Vector Propio

  • Un vector propio de una transformación lineal T es un vector v (distinto de cero) tal que T(v) = λv, donde λ es un valor propio.

Subespacio Propio

  • Dado un operador lineal T y un valor propio λ, un subespacio propio asociado a λ es el conjunto de todos los vectores v en V tales que T(v) = λv.

Matriz Diagonalizable

  • Una transformación lineal T es diagonalizable si existe una base de vectores propios para V.
  • La matriz de T en la base de vectores propios es diagonal.

Multiplicidad Algebraica y Geométrica

  • La multiplicidad algebraica de un valor propio λ, ma(λ), es la multiplicidad del valor propio como raíz del polinomio característico.
  • La multiplicidad geométrica de un valor propio λ, mg(λ), es la dimensión del subespacio propio asociado a λ.

Teorema de Gershgorin

  • El teorema de Gershgorin proporciona un método para dar un intervalo de búsqueda de valores propios de una matriz.
  • El teorema de Gershgorin relaciona los valores propios de una matriz con los elementos de la matriz, en particular, con los elementos en la diagonal y los sumandos fuera de la diagonal.

Bloques de Jordan

  • Los bloques de Jordan son una forma de representar matrices en su forma canónica de Jordan, que se utiliza para trabajar con operadores lineales.
  • Son estructuras cuadradas que ayudan a comprender la estructura de la matriz asociada a un operador lineal.

Producto Interno

  • Un producto interno en un espacio vectorial es una función que asigna un número real a un par de vectores.
  • Las condiciones para ser un producto interno son la linealidad, la simetría y la positividad.

Norma Inducida por Producto Interno

  • Una norma inducida por un producto interno se define como la raíz cuadrada del producto interno del vector consigo mismo:
  • ||v|| = √(v, v)

Desigualdad de Cauchy-Schwarz

  • La desigualdad de Cauchy-Schwarz establece que para cualquier par de vectores v y w en un espacio vectorial con producto interno: |(v, w)| ≤ ||v||||w||

Conjuntos Ortogonales y Ortonormales

  • Un conjunto de vectores es ortogonal si el producto interno de cualquier par de vectores distintos del conjunto es cero.
  • Un conjunto de vectores es ortonormal si es ortogonal y cada vector tiene una norma de 1.

Método de Gram-Schmidt

  • El método de Gram-Schmidt permite encontrar una base ortonormal a partir de una base dada en un espacio vectorial con producto interno.

Complemento Ortogonal

  • El complemento ortogonal de un subespacio S de un espacio vectorial V con producto interno es el conjunto de todos los vectores en V que son ortogonales a todos los vectores en S.

Proyección Ortogonal

  • La proyección ortogonal de un vector v sobre un subespacio S es el vector en S que está más cerca de v.
  • La proyección ortogonal se denota como Pₛ(v).

Enunciados Verdadero o Falso

  • Diversos enunciados sobre operadores lineales, espacios vectoriales, matrices y subespacios se establecen, así como, se indica si cada enunciado es verdadero o falso.

Studying That Suits You

Use AI to generate personalized quizzes and flashcards to suit your learning preferences.

Quiz Team

Related Documents

Description

Este cuestionario abarca conceptos fundamentales sobre transformaciones lineales, cambio de bases, y propiedades de matrices. También se exploran vectores propios y subespacios propios en el contexto del álgebra lineal. Ideal para estudiantes que buscan profundizar en estos temas.

More Like This

Use Quizgecko on...
Browser
Browser