Summary

These notes summarize lectures on algebra, covering topics such as complex numbers, vector spaces, and related concepts. The notes provide definitions, examples, and theorems.

Full Transcript

Riepilogo Lezione 1 Numeri complessi C: si introduce l’unità immaginaria i: √ i 2 = i · i = −1, (i = −1), un numero complesso è: z = a + i · b, a, b ∈ R Re(z) = a, parte reale , Im(z) = b, par...

Riepilogo Lezione 1 Numeri complessi C: si introduce l’unità immaginaria i: √ i 2 = i · i = −1, (i = −1), un numero complesso è: z = a + i · b, a, b ∈ R Re(z) = a, parte reale , Im(z) = b, parte immaginaria Siano z1 = a1 + i · b1 , z2 = a2 + i · b2 ∈ C. Somma: z1 + z2 = (a1 + a2 ) + i · (b1 + b2 ) Prodotto: z1 · z2 = (a1 a2 − b1 b2 ) + i · (a1 b2 + a2 b1 ) Inverso: se z1 ̸= 0, allora z1−1 = a2 +b a b z1 2 − i · a2 +b 2 = a2 +b 2 = z1 z1 ·z1 Coniugato: z1 = a1 − i · b1 C è un campo (i.e., ogni elemento non nullo è invertibile), che contiene strettamente il campo R: a ∈ R, a = a + i · 0 ∈ C. G. Peruginelli Riepilogo 1 / 58 Riepilogo Lezione 2 Rappresentazione α = a + ib ∈ C, nel piano R2 : Rappresentazione √ trigonometrica di numeri complessi: modulo ρ = a2 + b 2 e argomento θ (tan(θ) = b/a): α = ρ · (cos θ + i · sin θ), ρ ≥ 0, θ ∈ [0, 2π) Radici m-esime: z m = α, m ≥ 1 (serve rappr. trigon. di α)⇒     √ θ 2π θ 2π zk = m ρ · (cos +k + i sin +k ), k = 0,... , m − 1 m m m m Rappr. esponenziale: z = ρ · e iθ , dove e iθ = cos(θ) + i sin(θ). Teorema Fondamentale Algebra. G. Peruginelli Riepilogo 2 / 58 Riepilogo Lezione 3 Definizione di Spazio Vettoriale V su un campo K : insieme (non vuoto) dotato di 2 operazioni, Somma (v1 , v2 ∈ V ⇒ v1 + v2 ∈ V ) e Prodotto per scalari (α ∈ K , v ∈ V ⇒ α · v ∈ V ). Elementi di V : vettori, elementi di K : scalari. Esempi: Rn = {(a1 ,... , an ) | ai ∈ R}, n ≥ 1 R2 si identifica al piano cartesiano, R3 allo spazio tridimensionale. Polinomi a coefficienti in un campo K. Funzioni continue. Matrici a coefficienti in un campo K : somma tra matrici e prodotto di uno scalare per una matrice. Anticipazione: Le soluzioni di un SEL omogeneo formano uno spazio vettoriale. G. Peruginelli Riepilogo 3 / 58 Riepilogo Lezione 4 Sia V uno spazio vettoriale su un campo K. Siano v1 ,... , vn ∈ V. Una combinazione lineare di v1 ,... , vn è un vettore v ∈ V tale che: v = a1 · v1 +... + an · vn , a1 ,... , an ∈ K Si dice che v1 ,... , vn sono linearmente indipendenti se → − a1 · v1 +... + an · vn = 0 ⇒ a1 =... = an = 0 Esempio: v1 = (1, 0, 1), v2 = (0, 1, −1), v3 = (5, −3, 8) ∈ R3. Risulta che a1 v1 + a2 v2 + a3 v3 = (a1 + 5a3 , a2 − 3a3 , a1 − a2 + 8a3 ) = (0, 0, 0) se e solo se (a1 , a2 , a3 ) è soluzione del seguente SEL omogeneo: a3 variabile libera, ∞1 soluzioni,  a1 + 5a3 = 0  a1 = −5a3  a2 − 3a3 = 0 ⇒ ⇔ v1 , v2 , v3 lin. dip. : a2 = 3a3 → − a1 − a2 + 8a3 = 0 p.e.: − 5 · v1 + 3 · v2 + v3 = 0  G. Peruginelli Riepilogo 4 / 58 Riepilogo Lezione 5, 1/2 Sia V uno spazio vettoriale su K. Un Sottospazio vettoriale U di V è un sottoinsieme U di V tale che: → − i) 0 ∈ U. ii) u1 , u2 ∈ U ⇒ u1 + u2 ∈ U (”chiuso” rispetto alla somma). iii) u ∈ U, α ∈ K ⇒ α · u ∈ U (”chiuso” rispetto al prodotto per scalari). Anticipazione: Le soluzioni di un SEL omogeneo in n variabili formano uno sottospazio vettoriale di Rn (e viceversa!). Siano W1 , W2 ⊆ V sottospazi. Si definiscono l’intersezione e la somma di W1 , W2 come: W1 ∩ W2 ={v ∈ V | v ∈ W1 , v ∈ W2 } W1 + W2 ={v ∈ V | v = w1 + w2 , w1 ∈ W1 , w2 ∈ W2 } W1 + W2 è il più piccolo sottospazio di V contenente W1 e W2. NB: l’unione di sottospazi non è un sottospazio in genere!. G. Peruginelli Riepilogo 5 / 58 Riepilogo Lezione 5, 2/2 Dati v1 ,... , vn ∈ V si definisce W =< v1 ,... , vn >= {a1 · v1 +... + an · vn | ai ∈ K , i = 1,... , n} si dice che W è il sottospazio di V generato da v1 ,... , vn. Obiettivo: dato un SEL omogeneo trovare un insieme di generatori dell’insieme delle soluzioni (NON è unico!). Esempio: W sottospazio di R3 di equazione x + 2y + z = 0, allora z = −x − 2y , x, y variabili libere, se x = 1, y = 0 → w1 = (−2, 1, 0) ∈ W e se x = 0, y = 1 → w2 = (−1, 0, 1) ∈ W e quindi W = {(x, y , −x − 2y ) | x, y ∈ R} =< w1 , w2 >. Osservazione: Se W1 =< w1 ,... , wr >, W2 =< w1′ ,... , ws′ > allora W1 + W2 =< w1 ,... , wr , w1′ ,... , ws′ >. G. Peruginelli Riepilogo 6 / 58 Riepilogo Lezione 6 Sia V uno spazio vettoriale su K. Una Base di V è un insieme v1 ,... , vn ∈ V tali che: i) v1 ,... , vn generano V. ii) v1 ,... , vn sono linearmente indipendenti. Esempio: e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) è una base di R3 , detta canonica. Lemma dello Scambio: se V è generato da n vettori, allora ogni insieme {w1 ,... , wr } ⊂ V linearmente indipendente ha al più n vettori (r ≤ n). Corollario: due basi di uno stesso spazio vettoriale V hanno lo stesso numero di vettori, detto dimensione di V e indicato con dim(V ). → − Si pone dim({ 0 }) = 0 Applicazione: la dimensione dello spazio delle soluzioni di una equazione lineare omogenea U : a1 x1 +... + an xn = 0 (U ⊂ Rn ) è n − 1. G. Peruginelli Riepilogo 7 / 58 Riepilogo Lezione 7 Sia V uno spazio vettoriale su K , dim(V ) = n. Osservazione: Un insieme B = {v1 ,... , vn } ⊂ V è base di V se o B è lin. ind. o B è insieme generatori di V (NB: è vero solo se numero vettori di B = dim(V )!) Fatto: Se {v1 ,... , vn } è lin. indip. e v ∈< / v1 ,... , vn > allora {v1 ,... , vn , v } è lin. indip.. Coordinate vettore v ∈ V rispetto ad una base B = {v1 ,... , vn }: (a1 ,... , an ) ∈ K n unicamente determinati tali che v = a1 v1 +... + an vn Esempio: e1 = (1, 0,... , 0),... , en = (0,... , 0, 1) ∈ Rn base canonica, dato v = (a1 ,... , an ) ∈ Rn , v = a1 e1 +... + an en. Osservazione: Q[X ] è uno sp. vett. NON finitamente generato. Se n ≥ 1, allora Q[X ]≤n (polinomi di grado ≤ n) ha dimensione n + 1, una base è data da 1, X ,... , X n. G. Peruginelli Riepilogo 8 / 58 Riepilogo Lezione 8 Sia V uno spazio vettoriale su K , dim(V ) = n. Estrazione di una base: Sia S = {v1 ,... , vs } insieme generatori di V. Allora esiste B ⊆ S che è una base di V. si eliminano ad uno ad uno i vettori che sono combinazione lineare dei rimanenti. Corollario Ogni spazio vettoriale finitamente generato ammette una base. Completamento ad una base: Sia S = {v1 ,... , vr } vettori lin. ind. di V. Allora esistono vr +1 ,... , vn ∈ V tali che S ∪ {vr +1 ,... , vn } è base di V. Dimensione sottospazio: Sia W sottospazio di V. Allora W è fin. generato e dim(W ) ≤ dim(V ). Vale dim(W ) = dim(V ) se e solo se W = V. G. Peruginelli Riepilogo 9 / 58 Riepilogo Lezione 9 Formula di Grassmann: Se U, W sottospazi di uno spazio vettoriale V finitamente generato, allora dim(U + W ) = dim(U) + dim(W ) − dim(U ∩ W ) Equazioni cartesiane di sottospazi di Rn : dato U =< u1 ,... , ur >⊂ Rn sottospazio, trovare un SEL omogeneo che abbia U come insieme di soluzioni. Ossia, v = (x1 ,... , xn ) ∈ U ⇔ v = a1 · u1 +... + ar · ur , a1 ,... , ar ∈ R e dal SEL corrispondente si eliminano i parametri a1 ,... , ar. Esempio: W =< (1, 2, −1), (0, 3, −2) >⊂ R3. Dato (x, y , z) ∈ R3 , (x, y , z) ∈ W ⇔ (x, y , z) = a1 (1, 2, −1) + a2 (0, 3, −2), a1 , a2 ∈ R ⇔   x= a1 y = 2a1 + 3a2 ⇒ x − 2y − 3z = 0 z = −a1 − 2a2  G. Peruginelli Riepilogo 10 / 58 Riepilogo Lezione 10 Sottospazi vettoriali U di R2 (0 ≤ dim(U) ≤ 2): {(0, 0)}, rette per (0, 0), R2. Sottospazi vettoriali U di R3 (0 ≤ dim(W ) ≤ 3): {(0, 0, 0)}, rette per (0, 0, 0), piani per (0, 0, 0), R3. Base di Mm×n (R), dim(Mm×n (R)) = m · n. Esempio: le matrici       1 0 0 0 1 0 0 0 1 E11 = , E12 = , E13 = , 0 0 0 0 0 0 0 0 0       0 0 0 0 0 0 0 0 0 E21 = , E22 = , E23 = 1 0 0 0 1 0 0 0 1 formano una base di M2×3 (R). Due sottospazi W , U di uno spazio vettoriale V si dicono complementari → − se W ⊕ U = V (in particolare W ∩ U = { 0 }). G. Peruginelli Riepilogo 11 / 58 Riepilogo Lezione 11, 1/4 L’Algoritmo di Eliminazione di Gauss (E.G.) trasforma la matrice A dei coefficienti associata ad un SEL in una matrice in forma ridotta. Ciò viene fatto per mezzo delle 3 Operazioni Elementari (O.E.): 1) Una riga di A è moltiplicata per α ∈ R, α ̸= 0. 2) Si somma ad una riga di A un multiplo scalare di un’altra riga di A. 3) Due righe di A si scambiano di posto. Una matrice A è in forma ridotta se: i) il primo coefficiente non nullo di ogni riga è 1. ii) forma a scalini. iii) righe nulle in fondo. Esempi di matrici in forma ridotta:     1 2 −3 0 1 0 2   0 0 1 −2 , 0 1 −2 1 0 , 0 1 0 0 0 1 0 0 0 G. Peruginelli Riepilogo 12 / 58 Riepilogo Lezione 11, 2/4 Esempio  1  x + 4y + z = 2 5x + z = 0 −y + z = −1  G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 2/4 Esempio  1    x + 4y + z = 2 1 4 1 2 5x + z = 0 → 5 0 1 0 −y + z = −1 0 −1 1 −1  G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 2/4 Esempio  1    x + 4y +z = 2 1 4 1 2 II −5I 5x +z = 0 → 5 0 1 0  −→ −y + z = −1 0 −1 1 −1    1 4 1 2 0 −20 −4 −10 0 −1 1 −1 G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 2/4 Esempio  1    x + 4y +z = 2 1 4 1 2 II −5I 5x +z = 0 → 5 0 1 0  −→ −y + z = −1 0 −1  1 −1     1 4 1 2 1 4 1 2 II ↔III ,(−1)II 0 −20 −4 −10 −→ 0 1 −1 1  0 −1 1 −1 0 −20 −4 −10 G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 2/4 Esempio  1    x + 4y +z = 2 1 4 1 2 II −5I 5x +z = 0 → 5 0 1 0  −→ −y +z = −1 0 −1  1 −1     1 4 1 2 1 4 1 2 1 III +20II ,(− 24 )·III II ↔III ,(−1)II 0 −20 −4 −10 −→ 0 1 −1 1  −→ 0 −1 1 −1 0 −20 −4 −10   1 4 1 2 0 1 −1 1    0 0 1 −5/12 G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 2/4 Esempio  1    x + 4y +z = 2 1 4 1 2 II −5I 5x + z = 0 → 5 0 1 0  −→ −y + z = −1 0 −1  1 −1     1 4 1 2 1 4 1 2 1 III +20II ,(− 24 )·III II ↔III ,(−1)II 0 −20 −4 −10 −→ 0 1 −1 1  −→ 0 −1 1 −1 0 −20 −4 −10   1 4 1 2   x + 4y + z = 2 0 1 −1 1  → y −z = 1 →   z = −5/12  0 0 1 −5/12   x = −4y − z + 2 = 1/12 y = z + 1 = 7/12 z = −5/12  ⇒ (x, y , z) = (1/12, 7/12, −5/12), unica soluzione G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 3/4 Esempio  2    x1 + x2 + x4 = 1 1 1 0 1 1 III −I x2 + x3 − x4 = 2 → 0 1 1 −1 2 −→ x1 + 2x2 + x3 = 3  1 2 1 0 3    1 1 0 1 1 1 1 0 1 1 0 1 1 −1 2 III −II   3a , 4a non dominanti, −→  0 1 1 −1 2 → x3 , x4 var. libere 0 1 1 −1 2 0 0 0 0 0     x1 = −x2 − x4 + 1 = t − 2s − 1 x1 + x2 + x4 = 1 x2 = −x3 + x4 + 2 = −t + s + 2  → x2 + x3 − x4 = 2   x3 = t∈R x4 = s∈R  t=1,s=0 t=0,s=1 ⇒ Soluzioni :{t · (1, −1, 1, 0) + s · (−2, 1, 0, 1) + (−1, 2, 0, 0) | t, s ∈ R} < (1, −1, 1, 0), (−2, 1, 0, 1) > sono le soluzioni del SEL omogeneo associato, (−1, 2, 0, 0) è una soluzione particolare del SEL. G. Peruginelli Riepilogo 14 / 58 Riepilogo Lezione 11, 4/4 Risoluzione  SEL omogeneo  associato Esempio  2  x1 + x2 + x4 = 0 1 1 0 1 0 III −I x2 + x3 − x4 = 0 → 0 1 1 −1 0 −→ x1 + 2x2 + x3 = 0  1 2 1 0 0    1 1 0 1 0 1 1 0 1 0 0 1 1 −1 0 III −II   3a , 4a non dominanti, −→  0 1 1 −1 0 → x3 , x4 var. libere 0 1 1 −1 0 0 0 0 0 0     x1 = −x2 − x4 = t − 2s x1 + x2 + x4 = 0 x2 = −x3 + x4 = −t + s  → ⇒ x2 + x3 − x4 = 0   x3 = t∈R x4 = s∈R  Soluzioni del SEL omogeneo: t=1,s=0 t=0,s=1 {t · (1, −1, 1, 0) + s · (−2, 1, 0, 1) | t, s ∈ R} =< (1, −1, 1, 0), (−2, 1, 0, 1) > G. Peruginelli Riepilogo 15 / 58 Riepilogo Lezione 12 E.G. non altera lo Spazio delle Righe di una matrice A. NB: lo spazio delle colonne di A può invece essere alterato. Applicazione: determinare una base di uno spazio vettoriale W ⊂ Rn generato da v1 ,... , vr : si forma la matrice A ∈ Mr ×n (vettori per riga !!), ne si calcola una forma ridotta U, e le righe non nulle di U formano una base di W. 3 Esempio: Sia W  =< (1, 2,−1), (0, 3, 2), (2, 1, −4)  >⊆ R. Una forma 1 2 −1 1 2 −1 ridotta di A = 0 3 2  ∈ M3×3 (R) è U = 0 1 2/3 e quindi 2 1 −4 0 0 0 {(1, 2, −1), (0, 1, 2/3)} è una base di W. Risulta infatti che < (1, 2, −1), (0, 3, 2), (2, 1, −4) >=< (1, 2, −1), (0, 1, 2/3) > Notare che lo spazio delle colonne di A è diverso da quello di U. G. Peruginelli Riepilogo 16 / 58 Riepilogo Lezione 13 Siano V , +, · e W , +, · spazi vettoriali su un campo K. Un’Applicazione Lineare da V in W è una funzione f : V → W tale che 1) ∀v1 , v2 ∈ V , f (v1 +v2 ) = f (v1 )+f (v2 ). 2) ∀v ∈ V e α ∈ K , f (α·v ) = α·f (v ). Proprietà: Sia f : V → W lineare: → − → − f ( 0 ) = 0 (ma NON vale il viceversa!). f (α1 · v1 + α2 · v2 ) = α1 · f (v1 ) + α2 · f (v2 ), ∀αi ∈ K , vi ∈ V , i = 1, 2. Si definiscono il Nucleo e l’Immagine di una funzione lineare f : V → W : → − ker(f ) ={v ∈ V | f (v ) = 0 }, sottospazio di V Im(f ) ={w ∈ W | ∃v ∈ V , w = f (v )}, sottospazio di W Oss.: se {v1 ,... , vn } generatori di V allora {f (v1 ),... , f (vn )} generatori di Im(f ). NB: se {v1 ,... , vn } lin. ind. NON implica {f (v1 ),... , f (vn )} lin. ind.. G. Peruginelli Riepilogo 17 / 58 Riepilogo Lezione 14, 1/2 Sia f : V → W una funzione. Allora f è iniettiva se per ogni v1 , v2 ∈ V , v1 ̸= v2 , risulta f (v1 ) ̸= f (v2 ). f è suriettiva se per ogni w ∈ W , esiste v ∈ V tale che f (v ) = w. f è biunivoca se è iniettiva e suriettiva. f è un isomorfismo se è lineare e biunivoca. Proprietà: Sia f : V → W lineare. → − f è iniettiva se e solo se ker(f ) = { 0 }. se w ∈ W , allora la controimmagine di w è f −1 (w ) = {v ∈ V | f (v ) = w } e risulta che v + ker(f ), se w = f (v ) ∈ Im(f ), con v ∈ V f −1 (w ) = ∅, se w ∈ / Im(f ) Teorema Ogni spazio vettoriale V finitamente generato è isomorfo a K n , dove n = dim(V ). G. Peruginelli Riepilogo 18 / 58 Riepilogo Lezione 14, 2/2 Esempio: f : R3 → R3 , f (x1 , x2 , x3 ) = (2x1 − x2 + 3x3 , 3x2 − x3 , 2x1 + 2x2 + 2x3 ). ker(f ) = f −1 (0, 0, 0) si determina risolvendo il SEL omogeneo:   2x1 − x2 + 3x3 = 0 3x2 − x3 =0 2x1 + 2x2 + 2x3 = 0  Risulta che ker(f ) =< (−4, 1, 3) >. La controimmagine f −1 (1, −1, 0) si determina risolvendo il SEL non omogeneo:   2x1 − x2 + 3x3 = 1 3x2 − x3 = −1 2x1 + 2x2 + 2x3 = 0  Risulta che f −1 (1, −1, 0) = (−1, 0, 1) + ker(f ), dove (−1, 0, 1) è una soluzione particolare del SEL non omogeneo. G. Peruginelli Riepilogo 19 / 58 Riepilogo Lezione 15, 1/2 Siano V , W spazi vettoriali su un campo K e B = {v1 ,... , vn } una base di V. Se scelgo n vettori a piacere w1 ,... , wn ∈ W (eventualmente uguali) posso costruire un’applicazione lineare f : V → W tale che f (v1 ) = w1 ,... , f (vn ) = wn. Dato un generico vettore v ∈ V : v = a1 · v1 +... + an · vn ∈ V , a1 ,... , an ∈ K si dice che estendo per linearità f a tutto V definendo: f (v ) = a1 · f (v1 ) +... + an · f (vn ) = a1 · w1 +... + an · wn Sia f : V → W lineare e B = {v1 ,... , vn } una base di V. f è iniettiva se e solo se {f (v1 ),... , f (vn )} è linearmente indipendente. f è suriettiva se e solo se {f (v1 ),... , f (vn )} è un insieme di generatori di W. f è isomorfismo se e solo se {f (v1 ),... , f (vn )} è una base di W. G. Peruginelli Riepilogo 20 / 58 Riepilogo Lezione 15, 2/2 Sia f : V → W lineare. Nullità di f : null(f )= dim(ker(f )), Rango di f : rk(f )= dim(Im(f )). Teorema (Nullità + Rango) Sia f : V → W lineare con V finitamente generato. Allora dim(V ) = dim(ker(f )) + dim(Im(f )) Applicazioni: Sia f : V → W lineare. f è iniettiva se e solo se dim(V ) =rk(f ). f è suriettiva se e solo se dim(W ) =rk(f ). se dim(V ) < dim(W ) allora f non è suriettiva. se dim(V ) > dim(W ) allora f non è iniettiva. Sia f : V → V lineare, detta endomorfismo di V. Allora f è iniettiva se e solo se è suriettiva. G. Peruginelli Riepilogo 21 / 58 Riepilogo Lezione 16, 1/2 Sia f : V → W una applicazione lineare tra spazi vettoriali, dim(V ) = n, dim(W ) = m. Fissate una base B = {v1 ,... , vn } di V e una base C = {w1 ,... , wm } di W , supponiamo che f (v1 ) =a11 · w1 +... + am1 · wm f (v2 ) =a12 · w1 +... + am2 · wm... f (vn ) =a1n · w1 +... + amn · wm Si definisce la matrice associata a f rispetto alle basi B e C come la matrice m × n:   a11 a12... a1n MBC (f ) = ...  am1 am2... amn nella colonna i di MBC (f ) si trovano le coordinate di f (vi ) rispetto a C, per i = 1,... , n. G. Peruginelli Riepilogo 22 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora   E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio:     1 1 2 1 1  · 2 0 = 3 1 0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora   E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio:     1 1  2 1 1  2·1+1·2+1·0 · 2 0 = 3 1 0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora   E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio:     1 1  2 1 1  4 · 2 0 = 3 1 0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora   E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio:     1 1  2 1 1  4 2·1+1·0+1·2 · 2 0 = 3 1 0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora   E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio:     1 1  2 1 1  4 4 · 2 0 = 3 1 0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora   E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio:     1 1  2 1 1  4 4 · 2 0 = 3 1 0 3·1+1·2+0·0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora   E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio:     1 1  2 1 1  4 4 · 2 0 = 3 1 0 5 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora   E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio:     1 1  2 1 1  4 4 · 2 0 = 3 1 0 5 3·1+1·0+0·2 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora   E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio:     1 1   2 1 1  4 4 · 2 0 = 3 1 0 5 3 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 17, 1/2 Data una matrice A ∈ Mm×n (K ), si definisce la seguente appl. lineare: FA :K n → K m v 7→ FA (v ) = A · v dove A · v è il prodotto della matrice A per il vettore (colonna!) v. NB: numero colonne di A = n =dimensione dominio FA. numero righe di A = m =dimensione codominio FA. Osservazione 1: La matrice associata a FA rispetto alle basi canoniche su K n e K m è A. Inoltre l’immagine di FA è generata dalle colonne di A: a11... a1n a11 a1n ! ! ! A=... ⇒ Im(FA ) =<... ,...,... >⊆ K m am1... amn am1 amn Osservazione 2: le soluzioni di un SEL omogeneo in n variabili e m equazioni sono il nucleo di una appl. lineare FA : K n → K m ⇒ sono un sottospazio vettoriale di K n. Osservazione 3: ogni appl. lineare f : K n → K m risulta uguale ad una FA , per una opportuna A ∈ Mm×n (K ) (ossia f (v ) = A · v per ogni v ∈ K n ). G. Peruginelli Riepilogo 24 / 58 Riepilogo Lezione 17, 2/2 Sia f : V → W lineare, con dim(V ) = n, dim(W ) = m. Siano B = {v1 ,... , vn }, C = {w1 ,... , wm } basi di V e W , rispettivamente. Sia A = MBC (f ) e FA : K n → K m , FA (v ) = A · v. La relazione tra f e FA è data dal seguente diagramma commutativo: ' f / WC , v_ VB f (v ) _       a1   b1 FA ... Kn / Km ...  1 an bm coord. v risp a B coord. f (v ) risp a C Ossia, per ogni v ∈ V risulta che le coordinate di f (v ) rispetto a C sono uguali al prodotto di MBC (f ) per le coordinate di v rispetto a B. G. Peruginelli Riepilogo 25 / 58 Riepilogo Lezione 18, 1/2 Data A ∈ Mm×n (K ), si definiscono il rango e la nullità di A come il rango e la nullità dell’appl. lineare associata FA : K n → K m : rk(A) = rk(FA ) = dim(Im(FA )), null(A) = null(FA ) = dim(ker(FA )). Im(FA ) è generato dalle colonne di A, quindi rk(A) =max numero colonne di A lin. indip.. Inoltre, per teorema nullità+rango abbiamo che null(A) + rk(A) = n = numero colonne di A Teorema, Rango per righe=Rango per colonne Sia A ∈ Mm×n (K ). Allora max numero colonne di A lin. indip. =max numero righe di A lin. indip. Applicazione: calcolo rango matrice A mediante EG. Siccome spazio righe di A è uguale allo spazio righe di una forma ridotta U, segue che rk(A) =rk(U) = numero righe non nulle di U (vedi Lez. 12). G. Peruginelli Riepilogo 26 / 58 Riepilogo Lezione 18, 2/2 Ogni SEL di m equazioni e n incognite può essere scritto   in forma x1 matriciale come A · X = B, dove A ∈ Mm×n (R), X = ... e B ∈ Rm. xn n m In particolare, se FA : R → R , abbiamo che l’insieme delle soluzioni del SEL A · X = B è la controimmagine FA−1 (B) e, se ci sono soluzioni, FA−1 (B) = v + ker(A), dove v soluzione particolare → − del SEL e ker(A) soluzioni del SEL omogeneo associato A · X = 0. Teorema Rouché-Capelli Il SEL A · X = B ha soluzioni se e solo se rk(A) = rk(A | B) = r ⇔ B è combinazione lineare delle colonne di A. In tal caso, - se r = n allora esiste unica soluzione. - se r < n allora esistono ∞n−r soluzioni (ossia esistono n − r variabili libere). G. Peruginelli Riepilogo 27 / 58 Riepilogo Lezione 19 Una matrice A ∈ Mm×n (K ) è quadrata se m = n (stesso numero di righe e colonne). Se A ∈ Mn×n (K ) è una matrice quadrata, si dice che è invertibile se esiste B ∈ Mn×n tale che   1 0... 0  0 1... 0 (elemento neutro rispetto al prodotto: A·B = B·A = 1n =  ...   A · 1n = 1n · A = A, ∀A ∈ Mn×n (K )) 0 0... 1 A è invertibile se e solo se FA : K n → K n è un automorfismo (ossia lineare e biunivoca) se e solo se rk(A) = n o null(A) = 0. Proiezioni: se Rn = U ⊕ W allora per ogni v ∈ Rn esistono e sono unici u ∈ U, w ∈ W tali che v = u + w. Si definisce la proiezione su W lungo U come la seguente applicazione lineare: f :Rn → Rn v 7→ f (v ) = w G. Peruginelli Riepilogo 28 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi:     0 0 1 0 −3 1 0 1 0 · 2 1 0 = 1 0 0 1 −2 1 G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi:       0 0 1 0 −3 1 1 −2 1 0 1 0 · 2 1 0 = 2 1 0 1 0 0 1 −2 1 0 −3 1 G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi:       0 0 1 0 −3 1 1 −2 1 0 1 0 · 2 1 0 = 2 1 0 1 0 0   1 −2 1 0 −3 1 −1/4 0 −4 2 · = 0 1 2 3 G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi:       0 0 1 0 −3 1 1 −2 1 0 1 0 · 2 1 0 = 2 1 0 1 0 0   1 −2 1  0 −3  1 −1/4 0 −4 2 1 −1/2 · = 0 1 2 3 2 3 G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi:       0 0 1 0 −3 1 1 −2 1 0 1 0 · 2 1 0 = 2 1 0  1 0 0   1 −2 1  0 −3  1 −1/4 0 −4 2 1 −1/2 · =  0 1   2 3 2 3 1 0 0 1 3 1 0 −2 1 0 · 2 1 0 1 = 0 0 1 1 2 −1 −1 G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi:       0 0 1 0 −3 1 1 −2 1 0 1 0 · 2 1 0 = 2 1 0  1 0 0   1 −2 1  0 −3  1 −1/4 0 −4 2 1 −1/2 · =  0 1   2 3 2 3   1 0 0 1 3 1 0 1 3 1 0 −2 1 0 · 2 1 0 1  = 0 −5 −2 1 0 0 1 1 2 −1 −1 1 2 −1 −1 In particolare, applicare EG ad A per ottenere una sua forma ridotta U corrisponde a moltiplicare a sinistra A per una matrice invertibile P (prodotto di matrici elementari), ossia: U = P · A. Altre Applicazioni: Determinare relazioni di dipendenza lineare tra vettori. Calcolo dell’inversa di una matrice. G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 2/2 Se A ∈ Mn×m (K ), applico EG alla matrice (A | 1n ) (n × (m + n)) fino ad ottenere una matrice (U | B), dove U è una forma ridotta di A e B è una matrice invertibile n × n che soddisfa U = B · A. Per trovare l’inversa di A (se esiste! in tal caso n = m) allora (2o step) si continua ad applicare le O.E. fino ad ottenere (1n | A−1 ). Osservazione: Sia A ∈ Mn×m.   a1 se v = ... ∈ K m è un vettore colonna, allora an A · v = a1 · v1 +... + am · vm dove v1 ,... , vm sono le colonne di A. se u = (b1 ,... , bn ) ∈ K n è un vettore riga, allora u · A = b1 · w1 +... + bn · wn dove w1 ,... , wn sono le righe di A. Se U ha righe nulle, allora le corrispondenti righe di B forniscono una relazione di dipendenza lineare tra le righe di A. G. Peruginelli Riepilogo 30 / 58 Riepilogo Lezione 21, 1/2 Sia V spazio vettoriale su campo K. Siano B = {v1 ,... , vn } e C = {v1′ ,... , vn′ } basi di V. Per ogni v ∈ V abbiamo:  λ1 · v1 +... + λn · vn , coordinate rispetto a B v= λ′1 · v1′ +... + λ′n · vn′ , coordinate rispetto a C In particolare, per ogni i = 1,... , n: vi = p1i v1′ +... + pni vn′. La matrice P = MBC (Id) detta di cambiamento di base è n × n invertibile:   p11... p1i... p1n P=...  pn1... pni... pnn Risulta che (vedi Diagramma Commutativo Lez. 17)  ′   λ1 λ1 ... = MBC (Id) · ... λ′n λn Ossia per ogni v ∈ V , MBC (Id) trasforma le coordinate di v rispetto a B nelle coordinate di v rispetto a C. G. Peruginelli Riepilogo 31 / 58 Riepilogo Lezione 21, 2/2 Se P = MBC (Id) e Q = MCB (Id) sono le matrici di cambiamento di base, risulta che P · Q = Q · P = 1n e dunque Q = P −1 (una l’inversa dell’altra). Come calcolare MBC (Id) con B, C basi di Rn : Se C = E3 e B = {(1, 0, 1), (0, −1, 0), (2, 0, −1)}, allora   1 0 2 MBE3 (Id) = 0 −1 0  1 0 −1 MEB3 (Id) = (MBE3 (Id))−1 MBC (Id) = MEC3 (Id) · MBE3 (Id) oppure applico EG alla seguente matrice:   MCE3 (Id) | MBE3 (Id) ⇝ 13 | MBC (Id)  G. Peruginelli Riepilogo 32 / 58 Riepilogo Lezione 22 Sia f : V → W lineare, con dim(V ) = n, dim(W ) = m. Siano B = {v1 ,... , vn }, C = {w1 ,... , wm } basi di V e W , rispettivamente. Sia MBC (f ) la matrice associata a f rispetto a tali basi. Ricordo che per ogni v ∈ V risulta che le coordinate di v rispetto a B sono legate alle coordinate di f (v ) rispetto a C da (Lez. 17):     b1 a1 ... = MBC (f ) · ... bm an Se B ′ = {v1 ,... , vn }, C ′ = {w1′ ,... , wm ′ } sono altre basi di V e W , rispettivamente, allora risulta che: ′ ′ MBC ′ (f ) = MCC (Id) · MBC (f ) · MBB′ (Id) G. Peruginelli Riepilogo 33 / 58 Riepilogo Lezione 23, 1/3 Sia f : V → W lineare. Allora una inversa destra di f è una g : W → V lineare tale che f ◦ g : W → W è l’identità su W. Una inversa destra di f esiste se e solo se f è suriettiva. una inversa sinistra di f è una g : W → V lineare tale che g ◦ f : V → V è l’identità su V. Una inversa sinistra di f esiste se e solo se f è iniettiva. Analogamente, se A ∈ Mm×n (K ), una inversa destra di A è una B ∈ Mn×m (K ) tale che A · B è la matrice identica 1m. Una inversa destra di A esiste se e solo se rk(A) = m. una inversa sinistra di A è una B ∈ Mn×m (K ) tale che B · A è la matrice identica 1n. Una inversa sinistra di A esiste se e solo se null(A) = 0.   1 1 −1 Esempio: per trovare le inverse destre di A = (esistono perchè −1 −1 2 rk(A) = 2) si applica EG a (A | I2 ):   2 − t1 1 − t2 ! −1   1 1 −1 1 0 II +I 1 1 1 0 → ⇒ inv. destre A :  t1 t2  , t1 , t2 ∈ R −1 −1 2 0 1 0 0 1 11 1 1 G. Peruginelli Riepilogo 34 / 58 Riepilogo Lezione 23, 2/3 Osservazione: per trovare le inverse sinistre di una matrice A con null(A) = 0, basta trovare le inverse destre della sua trasposta T A: infatti, B è una inversa destra di A ⇔ A · B = 1n ⇔ T (A · B) = T 1n ⇔ T B · T A = 1n ⇔ T B è una inversa sinistra di T A. Sia AX = B un SEL, con A ∈ Mm×n , B ∈ Rm. Allora i) il SEL ha un’unica soluzione per ogni B ∈ Rm se e solo se A è invertibile. In tal caso, X = A−1 · B. ii) il SEL ha almeno una soluzione per ogni B ∈ Rm se e solo se A ammette inversa destra. Se A · C = 1m , allora le soluzioni sono C · B + ker(A). iii) il SEL ha al più una soluzione per ogni B ∈ Rm se e solo se A ammette inversa sinistra. G. Peruginelli Riepilogo 35 / 58 Riepilogo Lezione 23, 3/3 Metodo dei minori per il calcolo del rango di una matrice A ∈ Mm×n : rk(A) = max{r ∈ N | esiste sottomatrice r × r invertibile di A} G. Peruginelli Riepilogo 36 / 58 Riepilogo Lezione 24, 1/2   a b Una matrice 2 × 2 A = è invertibile se e solo se c d   d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 = 1 ad−bc. −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace:   1 2 −1 det  0 3 2  = Sviluppo rispetto 2a riga 2 1 −4 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 1/2   a b Una matrice 2 × 2 A = è invertibile se e solo se c d   d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 = 1 ad−bc. −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace:   1 2 −1 det  0 3 2  = Sviluppo rispetto 2a riga   2 1 −4 2+1 2 −1 (−1) · 0 · det + 1 −4 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 1/2   a b Una matrice 2 × 2 A = è invertibile se e solo se c d   d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 = 1 ad−bc. −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace:   1 2 −1 det  0 3 2  = Sviluppo rispetto 2a riga   2 1 −4   2+1 2 −1 1 −1 (−1) · 0 · det + (−1)2+2 · 3 · det + 1 −4 2 −4 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 1/2   a b Una matrice 2 × 2 A = è invertibile se e solo se c d   d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 = 1 ad−bc. −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace:   1 2 −1 det  0 3 2  = Sviluppo rispetto 2a riga   2 1 −4     2+1 2 −1 1 −1 1 2 (−1) · 0 · det + (−1)2+2 · 3 · det + (−1)2+3 · 2 · det 1 −4 2 −4 2 1 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 1/2   a b Una matrice 2 × 2 A = è invertibile se e solo se c d   d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 = 1 ad−bc. −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace:   1 2 −1 det  0 3 2  = Sviluppo rispetto 2a riga   2 1 −4     2+1 2 −1 1 −1 1 2 (−1) · 0 · det + (−1)2+2 · 3 · det + (−1)2+3 · 2 · det 1 −4 2 −4 2 1 = 3 · (−2) − 2 · (−3) = 0 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 1/2   a b Una matrice 2 × 2 A = è invertibile se e solo se c d   d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 =. 1 ad−bc −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace:   1 2 −1 det  0 3 2  = Sviluppo rispetto 2a riga   2 1 −4     2+1 2 −1 1 −1 1 2 (−1) · 0 · det + (−1)2+2 · 3 · det + (−1)2+3 · 2 · det 1 −4 2 −4 2 1 Algoritmo EG:     1 2 −1 1 2 −1 III −2I det 0 3 2  = det 0 3 2 =0 2 1 −4 0 −3 −2 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 2/2 Sarrus  (solo nel caso 3 × 3!): per  1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4   1 2 −1  0 3 2  2 1 −4 Riepilogo Lezione 24, 2/2 Sarrus  (solo nel caso 3 × 3!): per  1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4   1 2 −1 1 2  0 3 2 0 3  2 1 −4 2 1 Riepilogo Lezione 24, 2/2 Sarrus  (solo nel caso 3 × 3!): per  1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4   1 2 −1 1 2  0 3 2 0 3 2 1 −4 2 1 Riepilogo Lezione 24, 2/2 Sarrus  (solo nel caso 3 × 3!): per  1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4   1 2 −1 1 2  0 3 2 0 3 2 1 −4 2 1 Riepilogo Lezione 24, 2/2 Sarrus  (solo nel caso 3 × 3!): per  1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4   1 2 −1 1 2  0 3 2 0 3 2 1 −4 2 1 Allora det(A) =1 · 3 · (−4) + 2 · 2 · 2 + (−1) · 0 · 1 Teorema di Binet Se A, B ∈ Mn×n (K ), allora det(A · B) = det(A) · det(B). G. Peruginelli Riepilogo 38 / 58 Riepilogo Lezione 24, 2/2 Sarrus  (solo nel caso 3 × 3!): per  1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4   1 2 −1 1 2  0 3 2 0 3 2 1 −4 2 1 Allora det(A) =1 · 3 · (−4) + 2 · 2 · 2 + (−1) · 0 · 1 − ((−1) · 3 · 2 + 1 · 2 · 1 + 2 · 0 · (−4)) Teorema di Binet Se A, B ∈ Mn×n (K ), allora det(A · B) = det(A) · det(B). G. Peruginelli Riepilogo 38 / 58 Riepilogo Lezione 24, 2/2 Sarrus  (solo nel caso 3 × 3!): per  1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4   1 2 −1 1 2  0 3 2 0 3 2 1 −4 2 1 Allora det(A) =1 · 3 · (−4) + 2 · 2 · 2 + (−1) · 0 · 1 − ((−1) · 3 · 2 + 1 · 2 · 1 + 2 · 0 · (−4)) = =0 Teorema di Binet Se A, B ∈ Mn×n (K ), allora det(A · B) = det(A) · det(B). G. Peruginelli Riepilogo 38 / 58 Riepilogo Lezione 25, 1/2 Sia A ∈ Mn (K ) quadrata. Le seguenti condizioni sono equivalenti: A è invertibile. → − → − il SEL A · X = 0 ha solo la soluzione X = 0. ogni forma ridotta di A è triangolare superiore con 1 sulla diagonale. per ogni b ∈ K n , il SEL A · X = b ha soluzione. rk(A) = n. null(A) = 0. per ogni b ∈ K n , il SEL A · X = b ha unica soluzione. det(A) ̸= 0. FA : K n → K n , FA (v ) = A · v è un automorfismo. Applicazione: n vettori v1 ,... , vn ∈ K n sono una base di K n se e solo se la matrice formata da questi n vettori (per riga o per colonna) ha determinante diverso da zero. G. Peruginelli Riepilogo 39 / 58 Riepilogo Lezione 25, 2/2 Problema: descrivere le matrici associate MBB (f ) ad un endomorfismo f : K n → K n , rispetto a tutte le possibili basi B di K n. Due matrici A, B ∈ Mn (K ) sono simili se esiste P ∈ Mn (K ) invertibile tale che A = PBP −1. Risulta che due matrici A, B sono simili se e solo se rappresentano lo stesso endomorfismo f : K n → K n rispetto a basi diverse, ossia A = MBB (f ), B = MCC (f ) = MBC (id) · MBB (f ) · MCB (id) Quindi, dato un endomorfismo f : K n → K n con A = MBB (f ), l’insieme di tutte le matrici n × n associate a f rispetto ad ogni possibile base di K n sono: {PAP −1 | P ∈ Mn (K ), P invertibile}. Osservazione: Se A, B sono simili allora rk(A) = rk(B) e det(A) = det(B). Il viceversa non vale! G. Peruginelli Riepilogo 40 / 58 Riepilogo Lezione 26, 1/2 Problema: Dato un endomorfismo f : V → V , esiste una base B di V tale che MBB (f ) è diagonale? nel caso si dice che f è diagonalizzabile. Analogamente, una matrice A ∈ Mn (R) si dice diagonalizzabile se esiste P ∈ Mn (R) invertibile tale che P −1 AP è diagonale (ossia A = PDP −1 , con D ∈ Mn (R) diagonale). → − Uno scalare λ ∈ K si dice un autovalore di f e un v ∈ V , v ̸= 0 si dice autovettore di f se f (v ) = λ · v Se λ è autovalore, allora Vλ = {v ∈ V | f (v ) = λ · v } si chiama autospazio relativo a λ di f (è un sottospazio vettoriale). 1o Criterio per la diagonalizzabilità Un endomorfismo f di V è diagonalizzabile se e solo se esiste una base B di V formata da autovettori per f. G. Peruginelli Riepilogo 41 / 58 Riepilogo Lezione 26, 2/2 Per trovare autovalori: λ ∈ K è autovalore di f se e solo se λ è una radice del polinomio caratteristico di f , ossia pf (X ) = det(A − X · In ), dove A è una qualsiasi matrice associata a f. Per trovare autovettori: per ogni radice λ di pf (X ), si determina una base dell’autospaziorelativo Vλ = ker(A − λ · In ). 1/2 −1/2 1 Esempio:A = −1/2 −1 1/2 . pA (X ) = −X 2 (X + 1) ⇒ gli autovalori di 1/2 1 −1/2     −2 1 → − A sono 0, −1. V0 = {v ∈ R3 | f (v ) = 0 · v = 0 } = ker(A) =<  1  , 0 >         0 1 1 −2 1 1 , V−1 =< −1 >⇒ B = { 1  , 0, −1} base di R3 di autovettori di 1 0 1 1    −1 −2 1 1 0 0 0 −2 1 1 A, A =  1 0 −1 0 0 0   1 0 −1. 0 1 1 0 0 −1 0 1 1 G. Peruginelli Riepilogo 42 / 58 Riepilogo Lezione 27, 1/2 Se λ1 ,... , λr sono autovalori distinti di un endomorfismo f e vi ∈ V è un autovettore di f relativo a λi , per i = 1,... , r , allora v1 ,... , vr sono linearmente indipendenti. Due matrici simili hanno lo stesso polinomio caratteristico, ma il viceversa non vale. Sia f un endomorfismo di V. Dato un autovalore λ di f con pf (X ) = (X − λ)k · q(X ), q(λ) ̸= 0, la molteplicità algebrica di λ è ma (λ) = k. La molteplicità geometrica di λ è la dimensione dell’autospazio relativo, ossia mg (λ) = dim(Vλ ), dove Vλ = {v ∈ V | f (v ) = λ · v }. Risulta che 1 ≤ mg (λ) ≤ ma (λ) ≤ dim(V ). 2o Criterio per la diagonalizzabilità Un endomorfismo f di V , è diagonalizzabile se e solo se Pper ogni autovalore λ di f risulta che mg (λ) = ma (λ) e inoltre ma (λ) = dim(V ). G. Peruginelli Riepilogo 43 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio:   1 0 1 2 1 3 0 0 A= 1 −3 2  4 2 3 1 2 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio:   1 0 1 2   1 3 0 0 A=  det 1 0 ̸= 0 ⇒ rk(A) ≥ 2 1 −3 2 4 1 3 2 3 1 2   1 0 Le 4 Orlature di 1 3 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio:   1 0 1 2   1 3 0 0 A=  det 1 0 ̸= 0 ⇒ rk(A) ≥ 2 1 −3 2 4 1 3 2 3 1 2   1 0 Le 4 Orlature di 1 3 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio:   1 0 1 2   1 3 0 0 A=  det 1 0 ̸= 0 ⇒ rk(A) ≥ 2 1 −3 2 4 1 3 2 3 1 2   1 0 Le 4 Orlature di 1 3 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio:   1 0 1 2   1 3 0 0 A=  det 1 0 ̸= 0 ⇒ rk(A) ≥ 2 1 −3 2 4 1 3 2 3 1 2   1 0 Le 4 Orlature di 1 3 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio:   1 0 1 2   1 3 0 0 A=  det 1 0 ̸= 0 ⇒ rk(A) ≥ 2 1 −3 2 4 1 3 2 3 1 2   1 0 Le 4 Orlature di 1 3 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio:   1 0 1 2 1 3 0 0 A= 1 −3 2  4 2 3 1 2   1 0 Le 4 Orlature di hanno determinante zero , quindi rk(A) = 1 3 2 (ogni altro minore di sottomatrici 3 × 3 è zero). G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 28, 1/2 p Dato v = (a1 ,... , an ) ∈ Rn , la norma di v è ∥v ∥ = a12 +... + an2. Proprietà: → − 1 ∥v ∥ ≥ 0, ∥v ∥ = 0 ⇔ v = 0. 2 ∥λ · v ∥ = |λ| · ∥v ∥, ∀λ ∈ R. 3 ∥v + w ∥ ≤ ∥v ∥ + ∥w ∥, ∀v , w ∈ Rn (Disuguaglianza Triangolare). Dati v = (a1 ,... , an ), w = (b1 ,... , bn ) ∈ Rn , si definisce il prodotto scalare tra v e w come v · w = a1 b1 +... + an bn √ Risulta che ∥v ∥ = v · v. Vale che |v · w | ≤ ∥v ∥∥w ∥ (Disuguaglianza di Cauchy-Schwarz) e quindi si ·w definisce l’angolo α tra v e w come: cos(α) = ∥vv∥∥w ∥. Diciamo che v , w ∈ Rn sono ortogonali se v · w = 0. v è normalizzato se ∥v ∥ = 1. G. Peruginelli Riepilogo 45 / 58 Riepilogo Lezione 28, 2/2 Sia U =< v > un sottospazio vettoriale di dimensione 1 di Rn. Dato w ∈ Rn , la proiezione ortogonale di w su U è il vettore: w ·v w′ = · v, v ·v e risulta che w = w ′ + w⊥ dove w ′ ∈ U e w⊥ ⊥ v ⇔ w⊥ · v = 0. ∥w⊥ ∥ è la distanza minima di w da U. Dato un sottospazio vettoriale U di Rn , il complemento ortogonale di U è il sottospazio: U ⊥ = {v ∈ Rn | v · u = 0, ∀u ∈ U} Se U =< u1 ,... , ur >, allora v ∈ U ⊥ ⇔ v · u1 = 0,... , v · ur = 0. G. Peruginelli Riepilogo 46 / 58 Riepilogo Lezione 29, 1/2 Sia U ⊆ Rn un sottospazio e U ⊥ = {v ∈ Rn | v · u = 0, ∀u ∈ U} il suo complemento ortogonale. Se dim(U) = r allora dim(U ⊥ ) = n − r e Rn = U ⊕ U ⊥ (sottospazi complementari) Quindi, ∀w ∈ Rn , w = w ′ + w⊥ , w ′ ∈ U, w⊥ ∈ U ⊥ (unici!), w ′ è la proiezione ortogonale di w su U. Equivalentemente, la proiezione ortogonale di w su U è quel vettore w ′ ∈ U tale che w − w ′ ∈ U ⊥ ⇔ w = w ′ + w⊥ , w⊥ ∈ U ⊥. ∥w⊥ ∥ è la distanza minima di w da U, ossia: ∥w⊥ ∥ ≤ ∥w − u∥, ∀u ∈ U G. Peruginelli Riepilogo 47 / 58 Riepilogo Lezione 29, 2/2 Sia B = {u1 ,... , ur } una base di un sottospazio U di Rn. se ui · uj = 0, ∀i ̸= j, allora B è base ortogonale di U. se inoltre ∥ui ∥ = 1, ∀i, allora B è base ortonormale di U. Sia B = {u1 ,... , ur } una base ortogonale di U. Dato u ∈ U, risulta che u · u1 u · ur u= · u1 +... + · ur u1 · u1 ur · ur Se w ∈ Rn , allora la proiezione ortogonale di w su U è: w · u1 w · ur · u1 +... + · ur u1 · u1 ur · ur G. Peruginelli Riepilogo 48 / 58 Riepilogo Lezione 30 Algoritmo di Gram-Schmidt: data una base B = {u1 ,... , ur } di un sottospazio U ⊆ Rn , produce una base ortogonale di U: u2 · u1′ ′ u1′ =u1 , u2′ = u2 − u ,... u1′ · u1′ 1 ur · u ′ ur · ur′ −1 ′ ur′ =ur − ( ′ 1′ u1′ +... + ′ u ) u1 · u1 ur −1 · ur′ −1 r −1 ⇒ B ′ = {u1′ ,... , ur′ } è base ortogonale di U. G. Peruginelli Riepilogo 49 / 58 Riepilogo Lezione 30 Algoritmo di Gram-Schmidt: data una base B = {u1 ,... , ur } di un sottospazio U ⊆ Rn , produce una base ortogonale di U: u2 · u1′ ′ u1′ =u1 , u2′ = u2 − u ,... u1′ · u1′ 1 ur · u ′ ur · ur′ −1 ′ ur′ =ur − ( ′ 1′ u1′ +... + ′ u ) u1 · u1 ur −1 · ur′ −1 r −1 ⇒ B ′ = {u1′ ,... , ur′ } è base ortogonale di U. Esempio: U : x + 2y − z = 0, U ⊂ R3. Una base di U è {u1 = (−2, 1, 0), u2 = (1, 0, 1)} (non ortogonali!). Applico G.-S.: u1′ =u1 u2 · u1 −2 u2′ =u2 − · u1 = u2 − · u1 = (1/5, 2/5, 1) u1 · u1 5 ⇒ B = {u1′ = (−2, 1, 0), u2′ = (1/5, 2/5, 1)} base ortogonale di U. G. Peruginelli Riepilogo 49 / 58 Riepilogo Lezione 31, 1/2 Una applicazione lineare f : Rn → Rn si dice isometria se per ogni u, v ∈ Rn , risulta u · v = f (u) · f (v ). Sia A ∈ Mn (R). Si dice che A è ortogonale se AT A = T AA = 1n. Sia f : Rn → Rn una isometria. Se v ∈ Rn , allora ∥v ∥ = ∥f (v )∥. f è invertibile e se B = {v1 ,... , vn } è una base ortogonale (ortonormale, risp.) allora f (B) = {f (v1 ),... , f (vn )} è una base ortogonale (ortonormale, risp.). le colonne di A (o di MEEnn (f )) sono una base ortonormale di Rn. Analogamente per le righe. Un endomorfismo f : Rn → Rn è una isometria se e solo se MEEnn (f ) è ortogonale. Notare che se A è ortogonale, allora A−1 = T A. G. Peruginelli Riepilogo 50 / 58 Riepilogo Lezione 31, 2/2 Una applicazione lineare f : Rn → Rn si dice simmetrica se per ogni v , w ∈ Rn , risulta f (v ) · w = v · f (w ). Sia B = {v1 ,... , vn } base ortonormale di Rn e f endomorfismo di Rn. Allora f è simmetrico se e solo se A = MBB (f ) è una matrice simmetrica. Esempio: l’applicazione di proiezione ortogonale su un sottospazio U ⊆ Rn è simmetrica. Sia A ∈ Mn (R) simmetrica. A ha n autovalori reali (non necessariamente distinti). se λi ̸= λj sono due autovalori distinti di A e vi , vj sono autovettori relativi a λi , λj rispettivamente, allora vi , vj sono ortogonali. Teorema Spettrale Sia f : Rn → Rn un endomorfismo. Allora f è ortogonalmente diagonalizzabile (ossia esiste una base ortonormale B di Rn formata da autovettori di f ) se e solo se f è simmetrico se e solo se MEEnn (f ) è simmetrica. G. Peruginelli Riepilogo 51 / 58 Riepilogo Lezione 32 Sia U ⊆ Rn un sottospazio e U ⊥ il suo complemento ortogonale. Dato che Rn = U ⊕ U ⊥ , per ogni v ∈ Rn , esistono e sono unici v ′ ∈ U, v ′′ ∈ U ⊥ tali che v = v ′ + v ′′. - v ′ = pU (v ) è la proiezione ortogonale di v su U. - v ′′ = pU ⊥ (v ) è la proiezione ortogonale di v su U ⊥. In particolare, v = pU (v ) + pU ⊥ (v ) da cui segue che pU + pU ⊥ = IdRn. In generale, se U, W ⊆ Rn sono sottospazi complementari, ossia Rn = U ⊕ W , allora analogamente a sopra per ogni v ∈ Rn risulta che v = v ′ + v ′′ , con v ′ ∈ U, v ′′ ∈ W. L’applicazione di proiezione su U lungo W è dunque un endomorfismo di Rn , pU (v ) = v ′. Risulta che gli autovalori di pU sono 0, 1. gli autospazi di pU sono V0 = ker(pU ) = W e V1 = U. pU è diagonalizzabile: se B1 è una base di U e B2 è una base di W allora B1 ∪ B2 è una base di U ⊕ W = Rn. G. Peruginelli Riepilogo 52 / 58 Riepilogo Lezione 33, 1/2 Uno Spazio Affine A è l’insieme dei seguenti oggetti: uno spazio vettoriale V , detto spazio vettoriale soggiacente a A. un insieme S, detto insieme dei punti di A. una operazione che associa ad un punto P ∈ S e a un vettore v ∈ V , il punto Q = P + v , traslato di P secondo v. Tale nuova operazione soddisfa queste proprietà: i) (P + v1 ) + v2 = P + (v1 + v2 ), ∀P ∈ S, v1 , v2 ∈ V. → − ii) P + 0 = P, ∀P ∈ S. iii) ∀P, Q ∈ S, ∃ ed è unico v ∈ V tale che Q = P + v. Osservazione: iii) implica che S e V sono in corrispondenza biunivoca. Esempi: An = Rn , con S = V = Rn. Rette affini in A2 e A3 e piani affini in A3. G. Peruginelli Riepilogo 53 / 58 Riepilogo Lezione 33, 2/2 Rette nello spazio affine A3 : Siano P = (1, −1, 0) punto e v = (−2, 1, 2) vettore. La retta r per P con direzione v è l’insieme dei punti X ∈ A3 tali che X = P + λv , λ ∈ R, ossia:   x = 1 − 2λ y = −1 + λ equazioni parametriche di r z = 2λ  Le  equazioni cartesiane di r si trovano eliminando il parametro λ: x + 2y + 1 = 0 2y − z + 2 = 0 Piani in A3 : Sia P = (1, 2, −1) punto e v = (1, 2, 0), w = (−1, 3, −2) due vettori linearmente indipendenti. Il piano π per P e parallelo a v , w è l’insieme  dei punti X ∈ A3 tali che X = P + λv + µw , λ, µ ∈ R:  x = 1+λ−µ 4x − 2y − 5z − 5 = 0 y = 2 + 2λ + 3µ eq. param. π ⇒ eq. cartesiana di π z = −1 − 2µ  nπ = (4, −2, −5), vettore normale a π. G. Peruginelli Riepilogo 54 / 58 Riepilogo Lezione 34, 1/2 = (q1 , q2 , q3 ) ∈ A3 , la distanza tra P e Q è Dati P = (p1 , p2 , p3 ), Qp d(P, Q) = ∥P − Q∥ = (p1 − q1 )2 + (p2 − q2 )2 + (p3 − q3 )2 Sia P un punto. Data una retta r : X = Q + λ · vr , la distanza d(P, r ) = d(P, H), dove H è la proiezione ortogonale di P su r : se w = X − P = Q − P + λ · vr , si impone w · vr = 0 e si ricava λ per trovare H. Se π : X = Q + λv1 + µv2 è un piano, allora dato w = X − P = Q − P + λv1 + µv2 , si impone che w · v1 = w · v2 = 0, si ricavano λ e µ per trovare la proiez. ortogonale H di P su π. Come sopra, la distanza d(P, π) = d(P, H). Se π : ax + by + cz + d = 0, allora la distanza di P = (p1 , p2 , p3 ) da π è: d(P, π) = |ap√ 1 +bp2 +cp3 +d| a2 +b 2 +c 2. Notare che d(P, π) = 0 ⇔ P ∈ π. G. Peruginelli Riepilogo 55 / 58 Riepilogo Lezione 34, 2/2 Due rette r , s in A3 sono: parallele (r ∩ s = ∅, < vr >=< vs >), incidenti (r ∩ s = P) o sghembe (r ∩ s = ∅, vr ̸∥ vs ). Sono complanari se esiste un piano che le contiene entrambe (ossia se sono parallele o incidenti).  a1 x + a2 y + a3 z + d = 0 Data una retta r : , il fascio di piani di a1′ x + a2′ y + a3′ z + d ′ = 0 asse r è l’insieme di tutti i piani contenenti r : α1 (a1 x + a2 y + a3 z + d) + α2 (a1′ x + a2′ y + a3′ z + d ′ ) = 0 al variare di α1 , α2 ∈ R. G. Peruginelli Riepilogo 56 / 58 Riepilogo Lezione 35 Dati u = (a1 , a2 , a3 ), v = (b1 , b2 , b3 ) ∈ R3 , il prodotto vettoriale di u, v è quel vettore w ∈ R3 perpendicolare a u, v e con verso dato dalla ”regola della mano destra”:   w = u× v ,    a2 a3 a a3 a a2 w = (det , − det 1 , det 1 ) b2 b3 b1 b3 b1 b2 = (a2 b3 − a3 b2 , −(a1 b3 − a3 b1 ), a1 b2 − a2 b1 ) Il modulo di w è uguale a ∥u∥ · ∥v ∥ · sin α ed è l’area del parallelogramma individuato dai vettori u, v. Il prodotto misto di u, v , w ∈ R3 non complanari (ossia lin. ind.) è: (u × v ) · w = ∥u × v ∥∥w ∥ cos(θ) (dove θ è l’angolo tra u × v e w ); il valore assoluto di tale prodotto rappresenta il volume del parallelepido generato dai 3 vettori. G. Peruginelli Riepilogo 57 / 58 Riepilogo Lezione 36 Date due rette sghembe r , s, la distanza tra r e s può essere ricavata per mezzo del prodotto misto: siano A ∈ r e B ∈ s punti qualsiasi, vr , vs i vettori direzione di r , s rispettivamente, allora |(vr × vs ) · (A − B)| d(r , s) = ∥vr × vs ∥ volume che rappresenta l’altezza ( area base ) del parallelepipedo individuato dai vettori vr , vs , A − B G. Peruginelli Riepilogo 58 / 58

Use Quizgecko on...
Browser
Browser