Riepilogo Lezioni Algebra PDF
Document Details
Uploaded by SportyLimerick
G. Peruginelli
Tags
Summary
These notes summarize lectures on algebra, covering topics such as complex numbers, vector spaces, and related concepts. The notes provide definitions, examples, and theorems.
Full Transcript
Riepilogo Lezione 1 Numeri complessi C: si introduce l’unità immaginaria i: √ i 2 = i · i = −1, (i = −1), un numero complesso è: z = a + i · b, a, b ∈ R Re(z) = a, parte reale , Im(z) = b, par...
Riepilogo Lezione 1 Numeri complessi C: si introduce l’unità immaginaria i: √ i 2 = i · i = −1, (i = −1), un numero complesso è: z = a + i · b, a, b ∈ R Re(z) = a, parte reale , Im(z) = b, parte immaginaria Siano z1 = a1 + i · b1 , z2 = a2 + i · b2 ∈ C. Somma: z1 + z2 = (a1 + a2 ) + i · (b1 + b2 ) Prodotto: z1 · z2 = (a1 a2 − b1 b2 ) + i · (a1 b2 + a2 b1 ) Inverso: se z1 ̸= 0, allora z1−1 = a2 +b a b z1 2 − i · a2 +b 2 = a2 +b 2 = z1 z1 ·z1 Coniugato: z1 = a1 − i · b1 C è un campo (i.e., ogni elemento non nullo è invertibile), che contiene strettamente il campo R: a ∈ R, a = a + i · 0 ∈ C. G. Peruginelli Riepilogo 1 / 58 Riepilogo Lezione 2 Rappresentazione α = a + ib ∈ C, nel piano R2 : Rappresentazione √ trigonometrica di numeri complessi: modulo ρ = a2 + b 2 e argomento θ (tan(θ) = b/a): α = ρ · (cos θ + i · sin θ), ρ ≥ 0, θ ∈ [0, 2π) Radici m-esime: z m = α, m ≥ 1 (serve rappr. trigon. di α)⇒ √ θ 2π θ 2π zk = m ρ · (cos +k + i sin +k ), k = 0,... , m − 1 m m m m Rappr. esponenziale: z = ρ · e iθ , dove e iθ = cos(θ) + i sin(θ). Teorema Fondamentale Algebra. G. Peruginelli Riepilogo 2 / 58 Riepilogo Lezione 3 Definizione di Spazio Vettoriale V su un campo K : insieme (non vuoto) dotato di 2 operazioni, Somma (v1 , v2 ∈ V ⇒ v1 + v2 ∈ V ) e Prodotto per scalari (α ∈ K , v ∈ V ⇒ α · v ∈ V ). Elementi di V : vettori, elementi di K : scalari. Esempi: Rn = {(a1 ,... , an ) | ai ∈ R}, n ≥ 1 R2 si identifica al piano cartesiano, R3 allo spazio tridimensionale. Polinomi a coefficienti in un campo K. Funzioni continue. Matrici a coefficienti in un campo K : somma tra matrici e prodotto di uno scalare per una matrice. Anticipazione: Le soluzioni di un SEL omogeneo formano uno spazio vettoriale. G. Peruginelli Riepilogo 3 / 58 Riepilogo Lezione 4 Sia V uno spazio vettoriale su un campo K. Siano v1 ,... , vn ∈ V. Una combinazione lineare di v1 ,... , vn è un vettore v ∈ V tale che: v = a1 · v1 +... + an · vn , a1 ,... , an ∈ K Si dice che v1 ,... , vn sono linearmente indipendenti se → − a1 · v1 +... + an · vn = 0 ⇒ a1 =... = an = 0 Esempio: v1 = (1, 0, 1), v2 = (0, 1, −1), v3 = (5, −3, 8) ∈ R3. Risulta che a1 v1 + a2 v2 + a3 v3 = (a1 + 5a3 , a2 − 3a3 , a1 − a2 + 8a3 ) = (0, 0, 0) se e solo se (a1 , a2 , a3 ) è soluzione del seguente SEL omogeneo: a3 variabile libera, ∞1 soluzioni, a1 + 5a3 = 0 a1 = −5a3 a2 − 3a3 = 0 ⇒ ⇔ v1 , v2 , v3 lin. dip. : a2 = 3a3 → − a1 − a2 + 8a3 = 0 p.e.: − 5 · v1 + 3 · v2 + v3 = 0 G. Peruginelli Riepilogo 4 / 58 Riepilogo Lezione 5, 1/2 Sia V uno spazio vettoriale su K. Un Sottospazio vettoriale U di V è un sottoinsieme U di V tale che: → − i) 0 ∈ U. ii) u1 , u2 ∈ U ⇒ u1 + u2 ∈ U (”chiuso” rispetto alla somma). iii) u ∈ U, α ∈ K ⇒ α · u ∈ U (”chiuso” rispetto al prodotto per scalari). Anticipazione: Le soluzioni di un SEL omogeneo in n variabili formano uno sottospazio vettoriale di Rn (e viceversa!). Siano W1 , W2 ⊆ V sottospazi. Si definiscono l’intersezione e la somma di W1 , W2 come: W1 ∩ W2 ={v ∈ V | v ∈ W1 , v ∈ W2 } W1 + W2 ={v ∈ V | v = w1 + w2 , w1 ∈ W1 , w2 ∈ W2 } W1 + W2 è il più piccolo sottospazio di V contenente W1 e W2. NB: l’unione di sottospazi non è un sottospazio in genere!. G. Peruginelli Riepilogo 5 / 58 Riepilogo Lezione 5, 2/2 Dati v1 ,... , vn ∈ V si definisce W =< v1 ,... , vn >= {a1 · v1 +... + an · vn | ai ∈ K , i = 1,... , n} si dice che W è il sottospazio di V generato da v1 ,... , vn. Obiettivo: dato un SEL omogeneo trovare un insieme di generatori dell’insieme delle soluzioni (NON è unico!). Esempio: W sottospazio di R3 di equazione x + 2y + z = 0, allora z = −x − 2y , x, y variabili libere, se x = 1, y = 0 → w1 = (−2, 1, 0) ∈ W e se x = 0, y = 1 → w2 = (−1, 0, 1) ∈ W e quindi W = {(x, y , −x − 2y ) | x, y ∈ R} =< w1 , w2 >. Osservazione: Se W1 =< w1 ,... , wr >, W2 =< w1′ ,... , ws′ > allora W1 + W2 =< w1 ,... , wr , w1′ ,... , ws′ >. G. Peruginelli Riepilogo 6 / 58 Riepilogo Lezione 6 Sia V uno spazio vettoriale su K. Una Base di V è un insieme v1 ,... , vn ∈ V tali che: i) v1 ,... , vn generano V. ii) v1 ,... , vn sono linearmente indipendenti. Esempio: e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) è una base di R3 , detta canonica. Lemma dello Scambio: se V è generato da n vettori, allora ogni insieme {w1 ,... , wr } ⊂ V linearmente indipendente ha al più n vettori (r ≤ n). Corollario: due basi di uno stesso spazio vettoriale V hanno lo stesso numero di vettori, detto dimensione di V e indicato con dim(V ). → − Si pone dim({ 0 }) = 0 Applicazione: la dimensione dello spazio delle soluzioni di una equazione lineare omogenea U : a1 x1 +... + an xn = 0 (U ⊂ Rn ) è n − 1. G. Peruginelli Riepilogo 7 / 58 Riepilogo Lezione 7 Sia V uno spazio vettoriale su K , dim(V ) = n. Osservazione: Un insieme B = {v1 ,... , vn } ⊂ V è base di V se o B è lin. ind. o B è insieme generatori di V (NB: è vero solo se numero vettori di B = dim(V )!) Fatto: Se {v1 ,... , vn } è lin. indip. e v ∈< / v1 ,... , vn > allora {v1 ,... , vn , v } è lin. indip.. Coordinate vettore v ∈ V rispetto ad una base B = {v1 ,... , vn }: (a1 ,... , an ) ∈ K n unicamente determinati tali che v = a1 v1 +... + an vn Esempio: e1 = (1, 0,... , 0),... , en = (0,... , 0, 1) ∈ Rn base canonica, dato v = (a1 ,... , an ) ∈ Rn , v = a1 e1 +... + an en. Osservazione: Q[X ] è uno sp. vett. NON finitamente generato. Se n ≥ 1, allora Q[X ]≤n (polinomi di grado ≤ n) ha dimensione n + 1, una base è data da 1, X ,... , X n. G. Peruginelli Riepilogo 8 / 58 Riepilogo Lezione 8 Sia V uno spazio vettoriale su K , dim(V ) = n. Estrazione di una base: Sia S = {v1 ,... , vs } insieme generatori di V. Allora esiste B ⊆ S che è una base di V. si eliminano ad uno ad uno i vettori che sono combinazione lineare dei rimanenti. Corollario Ogni spazio vettoriale finitamente generato ammette una base. Completamento ad una base: Sia S = {v1 ,... , vr } vettori lin. ind. di V. Allora esistono vr +1 ,... , vn ∈ V tali che S ∪ {vr +1 ,... , vn } è base di V. Dimensione sottospazio: Sia W sottospazio di V. Allora W è fin. generato e dim(W ) ≤ dim(V ). Vale dim(W ) = dim(V ) se e solo se W = V. G. Peruginelli Riepilogo 9 / 58 Riepilogo Lezione 9 Formula di Grassmann: Se U, W sottospazi di uno spazio vettoriale V finitamente generato, allora dim(U + W ) = dim(U) + dim(W ) − dim(U ∩ W ) Equazioni cartesiane di sottospazi di Rn : dato U =< u1 ,... , ur >⊂ Rn sottospazio, trovare un SEL omogeneo che abbia U come insieme di soluzioni. Ossia, v = (x1 ,... , xn ) ∈ U ⇔ v = a1 · u1 +... + ar · ur , a1 ,... , ar ∈ R e dal SEL corrispondente si eliminano i parametri a1 ,... , ar. Esempio: W =< (1, 2, −1), (0, 3, −2) >⊂ R3. Dato (x, y , z) ∈ R3 , (x, y , z) ∈ W ⇔ (x, y , z) = a1 (1, 2, −1) + a2 (0, 3, −2), a1 , a2 ∈ R ⇔ x= a1 y = 2a1 + 3a2 ⇒ x − 2y − 3z = 0 z = −a1 − 2a2 G. Peruginelli Riepilogo 10 / 58 Riepilogo Lezione 10 Sottospazi vettoriali U di R2 (0 ≤ dim(U) ≤ 2): {(0, 0)}, rette per (0, 0), R2. Sottospazi vettoriali U di R3 (0 ≤ dim(W ) ≤ 3): {(0, 0, 0)}, rette per (0, 0, 0), piani per (0, 0, 0), R3. Base di Mm×n (R), dim(Mm×n (R)) = m · n. Esempio: le matrici 1 0 0 0 1 0 0 0 1 E11 = , E12 = , E13 = , 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 E21 = , E22 = , E23 = 1 0 0 0 1 0 0 0 1 formano una base di M2×3 (R). Due sottospazi W , U di uno spazio vettoriale V si dicono complementari → − se W ⊕ U = V (in particolare W ∩ U = { 0 }). G. Peruginelli Riepilogo 11 / 58 Riepilogo Lezione 11, 1/4 L’Algoritmo di Eliminazione di Gauss (E.G.) trasforma la matrice A dei coefficienti associata ad un SEL in una matrice in forma ridotta. Ciò viene fatto per mezzo delle 3 Operazioni Elementari (O.E.): 1) Una riga di A è moltiplicata per α ∈ R, α ̸= 0. 2) Si somma ad una riga di A un multiplo scalare di un’altra riga di A. 3) Due righe di A si scambiano di posto. Una matrice A è in forma ridotta se: i) il primo coefficiente non nullo di ogni riga è 1. ii) forma a scalini. iii) righe nulle in fondo. Esempi di matrici in forma ridotta: 1 2 −3 0 1 0 2 0 0 1 −2 , 0 1 −2 1 0 , 0 1 0 0 0 1 0 0 0 G. Peruginelli Riepilogo 12 / 58 Riepilogo Lezione 11, 2/4 Esempio 1 x + 4y + z = 2 5x + z = 0 −y + z = −1 G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 2/4 Esempio 1 x + 4y + z = 2 1 4 1 2 5x + z = 0 → 5 0 1 0 −y + z = −1 0 −1 1 −1 G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 2/4 Esempio 1 x + 4y +z = 2 1 4 1 2 II −5I 5x +z = 0 → 5 0 1 0 −→ −y + z = −1 0 −1 1 −1 1 4 1 2 0 −20 −4 −10 0 −1 1 −1 G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 2/4 Esempio 1 x + 4y +z = 2 1 4 1 2 II −5I 5x +z = 0 → 5 0 1 0 −→ −y + z = −1 0 −1 1 −1 1 4 1 2 1 4 1 2 II ↔III ,(−1)II 0 −20 −4 −10 −→ 0 1 −1 1 0 −1 1 −1 0 −20 −4 −10 G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 2/4 Esempio 1 x + 4y +z = 2 1 4 1 2 II −5I 5x +z = 0 → 5 0 1 0 −→ −y +z = −1 0 −1 1 −1 1 4 1 2 1 4 1 2 1 III +20II ,(− 24 )·III II ↔III ,(−1)II 0 −20 −4 −10 −→ 0 1 −1 1 −→ 0 −1 1 −1 0 −20 −4 −10 1 4 1 2 0 1 −1 1 0 0 1 −5/12 G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 2/4 Esempio 1 x + 4y +z = 2 1 4 1 2 II −5I 5x + z = 0 → 5 0 1 0 −→ −y + z = −1 0 −1 1 −1 1 4 1 2 1 4 1 2 1 III +20II ,(− 24 )·III II ↔III ,(−1)II 0 −20 −4 −10 −→ 0 1 −1 1 −→ 0 −1 1 −1 0 −20 −4 −10 1 4 1 2 x + 4y + z = 2 0 1 −1 1 → y −z = 1 → z = −5/12 0 0 1 −5/12 x = −4y − z + 2 = 1/12 y = z + 1 = 7/12 z = −5/12 ⇒ (x, y , z) = (1/12, 7/12, −5/12), unica soluzione G. Peruginelli Riepilogo 13 / 58 Riepilogo Lezione 11, 3/4 Esempio 2 x1 + x2 + x4 = 1 1 1 0 1 1 III −I x2 + x3 − x4 = 2 → 0 1 1 −1 2 −→ x1 + 2x2 + x3 = 3 1 2 1 0 3 1 1 0 1 1 1 1 0 1 1 0 1 1 −1 2 III −II 3a , 4a non dominanti, −→ 0 1 1 −1 2 → x3 , x4 var. libere 0 1 1 −1 2 0 0 0 0 0 x1 = −x2 − x4 + 1 = t − 2s − 1 x1 + x2 + x4 = 1 x2 = −x3 + x4 + 2 = −t + s + 2 → x2 + x3 − x4 = 2 x3 = t∈R x4 = s∈R t=1,s=0 t=0,s=1 ⇒ Soluzioni :{t · (1, −1, 1, 0) + s · (−2, 1, 0, 1) + (−1, 2, 0, 0) | t, s ∈ R} < (1, −1, 1, 0), (−2, 1, 0, 1) > sono le soluzioni del SEL omogeneo associato, (−1, 2, 0, 0) è una soluzione particolare del SEL. G. Peruginelli Riepilogo 14 / 58 Riepilogo Lezione 11, 4/4 Risoluzione SEL omogeneo associato Esempio 2 x1 + x2 + x4 = 0 1 1 0 1 0 III −I x2 + x3 − x4 = 0 → 0 1 1 −1 0 −→ x1 + 2x2 + x3 = 0 1 2 1 0 0 1 1 0 1 0 1 1 0 1 0 0 1 1 −1 0 III −II 3a , 4a non dominanti, −→ 0 1 1 −1 0 → x3 , x4 var. libere 0 1 1 −1 0 0 0 0 0 0 x1 = −x2 − x4 = t − 2s x1 + x2 + x4 = 0 x2 = −x3 + x4 = −t + s → ⇒ x2 + x3 − x4 = 0 x3 = t∈R x4 = s∈R Soluzioni del SEL omogeneo: t=1,s=0 t=0,s=1 {t · (1, −1, 1, 0) + s · (−2, 1, 0, 1) | t, s ∈ R} =< (1, −1, 1, 0), (−2, 1, 0, 1) > G. Peruginelli Riepilogo 15 / 58 Riepilogo Lezione 12 E.G. non altera lo Spazio delle Righe di una matrice A. NB: lo spazio delle colonne di A può invece essere alterato. Applicazione: determinare una base di uno spazio vettoriale W ⊂ Rn generato da v1 ,... , vr : si forma la matrice A ∈ Mr ×n (vettori per riga !!), ne si calcola una forma ridotta U, e le righe non nulle di U formano una base di W. 3 Esempio: Sia W =< (1, 2,−1), (0, 3, 2), (2, 1, −4) >⊆ R. Una forma 1 2 −1 1 2 −1 ridotta di A = 0 3 2 ∈ M3×3 (R) è U = 0 1 2/3 e quindi 2 1 −4 0 0 0 {(1, 2, −1), (0, 1, 2/3)} è una base di W. Risulta infatti che < (1, 2, −1), (0, 3, 2), (2, 1, −4) >=< (1, 2, −1), (0, 1, 2/3) > Notare che lo spazio delle colonne di A è diverso da quello di U. G. Peruginelli Riepilogo 16 / 58 Riepilogo Lezione 13 Siano V , +, · e W , +, · spazi vettoriali su un campo K. Un’Applicazione Lineare da V in W è una funzione f : V → W tale che 1) ∀v1 , v2 ∈ V , f (v1 +v2 ) = f (v1 )+f (v2 ). 2) ∀v ∈ V e α ∈ K , f (α·v ) = α·f (v ). Proprietà: Sia f : V → W lineare: → − → − f ( 0 ) = 0 (ma NON vale il viceversa!). f (α1 · v1 + α2 · v2 ) = α1 · f (v1 ) + α2 · f (v2 ), ∀αi ∈ K , vi ∈ V , i = 1, 2. Si definiscono il Nucleo e l’Immagine di una funzione lineare f : V → W : → − ker(f ) ={v ∈ V | f (v ) = 0 }, sottospazio di V Im(f ) ={w ∈ W | ∃v ∈ V , w = f (v )}, sottospazio di W Oss.: se {v1 ,... , vn } generatori di V allora {f (v1 ),... , f (vn )} generatori di Im(f ). NB: se {v1 ,... , vn } lin. ind. NON implica {f (v1 ),... , f (vn )} lin. ind.. G. Peruginelli Riepilogo 17 / 58 Riepilogo Lezione 14, 1/2 Sia f : V → W una funzione. Allora f è iniettiva se per ogni v1 , v2 ∈ V , v1 ̸= v2 , risulta f (v1 ) ̸= f (v2 ). f è suriettiva se per ogni w ∈ W , esiste v ∈ V tale che f (v ) = w. f è biunivoca se è iniettiva e suriettiva. f è un isomorfismo se è lineare e biunivoca. Proprietà: Sia f : V → W lineare. → − f è iniettiva se e solo se ker(f ) = { 0 }. se w ∈ W , allora la controimmagine di w è f −1 (w ) = {v ∈ V | f (v ) = w } e risulta che v + ker(f ), se w = f (v ) ∈ Im(f ), con v ∈ V f −1 (w ) = ∅, se w ∈ / Im(f ) Teorema Ogni spazio vettoriale V finitamente generato è isomorfo a K n , dove n = dim(V ). G. Peruginelli Riepilogo 18 / 58 Riepilogo Lezione 14, 2/2 Esempio: f : R3 → R3 , f (x1 , x2 , x3 ) = (2x1 − x2 + 3x3 , 3x2 − x3 , 2x1 + 2x2 + 2x3 ). ker(f ) = f −1 (0, 0, 0) si determina risolvendo il SEL omogeneo: 2x1 − x2 + 3x3 = 0 3x2 − x3 =0 2x1 + 2x2 + 2x3 = 0 Risulta che ker(f ) =< (−4, 1, 3) >. La controimmagine f −1 (1, −1, 0) si determina risolvendo il SEL non omogeneo: 2x1 − x2 + 3x3 = 1 3x2 − x3 = −1 2x1 + 2x2 + 2x3 = 0 Risulta che f −1 (1, −1, 0) = (−1, 0, 1) + ker(f ), dove (−1, 0, 1) è una soluzione particolare del SEL non omogeneo. G. Peruginelli Riepilogo 19 / 58 Riepilogo Lezione 15, 1/2 Siano V , W spazi vettoriali su un campo K e B = {v1 ,... , vn } una base di V. Se scelgo n vettori a piacere w1 ,... , wn ∈ W (eventualmente uguali) posso costruire un’applicazione lineare f : V → W tale che f (v1 ) = w1 ,... , f (vn ) = wn. Dato un generico vettore v ∈ V : v = a1 · v1 +... + an · vn ∈ V , a1 ,... , an ∈ K si dice che estendo per linearità f a tutto V definendo: f (v ) = a1 · f (v1 ) +... + an · f (vn ) = a1 · w1 +... + an · wn Sia f : V → W lineare e B = {v1 ,... , vn } una base di V. f è iniettiva se e solo se {f (v1 ),... , f (vn )} è linearmente indipendente. f è suriettiva se e solo se {f (v1 ),... , f (vn )} è un insieme di generatori di W. f è isomorfismo se e solo se {f (v1 ),... , f (vn )} è una base di W. G. Peruginelli Riepilogo 20 / 58 Riepilogo Lezione 15, 2/2 Sia f : V → W lineare. Nullità di f : null(f )= dim(ker(f )), Rango di f : rk(f )= dim(Im(f )). Teorema (Nullità + Rango) Sia f : V → W lineare con V finitamente generato. Allora dim(V ) = dim(ker(f )) + dim(Im(f )) Applicazioni: Sia f : V → W lineare. f è iniettiva se e solo se dim(V ) =rk(f ). f è suriettiva se e solo se dim(W ) =rk(f ). se dim(V ) < dim(W ) allora f non è suriettiva. se dim(V ) > dim(W ) allora f non è iniettiva. Sia f : V → V lineare, detta endomorfismo di V. Allora f è iniettiva se e solo se è suriettiva. G. Peruginelli Riepilogo 21 / 58 Riepilogo Lezione 16, 1/2 Sia f : V → W una applicazione lineare tra spazi vettoriali, dim(V ) = n, dim(W ) = m. Fissate una base B = {v1 ,... , vn } di V e una base C = {w1 ,... , wm } di W , supponiamo che f (v1 ) =a11 · w1 +... + am1 · wm f (v2 ) =a12 · w1 +... + am2 · wm... f (vn ) =a1n · w1 +... + amn · wm Si definisce la matrice associata a f rispetto alle basi B e C come la matrice m × n: a11 a12... a1n MBC (f ) = ... am1 am2... amn nella colonna i di MBC (f ) si trovano le coordinate di f (vi ) rispetto a C, per i = 1,... , n. G. Peruginelli Riepilogo 22 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio: 1 1 2 1 1 · 2 0 = 3 1 0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio: 1 1 2 1 1 2·1+1·2+1·0 · 2 0 = 3 1 0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio: 1 1 2 1 1 4 · 2 0 = 3 1 0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio: 1 1 2 1 1 4 2·1+1·0+1·2 · 2 0 = 3 1 0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio: 1 1 2 1 1 4 4 · 2 0 = 3 1 0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio: 1 1 2 1 1 4 4 · 2 0 = 3 1 0 3·1+1·2+0·0 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio: 1 1 2 1 1 4 4 · 2 0 = 3 1 0 5 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio: 1 1 2 1 1 4 4 · 2 0 = 3 1 0 5 3·1+1·0+0·2 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 16, 2/2 Esempio: f : R3 → R2 definita come f (1, 0, 0) = (2, 3), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (−1, 0) e poi estesa per linearità (ossia, f (a, b, c) = a · (2, 3) + b · (1, 1) + c · (−1, 0), ∀(a, b, c) ∈ R3 ). Allora E2 2 1 −1 ME3 (f ) = 3 1 0 Il Prodotto tra matrici si definisce in maniera da corrispondere alla composizione di funzioni, ossia se f : V → W e g : W → Z sono lineari, B, C, D sono basi di V , W , Z rispettivamente, allora si vuole che MBD (g ◦ f ) = MCD (g ) · MBC (f ) NB: B · A è definito solo se numero colonne B=numero righe A! Inoltre, hj di C = B · A è il prodotto della riga h di B per la colonna j di A, l’elemento cP m ossia chj = i=1 bhi aij = bh1 a1j + bh2 a2j +... + bhm amj. Esempio: 1 1 2 1 1 4 4 · 2 0 = 3 1 0 5 3 0 2 G. Peruginelli Riepilogo 23 / 58 Riepilogo Lezione 17, 1/2 Data una matrice A ∈ Mm×n (K ), si definisce la seguente appl. lineare: FA :K n → K m v 7→ FA (v ) = A · v dove A · v è il prodotto della matrice A per il vettore (colonna!) v. NB: numero colonne di A = n =dimensione dominio FA. numero righe di A = m =dimensione codominio FA. Osservazione 1: La matrice associata a FA rispetto alle basi canoniche su K n e K m è A. Inoltre l’immagine di FA è generata dalle colonne di A: a11... a1n a11 a1n ! ! ! A=... ⇒ Im(FA ) =<... ,...,... >⊆ K m am1... amn am1 amn Osservazione 2: le soluzioni di un SEL omogeneo in n variabili e m equazioni sono il nucleo di una appl. lineare FA : K n → K m ⇒ sono un sottospazio vettoriale di K n. Osservazione 3: ogni appl. lineare f : K n → K m risulta uguale ad una FA , per una opportuna A ∈ Mm×n (K ) (ossia f (v ) = A · v per ogni v ∈ K n ). G. Peruginelli Riepilogo 24 / 58 Riepilogo Lezione 17, 2/2 Sia f : V → W lineare, con dim(V ) = n, dim(W ) = m. Siano B = {v1 ,... , vn }, C = {w1 ,... , wm } basi di V e W , rispettivamente. Sia A = MBC (f ) e FA : K n → K m , FA (v ) = A · v. La relazione tra f e FA è data dal seguente diagramma commutativo: ' f / WC , v_ VB f (v ) _ a1 b1 FA ... Kn / Km ... 1 an bm coord. v risp a B coord. f (v ) risp a C Ossia, per ogni v ∈ V risulta che le coordinate di f (v ) rispetto a C sono uguali al prodotto di MBC (f ) per le coordinate di v rispetto a B. G. Peruginelli Riepilogo 25 / 58 Riepilogo Lezione 18, 1/2 Data A ∈ Mm×n (K ), si definiscono il rango e la nullità di A come il rango e la nullità dell’appl. lineare associata FA : K n → K m : rk(A) = rk(FA ) = dim(Im(FA )), null(A) = null(FA ) = dim(ker(FA )). Im(FA ) è generato dalle colonne di A, quindi rk(A) =max numero colonne di A lin. indip.. Inoltre, per teorema nullità+rango abbiamo che null(A) + rk(A) = n = numero colonne di A Teorema, Rango per righe=Rango per colonne Sia A ∈ Mm×n (K ). Allora max numero colonne di A lin. indip. =max numero righe di A lin. indip. Applicazione: calcolo rango matrice A mediante EG. Siccome spazio righe di A è uguale allo spazio righe di una forma ridotta U, segue che rk(A) =rk(U) = numero righe non nulle di U (vedi Lez. 12). G. Peruginelli Riepilogo 26 / 58 Riepilogo Lezione 18, 2/2 Ogni SEL di m equazioni e n incognite può essere scritto in forma x1 matriciale come A · X = B, dove A ∈ Mm×n (R), X = ... e B ∈ Rm. xn n m In particolare, se FA : R → R , abbiamo che l’insieme delle soluzioni del SEL A · X = B è la controimmagine FA−1 (B) e, se ci sono soluzioni, FA−1 (B) = v + ker(A), dove v soluzione particolare → − del SEL e ker(A) soluzioni del SEL omogeneo associato A · X = 0. Teorema Rouché-Capelli Il SEL A · X = B ha soluzioni se e solo se rk(A) = rk(A | B) = r ⇔ B è combinazione lineare delle colonne di A. In tal caso, - se r = n allora esiste unica soluzione. - se r < n allora esistono ∞n−r soluzioni (ossia esistono n − r variabili libere). G. Peruginelli Riepilogo 27 / 58 Riepilogo Lezione 19 Una matrice A ∈ Mm×n (K ) è quadrata se m = n (stesso numero di righe e colonne). Se A ∈ Mn×n (K ) è una matrice quadrata, si dice che è invertibile se esiste B ∈ Mn×n tale che 1 0... 0 0 1... 0 (elemento neutro rispetto al prodotto: A·B = B·A = 1n = ... A · 1n = 1n · A = A, ∀A ∈ Mn×n (K )) 0 0... 1 A è invertibile se e solo se FA : K n → K n è un automorfismo (ossia lineare e biunivoca) se e solo se rk(A) = n o null(A) = 0. Proiezioni: se Rn = U ⊕ W allora per ogni v ∈ Rn esistono e sono unici u ∈ U, w ∈ W tali che v = u + w. Si definisce la proiezione su W lungo U come la seguente applicazione lineare: f :Rn → Rn v 7→ f (v ) = w G. Peruginelli Riepilogo 28 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi: 0 0 1 0 −3 1 0 1 0 · 2 1 0 = 1 0 0 1 −2 1 G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi: 0 0 1 0 −3 1 1 −2 1 0 1 0 · 2 1 0 = 2 1 0 1 0 0 1 −2 1 0 −3 1 G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi: 0 0 1 0 −3 1 1 −2 1 0 1 0 · 2 1 0 = 2 1 0 1 0 0 1 −2 1 0 −3 1 −1/4 0 −4 2 · = 0 1 2 3 G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi: 0 0 1 0 −3 1 1 −2 1 0 1 0 · 2 1 0 = 2 1 0 1 0 0 1 −2 1 0 −3 1 −1/4 0 −4 2 1 −1/2 · = 0 1 2 3 2 3 G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi: 0 0 1 0 −3 1 1 −2 1 0 1 0 · 2 1 0 = 2 1 0 1 0 0 1 −2 1 0 −3 1 −1/4 0 −4 2 1 −1/2 · = 0 1 2 3 2 3 1 0 0 1 3 1 0 −2 1 0 · 2 1 0 1 = 0 0 1 1 2 −1 −1 G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 1/2 L’applicazione di una Operazione Elementare su una matrice A produce una matrice A′ che è uguale al prodotto E · A, dove E è una opportuna matrice invertibile, detta elementare. Esempi: 0 0 1 0 −3 1 1 −2 1 0 1 0 · 2 1 0 = 2 1 0 1 0 0 1 −2 1 0 −3 1 −1/4 0 −4 2 1 −1/2 · = 0 1 2 3 2 3 1 0 0 1 3 1 0 1 3 1 0 −2 1 0 · 2 1 0 1 = 0 −5 −2 1 0 0 1 1 2 −1 −1 1 2 −1 −1 In particolare, applicare EG ad A per ottenere una sua forma ridotta U corrisponde a moltiplicare a sinistra A per una matrice invertibile P (prodotto di matrici elementari), ossia: U = P · A. Altre Applicazioni: Determinare relazioni di dipendenza lineare tra vettori. Calcolo dell’inversa di una matrice. G. Peruginelli Riepilogo 29 / 58 Riepilogo Lezione 20, 2/2 Se A ∈ Mn×m (K ), applico EG alla matrice (A | 1n ) (n × (m + n)) fino ad ottenere una matrice (U | B), dove U è una forma ridotta di A e B è una matrice invertibile n × n che soddisfa U = B · A. Per trovare l’inversa di A (se esiste! in tal caso n = m) allora (2o step) si continua ad applicare le O.E. fino ad ottenere (1n | A−1 ). Osservazione: Sia A ∈ Mn×m. a1 se v = ... ∈ K m è un vettore colonna, allora an A · v = a1 · v1 +... + am · vm dove v1 ,... , vm sono le colonne di A. se u = (b1 ,... , bn ) ∈ K n è un vettore riga, allora u · A = b1 · w1 +... + bn · wn dove w1 ,... , wn sono le righe di A. Se U ha righe nulle, allora le corrispondenti righe di B forniscono una relazione di dipendenza lineare tra le righe di A. G. Peruginelli Riepilogo 30 / 58 Riepilogo Lezione 21, 1/2 Sia V spazio vettoriale su campo K. Siano B = {v1 ,... , vn } e C = {v1′ ,... , vn′ } basi di V. Per ogni v ∈ V abbiamo: λ1 · v1 +... + λn · vn , coordinate rispetto a B v= λ′1 · v1′ +... + λ′n · vn′ , coordinate rispetto a C In particolare, per ogni i = 1,... , n: vi = p1i v1′ +... + pni vn′. La matrice P = MBC (Id) detta di cambiamento di base è n × n invertibile: p11... p1i... p1n P=... pn1... pni... pnn Risulta che (vedi Diagramma Commutativo Lez. 17) ′ λ1 λ1 ... = MBC (Id) · ... λ′n λn Ossia per ogni v ∈ V , MBC (Id) trasforma le coordinate di v rispetto a B nelle coordinate di v rispetto a C. G. Peruginelli Riepilogo 31 / 58 Riepilogo Lezione 21, 2/2 Se P = MBC (Id) e Q = MCB (Id) sono le matrici di cambiamento di base, risulta che P · Q = Q · P = 1n e dunque Q = P −1 (una l’inversa dell’altra). Come calcolare MBC (Id) con B, C basi di Rn : Se C = E3 e B = {(1, 0, 1), (0, −1, 0), (2, 0, −1)}, allora 1 0 2 MBE3 (Id) = 0 −1 0 1 0 −1 MEB3 (Id) = (MBE3 (Id))−1 MBC (Id) = MEC3 (Id) · MBE3 (Id) oppure applico EG alla seguente matrice: MCE3 (Id) | MBE3 (Id) ⇝ 13 | MBC (Id) G. Peruginelli Riepilogo 32 / 58 Riepilogo Lezione 22 Sia f : V → W lineare, con dim(V ) = n, dim(W ) = m. Siano B = {v1 ,... , vn }, C = {w1 ,... , wm } basi di V e W , rispettivamente. Sia MBC (f ) la matrice associata a f rispetto a tali basi. Ricordo che per ogni v ∈ V risulta che le coordinate di v rispetto a B sono legate alle coordinate di f (v ) rispetto a C da (Lez. 17): b1 a1 ... = MBC (f ) · ... bm an Se B ′ = {v1 ,... , vn }, C ′ = {w1′ ,... , wm ′ } sono altre basi di V e W , rispettivamente, allora risulta che: ′ ′ MBC ′ (f ) = MCC (Id) · MBC (f ) · MBB′ (Id) G. Peruginelli Riepilogo 33 / 58 Riepilogo Lezione 23, 1/3 Sia f : V → W lineare. Allora una inversa destra di f è una g : W → V lineare tale che f ◦ g : W → W è l’identità su W. Una inversa destra di f esiste se e solo se f è suriettiva. una inversa sinistra di f è una g : W → V lineare tale che g ◦ f : V → V è l’identità su V. Una inversa sinistra di f esiste se e solo se f è iniettiva. Analogamente, se A ∈ Mm×n (K ), una inversa destra di A è una B ∈ Mn×m (K ) tale che A · B è la matrice identica 1m. Una inversa destra di A esiste se e solo se rk(A) = m. una inversa sinistra di A è una B ∈ Mn×m (K ) tale che B · A è la matrice identica 1n. Una inversa sinistra di A esiste se e solo se null(A) = 0. 1 1 −1 Esempio: per trovare le inverse destre di A = (esistono perchè −1 −1 2 rk(A) = 2) si applica EG a (A | I2 ): 2 − t1 1 − t2 ! −1 1 1 −1 1 0 II +I 1 1 1 0 → ⇒ inv. destre A : t1 t2 , t1 , t2 ∈ R −1 −1 2 0 1 0 0 1 11 1 1 G. Peruginelli Riepilogo 34 / 58 Riepilogo Lezione 23, 2/3 Osservazione: per trovare le inverse sinistre di una matrice A con null(A) = 0, basta trovare le inverse destre della sua trasposta T A: infatti, B è una inversa destra di A ⇔ A · B = 1n ⇔ T (A · B) = T 1n ⇔ T B · T A = 1n ⇔ T B è una inversa sinistra di T A. Sia AX = B un SEL, con A ∈ Mm×n , B ∈ Rm. Allora i) il SEL ha un’unica soluzione per ogni B ∈ Rm se e solo se A è invertibile. In tal caso, X = A−1 · B. ii) il SEL ha almeno una soluzione per ogni B ∈ Rm se e solo se A ammette inversa destra. Se A · C = 1m , allora le soluzioni sono C · B + ker(A). iii) il SEL ha al più una soluzione per ogni B ∈ Rm se e solo se A ammette inversa sinistra. G. Peruginelli Riepilogo 35 / 58 Riepilogo Lezione 23, 3/3 Metodo dei minori per il calcolo del rango di una matrice A ∈ Mm×n : rk(A) = max{r ∈ N | esiste sottomatrice r × r invertibile di A} G. Peruginelli Riepilogo 36 / 58 Riepilogo Lezione 24, 1/2 a b Una matrice 2 × 2 A = è invertibile se e solo se c d d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 = 1 ad−bc. −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace: 1 2 −1 det 0 3 2 = Sviluppo rispetto 2a riga 2 1 −4 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 1/2 a b Una matrice 2 × 2 A = è invertibile se e solo se c d d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 = 1 ad−bc. −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace: 1 2 −1 det 0 3 2 = Sviluppo rispetto 2a riga 2 1 −4 2+1 2 −1 (−1) · 0 · det + 1 −4 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 1/2 a b Una matrice 2 × 2 A = è invertibile se e solo se c d d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 = 1 ad−bc. −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace: 1 2 −1 det 0 3 2 = Sviluppo rispetto 2a riga 2 1 −4 2+1 2 −1 1 −1 (−1) · 0 · det + (−1)2+2 · 3 · det + 1 −4 2 −4 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 1/2 a b Una matrice 2 × 2 A = è invertibile se e solo se c d d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 = 1 ad−bc. −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace: 1 2 −1 det 0 3 2 = Sviluppo rispetto 2a riga 2 1 −4 2+1 2 −1 1 −1 1 2 (−1) · 0 · det + (−1)2+2 · 3 · det + (−1)2+3 · 2 · det 1 −4 2 −4 2 1 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 1/2 a b Una matrice 2 × 2 A = è invertibile se e solo se c d d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 = 1 ad−bc. −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace: 1 2 −1 det 0 3 2 = Sviluppo rispetto 2a riga 2 1 −4 2+1 2 −1 1 −1 1 2 (−1) · 0 · det + (−1)2+2 · 3 · det + (−1)2+3 · 2 · det 1 −4 2 −4 2 1 = 3 · (−2) − 2 · (−3) = 0 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 1/2 a b Una matrice 2 × 2 A = è invertibile se e solo se c d d −b det(A) = ad − bc ̸= 0. In quel caso risulta che A−1 =. 1 ad−bc −c a Si definisce il determinante di una matrice quadrata A, n × n di modo che A sia invertibile se e solo se det(A) ̸= 0. Formula di Laplace: 1 2 −1 det 0 3 2 = Sviluppo rispetto 2a riga 2 1 −4 2+1 2 −1 1 −1 1 2 (−1) · 0 · det + (−1)2+2 · 3 · det + (−1)2+3 · 2 · det 1 −4 2 −4 2 1 Algoritmo EG: 1 2 −1 1 2 −1 III −2I det 0 3 2 = det 0 3 2 =0 2 1 −4 0 −3 −2 G. Peruginelli Riepilogo 37 / 58 Riepilogo Lezione 24, 2/2 Sarrus (solo nel caso 3 × 3!): per 1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4 1 2 −1 0 3 2 2 1 −4 Riepilogo Lezione 24, 2/2 Sarrus (solo nel caso 3 × 3!): per 1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4 1 2 −1 1 2 0 3 2 0 3 2 1 −4 2 1 Riepilogo Lezione 24, 2/2 Sarrus (solo nel caso 3 × 3!): per 1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4 1 2 −1 1 2 0 3 2 0 3 2 1 −4 2 1 Riepilogo Lezione 24, 2/2 Sarrus (solo nel caso 3 × 3!): per 1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4 1 2 −1 1 2 0 3 2 0 3 2 1 −4 2 1 Riepilogo Lezione 24, 2/2 Sarrus (solo nel caso 3 × 3!): per 1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4 1 2 −1 1 2 0 3 2 0 3 2 1 −4 2 1 Allora det(A) =1 · 3 · (−4) + 2 · 2 · 2 + (−1) · 0 · 1 Teorema di Binet Se A, B ∈ Mn×n (K ), allora det(A · B) = det(A) · det(B). G. Peruginelli Riepilogo 38 / 58 Riepilogo Lezione 24, 2/2 Sarrus (solo nel caso 3 × 3!): per 1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4 1 2 −1 1 2 0 3 2 0 3 2 1 −4 2 1 Allora det(A) =1 · 3 · (−4) + 2 · 2 · 2 + (−1) · 0 · 1 − ((−1) · 3 · 2 + 1 · 2 · 1 + 2 · 0 · (−4)) Teorema di Binet Se A, B ∈ Mn×n (K ), allora det(A · B) = det(A) · det(B). G. Peruginelli Riepilogo 38 / 58 Riepilogo Lezione 24, 2/2 Sarrus (solo nel caso 3 × 3!): per 1 2 −1 A = 0 3 2 , si ricopiano le prime due colonne di A: 2 1 −4 1 2 −1 1 2 0 3 2 0 3 2 1 −4 2 1 Allora det(A) =1 · 3 · (−4) + 2 · 2 · 2 + (−1) · 0 · 1 − ((−1) · 3 · 2 + 1 · 2 · 1 + 2 · 0 · (−4)) = =0 Teorema di Binet Se A, B ∈ Mn×n (K ), allora det(A · B) = det(A) · det(B). G. Peruginelli Riepilogo 38 / 58 Riepilogo Lezione 25, 1/2 Sia A ∈ Mn (K ) quadrata. Le seguenti condizioni sono equivalenti: A è invertibile. → − → − il SEL A · X = 0 ha solo la soluzione X = 0. ogni forma ridotta di A è triangolare superiore con 1 sulla diagonale. per ogni b ∈ K n , il SEL A · X = b ha soluzione. rk(A) = n. null(A) = 0. per ogni b ∈ K n , il SEL A · X = b ha unica soluzione. det(A) ̸= 0. FA : K n → K n , FA (v ) = A · v è un automorfismo. Applicazione: n vettori v1 ,... , vn ∈ K n sono una base di K n se e solo se la matrice formata da questi n vettori (per riga o per colonna) ha determinante diverso da zero. G. Peruginelli Riepilogo 39 / 58 Riepilogo Lezione 25, 2/2 Problema: descrivere le matrici associate MBB (f ) ad un endomorfismo f : K n → K n , rispetto a tutte le possibili basi B di K n. Due matrici A, B ∈ Mn (K ) sono simili se esiste P ∈ Mn (K ) invertibile tale che A = PBP −1. Risulta che due matrici A, B sono simili se e solo se rappresentano lo stesso endomorfismo f : K n → K n rispetto a basi diverse, ossia A = MBB (f ), B = MCC (f ) = MBC (id) · MBB (f ) · MCB (id) Quindi, dato un endomorfismo f : K n → K n con A = MBB (f ), l’insieme di tutte le matrici n × n associate a f rispetto ad ogni possibile base di K n sono: {PAP −1 | P ∈ Mn (K ), P invertibile}. Osservazione: Se A, B sono simili allora rk(A) = rk(B) e det(A) = det(B). Il viceversa non vale! G. Peruginelli Riepilogo 40 / 58 Riepilogo Lezione 26, 1/2 Problema: Dato un endomorfismo f : V → V , esiste una base B di V tale che MBB (f ) è diagonale? nel caso si dice che f è diagonalizzabile. Analogamente, una matrice A ∈ Mn (R) si dice diagonalizzabile se esiste P ∈ Mn (R) invertibile tale che P −1 AP è diagonale (ossia A = PDP −1 , con D ∈ Mn (R) diagonale). → − Uno scalare λ ∈ K si dice un autovalore di f e un v ∈ V , v ̸= 0 si dice autovettore di f se f (v ) = λ · v Se λ è autovalore, allora Vλ = {v ∈ V | f (v ) = λ · v } si chiama autospazio relativo a λ di f (è un sottospazio vettoriale). 1o Criterio per la diagonalizzabilità Un endomorfismo f di V è diagonalizzabile se e solo se esiste una base B di V formata da autovettori per f. G. Peruginelli Riepilogo 41 / 58 Riepilogo Lezione 26, 2/2 Per trovare autovalori: λ ∈ K è autovalore di f se e solo se λ è una radice del polinomio caratteristico di f , ossia pf (X ) = det(A − X · In ), dove A è una qualsiasi matrice associata a f. Per trovare autovettori: per ogni radice λ di pf (X ), si determina una base dell’autospaziorelativo Vλ = ker(A − λ · In ). 1/2 −1/2 1 Esempio:A = −1/2 −1 1/2 . pA (X ) = −X 2 (X + 1) ⇒ gli autovalori di 1/2 1 −1/2 −2 1 → − A sono 0, −1. V0 = {v ∈ R3 | f (v ) = 0 · v = 0 } = ker(A) =< 1 , 0 > 0 1 1 −2 1 1 , V−1 =< −1 >⇒ B = { 1 , 0, −1} base di R3 di autovettori di 1 0 1 1 −1 −2 1 1 0 0 0 −2 1 1 A, A = 1 0 −1 0 0 0 1 0 −1. 0 1 1 0 0 −1 0 1 1 G. Peruginelli Riepilogo 42 / 58 Riepilogo Lezione 27, 1/2 Se λ1 ,... , λr sono autovalori distinti di un endomorfismo f e vi ∈ V è un autovettore di f relativo a λi , per i = 1,... , r , allora v1 ,... , vr sono linearmente indipendenti. Due matrici simili hanno lo stesso polinomio caratteristico, ma il viceversa non vale. Sia f un endomorfismo di V. Dato un autovalore λ di f con pf (X ) = (X − λ)k · q(X ), q(λ) ̸= 0, la molteplicità algebrica di λ è ma (λ) = k. La molteplicità geometrica di λ è la dimensione dell’autospazio relativo, ossia mg (λ) = dim(Vλ ), dove Vλ = {v ∈ V | f (v ) = λ · v }. Risulta che 1 ≤ mg (λ) ≤ ma (λ) ≤ dim(V ). 2o Criterio per la diagonalizzabilità Un endomorfismo f di V , è diagonalizzabile se e solo se Pper ogni autovalore λ di f risulta che mg (λ) = ma (λ) e inoltre ma (λ) = dim(V ). G. Peruginelli Riepilogo 43 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio: 1 0 1 2 1 3 0 0 A= 1 −3 2 4 2 3 1 2 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio: 1 0 1 2 1 3 0 0 A= det 1 0 ̸= 0 ⇒ rk(A) ≥ 2 1 −3 2 4 1 3 2 3 1 2 1 0 Le 4 Orlature di 1 3 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio: 1 0 1 2 1 3 0 0 A= det 1 0 ̸= 0 ⇒ rk(A) ≥ 2 1 −3 2 4 1 3 2 3 1 2 1 0 Le 4 Orlature di 1 3 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio: 1 0 1 2 1 3 0 0 A= det 1 0 ̸= 0 ⇒ rk(A) ≥ 2 1 −3 2 4 1 3 2 3 1 2 1 0 Le 4 Orlature di 1 3 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio: 1 0 1 2 1 3 0 0 A= det 1 0 ̸= 0 ⇒ rk(A) ≥ 2 1 −3 2 4 1 3 2 3 1 2 1 0 Le 4 Orlature di 1 3 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio: 1 0 1 2 1 3 0 0 A= det 1 0 ̸= 0 ⇒ rk(A) ≥ 2 1 −3 2 4 1 3 2 3 1 2 1 0 Le 4 Orlature di 1 3 G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 27, 2/2 Teorema dei minori orlati Sia A una matrice qualsiasi. Se B è una sottomatrice r × r di A invertibile tale che ogni orlatura di B in A ha determinante nullo, allora rk(A) = r. Esempio: 1 0 1 2 1 3 0 0 A= 1 −3 2 4 2 3 1 2 1 0 Le 4 Orlature di hanno determinante zero , quindi rk(A) = 1 3 2 (ogni altro minore di sottomatrici 3 × 3 è zero). G. Peruginelli Riepilogo 44 / 58 Riepilogo Lezione 28, 1/2 p Dato v = (a1 ,... , an ) ∈ Rn , la norma di v è ∥v ∥ = a12 +... + an2. Proprietà: → − 1 ∥v ∥ ≥ 0, ∥v ∥ = 0 ⇔ v = 0. 2 ∥λ · v ∥ = |λ| · ∥v ∥, ∀λ ∈ R. 3 ∥v + w ∥ ≤ ∥v ∥ + ∥w ∥, ∀v , w ∈ Rn (Disuguaglianza Triangolare). Dati v = (a1 ,... , an ), w = (b1 ,... , bn ) ∈ Rn , si definisce il prodotto scalare tra v e w come v · w = a1 b1 +... + an bn √ Risulta che ∥v ∥ = v · v. Vale che |v · w | ≤ ∥v ∥∥w ∥ (Disuguaglianza di Cauchy-Schwarz) e quindi si ·w definisce l’angolo α tra v e w come: cos(α) = ∥vv∥∥w ∥. Diciamo che v , w ∈ Rn sono ortogonali se v · w = 0. v è normalizzato se ∥v ∥ = 1. G. Peruginelli Riepilogo 45 / 58 Riepilogo Lezione 28, 2/2 Sia U =< v > un sottospazio vettoriale di dimensione 1 di Rn. Dato w ∈ Rn , la proiezione ortogonale di w su U è il vettore: w ·v w′ = · v, v ·v e risulta che w = w ′ + w⊥ dove w ′ ∈ U e w⊥ ⊥ v ⇔ w⊥ · v = 0. ∥w⊥ ∥ è la distanza minima di w da U. Dato un sottospazio vettoriale U di Rn , il complemento ortogonale di U è il sottospazio: U ⊥ = {v ∈ Rn | v · u = 0, ∀u ∈ U} Se U =< u1 ,... , ur >, allora v ∈ U ⊥ ⇔ v · u1 = 0,... , v · ur = 0. G. Peruginelli Riepilogo 46 / 58 Riepilogo Lezione 29, 1/2 Sia U ⊆ Rn un sottospazio e U ⊥ = {v ∈ Rn | v · u = 0, ∀u ∈ U} il suo complemento ortogonale. Se dim(U) = r allora dim(U ⊥ ) = n − r e Rn = U ⊕ U ⊥ (sottospazi complementari) Quindi, ∀w ∈ Rn , w = w ′ + w⊥ , w ′ ∈ U, w⊥ ∈ U ⊥ (unici!), w ′ è la proiezione ortogonale di w su U. Equivalentemente, la proiezione ortogonale di w su U è quel vettore w ′ ∈ U tale che w − w ′ ∈ U ⊥ ⇔ w = w ′ + w⊥ , w⊥ ∈ U ⊥. ∥w⊥ ∥ è la distanza minima di w da U, ossia: ∥w⊥ ∥ ≤ ∥w − u∥, ∀u ∈ U G. Peruginelli Riepilogo 47 / 58 Riepilogo Lezione 29, 2/2 Sia B = {u1 ,... , ur } una base di un sottospazio U di Rn. se ui · uj = 0, ∀i ̸= j, allora B è base ortogonale di U. se inoltre ∥ui ∥ = 1, ∀i, allora B è base ortonormale di U. Sia B = {u1 ,... , ur } una base ortogonale di U. Dato u ∈ U, risulta che u · u1 u · ur u= · u1 +... + · ur u1 · u1 ur · ur Se w ∈ Rn , allora la proiezione ortogonale di w su U è: w · u1 w · ur · u1 +... + · ur u1 · u1 ur · ur G. Peruginelli Riepilogo 48 / 58 Riepilogo Lezione 30 Algoritmo di Gram-Schmidt: data una base B = {u1 ,... , ur } di un sottospazio U ⊆ Rn , produce una base ortogonale di U: u2 · u1′ ′ u1′ =u1 , u2′ = u2 − u ,... u1′ · u1′ 1 ur · u ′ ur · ur′ −1 ′ ur′ =ur − ( ′ 1′ u1′ +... + ′ u ) u1 · u1 ur −1 · ur′ −1 r −1 ⇒ B ′ = {u1′ ,... , ur′ } è base ortogonale di U. G. Peruginelli Riepilogo 49 / 58 Riepilogo Lezione 30 Algoritmo di Gram-Schmidt: data una base B = {u1 ,... , ur } di un sottospazio U ⊆ Rn , produce una base ortogonale di U: u2 · u1′ ′ u1′ =u1 , u2′ = u2 − u ,... u1′ · u1′ 1 ur · u ′ ur · ur′ −1 ′ ur′ =ur − ( ′ 1′ u1′ +... + ′ u ) u1 · u1 ur −1 · ur′ −1 r −1 ⇒ B ′ = {u1′ ,... , ur′ } è base ortogonale di U. Esempio: U : x + 2y − z = 0, U ⊂ R3. Una base di U è {u1 = (−2, 1, 0), u2 = (1, 0, 1)} (non ortogonali!). Applico G.-S.: u1′ =u1 u2 · u1 −2 u2′ =u2 − · u1 = u2 − · u1 = (1/5, 2/5, 1) u1 · u1 5 ⇒ B = {u1′ = (−2, 1, 0), u2′ = (1/5, 2/5, 1)} base ortogonale di U. G. Peruginelli Riepilogo 49 / 58 Riepilogo Lezione 31, 1/2 Una applicazione lineare f : Rn → Rn si dice isometria se per ogni u, v ∈ Rn , risulta u · v = f (u) · f (v ). Sia A ∈ Mn (R). Si dice che A è ortogonale se AT A = T AA = 1n. Sia f : Rn → Rn una isometria. Se v ∈ Rn , allora ∥v ∥ = ∥f (v )∥. f è invertibile e se B = {v1 ,... , vn } è una base ortogonale (ortonormale, risp.) allora f (B) = {f (v1 ),... , f (vn )} è una base ortogonale (ortonormale, risp.). le colonne di A (o di MEEnn (f )) sono una base ortonormale di Rn. Analogamente per le righe. Un endomorfismo f : Rn → Rn è una isometria se e solo se MEEnn (f ) è ortogonale. Notare che se A è ortogonale, allora A−1 = T A. G. Peruginelli Riepilogo 50 / 58 Riepilogo Lezione 31, 2/2 Una applicazione lineare f : Rn → Rn si dice simmetrica se per ogni v , w ∈ Rn , risulta f (v ) · w = v · f (w ). Sia B = {v1 ,... , vn } base ortonormale di Rn e f endomorfismo di Rn. Allora f è simmetrico se e solo se A = MBB (f ) è una matrice simmetrica. Esempio: l’applicazione di proiezione ortogonale su un sottospazio U ⊆ Rn è simmetrica. Sia A ∈ Mn (R) simmetrica. A ha n autovalori reali (non necessariamente distinti). se λi ̸= λj sono due autovalori distinti di A e vi , vj sono autovettori relativi a λi , λj rispettivamente, allora vi , vj sono ortogonali. Teorema Spettrale Sia f : Rn → Rn un endomorfismo. Allora f è ortogonalmente diagonalizzabile (ossia esiste una base ortonormale B di Rn formata da autovettori di f ) se e solo se f è simmetrico se e solo se MEEnn (f ) è simmetrica. G. Peruginelli Riepilogo 51 / 58 Riepilogo Lezione 32 Sia U ⊆ Rn un sottospazio e U ⊥ il suo complemento ortogonale. Dato che Rn = U ⊕ U ⊥ , per ogni v ∈ Rn , esistono e sono unici v ′ ∈ U, v ′′ ∈ U ⊥ tali che v = v ′ + v ′′. - v ′ = pU (v ) è la proiezione ortogonale di v su U. - v ′′ = pU ⊥ (v ) è la proiezione ortogonale di v su U ⊥. In particolare, v = pU (v ) + pU ⊥ (v ) da cui segue che pU + pU ⊥ = IdRn. In generale, se U, W ⊆ Rn sono sottospazi complementari, ossia Rn = U ⊕ W , allora analogamente a sopra per ogni v ∈ Rn risulta che v = v ′ + v ′′ , con v ′ ∈ U, v ′′ ∈ W. L’applicazione di proiezione su U lungo W è dunque un endomorfismo di Rn , pU (v ) = v ′. Risulta che gli autovalori di pU sono 0, 1. gli autospazi di pU sono V0 = ker(pU ) = W e V1 = U. pU è diagonalizzabile: se B1 è una base di U e B2 è una base di W allora B1 ∪ B2 è una base di U ⊕ W = Rn. G. Peruginelli Riepilogo 52 / 58 Riepilogo Lezione 33, 1/2 Uno Spazio Affine A è l’insieme dei seguenti oggetti: uno spazio vettoriale V , detto spazio vettoriale soggiacente a A. un insieme S, detto insieme dei punti di A. una operazione che associa ad un punto P ∈ S e a un vettore v ∈ V , il punto Q = P + v , traslato di P secondo v. Tale nuova operazione soddisfa queste proprietà: i) (P + v1 ) + v2 = P + (v1 + v2 ), ∀P ∈ S, v1 , v2 ∈ V. → − ii) P + 0 = P, ∀P ∈ S. iii) ∀P, Q ∈ S, ∃ ed è unico v ∈ V tale che Q = P + v. Osservazione: iii) implica che S e V sono in corrispondenza biunivoca. Esempi: An = Rn , con S = V = Rn. Rette affini in A2 e A3 e piani affini in A3. G. Peruginelli Riepilogo 53 / 58 Riepilogo Lezione 33, 2/2 Rette nello spazio affine A3 : Siano P = (1, −1, 0) punto e v = (−2, 1, 2) vettore. La retta r per P con direzione v è l’insieme dei punti X ∈ A3 tali che X = P + λv , λ ∈ R, ossia: x = 1 − 2λ y = −1 + λ equazioni parametriche di r z = 2λ Le equazioni cartesiane di r si trovano eliminando il parametro λ: x + 2y + 1 = 0 2y − z + 2 = 0 Piani in A3 : Sia P = (1, 2, −1) punto e v = (1, 2, 0), w = (−1, 3, −2) due vettori linearmente indipendenti. Il piano π per P e parallelo a v , w è l’insieme dei punti X ∈ A3 tali che X = P + λv + µw , λ, µ ∈ R: x = 1+λ−µ 4x − 2y − 5z − 5 = 0 y = 2 + 2λ + 3µ eq. param. π ⇒ eq. cartesiana di π z = −1 − 2µ nπ = (4, −2, −5), vettore normale a π. G. Peruginelli Riepilogo 54 / 58 Riepilogo Lezione 34, 1/2 = (q1 , q2 , q3 ) ∈ A3 , la distanza tra P e Q è Dati P = (p1 , p2 , p3 ), Qp d(P, Q) = ∥P − Q∥ = (p1 − q1 )2 + (p2 − q2 )2 + (p3 − q3 )2 Sia P un punto. Data una retta r : X = Q + λ · vr , la distanza d(P, r ) = d(P, H), dove H è la proiezione ortogonale di P su r : se w = X − P = Q − P + λ · vr , si impone w · vr = 0 e si ricava λ per trovare H. Se π : X = Q + λv1 + µv2 è un piano, allora dato w = X − P = Q − P + λv1 + µv2 , si impone che w · v1 = w · v2 = 0, si ricavano λ e µ per trovare la proiez. ortogonale H di P su π. Come sopra, la distanza d(P, π) = d(P, H). Se π : ax + by + cz + d = 0, allora la distanza di P = (p1 , p2 , p3 ) da π è: d(P, π) = |ap√ 1 +bp2 +cp3 +d| a2 +b 2 +c 2. Notare che d(P, π) = 0 ⇔ P ∈ π. G. Peruginelli Riepilogo 55 / 58 Riepilogo Lezione 34, 2/2 Due rette r , s in A3 sono: parallele (r ∩ s = ∅, < vr >=< vs >), incidenti (r ∩ s = P) o sghembe (r ∩ s = ∅, vr ̸∥ vs ). Sono complanari se esiste un piano che le contiene entrambe (ossia se sono parallele o incidenti). a1 x + a2 y + a3 z + d = 0 Data una retta r : , il fascio di piani di a1′ x + a2′ y + a3′ z + d ′ = 0 asse r è l’insieme di tutti i piani contenenti r : α1 (a1 x + a2 y + a3 z + d) + α2 (a1′ x + a2′ y + a3′ z + d ′ ) = 0 al variare di α1 , α2 ∈ R. G. Peruginelli Riepilogo 56 / 58 Riepilogo Lezione 35 Dati u = (a1 , a2 , a3 ), v = (b1 , b2 , b3 ) ∈ R3 , il prodotto vettoriale di u, v è quel vettore w ∈ R3 perpendicolare a u, v e con verso dato dalla ”regola della mano destra”: w = u× v , a2 a3 a a3 a a2 w = (det , − det 1 , det 1 ) b2 b3 b1 b3 b1 b2 = (a2 b3 − a3 b2 , −(a1 b3 − a3 b1 ), a1 b2 − a2 b1 ) Il modulo di w è uguale a ∥u∥ · ∥v ∥ · sin α ed è l’area del parallelogramma individuato dai vettori u, v. Il prodotto misto di u, v , w ∈ R3 non complanari (ossia lin. ind.) è: (u × v ) · w = ∥u × v ∥∥w ∥ cos(θ) (dove θ è l’angolo tra u × v e w ); il valore assoluto di tale prodotto rappresenta il volume del parallelepido generato dai 3 vettori. G. Peruginelli Riepilogo 57 / 58 Riepilogo Lezione 36 Date due rette sghembe r , s, la distanza tra r e s può essere ricavata per mezzo del prodotto misto: siano A ∈ r e B ∈ s punti qualsiasi, vr , vs i vettori direzione di r , s rispettivamente, allora |(vr × vs ) · (A − B)| d(r , s) = ∥vr × vs ∥ volume che rappresenta l’altezza ( area base ) del parallelepipedo individuato dai vettori vr , vs , A − B G. Peruginelli Riepilogo 58 / 58