Elenco di Definizioni del Corso di Geometria PDF

Summary

Questo documento presenta una serie di definizioni e concetti relativi alla geometria, concentrandosi sullo spazio vettoriale, sui vettori e sulle loro operazioni. Include anche definizioni di spazio affine e relative proprietà. Esso è un elenco di definizioni utilizzate in un corso di geometria.

Full Transcript

ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA CORSO DI LAUREA IN ING. EDILE/ARCHITETTURA 1. Vettori e punti Definizione 1.1 (Spazio vettoriale). Uno spazio vettoriale reale é un insieme non vuoto V munito di due operazioni: V...

ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA CORSO DI LAUREA IN ING. EDILE/ARCHITETTURA 1. Vettori e punti Definizione 1.1 (Spazio vettoriale). Uno spazio vettoriale reale é un insieme non vuoto V munito di due operazioni: V × V −→ V (somma di vettori), (u, v) 7→ u+v R × V −→ V (prodotto per scalari), (k, u) 7→ ku tali che si soddisfano le seguenti proprietà: (1) Associatività della somma: u + (v + w) = (u + v) + w per ogni u, v, w ∈ V. (2) Neutro della somma: esiste un unico elemento 0 ∈ V (chiamato vettore zero) tale che u + 0 = 0 + u = u per ogni u ∈ V. (3) Opposti: per ogni u ∈ V esiste un elemento −u ((chiamato opposto di u)) tale che u + (−u) = 0. (4) Commutatività della somma: u + v = v + u per ogni u, v ∈ V. (5) Distributività (1): k(u + v) = ku + kv per ogni k ∈ R, u, v ∈ V. (6) Distributività (2): (k + r)u = ku + ru per ogni k, r ∈ R, u ∈ V. (7) Pseudoassociatività: (kr)u = k(ru) per ogni k, r ∈ R, u ∈ V. (8) Unità: 1u = u, per ogni u ∈ V (dove 1 ∈ R).  Definizione 1.2. Dato uno spazio vettoriale V , i suoi elementi si chiamano vettori di V.  Osservazione 1.3. Dalla definizione si segue possono dimostrare queste proprietà: L’elemento neutro della somma (il vettore 0) è unico. Per ogni elemento u ∈ V , il suo opposto −u è unico, Se 0 ∈ R e u ∈ V , allora il prodotto 0v è uguale al vettore 0. L’opposto di un elemento u ∈ V è uguale a (−1)u (con (−1) ∈ R). Definizione 1.4 (Lo spazio vettoriale Rn ). L’insieme Rn = {(x1 ,... , xn )| x1 ,... , xn ∈ R} è uno spazio vettoriale reale con le seguenti operazioni di somma e prodotto per scalari:  u = (x1 ,... , xn ) ∈ Rn  u + v := (x1 + y1 ,... , xn + yn ) ∈ Rn v = (y1 ,... , yn ) ∈ Rn ⇒. ku := (kx1 ,... , kxn ) ∈ Rn k∈R   1 2 ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA Definizione 1.5 (Spazio affine). Dato uno spazio vettoriale V , uno spazio affine A con giacitura V è un insieme non vuoto A munito di una mappa (chiamata mappa traslazione): A × V −→ A (P, u) 7→ P +u tale che: (1) Dati il vettore 0 ∈ V ed un elemento P ∈ A, abbiamo che P + 0 = P. (2) Dati u, v ∈ V , P ∈ A, abbiamo che P + (u + v) = (P + u) + v. −−→ (3) Dati P, Q ∈ A, esiste un unico vettore (che denoteremo P Q) tale che −−→ P + P Q = Q.  n Definizione 1.6 (Lo spazio affine A ). L’insieme An := {(a1 ,... , an )| a1 ,... , an ∈ R} è uno spazio affine con giacitura Rn , quando consideriamo la mappa traslazione: P = (a1 ,... , an ) ∈ An  ⇒ P + u := (a1 + x1 ,... , an + xn ) ∈ An. u = (x1 ,... , xn ) ∈ Rn  ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 3 2. Geometria euclidea (vettoriale ed affine) Definizione 2.1 (Prodotto scalare in Rn ). Il prodotto scalare standard nello spazio vettoriale Rn è definito: u = (x1 ,... , xn ) ∈ Rn  hu, vi = x1 y1 +... , xn yn ∈ R. v = (y1 ,... , yn ) ∈ Rn  Definizione 2.2 (Lunghezza di un vettore di Rn ). La lunghezza (standard) di un vettore u in Rn è definita: p q u = (x1 ,... , xn ) ∈ Rn ⇒ kuk := hu, ui = x21 +... , x2n.  Definizione 2.3 (Distanza tra due punti in An ). Dati due punti P, Q in An , si definisce la distanza tra di loro: −−→ d(P, Q) := kP Qk.  Definizione 2.4 (Angolo tra due vettori di Rn ). L’angolo (standard) tra due vettori u, v in Rn è definito come l’unico angolo ^(u, v) tra 0 e π radianti tale che: hu, vi cos ^(u, v) =. kukkvk  Osservazione 2.5 (Proprietà del prodotto scalare). Il prodotto scalare standard in Rn soddisfa le seguenti proprietà: (1) Bilinearità. Per ogni u1 , u2 , v1 , v2 ∈ Rn , k1 , k2 ∈ R: hk1 u1 + k2 u2 , vi = k1 hu1 , vi + k2 hu2 , vi, hu, k1 v1 + k2 v2 i = k1 hu, v1 i + k2 hu, v2 i. (2) Simmetria. Per ogni u, v ∈ Rn : hu, vi = hv, ui. (3) Definito positivo. Per ogni v ∈ Rn : hu, ui ≥ 0, e hu, ui = 0 se e solo se u = 0. n (4) Dati u, v ∈ R due vettori diversi da zero, allora hu, vi = 0 se e solo se u e v sono perpendicolari. Definizione 2.6 (Prodotto vettoriale in R3 ). Il prodotto vettoriale di due vettori u = (x1 , y1 , z1 ) v = (x2 , y2 , z2 ) è il vettore: u × v = (y1 z2 − y2 z1 , z1 x2 − z2 x1 , x1 y2 − x2 y1 ) ∈ R3.  Osservazione 2.7 (Proprietà del prodotto vettoriale in R3 ). Il prodotto vettoriale in R3 soddisfa le seguenti proprietà: (1) Bilinearità. Per ogni u1 , u2 , v1 , v2 ∈ R3 , k1 , k2 ∈ R: (k1 u1 + k2 u2 ) × v = k1 (u1 × v) + k2 (u2 × v), u × (k1 v1 + k2 v2 ) = k1 (u × v1 ) + k2 (u × v2 ). 4 ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA (2) Antisimmetria. Per ogni u, v ∈ R3 : u × v = −v × u. 3 (3) Per ogni u, v ∈ R la lunghezza di u × v è uguale all’area del parallelogramma determinato da u, v, cioè: ku × vk = kukkvk sin ^(u, v). 3 (4) Se u, v ∈ R non sono propozionali, allora u × v è perpendicolare ad u e v. (5) Se u, v ∈ R3 sono propozionali, allora u × v = 0. (6) Il verso di u × u è dato dalla regola della mano destra. Definizione 2.8 (Rette in Rn ). Dati un punto P ∈ Rn , ed un vettore u ∈ Rn , la retta passante per P con versore u è l’insieme dei traslati di P per multipli di u, ovvero l’insieme: {P + tu| t ∈ R}.  Definizione 2.9 (Piani in Rn ). Dati un punto P ∈ Rn , e due vettori u, v ∈ Rn , il piano passante per P con versori u, v è l’insieme dei traslati di P per somme di multipli di u e v, ovvero l’insieme: {P + tu + sv| t, s ∈ R}.  Osservazione 2.10 (Piani in R3 ). Un piano π in R3 è determinato per un suo punto P ∈ π ed un vettore n in R3 perpendicolare a π (chiamato vettore normale a π). Infatti π è formato −−→ −−→ dai punti Q tali che P Q è perpendicolare a n, cioè hP Q, ni = 0. Se π ha equazione cartesiana ax + by + cz = d, allora (a, b, c) è un vettore normale a π. Definizione 2.11 (Proiezione ortogonale di un vettore v su un vettore u). La proiezione ortogonale di un vettore v ∈ Rn su un vettore u ∈ Rn è il vettore pu (v) proporzionale ad u tale che v − pu (v) è perperndicolare a u. Si ha che: hu, vi pu (v) = u hu, ui  Definizione 2.12 (Riflessioni di un vettore v rispetto ad un vettore u e rispetto al sot- tospazio perpendicolare a u). Denotiamo pu⊥ (v) := v − pu (v), in modo che abbiamo una decomposizione: v = pu (v) + pu⊥ (v). Si definiscono la riflessione di v rispetto ad u e la riflessione di v rispetto al sottospazio perpendicolare a u: ru (v) := pu (v) − pu⊥ (v), ru⊥ (v) := pu⊥ (v) − pu (v).  Osservazione 2.13. Le definizioni di proiezioni e riflessioni di vettori possono essere usate, mediante adeguate traslazioni, per calcolare proiezioni e riflessioni di punti rispetto a rette e piani. ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 5 Figura 1. Proiezioni e riflessioni di vettori. Definizione 2.14 (Punto medio di un segmento). Dati due punti P, Q ∈ Rn , il punto medio M del segmento tra P e Q è il punto le cui coordinate sono la somma delle coordinate di P e Q diviso due: 1 M = (P + Q). 2  Definizione 2.15 (Baricentro di un triangolo). Dati tre punti P, Q, R ∈ Rn , il baricentro B del triangolo con vertici P , Q, R è il punto le cui coordinate sono la somma delle coordinate di P , Q, R diviso tre: 1 M = (P + Q + R). 3  6 ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 3. Matrici e sistemi lineari Definizione 3.1 (Matrice). Una matrice m × n a coefficienti reali è una tabella ordinata di elementi di R, con m righe ed n colonne:   a11... a1n A = .....  .  a11... a1n Il coefficiente nella posizione (i, j) di A (riga i, colonna j) si denota aij ; quando le dimensioni di una matrice A sono conosciute, si denota semplicemente A = (aij ). L’insieme delle matrici m × n a coefficienti in R si denota Mm×n (R).  In altre parole, possiamo definire A ∈ Mm×n (R) per indicare che A è una matrice m × n a coefficienti reali. Definizione 3.2 (Matrici particolari). Un matrice m × 1 si chiama matrice colonna, ed una matrice 1 × n si chiama matrice riga. Una matrice n × n si dice quadrata. La matrice 0 ∈ Mm×n (R) e quella i cui coefficienti sono tutti zero:   0... 0 0 = ..... . . 0... 0 Una matrice si dice triangolare alta, triangolare bassa e diagonale quando, rispettivamente: (aij = 0 ∀i > j), (aij = 0 ∀i < j), (aij = 0 ∀i 6= j), cioè, delle forme:       a11 a12... a1n a11 0... 0 a11 0... 0  0 a22... a2n   a21 a22... 0   0 a22... 0 ..  , , .       ...... ........ ........ ....  ....  ....  0 0... ann an1 an2... ann 0 0... ann La matrice identità o identica n × n è quella tale che aij = 0 se i 6= j e 1 altrimenti:   1... 0 In = ......... .   0... 1 Data una matrice quadrata n×n A = (aij ), si chiama diagonale di A al vettore (a11 ,... , ann ).  Definizione 3.3 (Somma di matrici e prodotto per scalari). Date due matrici A = (aij ), B = (bij ) ∈ Mm×n (R), si definisce la sua somma: A + B ∈ Mm×n (R), data da A + B = (aij + bij ). Dato k ∈ R, si definisce: kA ∈ Mm×n (R), data da kA = (kaij ).  In altre parole, due matrici si possono sommare soltanto se hanno le stesse dimensioni e, in questo caso, si sommano coefficiente a coefficiente. Il prodotto per scalari di una matrice ed il prodotto dello scalare per ogni coefficiente della matrice. ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 7 Definizione 3.4 (Prodotto di matrici). Due matrici A ∈ Mm×k (R), B ∈ Mk0 ×n (R) si dicono conformabili se k = k 0 , cioè se le righe di A e le colonne di B hanno lo stesso numero di elementi. Per due matrici conformabili A ∈ Mm×k (R), B ∈ Mk×n (R) si definisce il prodotto AB come la matrice: AB ∈ Mm×n (R), data da AB = (ai1 b1j + ai2 b2j +... + aik bkj ).  In altre parole, il coefficiente ij del prodotto AB è il prodotto della riga i di A per la colonna j di B. Proposition 3.5 (Proprietà delle operazioni con matrici). Le operazioni di somma di matrici, prodotto e prodotto per scalari, soddisfano le seguente proprietà: Mm×n (R) fornito con la somma ed il prodotto per scalari è uno spazio vettoriale reale; dunque soddisfa tutte le proprietà corrispondenti (associativa, commutativa, ecc). (Distributiva) Dati A, B ∈ Mm×n (R), C ∈ Mn×r (R), (A + B)C = AC + BC. (Distributiva) Dati A ∈ Mm×n (R), B, C ∈ Mn×r (R), A(B + C) = AB + AC. (Pseudoassociativa) Dati A ∈ Mm×n (R), B ∈ Mn×r (R), k ∈ R, k(AB) = (kA)B = A(kB). (Associativa) Dati A ∈ Mm×n (R), B ∈ Mn×r (R), C ∈ Mr×s (R), (AB)C = A(BC). (Elemento neutro) Se A ∈ Mm×n (R), allora Im A = AIn = A. Definizione 3.6 (Matrice inversa). Una matrice quadrata n × n si dice invertibile se esiste una matrice n × n A0 tale che: AA0 = A0 A = In. Una tale matrice A0 si dice inversa di A. Se esiste la matrice inversa di A, essa è unica e si denota A−1.  Definizione 3.7 (Sistema lineare). Una sistema di m equazioni lineari in n incognite x1 ,... ,xn a coefficienti reali è un insieme di equazioni:  a11 x1 + · · · + a1n xn = b1  ...  am1 x1 + · · · + amn xn = bm  con aij , bi ∈ R, per ogni i, j.  Definizione 3.8 (Compatibilità di un sistema lineare). Una soluzione di un sistema lineare è un vettore (x1 ,... , xn ) ∈ Rn le cui coordinate soddisfano tutte le equazione del sistema. Un sistema di equazioni si dice incompatibile se non ammette soluzioni, compatibile determinato se ammette un’unica soluzione (x1 ,... , xn ) ∈ Rn , e compatibile indeterminato se ammette più di una soluzione.  Se un sistema lineare è compatibile indeterminato, ha infinite soluzioni (dipendenti di un certo numero di parametri). Definizione 3.9 (Matrici di un sistema lineare). Le matrici     a11... a1n b1 .....  , b = ...  A=.    am1... amn bm 8 ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA si chiamano matrice di coefficienti del sistema e termine noto del sistema. La matrice:   a11... a1n b1 A0 = .......  ..  am1... amn bm si chiama matrice completa del sistema lineare. Denotando   x1 ..  X = . , xn l’uguaglianza AX = b si chiama equazione matriciale associata al sistema lineare.  Se A è quadrata ed invertibile, l’equazione AX = b ha soluzione X = A−1 b. Definizione 3.10 (Sistemi lineari omogenei). Se il termine noto di un sistema lineare è uguale a zero, esso si dice omogeneo. In generale dato un sistema lineare  a11 x1 + · · · + a1n xn = b1  .. ,.  am1 x1 + · · · + amn xn = bm  il sistema lineare dato da:  a11 x1 + · · · + a1n xn = 0  ...  am1 x1 + · · · + amn xn = 0  si chiama sistema lineare omogeneo associato.  ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 9 4. Sottospazio vettoriali ed affini. Mappe lineari ed affini Definizione 4.1 (Sottospazi vettoriali). Sia V uno spazio vettoriale reale. Un sottospazio vettoriale di V è un sottoinsieme W ⊂ V tale che: W 6= ∅; se w1 , w2 ∈ W , allora w1 + w2 ∈ W ; se w ∈ W e k ∈ R, allora kw ∈ W.  Definizione 4.2 (Sottospazio vettoriali generato da un insieme di vettori). Sia V uno spazio vettoriale reale, e {v1 ,... , vk } ⊂ V un insieme di vettori di V. Il sottospazio generato da {v1 ,... , vk } è l’insieme: h{v1 ,... , vk }i = {a1 v1 + · · · + ak vk | a1 ,... , ak ∈ R} ⊂ V. È un sottospazio vettoriale di V.  Osservazione 4.3 (Combinazione lineare). Dato un insieme di vettori {v1 ,... , vk } ⊂ V , un vettore della forma v = a1 v1 + · · · + ak vk , con a1 ,... , ak ∈ R, si chiama una combi- nazione lineare di {v1 ,... , vk }.Dunque h{v1 ,... , vk }i si può descrivere come l’insieme delle combinazioni lineari di {v1 ,... , vk }.  Definizione 4.4 (Sottospazi affini). Sia A uno spazio affine associato ad uno spazio vetto- riale V. Dati un punto P ∈ A ed un sottospazio vettoriale W ⊂ V , si chiama sottospazio affine di A passante per P con giacitura W l’insieme dei traslati di P per vettori di W , cioè, l’insieme: P + W := {P + v| v ∈ W }.  Osservazione 4.5 (Sottospazi sono spazi). I sottospazi vettoriali di uno spazio vettoriale V sono spazi vettoriali. I sottospazi affini di uno spazio affine A sono spazi affini. Osservazione 4.6 (Sottospazi vettoriali di Rn ). In Rn i sottospazi vettoriali vengono normalmente dati in due modi possibili: in equazioni parametriche        x1  v11 v1k   ..  ..  ..  .  = α1 .  + · · · + αk .    xn vn1 vnk   α ,...,α ∈R 1 k ed in equazioni implicite          x1  a11 ··· a1n x1 0   ..  n ....  ..  = .. . . ∈R ..  .  .    xn ar1 ··· arn xn 0   Le equazioni parametriche presentano un insieme dei generatori del sottospazio. Le equazioni implicite ci presentano il sottospazio come nucleo di una mappa lineare (concetti che vedremo a continuazione). Il metodo di Gauss ci permette di passare da equazioni parametriche ad equazioni implicite e vice versa. 10 ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA Osservazione 4.7 (Sottospazi affini di An ). Analogamente, nello spazio affine An un sottospazio affine si può presentare in equazioni parametriche:          x1  p1 v11 v1k  ..  ..  ..  ..  .  = .  + α1 .  + · · · + αk .    xn pn vn1 vnk   α ,...,α ∈R 1 k (dove P = (p1 ,... , pn ) è un punto del sottospazio affine, e v1 = (v11 ,... , vn1 ),... , vk = (v1k ,... , vnk ) sono un insieme di generatori della sua giacitura). In equazioni implicite, il sottospazio si presenterà nella forma di soluzioni di un sistema linere:          x1  a11 · · · a1n x1 b1  ..  n ....  ..  = ... .. . ∈A . .       xn ar1 · · · arn xn br   Di nuovo, il metodo di Gauss ci permette di passare da equazioni parametriche ad equazioni implicite e vice versa. Definizione 4.8 (Mappa lineare). Siano V, V 0 due spazi vettoriali reali. Una mappa lineare da V a V 0 è una mappa f : V → V 0 tale che: f (v1 + v2 ) = f (v1 ) + f (v2 ), per ogni v1 , v2 ∈ V ; f (kv) = kf (v), per ogni v ∈ V , k ∈ R.  Definizione 4.9 (Mappa lineare associata ad una matrice). Data una matrice m × n A ∈ Mm×n (R), essa induce una mappa lineare fA : Rn → Rm , chiamata mappa lineare associata ad A, definita:     x1 x1 ..  ..  f .  = A · . . xn xn  Definizione 4.10 (Mappa affine). Siano A, A0 due spazi affine, associati a due spazi vetto- riali reali V, V 0. Una mappa affine da A a A0 è una mappa F : A → A0 tale che esiste una mappa lineare f : V → V 0 con: F (P + v) = F (P ) + f (v), per ogni P ∈ A, v ∈ V.  Definizione 4.11 (Mappa affine associata ad una matrice ed un punto). Dati una matrice A ∈ Mm×n (R) ed un punto P ∈ Am , essi inducono una mappa affine F : An → Am , chiamata mappa affine associata ad A e P , definita:     x1 x1 ..  ..  F .  = P + A · . . xn xn Notisi che P = F (0).  0 Definizione 4.12 (Nucleo ed immagine di una mappa lineare). Siano V, V spazi vettoriali reali ed f : V → V 0 una mappa lineare tra di loro. Si definiscono: il nucleo di f : ker(f ) = {v ∈ V | f (v) = 0} ⊂ V ; ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 11 l’immagine di f : im(f ) = {f (v) ∈ V 0 | v ∈ V } ⊂ V 0.  Il nucleo di f è un sottospazio vettoriale di V , l’immagine di f è un sottospazio vettoriale di V 0. Non c’è un concetto di nucleo associato ad una mappa affine. 12 ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 5. Determinanti Definizione 5.1 (Determinante di una matrice quadrata). Sia A = (aij ) ∈ Mn×n (R) una matrice quadrata a coefficienti reali. Si definisce il determinante di A come lo scalare: X det(A) = s(σ)a1σ(1)... anσ(n) ∈ R. σ∈Sn  Nella formula del determinante, Sn denota l’insieme delle permutazioni dell’insieme di n elementi {1, 2,... , n} (dunque Sn contiene n! permutazioni). Per ogni permutazione σ ∈ Sn , s(σ) denota il segno della permutazione. Esso è uguale a 1 se il numero di trasposizione in cui può decomporsi σ è pari, ed è uguale a (−1) se il numero di trasposizione in cui può decomporsi σ è dispari. Proposition 5.2 (Proprietà fondamentale del determinante). Una matrice A = (aij ) ∈ Mn×n (R) è invertibile se e solo se det(A) 6= 0.  Lemma 5.3 (Determinanti 2×2 e 3×3). Direttamente dalla definizione, abbiamo le seguenti formule per il determinante di una matrice 2 × 2: e 3 × 3:    a11 a12 a13  a11 a22 a33 − a11 a23 a32 − det a21 a22 a23  = −a12 a21 a33 + a12 a23 a31 − a31 a32 a33 −a13 a22 a31 + a13 a21 a32  Gli addendi della formula precedente si possono ricordare mediante la regola di Sarrus:  Proposition 5.4. Dati due vettori u1 = (a11 , a12 ), u2 = (a21 , a22 ) ∈ R2 , l’area A del parallelogramma P2 in R2 determinato da u1 , u2 è uguale a:   a11 a12 A = det. a21 a22  Proposition 5.5. Dati tre vettori u1 = (a11 , a12 , a13 ), u2 = (a21 , a22 , a23 ), u3 = (a31 , a32 , a33 ) ∈ R3 , il volume V del parallelepipedo P3 in R3 determinato da u1 , u2 , u3 è uguale a:   a11 a12 a13 V = det a21 a22 a23  = |hu, v × wi|. a31 a32 a33 ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 13  Definizione 5.6. Data una matrice A = (aij ) ∈ Mn×n (R), e dato un suo coefficiente aij , si chiama minore complementare di aij al determinante della matrice Aij che risulta di eliminare in A la riga i e la colonna j.  Example 5.7. Ad esempio, i minori complementari di a11 , a12 , a13 nella matrice:   a11 a12 a13 A = a21 a22 a23  a31 a32 a33 sono i determinanti det(A11 ), det(A12 ), det(A13 ), cioè:       a22 a23 a21 a23 a a22 , det , det 21. a32 a33 a31 a33 a31 a32  Teorema 5.8 (Formula di Laplace). Sia A = (aij ) ∈ Mn×n (R), e siano i0 , j0 ∈ {1,... , n} due indici. Allora: Xn n X det(A) = ai0 j (−1)i0 +j det(Ai0 j ), det(A) = aij0 (−1)i+j0 det(Aij0 ). j=1 i=1  Example 5.9. Ad esempio, per una matrice 3 × 3:   a11 a12 a13 A = a21 a22 a23  a31 a32 a33 sviluppando il suo determinante per la prima riga, possiamo scrivere:       a a23 a a23 a a22 det(A) = a11 22 − a12 det 21 + a13 det 21. a32 a33 a31 a33 a31 a32  Teorema 5.10 (Cauchy–Binet). Date due matrici reali n × n, A,B, si ha che: det(A · B) = det(A) · det(B). 14 ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 6. Basi e coordinate Definizione 6.1 (Insieme di vettori linearmente indipendente). Dato uno spazio vettoriale reale V , un insieme di vettori {u1 ,... , un } di V si dice: linearmente indipendente se: a1 u1 + · · · + an un = 0 IMPLICA a1 = · · · = an = 0.  Osservazione 6.2. Un insieme di vettori è linearmente indipendente se l’unica loro combi- nazione lineare uguale a zero è quella che ha tutti i coefficienti uguali a zero. Questo significa che nessuno dei vettori u1 ,... , un si può scrivere come combinazione lineare dei restanti.  Definizione 6.3 (Insieme generatore). Dato uno spazio vettoriale reale V , ed un insieme di vettori β = {u1 ,... , un }, si dice che β genera V se V = hβi. Cioè, se ogni vettore v di V si scrive come combinazione lineare di u1 ,... , un.  Definizione 6.4 (Base). Dato uno spazio vettoriale reale V , ed un insieme di vettori β = {u1 ,... , un }, si dice che β è una base di V se è linearmente indipendente è genera V.  Teorema 6.5 (Steinitz). Dato uno spazio vettoriale reale V. Se V ha una base β = {u1 ,... , un } con n elementi, allora qualsiasi altra base di V ha esattamente n elementi. Definizione 6.6 (Dimensione). Dato uno spazio vettoriale reale V , si dice che V ha dimen- sione n (e si scrive dim(V ) = n) se ammette una base con n elementi. Gli spazi vettoriali di dimensioni 1 e 2 si chiamano rette e piani vettoriali. Definizione 6.7 (Coordinate rispetto ad una base). Dato uno spazio vettoriale reale V ed una base β = {u1 ,... , un } di V ogni vettore v ∈ V si scrive come combinazione lineare di u1 ,... , un , cioè, esistono scalari x1 ,... , xn tali che: v = x1 u1 +... , xn un. Il fatto che β è linearmente indipendente implica che gli scalari x1 ,... , xn sono unici e si chiamano coordinate di v rispetto a β. Di solito (fondamentalmente quando useremo mappe lineari) scriveremo le coordinate del vettore v rispetto a β in una colonna:   x1 ..  (v)β = . . xn  n Example 6.8 (Base canonica di R ). Gli elementi:       1 0 0 0 1 0 e1 = .  , e2 = .  ,... , e n = .        ..  ..  ..  0 0 1 formano una base di Rn , chiamata base canonica di Rn e denotata C = {e1 ,... , en }. In particolare, la dimensione di Rn è uguale ad n. Inoltre, dato un vettore v = (x1 ,... , xn ), si può scrivere:   x1  x2  ..  = x1 e1 + x2 e2 +... xn en ,   .  xn ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 15 dunque le coordinate di v = (x1 ,... , xn ) rispetto a C sono (x1 ,... , xn ). La base canonica non è l’unica base di Rn. Tanti problemi matematici richiedono una scelta adeguata di un sistema di coordinate.  Definizione 6.9 (Base ortonormale). Nello spazio vettoriale Rn consideriamo un sottospa- zio vettoriale W di Rn , una base β = {u1 ,... , uk } di W è detta ortonormale se:  1 se i = j hui , uj i =. 0 se i 6= j  Osservazione 6.10. La definizione ci dice che i vettori u1 ,... , uk di una base ortonormale di W hanno lunghezza 1, e che sono perpendicolari tra di loro.  Definizione 6.11 (Matrici di cambiamenti di coordinate). Dato uno spazio vettoriale reale V di dimensione n ed due basi di V : β = {u1 ,... , un }, β 0 = {u01 ,... , u0n }, si chiama matrice di cambiamenti di coordinate da β a β 0 alla matrici le cui colonne sono le coordinate degli elementi di β rispetto a β 0 :     Mβ 0 β (id) = u1 ... un . β0 β0 È una matrice n × n. Moltiplicando questa matrice per le coordinate di un vettore v rispetto a β, otteniamo le coordinate dello stesso vettore v rispetto a β 0 : (v)β 0 = Mβ 0 β (id) · (v)β. Definizione 6.12 (Matrici di una mappa lineare). Siano V, W due spazi vettoriali reali, di dimensioni n, m rispettivamente, f : V → W una mappa lineare, β = {u1 ,... , un } una base di V e γ una base di W. Si chiama matrice di f rispetto alle basi β, γ alla matrice m × n le cui colonne sono le coordinate rispetto a γ delle immagini per f degli elementi di β:     Mγβ (f ) = f (u1 )... f (un ). γ γ Moltiplicando questa matrice per le coordinate di un vettore v rispetto a β, otteniamo le coordinate di f (v) rispetto a γ: (f (v))γ = Mγβ (f ) · (v)β. Proposition 6.13 (Cambiamento di coordinate per una mappa lineare). Siano V, W due spazi vettoriali reali, di dimensioni n, m rispettivamente, f : V → W una mappa lineare, β, β 0 due basi di V e γ, γ 0 due basi di W. Allora si soddisfa la seguente formula: Mγ 0 β 0 (f ) = Mγ 0 γ (id) · Mγβ (f ) · Mβ 0 β (id). 16 ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA Osservazione 6.14. La formula precedente si ricorda più facilmente osservando come funziona applicando entrambi i lati alle coordinate di un vettore v ∈ V rispetto a β: Mγβ (f )· (v)β / (f (v)) O γ Mβ 0 β (id)· Mγγ 0 (id)·  (v)β 0 / (f (v)) 0 Mγ 0 β 0 (f )· γ ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 17 7. Endomorfismi e diagonalizzabilità Definizione 7.1 (Endomorfismi). Sia V uno spazio vettoriale reale. Un endomorfismo di V è una mappa lineare da V a se stesso: f : V −→ V. Osservazione 7.2 (Matrici di un endomorfismo). Dato uno spazio vettoriale reale V di dimensione n ed un endomorfismo f : V → V , la sua espressione in coordinate si fa so- litamente rispetto alla stessa base di V come dominio e codominio della mappa. Cioè, si considera una base β = {u1 ,... , un } di V e la corrispondente matrice Mββ (f ). In que- sto caso, semplificheremo leggermente la notazione e scriveremo Mβ (f ). Così, avremo la formula:     (f (v))β = Mβ (f ) · (v)β , Mβ (f ) = f (v1 )... f (vn ). β β Definizione 7.3 (Determinante di un endomorfismo). Sia f : V → V un endomorfismo di uno spazio vettoriale reale V di dimensione n. Si chiama determinante di f al numero reale: det(f ) = det(Mβ (f )), Dove β è una base di V. Osservazione 7.4. La definizione di determinante di f non dipende dalla scelta della base rispetto alla quale si calcola la matrice di f. Infatti, se β, β 0 sono due basi di V , allora per la formula del cambiamento di coordinate si ha che: Mβ 0 (f ) = Mβ 0 β (id) · Mβ (f ) · Mββ 0 (id). Le due matrici di cambiamento di coordinate nella formula precedente sono reciprocamente inverse: −1 Mβ 0 β (id) = Mβ 0 β (id). In particolare det(Mβ 0 β (id)) = 1/ det(Mββ 0 (id)). Allora per la formula di Cauchy–Binet si conclude che: det(Mβ 0 (f )) = det(Mβ (f )). Definizione 7.5 (Autovettori ed autovalori). Sia f : V → V un endomorfismo di uno spazio vettoriale reale V. Un autovettore di f è un vettore v ∈ V tale che: v 6= 0, e f (v) è proporzionale d v, cioè esiste uno scalare λ ∈ R (chiamato autovalore di f associato v) tale che f (v) = λv. Definizione 7.6 (Polinomio caratteristico). Dato un endomorfismo f : V → V di uno spazio vettoriale reale V di dimensione n, si chiama polinomio caratteristico di f alla funzione (dipendente da un parametro reale x) pf (x) = det(f − xid) Osservazione 7.7. La funzione pf (x) si può calcolare con la matrice di f rispetto ad una qualsiasi base di V : pf (x) = det(Mβ (f ) − xIn ), dove In denota la matrice identità n × n. In particolare, da questo segue che pf (x) è un polinomio reale di grado n nella variabile x. 18 ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA Proposition 7.8. Sia f : V → V un endomorfismo di uno spazio vettoriale V di dimensione n. Gli autovalori di f sono le soluzioni reali del polinomio caratteristico di f , pf (x). Osservazione 7.9. Oltre agli autovalori di f , il polinomio caratteristico può avere soluzioni complesse non reali (che si chiameranno autovalori complessi non reali di f ). Definizione 7.10 (Molteplicità algebrica di un autovalore). Sia f : V → V un endomorfi- smo di uno spazio vettoriale reale V di dimensione n, e λ ∈ R un autovalore di f. Il numero di volte λ compare come radice di pf (x) (cioè, il numero di volte che (x − λ) divide a pf (x)) si chiama molteplicità algebrica di λ come autovalore di f , e si scrive: mf (λ). Osservazione 7.11. Sia f : V → V un endomorfismo di uno spazio vettoriale reale V di dimensione n, e λ ∈ R un autovalore di f. Gli autovettori di f associati a λ sono esattamente i vettori v diversi da zero che soddisfano: f − λid(v) = 0. Prendendo coordinate rispetto ad una base β, questa equazione diventa un sistema lineare omogeneo di n equazioni con n incognite     x1 0 ..  ..  Mβ (f ) · .  = . . xn 0 Questo sistema è necessariamente compatibile indeterminato (dato che, essendo λ un auto- valore, necessariamente esiste un autovettore associato). Definizione 7.12 (Autospazi). Sia f : V → V un endomorfismo di uno spazio vettoriale reale V di dimensione n, e λ ∈ R un autovalore di f. Si chiama autospazio di f associato a λ, al sottospazio vettoriale ker(f − λid) ⊂ V. Notisi che ker(f − λid) contiene il vettore 0 e tutti gli autovettori di f associati a λ. Definizione 7.13 (Molteplicità geometrica di un autovalore). Sia f : V → V un endomorfi- smo di uno spazio vettoriale reale V di dimensione n, e λ ∈ R un autovalore di f. Si chiama molteplicità geometrica di λ, e si scrive rf (λ), la dimensione del autospazio di f associato a λ: rf (λ) := dim(ker(f − λid)). Equivalentemente (lavorando in coordinate rispetto ad una base β di V ) rf (λ) è il numero di parametri delle soluzioni del sistema:     x1 0 ..  ..  Mβ (f ) · .  = . . xn 0 Proposition 7.14. Sia f : V → V un endomorfismo di uno spazio vettoriale reale V di dimensione n, e λ ∈ R un autovalore di f. Allora: 1 ≤ rf (λ) ≤ mf (λ). Definizione 7.15 (Diagonalizzabilità). Sia V uno spazio vettoriale reale di dimensione n, ed f : V → V un endomorfismo. Si dice che f è diagonalizzabile se V ammette una base β formata di autovettori di f. ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 19 Osservazione 7.16. Se f : V → V è diagonalizzabile e β = {v1 ,... , vn } una base di V formata di autovettori di f , allora   λ1... 0 Mβ (f ) = .........  ,   0... λn dove λ1 ,... , λn sono gli autovalori di f associati, rispettivamente, a v1 ,... , vn. Teorema 7.17. Sia V uno spazio vettoriale reale di dimensione n, e sia f un endomorfismo di V. Allora f è diagonalizzabile se e solo se: tutte le soluzioni del polinomio caratteristico di f sono reali; per ogni autovalore λ di f si ha che mf (λ) = rf (λ). Teorema 7.18. Sia f : Rn → Rn un endomorfismo tale che MC (f ) sia una matrice simmetrica. Allora f c è diagonalizzabile e gli autospazi di f sono ortogonali tra di loro. 20 ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 8. Coordinate in uno spazio affine Definizione 8.1 (Sistema di riferimento). Sia A uno spazio affine con giacitura V. Un sistema di riferimento in A è un insieme di punti B = {P0 , P1 ,... , Pn } di A tali che l’insieme −−−→ −−−→ −−−→ di vettori β = {P0 P1 , P0 P2 ,... , P0 Pn } è una base della giacitura V. Definizione 8.2 (Coordinate rispetto ad un sistema di riferimento). Sia A uno spazio affine con giacitura V , e sia B = {P0 , P1 ,... , Pn } un sistema di riferimento in A. Dato un punto P ∈ A, si chiamano coordinate di P rispetto a B agli unici coefficienti x1 , x2 ,... , xn tali che −−−→ −−−→ −−−→ P = P0 + x 1 P0 P1 + x 2 P 0 P2 + · · · + x n P0 Pn. Si scrive:  x1   x2  P B = . .   ..  xn Example 8.3. Nello spazio affine An , il cosiddétto sistema di riferimento canonico è l’insieme di punti di coordinate: C = {0, E1 ,... , En }, dove 0 = (0, 0,... , 0), E1 = (1, 0,... , 0),... , En = (0, 0,... , 1). Infatti, l’insieme di vettori: −−→ −−→ C = {e1 = 0E1 ,... , en = 0En } è la base canonica di Rn. Figura 2. Il sistema di riferimento canonico di A3. Teorema 8.4 (Cambiamento di coordinate affini). Siano B = {P0 , P1 ,... , Pn } e B 0 = {P00 , P10 ,... , Pn0 } due sistemi di riferimento di uno spazio affine A su uno spazio vettoriale 0 V , e siano P B = (x1 ,... , xn ) e P B = (x01 ,... , x0n ) le coordinate rispetto a B e B 0 di un  ELENCO DI DEFINIZIONI DEL CORSO DI GEOMETRIA 21 −−−→ −−−→ −−−→ −−−→ punto P generale. Siano β = {P0 P1 ,... , P0 Pn } e β 0 = {P00 P10 ,... , P00 Pn0 } le corrispondenti basi di V , e aia M = Mβ 0 β (id) la matrice di cambiamento di coordinate. Siano (p001 ,... , p00n ) le coordinate di P00 rispetto a B Allora si soddisfa la seguente uguaglianza:    0   0  x1 x1 p01 ..  ..  ..  .  = M .  + . . xn x0n p00n Osservazione 8.5. Il cambiamento di coordinate affini precedente si può scrivere come un prodotto di matrici, nel seguente modo: p001     0  x1 x1 ..  ..  ..  .    = M 0.  . .    xn   p0n 0   xn  1 0... 0 1 1 Teorema 8.6 (Mappe affini in coordinate). Siano A, A0 due spazi affine con giaciture V, V 0. Sia Una F : A → A0 una mappa affine con parte lineare f : V → V 0. Siano B = {P0 , P1 ,... , Pn } e B 0 = {P00 , P10 ,... , Pn0 } sistemi di riferimento di A ed A0 , rispettiva- mente, e β, β 0 le corrispondenti basi di V e V 0. Sia P un punto di A. La seguente formula ci permette di calcolare le coordinate di F (P ) rispetto a B 0 in termini delle coordinate di P rispetto a B:    F (P ) B 0 = Mβ 0 β (f ) · P B + F (P0 ) B 0 Osservazione 8.7. La formula precedente si può scrivere come prodotto di matrici:   M  !   ! F (P ) B 0 F (P0 ) B 0  P B   =.   1   1 0... 0 1 Definizione 8.8 (Trasformazioni affini ed affinità). Sia A uno spazio affine con giacitura V. Una trasformazione affine di A è una mappa affine F : A → A. Un’affinità di A è una trasformazione affine di A biettiva. Definizione 8.9 (Punti fissi di una trasformazione affine). Sia A uno spazio affine con giacitura V , ed F : A → A una trasformazione affine di A. Un punto fisso di F è un punto P ∈ A tale che F (P ) = P.

Use Quizgecko on...
Browser
Browser