Document Details

DesirableAbstractArt

Uploaded by DesirableAbstractArt

Università degli Studi di Milano

Tags

linear algebra mathematics vector spaces analysis

Summary

This document provides introductory definitions and concepts in linear algebra and the fundamentals of analysis. It covers topics such as vector spaces, matrices, and linear transformations.

Full Transcript

ALGEBRA LINEARE Definizione di campo dei numeri complessi: L’insieme dei numeri complessi è dotato di una struttura di campo nel modo seguenti: la tripla (ℂ, +, *), dove +: x ℂ à ℂ è il prodotto, gode della proprietà: - + e * godono della proprietà associativa: (a+b) +c= a(a+b) ∀a, b,c...

ALGEBRA LINEARE Definizione di campo dei numeri complessi: L’insieme dei numeri complessi è dotato di una struttura di campo nel modo seguenti: la tripla (ℂ, +, *), dove +: x ℂ à ℂ è il prodotto, gode della proprietà: - + e * godono della proprietà associativa: (a+b) +c= a(a+b) ∀a, b,c ∈ ℂ (a*b) *c=a*(b*c). ∀ a, b, c ∈ ℂ a+b=b+a e ab=ba. ∀ a, b, c ∈ ℂ - Esistono gli elementi neutri di somma e prodotto, che sono rispetto 0 e 1 - Esistono l’opposto, rispetto alla somma, per ogni z ∈ ℂ (cioè per ogni z ∈ ℂ esiste w∈ ℂ z+w=0 - Esiste l’inverso rispetto al prodotto, per ogni z ∈ ℂ escluso lo zero (cioè per ogni z ∈ ℂ escluso lo zero esistono w ∈ ℂ tale che zw=1) - Vale la proprietà distributiva: per ogni a, b, c ∈ ℂ si ha (a+b) *c= ac+bc Numeri complessi: In ℝ non so risolvere 𝑥 ! = −1 , quindi si introduce i numeri complessi: si definisce l’insieme dei numeri ℂ come l’insieme delle coppie ordinarie di numeri reali ℂ ≔ [(a, b)\ 𝑎, 𝑏 ∈ ℝ] = ℝ 𝑥 ℝ 𝑥1 Vettori: Gli elementi di ℝ" si dicono vettori (di lunghezza n), se(. ) ∈ ℝ" si dice i-esima 𝑥2 componente di v ∀𝑖 ∈ {1, … , 𝑛} ℝ − 𝑠𝑝𝑎𝑧𝑖𝑜 𝑣𝑒𝑡𝑡𝑜𝑟𝑖𝑎𝑙𝑒: 𝑢𝑛 ℝ − 𝑠𝑝𝑎𝑧𝑖𝑜 𝑣𝑒𝑡𝑡𝑟𝑜𝑟𝑖𝑎𝑙𝑒 𝑉 è 𝑑𝑎𝑡𝑜 𝑑𝑎 ( 𝑉; 𝑠𝑜𝑚𝑚𝑎, 𝑝𝑟𝑜𝑑𝑜𝑡𝑡𝑜 𝑝𝑒𝑟 𝑠𝑐𝑎𝑙𝑎𝑟𝑒) 𝑑𝑎 𝑑𝑜𝑣𝑒: - V è un insieme - Somma: V x V àV - Prodotto per scalare ℝ 𝑥 𝑉 → 𝑉 tale che soddisfano le seguenti proprietà: 1. Associativa: ∀𝑣, 𝑢, 𝑤 ∈ 𝑉 𝑣 + (𝑢 + 𝑤) = (𝑣 + 𝑤) + 𝑢 2. Commutativa: ∀𝑣, 𝑢, 𝑤 ∈ 𝑉 𝑣 + 𝑤 = 𝑤 + 𝑣 3. Esiste l’elemento neutro della somma: 0# tale che ∀𝑣 ∈ 𝑉 𝑣 + 0# = 𝑣 4. Esiste l’opposto: ∀𝑣 ∈ 𝑉 ∃𝑤 ∈ 𝑉 𝑡. 𝑐. 𝑣 + 𝑤 = 0# (𝑙𝑜 − 𝑣) 5. Se prendo ∀𝜆 ∈ ℝ ∀𝑢, 𝑣 ∈ 𝑉 𝜆(𝑢 + 𝑣) = 𝜆𝑢 + 𝜆𝑣 6. ∀𝜆; 𝜇 ∈ ℝ ∀𝑣 ∈ 𝑉 𝜆(𝜇 ∗ 𝑣) = (𝜆 ∗ 𝜇) ∗ 𝑣 7. ∀𝜆; 𝜇 ∈ ℝ ∀𝑣 ∈ 𝑉 (𝜆 + 𝜇)𝑣 = 𝜆𝑣 + 𝜇𝑣 8. ∀𝑣 ∈ 𝑉 1𝑣 = 𝑣 Combinazione lineare: sia V un R-spazio vettoriale e siano 𝑣, 𝑤 ∈ 𝑉 𝜆, 𝜇 ∈ ℝ la combinazione lineare d v e w a coefficienti 𝜆 𝑒 𝜇 è 𝑖𝑙 𝑣𝑒𝑡𝑡𝑜𝑟𝑒: 𝜆𝑣 + 𝜇𝑣 = 𝑉 Matrice: una matrice a coefficiente in R di m righe e n colonne è una tabella, dove 𝑎$% ∈ 𝑅 ∀𝑖 ∈ (1, … , 𝑚) 𝑒 ∀𝑗 ∈ (1, … , 𝑛) 𝑎11 … 𝑎1𝑛 : : : 𝑎𝑚1 … 𝑎𝑚𝑛 Data una matrice A∈ 𝑀&," è una forma scalini di A è una matrice: ottenuta da A operazioni tra le righe del tipo: - Scambio di due righe - Combinazione lineare di due righe Rango: il rango di una matrice è il numero di Pivot in una qualsiasi forma a scalini. Esiste ed è unica una matrice tale che il suo rango sia 0 ed è la matrice 𝐴 = 0&,". Teorema (di Rouchè-capelli): un sistema lineare AX=B ammette soluzioni (è possibile) se solo se rg(A)=rg(A|B). Teorema dell’inverso della matrice: una matrice è invertibile se e solo se rg(A)=n. E se il determinate della matrice è diversa da zero. Se la funzione è biettiva, allora è invertibile. Teorema Laplace: data una matrice, il determinate di A si può calcolare sviluppare il calcolo lungo la riga i-esima (ma anche la colonna i-esima). Teorema di Binet: det (AB)= detA *detB. Se A ha una riga o una colonna completamente nulla, detA=0. Se ho una matrice triangolare (di per sé o ricavata con Gauss) il determinante è il prodotto della diagonale. Una matrice trasposta è la stessa matrice con le righe e colonne scambiate. Due vettori 𝑢, 𝑣 ∈ ℝ" 𝑐𝑜𝑛 𝑛 = 2,3 sono paralleli, u\\v, se le rette su cui giacciano sono parallele. Perpendicolarità: 𝑢 ⊥ 𝑣 𝑠𝑒 𝑠𝑜𝑙𝑜 𝑠𝑒 𝑢 ∗ 𝑣 = 0 Sistema di generatori: Dato V un R-spazio vettore; un sistema di generatori di V, se esiste, è un insieme {𝑣( , … ,𝑣" } ⊆ 𝑉 𝑡. 𝑐. 𝑉 =< 𝑣( , … , 𝑣" >. Non è sempre possibili trovare un sistema di generatori finito di un R-spazio vettoriale. Quando V ammette un sistema di generatori finito si dice che V finitamente generato. Lineare indipendenza: sia V un R-spazio vettoriale, 𝑣( , … , 𝑣) ∈ 𝑉 linearmente indipendenti se 𝜆( 𝑣( + ⋯ + 𝜆" 𝑣" = 0# 𝜆( = ⋯ = 𝜆) = 0# - Non devono essere proporzionali tra di loro - Non può essere che v1=v2+v3 Basi: sia V un R-spazio vettoriale finitamente generato {𝑣( , … ,𝑣" } ⊆ 𝑉 𝑠𝑜𝑛𝑜 𝑢𝑛𝑎 𝑏𝑎𝑠𝑒 𝑑𝑖 𝑉 𝑠𝑒 𝑠𝑜𝑛𝑜 𝑢𝑛 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑑𝑖 𝑔𝑒𝑛𝑒𝑟𝑎𝑡𝑜𝑟𝑖 𝑑𝑖 𝑉 𝑒 𝑠𝑜𝑛𝑜 𝑙𝑖𝑛𝑒𝑎𝑟𝑚𝑒𝑛𝑡𝑒 𝑖𝑛𝑑𝑢𝑝𝑒𝑛𝑑𝑒𝑡𝑖. Applicazione lineare Def: sia V e W due R-spazio vettoriali e sia f: VàW una funzione: f si dice applicazione lineare se: 1. f(v1+v2) =f(v1) +f(v2) v1, v2 appartengono a V 2. f (𝜆𝑣) = 𝜆𝑓(𝑣) Il nucleo di un’applicazioni lineare f: VàW è Kerf:{𝑣 ∈ 𝑉 𝑓(𝑣) = 0*. Kerf è un sottospazio vettoriale di V. Per il teorema di Rouchè-capelli, sappiamo che dimKerf La=n-rango(A) dimImf=rg(A) Teorema nullità+ rango: dim Kerf + dim Imf= dim V Def: Una trasformazione vettoriale A: V à V è diagonalizzabile se esiste B una base di V tale che 𝑀+,+ (𝑓) è diagonale (cioè se 𝑎$% = 0 𝑠𝑒 𝑖 ≠ 𝑗). 𝐴 ∈ 𝑀" (ℝ) è diagonalizzabile se 𝐿, : ℝ" → ℝ" 𝑙𝑜 è. Data f: VàV applicazione lineare è dato da 𝜆 ∈ ℝ, 𝜆 𝑠𝑖 𝑑𝑖𝑐𝑒 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒 𝑑𝑖 𝑓 𝑠𝑒 ∃𝑣 ∈ 𝑉(0# ) 𝑡𝑎𝑙𝑒 𝑐ℎ𝑒 𝑓(𝑣) = 𝜆𝑣. Se 𝜆 ∈ ℝ è 𝑢𝑛 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒 𝑑𝑖 𝑓: 𝑉 → 𝑉 𝑎𝑙𝑙𝑜𝑟𝑎 ∃𝑣 ∈ 𝑉(0# ) 𝑡𝑎𝑙𝑒 𝑐ℎ𝑒 𝑓(𝑣) = 𝜆𝑣 𝑐𝑖𝑜è 𝑓(𝑣) − 𝜆𝑣 = 0#. Per definizione gli autovalori di f sono i 𝜆 ∈ ℝ per cui ammette infinite soluzioni. Per il teorema di R-C questo accade se rg (M- 𝜆𝐼" ) < 𝑛 𝑑𝑒𝑡(𝑀 − 𝜆𝐼) = 0 Il polinomio 𝑋- (𝜆) ≔ 𝑑𝑒𝑡(𝑀 − 𝜆𝐼" ) ∈ 𝑅(𝜆) è detto polinomio caratteristico f. Determinare gli autovalori: Per trovare gli autovalori di una matrice, bisogna risolvere l’equazione: 𝑑𝑒𝑡(𝑀 − 𝜆𝐼" ) = 0 Trovare gli autovettori: Per ogni autovalore, si risolve il sistema: (𝑀 − 𝜆𝐼)𝑣 = 0 Dove v’è un vettore non nullo chiamato autovettore corrispondente a 𝜆. Gli autovettori sono i vettori che, quando vengono trasformati da A, mantengono la stessa direzione (cambiando solo di scala in base a 𝜆). Diagonalizzabilità: Una matrice è diagonalizzabile se possiamo scriverla in una base di autovettori, cioè se è possibile trovare una matrice diagonale D e una matrice di cambiamento di base P tale che: 𝐴 = 𝑃𝐷𝑃.( Questo significa che, scegliendo la giusta base, la trasformazione associata ad A diventa più semplice da analizzare. Condizioni per la diagonalizzabilità: Una matrice è diagonalizzabile se e solo se: - Il numero totale di autovettori linearmente indipendenti è uguale alla dimensione dello spazio. - La molteplicità geometrica di ogni autovalore (cioè il numero di autovettori associati linearmente indipendenti) è uguale alla molteplicità algebrica (cioè il numero di volte che l’autovalore compare nell’equazione caratteristica). Caso delle matrici simmetriche: Un risultato importante è il Teorema Spettrale, che dice che ogni matrice simmetrica è sempre diagonalizzabile. Questo è molto utile perché significa che possiamo sempre trovare una base di autovettori ortogonali per trasformarla in una matrice diagonale. FORMULARIO DI ALGEBRA E GEOMETRIA LINEARE 1. Numeri Complessi Forma algebrica: 𝑧 = 𝑎 + 𝑏𝑖 Opposto: −𝑧 = −𝑎 − 𝑏𝑖 /̅ Inverso: 𝑧.( = |/|! Coniugato: 𝑧̅ = 𝑎 − 𝑏𝑖 Modulo: |𝑧| = √𝑎! + 𝑏 ! 2 Forma trigonometrica: 𝑧 = 𝜌(𝑐𝑜𝑠𝜃 + 𝑖 𝑠𝑖𝑛𝜃) 𝑑𝑜𝑣𝑒 𝜌 = |𝑧| = √𝑎! + 𝑏 ! 𝑒 𝜃 = arctan q3r Forma esponenziale: 𝑧 = |𝑧|𝑒 $4 Potenza e radice Formula di De Moivre: 𝑧 " = |𝑧|" 𝑒 $4 Radici n-esime:𝑤) = |𝑧|(/" 𝑒 $(47!)8)/" Equazione di secondo grado nei numeri complessi.2±$√∆ ∆ 2 ! Se il discriminante è negativo, si usa:𝑥 = !3 𝑖𝑙 𝑑𝑒𝑠𝑐𝑟𝑖𝑚𝑒𝑛𝑎𝑛𝑡𝑒 ∆: = = q!r − 𝑎𝑐 2. Vettori e Operazioni Somma: 𝑣 + 𝑤 = (𝑣1 + 𝑤1; … ; 𝑣𝑛 + 𝑤𝑛) Prodotto per scalare: kv= (kv1, kvn) 3. Spazio Vettoriale Combinazione lineare: ho v1, v2…, vk e ho anche v, devo trovare quei valori di A tali che che mi portano a v, ovvero; A1v1+A2v2+……Akvk=v 4. Matrici e Operazioni - Somma: somma elemento per elemento, quindi non posso svolgere l’operazione di somma di due matrici che non hanno lo stesso numero di colonne e di righe. - prodotto: per fare il prodotto tra due matrici, i numeri colonne della matrice A deve essere uguale al numero di righe della matrice B - Prodotto per scalare: moltiplicazione di ogni elemento per uno scalare. 5. Sistemi Lineari e Algoritmo di Gauss Forma matriciale di un sistema: AX=B, dove A è la matrice, X (x, y, z…) e B la soluzione del sistema lineare che si ricava dalla matrice. Algoritmo di Gauss: eliminazione progressiva per ridurre la matrice a forma triangolare. Rango di una matrice: numero massimo di righe linearmente indipendenti. 6. Matrice Inversa: primo passo mi calcolo il determinate della matrice, se è uguale a zero, allora la matrice è invertibile e non proseguo, ma in caso contrario mi calcolo la matrice inversa. La matrice inversa la calcolo attraverso A|I (matrice identità), dove con gauss nel blocco di destra- dove prima cera la matrice identità- mi ricavo la matrice inversa di A. 7. Determinante di una Matrice: detA=ad-bc nel caso fossimo in una matrice 2x2 Sviluppo di Laplace: sarebbe il calcolo del determinante per delle matrici n x n. Si calcolo il determinate sviluppando il calcolo lungo una riga o una colonna i-esima. Devo elevare il -1 davanti al det alla somma della riga e colonna della matrice. - Posso calcolare anche il determinate con Gauss, riducendo la matrice ad una matrice triangolare, e il determinate è il prodotto degli elementi che si trovano sulla diagonale. 𝑥𝑏 − 𝑥𝑎 8. Vettori Applicati: dati due vettori A e B il vettore applicato in A e arriva in Bn è 𝑣,+ = 𝑦𝑏 − 𝑦𝑎 𝑧𝑏 − 𝑧𝑎 Parallelismo: dati due vettori A, B per sapere se vi è parallelismo bisogna trovare quel numero K (scalare) che moltiplica A o B mi da come risultato B o A. A*k=B Perpendicolarità: due vettori sono perpendicolari se il loro prodotto è uguale a zero. Quindi A*B=0 # Versore: 𝑣u = |#| , 𝑑𝑜𝑣𝑒 |𝑣| è 𝑖𝑙 𝑚𝑜𝑑𝑢𝑙𝑜 𝑑𝑖 𝑣 𝑒 𝑣 è 𝑖𝑙 𝑣𝑒𝑡𝑡𝑜𝑟𝑒 #∗? - angoli tra vettori: dati due vettori v e u 𝑐𝑜𝑠𝜃 = ‖#‖∗‖?‖ 9. Geometria Analitica Retta in forma parametrica: dato un punto A∈ 𝑟 𝑒 𝑢𝑛𝑎 𝑟𝑒𝑡𝑡𝑎 𝑣, 𝑙𝑎 𝑟𝑒𝑡𝑡𝑎 𝑝𝑎𝑠𝑠𝑎𝑛𝑡𝑒 𝑝𝑒𝑟 𝐴 𝑐𝑜𝑛 𝑑𝑖𝑟𝑒𝑧𝑖𝑜𝑛𝑒 𝑣 ℎ𝑎 𝑙𝑒 𝑠𝑒𝑔𝑢𝑒𝑛𝑡𝑒 𝑒𝑞𝑢𝑎𝑧𝑖𝑜𝑛𝑖 𝑝𝑎𝑟𝑎𝑚𝑒𝑡𝑖𝑐ℎ𝑒: 𝑥 = 𝑥𝑎 + 𝜆1𝑡 ℝ! w 𝑠𝑒 𝐴(𝑥𝑎, 𝑦𝑎)𝑒 𝑣(𝜆1, 𝜆2) 𝑦 = 𝑦𝑎 + 𝜆2𝑡 𝑥 = 𝑥𝑎 + 𝜆1𝑡 ℝA x𝑦 = 𝑦𝑎 + 𝜆2𝑡 𝑠𝑒 𝑎(𝑥𝑎, 𝑦𝑎, 𝑧𝑎) 𝑒 𝑣 = (𝜆1, 𝜆2, 𝜆3) 𝑧 = 𝑧𝑎 + 𝜆3𝑡 𝑎1𝑥 + 𝑏1𝑦 + 𝑐1𝑧 + 𝑑1 = 0 Cartesiana ℝ! : 𝑎𝑥 + 𝑏𝑦 + 𝑧 = 0. ℝA : w 𝑎2𝑥 + 𝑏2𝑦 + 𝑐2𝑧 + 𝑑2 = 0 Per passare da una equazione parametrica a equazione cartesiana uso il metodo di “eliminazione del parametro”, ovvero esplicito t in una delle equazioni parametriche e lo sostituisco nella altra equazione parametrica. Piano in forma parametrica: dati (xa, ya, za) e due vettori u (A1, A2, A3) e v (B1, B2, B3) non 𝑥 = 𝑥𝑎 + 𝐴1𝑡 + 𝐵1𝑆 parallele, dalla equazione parametrica del piano sono: x𝑦 = 𝑦𝑎 + 𝐴2𝑡 + 𝐵2𝑆 𝑧 = 𝑧𝑎 + 𝐴3𝑡 + 𝐵3𝑆 Cartesiana: ax+by+cz+d=0 10. Spazio Vettoriale Sistemi di generatori: insiemi di vettori che generano lo spazio. 𝑣1, 𝑣2, … , 𝑣𝑛 𝑠𝑜𝑛𝑜 𝑔𝑒𝑛𝑒𝑟𝑎𝑡𝑜𝑟𝑖 𝑑𝑒𝑙𝑙𝑜 𝑠𝑝𝑎𝑧𝑖𝑜 𝑉 𝑠𝑐𝑒𝑙𝑡𝑜 𝑞𝑢𝑎𝑙𝑠𝑖𝑎𝑠𝑖 𝑣 𝑉, 𝑣 𝑝𝑜𝑠𝑠𝑜 𝑠𝑐𝑟𝑖𝑣𝑒𝑟𝑙𝑜 𝑐𝑜𝑚𝑒 𝑣 = 𝐴1𝑣1 + 𝐴2𝑣2 + ⋯ + 𝐴𝑛 𝑣𝑛 Base: insieme di vettori linearmente indipendenti che generano lo spazio. Indipendenza lineare: un insieme di vettori è indipendente se: avendo un sottospazio vettoriale 𝐴1𝑣1 + 𝐴2𝑣2 + ⋯ + 𝐴𝑛 𝑣𝑛 = 0# → 𝐴1 = 𝐴2 = ⋯ = 𝐴𝑛 = 0. Devo cercare gli scali An che moltiplicano il vettore vn che mi mandano nel vettore zero. 11. Applicazioni Lineari Immagine: insieme dei valori assunti dall’applicazione. dim Imf=rg(M) Nucleo: insieme dei vettori mandati in zero. dim Kerf= n-dim Imf Matrice rappresentativa: dato un sistema lineare voglio ricavare la sua matrice rappresentativa avente una base, nel seguente modo: vado a valutare la mia espressione sostituendo le basi alle incognite così avrò le mie righe della matrice rappresentativa (la quantità di righe che ho sono proporzionali alle quantità di basi che ho) 12. Autovalori per calcolare gli autovalori, devo calcolarmi il polinomio caratteristico det(𝐴 − 𝜆𝐼) = 0 risolvendo questa equazione ottengo i miei autovalori 𝜆. Per calcolare gli autovettori devo risolvere la seguente equazione: (𝐴 − 𝜆𝐼)𝑣 = 0, 𝜆 è 𝑙 B 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑖 𝑐𝑎𝑙𝑐𝑜𝑙𝑎𝑡𝑖 𝑝𝑟𝑖𝑚𝑎 𝑒 𝑑𝑜𝑣𝑒 𝑣 è 𝑙 B 𝑎𝑢𝑡𝑜𝑣𝑒𝑡𝑡𝑜𝑟𝑒. Quindi per ogni autovalore vi è un autovettore. Diagonalizzabilità: una matrice è diagonalizzabile se la sua molteplicità geometrica è uguale a quella algebrica. Capire quanti autovettori sono associati a quell’autovalore. ANALISI f: A à B è detta: - suriettiva se ogni elemento di B ha ALMENO una contro immagine di A (tramite f); ∀𝑦 ∈ 𝐵 ∃𝑥 ∈ 𝐴 𝑡𝑎𝑙𝑒 𝑐ℎ𝑒 𝑓(𝑥) = 𝑦 - iniettiva se per ogni elemento di B ha al più una combinazione in A (tramite f) se: f(x1) = f(x2) implica che x1=x2, ∀𝑥1, 𝑥2 ∈ 𝐴 - biettiva se è iniettiva e suriettiva F è detta monotona non-decrescente [strettamente crescente] se ∀𝑥( , 𝑥! ∈ 𝐷, 𝑠𝑒 𝑥1 < 𝑥2 𝑎𝑙𝑙𝑜𝑟𝑎 𝑓(𝑥1) ≤ 𝑓(𝑥2) [𝑓(𝑥1) < 𝑓(𝑥2)] F è detta monotona non crescente [strettamente decrescente] se ∀𝑥( , 𝑥! ∈ 𝐷, 𝑠𝑒 𝑥1 < 𝑥2 𝑎𝑙𝑙𝑜𝑟𝑎 𝑓(𝑥1) ≥ 𝑓(𝑥2) [𝑓(𝑥1) > 𝑓(𝑥2)] Una successione converge quando 𝑥" → 𝑙. Se converge vuol dire che è limitata. Una successione diverge a ±∞ 𝑠𝑒 lim 𝑋𝑛 = ±∞ ".C7D Teorema della monotonia e regolarità: se Xn è monotona, allora p regolare. In particolare: - Se è limitata, converge - Se è illimitata, diverge Teorema del confronto: Siano Xn e Yn tale che Xn≤ 𝑌𝑛 𝑑𝑒𝑓𝑖𝑛𝑖𝑡𝑖𝑣𝑎𝑚𝑒𝑛𝑡𝑒: - Se 𝑋" → +∞; 𝑎𝑙𝑙𝑜𝑟𝑎 𝑌𝑛 → +∞ - Se 𝑌 → −∞; 𝑎𝑙𝑙𝑜𝑟𝑎 𝑋𝑛 → −∞ - Siano Xn, Yn, Zn tali che 𝑋𝑛 ≤ 𝑌𝑛 ≤ 𝑍𝑛 definitivamente. Allora se Xnàl e Znàl, allora Ynàl. Teorema della permanenza del segno: sia Xn tale che Xnàl. Allora: 1. Se l>0 Xn>o definitivamente 2. Xn≥ 0 definitivamente tale che l≥ 0 Due successioni sono asintotiche se il limite a +∞ del loro rapporto è uguale ad 1. Dati Xn e Yn diciamo che Xn è o-piccolo di Yn se il limite che tende a +∞ del loro rapporto è uguale a zero. Teorema degli zeri: in sostanza dice che esiste almeno un punto in cui la funzione si annulli. Teorema di Weierstrass: sia f: (a, b) à R continua allora f ([a, b]) è un insieme limitato ed esiste m, M ∈ [a, b] tale che f(m)= minimo di f(x) e f(M)= massimo di f(x) Teorema dei valori intermedi: sia f:(a, b) àR continua. Allora, f assume in (a, b) ogni valore compreso tra il minimo e il massimo della funzione f(x) Sia f: (a, b) à R e Xo ∈(a, b). Xo è un punto di discontinuità eliminabile se l: = lim 𝑓(𝑥) 𝑒𝑠𝑖𝑠𝑡𝑒 𝑓𝑖𝑛𝑖𝑡𝑜, 𝑚𝑎 𝑐ℎ𝑒 𝑓(𝑥𝑜) ≠ 𝑙. E→EG X0 è un punto di discontinuità di prima specie o salto finito se: 𝑙. ≔ lim 𝑓(𝑥) e E→EH 𝑙7 ≔ lim 𝑓(𝑥) 𝑒𝑠𝑖𝑠𝑡𝑜𝑛𝑜 𝑓𝑖𝑛𝑖𝑡𝑖, 𝑚𝑎 𝑙. ≠ 𝑙7 E→EH Siano f:(a, b)àR e xo ∈ [𝑎, 𝑏]. Diciamo che f è derivabile in Xo se esiste finito il limite 𝑑𝑓 𝑓(𝑥) − 𝑓(𝑥𝑜) 𝑓 B (𝑥𝑜) = (𝑥𝑜) ≔ 𝑑𝑥 𝑥 − 𝑥𝑜 I punti di non derivabilità sono: - Punti angolosi le derivate prima di xo da destra e da sinistra esistono e sono finiti, ma sono diversi - Cuspide quando le derivate prima di xo da destra e da sinistra esistono infiniti, ma di segno opposto - Flesso quando le derivate prime di xo da destra e da sinistra esistono infiniti, dello stesso segno I punti stazionari si hanno quando: - f è derivabile in xo - f’(xo)=0 Teorema di Fermat: una funzione che ammette minimi e massimi locali in un punto interno al dominio e che sia derivabile ha f’(xo)=0 Teorema di Rolle: sia f:(a, b)àR continua e derivabile in (a, b). supponiamo che f(a)=f(b). allora esiste xo che appartiene a (a, b) tale che f’(xo)=0. Teorema di Lagrande o del valor medio: sia f:(a, b)àR continua in (a, b) e derivabile in (a, b). allora, esiste xo ∈ (𝑎, 𝑏) 𝑡𝑎𝑙𝑒 𝑐ℎ𝑒 𝑓(𝑏) − 𝑓(𝑎) 𝑓 B (𝑥𝑜) = 𝑏−𝑎 Teorema di de l’Hopital afferma che, sotto condizioni poco restrittive, si può sostituire il limite del rapporto tra funzioni derivabili – entrambe convergenti a 0, oppure entrambe divergenti – con il limite del rapporto tra le rispettive derivate, a patto che quest’ultimo limite esista. Nota che il teorema non si può invertire: l’esistenza del limite di f(x)/g(x) non garantisce quella del rapporto tra le derivate! Una funzione derivabile può essere a sua volta derivabile: la derivata seconda si usa per determinare gli intervalli di convessità di una funzione. Questo è spiegato nel TEOREMA “condizioni sufficienti alla convessità/ concavità) che afferma; sia una f:(a, b)àR due volte variabile: - se f’’(xo)≥ 0 ∀𝑥 ∈ (𝑎, 𝑏), 𝑎𝑙𝑙𝑜𝑟𝑎 𝑓 è 𝑐𝑜𝑛𝑣𝑒𝑠𝑠𝑎 𝑖𝑛 (𝑎, 𝑏) - se f’’(xo)≤ 0 ∀𝑥 ∈ (𝑎, 𝑏), 𝑎𝑙𝑙𝑜𝑟𝑎 𝑓 è 𝑐𝑜𝑛𝑐𝑎𝑣𝑎 𝑖𝑛 (𝑎, 𝑏) Con il termine integrale due concetti: - integrale indefinito: calcolo della derivata prima (inverso della derivazione) - integrale definito: calcolo dell’area sottesa ai grafici di una funzione (all’interno di un intervallo limitato da entrambi i lati) Integrale indefinito: sia f:(a, b) à R. una funzione F:(a, b)à R derivabile è detta primitiva di f su (a, b) se F’(x)=f(x) per ogni x che appartiene all’intervallo a, b. f(x) può non essere l’unica primitiva di F con l’aggiunta di un termine costante. Integrale definito: sia f:(a, b)àR una funzione limitata, cioè tale che ∃ 𝑐 > 0 𝑡𝑎𝑙𝑒 𝑐ℎ𝑒 − 𝑐 ≤ 𝑓(𝑥) ≤ 𝑐 ∀𝑥 ∈ (𝑎, 𝑏). Al livello pratico vado a calcolare l’area sottesa al grafico di una funziona. L’approccio di Riemann sarebbe quello di divedere in piccoli intervalli l’intervallo a, b della funzione di lunghezza uguale a b-a/n-. Per ogni n∈ ℕ ho un inf (sn) e un sup (Sn) e il loro limite deve tendere ad un unico valore. Teorema: sia f: [a, b]à R limitata: i. se f è continua, allora è integrabile ii. se f è continua a tratti, allora è integrabile iii. se f è monotona, allora è integrabile Teorema fondamentale del calcolo integrale E sia f: [a, b]àR continua e definito 𝐹(𝑥) ≔ ∫3 𝑓(𝑡)𝑑𝑡 𝑝𝑒𝑟 𝑥 ∈ [𝑎, 𝑏]. Allora F è derivabile in (a, b) e F’(x)=f(x) per ogni x nell’intervallo a, b. Integrale improprio: 2 - ∫3 𝑓(𝑥)𝑑𝑥 𝑐𝑜𝑛 𝑓: (𝑎, 𝑏) → 𝑅 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑜 𝑚𝑎 𝑡𝑎𝑙𝑒 𝑐ℎ𝑒 lim" 𝑓(𝑥) = +∞ E→3 7D - ∫3 𝑓(𝑥)𝑑𝑥 𝑐𝑜𝑛 𝑓: [𝑎, 𝑏) → 𝑅 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎 𝑒 𝑡𝑎𝑙𝑒 𝑐ℎ𝑒 lim 𝑓(𝑥) = 0 E→7D Funzioni a più variabili Delle funzioni che non dipendo solo da una variabile (come può essere x o y) ma dipende da n varabili, dove n è maggiore o uguale a 2. Derivata parziale: è la derivata di una funzione a più variabili, dove si considera un variabile come un elemento costante e si deriva l’intera funzione sull’altra (altre) variabili. Ad esempio, se ho una funzione f (x, y), e devo calcolare la derivata parziale di f(x), allora considero dy come una costante e derivo fx, rispetto a x. Differenziabilità: sia 𝑓: ℝ" → ℝ una funzione definita in un intorno di un punto P. la funzione f è differenziabile in P se esistono tutte le derivate parziali di f in P e se il seguente limite esiste ed è nullo: 𝑓(𝑃 + ℎ) − 𝑓(𝑃) − ∇𝑓(𝑃) ∗ ℎ lim = 0. I→H ‖ℎ‖ 𝐷𝑜𝑣𝑒 𝐻 è 𝑢𝑛 𝑣𝑒𝑡𝑡𝑜𝑟𝑒 𝑐ℎ𝑒 𝑡𝑒𝑛𝑑𝑒 𝑎 𝑧𝑒𝑟𝑜. ∇𝑓(𝑃)è 𝑖𝑙 𝑔𝑟𝑎𝑑𝑖𝑒𝑛𝑡𝑒 𝑑𝑖 𝑓 ( 𝑜𝑣𝑣𝑒𝑟𝑜 𝑡𝑢𝑡𝑡𝑒 𝑙𝑒 𝑠𝑢𝑒 𝑑𝑒𝑟𝑖𝑣𝑎𝑡𝑒 𝑝𝑎𝑟𝑧iale). ∇𝑓(𝑃) ∗ ℎ è 𝑖𝑙 𝑝𝑟𝑜𝑑𝑜𝑡𝑡𝑜 𝑠𝑐𝑎𝑙𝑎𝑟𝑒 𝑐ℎ𝑒 𝑟𝑎𝑝𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑎 𝑙𝑎 𝑚𝑖𝑔𝑙𝑖𝑜𝑟 𝑎𝑝𝑝𝑟𝑜𝑠𝑠𝑖𝑚𝑎𝑧𝑖𝑜𝑛𝑒 𝑙𝑖𝑛𝑒𝑎𝑟𝑒 𝑑𝑖 𝑓 𝑣𝑖𝑐𝑖𝑛𝑜 𝑎 𝑃. Teorema “condizione necessarie alla differenziabilità”: 𝐷 ⊆ ℝ" → ℝ 𝑒 𝑃 𝑖𝑛𝑡𝑒𝑟𝑛𝑜 𝑎 𝐷. 𝑆𝑢𝑝𝑝𝑜𝑛𝑖𝑎𝑚𝑜 𝑐ℎ𝑒 𝑓 𝑠𝑖𝑎 𝑑𝑖𝑓𝑓𝑒𝑟𝑒𝑛𝑧𝑖𝑎𝑏𝑖𝑙𝑒 𝑖𝑛 𝑃. 𝐴𝑙𝑙𝑜𝑟𝑎: − 𝑓 è 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎 𝑖𝑛 𝑃 −𝑓 è 𝑑𝑒𝑟𝑖𝑣𝑎𝑏𝑖𝑙𝑒 𝑖𝑛 𝑃 𝑙𝑢𝑛𝑔𝑜 𝑜𝑔𝑛𝑖 𝑑𝑖𝑟𝑒𝑧𝑖𝑜𝑛𝑒 𝑣 ∈ ℝ" 𝑡𝑎𝑙𝑒 𝑐ℎ𝑒 ‖𝑣‖ = 1 −𝑑𝑓J (ℎ) = ∇𝑓(𝑃)ℎ ∀ℎ ∈ ℝ" −𝑑𝑣𝑓(𝑃) = ∇𝑓(𝑃)𝑣 ∀𝑣 ∈ ℝ" 𝑡𝑎𝑙𝑒 𝑐ℎ𝑒 ‖𝑣‖ = 1 𝑠𝑖𝑎 𝑓: 𝐴 ⊆ ℝ" → 𝑅 (𝑛 = 2)𝑑𝑢𝑒 𝑣𝑜𝑙𝑡𝑒 𝑑𝑒𝑟𝑖𝑣𝑎𝑏𝑖𝑙𝑒 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑖𝑡à 𝑖𝑛 𝐴 𝑎𝑝𝑒𝑟𝑡𝑜. 𝑆𝑖𝑎 (𝑥𝑜; 𝑦𝑜) ∈ 𝐴 𝑢𝑛 𝑝𝑢𝑛𝑡𝑜 𝑠𝑡𝑎𝑧𝑖𝑜𝑛𝑎𝑟𝑖𝑜 𝑝𝑒𝑟 𝑓, 𝑎𝑙𝑙𝑜𝑟𝑎: 𝑖. 𝑑𝑒𝑡𝐻𝑓 [𝑥𝑜, 𝑦𝑜) > 0 𝑑𝑥𝑥 𝑓(𝑥𝑜, 𝑦𝑜) > 0 ⟹ (𝑥𝑜, 𝑦𝑜)è 𝑢𝑛 𝑚𝑖𝑛𝑖𝑚𝑜 𝑙𝑜𝑐𝑎𝑙𝑒 𝑖𝑖. 𝑑𝑒𝑡𝐻𝑓 [𝑥𝑜, 𝑦𝑜) > 0 𝑑𝑥𝑥 𝑓(𝑥𝑜, 𝑦𝑜) < 0 ⟹ (𝑥𝑜, 𝑦𝑜)è 𝑢𝑛 𝑚𝑎𝑠𝑠𝑖𝑚𝑜 𝑙𝑜𝑐𝑎𝑙𝑒 𝑖𝑖𝑖. 𝑑𝑒𝑡𝐻𝑓[𝑥𝑜, 𝑦𝑜) < 0 ⟹ (𝑥𝑜, 𝑦𝑜)è 𝑢𝑛 𝑝𝑢𝑛𝑡𝑜 𝑑𝑖 𝑠𝑒𝑙𝑙𝑎 Equazione differenziale: è una equazione dove l’incognita è una funzione che bisogna trovare. Tipicamente abbiamo due tipi di equazione differenziale: a. Equazione differenziale ordinarie: sono quelle per cui l’incognita y è una funzione di una sola variabile reale- cioè, n=1 b. Equazioni alle derivate parziali: il caso generale con n≥ 0 FORMULARIO ANALISI Funzioni elementari Limiti di funzione elementare &(#) Equivalenza asintotiche se lim =1 #→#% )(#) Dai limiti notevoli si può dedurre che per xà0 1 𝑠𝑖𝑛𝑥~𝑥 1 − 𝑐𝑜𝑠𝑥~ 𝑥 ! 𝑡𝑔𝑥~𝑥 2 𝑒 " − 1~𝑥 ln(1 + 𝑥) ~𝑥 (1 − 𝑥)# − 1~𝛼𝑥 &(") Date due funzioni f(x) e g(x) definite in xo ∈ R si dice che f(x) è 𝜎 − 𝑝𝑖𝑐𝑐𝑜𝑙𝑜 𝑑𝑖 𝑔(𝑥)𝑠𝑒 lim =0 "→"% )(") DERIVATE FONDAMENTALI/NOTEVOLI Derivate composte Punti stazionari: - Se f è derivabile in yo - Se f’(xo)=0 Studio di funzione ⁃ Dominio / insieme di definizione - Denominatore diverso da zero - Argomenti della radice di indice pari ≥ 0 - Argomento dei logaritmi >o - Se la funzione è nella forma f(X)^g(x), f(X) va imposta > O - Gli argomenti di arcosin e arcos devono essere compresi tra -1 e 1 - Eliminare dal grafico zone non comprese nel dominio ⁃ SIMMETRIA E PERIODICITÀ - f(-x) = f(x) la funzione è pari - f(-x) = -f(X) la funzione è dispari - Se non è una di queste allora non ne pari né dispari - La periodicità è legata alle funzioni logaritmiche ⁃ SEGNO E INTERSEZIONE: operativamente si fa f(X) ≥ 0 - F(X)=0 sono i punti di intersezione, ovvero dove interseca l’asse X - f (0) è l’intersezione dell’asse y, lo cerco nel caso avessi X=0 - Segno le intersezioni ed elimino le parti dove non passa f(X) ⁃ LIMITI E ASINTOTI: calcolo i limiti dei punti che non appartengono al dominio e gli estremi del dominio. lim 𝑓(𝑥) = 𝑙 (𝑝𝑢𝑛𝑡𝑜 𝑒𝑠𝑐𝑙𝑢𝑠𝑜 𝑜 𝑑𝑖 𝑑𝑖𝑠𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑖𝑡à 𝑒𝑙𝑖𝑚𝑖𝑛𝑎𝑏𝑖𝑙𝑒) !→!# lim 𝑓(𝑥) = ±∞ (𝑎𝑠𝑖𝑛𝑡𝑜𝑡𝑜 𝑣𝑒𝑟𝑡𝑖𝑐𝑎𝑙𝑒) !→!#± lim 𝑓 (𝑥 ) = 𝑙 (𝑎𝑠𝑖𝑛𝑡𝑜𝑡𝑜 𝑜𝑟𝑖𝑧𝑧𝑜𝑛𝑎𝑡𝑎𝑙𝑒) !→±% lim 𝑓 (𝑥 ) = ±∞ !→±% (𝑠𝑖 𝑝𝑢ò 𝑎𝑣𝑒𝑟𝑒 𝑢𝑛 𝑎𝑠𝑖𝑛𝑡𝑜𝑡𝑜 𝑜𝑏𝑙𝑖𝑞𝑢𝑜, 𝑝𝑒𝑟 𝑣𝑒𝑟𝑖𝑓𝑖𝑐𝑎𝑟𝑒 𝑐𝑖𝑜 𝑑𝑒𝑣𝑜 𝑡𝑟𝑜𝑣𝑎𝑟𝑒 𝑚 𝑒 𝑞 𝑑𝑒𝑙𝑙𝑎 𝑒𝑞𝑢𝑎𝑧𝑖𝑜𝑛𝑒 𝑦 = 𝑚𝑥 + 𝑞; 𝑓 (𝑥 ) 𝑞𝑢𝑖𝑛𝑑𝑖 𝑚 = lim 𝑠𝑒 𝑚 ∈ 𝑅 𝑒 𝑚 ≠ 0 !→±% 𝑥 𝑞 = lim [𝑓(𝑥 ) − 𝑚𝑥 ] 𝑠𝑒 𝑞 ∈ 𝑅 𝑠𝑖 ℎ𝑎 𝑢𝑛 𝑎𝑠𝑖𝑛𝑡𝑜𝑡𝑜 𝑜𝑏𝑙𝑖𝑞𝑢𝑜 ) !→±% Se abbiamo un asintoto verticale o orizzontale, vale la pena verificare se essi intersecano il grafico della funzione per trovare tale intersezione basta mettere a sistema y=f(x) con 𝑦 = 𝑓(𝑥) l’equazione dell’asintoto, ovvero M 𝑌 = 𝑚𝑥 + 𝑞 ⁃ STUDIO DEL SEGNO DELLA DERIVATA PRIMA: - Negli intervalli in cui la f’ è positiva, f(X) è crescente - Negli intervalli in cui la f’ è negativa, f(X) è decrescente - Dopo aver calcolato la derivata vado a vedere dov’è ≥ 0 ⁃ SEGNO DELLA DERIVATA SECONDA - f’’(x) >0 convessa, concavità verso l’alto - f” (x)

Use Quizgecko on...
Browser
Browser