Summary

This document provides an overview of descriptive statistics, focusing on data matrices and various types of characters, including qualitative and quantitative data. The document details frequency distributions, position indices, indices of variability, and methods for analyzing data.

Full Transcript

Statistica descrittiva 1. Matrice dei dati e caratteri 2. Distribuzione di frequenza univariata e gra ici 3. Distribuzione di frequenza bivariata e gra ici 4. Indici di posizione 5. Indici di variabilit Matrice dei dati e Carat...

Statistica descrittiva 1. Matrice dei dati e caratteri 2. Distribuzione di frequenza univariata e gra ici 3. Distribuzione di frequenza bivariata e gra ici 4. Indici di posizione 5. Indici di variabilit Matrice dei dati e Caratteri I dati : Qualsiasi analisi statistica presuppone che i dati siano organizzati in modo che i risultati non siano in luenzati dalla cattiva costruzione del database. ( DATA BASE = matrice dei dati ) Terminologia : UNITÀ statistiche o sperimentali (righe del database) CARATTERI (colonne del database) propriet dell’unit Statistiche - Qualitativi - Quantitativi MODALITÀ del carattere (caselle del database) modo di manifestarsi del carattere - Attributi -> per carattere qualitativo - Misure -> per carattere quantitativo Tipi di carattere : Caratteri Qualitativi /categorici Caratteri Quantitativi /numerici Modalit = Attributi modalit = Misure - Sconnessi (scala nominale) : binario (SI/ Numeri reali che descrivono una propriet NO, d’accordo / non d’accordo…) ; tipo di oggettiva dell’unit statistica operatore telefonico (tim, Vodafone…) ; comune di residenza ( Milano , Genova...) - Discreti : insieme di modalit : inito, numeri interi - Ordinati (scala ordinale) : titolo di studio ; grado di vendibilit (scarto, difettoso, - Continui : insieme di modalit : in inito, idoneo) ; risultato di un esame (insuff, suff, numeri reali buono, ottimo) Matrice dei dati Sulle righe abbiamo le unit statistiche Sulle colonne i caratteri Nelle celle interne le modalit 1  f à à à à à à à à à f f f f à à à Distribuzione di frequenze univariata La statistica descrittiva univariata si occupa di tutti gli strumenti descrittivi per l’analisi di un solo carattere estratto dalla matrice dei dati (una colonna). Per organizzare i dati elementari in prospetti sintetici delle osservazioni utile costruire una DISTRIBUZIONE O TABELLA utilizzando la nozione fondamentale di FREQUENZA Tabella di Frequenza : - n = numero totale di unit statistiche - xi = modalit distinte - ni = frequenze assolute ( i = 1,2,…,k) k = numero di modalit differenti NB : n e k sono solitamente diversi tra loro. Tipi di frequenze : Frequenza assoluta : numero di unit statistiche che presentano una data modalit ( ni ) - ni >0, interi ( sommatoria ni = n) Frequenza relativa : numero di unit statistiche sul totale che presentano una data modalit (fi). - fi = ni/n 0 ≤ fi ≤ 1 ( sommatoria fi = 1) Tabella di frequenza con frequenze assolute e relative : Frequenza cumulata : numero/frazione di unit statistiche che presentano una data modalit “minore o uguale” alla corrente (Ni o Fi) - Ni = frequenze assolute cumulate N1 = n1 Nk = n - Fi = frequenze relative cumulate F1 = f1 Fk = 1 NB : hanno senso solo se il carattere ORDINABILE Se il carattere quantitativo presenta molte modalit distinte pu essere conveniente accorpare le modalit in CLASSI. Raggruppamento in classi : Costruzione di intervalli di valori chiusi o aperti (da … escluso, a … incluso) Tabelle di frequenza per caratteri quantitativi ripartiti in classi : Classi o intervalli : - devono essere disgiunte (senza sovrapposizioni) - devono essere esaustive (devono contenere il minimo ed il massimo osservati) - solitamente si intendono chiuse a destra densità di frequenza : (di) = frequenza assoluta (o relativa) rapportata all’ampiezza dell’intervallo. di = ni/ai oppure fi/ai Con ai = ampiezza classe i-esima = hi− hi-1 L’insieme delle coppie : modalit + frequenze : X = {(xi,ni); i=1,2,…,k}, detto : - mutabile statistica se il carattere qualitativo - variabile statistica se il carattere quantitativo (discreto o continuo) 2 è  à à à à à è è à è à à à à à à ò è Rappresentazioni Gra iche Univariate 1. RAPPRESENTAZIONI DELLE DISTRIBUZIONI DI FREQUENZA UNIVARIATE caratteri qualitativi - diagrammi a torta In corrispondenza ad ogni modalit si disegna un settore circolare il cui angolo al centro proporzionale alla frequenza. ( per caratteri sconnessi ) Una alternativa al diagramma a torta per i caratteri qualitativi sconnessi (soprattutto quando le modalit distinte sono numerose) il diagramma a rettangoli separati (vedi terzo gra ico) in cui le frequenze stanno sull’asse delle ascisse. - diagrammi a rettangoli separati / gra ico a barre In corrispondenza ad ogni modalit si disegna un rettangolo con altezza proporzionale alla frequenza. ( per caratteri sconnessi e ordinati) caratteri quantitativi discreti - diagrammi a bastoncini In corrispondenza ad ogni modalit si disegna un segmento con altezza proporzionale alla frequenza caratteri quantitativi continui - Istogrammi In corrispondenza ad ogni classe si disegna un rettangolo con base proporzionale all’ampiezza della classe e altezza proporzionale alla densit (o alla frequenza se le classi sono di uguale ampiezza) 3  à è à à à f à f f è 2. RAPPRESENTAZIONI DELLE DISTRIBUZIONI DI FREQUENZA CUMULATE UNIVARIATE Gra ico cartesiano per la rappresentazione dell’andamento dei valori delle frequenze cumulate assolute o relative (Ni o Fi). Il gra ico anche detto FUNZIONE DI RIPARTIZIONE Asse delle ascisse : modalit Asse delle ordinate : frequenze cumulate, relative o assolute Esempio : numero di stanze per abitazione Ni = frequenza assoluta di unit con modalit 0 - con il CV non posso dire se siamo pi vicini ad una situazione di minima o di massima variabilit Interpretazione e Unità di misura di scarto quadratico medio, varianza e coef iciente di variazione : La deviazione standard si esprime nella stessa unit di misura della variabile. La varianza 2 si esprime nell'unit di misura della variabile al quadrato. Il coef iciente di variazione CV un numero assoluto, non dipende dalle unit di misura. 13 È  È è È È  f ò f 𝜎  è   ò  𝜎 à à  ò è à ù   à à ò  à à à è f à à f à à Proprietà della varianza OPERATORE VARIANZA : associa ad ogni variabile la sua VARIANZA con le seguenti propriet : 1. Var(c) = 0 (varianza di una costante) 2. Var(aX) = a2 Var(X) 3. Var(aX + b) = a2 Var(X) (non linearit ) 4. Var(X + b) = Var(X) (invarianza per traslazione) 5. Var(X+Y) = Var(X) + Var(Y) + b ( b = covarianza ≠ 0 ) Teorema della scomposizione della varianza I dati elementari sono classi icati in h sottogruppi ( variabili divise in gruppi ). Per ciascuno dei sottogruppi si conosce la numerosit , la media e la varianza. Il teorema di scomposizione della varianza afferma che: La varianza totale σ2 ottenibile come la somma della varianza “entro i gruppi” (varianza WITHIN σ2W) e della varianza “tra i gruppi” (varianza BETWEEN σ2B) σ 2 = σW2 + σB2 2 2 La media delle varianze dei gruppi detta VARIANZA WITHIN (entro i gruppi) : σW = M(σj ) La varianza delle medie dei gruppi detta VARIANZA BETWEEN (tra i gruppi) : σ2B = V(μi) 14      è f à è è à     à    Gra ici Box-Plot Gra ico riassuntivo dei maggiori indici descrittivi univariati che consente confronti “visivi” tra diverse variabili. Per ogni variabile vengono rappresentate : - Mediana (Q2) - I e III quartile (Q1 e Q3) - Differenza interquartile H = Q3– Q1 - minimo e Massimo esempio : 15  f f Statistica Descrittiva Bivariata Dall’analisi della distribuzione doppia di frequenza riportata nella tabella a doppia entrata possibile misurare il grado di associazione tra due caratteri, ovvero l’intensità del loro legame di dipendenza. Partiamo dall’analizzare le situazioni estreme assumendo, per ora, che i caratteri siano entrambi qualitativi. - Intensit nulla-> INDIPENDENZA STOCASTICA - Intensit massima-> DIPENDENZA FUNZIONALE Indipendenza stocastica X ed Y si dicono stocasticamente indipendenti (statisticamente) se tutte le frequenze condizionate relative sono uguali tra loro e uguali alle frequenze relative marginali : tutte le condizionate | ( = 1,2, … , ) hanno la stessa distribuzione RELATIVA /. = tutte le condizionate | ( = 1,2, … , ℎ) hanno la stessa distribuzione RELATIVA /.= ∀ le condizionate relative sono uguali alle rispettive marginali /. =./ ∀ = ,…,. /.=. / ∀ = ,…,h Conoscere la modalit della variabile rispetto a cui si condiziona NON modi ica la distribuzione di frequenza (relativa) dell’altra variabile. Quando ci accade il legame di associazione tra le variabili nullo. 16  à à ò à 𝑋 𝑌 𝑥 𝑦 𝑖 𝑗 𝑘 è 𝒏 𝒏 𝒏 𝒏 𝒏 𝒏 𝒏 𝒏 f 𝒊 𝒋 𝟏 𝒏 𝟏 𝒏 𝒏 𝒏 𝒌 𝒈 è 𝒇 𝒊 Teorema di fattorizzazione X e Y sono indipendenti stocasticamente se e solo se le frequenze osservate coincidono con le frequenze teoriche n^ij , cio se : o anche, usando le frequenze relative : Le frequenze teoriche si ottengono moltiplicando i totali marginali di riga e colonna e poi dividendo il risultato per il numero n totale. NB : Quando c’ indipendenza stocastica, le frequenze assolute condizionate (di riga e di colonna) sono proporzionali. ( non ce bisogno di calcolare le frequenze teoriche ) Osservazioni su situazione di indipendenza stocastica : 1. condizione simmetrica: X indip st. Y Y indip st. X 2. frequenze teoriche assolute non sono sempre valori interi. Se una frequenza assoluta teorica non è un valore intero, non ci può essere indipendenza stocastica 3. presenza di zeri => non-indipendenza stocastica 4. proporzionalità frequenze assolute indip stoc Dipendenza funzionale Si tratta della situazione opposta a quella della indipendenza e si ha quando tra le variabili c’ perfetta associazione ( Massima associazione tra i due caratteri ). Distinguiamo 3 casi: 1) Y dipendente funzionalmente da X : y = g(x) - ad ogni xi corrisponde un solo yj - k≤h 2) X dipendente funzionalmente da Y : x = f(y) - ad ogni yj corrisponde un solo xi - h≤k 3) La dipendenza funzionale tra X e Y è biunivoca : y = g(x) e x = g−1(y) - ad ogni xi corrisponde un solo y e viceversa ad ogni yj corrisponde un solo xi - h=k N.B. In una tabella quadrata la dipendenza funzionale non pu che essere biunivoca Una volta de initi i concetti limite di indipendenza e dipendenza funzionale si vogliono studiare e misurare anche le situazioni intermedie : La dipendenza tra caratteri si pu studiare tramite : - connessione : per misurare il grado di associazione tra caratteri qualitativi. - modelli di regressione : per descrivere analiticamente un carattere in funzione dell’altro. 17         f è    ò è ò   è Connessione La connessione misura il grado di associazione tra caratteri qualitativi. Se i caratteri sono stocasticamente indipendenti la connessione nulla. Ne consegue che si avr una connessione non nulla se non c’ indipendenza stocastica tra le variabili ovvero : la variabile statistica doppia (X,Y) è caratterizzata da FREQUENZE CONDIZIONATE RELATIVE NON UGUALI TRA LORO. Per misurare l’intensit del legame di associazione si utilizzano i c.d. INDICI DI CONNESSIONE che misurano la distanza dalla situazione di indipendenza stocastica attraverso il confronto tra frequenze osservate e frequenze teoriche. Contingenze ( C ) contingenze assolute = differenza tra frequenze osservate e frequenze teoriche (ind. stocastica) TABELLA DELLA CONTINGENZE : Propriet generali delle contingenze 1. Ʃi cij = 0, nulla la somma di colonna 2. Ʃj cij = 0, nulla la somma di riga 3. ƩiƩj cij = 0, nulla la somma totale Indice di connessione : Chi-quadrato ( 2 ) Basato sui valori delle contingenze e delle frequenze teoriche : Casi limite : minima connessione = indipendenza stocastica 2 min = 0 (osservate = teoriche) massima connessione = dipendenza funzionale 2 max = n × min [(h − 1),(k − 1)] ( h=numero di righe / k=numero di colonne ) Indice di connessione normalizzato ( 2N ) : 2 2 L’indice simmetrico : N (X|y) = N(Y|x) 2 indipendenza stocastica 0 ≤ N≤1 dipendenza funzionale 18 𝜒 𝜒  è à è è è à à 𝜒   𝜒   𝜒  𝜒 𝜒   è è Indipendenza in media Quando almeno uno dei caratteri della v.s. doppia quantitativo, ad esempio Y, possibile misurare la sua associazione con un carattere X (potenzialmente anche qualitativo) nell’ottica di indagare come varia Y al variare delle modalit di X. Essendo il carattere Y quantitativo, è possibile effettuare il confronto tra le distribuzioni condizionate (Y|X) in modo analitico usando degli indicatori di sintesi come la media (condizionata) e la varianza (condizionata). La funzione che in xi assume il valore della media condizionata (Y|x) prende il nome di SPEZZATA DI REGRESSIONE La spezzata di regressione - misura il legame in media tra 2 variabili - una funzione che passa tra i dati (per la propriet di internalit della media aritmetica) e che congiunge tra loro le medie condizionate - la funzione che approssima meglio i dati perch minimizza la funzione di perdita quadratica (per la propriet di minimo della media aritmetica) Teorema di scomposizione della varianza dati suddivisi in gruppi ( -> v.s. condizionate ) per i quali si hanno : - medie condizionate: μy(x1) … μy(xi) … μy(xh) - varianze condizionate: σ2y (x1) … σ2y (xi) … σ2y (xh) Varianza totale = varianza fra i gruppi + varianza entro i gruppi Var = VAR SPIEGATA ( Between, la varianza delle medie condizionate) + VAR RESIDUA ( Within, la media delle varianze condizionate ) Rapporto di correlazione : Il rapporto di correlazione la varianza spiegata normalizzata. VarB(y) VarW (y) η2y | x = =1− Var(y) Var(y) Si pu interpretare come la percentuale di variabilit totale spiegata dal modello che passa per le medie condizionate, vale a dire dal modello spezzata di regressione. Essendo un indice normalizzato: 0 ≤ ηY2 ≤ 1 ηY2 = 1 implica la DIPENDENZA FUNZIONALE di Y da X. Infatti in questo caso la varianza within (varianza residua) pari a zero quindi le varianze condizionate sono tutte pari a zero. ηY2 = 0 implica la INDIPENDENZA IN MEDIA di Y da X. 19 è è     ò à è à  é è à à è à è Indipendenza in Media 1. Caso Y|x S ha indipendenza in media di Y da X quando le medie condizionate di Y|X sono uguali tra loro e uguali alla media marginale di Y. M(Y | x1) = M(Y | x 2 ) = M(X ) x1,2,…,k VarB = 0 quindi : Var = VarW -> la funzione di regressione parallela all’asse X 2. Caso X|y Si ha indipendenza in media di X da Y quando le medie condizionate di X|Y sono uguali tra loro e uguali alla media marginale di X. M(X | y1) = M(X | y2 ) = M(X ) y1,2,…,k VarB = 0 quindi : Var = VarW -> la funzione di regressione parallela all’asse Y Indipendenza stocastica VS Indipendenza in media INDIPENDENZA STOCASTICA: Uguaglianza delle distribuzioni di frequenza relativa delle variabili condizionate - Simmetrica: indip. stoc. di X da Y => indip. stoc. di Y da X INDIPENDENZA IN MEDIA Uguaglianza delle medie delle variabili condizionate Y|X o X|Y - Non simmetrica: indip. di X da Y => indip. di Y da X Se c’è Indipendenza stocastica => c’è sicuramente indipendenza in media ( non vale viceversa ) Dipendenza funzionale ( di Y da X ) De inizione : ad ogni X corrisponde una e una sola Y I dati coincidono con le medie condizionate, ovvero yj = μy(xi) -> quindi le varianze condizionate sono tutte nulle. ηY2 = 1 Vale lo stesso per : Dipendenza funzionale (di X da Y) : AD OGNI Y CORRISPONDE UNA E UNA SOLA X NB: Sia l’indipendenza in media che la dipendenza funzionale sono non simmetriche : ηY2 ≠ ηX2 ad eccezione di casi particolari : - Indipendenza stocastica -> ηY2 = ηX2 = 0 - Perfetta dipendenza funzionale biunivoca -> ηY2 = ηX2 = 1 (c’ simmetria, tabella quadrata: ad ogni x corrisponde 1 e 1 sola y e viceversa) - Nel caso particolare di uguaglianza tra la distribuzione delle medie di X|y e quella delle medie di Y|x e di uguaglianza tra le varianze marginali. 20  ì f  è è  è   Elementi di Probabilità 1. Concetti primitivi 2. Algebra degli eventi 3. Misure di probabilit 4. Probabilit condizionata ed indipendenza 5. Il teorema di Bayes Concetti primitivi Compito della teoria della probabilit quello di descrivere l’incertezza che una componente imprescindibile sia negli aspetti pratici, sia in quelli teorici ed decisiva nelle scelte in ambito economico e manageriale. Si occupa di descrivere situazione (eventi) dall’esito incerto I concetti primitivi della teoria della probabilit : La prova o esperimento aleatorio L’evento La probabilit In un dato esperimento l’evento A si veri ica con probabilit P(A) L’esperimento aleatorio (o prova) è un esperimento con due o più possibili esiti incerti. - L’esperimento ammette almeno due risultati e vi incertezza su quale si realizzer Eventi L’oggetto dello studio della probabilit l’evento ed, in particolare si introduce la nozione di evento elementare (lo indicheremo col simbolo greco ω seguito da un pedice i = 1, …, k con i ≥2 ). L’ evento elementare ωi de inito come ciascuno dei singoli esiti della prova fra loro incompatibili (ovvero se si veri ica un evento elementare ω1 non si veri ica l’evento ω2). L’insieme di tutti gli eventi elementari ottenuti da un esperimento aleatorio costituiscono lo spazio campionario de inito come Ω = {ω1, ω2 , … , ωK } Per evento non elementare A (o composto) si intende un sottoinsieme dello spazio campionario a sua volta scomposto in uno o pi eventi elementari. ( un’insieme di eventi elementari ) Esistono due particolari eventi da aggiungere alla classe di quelli precedentemente introdotti, ovvero: L’evento impossibile de inito dall’insieme vuoto, che non include nessuno degli eventi elementari connessi con l’esperimento aleatorio: Aimpossibile = { Ø } L’evento certo che si veri ica sempre in quanto comprende tutti i possibili esiti connessi all’esperimento: Acerto = { Ω } 21  à à f f à è f f f ù à à è è f à è è f à è è à Algebra degli eventi Con riferimento ad una prova si possono considerare tutti gli eventi elementari ωi ma opportuno introdurre anche un insieme di eventi pi estesi, che sar indicato con δ che de inito come un insieme contenente a sua volta tutti i possibili sottoinsiemi di Ω, con l’aggiunta degli elementi {Ø} e { Ω }. Tale classe di eventi formano un’algebra di Boole. Relazioni tra eventi L’algebra di Boole una struttura matematica sui cui elementi sono de inite tutte le operazioni e le regole valide nella teoria degli insiemi - eguaglianza A = B (→ A uguale a B) Gli eventi A e B hanno gli stessi elementi - appartenenza A ⊂ B (→ A incluso in B) Gli elementi di A sono anche elementi di B (ma non necessariamente viceversa) - inclusione / contenimento A ⊃ B (→ A contiene B) Gli elementi di B sono anche elementi di A, ma non necessariamente viceversa. Ovvero ci sono elementi di B che non sono elementi di A - disgiunzione / incompatibilità A ∩ B = { Ø } (→ A non compatibile con B) A e B non hanno alcun elemento in comune Operazioni elementari - intersezione A = A1 ∩ A2 - unione A = A1 ∪ A2 - differenza A = A1 − A2 - complemento AC = Ω − A 22     è ù à f è f è Misure di probabilità Riassunto : ad una prova associato uno spazio campionario Ω e ad esso una collezione di eventi de inita con δ = {A1, A2, …, AK} La probabilità è una funzione P che associa ad ogni evento Ai Є δ un numero reale che rappresenti il grado di probabilità di Ai La probabilit sar indicata con: P(Ai) = {Probabilit che si veri ichi l’evento Ai} Per semplicit omettiamo il pedice i da P(Ai) e usiamo P(A) 1. Proprietà e assiomi del calcolo della probabilità Dato quindi Ω = spazio degli eventi elementari ( inito) ed estendendo il ragionamento anche a pi eventi Ai la funzione P(A) per essere una funzione di probabilit deve soddisfare i seguenti assiomi: - P(A) ≥ 0 ∀A ⊂ Ω - P(Ω) = 1 - P(Ui Ai ) = ∑ P(Ai ) se Ai disgiunti i La probabilit dell’unione di eventi disgiunti ( UiAi ) pari alla somma delle loro probabilit. 2. Regola per l’assegnazione della probabilità agli eventi elementari Si osservi che gli eventi elementari, per de inizione, sono eventi disgiunti e che un evento generico pu essere visto come l’unione di eventi elementari. Se quindi riusciamo a de inire la probabilit di un evento elementare, utilizzando il terzo assioma possiamo de inire la probabilit di un evento generico A. Uno dei modi pi naturali e semplici per de inire la probabilit di un evento elementare quella che fa riferimento al caso in cui lo spazio campionario Ω ha dimensione inita e ciascun evento ω ha la medesima probabilit di veri icarsi (equiprobabilità). Se quindi Ω = {ω1, ω2, …, ωN} con N elementi P(ωi) = 1 / N con i = 1, 2, …, N La probabilit per un generico evento A : Formula classica di Laplace : P(A) = numero di casi favorevoli / numero di casi possibili - devono valere per le condizioni di spazio inito, ovvero di numero inito di eventi elementari che costituiscono Ω Ci sono due modi per calcolare il n di casi favorevoli e possibili : a) per conteggio: quando Ω inito con pochi eventi elementari b) con calcolo combinatorio (permutazioni, disposizioni, combinazioni) 23    f  f à à à à ù à ò à f è è f f à f f à f f à è à à f f f è à ù ò 3. Regole per il calcolo delle probabilità di eventi composti - probabilità dell’unione P(A ∪ B) = P(A) + P(B) − P(AB) P(A ∩ B) = 0 solo se disgiunti - probabilità della differenza P(A − B) = P(A) − P(AB) P(A ∩ B) = P(B) solo se B ⊂ A - probabilità del complementare P(AC) = 1 − P(A) - probabilità dell’evento impossibile P(Ø) = 0 - monotonicità se A ⊂ B allora => P(A) ≤ P(B) NB: Utilizzando la regola della monotonicit insieme al secondo assioma: A ⊂ Ω => P(A) ≤ 1 Unendo con l’assioma 1) : P(A) > 0 0 ≤ P(A) ≤ 1 24   à Altre de inizioni di probabilità Oltre all’approccio classico (il primo anche da un punto di vista storico) esistono altre modalit per assegnare la probabilit : 2. Approccio frequentista (oggettivo) La probabilit de inita come il limite a cui tende la frequenza relativa con cui si veri ica un evento A rispetto a tutti i risultati osservati, in una successione idealmente in inita di prove identiche. - Ripeto m volte un esperimento aleatorio (il lancio di una moneta ) - Chiamo mA la frequenza assoluta con cui si veri icato l'evento, e pongo : Critiche : Anche se un esperimento ripetibile, non mai possibile farlo un numero in inito di volte, se non in linea teorica. In alcune circostanze non possibile ripetere un esperimento nelle medesime condizioni. 3. Approccio soggettivista (bayesiano) legato allo schema della scommessa (De Finetti) P(A) = ammontare di denaro p che si disposti a puntare per partecipare ad una scommessa che paga una vincita pari a 1 in caso di successo e 0 in caso di insuccesso La scommessa deve essere coerente: non deve dar luogo a guadagni (perdite) certi. Commento : Si pu mostrare che all’aumentare del numero dei dati, la valutazione soggettiva di probabilit si avvicini sempre pi alla valutazione frequentista. L’approccio soggetivista per risolve il problema relativo agli esperimenti non ripetibili 25 È  ò à è f ù f à è è ò è è è f f f f à à Probabilità condizionata Eventi il cui risultato parzialmente noto. Useremo la notazione A | B che leggiamo : “Evento A condizionato a B” , oppure "A dato B". Evento condizionato A|B = si richiede di valutare il veri icarsi di un evento A con la condizione che un evento B si sia gi veri icato Probabilità condizionata di A dato B : P(A|B) = P(A ∩ B)/P(B) con P(B)≠0 Probabilità condizionata di B dato A : P(B|A) = P(A ∩ B)/P(A) con P(A)≠0 Dalla probabilit condizionata si pu ricavare la regola di calcolo della probabilit dell’intersezione fra due eventi: P(A ∩ B) = P(AB) = P(A|B)P(B) = P(B|A)P(A) Probabilità condizionata e Indipendenza Due eventi A e B sono stocasticamente indipendenti se la probabilità di ciascuno di essi non varia se si veri ica o meno il secondo di essi. P(A|B) = P(A) oppure se: P(B|A) = P(B) le probabilit condizionate sono uguali alle marginali Ne deriva che, in caso di indipendenza : ( Fattorizzazione delle probabilit ) - P(A ∩ B) = P(A|B) P(B) = P(A) P(B) - P(A ∩ B) = P(B|A) P(A) = P(B) P(A) P(A ∩ B)= P(A)P(B) A e B sono indipendenti P(A ∩ B)= 0 A e B sono disgiunti Modelli d’urna utile rappresentare un esperimento aleatorio mediante uno schema d'urna (estrazione da un’urna) Distinguiamo due casi: a) estrazione con reimmissione (con reinserimento) la composizione d’urna identica ad ogni estrazione, quindi le estrazioni successive generano eventi indipendenti b) estrazione senza reimmissione (senza reinserimento) la composizione dell’urna cambia ad ogni estrazione e quindi gli eventi dipendono ogni volta dalla estrazione precedente (devo usare la probabilit condizionata) 26 È  f f à è è f ò à à à à à Teorema di Bayes Assunzione di base : esiste una partizione dello spazio campionario Ω cio una suddivisione dello spazio campionario in sottoinsiemi Ai tra loro disgiunti e la cui unione d lo spazio campionario. Teorema della Probabilità Totale Data una partizione {Ai} dello spazio campionario, si consideri un generico evento B ⊂ Ω ∑ P(B) = (P(B | Ai)P(Ai) i Se ∪iAi = Ω Ai ∩ Aj = Ø Teorema di Bayes Data una partizione {Ai} dello spazio campionario si desidera calcolare la probabilit che un certo effetto B sia stato generato da una particolare causa Ai P(B | Ai)P(Ai) P(Ai | B) = ∑i P(B | Ai)P(Ai) N.B. Generalmente si desidera calcolare la probabilit che, veri icandosi una data causa Ai essa generi un certo effetto B (nel teorema di Bayes c’ uno scambio tra cause ed effetto) 27   è à f à è à

Use Quizgecko on...
Browser
Browser