Statistica Medica - A.A. 2022/2023 PDF
Document Details
2023
Davide Khayat, Davide Melileo, Federica Bruschi, Ludovico Iuliano
Tags
Summary
This document, titled 'Statistica Medica', appears to be lecture notes or study material for a medical statistics course. It covers statistical concepts and methods for analyzing medical data. The document presents introductions to both descriptive and inferential statistics, touching on various topics like data collection, graphical representations of data, and statistical indices.
Full Transcript
STATISTICA MEDICA A.A. 2022/2023 0 Note degli autori Il presente testo non si pone come un sostituto del libro di testo, di cui raccomandiamo l’utilizzo, o delle lezioni, a cui raccomandiamo la frequenza. Il nostro intento vuole essere quello...
STATISTICA MEDICA A.A. 2022/2023 0 Note degli autori Il presente testo non si pone come un sostituto del libro di testo, di cui raccomandiamo l’utilizzo, o delle lezioni, a cui raccomandiamo la frequenza. Il nostro intento vuole essere quello di supportare lo studente con degli appunti organizzati dal quale può trarre supporto allo studio. Lasciamo a menti più eccelse la precisione di un libro di statistica, infatti nel presente testo è possibile trovare errori di concetto, ortografia, di sintassi e/o ripetizioni. Preghiamo di contattare gli autori per segnalare eventuali errori. 1 Statistica medica 29/09/2022 - Prof. Leuter Introduzione alla Statistica Autore: Davide Khayat - Revisore: Davide Melileo La statistica è una disciplina che quantifica i fenomeni. Il fenomeno è soggetto a variazioni. Una parte fondamentale della statistica è la raccolta e l’osservazione dei dati. I fenomeni che dobbiamo studiare, presentano caratteri di variabilità all’interno di una popolazione. La popolazione è composta da unità statistiche. La statistica in realtà insegna ad utilizzare il metodo scientifico al fine di raccogliere ed organizzare l’informazione favorendo la comprensione dei fenomeni; questa raccolta avviene mediante; La progettazione del piano di ricerche; L’analisi di dati; La tabulazione dei dati ecc... La statistica è divisa in due parti: - La prima parte della statistica è la STATISTICA DESCRITTIVA. La statistica ha per oggetto una popolazione considerata nel suo intero, raccoglie tutti i dati, li sintetizza e presenta dei risultati. - La seconda parte della statistica è la STATISTICA INFERENZIALE, dove i dati che si raccolgono vengono raccolti da un campione ben preciso, al fine di ricavare dei dati generali; è per questo che la statistica inferenziale usa un metodo INDUTTIVO. La statistica ha a che fare con le popolazioni o UNIVERSO STATISTICO. Per popolazione si intende un insieme di unità statistiche (es: ospedale, cartelle cliniche ecc... non per forza degli esseri viventi). Le popolazioni si distinguono in: - Semplici: (singoli individui) - Composte: (aggregati di unità semplici, tipo famiglie, classi scolastiche ecc...) Di una popolazione è possibile capire: - Carattere: i caratteri vengono chiamati anche variabili, è una particolare caratteristica che si presenta in ciascun elemento della popolazione; - Modalità: le modalità sono i valori che un carattere può assumere, per esempio: CARATTERE MODALITA’ COLORE DEGLI OCCHI AZZURRO, MARRONE, VERDI 2 Nel momento in cui si individua un carattere, gli si attribuiscono le modalità; l’attribuzione delle modalità al carattere si chiama CLASSIFICAZIONE DELLE UNITÀ STATISTICHE. I caratteri (variabili), si distinguono in: - QUANTITATIVE: le variabili quantitative si distinguono in: Continui: un esempio è l’altezza (numeri decimali): Discreti: si utilizzano solo numeri interi, per esempio numero di visite mediche in un mese. - QUALITATIVE: questi sono i caratteri le cui modalità non sono il risultato di misurazioni in senso fisico, infatti si dividono a loro volta: ➔ Ordinali: i caratteri in questo caso si classificano in maniera ordinale, come lo stadio del cancro, dove si stila una sorta di graduatoria dal miglior stadio al peggiore. ➔ Nominali: i caratteri non si classificano con ordine, come il gruppo sanguigno, inoltre le nominali possono distinguere anche in DICOTOMICHE, cioè variabile che presenta 2 elementi, per esempio: sesso: maschio o femmina. I caratteri ovviamente possono essere trasformati da quantitativi a qualitativi per esempio: QUANTITATIVI QUALITATIVI Altezza: 1,20 m Basso La trasformazione può essere utile a livello di praticità, però la trasformazione comporta una perdita di informazione, il fatto che un individuo sia basso, non si conosce l’altezza con precisione. Per eseguire una corretta analisi, bisogna eseguire un’INDAGINE STATISTICA, che serve a rilevare e raccogliere i dati statistici. L’indagine statistica è possibile applicarla: - Sull’intera popolazione; - Su un campione ben preciso. Le unità statiche che costituiscono una popolazione, possono appartenere a più popolazioni; per esempio, se la mia unità statistica è un uomo di 50 anni, e sto studiando in casi di ipertensione e lui ne è affetto, allora l'unità statistica in questione apparterrà sia alla popolazione degli uomini di 50 anni e sia alla popolazione degli affetti di ipertensione. Il conteggio di tutti i soggetti che presentano una determinata modalità, è detta FREQUENZA. La frequenza si intende il numero di volte che si è manifestato il fenomeno. Esistono anche altre tipo di frequenze: - frequenza ASSOLUTA (ni) la quale è inerente al numero delle unità nelle quali il carattere presenta la stessa modalità. Nelle frequenze si parla anche di DISTRIBUZIONE DI FREQUENZE, fa riferimento al complesso di dati rilevati unendo quelli con le stesse caratteristiche. La distribuzione di frequenze si divide in: - Distribuzione semplice: se la distribuzione è fatta per un solo carattere; - Distribuzione multipla: se la distribuzione è fatta per più caratteri. 3 I dati poi finalmente vengono presi e raccolti sotto forma di una tabella, chiamata MATRICE DEI DATI oppure anche PROTOCOLLO ELEMENTARE. In una matrice dei dati: - ogni riga corrisponde ad un’unità statistica; - Ogni colonna corrisponde ad un carattere. In statistica gli INDICI STATISTICI: sono delle sintesi che servono per descrivere come un carattere si distribuisce in una popolazione, esempio la media. O comunque gli indici vengono usati per confrontare diverse situazioni. In presenza di un carattere con molte modalità, per utilità è possibile formare delle CLASSI DI VALORI. Quando si formano le classi, si delineano quali sono i limiti superiori, costituendo così un range detto VARIAZIONE DI CLASSE. Il valore centrale di una classe è dato da: valore centrale di una classe = Limite inferiore - Limite superiore/ 2 Esistono altre frequenze oltre alla frequenza assoluta: - Frequenza RELATIVA: si calcola rapportando la frequenza assoluta delle modalità fratto il numero totale N (osservazioni). La somma di tutte le frequenze relative deve dare come risultato sempre 1 oppure 100 se si esprime in percentuale. - Frequenza CUMULATA: indica il numero di volte che una variabile di X ha assunto valori pari o inferiori a Xi Oltre alle frequenze a volte è richiesto il calcolo del CAMPO DI VARIAZIONE, che è dato dalla sottrazione del valore finale - valore iniziale/ valore iniziale per 100: Vf - Vi / Vi * 100 4 Statistica medica 03/10/2022 - Prof. Leuter Le Rappresentazioni Grafiche Autore: Federica Bruschi - Revisore: Ludovico Iuliano In base ai dati che abbiamo, esistono grafici più o meno adatti. Questi completano i nostri dati per analizzare un fenomeno, non sostituiscono le informazioni, ma le completano con le osservazioni. Si compone con linee, superfici, piani cartesiani ecc. Si utilizza il sistema cartesiano con le ascisse x orizzontali e le ordinate y verticali. Tipi di grafici: Istogramma: il grafico per eccellenza per una variabile quantitativa continua (variabile i cui termini di un intervallo occupano tutti gli spazi, dal limite superiore al limite inferiore) a classi di valori, ovvero con barre adiacenti. Possiamo disegnare il poligono di frequenza, ovvero una curva che ci descrive ancora meglio la forma della distribuzione. Possiamo quindi unire i punti centrali della parte più elevata della barra dell’istogramma e disegnare questa curva. Le frequenze possono essere sia assolute sia relative, cioè che cambia è l'unità di misura sull’asse delle y; la somma delle frequenze è uguale ad 1. Grafico a barre o Ortogramma: serve a dimostrare variabili quantitative di tipo discreto, per questo motivo le colonne non vengono disposte in maniera adiacente (dato che non sono continue). Può esistere a barre verticali o a nastri; l’altezza è proporzionale alla frequenza relativa di una variabile. Diagramma a torta o Areogramma circolare: nelle variabili qualitative indica l’importanza della parte nel tutto, fornisce l’informazione di come viene ripartito nell’insieme dei dati che sto dimostrando. E’ diviso in spicchi proporzionali alle frequenze delle variabili che sto descrivendo. Si utilizzano per variabili qualitative di tipo nominali, dove non esiste una gerarchia. Grafico per punti (figura 1): ci consentono di confrontare eventuali associazioni tra x e y. Grafico a segmenti/spezzate (figura 2): una serie temporale per vedere come si manifesta un fenomeno nel tempo e nello spazio. Confronto di tipologie di variabili diverse misurate con la stessa scala di misura. Cartogrammi (figura 3): utilizzati per gli studi epidemiologici per valutare le criticità all’interno di un territorio, con colori diversi. 5 figura 1 figura 2 figura 3 Possibili errori nella costruzione di un grafico: se nel titolo non c’è l’indicazione di quello che vuole rappresentare il grafico, se è incompleto o poco chiaro; assenza delle variabili che sta descrivendo e delle unità di misura; carenza di valori significativi e unità grafiche inadeguate (scelta sbagliata della tipologia del grafico). La Sintesi Statistica La statistica descrive fenomeni collettivi e confronta realtà e fenomeni diversi oppure in contesti diversi, ma per fare questo abbiamo bisogno di indici sintetici, (quantità che esprimono in che modo possiamo descrivere queste caratteristiche). Si può descrivere una serie di dati numerici con queste proprietà: ➔ Tendenza centrale o posizione:ad esempio media e mediana. Questa misura è la più appropriata per illustrare un fenomeno dato che minimizza le distanze tra i termini di distribuzione. È il primo fattore di descrizione di un fenomeno. Distinzione tra medie analitiche ed indici di posizione: ◆ Gli indici di posizione vengono utilizzati per variabili qualitative o classificazioni ordinarie, non di tipo algebrico ◆ Le medie analitiche si calcolano per misure quantitative, consentono i calcoli algebrici. Valore più rappresentativo di una serie di dati Media aritmetica semplice: il valore che ogni dato dovrebbe assumere se tutti i dati avessero lo stesso valore. Misura della tendenza centrale. Media ponderata/pesata: i valori vengono inseriti in base alla loro importanza, quelle con frequenza maggiore saranno quelle più rappresentate all’interno del valore medio. Si utilizza quando abbiamo una distribuzione in classi di valore. Abbiamo limitazioni di impiego della media sulle classi aperte e con la presenza di valori estremi molto scostati (diversi tra loro). A quel punto utilizziamo un altro indice di posizione. Moda: in caso di dati espressi di carattere nominale, è il dato che ricorre più frequentemente in una distribuzione. Esempio: Distribuzione di 150 famiglie secondo il 6 numero di figli. La moda è 1, non 60. Se siamo di fronte al calcolo di distribuzioni in classi esiste un calcolo diverso da fare per moda e mediana. Una distribuzione può essere zero modale (non ha moda) o essere plurimodale (avere più mode). Mediana: è il valore che divide la distribuzione in due parti, il 50% delle osservazioni è inferiore a quel valore e il restante è superiore. E’ definita “robusta” in quanto non si modifica quando abbiamo dei dati molto estremi. Ordiniamo in modo crescente i dati e poi calcoliamo la posizione della mediana. Se il numero di valori è dispari, la mediana coincide con il valore centrale, se è pari facciamo la semisomma dei valori centrali. Esempio: 1, 1, 3, 5, 6, 7, 9, 12, 15. La posizione mediana è (9+1)/2=5, la mediana (5+6)/2=5.5 Quantili: estensione della mediana. Dividono la distribuzione in parti diverse: il 1° quartile (Q1) separa il primo 25% dal restante 75%, il 3° (Q3) il primo 75% dal 25%, il 1° decile separa il primo 10% dal restante 90% e del 95° solo il 5% ha un valore superiore a esso. Calcolo della posizione dei percentili: Dato della distribuzione che rappresenta n-esimo percentile. p è l’indice del percentile, n la numerosità, i corrisponde alla posizione del percentile. Esempio: 1,3,4,5,8,10,12,13,15, l’80-esimo percentile è 13, trovato grazie a i che ci indica la posizione: i=(9+1)*80/100=13, il dato al di sotto del quale si situa l’80% dei valori. ➔ Dispersione o variabilità: concetto fondamentale, il valore medio non è sufficiente per descrivere dei dati. La variabilità è misurabile in rapporto al valore della media, ovvero l’indice di riferimento. Possiamo vedere l’indice di variabilità con un grafico: al centro vedremmo il valore medio e poi i valori più scostati dalla media con frequenze minori rispetto. Questa può essere misurata attraverso gli indici di dispersione. La distribuzione può essere simmetrica (se la maggior parte dei valori è vicina alla media) o asimmetrica (la maggior parte delle osservazioni sono lontane dal valore medio). Gli indici sono espressi nella stessa unità di misura delle osservazioni e non consentono il confronto fra variabilità di distribuzioni espresse in unità di misura diverse. ◆ Intervallo di variazione (range): differenza tra il valore massimo e il valore minimo di una distribuzione. Si utilizza per descrivere la variazione delle temperature. Lavora solo sugli estremi. ◆ Scostamento medio (o scarto): la media aritmetica di ogni singolo valore della distribuzione e la media. 7 ◆ Devianza: sommatoria della differenza di ogni singolo valore della distribuzione e la media, elevata al quadrato. ◆ Varianza: la radice quadrata del rapporto tra la devianza e la somma di tutte le frequenze (N) ◆ Varianza corretta: la radice quadrata del rapporto tra la devianza e la somma di tutte le frequenze -1. N-1 è il fattore di correzione, per evitare di sottostimare la variabilità del campione usato, calcolato come gradi di libertà. ◆ Deviazione standard (o scarto quadratico medio): la radice quadrata della varianza corretta ◆ Coefficiente di variazione (CV): si utilizza quando abbiamo dati con stessa unità di misura ma con intensità diverse (peso in kg tra bambini e adulti) oppure con unità di misura diverse. E’ una misura relativa di variabilità definita come il rapporto tra deviazione standard e la media (in %). ➔ Forma: si parla di distribuzione normale. La distribuzione normale (Curva di Gauss) è la distribuzione di probabilità più utilizzata. Misurazione di dati empirici. Se io eseguo un numero infinitamente grande di misure di un fenomeno, queste misurazioni rispetto alla media varieranno (curva chiamata anche “degli errori”). Queste differenze tra i valori e la media più sono elevati e meno sono frequenti, ciò significa che se io disegnassi queste misurazioni in un istogramma avrei una curva gaussiana con al centro i valori più frequenti più vicino alla media e man man che mi allontano avrei quei valori sempre più diversi (lontano) rispetto al valore medio, “curva di tipo normale”. Quando abbiamo infinite misurazioni non si parla di frequenze relative delle misurazioni, ma di area sottesa alla curva. Come la somma delle frequenze è uguale ad 1 anche questa area sarà uguale a 1, il 100% dei casi. L’ascissa nel punto più elevato corrisponde alla media, l’ordinata man mano che si sposta sull’asse delle x dà una forma diversa alla curva, ciò significa che la variabilità è quella che dà la forma alla curva, ma all’interno dell’area avremo sempre il 100% delle osservazioni. La curva è simmetrica. Man mano che ci allontaniamo dal valore medio, la curva si avvicina sempre di più all’asse delle x perché rappresenta i casi meno frequenti. Gli intervalli che si creano tra μ-σ e μ e tra μ e μ+σ sono porzioni di aria costanti, una proprietà fondamentale della curva normale. La variabilità dei dati è importante, se è elevata, ad esempio, la forma della curva cambia e si appiattisce. Proprietà: l'area sottesa alla posizione di curva che vi è tra la media e un’ordinata posta a una distanza data, determinata in termini di unità di deviazione standard, è costante (può cambiare la forma della curva normale, ma l’area no, è costante). Se mi sposto dalla media 8 nelle due direzioni di una deviazione standard posso dire di avere circa il 68% delle osservazioni, se raddoppio ho il 95%, se triplico avrò circa il 99%. In base alla deviazione standard la forma della curva cambia, ma la porzione di area rimane costante. La standardizzazione serve per trasformare qualsiasi curva teorica in curve standardizzate. Questa variabile ci permette di calcolare le porzioni di aria che abbiamo con i nostri dati, se dobbiamo calcolare la % di casi che cade in un certo intervallo con i dati, possiamo trasformare ogni distribuzione di tipo normale in distribuzione teorica/standardizzata con un procedimento semplice. Esempio esercizio per esame. Per la risoluzione guardare la lezione del 17/11/2022. 9 Statistica medica 06/10/2022 - Prof. Leuter La distribuzione normale Autore: Matilde Cinughi de Pazzi - Revisore: Gustavo Valente Nella lezione precedente, abbiamo parlato di che cosa sia una distribuzione di tipo normale o gaussiano. La forma è a campana e al centro abbiamo le osservazioni più numerose, poiché siamo vicino alla media, e nelle code abbiamo valori più discostati. È una curva di tipo teorico, con proprietà ben definite: l’area della curva è costante e la distanza dalla media può essere espressa in 1, 2, o 3 volte dalla deviazione standard. Anche i valori della deviazione standard sono teorici. In campo biomedico, esistono molte curve gaussiane che non seguono la forma della curva teorica: per ogni porzione di area della curva c’è la predisposizione di tabelle, che ci forniscono dei valori di osservazioni in quello spazio. Ciò si chiama standardizzazione della curva normale, ovvero la trasformazione di ogni curva normale in una curva standardizzata. Dobbiamo calcolarci una nuova variabile Z (variabile standardizzata Z), che si ottiene trasformando i valori della distribuzione originale in una distribuzione standardizzata. Z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,0 0000 0040 0080 0120 0159 0199 0239 0279 0319 0359 0,1 0398 0438 0478 0517 0557 0596 0636 0675 0714 0753 0,2 0793 0832 0871 0910 0948 0987 1026 1064 1103 1141...................... 1,0 3413 3438 3461 3485 3508 3531 3554 3577 3599 3621 1,1 3643 3665 3686 3718 3729 3749 3770 3790 3810 3830 10.......................... 1,5 4332 4345 4357 4370 4382 4394 4406 4418 4430 4441..................... 1,9 4713 4719 4726 4732 4738 4744 4750 4756 4761 4767... 2,0 4773 4778 4783 4788 4793 4798 4803 4808 4812 4817.......... 2,5 4938 4940 4941 4943 4945 4946 4948 4949 4951 4952 Esempio numerico: x è 65, la media è 50 e la deviazione standard (s) è 10. La Z vale 1,5. Dalla tabella, possiamo capire a quale porzione di area corrisponde il valore Z. Nella prima colonna, ci sono i valori di Z. Quindi l’area delimitata tra la media e Z è 0,4322. La tabella non ha valori negativi: se ci dovessero essere, significa che siamo nella porzione con valori negativi. Esempio numerico 2: consideriamo adesso x 143 e la media 168. La deviazione standard è 12. Il risultato è -2,08. Nella prima colonna troviamo 2,00; 0,8 lo troviamo nella prima riga. Andando ad incrociare i due numeri, troviamo un’area di 0,4812. La distanza fra 168 e 143 comprende anche una porzione di area che non ci interessa (a noi interessa solo quella tratteggiata). Considerata la simmetria della curva, l’area a sinistra della media deve essere = 0,5. Quindi l’area tratteggiata si ottiene così: 0,5 - 0,4812 = 0,0188. Infine possiamo dire che meno del 2% dei casi è minore a 143. Esempio numerico 3: supponiamo di voler conoscere l’area compresa tra le ordinate Z=0 e Z=1,96. L’area fra 0 e 1,96 è 0,475. Ci sono circa 47,5% di osservazioni. Supponiamo di voler conoscere anche l’area a destra di Z=1,96. Allora dovremmo fare la differenza: 0,5 - 0.475 = 0,025. Esempio numerico 4: voglio trovare l’area compresa fra Z=0,5 e Z=2,50. Poiché le tavole della standardizzata cominciano da 0, prima dobbiamo trovarci l’area fra 0 e 0,5. Poi possiamo trovare l’area fra 0,5 e 2,50. La prima area equivale a 0,1915; mentre la seconda equivale a 0,4938. Poi bisogna sottrarre le due aree precedenti: 0,4938 - 0,1915 = 0,3023. Questa è la proporzione di area ricercata. Se si vuole esprimere le proporzioni di area in percentuale, bisogna moltiplicare per 100. Esempio reale 1: sapendo che la pressione sistolica si distribuisce normalmente con media = 120 mmHg e DS = 10 mmHg, determinare la frequenza relativa degli individui con valori della pressione ≥ a 130 mmHg. Dato che il valore è superiore alla media, ci troviamo sulla destra della curva nei valori positivi. X equivale a 130 mmHg. Il risultato è 1, ovvero 0,3413. La frequenza relativa è uguale a 0,5 - 0,3413 = 0,1587 , ovvero il 15,87%. 11 Elementi di teoria della probabilità La statistica si basa sulla probabilità: non segue il principio di causa-effetto e non è una disciplina deterministica. L’inferenza statistica infatti si basa solo sulla probabilità, mentre invece la statistica descrittiva si occupa del reale e di osservazioni empiriche. Con l’inferenza statistica, si usa una popolazione di cui si stimano le caratteristiche. La probabilità si occupa di eventi casuali o aleatori. Gli eventi possono essere: certi, impossibili o probabili. Eventi certi possono essere la morte o l’estrazione di una pallina rossa da un’urna contenente solo palline rosse (P = 1). Un evento impossibile è l’estrazione di una pallina bianca da un’urna contenente solo palline nere (P = 0). Un evento probabile è l’estrazione di una pallina rossa da un’urna contenente palline bianche e rosse (0 < P < 1). E indica un evento. L’evento corrispondente al non verificarsi di E rappresenta l’evento complementare Ē con la relazione: P(E) = 1 - P(Ē) Concezione classica della probabilità: La probabilità dell’evento E è il rapporto fra il numero di successi e il numero di casi possibili. Secondo la teoria classica, tutti i possibili risultati devono essere equiprobabili, ovvero devono avere la stessa probabilità di verificarsi. Quindi la probabilità è il rapporto tra il numero di casi favorevoli ed il numero di casi possibili. Esempio 1: probabilità dell’uscita testa dopo il lancio di una moneta? P = 1/2 Esempio 2: probabilità che esca il numero 6 di un dado? P = 1/6 Esempio 3: qual è la probabilità che lanciando due volte una moneta si presenti prima Questo è lo spazio campione oppure omega, ovvero l’elenco di tutti i possibili risultati di un esperimento. testa e poi croce? P = 1/4 Lancio 1 - TT Lancio 2 - CT Lancio 3 - TC Lancio 4 - CC Esempio 4: determinare la P che una coppia con tre figli abbia esattamente due figli maschi. Si suppone che la P di avere un maschio ed una femmina sia uguale. M M M M M F M F M M F F 12 F M M F M F F F M F F F P = 3/8 = 0,375 Concezione frequentista: Noi abbiamo una concezione frequentista della probabilità, ovvero la probabilità di E è la frequenza relativa di un successo in una serie di prove tendenti all’infinito ripetute sotto identiche condizioni. Nella concezione frequentista, la probabilità è ricavata a posteriori dall’esame dei dati. Quindi quando abbiamo un numero molto grande di prove, si parla di frequenza relativa. Esempio: qual è la probabilità di morte post-operatoria dopo l’intervento x? I dati su un decennio in un territorio presentano 25 morti su 970 interventi. Frequenza relativa = 25/970 = 2,57% → probabilità di mortalità post-operatoria. Legge dei grandi numeri: Se ripetiamo un numero infinitamente grande di prove (esperimenti), la probabilità si avvicinerà sempre di più alla probabilità vera di E, pur con delle oscillazioni. Ciò si chiama regolarità statistica. Concezione soggettivistica: Nella concezione frequentista, si dovrebbero ripetere gli esperimenti nelle stesse condizioni, ma non è possibile. Inoltre è impossibile fare l’analisi probabilistica di fenomeni non ancora osservati. La concezione soggettivista traduce in termini quantitativi delle esperienze individuali. Teoria della probabilità: - Probabilità classica = (n. di volte in cui A può verificarsi)/(n. di eventi elementari) - Probabilità frequentista = (n. di volte in cui A si è verificato)/(n. di ripetizioni dell’esperimento) - Probabilità soggettiva = stimata in base alle conoscenze dei dati significativi La probabilità tratta eventi aleatori che possono dividersi in semplici o composti. L’evento semplice è una singola manifestazione di un fenomeno che esclude altri eventi. Invece l’evento composto è costituito da una combinazione di più eventi semplici. Possono verificarsi simultaneamente, ovvero sono compatibili. Tutti i possibili eventi di un fenomeno costituiscono 13 lo spazio campione, detto omega. Si usa il termine successo per segnalare che si è verificato l’evento considerato e insuccesso in caso contrario. Questi eventi sono incompatibili o mutuamente esclusivi, quindi non si possono verificare in una stessa prova. Assiomi della teoria della probabilità: - Due eventi mutuamente esclusivi E1 ed E2, la probabilità dell’E1 è P1 e così vale per P2. La probabilità dei due eventi uniti, sono eventi incompatibili e la probabilità è determinata dalla somma delle probabilità. - Se abbiamo una serie di eventi, la somma delle probabilità deve essere uguale ad 1. Principio della somma: La probabilità del verificarsi di due o più eventi tra loro incompatibile è la somma delle loro probabilità. La somma si usa quando si trova oppure. Esempio 1: qual è la probabilità che un soggetto a caso presenti un gruppo sanguigno di tipo 0 oppure A? La probabilità del gruppo sanguigno A è uguale a 0,40, invece quella del gruppo sanguigno 0 è uguale a 0,46. In base al principio della somma P(A U 0) = 0,40 + 0,46 = 0,86 ovvero 86%. Esempio 2: qual è la P di estrarre da un mazzo di carte una donna (A) e la probabilità di estrarre dallo stesso mazzo una carta di picche (B)? P(A U B)= 4/52 + 13/54 - 1/52 = 4/13. Si sommano le 4 donne e le 13 carte di picche e poi si sottrae la donna di picche, ovvero l’intersezione. Esempio 3: qual è la probabilità che estraendo a sorte un soggetto sia iperteso (0,04) o diabetico (0,03). Gli ipertesi e diabetici equivalgono a 0,01. P (Ip U D) = 0,04 + 0,03 - 0,01 = 0,06 Principio del prodotto: Se A e B si intersecano, allora si fa il prodotto. Si usa il prodotto quando si trova e. Esempio 1: in un’urna contenente 8 palline nere e 6 bianche si fanno due estrazioni con reimmissione? Qual è la probabilità di estrarre una pallina nera alla prima estrazione e poi una bianca alla seconda estrazione? P (N ∩ B) = 8/14 x 6/14 = 12/49 L’evento B è indipendente da A quando la probabilità di B, posto che si sia verificato A, non cambia. Esempio 2: qual è la probabilità che una coppia con 3 figli abbia almeno 1 femmina? A = almeno una femmina su tre figli Ā = nessuna femmina, quindi 3 maschi (evento complementare) = 1/2 x 1/2 x 1/2 = 1/8 P (almeno 1 femmina) = 1 - P(Ā) = 1 - 1/8 = 7/8 14 Esempio 3: - Qual è la P di appartenere al gruppo NON A? P(Ā) = 0,4 + 0,26 = 0,66 - Qual è la P di appartenere al gruppo adulti e ad un gruppo sanguigno diverso da A? P (Ad ∩ Ā) = 0,6 x 0,66 = 0,39 - Qual è la P di appartenere al gruppo sanguigno A o al gruppo sanguigno NON A? P (A U Ā) = (0,2 + 0,14) + 0,66 = 1 - Qual è la P di appartenere al gruppo sanguigno A e a un gruppo giovani? P (A ∩ G) = 0,34 x 0,4 = 0,14 Esempio 4: in un’urna contenente 8 palline nere e 6 bianche si fanno due estrazioni senza reimmissione? Qual è la probabilità di estrarre una pallina nera alla prima estrazione e poi una bianca alla seconda estrazione? P (N ∩ B) = 8/14 x 6/13 = 0,26 Gli eventi sono dipendenti, perché qui modifico l’urna e il numero di palline. Questa è la probabilità condizionata. 15 Statistica medica 10/10/2022 - Prof. Leuter Probabilità condizionata Autore: Davide Melileo - Revisore: Arianna Rizzo PROBABILITÀ CONDIZIONATA Eventi dipendenti e indipendenti · Negli eventi indipendenti, la probabilità di un evento A, pur se verificatosi B, non differisce dalla probabilità del solo evento A (non agisce il condizionamento!). P(A|B) = P(A) · Quando due eventi sono dipendenti, il condizionamento agisce e viene modificata la probabilità di A in presenza del verificarsi di B, cioè l’aspettativa di A si modifica sapendo che si verifica anche B. P(A|B) ≠ P(A) P(A|B) = probabilità di A condizionata a B Se definisco la probabilità di X e Y e cerco la probabilità di Y posto che sia verificato X, devo fare il prodotto della P(X) per la P(Y|X): P(X e Y) = P(X) × P(Y|X) TEOREMA DI BAYES Introduciamo la formula di Bayes: P(A) = probabilità a priori: probabilità che si verifichi l’evento A a prescindere dal verificarsi dell’evento B P(B|A) = probabilità a posteriori (probativa / verosimiglianza): probabilità che si verifichi l’evento B quando si conosce che si è verificato l’evento A Esempio Supponiamo di avere una popolazione composta per il 51% da maschi e per il 49% da femmine. 1) Determinare la probabilità di estrarre un maschio 16 2) Si conosce che la persona scelta fumava (9,5% degli uomini fuma, 1,7% delle donne fuma) 3) Utilizzare queste informazioni per calcolare la probabilità che il soggetto estratto sia un maschio P(M) = 0,51 P(F) = 0,49 P(A|M) = 0,095 = probabilità di estrarre un fumatore posto che sia maschio P(A|F) = 0,017 = probabilità di estrasse un fumatore posto che sia femmina Prima di sapere che la persona estratta fumasse, la probabilità che fosse un maschio era 0,51. Aggiungendo l’informazione “fumatore” la probabilità è stata corretta (l’informazione “fumatore” ha aumentato la probabilità che sia un maschio). Essere fumatore è evento condizionante. FORMULA DI BAYES E PROCESSO DIAGNOSTICO · La probabilità a priori, per il clinico, è la probabilità che il soggetto possa avere una certa malattia A in quel dato momento, a prescindere dal fatto che esso presenti o meno il quadro sintomatologico E (probabilità soggettiva / intuito clinico). · La probabilità a posteriori è la probabilità che si verifichi il quadro sintomatologico E quando agisce la malattia A (probabilità oggettiva derivante da frequenza relativa a n osservazioni). Fare diagnosi significa valutare la probabilità a posteriori di tutte le malattie compatibili col quadro sintomatologico E, scegliendo quella con probabilità massima. Esempi 1. Supponiamo che ci sia una persona con sintomatologia associabile sia al tifo che all’influenza. Possiamo sapere che, se un soggetto ha viaggiato in Egitto e un altro non si è spostato dall’Europa, aumenta la probabilità che sia tifo nel soggetto che ha viaggiato in Egitto. 2. Abbiamo a disposizione un quadro sintomatologico tipico di un infarto o di un dolore retrosternale. Se si tratta di una donna di 20 anni, non fumatrice e non ipertesa, propenderemo per una diagnosi di dolore generico, prescrivendo un antidolorifico; ma se la stessa informazione viene data da un soggetto anziano e iperteso, la probabilità che possa essere un infarto è superiore a quella di un semplice dolore. 17 FORMULA DI BAYES E DECISIONI CLINICHE Un medico vuole diagnosticare una malattia E attribuibile sia a una causa C1 che C2; il suo intuito clinico gli fa dire che la probabilità dell’eziologia per C1 è 0,6 mentre per C2 è 0,4 (esperienza soggettiva). Il paziente presenza un quadro sintomatologico attribuibile a C1 con probabilità probativa pari a 0,3 o a C2 con probabilità probativa pari a 0,7 (i sintomi danno informazioni aggiuntive). P(C1) = 0,6 P(E|C1) = 0,3 P(C2) = 0,4 P(E|C2) = 0,7 Applicando la formula di Bayes otteniamo le probabilità a posteriori con le quali possono aver agito la causa C1 o la causa C2: Il medico concluderà che sia la causa C2 a procurare la malattia nel paziente, in quanto la sua probabilità probativa è maggiore di quella relativa a C1. Distribuzioni di probabilità DISTRIBUZIONI DI PROBABILITÀ In una popolazione si attribuisce a ogni gruppo sanguigno una probabilità: A = 0,40 B = 0,10 AB = 0,04 0 = 0,46 18 In base al principio della somma, la somma delle probabilità è 1 (100%). Se si presenta il valore di probabilità di ogni possibile evento la cui somma è uguale a 1, abbiamo descritto una distribuzione di probabilità. Una variabile casuale è una variabile x che, in un esperimento, può assumere certi valori x1, x2… xn, con rispettive probabilità P1, P2… Pn. L’insieme dei valori che la variabile può assumere e delle corrispondenti probabilità fornisce una distribuzione di probabilità. VARIABILE CASUALE E VARIABILE STATISTICA · La probabilità è un dato teorico determinato a priori (stima). · La frequenza è un dato sperimentale derivante da prove o osservazioni. · Una variabile casuale è originata da un esperimento casuale, mentre una variabile statistica è data da osservazioni empiriche. · Per le variabili casuali si considera la probabilità, per le variabili statistiche si considera la frequenza relativa. La legge di probabilità di una variabile casuale continua è espressa da una funzione matematica p(x) detta funzione di densità di probabilità. La probabilità in un evento casuale non è un determinato valore della variabile casuale, ma solo la probabilità che si abbia un valore della variabile continua compreso in un intervallo x1 – x2. Per una variabile continua x non è possibile elencare gli infiniti valori che essa può assumere. P(x1 ≤ x ≥ x2) = area individuata dalla curva in corrispondenza degli estremi x1 e x2. CURVA DI GAUSS È la distribuzione di probabilità maggiormente utilizzata per lo studio dei dati biomedici ed è molto importante per le applicazioni dei test statistici. La forma a campana della gaussiana si può tradurre così: se misuriamo infinite volte una certa grandezza, i valori scostati dalla media saranno in positivo e in negativo simmetrici (curva simmetrica). Gli scarti più lontani dalla media saranno i più rari (probabilità molto piccola). Caratteristiche · È simmetrica rispetto alla media: la probabilità di un valore superiore alla media di una quantità prefissata è uguale alla probabilità di un valore inferiore per la stessa quantità. · L’area compresa tra la funzione e l’asse delle ascisse è 1, così da esaurire lo spazio campionario. · Esiste la probabilità al 100% che la misura sia inclusa nella distribuzione 19 · La frazione di area compresa tra due valori della variabile è assimilabile alla probabilità di riscontrare casualmente una misura entro tale intervallo. CURVA NORMALE Spesso è necessario determinare la probabilità di trovare un risultato in un dato intervallo. L’area sottesa alla porzione di curva che vi è tra le media e una ordinata posta a una distanza data, determinata in termini di una o più deviazione standard, è costante. APPLICAZIONI DELLA CURVA DI GAUSS Quando si parla di costante, si parla di curva teorica. Nelle osservazioni empiriche questo spazio deve essere calcolato. Abbiamo una variabile casuale che si distribuisce normalmente. I parametri della popolazione vengono stimati attraverso i dati campionari e le statistiche delle probabilità. Se la variabile si distribuisce in modo normale si possono usare le proprietà della gaussiana. Nella distribuzione gaussiana le porzioni di area sono la frequenza percentuale dei soggetti con quelle caratteristiche. Nella distribuzione di probabilità queste caratteristiche danno la probabilità che, estraendo dalla popolazione un’unità, essa abbia caratteristiche rispetto a x comprese in un certo intervallo. DISTRIBUZIONE GAUSSIANA STANDARDIZZATA · Per agevolare il ricercatore, la variabile x viene trasformata in una nuova variabile Z · Mentre la distribuzione di X è normale con media X e deviazione standard s, quella della nuova variabile è normale con media 0 e deviazione standard 1 · La distribuzione standardizzata presenta il vantaggio di consentire la predisposizione di tabelle che permettono di calcolare porzioni di area della distribuzione e di stabilire la probabilità statistica di riscontrare valori in relazione a determinati valori Z DISTRIBUZIONE BINOMIALE Essa trova le maggiori applicazioni in campo biomedico, perché la maggior parte delle misure biomediche segue una forma normale. Si chiama binomiale perché segue lo sviluppo del binomio. La distribuzione binomiale tratta la probabilità di diversi risultati per una serie di eventi casuali ognuno dei quali può assumere solo uno tra due valori. Una distribuzione binomiale si adatta a esperimenti con le seguenti caratteristiche: · Un numero fisso di prove · Le prove devono essere indipendenti 20 · L’esito di ogni prova deve appartenere a due sole categorie (dicotomia) V = successo W = insuccesso P(V) = p (probabilità di successo) P(W) = 1-p (probabilità di insuccesso) n = numero fissato di prove x = numero di successi in n prove p = probabilità di successo in una singola prova su n q = probabilità di insuccesso in una singola prova su n P(x) = probabilità di avere x successi su n prove Esempio L’incidenza di infezioni post-appendicectomia è del 20% (dalla letteratura). Nel reparto abbiamo 15 pazienti ricoverati che hanno subito l’intervento. Vogliamo sapere quale sia la probabilità che 5 di questi sviluppino l’infezione. Applico la binomiale perché ho solo due possibili risultati. n = 15 x=5 p = 0,20 q = 0,80 Esempio Quiz di statistica con quattro domande a risposta multipla. Ognuna ha 5 risposte possibili (a, b, c, d, e) e una sola è corretta. Se rispondo a caso che probabilità ho di rispondere correttamente a 3 domande su 4? · Possiamo utilizzare la distribuzione binomiale? 21 Si, perché tutti i requisiti sono soddisfatti: il numero delle prove è fissato; le 4 prove sono indipendenti; ci sono due esiti (risposta esatta o errata). · Quali sono i valori di n, x, p e q, se è binomiale? n=4 x = 3 (tre risposte corrette = 3 successi su n prove) P(risposta esatta) = 0,2 = p = 0,2 P(risposta errata) = 0,8 = q = 0,8 DISTRIBUZIONE DI POISSON La distribuzione di Poisson è utilizzata per descrivere eventi rari con basse probabilità, per esempio: nel pronto soccorso di un ospedale si presentano in media 2 pazienti il sabato tra le 23.00 e le 24.00. Si può calcolare la probabilità che in un sabato scelto casualmente tra le 23.00 e le 24.00 arrivino esattamente 4 pazienti. La distribuzione di Poisson è una distribuzione di probabilità discreta che si utilizza per descrivere il numero di volte in cui si verifica un evento in un intervallo specifico (tempo, distanza) Requisiti per la distribuzione di Poisson · La variabile aleatoria x indica il numero di volte in cui l’evento si verifica in un qualche intervallo prefissato · Gli eventi devono verificarsi in modo casuale · Ogni evento deve verificarsi indipendentemente dagli altri Esempio Supponiamo che in un minuto arrivino in media tre pazienti al pronto soccorso. Qual è la probabilità che in un certo minuto arrivino esattamente due pazienti? 22 Campionamento POPOLAZIONE E CAMPIONE Una popolazione statistica è un gruppo (non necessariamente di individui) caratterizzato dalla variabile che è oggetto dello studio. Molti studi vengono programmati per raggiungere conclusioni generali valide per tutta la popolazione, utilizzando i dati campionari ottenuti da un numero ridotto di osservazioni. INFERENZA Da una popolazione possiamo estrarre un numero infinito di campioni. Le caratteristiche (media e deviazione standard) della popolazione (parametri), normalmente sono sconosciuti. Devo conoscerle attraverso i dati campionari (stime campionarie); stimerò i valori sconosciuti della popolazione attraverso i dati campionari di uno dei campioni. SCHEMA LOGICO DI UN’INDAGINE CAMPIONARIA Partiamo da una popolazione di cui non conosco i parametri; attraverso tecniche di campionamento estraggo un campione sul quale svolgo l’indagine, rilevando i dati empirici e facendo stime campionarie, basate sui parametri del campione, per poter stimare con l’inferenza statistica i parametri della popolazione. CARATTERISTICHE DEL CAMPIONE La validità interna di un campione misura quanto i risultati di uno studio sono corretti per il campione studiato. Negli studi clinici è legata alla correttezza dell’impostazione dello studio stesso, della scelta delle tecniche diagnostiche, da un loro corretto utilizzo e da una buona analisi dei dati. La validità interna può essere compromessa dalla variazione casuale e dai bias. La validità esterna rappresenta il grado di generalizzabilità delle conclusioni di uno studio, per esempio se i risultati di uno studio epidemiologico sono applicabili anche ad altri pazienti con la stessa caratteristica. La validità esterna misura il grado di verità dell’assunto secondo cui gli individui studiati con il campione siano assimilabili ad altri pazienti con la stessa patologia. 23 Requisiti del campione · Numerosità: entità numerica numero delle unità statistiche che fanno parte del campione · Rappresentatività: capacità del campione di riprodurre caratteristiche essenziali della popolazione al quale appartiene Il campione deve essere affidabile per i risultati ottenuti, ovvero deve essere rappresentativo. Vengono considerati rappresentativi i campioni selezionati secondo criteri casuali. Un campione è rappresentativo quando probabilisticamente rappresenta l’universo campionario. La statistica consente di definire la numerosità campionaria per garantire la rappresentatività e l’applicabilità delle tecniche inferenziali. Esempio · Si vuole conoscere l'età media di un gruppo di 600 persone che frequentano un centro di riabilitazione. · Poiché non abbiamo la possibilità di accedere ai documenti di tutti gli ospiti, estraiamo un campione di 6 soggetti e gli poniamo la domanda e calcoliamo la loro media. · É evidente che, con questo metodo, avremo un valore che si potrà scostare anche di parecchi anni dalla media della popolazione da cui essi provengono. · Se intervistiamo altre persone e le aggiungiamo alle prime, la nuova media ottenuta sarà più vicina a quella vera; cioè, l'accuratezza della nostra stima aumenterà con il numero di persone intervistate, però non otterremo una misura perfetta finché non avremo intervistato tutti gli ospiti. MODALITÀ DI SELEZIONE DEL CAMPIONE · non probabilistico - scelta di comodo (campionamento per quote) - scelta ragionata (campionamento ragionato) · probabilistico - randomizzazione semplice - randomizzazione sistematica - randomizzazione stratificata Il processo di randomizzazione consiste nell’assegnare a ogni unità della popolazione una uguale probabilità di essere inclusa nel campione. La selezione si può effettuare per sorteggio, con il lancio di dadi o monete, utilizzando tabelle di numeri casuali. La buona rappresentatività 24 del campionamento casuale fa riferimento alla probabilità elevata di selezionare individui che presentano valori concentrati in corrispondenza della tendenza centrale (distribuzione gaussiana). Minore probabilità è associata all’estrazione di individui con scostamento più elevato dalla media. PROCEDURA DI CAMPIONAMENTO CASUALE 25 Statistica medica 13/10/2022 - Prof. Leuter L’inferenza statistica Autore: Gustavo Valente - Revisore: Davide Khayat Abbiamo introdotto la volta scorsa il concetto di “campione”, di “popolazione”; e abbiamo visto come per la metodologia dell’inferenza statistica, noi possiamo generalizzare i risultati delle indagini campionarie, quindi degli studi svolti su un numero ridotto di unità statistiche alla popolazione da cui il campione è stato estratto. Quando parlo di estrazione di campione “casuale”, chiaramente non faccio riferimento a estrazione a caso, anche perché le metodologie di campionamento riferite all’inferenze statistiche sono metodologie rigorose, che devono essere rispettate per far si che le stime campionarie si avvicinino sempre di più ai valori veri e sconosciuti della popolazione. La statistica inferenziale può essere divisa in due aree generali, quella che attraverso le metodologie riesce a generalizzare dei risultati su una popolazione di cui non si conoscono le caratteristiche, pertanto grazie al campione, o ai dati campionari, riescono a stimare questi valori sconosciuti (parametri) della popolazione. Il problema importante che si dovrà affrontare nel momento in cui svolgiamo delle indagini campionarie, è l’errore di campionamento; ricordiamoci che noi lavoriamo su un numero ridotto di unità statistiche, dobbiamo per cui assicurarci che i nostri dati campionari riescano a stimare le caratteristiche vere della popolazione, ma ovviamente possiamo dire con certezza che non potremo mai conoscere nella realtà le caratteristiche vere della popolazione perché le nostre stime saranno sempre affette da errore, ecco perché si chiama errore di campionamento. Però facendo sempre riferimento alle metodologie dell’inferenza statistica, noi questo errore campionario lo possiamo controllare, ciò significa che lo possiamo quantificare, l’unico problema è chiarire a che tipo di errore facciamo riferimento, perché avremmo una diversa tipologia di errori. Quando parliamo di, “dati”, “indagine campionaria”, “risultati”, “inferenza statistica”, “controllo dell’errore”, siamo sempre nel campo della probabilità, quindi i limiti di questo errore campionario saranno sempre stimati con le teorie e con il calcolo delle probabilità. Nell’errore di campionamento, un errore inevitabile è quello accidentale, che è determinato dalla casualità, e uno degli elementi fondamentali è la variabilità degli individui. Valutazione di due farmaci, un farmaco A e B, da precedenti studi so per certo che questi due farmaci hanno un’identica efficacia, però può accadere che nel mio studio sperimentale che il farmaco A abbia avuto una maggior sopravvivenza nei pazienti, rispetto a quelli trattati con il 26 farmaco B. La prima cosa da sospettare è che il mio studio non sia stato fatto correttamente, incorrendo in dei Bias (baies), oppure in assenza di errori nel protocollo posso dire che ha agito la variabilità biologica, la variabilità degli individui, perché se questi due gruppi sono stati scelti in maniera casuale, può accadere che i soggetti trattati con il farmaco A, a livello fisiologico, avevano delle caratteristiche tali che mi hanno determinato una diversa efficacia dei due farmaci. Se non ci fosse variabilità, l’errore sarebbe stato nullo. Altro tipo di errore, ha a che fare con la correttezza dell’indagine campionaria, il così detto errore di selezione; una selezione viziata comporta che il campione non è rappresentativo, il campione deve avere due proprietà (numerosità e rappresentatività), l’unico modo per evitare un errore di selezione è la randomizzazione, ovvero l’estrazione delle unità campionarie, deve essere fatta con metodi rigorosamente casuali, il problema che sta a monte è che i risultati saranno distorti poiché ha agito un fattore che ha dato risultati non confrontabili con quelli della popolazione o addirittura ha agito nella formazione dei gruppi. Esempio le sperimentazioni cliniche, dove do due farmaci a due gruppi di pazienti, l’errore di selezione può comportare una grave distorsione dei risultati. Abbiamo due gruppi A e B per una caratteristica X, hanno la stessa patologia e sono ricoverati in due aziende ospedaliere diverse, il trattamento terapeutico T1 è stato somministro ai pazienti del gruppo A e il trattamento T2 è stato somministrato ai pazienti del gruppo B. Ho assistito a un numero più elevato di guarigioni nel gruppo A, la prima domanda che mi faccio è “il trattamento T1 ha una maggiore efficacia del T2”, voglio controllare prima se per caso, prima di giungere alla conclusioni, ha agito un altro fattore che è diverso dalla terapia X, es: una variabilità biologica; errore di selezione; differenza di età; caratteristiche fisiologiche; qualità dell’assistenza; quelli del gruppo A sono in peggiori condizioni. L’assistenza può essere migliore nell’ospedale T1 che nell’ospedale T2, dovuto da diversi fattori; può anche essere successo che nell’ospedale dove si è riscontrata un’efficacia minore, sia in realtà migliore, poiché i malati gravi si rivolgono all’ospedale migliore. Distorsioni da confondimento, cioè, un aspetto che crea confusione nell’interpretazione dei risultati, può anche determinare un problema nell’individuazione dei gruppi, rendendoli inconfrontabili tra loro; uno di questi fattori può essere l’età. Esempio delle cavie: ho uno stabulario con 50 cavie, ho un farmaco per fare delle prove, e voglio che un campione di 10 cavie casuali, somministro il farmaco e confronto ciò che succede. Prende casualmente 10 cavie potrebbe nascondere una distorsione da confondimento, potrei prendere animaletti che già stanno male. Altra cosa molto ricorrente è di inserire nel web i questionari, si manda il link ai professionisti per far compilare il questionario, l’unico problema è dare l'importanza che meritano quei risultati, poiché ha agito un processo di auto selezione, poiché hanno risposto quelli che lavorano sul web; quelli che hanno voglia di aderire al questionario, ecc. 27 Un fattore di confondimento può anche essere il sesso (maschio; femmina), per esempio nelle terapie sperimentali vengono analizzati più uomini, non si può quindi fare un paragone con le donne; altro fattore può essere l’età, chi è più anziano è più soggetto ad ammalarsi. Bisogna dunque dividere per età, soggetti anziani/soggetti giovani, divisi per sesso. L’unico modo per evitare errori, è il campionamento casuale (randomizzazione), numerando le nostre unità e in maniera casuale, random, selezione quelle che faranno parte del nostro campione. La divisione e l’individuazione di due campioni esattamente identici è impossibile, pertanto con la randomizzazione le differenze possono essere attenuate; per esempio se so che in una popolazione x ci sono anche 20 soggetti affetti da diabete, se i due gruppi li scelgo in modo casuale, è difficili che tutti i soggetti affetti da diabete finiscano in un solo gruppo, ci sarà un bilanciamento. È impossibile che i gruppi possano essere identici, ma si fa in modo che possano essere confrontabili. Se io ho formato due gruppi e ho controllato l’errore accidentale, i due gruppi sono stati scelti in modo random, se faccio un test statistico per valutare l’efficacia di un farmaco, il valore che avrò dal test statistico, sarà affidabile. Metodi complessi di campionamento Non sempre riesco a estrarre un campione casuale, ho bisogno di numerare tutte le unità della popolazione, se la popolazione è indefinita (N), questo è impossibile; oppure non sono in grado di numerare le unità perché la popolazione è suddivisa in un territorio molto vasto. Per esempio: se devo studiare il ricorso alla medicina preventiva in una popolazione della nostra regione, possono andare all’ufficio anagrafe del Lazio e farmi fare un listato di tutti i soggetti dai 18 anni in su, una volta che ho il listato estraggo il campione; quando estraggo un campione posso avere mille persone a Roma, 50 a Frosinone, 10 a latina, dovuto alla casualità ed è distribuito in un’area molto vasta, creandomi qualche problema; posso però dividere la popolazione in sottogruppi (età, sesso, ecc). Devo ricordare che in un campione randomizzato, le persone estratte devono avere la stessa probabilità di entrare a far parte del mio campione, altrimenti cadiamo nell’errore distorto. Una dei metodi più usato è il campionamento stratificato, negli approfondimenti, indagini di popolazione, studi epidemiologici; la popolazione esaminata viene divisa in strati, da studi precedenti sono a conoscenza della presenza di un fattore che condiziona il fenomeno che sto studiando, la condizione essenziale è che in ogni strato io procederò all’estrazione dei campioni in modo casuale. 28 Gli strati devono avere una numerosità adeguata, le condizioni per usare una stratificazione sono, ad esempio, avere sottogruppi omogenei di popolazione per una caratteristica X; posso stratificare in base ad una patologia; aziende ospedaliere in base ai numeri di posti letto. Decido di estrarre uno o più sottocampioni da questa popolazione divisa in strati, l’aspetto più ricorrente è estrarre la stessa proporzione di individui, nel momento in cui io so che ho diviso questi strati, ci sono alcuni strati che, in base alla caratteristica, sono più numerosi di altri. Esempio: se io devo estrarre un campione da una popolazione in base all’età, la divido per classi di età (giovani/adulti/anziani), se in questa popolazione la prevalenza è quella di anziani, sarà questo lo strato più rappresentato , per tanto andrò a randomizzare lo strato di anziani e avrò un numero più alto di unità statistiche perché deve essere lo strato maggiormente rappresentato, ci deve essere una proporzione di individui che rispecchi lo strato. Altro metodo è dividere la popolazione in tanti strati; se per esempio decido di campionare in maniera proporzionale in base all’ampiezza dello strato, utilizzerò questa formula=) ni=Ni/N x n Dove ni (la sommatoria di n), sono tutti i soggetti campionati all’interno dello strato, quindi io devo estrarre mille soggetti in una popolazione di un milione di unita, ho individuato due strati (maschi e femmine), N1= 600.000 e N2= 400.00, il primo strato sarà N1 e il secondo sarà N2, ho rispettato l’ampiezza degli strati. Proprio perché il campione è casuale, all’interno possono capitare soggetti con diverse caratteristiche, ma se io conosco che il fenomeno è determinato dalla distribuzione per età, a me conviene eseguire un campionamento stratificato, l’unico problema è che devo conoscere com’è distribuita quella popolazione per quel fattore. Esempio su una campagna di prevenzione delle malattie cardiovascolari, e si vuole conoscere il livello di colesterolemia della popolazione, decido di estrarre un campione casuale, potrebbe però esserci una sovra rappresentazione dei giovani, che sono i meno afflitti dal problema della colesterolemia, decido dunque di scegliere un target, gli adulti tra i 45 e i 65 anni. Divido il territorio e calcolo la % in quel comune, di residenti compresi tra i 45 e i 65 anni, vedo così la consistenza di quel sottogruppo; decido di campionare in modo proporzionale i soggetti, rispettando la dimensione dello strato. Così facendo mi garantisco una maggiore rappresentatività della campagna, tenendo conto solo dei soggetti realmente a rischio. Altro tipo di campionamento è il campionamento a più stadi, si fanno più campioni. Si campionano i comuni (primo stadio), dal quale campiono delle famiglie (secondo stadio). Lo studio e lo concentro sulle famiglie in un territorio ristretto, lo svantaggio è una minore precisione delle stime, più il campione diventa complesso e articolato, più si accumulano errori. Indagine su una prevalenza di una malattia in una popolazione, per esempio scelgo di fare un campione casuale tra tutti i soggetti che si sottopongono allo screening, divido in altri due sottogruppi (positivi e negativi al test), poiché voglio stimare la prevalenza di una malattia in una malattia, poi posso fare ulteriori indagini su quelli positivi. 29 L’inferenza statistica è l’insieme delle tecniche che hanno come obiettivo la ricerca del grado di validità di ciò che è stato osservato su uno o più campioni estratti da una popolazione più ampia, con termini probabilistici. Se devo commentare i risultati sull’efficacia di un trattamento su una popolazione posso dire che con una elevata probabilità quel farmaco è in grado di controllare ‘l’ipertensione nei pazienti, un clinico non dirà mai che è sicuro al 100%, parlerà sempre in termini probabilistici. L’inferenza statistica ha due applicazioni, la stima di parametri (media e deviazione standard) sconosciuti della popolazione attraverso le stime campionarie, attraverso i miei dati campionari io stimo degli aspetti sconosciuti della popolazione; altro aspetto è la verifica delle ipotesi, valutare cioè la probabilità che un certo fenomeno che sto osservando è dovuto ai fattori he sto studiando oppure i risultati che ho ottenuto sono dovuti alla casualità. Esempio: il nuovo farmaco porta dei risultati migliori del farmaco standard, questo è dovuto alla migliore qualità del farmaco o alla variabilità genetica? Dalla casualità. Parametri e stime, i primi sono i valori oggetti del nostro studio che sono sconosciute, le seconde sono funzioni delle osservazioni campionarie, dei nostri dati, espressi con media, variabilità, frequenza. Tutti i campioni sono il frutto di estrazioni casuali, fino ad esaurire tutti i possibili risultati di un esperimento. Stimatori: tutte le possibili stime di un parametro Stima e stimatore sono il risultato della nostra indagine campionaria. Attraverso i miei dati produco delle stime che mi consentono di conoscere i parametri sconosciuti della popolazione, però, queste stime devono avere delle caratteristiche, cioè correttezza, (quando coincide con il parametro che vuole stimare), se la stima è corretta quel valore si avvicina al parametro sconosciuto della popolazione altrimenti si spera che sia dovuto alla casualità e non ad un Bayes; efficienza (si ritiene più efficiente il parametro con varianza minima, poiché più rappresentativi del parametro); consistenza. La conoscenza delle medie campionarie, consente di rispondere in termini di probabilità a problemi di inferenza sulle medie. 30 Statistica medica 17/10/2022 - Prof. Leuter Epidemiologia di una Pandemia Autore: Ludovico Iuliano - Revisore: Matilde Cinughi de Pazzi Ogni mutazione avviene in maniera totalmente casuale (es: la SARS Covid-19 ha avuto circa 300.000 mutazioni), tuttavia molte di queste mutazioni vengono “perse” dai virus in quanto biologicamente non apportano alcun vantaggio. Le mutazione che rimangono all’interno del genoma sono quelle che biologicamente danno un vantaggio evolutivo, ovvero riescono a sfuggire al nostro sistema immunitario. La prevenzione che viene fatta sui virus avviene sulla “sorgente” del virus stesso. Le zoonosi sono tutte le malattie che si trasmettono dagli animali all’uomo e le loro origini presentano due tendenze principali: 1. Il virus è passato normalmente dalla fauna selvatica all’uomo; 2. Il virus è stato studiato in laboratorio, da cui è sfuggito, per errore umano; (spillover = salto di specie/passaggio animale uomo) EPIDEMIA: è rappresentata da più casi di malattia che si presentano in un gruppo di individui o nella stessa popolazione entro un breve periodo di tempo. CASO INDICE: è il primo caso di malattia che introduce il contagio nel gruppo. Durante un’epidemia, per andare a capire quale è la percentuale di individui colpiti dalla malattia in questione, bisogna calcolare quello che viene chiamato “Tasso di attacco”, ovvero la percentuale di persone che viene colpita dalla malattia in un tempo definito. TASSO DI ATTACCO: percentuale di soggetti che si ammalano in un determinato periodo. CASI SECONDARI: sono i casi che prendono origine dal caso indice. In presenza di casi secondari si avrà un “Tasso di attacco secondario” con lo stesso principio del tasso di attacco “primario”. Si va incontro ad epidemia nel momento in cui vi è la comparsa di un numero di casi per una determinata malattia insolitamente elevato e/o non atteso in un determinato intervallo di tempo, in una determinata popolazione e/o area geografica e per una causa comune sospetta o determinata. L’epidemia è limitata nello spazio e nel tempo, al contrario, la pandemia è un qualcosa che è limitata nel tempo ma non nello spazio, anzi va ad interessare più “paesi”. Si possono anche avere “casi sporadici” che non sono limitati nello spazio e nel tempo e che avvengono saltuariamente in maniera casuale nello spazio e nel tempo. 31 L’Endemia è limitata nello spazio ma non nel tempo. Si parla di virus endemizzato quando questo è limitato come numero di contagi, ma può dar luogo a piccole ondate epidemiche temporali. Con il termine Endemia si può quindi intendere “il succedersi costante e continuo di un numero non elevato di casi di una patologia in una determinata zona geografica”. All’interno di una curva epidemica si parla di “picco” facendo riferimento ad un numero di casi più o meno costante dopo il quale c’è una importante diminuzione nel numero di casi. La “lentezza” della discesa della curva dipende da quanto le persone riescono a non contagiarsi tra di loro durante l’evento epidemico. I cicli epidemici, i quali possono essere stagionali e poliannuali, fanno riferimento ad alcune caratteristiche di alcune malattie che favoriscono la loro maggiore diffusione in alcuni periodi dell’anno. Lo studio di una epidemia parte dalla definizione della sua esistenza. In primo luogo si parte dal distinguere l’epidemia dai casi sporadici e successivamente si fa un accertamento diagnostico con dei test specifici. Infine, si procede per con la formulazione di un'ipotesi e la sua verifica: in base ai risultati di tali passaggi si ha la formulazione di una conclusione. Gli ultimi due passi da fare sono: 1. Controllare il fenomeno 2. Attivare misure preventive 32 Nello specifico per definire l’esistenza di un’epidemia si procede con la ricerca di casi non riconosciuti o non riportati, la definizione della popolazione a rischio e infine il confronto dell’incidenza (incidenza = rischio di malattia) attuale della patologia con quella di periodi precedenti. Al contrario, per l’accertamento diagnostico vengono utilizzate delle tecniche che consentono di distinguere i casi subclinici andando a distinguere le patologie che risultano simili a quella in esame. Caso sentinella: caso insorto precedentemente al vero e proprio inizio del movimento epidemico, in soggetti che presentino caratteristiche tali da suggerire ipotesi casuali o contribuire a definire comunque il periodo di incubazione della malattia. 33 Statistica medica 24/10/2022 - Prof. Ciccozzi Gli Studi Epidemiologici Autore: Arianna Rizzo - Revisore: Federica Bruschi Il metodo epidemiologico consiste nel: 1.Porre un’ipotesi 2. Verificarla per mezzo di una ricerca specifica 3. Utilizzare le conclusioni per porre nuove ipotesi La realizzazione di questo metodo si avvale dell’utilizzo, in successione di tre tipi di indagine di complessità ed efficacia, gradualmente crescenti: -DESCRITTIVE (utile a fare una programmazione della struttura sanitaria, poiché aiuta la prevenzione -ANALITICHE (vanno a studiare l’ipotesi) -SPERIMENTALI (si effettua sul campo) STUDI EPIDEMIOLOGICI DESCRITTIVI Rivelano la frequenza e distribuzione spaziale di eventi sanitari in popolazioni o gruppi di individui (mortalità, morbosità, natalità, ecc.). Gli studi descrittivi sono importanti perché: · Richiamano l’attenzione del medico sulle caratteristiche degli individui che hanno maggior rischio di contrarre una malattia, su dove e quando questa potrà manifestarsi. · Forniscono informazioni essenziali sulla programmazione delle strutture sanitarie · Rappresentano la tappa fondamentale per procedere alla formulazione di ipotesi eziologiche che andranno poi verificate attraverso studi epidemiologici analitici. 34 TAPPE DI UNO STUDIO DESCRITTIVO 1. Definizione degli obiettivi 2. Individuazione delle informazioni disponibili (da qualunque fonte scientifica) 3. Individuazioni delle informazioni realmente utili (vengono eliminate le superflue e quelle che vanno contro le mie idee) 4. Raccolta ed elaborazione (si uniscono tutte le informazioni appartenenti a ciascuna variabile) L’EPIDEMIOLOGIA DESCRITTIVA RISPONDE A TRE QUESITI : 1. Chi è interessato dal fenomeno di massa? (es morbillo) 2. Quando si manifesta il fenomeno di massa? 3. Dove si produce il fenomeno di massa? ANALISI DELLE CARATTERISTICHE DELLA POPOLAZIONE: Il passaggio fondamentale è accertare le caratteristiche degli individui interessati o meno da un determinato evento (o malattia): · Età insieme al sesso è il confondente principale · Sesso · Razza · Luogo di nascita · Caratteristiche familiari · Stato di nutrizione ANALISI DELLA DISTRIBUZIONE TEMPORALE ANALISI DELLA DISTRIBUZIONE SPAZIALE · Fornire un quadro descrittivo del fenomeno secondo la sua distribuzione spaziale (fattori di rischio ambientali) · Contribuire alla formulazione di ipotesi eziologiche RAPPRESENTAZIONE CARTOGRAFICA DELLA PREVALENZA DELLA DEGENERAZIONE MACULARE SENILE IN EUROPA RAPPRESENTAZIONE CARTOGRAFICA DELLA MORTALITÀ PER TUMORI 35 STUDI DESCRITTIVI VANTAGGI SVANTAGGI Dati rilevati routinariamente e spesso Mancanza di solito di ipotesi specifiche disponibili già parzialmente elaborati Buona completezza della rilevazione Dati personali non disponibili per mortalità e ricoveri ospedalieri Uso di classificazioni standard Talora non disponibilità di “denominatori” adeguati o non omogeneità tra numeratore e denominatore Dati spesso disponibili in ritardo Uso di classificazioni standard spesso superate o troppo grossolane SORGENTI DI DISTORSIONE Attendibilità del dato originale dubbia, variabile nel tempo e nello spazio e comunque difficilmente controllabile Variabilità nella codifica STUDI ECOLOGICI (o DI CORRELAZIONE) · Sono studi che si pongono in una posizione intermedia rispetto agli studi descrittivi e quelli analitici; · Stimano la relazione fra insorgenza della malattia ed entità di esposizione per aree geografiche o intervalli di tempo; · Oggetto di studio (non singolo individuo) ma area geografica di residenza; · I dati sono già raccolti. 36 Vantaggi Svantaggi · Rapidità di esecuzione · Fallacia ecologica: le · Economici associazioni saggiate a livello · Valido per generare individuale (non è possibile ipotesi sapere se il fattore di rischio · Può consentire una e la malattia siano iniziale valutazione compresenti nello stesso dell’associazione soggetto) esposizione-effetto. · Confondimento: non sono in · Indagare gli effetti sulla grado di separare l’effetto di salute esercitati da fattori una variabile correlata alla ambientali o da malattia da quello di altre caratteristiche proprie variabili correlate sia con la dei gruppi (es. Herd malattia che con la variabile immunity) in studio. · Valutare esposizioni che I diversi motivi per cui non si elimina variano poco all’interno il confondimento sono: delle popolazioni, ma 1. I gruppi a confronto, variano molto tra appartengono spesso a popolazioni (es. carenza popolazioni diverse, e di iodio) differiscono tra loro · Evidenziare andamenti 2. Non sempre sono geografici e/o temporali disponibili dati routinari sui nella distribuzione di potenziali confondenti malattie 3. Molti fattori sono più correlati tra loro a livello di popolazione che a livello individuale. · Ciò comporta l’impossibilità di disaggregare l’effetto di ciascuna delle variabili per il carattere aggregato (ecologico) dell’informazione relativa all’esposizione e alla malattia. 37 SORGENTI DI DISTORSIONE Bias di informazione: errori sistematici durante l’acquisizione dei dati Variabilità: dei metodi di rilevazione e dei criteri di classificazione Utilizzo dei dati di MORTALITA’ piuttosto che di MORBOSITA’, in quanto la mortalità potrebbe far emergere una diminuzione che non corrisponde alla vera diminuzione del tasso di malattia ma al miglioramento del sistema di cura. STUDI EPIDEMIOLOGICI ANALITICI O INVESTIGATIVI -Scopo: individuare la causa delle malattie ed i fattori che ne favoriscono od ostacolano l’insorgenza e la diffusione Distinguiamo: 1. Studi trasversali 2. Studi longitudinali 1. STUDI TRASVERSALI (o DI PREVALENZA) È un’indagine osservazionale i cui dati sono raccolti sulla base di obiettivi di conoscenza specifici e che mira a misurare in una popolazione la presenza di una o più condizioni a un ipotetico istante t, dunque la dimensione tempo è assente. L’associazione tra l’oggetto di studio e ciò che si evidenzia NON è mai casuale, poiché la mancanza di un intervallo di tempo non permette di distinguere quali dei due precede l’altro. (es. prevalenza disordini mentali maggiore nei soggetti di bassa classe sociale) La misura di occorrenza tipica degli studi trasversali è la PREVALENZA (puntuale o di periodo). Obiettivi: · Stima della prevalenza · Stima della distribuzione dei fattori di rischio nella popolazione · Stima della distribuzione di caratteristiche biologiche della popolazione · Studio, attraverso indagini ripetute, dell’evoluzione di una caratteristica di salute o di una esposizione ad un rischio nel tempo · Studio della domanda e offerta di prestazioni per la pianificazione di servizi o interventi sanitari · Generazione di ipotesi etiologiche nel rapporto casuale di malattie e fattori di rischio. Protocollo di uno studio trasversale 1. Definizione degli obiettivi 2. Valutazione del modello di studio 38 3. Rassegna bibliografica 4. Scelta e definizione della popolazione di studio (campionamento) 5. Scelta e definizione delle variabili da rilevare 6. Scelta e definizione dei metodi di rilevazione 7. Scelta e definizione delle modalità di presentazione dei dati e delle tecniche di analisi statistica 8. Scelta e addestramento dei rilevatori 9. Studio pilota 10. Procedura di controllo e analisi dei dati Vantaggi Svantaggi -Studio di elezione per descrivere lo -Impossibilità di determinare la stato di salute di una popolazione sequenzialità temporale e quindi -Strumento più potente per studiare la distinguere CAUSA ed EFFETTO distribuzione di condizioni frequenti e -I casi prevalenti individuati di lunga durata potrebbero rappresentare soprattutto i -Stima della domanda sanitaria casi di malattia di lunga durata -Limitato utilizzo di risorse e tempi di (selective survival bias) ed indicare realizzazione brevi pertanto non un’associazione causale ma prognostica -Poco adatti a studiare eventi/esposizioni molto rare -Poco adatti a studiare malattie di breve durata 39 Statistica medica 27/10/2022 - Prof. Ciccozzi Studi Casi-Controllo Autore: Mariagrazia Liguori- Revisore: Maria Sole Caselli Nell’arco di 10 anni è diminuita la percentuale di HIV grazie alla prevenzione. Studio caso-controllo: sapendo le persone malate della malattia che sto studiando e avendo a disposizione le cartelle cliniche, voglio capire qual è il fattore di rischio. Seleziono dei casi (presenza malattia) e dei controlli (assenza malattia) e li confronto in base ai fattori di rischio identificati. Creiamo una tabella 2*2 dove mettiamo casi e controlli e le persone esposte e non esposte al rischio. Quale è la probabilità di ammalarmi? Si chiama ODDS: la probabilità che l’evento accada diviso la probabilità che l’evento non accada. 40 Il rapporto tra “a” (uguale ai malati esposti al fattore di rischio) diviso il totale dei malati (x) mi dice qual è la probabilità di ammalarsi se io sono esposto. “b” diviso “ y”; b=persone che sono senza malattia ma sono esposti al fattore di rischio; Y=il totale dei sani Coorti prospettiche ODDS>1 vuol dire che il numeratore è più grande quindi il fattore di rischio (fumo di sigaretta) è importante e molto probabilmente determina la malattia (tumore ai polmoni) e le persone 41 esposte a quel fattore di rischio probabilmente si ammalano di più rispetto a quelle non esposte. Quando l’ODDS è uguale a 1 vuol dire che il fattore di rischio non c’entra nulla con la malattia e il numeratore è uguale al denominatore. Studi di coorte 42 Tasso di incidenza: quanto rischio di ammalarmi se fumo e quanto rischio di non ammalarmi se non fumo Il rapporto delle due incidenze è il rischio relativo (RR). Un rischio relativo di 14 ci dice quanto è forte l’associazione tra il tumore del polmone e il fumo di sigaretta. 1,9 ci dice quant’è l’associazione tra la malattia cardiovascolare e il fumo di sigaretta. La differenza delle incidenze mi dà il rischio attribuibile (RA) e mi indica quante persone posso risparmiare in termini di malati se tolgo di mezzo il fattore di rischio. Studi di coorte 43 Statistica medica 03/11/2022 - Prof. Leuter La verifica delle ipotesi Autore: Maria Sole Caselli - Revisore: Federica Bruschi La verifica delle ipotesi è un assunto teorico su un fenomeno che, in base ai nostri dati, può essere o meno accettato. Per decidere se accettarlo o no si utilizzano i test statistici (o test d’ipotesi) che diventano delle vere e proprie regole di decisione. Ogni test statistico ha una propria distribuzione di probabilità che, con il confronto del valore dei dati empirici con i valori teorici della distribuzione di probabilità, consiglia se accettare o rifiutare l’ipotesi teorica di partenza. Tutto ciò che è utilizzato come verifica delle ipotesi statistiche è usato in termini probabilistici. Le metodologie delle inferenze statistiche possono essere distinte in: metodologie che stimano un parametro sconosciuto dell’universo e metodologie che verificano un assunto teorico riguardo l’accadere di un fenomeno. Cosa si intende per verifica delle ipotesi? Si supponga di dover verificare un parametro ignoto dove l’insieme di tutti i valori che questo possa assumere sia diviso in due aree: area di accettazione e area di rifiuto. Se H0 è definito come la situazione conoscitiva attuale del fenomeno, H1 è la soluzione alternativa ad H0. Accettare quest’ultimo significa rimanere nelle conoscenze attuali della distribuzione del fenomeno in analisi, H1 invece aggiunge informazioni modificando quelle già in possesso. L’esempio più chiaro può essere quello di parlare di una terapia farmacologica. H0, anche detta ipotesi nulla, è l’ipotesi che si deve rifiutare o accettare con lo studio. Se si volessero confrontare due farmaci di cui uno standard ed uno innovativo, si dovrebbe partire sempre dall’assunto di H0: i farmaci hanno la stessa efficacia; viceversa per rifiutare H0 si dovrebbe accettare H1: i farmaci hanno diversa efficacia. Rifiutando H0, ed utilizzando H1; si abbandonano le conoscenze attuali circa l’efficacia del farmaco standard e si entra nella dimensione delle nuove conoscenze relative ad H1. I test d’ipotesi hanno una loro distribuzione di probabilità e devono essere divisi in zone di accettazione e di rifiuto di H0. Se i valori del test si trovano nella zona di accettazione di H0 significa che non è possibile rifiutare l’ipotesi nulla, al contrario, se i valori del test si trovano nella regione o zona di rifiuto di H0, divisa nelle due code, si rifiuta l’ipotesi nulla e si entra nella dimensione dell’ipotesi alternativa. Si deve decidere come confrontare queste due ipotesi partendo da H0, l’ obiettivo è di rifiutarlo, ma può accadere che ciò avvenga erroneamente e che invece sarebbe dovuto essere accettato. Ciò significa che è stata evidenziata una diversa 44 efficacia tra i due farmaci quando invece questa era identica. Nel momento in cui si decide di accettare o rifiutare H0 esiste un rischio di sbagliare, seppur minimo. Bisogna quindi decidere una soglia di significatività α, negli studi è genericamente il 5%. La soglia di significatività è il rischio che un ricercatore accetta di correre affermando che i due farmaci abbiano un’ efficacia diversa quando invece questa è la medesima. Se il rischio di sbagliare è del 5% quando la soglia di significatività è al 95%, 95 volte su 100 rifiutando H0 non si commette errore, tuttavia può anche succedere di sbagliare nel rifiutarlo quando invece sarebbe dovuto essere accettato. L’area di rifiuto di H0 si può trovare sulle due code, nel caso di test zeta bidirezionale, espressa da valori maggiori e minori di quelli dichiarati nell’ipotesi nulla; in un test unidirezionale, o ad una coda, il rischio α si trova solo su una coda della distribuzione. Generalmente è sempre utilizzato un test a due code in quanto più conservativo, tuttavia ci sono casi in cui è poco utile. É importante invece se è richiesto di confrontare un nuovo trattamento con un placebo. In questo caso si devono cercare sia i valori inferiori descritti da H0 sia quelli superiori, nel caso del test ad una coda, invece, se bisogna confrontare una terapia standard con una nuova, tendenzialmente più costosa, è evidente che l’interesse è di dimostrare che sia migliore di quello standard. Si usa quindi il test ad una coda quando si è interessati a constatare che il farmaco nuovo sia migliore di quello standard e di conseguenza verranno usati solo i valori che dimostrino che l’efficacia sia maggiore tenendomi quindi solo su una coda della dimostrazione. Rifiutando H0 si possono commettere due tipologie di errori di decisione: errori di primo tipo α ed in errori di secondo tipo β. L’errore α, si commette rifiutando l’ipotesi nulla quando invece questa sarebbe dovuta essere accettata. Dal punto di vista epidemiologico dei test diagnostici, l’errore di primo tipo è un falso positivo: si è ammessa una differenza tra i due farmaci quando invece non c’è. Nell’errore di secondo tipo si accetta erroneamente l’ipotesi nulla, si afferma che i due farmaci abbiano la stessa efficacia, quando invece sarebbe dovuta essere rifiutata e si genera quindi un falso negativo. Quando si parla di errore di secondo tipo la probabilità 1-β è chiamata potenza del test. L’ aumento del numero delle osservazioni, che comporta un aumento della precisione del test, è l’unico modo per controllare l’errore di secondo tipo. In questa immagine una parte dei dati rientra nella zona di rifiuto e di accettazione di H0; c’è un’ unione di risultati che possono indurre a commettere un errore, l’errore che più si vuole evitare è quello α o di prima specie( rifiuto H0 quando invece avrei dovuto accettarlo). 45 Il P value è quel valore che, una volta definito il test statistico, si utilizzerà per lo studio; ci informa sulla probabilità che la differenza osservata sia dovuta alla casualità o meno. Questo è importante anche quando si parla di errore accidentale: errore che è insito in qualsiasi studio ma che è determinato prevalentemente dalla variabilità dei soggetti. Questo valore P deve essere inferiore o uguale a 0,05, con un livello di significatività del 95%, per rifiutare H0, viceversa se il valore del P value è maggiore di 0,05 bisogna accettare H0. NB. Quando si parla di non rifiutare H0 non significa che sia necessario per forza accettarlo. Cause di errore possono essere riscontrate nella variabilità biologica, un portocollo eseguito male o semplicemente la casualità. Se si è convinti dell’esistenza di un errore, è possibile decidere di ripetere lo studio, aumentare la numerosità campionaria o selezionare diversamente i pazienti. Nella verifica delle ipotesi la prima cosa da fare è precisare H0 e H1, ipotesi nulla ed ipotesi alternativa, poichè questo è l’obiettivo dello studio. I test statistici, attraverso software statistici, si elaborano in un nano secondo, definiscono il valore di P ed altri parametri, ma l’interpretazione dei valori è personale. Bisogna scegliere quale test utilizzare ed una volta ottenuto il risultato si devono interpretare i dati. Si precisa l’area di rifiuto di H0, ovvero la soglia di significatività α, e quindi si fissa una regola di decisione in base ai valori del test verificando quali valori cadono nella zona di rifiuto e di accettazione di H0. Esercizio: Il tasso medio di acido urico in 52 uomini è di 7,5 mg, quando nella popolazione normale è di 5,7 mg con una deviazione standard di 1. Bisogna capire se questo valore riscontrato in 52 soggetti sia più elevato a causa della fluttuazione oppure perché ha agito un fattore che ha alterato l’acido urico. Il test Zeta è utilizzato quando la numerosità è abbastanza elevata, a partire dalle 30 unità statistiche tendenzialmente. Limitatamente a questo test bisogna ricordare di determinare H0 e H1, il livello di significatività, il P value e decidere quale test utilizzare. Fissato α, livello di significatività al 95%, l’area di rischio che si corre rifiutando H0, quando avrei dovuto accettarlo, è di 0,05. Per il 95% ho -1,96 e +1,96, ho diviso l’area in zona di accettazione e zona di rifiuto in base alla distribuzione della variabile zeta sulle tavole, per il 95% abbiamo 1,96. 12,9 è un valore è positivo e quindi si può dire che i dati empirici consentono di rifiutare H0 in quanto cade nell’area di rifiuto. Il risultato è quindi statisticamente significativo poiché, rifiutando H0, si afferma che i 52 soggetti si differenziano poiché ha agito il fattore di studio. 46 Uno dei test più utilizzati è il T di student, test parametrico, che si applica quando conosciamo la media, la deviazione standard ed il campione analizzato; è utilizzato quando la la numerosità è estremamente ridotta. I campioni si definiscono appaiati quando per ogni unità statistica di un campione è associata un’altra unità statistica. Il test T si basa sui gradi di libertà, concetto algebrico matematico dove si deve ricordare che i questi si definiscono con 2( N-1) dove N è la numerosità campionaria. In un esempio si trovano poche unità statistiche, 18 soggetti, con una concentrazione di calcio plasmatico di 3,2 μmoli, a differenza di un valore normale di 2,5μmoli. Gli elementi del calcolo sono: la media della popolazione sana e quella rilevata nei 18 soggetti malati, la deviazione standard del campione, l’errore standard, la differenza tra le medie ed il grado di libertà (18-1). Il calcolo della t da come valore 2,69 Trovato quindi un valore 2,11, questo non può che cadere nell’area di rifiuto di H0. Parlando in termini di probabilità, qui α è 0,05 , è quindi poco probabile che quei 18 soggetti siano stati estratti dalla popolazione. 47 Quando si parla di significatività bisogna distinguere quella statistica e quella clinica; il risultato informa il clinico se i risultati del test sono statisticamente significativi ed egli poi deciderà come intervenire. Tuttavia non bisogna accettare in maniera assoluta i valori dati dal test statistico. Se i risultati dello studio non sono convincenti, è sempre possibile rifiutarli. Si dovrà poi necessariamente ripetere lo studio, aumentare la numerosità campionaria e correggere i valori che hanno portato quel risultato. Se esiste una differenza rispetto ad un parametro che può essere espresso tra due gruppi bisogna usare il test T di student. Questo test può essere usato sia per campioni indipendenti che per quelli appaiati. Questi ultimi, anche detti dipendenti, sono campioni dove ad ogni unità è accoppiata o un altro soggetto oppure un prima e un dopo dello stesso campione. Il caso più semplice dei test appaiati è quando ad un soggetto corrisponde un altro soggetto con le stesse caratteristiche, oppure quando abbiamo un unico campione e l’unità statistica fa da controllo del prima e dopo. TEST DEL CHI QUADRATO Poniamo attenzione sul fatto che fino ad adesso si è parlato di variabili quantitative continue, parametri, media e deviazione standard, tuttavia spesso capitano studi che utilizzano variabili categoriche o dicotomiche. Il Chi quadrato si usa proprio per le variabili categoriche. Es. Uno psichiatra vuole valutare eventuali differenze di classi sociali in un reparto psichiatrico rispetto ad un altro. Confronta i due campioni usando la percentuale di ricoverati e valutando l’efficacia di due trattamenti in base alla percentuale di soggetti guariti rispetto a quella di soggetti ad un altro trattamento. Nel test del Chi quadrato si parte da un assunto teorico di indipendenza tra le frequenze osservate in contesti diversi. Significa che, confrontando le frequenze osservate, i miei dati empirici, con le frequenze attese, ci si pone l’obiettivo di capire se esiste un’associazione tra le frequenze osservate. Per questo bisogna prima calcolare le frequenze attese, ovvero quelle che si sarebbero riscontrate in un modello di indipendenza. Esempio Ritengo che l’aspirina controlli la formazione di trombi e voglio confrontarla con un placebo. La formula del Chi quadrato è: Σ Χ2 = (O-A)2 /A. Si devono calcolare le frequenze attese: quelle che si sarebbero verificate in caso di indipendenza delle due caratteristiche. In questo esempio la tabella è due per due: pazienti che hanno sviluppato dei trombi e pazienti che non li hanno sviluppati/ quelli a cui hanno somministrato un placebo e quelli a cui hanno 48 somministrato l’aspirina. Il clinico ritiene che l’aspirina possa controllare l’insorgenza dei trombi e che quindi che esista una dipendenza tra l’assunzione di aspirina e la non assunzione. Secondo questo modello si calcolano le frequenze attese utilizzando la formula che in questo esempio corrispondono a 7,10. Per rifiutare H0: ci deve essere una differenza elevata tra i valori attesi e quelli osservati (O e A) Per accettare H0: non ci deve essere alcuna differenza Bisogna cercare un grado di libertà con un livello di significatività del 5%, in questo caso vale 3,841 che è inferiore a 7,10 (dato che ho calcolato con le mie osservazioni). È raro utilizzare il test zeta poiché difficilmente si arriva ad una numerosità tanto elevata (almeno 30 unità), se non per le indagini tipicamente epidemiologiche. La numerosità campionaria è la prima richiesta dei clinici allo statistico. Non c’è una risposta univoca sul numero preciso ideale, tuttavia è risaputo che dalla numerosità campionaria dipende l’errore, errore che diminuisce all’aumentare dei campioni in quanto le stime diventano più accurate. L’incertezza della stima è data dalla quantità di errori che si commettono nell’affermare che un certo valore è presente all’interno di un intervallo con un’elevata probabilità. Il livello di fiducia è il rischio di rifiutare H0 quando invece avrei dovuto accettarlo, ossia il rischio di dire che i due farmaci abbiano un’efficacia diversa quando invece non c’è alcuna differenza. 49 Statistica medica 07/11/2022 - Prof. Fabris Esercitazione Autore: Dora Bernaudo - Revisore: Emanuela Catalano 50 51 Statistica medica 14/11/2022 - Prof. Ciccozzi Teoria dei test di ipotesi Autore: Matilde Cinughi de Pazzi - Revisore: Mariagrazia Liguori Esistono dei test che stabiliscono se l’ipotesi fatta da noi sia vera o falsa. Si mettono sempre A e B a confronto. Ma come facciamo a sapere se tale differenza sia solamente dovuta al caso? Quanto del risultato osservato può essere spiegato dal caso? Si può pensare alla vera percentuale come allo sbilanciamento di una moneta. Non è possibile misurare questo sbilanciamento direttamente, ma si può solo stimarlo lanciando ripetutamente la moneta. 80% è la nostra stima dello sbilanciamento della moneta, ottenuta sulla base del nostro campione. Però il risultato osservato non ci aiuta a capire quale sia la vera percentuale che ci potremmo aspettare, se in futuro decidessimo di usare il trattamento A su un numero superiore di pazienti. Quindi dobbiamo anche quantificare bene l’errore nel risultato. In generale è mostrato l’errore standard o intervallo di confidenza al 95%. Quindi più è piccolo il campione, più è semplice che la mia ipotesi di base sia vera e più l’errore commesso è minore. Si può effettuare un test di significatività (o test di ipotesi) per rispondere alla domanda: “È statisticamente significativa la differenza fra A e B?” Si parte sempre dall’ipotesi nulla, ovvero A e B sono equipotenti e quindi non c’è differenza. Avendo osservato che la differenza è del 5%, qual è la probabilità di trovare una differenza uguale o superiore al 5% per solo effetto del caso, se A e B fossero equipotenti (quindi se l’ipotesi nulla fosse vera)? 52 Questa probabilità è detta “p” o “p-value”, ovvero è la probabilità di osservare una differenza della stessa grandezza o anche più grande per solo effetto del caso, se A e B fossero equipotenti. Quindi se la p-value è molto piccola, significa che anche la probabilità che la differenza sia dovuta al caso è anch’essa piccola. Ma quanto piccola deve essere? Per convenzione, si dice che valori inferiori al 5% sono statisticamente significativi e non sono dovuti al caso, quindi si rifiuta l’ipotesi nulla di equipotenza. Esempio sul grafico: se facciamo il test del chi-quadrato fra 80% e 75%, abbiamo come risultato p=0,81. Quindi la P di osservare una differenza del 5% semplicemente per effetto del caso è dell’81%. Non si può