Tecniche di Ricerca e Analisi dei Dati - Modulo IV PDF

Document Details

TopQualityPreRaphaelites5768

Uploaded by TopQualityPreRaphaelites5768

Università Cusano

Maria Stefania De Simone

Tags

analisi della varianza statistica inferenziale ricerca sperimentale dati

Summary

Questa dispensa tratta l'analisi della varianza (ANOVA), un metodo statistico per confrontare le medie di più di due campioni. Vengono descritti l'ANOVA a una via e fattoriale, con la spiegazione della logica sottostante e delle ipotesi da verificare. Include differenti tipologie di test e considerazioni sui disegni sperimentali.

Full Transcript

DISPENSE DELL’INSEGNAMENTO DI TECNICHE DI RICERCA E ANALISI DEI DATI Prof. Maria Stefania De Simone RICERCATORE Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone MODULO 4 L’ANALISI D...

DISPENSE DELL’INSEGNAMENTO DI TECNICHE DI RICERCA E ANALISI DEI DATI Prof. Maria Stefania De Simone RICERCATORE Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone MODULO 4 L’ANALISI DELLA VARIANZA (ANOVA) PARTE 1: L’ANOVA PER CAMPIONI INDIPENDENTI 1. INTRODUZIONE ALL’ANALISI DELLA VARIANZA 2. LA VERIFICA DELLE IPOTESI NELL’ANOVA A UNA VIA 3. LA VERIFICA DELLE IPOTESI NELL’ANOVA FATTORIALE 4. DIMENSIONE DELL’EFFETTO NELL’ANALISI DELLA VARIANZA 5. GLI ASSUNTI DELL’ANALISI DELLA VARIANZA PARTE 2: IL CONFRONTO TRA CAMPIONI DIPENDENTI 6. LA LOGICA DEI DISEGNI DI RICERCA A MISURE RIPETUTE 7. IL TEST T PER MISURE RIPETUTE 8. L’ANALISI DELLA VARIANZA PER MISURE RIPETUTE 9. LA DIMENSIONE DELL’EFFETTO PER MISURE RIPETUTE 10. ASSUNTI DELL’ANALISI DELLA VARIANZA A MISURE RIPETUTE 1 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone L’ANALISI DELLA VARIAZA (ANOVA) PARTE 1: L’ANOVA PER CAMPIONI INDIPENDENTI 1. Introduzione all’analisi della varianza Nel modulo precedente abbiamo approfondito la logica della verifica delle ipotesi con il test t per campioni indipendenti, una tecnica di analisi dei dati che, nell’ambito della statistica inferenziale, consente il confronto fra due campioni indipendenti di soggetti (ad es. gruppo sperimentale e gruppo di controllo), al fine di valutare probabilisticamente se la differenza tra le due medie è tale da poter inferire che i campioni provengono da due popolazioni differenti. E abbiamo visto come questo ragionamento statistico si traduce, in termini di ricerca, nella possibilità di studiare il potenziale effetto di una singola variabile indipendente con due livelli, in base ai quali vengono definiti i due gruppi (ad es. trattamento e controllo, presenza e assenza di caffeina), sulla media di una singola variabile dipendente, allo scopo di valutare la probabilità di poter estendere i risultati campionari a livello delle popolazioni di riferimento. Nella ricerca sperimentale, tuttavia, il ricercatore si trova frequentemente a dover affrontare situazioni di verifica delle ipotesi che richiedono il confronto simultaneo tra le medie di più di due campioni, che possono essere formati, ad esempio, da soggetti affetti da patologie differenti (patologia 1, patologia 2, controlli) sottoposti a trattamenti differenti (trattamento 1, trattamento 2, trattamento 3, placebo), o con dati raccolti in condizioni diverse. Riprendendo l’esempio proposto nel modulo precedente, immaginiamo ora che il ricercatore sia interessato a valutare l’influenza di dosaggi differenti di caffeina sul rendimento al test finale d’esame. Anche in questo caso, abbiamo una sola variabile indipendente (“caffeina”), ma qui il ricercatore decide di suddividerla in 3 livelli, che corrispondono ai 3 gruppi in cui andrà a suddividere casualmente i soggetti estratti dalla popolazione: Campione 1: assenza di caffeina (placebo) Campione 2: dosaggio basso di caffeina 2 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone Campione 3: dosaggio alto di caffeina Quando nell’esperimento sono coinvolti più di due campioni, utilizzare un test t per campioni indipendenti per evidenziare tutte le possibili differenze significative tra le medie, ripetendo, quindi, il test t tante volte quanti sono i possibili confronti a coppie fra i singoli gruppi, non è sicuramente una strategia corretta. Questo perché la probabilità di commettere un errore di I tipo (rifiutando l’ipotesi nulla quando, in realtà, è vera), che è uguale al livello di significatività prescelto (ad es. α = 0.05), è valida solamente per ogni singola analisi condotta. Se i confronti sono numerosi, come nel caso in cui vogliamo confrontare a coppia le medie di tutte le possibili combinazioni di gruppi (Campione 1 vs Campione 2, Campione 1 vs Campione 3, Campione 2 vs Campione 3), la probabilità complessiva che almeno uno di essi si dimostri significativo solo per effetto del caso aumenta proporzionalmente all’aumentare del numero di confronti eseguiti. Una tecnica di analisi dei dati che consente di verificare ipotesi circa la differenza tra tre o più popolazioni, mantenendo invariata la probabilità α complessiva prefissata, consiste nell’analisi della varianza, abbreviata con l’acronimo ANOVA (dall’inglese Analysis Of Variance). Questa tecnica può essere utilizzata anche con due soli campioni, ma, in questo caso, i risultati forniti saranno del tutto sovrapponibili a quelli del test t. In termini generali, con il termine analisi della varianza si fa riferimento ad una famiglia piuttosto ampia di metodologie statistiche, che consentono la verifica di ipotesi sulla differenza fra più medie attraverso un’analisi di quella che è la variabilità dei dati. In generale, possiamo differenziare l’analisi della varianza univariata (ANOVA), che consente di studiare gli effetti di una o più variabili indipendenti su di un’unica variabile dipendente, e l’analisi della varianza multivariata (MANOVA), che consente di studiare l’effetto di una o più variabili indipendenti su più variabili dipendenti contemporaneamente. Ci concentreremo, nel corso dei prossimi paragrafi, sulle principali tecniche di analisi della varianza univariata, differenziabili in funzione del numero di variabili indipendenti che vengono considerate. Nello specifico, quando il disegno sperimentale prevede lo studio di una singola variabile indipendente, l’analisi della varianza 3 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone viene definita a una via, mentre, quando l’esperimento prevede lo studio di due o più variabili indipendenti, si parla di analisi della varianza fattoriale. A tal proposito, si specifica che nel linguaggio tipico dell’analisi della varianza, ciascuna variabile indipendente è chiamata fattore (o criterio di classificazione) e la costruzione dei diversi campioni viene effettuata in funzione dei diversi livelli assunti dal fattore. In termini pratici, nel nostro esempio, la “caffeina” è il fattore, suddiviso in tre livelli (“assenza di caffeina”, “basso dosaggio”, “alto dosaggio”), in base ai quali vengono costruiti i rispettivi tre gruppi di soggetti. Le ipotesi di ricerca sui parametri delle popolazioni assumono nell’analisi della varianza una formulazione più generale rispetto al confronto tra due medie che abbiamo visto nel modulo precedente. Nello specifico, l'ipotesi (H0) nulla afferma che le medie delle popolazioni dalle quali sono estratti casualmente i vari campioni sono tra loro tutte uguali, per cui tutti i campioni a confronto sono stati estratti dalla medesima popolazione. In formula: 𝐻0 : 𝜇1 = 𝜇2 = 𝜇3 = ⋯ = 𝜇𝑘 Al contrario, l'ipotesi alternativa (H1), che può essere solo bilaterale, predice che le medie delle popolazioni non sono tra loro tutte uguali. Ovviamente, ci sono diversi modi in cui questa situazione predetta da H1 può verificarsi, di cui le più estreme sono (a) che le medie sono tutte diverse tra loro e (b) che una sola media è diversa dalle altre. Quindi, il rifiuto dell’ipotesi nulla, e l’accettazione implicita dell’ipotesi alternativa, nell’analisi della varianza ci dice soltanto che c’è almeno una disuguaglianza statisticamente significativa tra le medie considerate. Motivo per cui, a completamento di questa procedura di verifica delle ipotesi, vengono impiegate delle procedure aggiuntive (quali i confronti pianificati e i test post hoc) per verificare le differenze fra le varie coppie di medie considerate nello studio; è importante sottolineare, però, che queste procedure di test possono essere utilizzate soltanto nel caso in cui l’analisi della varianza abbia fornito un risultato statisticamente significativo (rifiuto di H0). (Si consiglia di seguire le video-lezioni per un approfondimento specifico su questo argomento). 4 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone La verifica delle ipotesi nell’analisi della varianza consente, dunque, al ricercatore di valutare se le medie di diversi campioni differiscono tra loro (o quantomeno una differisce dalle altre) più di quanto ci si aspetterebbe se l’ipotesi nulla fosse vera. Per rispondere a questo quesito sulle medie, si analizzano le varianze (da qui, appunto, il nome di analisi della varianza), cioè la variabilità tra queste medie. Entrando in maggior dettaglio, la logica generale su cui si basa l’analisi della varianza è quella della scomposizione della varianza, per cui la varianza totale = varianza tra gruppi + varianza entro i gruppi. Si assume, infatti, che all’interno di un disegno sperimentale, in cui vengono confrontati gli effetti di diverse condizioni sperimentali utilizzando altrettanti campioni indipendenti, la variabilità osservata nei dati può essere attribuita ad almeno tre fonti: (1) agli effetti della condizione sperimentale (variabile indipendente), (2) agli effetti delle differenze individuali, (3) all’errore o variabilità residua. (È importante ricordare che errore non è sinonimo di sbaglio, ma indica l’effetto di uno o più fattori sconosciuti, comunque non valutati o non controllati nell'esperimento). Più nello specifico, il livello di variabilità entro i gruppi (cioè quanto ciascun punteggio all’interno di un campione differisce rispetto agli altri punteggi dello stesso campione) è determinato da due delle fonti di variabilità summenzionate, cioè dalle differenze individuali dei soggetti e dai possibili errori residui. Il livello di variabilità tra i gruppi (cioè quanto la media di ciascun campione differisce rispetto alle medie degli altri campioni) è determinato da tutte e tre le fonti di variabilità, quindi dalla condizione sperimentale, dalle differenze individuali dei soggetti e dai possibili errori residui. 𝑉𝑎𝑟𝑖𝑎𝑏. 𝑡𝑟𝑎 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 = 𝑐𝑜𝑛𝑑𝑖𝑧𝑖𝑜𝑛𝑒 𝑠𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑎𝑙𝑒 + 𝑑𝑖𝑓𝑓𝑒𝑟𝑒𝑛𝑧𝑒 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑎𝑙𝑖 + 𝑒𝑟𝑟𝑜𝑟𝑒 𝑉𝑎𝑟𝑖𝑎𝑏. 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 = 𝑑𝑖𝑓𝑓𝑒𝑟𝑒𝑛𝑧𝑒 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑎𝑙𝑖 + 𝑒𝑟𝑟𝑜𝑟𝑒 Dal momento che i gruppi si differenziano in funzione della condizione sperimentale (ad es. Campione 1: assenza di caffeina, Campione 2: dosaggio basso di caffeina, Campione 3: dosaggio medio di caffeina, ecc.), le differenze che il ricercatore osserva tra le medie dei diversi campioni (variabilità tra i gruppi) possono essere determinate sia dalla condizione 5 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone sperimentale, che dalle differenze individuali nella variabile misurata che, infine, dall’errore nella misurazione della variabile stessa. Al contrario, le differenze osservate nei punteggi all’interno di ogni singolo campione (variabilità entro i gruppi) sono, invece, il risultato delle differenze individuali e della variabilità d’errore. Dal momento che la condizione sperimentale è una fonte di variabilità che incide esclusivamente sulle differenze nei punteggi tra i gruppi, è facile immaginare che, se non avesse effetti significativi, la variabilità tra i gruppi e la variabilità entro i gruppi sarebbero pressoché uguali, perché appunto si baserebbero entrambe sulle stesse informazioni (differenze individuali + errore). Proviamo ora a tradurre questo ragionamento in termini statistici, contestualizzandolo nell’ambito della verifica delle ipotesi. Ricordiamo che, come nel test t, anche nell’analisi della varianza non conosciamo le varianze vere delle popolazioni, ma possiamo stimarle in base ai punteggi dei campioni. Quando l’ipotesi nulla è vera (secondo cui i campioni provengono tutti dalla stessa popolazione o da popolazioni con la stessa media), la stima della varianza tra gruppi sarà pressoché uguale alla stima della varianza entro i gruppi, perché entrambe sono determinate dalle due stesse fonti di variabilità (differenze individuali + errore) e, dunque, entrambe saranno uguali alla varianza della popolazione (σ2). In alternativa, si può anche dire che, quando l’ipotesi nulla è vera, il rapporto tra la stima della varianza tra gruppi e la stima della varianza entro i gruppi dovrebbe essere all’incirca uguale a 1. Quando, al contrario, l’ipotesi nulla è falsa (per cui accettiamo l’ipotesi alternativa secondo cui i campioni non provengano da popolazioni con la stessa media), la stima della varianza tra i gruppi è determinata da un ulteriore fonte di variabilità, che si aggiunge alle differenze individuali e all’errore, cioè la variabilità indotta dall’effetto della condizione sperimentale; al contrario, la stima della varianza entro i gruppi, anche quando l’ipotesi nulla è falsa, continua ad essere determinata solo dalle differenze individuali e dall’errore. Da ciò deriva che, quando l’ipotesi nulla è falsa, la stima della varianza tra gruppi dovrebbe essere maggiore rispetto alla stima della varianza entro i gruppi, per cui il rapporto tra queste due stime (varianza tra e varianza entro) dovrebbe essere maggiore di 1. 6 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone Questo è il principio centrale su cui si fonda l’analisi della varianza, che possiamo riassumere nei due assunti di seguito: - quando l’ipotesi nulla è vera, il rapporto tra la stima tra i gruppi della varianza della popolazione e la stima entro i gruppi della varianza della popolazione dovrebbe essere pressoché uguale a 1; - quando l’ipotesi nulla è falsa, questo rapporto dovrebbe essere maggiore di 1. Questo rapporto fra la stima tra i gruppi e la stima entro i gruppi della varianza della popolazione è chiamato rapporto F (o statistica test F), che può essere espresso come: 𝑆𝑡𝑖𝑚𝑎 𝑑𝑒𝑙𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑟𝑎 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 𝐹𝑡𝑒𝑠𝑡 = 𝑆𝑡𝑖𝑚𝑎 𝑑𝑒𝑙𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 La decisione statistica circa l’accettazione o meno dell’ipotesi nulla si basa sul confronto fra il valore del test F calcolato sui dati campionari (𝐹𝑡𝑒𝑠𝑡 ) e il valore critico (𝐹𝑐𝑟𝑖𝑡𝑖𝑐𝑜 ) identificato, per i corrispondenti gradi di libertà e alfa, sulla distribuzione teorica di probabilità F di Fisher. Si tratta di una distribuzione campionaria asimmetrica e positiva, determinata da due parametri (gl1 e gl2) che identificano i gradi di libertà delle due distribuzioni coinvolte nel rapporto. In funzione di questi due parametri, è possibile costruire una famiglia di distribuzioni F, dove ciascuna curva è definita dai valori della coppia di parametri gl1 e gl2. Per alcuni valori assunti (ad es. gl1 = 1 e gl2 tendente a infinito), la distribuzione F tende ad assumere la forma della distribuzione normale. Così come abbiamo visto per le altre distribuzioni prese in esame, anche in questa distribuzione per ciascun valore di F esiste un’area di probabilità ad esso associata e il valore totale di probabilità corrispondente all’area sottesa alla curva è uguale a 1. I valori di probabilità della distribuzione F sono tabulati ed organizzati per righe e colonne, dove nella prima colonna (gl2) sono indicati i gradi di libertà al denominatore del rapporto F, mentre nella prima riga sono riportati i gradi di libertà (gl1) al numeratore del rapporto F. 7 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone 2. La verifica delle ipotesi nell’analisi della varianza a una via Dopo aver introdotto la logica generale dell’analisi della varianza, passiamo ora alla descrizione del processo di verifica delle ipotesi con l’analisi della varianza a una via. Come già anticipato, si tratta del modello più semplice di analisi della varianza, in cui abbiamo (a) una sola variabile indipendente qualitativa (nominale o ordinale) con tre o più livelli che definiscono i diversi campioni e (b) una variabile dipendente quantitativa (discreta o continua) che viene misurata. A tal proposito, possiamo riprendere l’esempio presentato all’inizio di questo modulo, in cui un ricercatore è interessato a valutare il potenziale effetto sul voto finale di una certa materia (variabile dipendente) esercitato da differenti dosaggi di caffeina (variabile indipendente suddivisa in tre livelli: Gruppo 1: assenza di caffeina (placebo) con n = 10 studenti, Gruppo 2: basso dosaggio di caffeina con n = 10 studenti, Gruppo 3: alto dosaggio di caffeina con n = 10 studenti). Riportiamo in tabella i dati osservati (voti d’esame) in ogni campione: Campione 1 (Placebo) Campione 2 (Caffeina –) Campione 3 (Caffeina +) 22 22 28 23 26 25 23 25 25 21 24 24 25 25 27 24 23 25 23 25 26 21 26 25 24 24 25 22 24 26 n1 = 10 𝑛2 = 10 n3 = 10 𝑋̅1 = 22.9 𝑋̅2 = 24.4 𝑋̅3 = 25.6 n 𝑇𝑜𝑡 = 30 𝑘𝑇𝑜𝑡 = 3 𝑋̅𝑇𝑜𝑡 = 24.3 Lo scopo del ricercatore è verificare se esistono differenze significative negli effetti osservati sulla variabile dipendente dovuti alle diverse condizioni sperimentali, che corrispondono ai diversi livelli della variabile indipendente. Nella logica della verifica delle 8 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone ipotesi, questo quesito si traduce nella possibilità di valutare se la differenza osservata tra le tre medie campionarie è tale da poter inferire che i campioni sono stati estratti da popolazioni con medie diverse o, al contrario, se è ragionevole concludere che i campioni sono stati estratti da un’unica popolazione di riferimento. Come sempre, il primo passaggio per la verifica delle ipotesi consiste nel riformulare il quesito in termini di ipotesi sui parametri delle popolazioni, per cui: 𝐻0 : 𝑙𝑒 𝑚𝑒𝑑𝑖𝑒 𝑑𝑒𝑙𝑙𝑒 𝑝𝑜𝑝𝑜𝑙𝑎𝑧𝑖𝑜𝑛𝑖 𝑠𝑜𝑛𝑜 𝑡𝑢𝑡𝑡𝑒 𝑢𝑔𝑢𝑎𝑙𝑖 (𝜇1 = 𝜇2 = 𝜇3 ) 𝐻1 : 𝑙𝑒 𝑚𝑒𝑑𝑖𝑒 𝑑𝑒𝑙𝑙𝑒 𝑝𝑜𝑝𝑜𝑙𝑎𝑧𝑖𝑜𝑛𝑖 𝑛𝑜𝑛 𝑠𝑜𝑛𝑜 𝑡𝑢𝑡𝑡𝑒 𝑢𝑔𝑢𝑎𝑙𝑖 Stabilito un certo livello di significatività (ad es. α = 0.05), si procede al calcolo delle misure di cui abbiamo bisogno per condurre la verifica delle ipotesi attraverso il metodo della scomposizione delle varianze. Si parte dall’assunto centrale che: 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑜𝑡𝑎𝑙𝑒 = 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑟𝑎 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 + 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 Patendo da questo presupposto, si procede con la scomposizione della varianza totale in varianza tra i gruppi e varianza entro i gruppi. Per facilitare la spiegazione del procedimento, partiamo dalla formula (già studiata nei moduli precedenti) che ci consente di stimare la varianza della popolazione a partire dai dati campionari: Σ (𝑋 − 𝑋̅)2 𝑑𝑒𝑣𝑖𝑎𝑛𝑧𝑎 (𝑆𝑆) 𝑠2 = = [ ] 𝑛−1 𝑔𝑟𝑎𝑑𝑖 𝑑𝑖 𝑙𝑖𝑏𝑒𝑟𝑡à Come abbiamo già visto, il numeratore della formula è la somma degli scarti al quadrato (devianza, SS), che corrisponde alla sommatoria degli scarti di tutti i punteggi dalla media al quadrato, mentre al denominatore abbiamo i gradi di libertà, che si ottengono sottraendo 1 dalla numerosità del campione. Per scomporre la varianza totale in varianza tra i gruppi e varianza entro i gruppi, si procede al calcolo delle devianze e dei rispettivi gradi di libertà per ciascuna fonte di variazione (tra e entro i gruppi). 9 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone 1. Varianza totale. Per la varianza totale, è necessario calcolare: Al numeratore → La devianza totale (𝑆𝑆𝑇𝑜𝑡 ), che è uguale alla sommatoria degli scarti di tutti i singoli punteggi osservati nell’esperimento rispetto alla media totale elevati al quadrato: 𝑆𝑆𝑇𝑜𝑡 = ∑(𝑋 − 𝑋̅𝑇𝑜𝑡 )2 𝑋̅𝑇 = 𝑚𝑒𝑑𝑖𝑎 𝑔𝑒𝑛𝑒𝑟𝑎𝑙𝑒 𝑑𝑖 𝑡𝑢𝑡𝑡𝑖 𝑖 𝑑𝑎𝑡𝑖 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑖 𝑛𝑒𝑙𝑙′𝑒𝑠𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 Al denominatore → Il numero di gradi di libertà totali (𝑔𝑙𝑡𝑜𝑡 ), che corrisponde al numero complessivo di tutti i soggetti reclutati nell’esperimento meno 1 (indipendentemente dalla loro ripartizione all’interno dei diversi gruppi): 𝑔𝑙𝑡𝑜𝑡 = 𝑛𝑇𝑜𝑡 − 1 2 Unendo le due parti, la formula completa della varianza totale (𝑆𝑇𝑜𝑡 ) diventa: 2 ∑(𝑋 − 𝑋̅𝑇𝑜𝑡 )2 𝑆𝑆𝑇𝑜𝑡 𝑆𝑇𝑜𝑡 = = [ ] 𝑛𝑇𝑜𝑡 − 1 𝑔𝑙 𝑇𝑜𝑡 2. Varianza tra i gruppi. Per la varianza tra i gruppi, è necessario calcolare: Al numeratore → La devianza tra i gruppi (𝑆𝑆𝑇𝑟𝑎 ), che è uguale alla sommatoria degli scarti tra la media di ciascun campione coinvolto nell’esperimento e la media totale elevati al quadrato, il tutto moltiplicato per la numerosità del campione (se uguale per tutti i gruppi): 𝑆𝑆𝑇𝑟𝑎 = 𝑁 ˑ ∑(𝑋̅𝑘 − 𝑋̅𝑇𝑜𝑡 )2 𝑋̅𝑘 = 𝑚𝑒𝑑𝑖𝑎 𝑑𝑖 𝑐𝑖𝑎𝑠𝑐𝑢𝑛 𝑐𝑎𝑚𝑝𝑖𝑜𝑛𝑒 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑒 𝑛𝑒𝑙𝑙′𝑒𝑠𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 𝑋̅𝑇 = 𝑚𝑒𝑑𝑖𝑎 𝑔𝑒𝑛𝑒𝑟𝑎𝑙𝑒 𝑑𝑖 𝑡𝑢𝑡𝑡𝑖 𝑖 𝑑𝑎𝑡𝑖 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑖 𝑛𝑒𝑙𝑙′𝑒𝑠𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 Al denominatore → Il numero di gradi di libertà tra i gruppi (𝑔𝑙𝑡𝑟𝑎 ), che corrisponde al numero di gruppi presenti nell’esperimento (k) meno 1: 𝑔𝑙𝑡𝑟𝑎 = 𝑘 − 1 10 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone 2 Unendo le due parti, la formula completa della varianza tra i gruppi (𝑆𝑇𝑟𝑎 ) diventa: 2 𝑁 ˑ ∑(𝑋̅𝑘 − 𝑋̅𝑇𝑜𝑡 )2 𝑆𝑆𝑇𝑟𝑎 𝑆𝑇𝑟𝑎 = = [ ] 𝑘−1 𝑔𝑙 𝑇𝑟𝑎 3. Varianza entro i gruppi. Per la varianza entro i gruppi, è necessario calcolare: Al numeratore → La devianza entro i gruppi (𝑆𝑆𝐸𝑛𝑡𝑟𝑜 ), che si ottiene calcolando separatamente la somma degli scarti al quadrato di ciascun gruppo, per poi sommarli: 𝑆𝑆𝑒𝑛𝑡𝑟𝑜 = 𝑆𝑆1 + 𝑆𝑆2 + 𝑆𝑆3 + ⋯ + 𝑆𝑆𝑘 𝑆𝑆1 = 𝑆𝑜𝑚𝑚𝑎 𝑑𝑒𝑔𝑙𝑖 𝑠𝑐𝑎𝑟𝑡𝑖 𝑎𝑙 𝑞𝑢𝑎𝑑𝑟𝑎𝑡𝑜 𝑑𝑒𝑙 𝑝𝑟𝑖𝑚𝑜 𝑔𝑟𝑢𝑝𝑝𝑜 𝑆𝑆2 = 𝑆𝑜𝑚𝑚𝑎 𝑑𝑒𝑔𝑙𝑖 𝑠𝑐𝑎𝑟𝑡𝑖 𝑎𝑙 𝑞𝑢𝑎𝑑𝑟𝑎𝑡𝑜 𝑑𝑒𝑙 𝑠𝑒𝑐𝑜𝑛𝑑𝑜 𝑔𝑟𝑢𝑝𝑝𝑜 Al denominatore → Il numero di gradi di libertà entro i gruppi (𝑔𝑙𝐸𝑛𝑡𝑟𝑜 ), che corrisponde al numero complessivo dei soggetti reclutati nell’esperimento meno il numero di gruppi (k): 𝑔𝑙𝐸𝑛𝑡𝑟𝑜 = 𝑛𝑇𝑜𝑡 − 𝑘 2 Unendo le due parti, la formula completa della varianza tra i gruppi (𝑆𝐸𝑛𝑡𝑟𝑜 ) diventa: 2 𝑆𝑆1 + 𝑆𝑆2 + 𝑆𝑆3 𝑆𝑆𝐸𝑛𝑡𝑟𝑜 𝑆𝐸𝑛𝑡𝑟𝑜 = = [ ] 𝑛𝑇𝑜𝑡 − 𝑘 𝑔𝑙𝐸𝑛𝑡𝑟𝑜 Applicando le formule ai nostri dati in tabella: 𝑆𝑆𝑇𝑟𝑎 = N ˑ [(𝑋̅1 − 𝑋̅𝑇𝑜𝑡 )2 + (𝑋̅2 − 𝑋̅𝑇𝑜𝑡 )2 + (𝑋̅3 − 𝑋̅𝑇𝑜𝑡 )2 ] = 36.6 𝑔𝑙 𝑇𝑟𝑎 = 𝑘 − 1 = 3 − 1 = 2 2 𝑆𝑆𝑇𝑟𝑎 36.6 𝑆𝑇𝑟𝑎 = = = 18.3 𝑔𝑙 𝑇𝑟𝑎 2 𝑆𝑆𝐸𝑛𝑡𝑟𝑜 = 𝑆𝑆1 + 𝑆𝑆2 + 𝑆𝑆3 = 43.7 𝑔𝑙𝐸𝑛𝑡𝑟𝑜 = 𝑛𝑇𝑜𝑡 − 𝑘 = 30 − 3 = 27 2 𝑆𝑆𝐸𝑛𝑡𝑟𝑜 43.7 𝑆𝐸𝑛𝑡𝑟𝑜 = = 1.62 𝑔𝑙𝐸𝑛𝑡𝑟𝑜 27 11 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone A questo punto, è possibile calcolare il test F come il rapporto tra la varianza tra i gruppi e la varianza entro i gruppi. In formula: 𝑆 2𝑇𝑟𝑎 18.3 𝐹𝑡𝑒𝑠𝑡 = 2 = = 11.31 𝑆 𝐸𝑛𝑡𝑟𝑜 1.62 Come già anticipato, la decisione statistica circa l’accettazione o meno dell’ipotesi nulla si basa sul confronto fra il valore della statistica calcolata (𝐹𝑡𝑒𝑠𝑡 ) e il valore critico (𝐹𝐶𝑟𝑖𝑡𝑖𝑐𝑜 ), identificato sulla distribuzione teorica di probabilità F di Fisher. Nel nostro esempio, con α = 0.05 e con 𝑔𝑙 𝑇𝑟𝑎 = 2 e 𝑔𝑙𝐸𝑛𝑡𝑟𝑜 = 27, il valore critico di F è uguale a 3.35. Poiché il valore del test calcolato (𝐹𝑡𝑒𝑠𝑡 = 11.31) è maggiore del valore critico (𝐹𝐶𝑟𝑖𝑡𝑖𝑐𝑜 = 3.35), si può respingere l’ipotesi nulla (secondo cui i tre gruppi provengono da popolazioni con la stessa media) e concludere, con un certo grado di certezza, che la variabile indipendente (“caffeina”) influisce significativamente sul voto finale d’esame. 3. La verifica delle ipotesi nell’analisi della varianza fattoriale L’analisi della varianza fattoriale è un’estensione della procedura approfondita nel paragrafo precedente (l’analisi della varianza a una via), che offre il vantaggio di poter studiare la relazione tra dati che sono classificati contemporaneamente sulla base di due o più fattori (variabili indipendenti), ognuno dei quali suddivisi in altrettanti due o più livelli. Nell’analisi della varianza fattoriale abbiamo, dunque (a) due o più variabili indipendenti qualitative (nominali o ordinali) con due o più livelli che definiscono i diversi campioni e (b) una variabile dipendente quantitativa (discreta o continua) che viene misurata. Per illustrarne praticamente la logica, immaginiamo ora che il nostro ricercatore sia interessato a valutare l’effetto del dosaggio di caffeina (Fattore 1 con tre livelli: “assente”, “basso”, “alto”) e del sesso (Fattore 2 con due livelli: “maschi”, “femmine”) sul punteggio all’esame finale di una certa materia. In un disegno fattoriale, come questo appena menzionato, sono diverse le ipotesi che possono essere testate. Nel nostro caso, ad esempio, il ricercatore potrebbe valutare se: 12 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone (a) i diversi dosaggi di caffeina hanno un effetto diverso sul punteggio all’esame finale; (b) maschi e femmine differiscono tra loro nei punteggi riportati all’esame test; (c) i diversi dosaggi di caffeina hanno un effetto differente sui punteggi riportati al test finale nei maschi e nelle femmine. Tutte queste ipotesi possono essere sottoposte a verifica in un’unica analisi statistica, quindi mantenendo invariata la probabilità α complessiva prefissata, ricorrendo all’analisi della varianza fattoriale. Nel nostro esempio specifico, possiamo anche parlare di analisi della varianza a due vie, perché consideriamo due fattori (caffeina e sesso), oppure di disegno 3x2 perché il primo fattore ha tre livelli e il secondo ne ha due. La logica dell’analisi della varianza fattoriale nasce dalla logica più semplice dell’analisi a una via. Anche in questo caso, infatti, la varianza totale viene scomposta in varianza tra i gruppi e varianza entro i gruppi. Nel disegno fattoriale, però, la varianza tra i gruppi viene ulteriormente scomposta in tre diverse fonti di variabilità: la variabilità dovuta al primo Fattore 1 (nel nostro esempio la “caffeina”), la variabilità dovuta al Fattore 2 (nel nostro esempio il “sesso”) e la variabilità dovuta all’azione congiunta dei due fattori (nel nostro esempio l’interazione “caffeina” x “sesso”). In questo modo, l’analisi della varianza fattoriale consente di verificare, in un’unica analisi, diverse ipotesi sul motivo per cui i punteggi dei diversi gruppi differiscono nei valori della variabile dipendente (nel nostro esempio, i punteggi all’esame finale). Nello specifico, in un disegno fattoriale a due vie, come quello illustrato, l’analisi della varianza consente di verificare tre ipotesi: una riguardante il primo fattore, una riguardante il secondo fattore e una riguardante l’azione congiunta del Fattore 1 e del Fattore 2. Gli effetti del Fattore 1 e del Fattore 2 sono chiamati effetti principali, mentre l’effetto congiunto fra i due fattori è chiamata interazione. Come possiamo osservare nella tabella riportata di seguito, nei disegni fattoriali ogni gruppo di partecipanti rappresenta una combinazione specifica di livelli delle variabili indipendenti. Nel nostro esempio (disegno 3x2) abbiamo, quindi, sei gruppi indipendenti: Gruppo 1: Maschi – Placebo 13 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone Gruppo 2: Maschi – Basso dosaggio Gruppo 3: Maschi – Alto dosaggio Gruppo 4: Femmine – Placebo Gruppo 5: Femmine – Basso dosaggio Gruppo 6: Femmine – Alto dosaggio FATTORE 1 (Caffeina) Placebo Basso Dosaggio Alto Dosaggio (Pl) (Bd) (Ad) Maschi 𝑋̅𝑀𝑃𝑙 𝑋̅𝑀𝐵𝑑 𝑋̅𝑀𝐴𝑑 𝑋̅𝑀 FATTORE 2 (M) (Sesso) Femmine 𝑋̅𝐹𝑃𝑙 𝑋̅𝐹𝐵𝑑 𝑋̅𝐹𝐴𝑑 𝑋̅𝐹 (F) Media Colonne 𝑋̅𝑃𝑙 𝑋̅𝐵𝑑 𝑋̅𝐴𝑑 Media Righe Possiamo notare dalla tabella che il Fattore 1 (caffeina) classifica i dati per colonna, mentre il Fattore 2 (sesso) classifica i dati per riga. Ai margini della tabella sono riportati i valori medi per colonna (quindi relativi al Fattore 1 caffeina: media placebo X̄Pl, media basso dosaggio X̄Bd e media alto dosaggio X̄Ad) e per riga (quindi relativi al Fattore 2 sesso: media maschi X̄M e media femmine X̄F). Nell’analisi della varianza fattoriale, il metodo della scomposizione della varianza viene eseguito sulla base di questo modello: 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑜𝑡𝑎𝑙𝑒 = 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑟𝑎 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 (𝑉. 𝑡𝑟𝑎 𝑙𝑒 𝑟𝑖𝑔ℎ𝑒 + 𝑉. 𝑡𝑟𝑎 𝑙𝑒 𝑐𝑜𝑙𝑜𝑛𝑛𝑒 + 𝑉. 𝑖𝑛𝑡𝑒𝑟𝑎𝑧𝑖𝑜𝑛𝑒) + 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 14 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone Sulla base di questo modello, si può, dunque, procedere alla scomposizione delle varianze e al calcolo delle singole fonti di variabilità. 2 1. Varianza totale. Per calcolare la varianza totale (𝑆𝑇𝑜𝑡 ), è necessario calcolare la devianza totale (𝑆𝑆𝑇𝑜𝑡 ) al numeratore e i gradi di libertà totali (𝑔𝑙𝑡𝑜𝑡 ) al denominatore, seguendo la stessa procedura illustrata nel paragrafo precedente. 2 2. Varianza entro i gruppi. Per calcolare la varianza entro i gruppi (𝑆𝐸𝑛𝑡𝑟𝑜 ), è necessario calcolare la devianza entro i gruppi (𝑆𝑆𝐸𝑛𝑡𝑟𝑜 ) al numeratore e i gradi di libertà entro i gruppi (𝑔𝑙𝐸𝑛𝑡𝑟𝑜 ) al denominatore, seguendo la stessa procedura illustrata nel paragrafo precedente. 3. Varianza tra i gruppi. Come abbiamo detto, nei disegni fattoriali la varianza tra i gruppi deve essere ulteriormente scomposta in varianza tra le colonne (Fattore 1), varianza tra le righe (Fattore 2) e varianza dell’interazione (Fattore 1 x Fattore 2). 2 Per la varianza tra le colonne (𝑆𝐶𝑜𝑙𝑜𝑛𝑛𝑒 ), dobbiamo calcolare: Al numeratore → La devianza tra le colonne (𝑆𝑆𝐶𝑜𝑙𝑜𝑛𝑛𝑒 ), che è uguale alla sommatoria degli scarti tra la media di ciascuna colonna e la media totale elevati al quadrato, il tutto moltiplicato per il numero di righe: 𝑆𝑆𝐶𝑜𝑙𝑜𝑛𝑛𝑒 = 𝑟 ˑ ∑(𝑋̅𝑐 − 𝑋̅𝑇𝑜𝑡 )2 𝑋̅𝑐 = 𝑚𝑒𝑑𝑖𝑎 𝑑𝑖 𝑐𝑖𝑎𝑠𝑐𝑢𝑛𝑎 𝑐𝑜𝑙𝑜𝑛𝑛𝑎 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑒 𝑛𝑒𝑙𝑙′𝑒𝑠𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 𝑋̅𝑇 = 𝑚𝑒𝑑𝑖𝑎 𝑔𝑒𝑛𝑒𝑟𝑎𝑙𝑒 𝑑𝑖 𝑡𝑢𝑡𝑡𝑖 𝑖 𝑑𝑎𝑡𝑖 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑖 𝑛𝑒𝑙𝑙′𝑒𝑠𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 𝑟 = 𝑛𝑢𝑚𝑒𝑟𝑜 𝑑𝑖 𝑟𝑖𝑔ℎ𝑒 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑖 𝑛𝑒𝑙𝑙′𝑒𝑠𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 Al denominatore → Il numero di gradi di libertà tra le colonne (𝑔𝑙𝐶𝑜𝑙𝑜𝑛𝑛𝑒 ), che corrisponde al numero di colonne (c) meno 1: 𝑔𝑙𝐶𝑜𝑙𝑜𝑛𝑛𝑒 = 𝑐 − 1 15 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone 2 Unendo le due parti, la formula completa della varianza tra le colonne (𝑆𝐶𝑜𝑙𝑜𝑛𝑛𝑒 ) diventa: 2 𝑟 ˑ ∑(𝑋̅𝑐 − 𝑋̅𝑇𝑜𝑡 )2 𝑆𝑆𝐶𝑜𝑙𝑜𝑛𝑛𝑒 𝑆𝐶𝑜𝑙𝑜𝑛𝑛𝑒 = = [ ] 𝑐−1 𝑔𝑙𝐶𝑜𝑙𝑜𝑛𝑛𝑒 2 Per la varianza tra le righe (𝑆𝑅𝑖𝑔ℎ𝑒 ), dobbiamo calcolare: Al numeratore → La devianza tra le righe (𝑆𝑆𝑅𝑖𝑔ℎ𝑒 ), che è uguale alla sommatoria degli scarti tra la media di ciascuna riga e la media totale elevati al quadrato, il tutto moltiplicato per il numero di colonne: 𝑆𝑆𝑅𝑖𝑔ℎ𝑒 = 𝑐 ˑ ∑(𝑋̅𝑅 − 𝑋̅𝑇𝑜𝑡 )2 𝑋̅𝑟 = 𝑚𝑒𝑑𝑖𝑎 𝑑𝑖 𝑐𝑖𝑎𝑠𝑐𝑢𝑛𝑎 𝑟𝑖𝑔𝑎 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑒 𝑛𝑒𝑙𝑙′𝑒𝑠𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 𝑋̅𝑇 = 𝑚𝑒𝑑𝑖𝑎 𝑔𝑒𝑛𝑒𝑟𝑎𝑙𝑒 𝑑𝑖 𝑡𝑢𝑡𝑡𝑖 𝑖 𝑑𝑎𝑡𝑖 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑖 𝑛𝑒𝑙𝑙′𝑒𝑠𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 𝑐 = 𝑛𝑢𝑚𝑒𝑟𝑜 𝑑𝑖 𝑐𝑜𝑙𝑜𝑛𝑛𝑒 𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑖 𝑛𝑒𝑙𝑙′𝑒𝑠𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 Al denominatore → Il numero di gradi di libertà tra le righe (𝑔𝑙𝑅𝑖𝑔ℎ𝑒 ), che corrisponde al numero di righe (r) meno 1: 𝑔𝑙𝑅𝑖𝑔ℎ𝑒 = 𝑟 − 1 2 Unendo le due parti, la formula completa della varianza tra i gruppi (𝑆𝑅𝑖𝑔ℎ𝑒 ) diventa: 2 𝑐 ˑ ∑(𝑋̅𝑟 − 𝑋̅𝑇𝑜𝑡 )2 𝑆𝑆𝑅𝑖𝑔ℎ𝑒 𝑆𝑅𝑖𝑔ℎ𝑒 = = [ ] 𝑟−1 𝑔𝑙𝑅𝑖𝑔ℎ𝑒 2 Per la varianza dell’interazione (𝑆𝐼𝑛𝑡𝑒𝑟𝑎𝑧 ), dobbiamo calcolare: Al numeratore → La devianza dell’interazione (𝑆𝑆𝐼𝑛𝑡𝑒𝑟𝑎𝑧 ), che è uguale alla devianza tra i gruppi (calcolata secondo la procedura illustrata nel paragrafo precedente) meno la devianza tra le colonne e la devianza tra le righe: 𝑆𝑆𝐼𝑛𝑡𝑒𝑟𝑎𝑧 = 𝑆𝑆𝑇𝑟𝑎 − 𝑆𝑆𝐶𝑜𝑙𝑜𝑛𝑛𝑒 − 𝑆𝑆𝑅𝑖𝑔ℎ𝑒 16 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone Al denominatore → Il numero di gradi di libertà dell’interazione (𝑔𝑙𝐼𝑛𝑡𝑒𝑟𝑎𝑧 ), che corrisponde ai gradi di libertà tra le colonne ( 𝑔𝑙𝐶𝑜𝑙𝑜𝑛𝑛𝑒 ) moltiplicato per i gradi di libertà tra le righe (𝑔𝑙𝑅𝑖𝑔ℎ𝑒 ): 𝑔𝑙𝐼𝑛𝑡𝑒𝑟𝑎𝑧 = (𝑟 − 1) ˑ (𝑐 − 1) 2 Unendo le due parti, la formula completa della varianza tra i gruppi (𝑆𝐼𝑛𝑡𝑒𝑟𝑎𝑧 ) diventa: 2 𝑆𝑆𝑇𝑟𝑎 − 𝑆𝑆𝐶𝑜𝑙𝑜𝑛𝑛𝑒 − 𝑆𝑆𝑅𝑖𝑔ℎ𝑒 𝑆𝑆𝐼𝑛𝑡𝑒𝑟𝑎𝑧 𝑆𝐼𝑛𝑡𝑒𝑟𝑎𝑧 = = [ ] (𝑟 − 1) ˑ (𝑐 − 1) 𝑔𝑙𝐼𝑛𝑡𝑒𝑟𝑎𝑧 Una volta calcolate le varianze scomposte per ognuna delle fonti di variabilità, la valutazione statistica delle ipotesi viene condotta separatamente per ciascun fattore e per l’interazione. Il ricercatore, dunque, procede alla formulazione, a livello di popolazioni, delle ipotesi nulle separatamente per ciascun fattore: 𝐻0𝐶𝑜𝑙𝑜𝑛𝑛𝑒 : 𝜇𝐶𝑜𝑙𝑜𝑛𝑛𝑎1 = 𝜇𝐶𝑜𝑙𝑜𝑛𝑛𝑎2 = 𝜇𝐶𝑜𝑙𝑜𝑛𝑛𝑎3 𝐻0𝑅𝑖𝑔ℎ𝑒 : 𝜇𝑅𝑖𝑔𝑎1 = 𝜇𝑅𝑖𝑔𝑎2 = 𝜇𝑅𝑖𝑔𝑎3 Si procede al calcolo del rapporto F separatamente per ciascuna ipotesi nulla: 2 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑟𝑎 𝑙𝑒 𝑐𝑜𝑙𝑜𝑛𝑛𝑒 𝑆𝐶𝑜𝑙𝑜𝑛𝑛𝑒 𝐹𝑇𝑒𝑠𝑡𝐶𝑜𝑙𝑜𝑛𝑛𝑒 = = 2 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 𝑆𝐸𝑛𝑡𝑟𝑜 2 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑟𝑎 𝑙𝑒 𝑟𝑖𝑔ℎ𝑒 𝑆𝑅𝑖𝑔ℎ𝑒 𝐹𝑇𝑒𝑠𝑡𝑅𝑖𝑔ℎ𝑒 = = 2 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 𝑆𝐸𝑛𝑡𝑟𝑜 Lo stesso procedimento viene impiegato per calcolare il rapporto F dell’interazione: 2 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒𝑙𝑙′𝑖𝑛𝑡𝑒𝑟𝑎𝑧𝑖𝑜𝑛𝑒 𝑆𝐼𝑛𝑡𝑒𝑟𝑎𝑧 𝐹𝑇𝑒𝑠𝑡𝐼𝑛𝑡𝑒𝑟𝑎𝑧 = = 2 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 𝑆𝐸𝑛𝑡𝑟𝑜 17 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone Anche qui, la decisione statistica circa l’accettazione o meno di ciascuna ipotesi nulla si basa sul confronto fra ciascun valore della statistica calcolata (𝐹𝑡𝑒𝑠𝑡𝐶𝑜𝑙𝑜𝑛𝑛𝑒 , 𝐹𝑡𝑒𝑠𝑡𝑅𝑖𝑔ℎ𝑒 , 𝐹𝑡𝑒𝑠𝑡𝐼𝑛𝑡𝑒𝑟𝑎𝑧 ) e il corrispondente valore critico (𝐹𝐶𝑟𝑖𝑡𝑖𝑐𝑜𝐶𝑜𝑙𝑜𝑛𝑛𝑒 , 𝐹𝐶𝑟𝑖𝑡𝑖𝑐𝑜𝑅𝑖𝑔ℎ𝑒 , 𝐹𝐶𝑟𝑖𝑡𝑖𝑐𝑜𝐼𝑛𝑡𝑒𝑟𝑎𝑧 ), identificato sulla distribuzione teorica di probabilità F di Fisher in funzione del livello di significatività prescelto (ad es. α = 0.05) e dei rispettivi gradi di libertà. Per ognuna delle verifiche, se il valore del test calcolato (𝐹𝑇𝑒𝑠𝑡 ) è maggiore del valore critico corrispondente (𝐹𝐶𝑟𝑖𝑡𝑖𝑐𝑜 ), si può rifiutare l’ipotesi nulla concludendo che l’effetto (del fattore o dell’interazione) è significativo. 4. Dimensione dell’effetto nell’analisi della varianza Nel caso in cui la verifica delle ipotesi conduca al rifiuto dell’ipotesi nulla, per determinare la dimensione dell’effetto nell’analisi della varianza si usa generalmente 𝜂2 (Eta quadrato) quando è presente un solo fattore (analisi della varianza a una via) e 𝜂𝑝2 (Eta quadrato parziale) quando è presente più di un fattore (analisi della varianza fattoriale). La formula per calcolare Eta quadrato è la seguente: 𝑆𝑆𝑇𝑟𝑎 𝜂2 = 𝑆𝑆𝑇𝑜𝑡𝑎𝑙𝑒 Come si può osservare dalla formula, Eta quadrato è dato dal rapporto tra la devianza tra i gruppi e la devianza totale. Calcolato in questo modo, Eta quadrato fornisce un indice della proporzione di varianza nella variabile dipendente che è spiegata dal fattore considerato nell’esperimento (la variabile indipendente) rispetto ad altre fonti di variabilità non spiegate dal modello. Eta quadrato può variare da 0 a 1 e può essere espresso in percentuale. Nella ricerca in psicologia è raro riscontrare un 𝜂2 superiore a 0.20. I valori convenzionali di dimensione dell’effetto per questo indice sono, infatti, diversi rispetto a quelli del d di Cohen e sono riportati qui di seguito: - 0.01 per un effetto piccolo; 18 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone - 0.06 per un effetto medio; - 0.14 per un effetto grande. La significatività di 𝜂2 , così come per tutte le altre misure di dimensione dell’effetto, è automaticamente data dalla significatività della statistica test (in questo caso il test F); non è quindi necessario condurre un test di significatività specifico per Eta quadrato. La principale debolezza di Eta quadrato è che tende ad aumentare di valore per ogni variabile aggiuntiva nel modello. Questo perché aggiungendo ulteriori variabili indipendenti aumenta la proporzione di varianza della variabile dipendente spiegata. Per sapere il contributo differenziale di ciascuna variabile indipendente e dell'interazione alla varianza spiegata nella variabile dipendente si può usare Eta quadrato parziale (𝜂𝑝2 ). Questo indice rappresenta la varianza spiegata da ciascun effetto, dopo aver “parzializzato” (cioè controllato) la varianza spiegata dagli altri effetti. Esprime, quindi, il contributo unico di ogni fattore come rapporto tra la variabilità spiegata unicamente da quella variabile indipendente e la variabilità non spiegata dalle altre variabili indipendenti. Da ciò deriva che è possibile calcolare un Eta quadrato parziale per ogni fattore e interazione, modificando la formula precedente di Eta quadrato: 𝑆𝑆𝐶𝑜𝑙𝑜𝑛𝑛𝑒 𝜂𝑝2 𝑐𝑜𝑙𝑜𝑛𝑛𝑒 = 𝑆𝑆𝐶𝑜𝑙𝑜𝑛𝑛𝑒 + 𝑆𝑆𝐸𝑛𝑡𝑟𝑜 𝑆𝑆𝑅𝑖𝑔ℎ𝑒 𝜂𝑝2 𝑟𝑖𝑔ℎ𝑒 = 𝑆𝑆𝑅𝑖𝑔ℎ𝑒 + 𝑆𝑆𝐸𝑛𝑡𝑟𝑜 𝑆𝑆𝐼𝑛𝑡𝑒𝑟𝑎𝑧 𝜂𝑝2 𝑖𝑛𝑡𝑒𝑟𝑎𝑧𝑖𝑜𝑛𝑒 = 𝑆𝑆𝐼𝑛𝑡𝑒𝑟𝑎𝑧 + 𝑆𝑆𝐸𝑛𝑡𝑟𝑜 Anche questo indice varia da 0 a 1, può essere riportato in percentuale e fa riferimento agli stessi valori convenzionali di dimensione dell’effetto di Eta quadrato (0.01 per un effetto piccolo, 0.06 per un effetto medio, 0.14 per un effetto grande). 19 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone 5. Gli assunti dell’analisi della varianza Analogamente a quanto visto nel modulo precedente relativamente al test t per campioni indipendenti, la possibilità di ricorrere all’analisi della varianza (sia a una via che fattoriale) per condurre la verifica delle ipotesi è subordinata alla soddisfazione di alcune condizioni di applicabilità. Di conseguenza, prima dell’utilizzo di questa tecnica di analisi dei dati, occorre verificare che siano soddisfatti gli assunti di validità del test F, elencati qui di seguito: - Le popolazioni di riferimento, da cui sono estratti i campioni, sono distribuite normalmente; - I campioni sono estratti casualmente dalle popolazioni e sono fra loro indipendenti, così come sono indipendenti i soggetti all’interno di ciascun campione; - Le varianze delle popolazioni oggetto di indagine sono uguali tra loro (omoschedasticità); - Gli effetti della variabile indipendente sulla variabile dipendente sono additivi (si sommano a quelli dovuti ad altre variabili controllate, additività). PARTE 2: IL CONFRONTO TRA CAMPIONI DIPENDENTI 6. La logica dei disegni di ricerca a misure ripetute Le tecniche di analisi dei dati che abbiamo approfondito fino a questo punto del programma (il test t per campioni indipendenti e l’analisi della varianza a una via e fattoriale) consentono il confronto fra le medie di due o più gruppi di soggetti fra loro indipendenti. Questo significa che ciascun soggetto può far parte di uno e un solo gruppo e, pertanto, può essere sottoposto ad una sola condizione sperimentale e non può influenzare in alcun modo i valori delle osservazioni provenienti dagli altri gruppi. Quando una ricerca è pianificata in modo che 20 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone vi sia il confronto fra gruppi diversi di soggetti e ciascun soggetto partecipa ad una sola specifica condizione della variabile indipendente ma non alle altre, si parla di disegni sperimentali a gruppi indipendenti (anche detti tra i soggetti o between subjects). L’esempio classico di disegno sperimentale a gruppi indipendenti, come abbiamo visto in questo e nel modulo precedente, è quello in cui il ricercatore è interessato a valutare l’efficacia di un dato trattamento (ad es. farmacologico, cognitivo, psicoterapeutico, ecc.), e per fare ciò assegna in maniera casuale ciascun soggetto del suo campione alle diverse condizioni sperimentali definite dai livelli della variabile indipendente (ad es. condizione 1 = placebo; condizione 2 = trattamento); tutto questo allo scopo di creare due o più gruppi indipendenti di soggetti (ad es. gruppo placebo e gruppo trattamento), che siano il più possibile equivalenti tra loro prima della manipolazione della variabile indipendente. In questo modo, le differenze rilevate tra i gruppi nella variabile dipendente dopo la manipolazione sperimentale sono ragionevolmente attribuibili (causate) dalla variabile indipendente. E nel contesto dei disegni sperimentali a gruppi indipendenti, abbiamo approfondito la logica di base ed il funzionamento del test t e del test F, utili per descrivere e studiare le differenze riscontrate tra le medie di gruppi indipendenti in funzione della manipolazione sperimentale. Consideriamo adesso una ricerca in cui un unico gruppo di soggetti viene sottoposto ad uno stesso trattamento terapeutico, finalizzato, ad esempio, alla riduzione dei sintomi depressivi. Il ricercatore andrà, dunque, a rilevare nel campione, mediante una scala apposita, la gravità dei sintomi per ogni soggetto prima della somministrazione del trattamento (pre-) e dopo la somministrazione dello stesso (post-) al fine di valutare se il trattamento ha portato a dei miglioramenti clinici. In questo esempio sperimentale, il ricercatore non utilizza gruppi differenti di soggetti (gruppo sperimentale e gruppo di controllo) per testare l’efficacia del trattamento, ma, al contrario, utilizza ciascun soggetto sperimentale, attraverso il confronto fra misure pre e misure post, come controllo di se stesso. Questa tipologia di disegno sperimentale è detta disegno a misure ripetute o disegno entro i soggetti (within subjects), perché appunto il gruppo coinvolto nell’esperimento è uno soltanto, mentre le misurazioni effettuate su questo 21 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone stesso gruppo sono più di una; il numero di misurazioni, come vedremo, varia in funzione dei livelli della variabile indipendente che si è interessati a studiare e definisce il tipo di analisi statistica che possiamo condurre sui dati. Quindi, mentre nei disegni sperimentali tra i gruppi, i livelli della variabile indipendente determinano il numero di gruppi indipendenti coinvolti nello studio e ciascun gruppo è sottoposto ad un’unica condizione (ad es. placebo o training), nei disegni sperimentali entro i gruppi, i livelli della variabile indipendente definiscono il numero di misurazioni della variabile dipendente effettuate sullo stesso campione e tutti i soggetti partecipano a tutte le condizioni (sia placebo che training). In questo modo, confrontando più misurazioni ottenute dagli stessi individui, si cerca di eliminare alcune sorgenti di variabilità (errore) che non derivano dalla manipolazione sperimentale e che potrebbero nascondere le reali differenze tra le due o più serie di osservazioni. Un chiaro vantaggio dei disegni a misure ripetute è, infatti, quello di esaminare le differenze fra due misurazioni dopo aver ridotto drasticamente l'effetto della variabilità dovuta alle differenze individuali, poiché sono gli stessi soggetti a essere misurati in condizioni diverse. Nei prossimi paragrafi di questo modulo, andremo ad approfondire alcune delle principali tecniche statistiche che consentono di analizzare i risultati di esperimenti condotti secondo un disegno sperimentale entro i soggetti, suddividendo le stesse in funzione dei livelli della variabile indipendente, che determinano il numero di misurazioni effettuate nel campione. 7. Il test t per misure ripetute In un disegno di ricerca entro i gruppi, se (a) la variabile dipendente è quantitativa (intervalli o rapporti) e (b) il numero di misurazioni all’interno dello stesso campione è uguale a due, la statistica più adatta a verificare se ci sono delle differenze significative nella distribuzione della variabile tra le due misurazioni è il t test per misure ripetute (anche conosciuto come test t per campioni dipendenti). Per spiegare la procedura di verifica delle ipotesi per questa statistica, facciamo un esempio sperimentale: un ricercatore è interessato a valutare gli effetti di un nuovo training 22 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone cognitivo, della durata complessiva di 4 settimane, mirato al potenziamento delle abilità di memoria in soggetti anziani sani. Per verificare gli effetti della variabile indipendente (trattamento), il campione di soggetti partecipanti allo studio (n = 30) viene “misurato” sia subito prima dell’inizio del trattamento (pre) che subito dopo la fine dello stesso (post) con un test per la valutazione della memoria episodica (variabile dipendente). L’obiettivo del ricercatore è quello di valutare gli effetti del trattamento basandosi sulle eventuali differenze riscontrate tra le due misurazioni (pre e post). Il primo passo sarà, dunque, calcolare la differenza (d) tra le due misurazioni: 𝑑 = 𝑋𝑝𝑜𝑠𝑡 − 𝑋𝑝𝑟𝑒 Facendo in questo modo, il ricercatore potrà condurre le successive analisi su una sola variabile (d) data dal differenziale tra le due misurazioni pre e post ottenute in ogni soggetto. I punteggi calcolati in questo modo danno luogo a una distribuzione la cui media è uguale alla somma di tutti i punteggi differenziali diviso per la numerosità del campione: ∑𝑑 𝑑̅ = 𝑛 Per semplicità, riportiamo in tabella i dati relativi ad un sottogruppo di 6 soggetti: 23 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone Una volta calcolati i punteggi differenziali tra pre e post per ciascun soggetto nello studio (come riportato nella colonna quarta colonna, d, della tabella sopra riportata), si procede alla verifica delle ipotesi utilizzando queste differenze come punteggi e, quindi, ignorando i dati originali rilevati prima e dopo gli interventi. In altre parole, conduciamo le analisi come se si trattasse di un campione singolo di punteggi. Il primo passaggio, come al solito, è la formulazione delle ipotesi di ricerca sui parametri della popolazione. L’ipotesi nulla nei disegni a misure ripetute predice che in media non c’è differenza fra le due serie di punteggi. Dire che in media non c’è differenza tra i punteggi pre e punteggi post equivale a dire che la media delle differenze tra i punteggi è uguale a 0: 𝐻0 : 𝜇𝑑̅ = 0 Così formulata, dunque, l’ipotesi nulla stabilisce che il trattamento non produce alcun effetto nei punteggi della variabile dipendente a livello di popolazione. Al contrario, l’ipotesi alternativa predice che la media delle differenze tra i punteggi è diversa da 0, per cui il trattamento ha effetti sui punteggi nella popolazione: 𝐻1 : 𝜇𝑑̅ ≠ 0 Per il calcolo del test t per misure ripetute è necessario innanzitutto calcolare la media e la deviazione standard della distribuzione delle differenze. Abbiamo già visto come calcolare la media: 24 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone ∑𝑑 15 𝑑̅ = = = 2.5 𝑛 6 La formula per il calcolo della deviazione standard delle differenze è la seguente: 2 ∑ 𝑑2 ∑𝑑 𝑠𝑑 = √ −( ) 𝑛 𝑛 55 =√ − (2.5)2 = 1.7 6 A questo punto è possibile procedere al calcolo del test t per misure ripetute, valutabile sulla distribuzione t di Student con (n – 1) gradi di libertà. La formula del t test è la seguente: 𝑑̅ − 𝜇𝑑̅ 𝑡𝑇𝑒𝑠𝑡 = 𝜎̂𝑑 Dal momento che stiamo sottoponendo a verifica l’ipotesi nulla, secondo cui 𝜇𝑑̅ = 0, possiamo eliminare questa parte dalla formula, per cui rimane: 𝑑̅ 𝑡𝑇𝑒𝑠𝑡 = 𝜎̂𝑑 Ricordiamo che la deviazione standard delle differenze tra i punteggi nella popolazione (𝜎𝑑 ) non è nota, ma possiamo stimarne il valore (𝜎̂𝑑 ) dalla deviazione standard campionaria, dividendo il suo valore per la radice quadrata dei gradi di libertà (n – 1): 𝑠𝑑 𝜎̂𝑑 = √𝑛 − 1 Applicando la formula di calcolo del test t ai nostri dati in tabella otteniamo: 2.5 𝑡𝑇𝑒𝑠𝑡 = = 3.28 (1.7⁄√5) Ponendo di aver prescelto un livello di significatività α = 0.05, con (6 – 1 =) 5 gradi di libertà, il valore critico sulla distribuzione t di Student è pari a 𝑡𝐶𝑟𝑖𝑡𝑖𝑐𝑜 = 2.57. 25 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone Poiché il valore della statistica test (𝑡𝑇𝑒𝑠𝑡 = 3.18) è maggiore del valore critico che separa la regione di accettazione e rifiuto dell’ipotesi nulla (𝑡𝐶𝑟𝑖𝑡𝑖𝑐𝑜 = 2.57), possiamo rifiutare l’ipotesi nulla e concludere che a livello di popolazione il trattamento ha effetti significativi sulla media dei punteggi riportati dai soggetti. 8. L’analisi della varianza per misure ripetute Nel caso di disegno sperimentale entro i gruppi in cui (a) la variabile dipendente è espressa su scala quantitativa (a intervalli o a rapporti) e (b) la variabile indipendente ha tre o più livelli che definiscono il numero di misurazioni effettuate sulla variabile dipendente, allora la statistica più adatta alla verifica di ipotesi sulla differenza tra le medie è l’analisi della varianza a misure ripetute. Si tratta, dunque, di un’estensione dell’omonimo test t: entrambe le tecniche sono utilizzate, infatti, per confrontare i valori medi di misurazioni ripetute in disegni entro i gruppi, con la differenza, però, che mentre il test t permette di confrontare solo due misurazioni, l’analisi della varianza permette di confrontare un numero qualsiasi di misurazioni. Dunque, questa tecnica prevede tante misurazioni della variabile dipendente, effettuate sulle stesse unità statistiche, quanti sono i k livelli in cui è suddivisa la variabile indipendente. Proviamo ad estendere l’esempio proposto nel paragrafo precedente per adattarlo a questa nuova situazione sperimentale. Immaginiamo che il nostro ricercatore sia interessato anche qui a valutare gli effetti di un nuovo trattamento cognitivo per il potenziamento delle abilità di memoria delle persone anziane sane; in questo caso, però, è anche interessato a valutare se gli eventuali effetti benefici del trattamento sulla memoria sono mantenuti nel tempo dopo la fine del trattamento. A tal proposito decide di sottoporre il suo campione sperimentale di n = 30 soggetti anziani sani a tre misurazioni nel tempo della variabile dipendente (abilità di memoria): (1) subito prima del trattamento (pre), (2) subito dopo la fine del trattamento (post-1) e (3) a distanza di 6 settimane dalla fine del trattamento (post-2). 26 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone La logica di base dell’analisi della varianza a misure ripetute è molto simile a quella dell’ANOVA tra campioni indipendenti. La differenza sta nel fatto che i livelli delle variabili indipendenti non sono misurate su gruppi diversi di soggetti, ma rappresentano le diverse condizioni (nel nostro esempio i diversi tempi) in cui la variabile dipendente è misurata negli stessi soggetti. La formulazione delle ipotesi di ricerca sui parametri delle popolazioni per l'ANOVA a misure ripetute è esattamente la stesse di quella per l'ANOVA per campioni indipendenti. Nello specifico, l'ipotesi nulla afferma che nella popolazione generale non vi sono differenze medie tra le condizioni di trattamento confrontate (pre, post-1 e post-2). In formula: 𝐻0 : 𝜇1 = 𝜇2 = 𝜇3 L'ipotesi nulla dunque predice che, in media, tutti i trattamenti hanno esattamente lo stesso effetto, per cui le eventuali differenze che possono esistere tra le medie campionarie non sono causate da effetti sistematici del trattamento ma piuttosto sono il risultato di fattori casuali. L'ipotesi alternativa, al contrario, afferma che ci sono differenze medie tra le condizioni di trattamento. Come nel caso dell’ANOVA per gruppi indipendenti, non si specifica esattamente quali trattamenti sono diversi, ma si predice che in generale esistono differenze: 𝐻1 : 𝐴𝑙𝑚𝑒𝑛𝑜 𝑢𝑛𝑎 𝑚𝑒𝑑𝑖𝑎 𝑑𝑒𝑙 𝑡𝑟𝑎𝑡𝑡𝑎𝑚𝑒𝑛𝑡𝑜 (𝜇)è 𝑑𝑖𝑣𝑒𝑟𝑠𝑎 𝑑𝑎𝑙𝑙𝑒 𝑎𝑙𝑡𝑟𝑒 Per il calcolo del test F si procede di nuovo con il metodo della scomposizione delle varianze, per cui: 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑜𝑡𝑎𝑙𝑒 = 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑟𝑎 𝑙𝑒 𝑚𝑖𝑠𝑢𝑟𝑎𝑧𝑖𝑜𝑛𝑖 + 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 E dove il rapporto F è uguale a: 𝑆𝑡𝑖𝑚𝑎 𝑑𝑒𝑙𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑟𝑎 𝑙𝑒 𝑚𝑖𝑠𝑢𝑟𝑎𝑧𝑖𝑜𝑛𝑖 𝐹𝑡𝑒𝑠𝑡 = 𝑆𝑡𝑖𝑚𝑎 𝑑𝑒𝑙𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 27 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone Nell’analisi della varianza tra i gruppi indipendenti, abbiamo visto che: 𝑉𝑎𝑟𝑖𝑎𝑏. 𝑡𝑟𝑎 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 = 𝑐𝑜𝑛𝑑𝑖𝑧𝑖𝑜𝑛𝑒 𝑠𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑎𝑙𝑒 + 𝑑𝑖𝑓𝑓𝑒𝑟𝑒𝑛𝑧𝑒 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑎𝑙𝑖 + 𝑒𝑟𝑟𝑜𝑟𝑒 𝑉𝑎𝑟𝑖𝑎𝑏. 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 = 𝑑𝑖𝑓𝑓𝑒𝑟𝑒𝑛𝑧𝑒 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑎𝑙𝑖 + 𝑒𝑟𝑟𝑜𝑟𝑒 Al contrario, in uno studio a misure ripetute esattamente gli stessi individui partecipano a tutte le condizioni di trattamento. Pertanto, se ci sono differenze medie tra i trattamenti, non possono essere spiegate dalle differenze individuali (come invece avviene nei disegni tra gruppi) perché stiamo misurando gli stessi soggetti in tempi diversi. In questo modo, le differenze individuali vengono automaticamente eliminate dal numeratore del rapporto F a misure ripetute e la variabilità nei punteggi tra le misurazioni (𝑆𝑆𝑇𝑟𝑎 ) sarà, quindi, il risultato dell’effetto dei trattamenti e dell’errore. Un disegno a misure ripetute consente, inoltre, di quantificare e rimuovere le differenze individuali anche dalla varianza al denominatore del rapporto F. Poiché, infatti, gli stessi individui vengono misurati in ogni condizione di trattamento e poiché le differenze individuali sono sistematiche e prevedibili, all’interno della variabilità entro le misurazioni è possibile misurare l'entità delle differenze individuali (𝑆𝑆𝑆𝑜𝑔𝑔 ) e separarle dalle differenze casuali e non sistematiche (𝑆𝑆𝐸𝑟𝑟 ) nel denominatore del rapporto F. Il risultato rimanente è detto devianza residua (𝑆𝑆𝑅𝑒𝑠 = 𝑆𝑆𝑆𝑜𝑔𝑔 − 𝑆𝑆𝐸𝑟𝑟 ). Eliminando le differenze individuali sia dal numeratore che dal denominatore, la formula del rapporto F per misure ripetute può, dunque essere riscritta nel modo seguente: 𝑆𝑡𝑖𝑚𝑎 𝑑𝑒𝑙𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑠𝑝𝑖𝑒𝑔𝑎𝑡𝑎 (𝑡𝑟𝑎𝑡𝑡𝑎𝑚𝑒𝑛𝑡𝑜 + 𝑒𝑟𝑟𝑜𝑟𝑒) 𝐹𝑡𝑒𝑠𝑡 = 𝑆𝑡𝑖𝑚𝑎 𝑑𝑒𝑙𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑟𝑒𝑠𝑖𝑑𝑢𝑎 (𝑒𝑟𝑟𝑜𝑟𝑒) dove la stima della varianza spiegata è uguale alla devianza tra le misurazioni (𝑆𝑆𝑇𝑟𝑎 ) diviso per i gradi di libertà tra le misurazioni (𝑔𝑙 𝑇𝑟𝑎 = 𝑘 − 1): 2 𝑆𝑆𝑇𝑟𝑎 𝑆𝑇𝑟𝑎 = 𝑘−1 28 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone e la stima della varianza residua è uguale alla devianza residua (𝑆𝑆𝑆𝑜𝑔𝑔 − 𝑆𝑆𝐸𝑟𝑟 ) diviso per i gradi di libertà residui (𝑔𝑙𝑟𝑒𝑠 = numero di trattamenti meno 1 moltiplicato il numero di soggetti per gruppo meno 1): 2 𝑆𝑆𝑅𝑒𝑠 𝑆𝑅𝑒𝑠 = (𝑘 − 1) ∙ (𝑛𝑘 − 1) Unendo i vari pezzi, la formula del rapporto F diventa: 2 𝑆𝑇𝑟𝑎 𝐹𝑡𝑒𝑠𝑡 = 2 𝑆𝑅𝑒𝑠 Se il valore del rapporto F è maggiore del valore critico identificato nella tabella di distribuzione F di Fisher in funzione del livello di significatività α prescelto e dei gradi di libertà al numeratore e al denominatore della formula, possiamo rifiutare l’ipotesi nulla e concludere che le differenze tra i trattamenti sono significativamente maggiori di quanto sarebbe ragionevole aspettarsi dal semplice effetto di fattori casuali. Pertanto, se si osserva che la variabilità spiegata è significativamente maggiore di quella residua (errore), possiamo sostenere che: (1) la variabilità osservata nella variabile dipendente è riconducibile alla variabile indipendente che ha influenzato le misure e (2) esiste almeno una differenza tra le k misurazioni che è riconducibile alla variabile indipendente, ovvero esiste almeno una misurazione (un trattamento) in cui la variabile dipendente si distribuisce in modo diverso dalle altre. 9. La dimensione dell’effetto per misure ripetute Nel caso in cui la verifica delle ipotesi conduca al rifiuto dell’ipotesi nulla, per determinare la dimensione dell’effetto si può ricorrere, anche per l’analisi della varianza a misure ripetute, al calcolo di 𝜂2 (Eta quadrato), che è uguale al rapporto tra la devianza spiegata e la devianza di errore. In formula: 𝑆𝑆𝑡𝑟𝑎 𝜂2 = 𝑆𝑆𝑟𝑒𝑠 29 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge Corso di Tecniche di ricerca e analisi dei dati Prof. Maria Stefania De Simone Anche in questo caso, Eta quadrato può variare da 0 a 1, può essere espresso in percentuale e fornisce un indice della proporzione di varianza fra le varie misurazioni della variabile dipendente che è spiegata dalla variabile indipendente rispetto ad altre fonti di variabilità non spiegate dal modello. Le dimensioni convenzionali dell’effetto sono le stesse rispetto all’analisi della varianza per gruppi indipendenti: 0.06 per un effetto piccolo, 0.14 per un effetto medio e 0.20 per un effetto grande. 10. Gli assunti dell’analisi della varianza per misure ripetute L’applicabilità dell’analisi della varianza per misure ripetute è subordinata alle stesse assunzioni delle altre procedure inferenziali fin qui affrontate, tranne, ovviamente, che per l’indipendenza dei gruppi: 1. La variabile dipendente è misurata su scala a intervalli o a rapporti; 2. La variabile dipendente segue una legge di distribuzione normale in ogni popolazione considerata; 3. Le osservazioni sono mutualmente indipendenti fra loro. Oltre a questi tre assunti, l’analisi della varianza a misure ripetute richiede anche che le varianze delle differenze fra tutte le coppie di misurazioni siano simili fra loro nelle rispettive popolazioni. Questo è chiamato assunto di sfericità e può essere testato attraverso il test di sfericità di Mauchley. In questo test, l’ipotesi nulla predice che le varianze siano omogenee, per cui se il risultato della verifica di ipotesi NON è significativo, vuol dire che stiamo rispettando l’assunzione di sfericità e possiamo procedere con l’analisi della varianza per misure ripetute. Quando, invece, il risultato della verifica di ipotesi per il test di Mauchley è significativo, il che indica una violazione dell’assunto di sfericità, si procede correggendo i gradi di libertà della statistica F applicando una delle tre possibili correzioni implementate nella maggior parte dei software statistici: Greenhouse-Geisser (la più conservativa), Huynh-Feldt o Lower-bound. 30 Revisione in data 01/12/2022 È vietato copiare e riprodurre il presente documento se non nei limiti di legge

Use Quizgecko on...
Browser
Browser