Metodologia della Ricerca PDF - Università di Torino

Document Details

FashionableSparrow

Uploaded by FashionableSparrow

Università degli Studi di Torino

2023

Tommaso Costa

Tags

metodologia della ricerca psicologia ricerca scientifica comportamento umano

Summary

Questo documento fornisce un riassunto del capitolo introduttivo alla metodologia della ricerca in psicologia, specificatamente per la facoltà di studi di Torino. Il testo discute il metodo scientifico, i diversi approcci (scientifico e ingenuo) alla conoscenza e l'importanza di un'osservazione sistematica nel processo di ricerca in psicologia. Il documento descrive inoltre la fondazione storica di questa branca e l'influenza del contesto socioculturale ed etico nella ricerca.

Full Transcript

METODOLOGIA DELLA RICERCA Università degli studi di Torino I SEMESTRE - Anno Accademico 2022-2023 Prof.: Tommaso Costa Riassunto Capitolo 1 - Introduzione 1.1 La psicologia scientifica Gli psicologi cercano di rispondere a interrogativi che riguardano i...

METODOLOGIA DELLA RICERCA Università degli studi di Torino I SEMESTRE - Anno Accademico 2022-2023 Prof.: Tommaso Costa Riassunto Capitolo 1 - Introduzione 1.1 La psicologia scientifica Gli psicologi cercano di rispondere a interrogativi che riguardano il comportamento, i pensieri, i sentimenti, utilizzando il metodo scientifico. Il metodo scientifico fa riferimento alla maniera in cui vengono poste le domande di ricerca ed ai metodi utilizzati per ottenere delle risposte. Due importanti caratteristiche del metodo scientifico sono l’approccio empirico e l’atteggiamento scettico che gli scienziati adottano nei confronti delle spiegazioni riguardo comportamento e processi mentali. Almeno 3 contesti giocano un ruolo importante nell’influenzare la scienza: il contesto storico, il contesto socioculturale e quello etico. 1.2 Il contesto storico La psicologia è emersa gradualmente, ebbe origini nel pensiero di Aristotele, si sviluppò poi negli scritti filosofici successivi di Cartesio, Locke e più tardi con il lavoro di psicologi e fisici all’inizio del XIX secolo. La nascita ufficiale della psicologia fa riferimento al 1879, anno in cui W. Wundt fondò uno dei primi laboratori di psicologia a Lipsia, Germania. Una delle decisioni che i primi psicologi dovettero prendere alla fine del XIX secolo riguardò l’opportunità di affiliare la psicologia alla scienza fisica o di farla rimanere una sotto disciplina della filosofia. Con lo sviluppo dei metodi psicofisici (con Fechner) e dei metodi dei tempi di reazione per la comprensione della trasmissione nel SN (Helmholtz), gli psicologi ritennero di poter misurare il pensiero stesso. Con questi metodi innovativi, la psicologia aveva la possibilità di fondarsi come scienza quantificabile, basata sul metodo sperimentale e paragonabile alla fisica, chimica e astronomia. Nel passaggio al XX secolo, l’interesse per lo spiritismo e i fenomeni sensitivi rappresentò un forte ostacolo all’affermarsi della psicologia scientifica: da un lato alcuni associavano questi temi alla psicologia e cercavano in questa le risposte, dall’altro molti psicologi tentavano di dissociarsi da questi temi pseudoscientifici. Per questo, gli psicologi abbracciarono l’empirismo come strumento per progredire nella comprensione del comportamento umano. L’approccio empirico enfatizza l’osservazione diretta e la sperimentazione come strumento per rispondere alle domande; si tratta forse della caratteristica più importante del metodo scientifico. Utilizzando tale approccio, gli psicologi si focalizzarono sui comportamenti e sulle esperienze che potevano essere osservati direttamente. La psicologia è cambiata in modo significativo dai suoi inizi, pur continuando a enfatizzare l’approccio empirico. All’inizio del XX secolo, gli psicologi negli USA erano fortemente influenzati dall’approccio comportamentista, introdotto da J. Watson; per il comportamentismo la mente era una “scatola nera” (black box) che rappresentava l’attività fra uno stimolo esterno e una risposta comportamentale. Il comportamentismo mantenne la sua posizione ben oltre la metà del XX secolo; tuttavia, con la pubblicazione del libro “Psicologia cognitiva” di Neisser, nel ‘67, l’attenzione della psicologia si focalizzò di nuovo sui processi mentali e sullo studio della loro natura. Tutt’ora la prospettiva cognitivista è dominante e più recentemente i processi cognitivi sono stati l’oggetto principale delle neuroscienze. All’inizio del XXI secolo, la psicologia scientifica ha un grande potenziale di sviluppo. La rivoluzione informatica ha influenzato fortemente la psicologia cognitiva; l’avvento del computer ha permesso la rappresentazione della “scatola nera” comportamentista: si parla di elaborazione, memorizzazione e recupero dell’info tra input (stimolo) e output (risposta). Il computer e la sua evoluzione hanno anche migliorato le tecniche per la misurazione dei processi cognitivi, sostituendo carta e penna. Analogamente, il continuo miglioramento delle tecniche di brainimaging continua a promuovere le neuroscienze a importante disciplina psicologica, biologica e chimica. Questi orientamenti generali nello sviluppo storico della psicologia rappresentano un quadro generale della psicologia del XX secolo, composta in realtà da una miriade di argomenti diversi e personalità individuali di spicco. Gli psicologi oggi fanno ricerca in diverse aree scientifiche, dalla psicologia clinica a quella organizzativa, fisiologica, del lavoro etc...; questi studi ci aiutano a comprendere la complessità del comportamento e dei processi mentali. 1.3 Il contesto socioculturale La scienza è influenzata non solo dal proprio contesto storico, ma anche dai contesti sociali e culturali dominanti. La ricerca psicologica e la sua applicazione sono in relazione circolare con la società (l’una influenza l’altra): il contesto socioculturale influenza ciò che i ricercatori scelgono di studiare e come studiarlo, le risorse disponibili e l’accettazione sociale dei risultati da parte dell’opinione pubblica. La sensibilità degli psicologi alle preoccupazioni della società è una delle ragioni per cui la psicologia non si è sviluppata come scienza di laboratorio in senso stretto, ma come disciplina poliedrica, diffusa anche su Internet. Internet in particolare sta diventando uno strumento utile e ampiamente impiegato in psicologia, grazie all’enorme pool di partecipanti potenzialmente disponibili e facilmente raggiungibili con pop up, siti web. Ora, se riconosciamo che la scienza è influenzata dai valori socioculturali, resta da capire quale cultura sia o quale dovrebbe essere ad avere quest’influenza. L’American Association of Psychology pone l’accento sugli USA ovviamente, ma quando si cerca di comprendere il comportamento di persone di una diversa cultura attraverso la prospettiva della nostra si può ricadere nell’etnocentrismo, che può essere evitato attraverso una ricerca cross-culturale. 1.4 Il contesto etico I singoli scienziati e le iniziative collettive devono assicurare che il contesto etico in cui si sviluppa l’attività scientifica rispetti gli standard più elevati. Sebbene frode e travisamento non dovrebbero mai essere parte della ricerca, quest’ultima è un’attività umana in cui scienziati e istituzioni competono per ottenere soldi, riconoscimenti e in palio c’è molto più della semplice verità scientifica. Ci sono sempre episodi di cattiva condotta scientifica: plagio, falsificazione dei dati, trattamento non etico dei partecipanti, uso improprio dei fondi etc....Per istruire i ricercatori ad una condotta corretta, la maggior parte delle organizzazioni scientifiche ha adottato sei codici etici formali. 1.5 Pensare come un ricercatore Un primo passo importante per un futuro ricercatore è imparare a mantenere un atteggiamento scettico riguardo alle cause del comportamento e dei processi mentali (caratteristica importante del metodo scientifico). Il ricercatore si sforza di trarre conclusioni basate su prove empiriche, non su giudizi soggettivi e riconosce che il comportamento sia qualcosa di complesso, dipendente da molti fattori, molti umani e soggetti all’errore: ecco perché è scettico. Lo scetticismo porta i ricercatori a essere più cauti della maggior parte delle persone e a prendere in considerazione ogni possibilità prima di trarre conclusioni. Tuttavia, è importante riconoscere anche il ruolo della fiducia nella vita del ricercatore: fiducia nei propri strumenti, nei colleghi, nei partecipanti e nel proprio giudizio professionale. Imparare a pensare come un ricercatore permette di diventare un consumatore più efficace di risultati scientifici e di imparare a fare ricerca e contribuire alla comunità scientifica. La maggior parte delle persone entra in contatto con i risultati scientifici attraverso i media; questo solleva due problemi: 1) le ricerche non sono sempre di buona qualità 2) alcuni passaggi relativi ai risultati scientifici possono essere andati perduti nel passaggio dalla pubblicazione scientifica ai media. Imparare sul metodo scientifico permette di discernere le ricerche di qualità da quelle distorte. Se si vuole cominciare una ricerca, la prima decisione da prendere riguarda quale argomento trattare. La psicologia offre moltissimi campi di ricerca e chi vuole iniziare un progetto può trarre spunto dai manuali, dai corsi, dalle riviste e da convegni come i colloquia, presentazioni formali delle ricerche di fronte alla comunità scientifica. Una volta scelto l’argomento, è fondamentale esplorare la letteratura precedente: la risposta ai nostri quesiti potrebbe già esistere, potrebbero esistere ricerche simili che offrono importanti spunti etc.; la scienza è un’impresa cumulativa: la ricerca attuale si costruisce sulla ricerca passata. In questa fase è utile farsi assistere da persone esperte e competenti del settore. Il passo successivo è identificare un’ipotesi, ossia un tentativo di spiegare un fenomeno; McGuire ha identificato 49 semplici regole per costruire un’ipotesi, tra cui osservare in modo attento e prolungato una persona o un fenomeno, considerare problemi simili la cui soluzione è già nota etc. Capitolo 2 - Il metodo scientifico 2.1 Approccio scientifico e approccio ingenuo alla conoscenza Da più di 100 anni alla base della ricerca psicologica c’è il metodo scientifico, che ha come obiettivo la ricerca della verità. Per comprenderlo meglio dobbiamo però distinguerlo dall’approccio ingenuo o non scientifico sulla base di alcune caratteristiche: 1) approccio generale e atteggiamento: nel cap. 1 abbiamo parlato dell’approccio scettico degli scienziati, che di fatto sono più cauti nell’accettare acriticamente affermazioni sul comportamento e sul processo mentale e che valutano criticamente le evidenze empiriche prima di giungere a conclusioni affrettate. Al contrario, il comune modo di pensare considera vere le affermazioni senza richiedere evidenze empiriche. Questa è la prima differenza fondamentale: l’approccio scientifico è empirico e non intuitivo; si basa infatti sull’uso di osservazione diretta e della sperimentazione per rispondere ai quesiti di ricerca. L’intuito, invece, è la base dell’approccio ingenuo e spesso conduce a bias cognitivi, sebbene possa avere un ruolo nelle prime fasi del metodo scientifico, durante la definizione della domanda di ricerca; 2) osservazione: nonostante si possa imparare dalle osservazioni casuali non scientifiche, raramente queste sono condotte in modo attento e sistematico: non ci preoccupiamo degli errori o di eliminare possibili fattori di influenza e spesso traiamo conclusioni errate. Un’altra differenza rispetto al metodo scientifico sta proprio nel fatto che l’osservazione è sistematica e controllata. Gli scienziati ottengono il più alto controllo effettuando un esperimento, ossia manipolando una o più variabili indipendenti (VI) e osservando come questa manipolazione influisca sulla variabile dipendente, il comportamento. L’esperimento più semplice prevede che la VI abbia 2 livelli, spesso indicanti la presenza o l’assenza del trattamento e chiamati rispettivamente condizione sperimentale e condizione di controllo. Le misure del comportamento utilizzate per valutare l’eventuale effetto di VI sono chiamate variabili dipendenti (VD). L’obiettivo degli scienziati è determinare se queste eventuali differenze nella VD siano causate dalle diverse condizioni di VI oppure dal caso o da altre variabili; 3) resoconto: nei racconti quotidiani spesso rientrano distorsioni personali e impressioni soggettive; quando invece gli scienziati riportano le loro scoperte, cercano di separare ciò che hanno osservato empiricamente da ciò che hanno concluso o inferito sulla base delle osservazioni. I ricercatori devono sempre guardarsi dalla tendenza a trarre conclusioni troppo affrettate e descrivere gli eventi con dettagli sufficienti, senza includere minuzie inutili e insignificanti. In pratica i resoconti scientifici devono essere obiettivi; un modo per stabilire l’obiettività del resoconto è vedere se un altro osservatore osservi i medesimi eventi. Sfortunatamente, alcune distorsioni nella rilevazione dei dati possono essere subdole e non sempre rilevabili; 4) concetti: nel suo uso comune, il termine “concetto” viene utilizzato per riferirci a cose, eventi e relazioni tra cose e eventi, così come alle loro caratteristiche; i concetti sono i simboli con cui normalmente comunichiamo e per una comunicazione chiara e non ambigua, è necessario che siano definiti chiaramente. Nelle conversazioni quotidiane non ci preoccupiamo molto di come sono definiti i concetti e di comprenderli davvero, ma nella psicologia i concetti sono alla base della ricerca e prendono il nome di costrutti. Il costrutto è un concetto o un’idea e per poterne dare un significato preciso, i ricercatori lo definiscono operativamente. La definizione operativa spiega un concetto esclusivamente in termini di procedure utilizzate per produrlo e misurarlo. Le definizioni operative vengono spesso criticate per vari motivi: innanzitutto esistono più definizioni per lo stesso costrutto (quindi ci sono tipi diversi dello stesso costrutto quante sono le definizioni? Non si può rispondere con certezza) e in secondo luogo, le definizioni operative possono assumere significati diversi in base ai contesti culturali; 5) strumenti: per misurare gli eventi dipendiamo dagli strumenti più di quanto pensiamo e possiamo quindi renderci conto dei problemi che possono comportare strumenti non accurati. L’accuratezza di uno strumento si ottiene calibrandolo o controllandolo con un altro strumento che sappiamo essere accurato. Le misure possono essere effettuate a diversi livelli di precisione. Abbiamo bisogno di strumenti anche per misurare il comportamento; la precisione e l’accuratezza di questi sono migliorati dal 1879, tanto che oggi gli strumenti di psicologia sono estremamente sofisticati; 6) misurazione: gli scienziati usano due tipi di misure per registrare le osservazioni intenzionali e controllate che caratterizzano il metodo scientifico: - la misura fisica: comporta dimensioni per le quali esiste uno standard stabilito e uno strumento per attuare la misurazione (lunghezza, peso etc ); - la misura psicologica: si tratta dell’osservatore umano o più nello specifico è l’accordo fra un numero di osservatori indipendenti a fornire la base per la misura psicologica. La regola di base è che le misure devono essere valide e attendibili: in genere la validità si riferisce alla capacità di un test di misurare esattamente ciò che ci si propone di misurare, mentre l’attendibilità è il grado di precisione di una procedura di misurazione (quanto un test produce risultati coerenti e stabili nel tempo). Distinguiamo vari tipi di validità e attendibilità della misurazione (proprietà psicometriche). Attenzione: il concetto di validità di una misura non va confuso con quello di validità della ricerca, legato alla qualità della ricerca stessa. Approfondimento sui tipi di validità valutabili: - validità statistica: riguarda la validità delle inferenze circa la correlazione fra la VI e la VD e ha a che fare con l’uso del test statistico appropriato per la scala di misura delle variabili e le caratteristiche distributive da una parte e con l’adeguatezza dell’ampiezza del campione dall’altra; - validità interna: il grado in cui le differenze in una prestazione possono essere attribuite in modo inequivocabile a un effetto della VI invece che a un effetto di qualche altra variabile incontrollata. Uno studio internamente valido è libero da fattori confondenti; - validità di costrutto: capacità di una misura di misurare ciò che intende misurare; - validità esterna: situazione in cui i risultati di uno studio possono essere generalizzati a popolazioni, condizioni e situazioni diverse; - validità ecologica: si intende la caratteristica di una procedura di ricerca che misuri effettivamente ciò che presume di misurare. Una ricerca è ecologicamente valida quando l’ambiente di cui i soggetti fanno esperienza ha le caratteristiche che il ricercatore suppone o assume; 7) ipotesi: l’ipotesi è il tentativo di spiegazione di qualcosa; per certi versi può semplicemente indicare come sono associate delle variabili. Le variabili sono una caratteristica, un attributo o una condizione di un oggetto/persona/evento che varia a seconda delle situazioni o degli individui. Una caratteristica che distingue le ipotesi casuali dalle ipotesi scientifiche è la verificabilità: se un’ipotesi non è verificabile non è utile alla scienza. 3 tipi di ipotesi non riescono a passare il test di verificabilità: un’ipotesi non è verificabile se: A. i suoi costrutti non sono adeguatamente definiti; B. è circolare; C. si appella a idee non riconosciute dalla scienza. 2.2 Le finalità del metodo scientifico Cosa caratterizza il metodo scientifico? Un approccio empirico, osservazione sistematica e controllata, un resoconto obiettivo, chiare definizioni dei costrutti, strumenti accurati e precisi, misure valide e attendibili e da ipotesi verificabili. Gli psicologi usano il metodo scientifico per rispondere a 4 finalità: 1) descrizione: procedure che i ricercatori usano per definire, classificare, catalogare o categorizzare gli eventi e le loro relazioni, con lo scopo di descrivere processi mentali e comportamenti. Per esempio, la ricerca clinica fornisce i criteri per classificare i disordini mentali che vengono raccolti nel Manuale diagnostico DSM-5. Per descrivere i fenomeni si utilizza in genere l’approccio nomotetico, con il quale si tenta di stabilire ampie generalizzazioni e leggi generali da applicare a diverse popolazioni. Per ottenere ciò vengono coinvolti tanti partecipanti e si descrive il funzionamento medio o tipico del gruppo, che ovviamente non può descrivere il funzionamento di ogni singola persona. Alcuni psicologi ritengono, però, che l’approccio nomotetico sia inadeguato e preferiscono l’approccio idiografico: studiano la persona piuttosto che i gruppi. In ogni caso, la regola generale prevede che i ricercatori decidano quale metodo adottare in base al quesito di ricerca. Un’ulteriore decisione che deve prendere il ricercatore è se usare una ricerca quantitativa o qualitativa: - ricerca quantitativa: studi i cui risultati sono principalmente l’esito di analisi statistiche, dati ricavati da interviste e osservazioni; - ricerca qualitativa: studi i cui risultati si basano sull’analisi di materiale verbale. In generale la ricerca psicologica è più spesso nomotetica che idiografica e più spesso quantitativa che qualitativa; 2) predizione: l’identificazione di correlazioni tra variabili rende possibile la predizione di processi mentali e comportamentali. Quando i punteggi di una variabile possono essere usati per predire i punteggi di una seconda variabile esse sono correlate. Esiste una correlazione quando due diverse misurazioni variano insieme (covariano). Una predizione corretta non sempre dipende dal sapere perché esista una relazione tra due variabili; 3) spiegazione e comprensione: i ricercatori comprendono un fenomeno quando riescono a identificarne la causa. Per fare ciò i ricercatori conducono degli esperimenti: la ricerca sperimentale differisce da quella descrittiva e predittiva (correlazionale) per l’elevato livello di controllo che i ricercatori esercitano conducendo gli esperimenti. Per poter stabilire un’inferenza causale è necessario che siano rispettate tre condizioni: - covariazione degli eventi: quando si fa un esperimento la covariazione tra VI e VD è il risultato atteso; - relazione temporale (contingenza): la causa presunta deve avvenire prima del presunto effetto; - eliminazione di plausibili cause alternative: rendere costanti le variabili confondenti; 4) applicazione: gli psicologi applicano le loro conoscenze e i loro metodi di ricerca per migliore la vita delle persone. La ricerca applicata ha come obiettivo il cambiamento del comportamento delle persone, mentre la ricerca di base si occupa di comprendere il comportamento e i processi mentali. 2.3 Costruzione e verifica di una teoria scientifica Una teoria psicologica può essere sviluppata secondo diversi livelli di spiegazione e può avere obiettivi diversi in base all’ampiezza degli eventi che cerca di spiegare. La definizione per eccellenza di teoria descrive una serie di proposizioni organizzate con logica che servono a definire eventi, descrivere relazioni e spiegare il verificarsi degli eventi. Le funzioni principali della teoria scientifica consistono nello strutturare la conoscenza empirica e indirizzare la ricerca fornendo un’organizzazione logica dei risultati. Le teorie richiedono che vengano ipotizzati dei fattori intervenienti, ossia processi o variabili che stabiliscono un collegamento tra variabili indipendenti manipolate e variabili dipendenti misurate. Queste variabili intervenienti non solo connettono le VI alle VD, ma sono anche usate per spiegare le connessioni delle variabili. È cruciale valutare e verificare una teoria, poiché una buona teoria scientifica deve essere in grado di superare le prove di verifica più rigide: deve essere logica (deve avere senso e le sue proposizioni non devono avere contraddizioni), precisa (le predizioni non sono generali) e parsimoniosa (la spiegazione più semplice di un fenomeno è la migliore). Capitolo 3 - La misurazione in psicologia 3.1 L’oggetto di misurazione Prima di decidere come misurare occorre capire cosa misurare, ossia quali costrutti prendere in considerazione nella nostra ricerca e collocarli nella letteratura psicologica precedente; il costrutto è concetto astratto che indica un complesso organizzato della vita psichica non osservabile direttamente. Per poter misurare un costrutto è necessario darne una definizione operativa, poiché non essendo direttamente osservabile è possibile studiarlo solo attraverso l’individuazione di aspetti osservabili e misurabili: comportamento, descrizioni, neuroni ecc. Noi sappiamo dell’esistenza dell’ansia, ma non possiamo osservarla direttamente: individuiamo, perciò, le variabili che riteniamo indicatori osservabili dell’ansia. Quindi: si passa dalle teorie ai costrutti attraverso le definizioni teoriche e dai costrutti alle variabili attraverso le definizioni operative (operazionalizzazione). Infine, si passa a misurare le variabili stesse. Operazionalizzare un costrutto significa individuarne gli indicatori osservabili nella realtà (comportamenti e atteggiamenti) che lo rendono misurabile, arrivando alla sua definizione operativa. Il termine “operazionalizzazione” deriva dall’operazionismo di Brodie (1869) e Bridgaman (1927), secondo cui i concetti scientifici devono essere oggettivi quanto i dati: si parla quindi di formulare i concetti teorici attraverso operazioni di misurazione. Poiché spesso i concetti psicologici sono latenti (non osservabili e misurabili direttamente) occorre selezionare una serie di indicatori o variabili da misurare: 1. indicatori riflessivi: che riflettono il costrutto, es. il sorriso è indicatore riflessivo del costrutto felicità; 2. indicatori formativi: che definiscono il costrutto stesso, es. la perdita di lavoro può determinare stress nella persona. 3.2 Scale di misura Come si misurano gli indicatori? Il processo di misurazione viene affrontato in modo diverso a seconda dello strumento utilizzato, poiché ogni strumento è diverso e fornisce dati di natura diversa fra loro: alcuni strumenti forniranno dati numerici, altri materiale verbale o visivo. I costrutti possono essere misurati in maniera quantitativa o qualitativa. Ci soffermeremo sulle misure quantitative attraverso le scale di misura; una volta individuate le variabili e selezionata una misurazione quantitativa è necessario stabilire il significato dei numeri utilizzati per la misurazione, ovvero tradurre in numeri le caratteristiche che vengono osservate, scegliendo una scala di misura. Su questa base lo psicometrista Stevens, nel ‘51, stabilì 4 scale di misura, applicabili sia a misure fisiche che psicologiche: - nominale: categorizzazione di un evento in uno dei numeri delle categorie discrete. Sintetizzare i dati su questa scala è limitato, perché le uniche operazioni che possiamo fare riguardano le relazioni =/≠. Un modo comune di sintetizzare i dati nominali è di riportare la frequenza sotto forma di proporzione o percentuale di casi in ognuna delle categorie; - ordinale: ordina o classifica gli eventi che devono essere misurati, il risultato di una gara per esempio. Le operazioni possibili sono le relazioni >/< di; - a intervalli equivalenti: specificare quanto lontani siano due eventi su una data dimensione, sebbene le differenze della stessa misura numerica su valori della scala siano uguali e manchi un punto zero significativo. Sono possibili le operazioni di addizione, sottrazione, moltiplicazione e divisione; - a rapporti equivalenti: ha tutte le proprietà di una scala a intervalli equivalenti, ma ha anche un punto zero assoluto, che rende significativo il rapporto dei valori della scala. Tutte le scale fisiche che misurano tempo, peso e distanza sono di questo tipo (qualcuno che pesa 100kg pesa il doppio di uno che pesa 50kg). 3.3 Teoria sulla misurazione Una volta decisa la scala di misurazione, per poter decidere quale sia lo strumento più corretto da utilizzare è necessario individuare quale teoria della misurazione vogliamo utilizzare. Le teorie di misurazione vengono utilizzate per la costruzione di test o strumenti di self-report (questionari es.) e per la loro interpretazione: stabiliscono una corrispondenza empirica fra gli item di una scala e il costrutto psicologico. Sono principalmente due: 1. teoria classica dell’errore (più diffusa): risponde alla domanda “il punteggio assegnato ad un soggetto relativo a una certa caratteristica è veramente rappresentativo della quantità di tale caratteristica in quel soggetto?”. La risposta è no, perché secondo questa teoria il punteggio del soggetto è dato dalla somma del reale punteggio e dell’errore: X= V+E. In poche parole, c’è sempre un errore, più o meno grande, che può essere principalmente di due tipi: - e. sistematico: è sempre lo stesso per tutte le misurazioni e influisce su tutti i punteggi alla stessa maniera. Questo tipo di E. influisce sull’accuratezza della misura, se quindi lo strumento è ben costruito l’E. sistematico sarà pari a zero; - e. casuale: varia ad ogni misurazione ed è dovuto a cause non controllabili. Un assunto di base della teoria classica dell’errore è che se si ripete la misurazione un numero infinito di volte, l’E. casuale tenderà a zero. Ora, i punteggi di un individuo che ripete la stessa misurazione un numero infinito di volte non saranno mai uguali e si distribuiranno seguendo un andamento a campana: la curva gaussiana, la cui media corrisponde proprio al punteggio vero e la deviazione standard alla variazione di errore riscontrata. In questo caso la deviazione standard è chiamata errore standard di misurazione che viene calcolato facendo la radice quadrata della varianza d’errore della misurazione. A sua volta la varianza d’errore è il rapporto tra la sommatoria degli scarti dei punteggi osservati dalla media elevati al quadrato e il numero di misurazioni. 2. teoria dei tratti latenti: si basa sul calcolo della probabilità di risposta corretta ad un certo item. 3.4 Attendibilità e validità Un aspetto importante della misurazione riguarda la qualità. La valutazione di una misura si basa sull’analisi dell’attendibilità (minimizzare gli errori) e la validità (essere sicuri che la nostra definizione operativa rispecchi il costrutto scelto). Prima di tutto bisogna tarare il test seguendo determinati passaggi: - identificare la popolazione di interesse; - definire il campione più rappresentativo e somministrare il test (gruppo normativo); - calcolare gli indicatori statistici che descrivono i punteggi ottenuti (norme di test); - trasformare tali punteggi in punteggi standardizzati; - preparare tavole di conversione dei punteggi grezzi in punteggi standardizzati; - scrivere un report dettagliato di come somministrare il test, delle caratteristiche del gruppo e di come interpretare i punteggi. Rispetto all’attendibilità: una misurazione avrà un’attendibilità alta quando l’errore sarà minimo e la varianza vera sarà sovrapponibile alla varianza osservata, ossia quando la varianza dei punteggi osservati sarà uguale alla varianza del punteggio vero e l’errore sarà zero. In pratica questo non è mai verificato, ma si può misurare l’attendibilità attraverso un coefficiente che è la proporzione di varianza vera contenuta nella varianza osservata: più il coefficiente è alto più la misura sarà attendibile. L’attendibilità può essere anche valutata dalla coerenza interna, ovvero la convergenza delle misurazioni indipendenti di uno stesso strumento a persone diverse. Vi sono vari modi per fornire un indicatore di attendibilità: - split-half: consiste nel dividere a metà gli items di uno strumento: la correlazione tra i punteggi totali delle due metà rappresenta il coefficiente; - alfa di Cronbach: si parte dai singoli item dello strumento: n è il numero di item, si è la varianza di ciascun item e st è la varianza totale del test. Il valore va da 0 a 1 e un test è considerato sufficientemente attendibile se ottiene almeno 0,60 e ottimo se maggiore di 0,90. Risente del numero di item, più item ci sono più il valore è alto; - K di Cohen: utilizzata se invece di un self-report abbiamo osservazioni (di almeno due osservatori indipendenti) del comportamento attraverso la compilazione di una checklist. Si calcola poi la percentuale di accordo fra le risposte dei due, la quale è però influenzata dall’accordo casuale, perciò è necessario calcolare la K di Cohen, che varia anch’essa da 0 a 1. Al numeratore si sottrae la proporzione di accordo osservato alla proporzione di accordo atteso, mentre al denominatore la proporzione di accordo atteso viene sottratta a 1. Una K maggiore di 0.60 è considerata buona. Uno strumento è considerato attendibile non solo se presenta coerenza interna, ma anche quando le sue risposte sono stabili nel tempo e per misurare questo tipo di attendibilità si ricorre al coefficiente di correlazione test-retest: si somministra lo strumento in due tempi diversi ad un campione ampio e diversificato di persone, si calcola poi la correlazione tra i punteggi delle due somministrazioni e se il coefficiente risulta maggiore di 0.70 lo strumento viene considerato sufficientemente stabile nel tempo. In sostanza una misura per essere attendibile deve essere precisa (misurazioni indipendenti devono essere coerenti e correlate) e stabile (misure nel tempo correlate). Rispetto alla validità: è il grado di accuratezza di una misura, ossia quanto gli indicatori osservabili scelti effettivamente operazionalizzino il costrutto latente (non osservabile direttamente). La validità di un test può essere di vari tipi: - validità di facciata: è il grado in cui gli item sembrano misurare il costrutto nella percezione di chi compila e/o somministra il test. Molti non la considerano una validità vera e propria, ma è importante; - validità di contenuto: viene valutata da ricercatori esperti e verifica che gli indicatori scelti per misurare il costrutto siano un campione rappresentativo (rappresentino tutte le possibili manifestazioni osservabili del costrutto) e rilevante (appropriati per la valutazione di quel costrutto) nel dominio di contenuto implicato nella definizione del costrutto in questione; - validità di criterio: è il grado di associazione tra la misurazione del costrutto tramite lo strumento e le misurazioni di altri comportamenti/variabili non psicometrici utilizzati come criteri di riferimento esterni. In base al momento della rilevazione, distinguiamo: - validità concorrente: nella valutazione di validità di criterio di uno strumento che misura la depressione utilizziamo come criteri le diagnosi di uno psichiatra sulla base del DSM-5: i soggetti depressi dovrebbero ottenere punteggi più alti ai test rispetto a soggetti neurotipici. Parliamo di validità concorrente perché il punteggio al test e il criterio (diagnosi) sono rilevati (quasi) nello stesso momento; - validità predittiva: somministriamo uno strumento che misura le capacità di lingua inglese ad un gruppo di studenti e dopo un mese vediamo quanti superano il test; stiamo valutando la validità predittiva: se valido, gli studenti con punteggi più alti allo strumento avranno più possibilità di passare il test. Predittiva, quindi, perché correliamo i punteggi allo strumento con un criterio che viene misurato in un periodo successivo; - validità di costrutto: riguarda l’appropriatezza delle inferenze circa ciò che il test misura, fatte sulla base dei punteggi al test e si divide in: - validità convergente: uno strumento ha un’alta validità convergente quando i punteggi che si ottengono con esso correlano in modo elevato con i punteggi che si ottengono da strumenti diversi misuranti lo stesso costrutto; - validità discriminante: uno strumento ha alta validità discriminante quando i suoi punteggi correlano poco con i punteggi che si ottengono da strumenti che misurano costrutti differenti. Nel 1955 Fiske e Campbell hanno proposto di utilizzare la matrice multi-tratto multi-metodo per valutare la validità di costrutto. Tale matrice si ottiene correlando i punteggi ottenuti dagli stessi strumenti (metodo) che misurano costrutti diversi (tratti) da un lato e i punteggi ottenuti da strumenti diversi (metodi) che misurano lo stesso costrutto (tratto). Attraverso tale matrice è possibile valutare quanto uno strumento stia misurando bene il costrutto: è infatti possibile differenziare quanto della misurazione sia dovuto al particolare metodo (strumento) e quanto al costrutto. Capitolo 4 - I problemi etici della ricerca in psicologia Ogni ricerca scientifica che si rispetti è portata avanti da professionisti competenti, caratterizzati da integrità professionale: ciascuno di loro è infatti eticamente responsabile di come tale attività porterà ad una maggiore conoscenza e migliorerà la qualità della vita delle persone. Per garantire ciò, negli anni sono nate associazioni come l’AIP, l’APA e l’APS, responsabili della creazione di codici etici per la ricerca in diversi ambiti. In Italia l’AIP ha promosso un Codice etico relativo alla ricerca e all’insegnamento della psicologia, mentre per quanto riguarda gli aspetti di intervento psicologico e psicoterapeutico si fa riferimento al codice deontologico ideato dall’Ordine Nazionale degli Psicologi. È importante sottolineare come i codici etici contengano principi generali, che vanno poi adattati alle singole ricerche: capita, infatti, di applicare ad una singola ricerca più principi etici e spesso in contraddizione fra loro. Inoltre, il sempre più frequente uso di Internet come strumento di ricerca ha generato nuovi dilemmi etici da risolvere, come il problema del consenso delle persone all’utilizzo dei dati, l’assenza del ricercatore che non può supportare costantemente i partecipanti ad un setting online, la difficoltà nel debriefing e nella protezione della privacy. Da un punto di vista storico, l’attenzione ai temi dell’etica nella ricerca scientifica è un fatto relativamente recente: la prima riflessione nasce dal contesto della IIWW con il processo a Norimberga, quando all'Associazione Medica Americana fu chiesto un parere a proposito dei principi etici in campo di sperimentazione medica, in merito alle terribili azioni compiute dai medici nazisti. Il risultato fu il Codice di Norimberga (1946), base per i codici etici di tutto il mondo, che sottolineava l’importanza del consenso della persona a partecipare alla ricerca dopo essere stata adeguatamente informata. Dopo ciò è nata la Dichiarazione di Helsinki (1964), concernente la ricerca medica, ma valida anche per quella psicologica e nel 1953 l’APA delinea il primo Codice etico, specifico per l’associazione degli psicologi. Nel 1995, finalmente anche l’AIP delinea un Codice etico italiano, fondato sui 3 principi generali di competenza, integrità e responsabilità sociale e su 10 norme etiche. Prima di iniziare un progetto di ricerca, vanno valutate le questioni etiche che i ricercatori dovranno affrontare attraverso una pianificazione attenta e la consulenza di persone competenti e va ottenuta un’autorizzazione ufficiale. Un errore dal punto di vista etico compromette l’intero processo scientifico, il progresso e la fiducia dei “non scienziati” nei confronti della comunità scientifica e accademica e può comportare sanzioni giuridiche e finanziarie ai singoli e alle istituzioni. La nascita della Commissione nazionale per la protezione dei soggetti umani nella ricerca biomedica e comportamentale ha sancito l’obbligo, per chiunque richieda fondi a specifici enti federali, di sancire comitati che analizzino la ricerca in questione. Un comitato etico per eccellenza deve essere formato da almeno 5 membri con formazioni e settori di competenza diversi; i componenti vengono scelti tra scienziati e non scienziati, spesso sono persone con un ruolo di responsabilità nella comunità (avvocati, infermieri, membri della Chiesa) e almeno un membro non deve appartenere all’istituzione. Il comitato etico ha il compito di salvaguardare i partecipanti alla ricerca e i loro diritti e ha quindi l’autorità di approvare, non approvare o richiedere modifiche del piano di ricerca. Poiché ogni piano di ricerca necessita dell’approvazione di un comitato esterno e della sottoscrizione di un contratto etico, l’AIP suggerisce di costituire un Comitato etico locale in ogni dipartimento, istituto, ente di ricerca. 4.1 Rapporto costo-beneficio Compito del Comitato etico è anche considerare il rapporto costi/benefici: la società e i singoli beneficiano della ricerca quando si ottengono nuove conoscenze e si individuano nuovi trattamenti che migliorino la vita delle persone, allo stesso vanno considerati i costi relativi ad un possibile danno a carico dei partecipanti alla ricerca e quindi i rischi. Tuttavia, si considerano anche i costi del non fare la ricerca: si perde l’opportunità di ottenere nuove conoscenze e migliori condizioni di vita. Il Comitato etico, proprio perché oggettivo e imparziale, è il più indicato a considerare i costi e i benefici di una ricerca. Ci si pone la domanda “Ne vale la pena?”. Non esiste una risposta matematica, i membri del Comitato valutano dal punto di vista dei partecipanti e della società se i benefici siano maggiori dei costi e quindi se la ricerca sia approvabile o meno. Tra i fattori che influenzano questo rapporto ci sono la natura del rischio, l’entità del beneficio e il potenziale scientifico-sociale della ricerca. Inoltre, il ricercatore deve verificare, attraverso la letteratura disponibile, che non vi siano procedure con minor rischio alternative a quella scelta e che non vi siano ricerche precedenti che abbiano già risposto al quesito di ricerca posto. 4.2 Definizione di rischio Dire che i partecipanti alla ricerca psicologica non devono mai correre alcun tipo di rischio vorrebbe dire bloccare tutta la ricerca. Infatti, le decisioni su cosa costituisca un rischio o meno devono prima di tutto tenere in considerazione i normali rischi parte della vita quotidiana (anche solo uscire di casa costituisce paradossalmente un rischio). In seguito, i ricercatori devono tenere conto delle caratteristiche personali dei partecipanti: ciò che risulta innocuo, ad esempio, per la maggior parte dei giovani può risultare rischioso per un individuo anziano. Quando parliamo di rischi non ci riferiamo solo a lesioni fisiche, ma anche danni sociali (rischi legati alla privacy nelle sperimentazioni su Internet) e psicologici, a causa di stress mentale o emotivo; il ricercatore è obbligato a tutelare i partecipanti in ogni caso. Bisogna però distinguere fra partecipante a rischio e partecipante a rischio minimo. Rischio minimo significa che il danno o disagio sperimentabile dal partecipante alla ricerca non è più grande di quello che potrebbero sperimentare nella vita quotidiana o durante test fisici/psicologici di routine (esempio, stress da esame per lo studente). Quando invece la possibilità di danno è giudicata superiore al minimo, i soggetti si dicono “a rischio” e il ricercatore ha obblighi “più seri” nel tutelarli. In ogni caso è dovere del ricercatore proteggere i partecipanti, anche quando il rischio potenziale è minimo. Come è facile da immaginare, i rischi aumentano esponenzialmente con la ricerca online: i partecipanti possono sperimentare stress emotivo, esattamente come nelle ricerche in laboratorio e i ricercatori possono essere meno in grado di monitorare la sofferenza e di ridurre il danno, proprio perché non presenti. Un altro dilemma etico legato alla ricerca su Internet riguarda la privacy: per evitare danni sociali le risposte dei partecipanti dovrebbero sempre essere mantenute anonime; quando non possibile, i ricercatori possono assegnare casualmente dei codici numerici ai file e tenere una lista dei codici con i nominativi corrispondenti in uno spazio ad accesso limitato (sottochiave o con password), per minimizzare le possibilità di spionaggio o hacking. Come affrontare quindi i possibili rischi? Un approccio potrebbe essere quello di ottenere dei dati preliminari, con l’obiettivo di identificare i soggetti a rischio ed escluderli dallo studio reale. Altre soluzioni prevedono l’utilizzo di approcci descrittivi (questionari) piuttosto che sperimentali o la possibilità di trarre vantaggio da situazioni sperimentali “naturali”, che non implicano l’induzione sperimentale di stress (es. Studiare lo stress negli studenti in sessione, situazione stressante a prescindere). Il vantaggio del prevenire danni sociali ai partecipanti risiede nel fatto che gli individui, che si sentono rassicurati, sono più propensi a rispondere onestamente e apertamente. 4.3 Il codice etico italiano Il Codice etico italiano pubblicato nel 1995 si rivolge al ruolo di ricercatore/formatore: perché i 3 principi generali (integrità, competenza e responsabilità sociale) vengano rispettati, non basta essere laureati in psicologia, possedere un dottorato e essere iscritti all’Albo per poter affrontare qualsiasi tematica psicologica. Al contrario, si deve essere in grado di limitare la propria attività solo alle aree di competenza, per tutelare le persone con cui si viene a contatto dai danni dalla ricerca. Tali competenze vanno inoltre specificate ai partecipanti, come parte del concetto di integrità professionale. È responsabilità di chi svolge il ruolo di insegnante e di ricercatore rispettare le leggi vigenti e denunciare le “cattive” ricerche, preoccupandosi del benessere delle persone e difendendo la dignità della psicologia sociale. Cinque temi, trattati sia dal Codice etico italiano che da quello americano, meritano particolare attenzione: - il consenso informato: la prima norma del Codice etico tratta di consenso informato e della libertà della persona di ritirarsi dalla ricerca in qualunque momento. Il consenso informato è la volontà esplicita espressa da una persona di partecipare alla ricerca dopo essere stata adeguatamente informata in maniera esaustiva sulla natura della ricerca e sulle conseguenze del partecipare/non partecipare. Il consenso informato va sempre ottenuto e va sempre fatto in forma scritta qualora non sia garantito l’anonimato, vi sia la possibilità di violazione della privacy o i partecipanti siano esposti a rischi. Ogni ricerca deve, inoltre; garantire sempre la possibilità di non dare il consenso: non vi devono essere pressioni di nessun tipo. È importante sottolineare come il consenso non vincoli solo il ricercatore, ma anche il partecipante: egli è responsabile della qualità della propria partecipazione e si impegna a porre attenzione alle istruzioni che vengono comunicate durante la ricerca. Non sempre le persone sono in grado di esprimere consapevolmente il consenso informato; è il caso di minori o persone con handicap fisico o psichico: in questi casi esprime il consenso chi ha la procura legale dell’individuo, parallelamente però al consenso della persona. La ricerca online pone ulteriori dilemmi etici sul consenso informato: solitamente il partecipante clicca la dicitura che indica di aver compreso i termini della ricerca, ma può essere considerata una vera procedura legale? Una possibile soluzione è quella di inserire delle domande nella lettera di presentazione della ricerca, in modo da selezionare i partecipanti, verificando età e grado di comprensione della ricerca stessa. È fondamentale che il partecipante non si senta forzato a prendere parte al progetto, per questo il consenso viene “ridisegnato” sulla base delle situazioni e dei partecipanti, sempre consultando il Comitato etico locale. Ci sono poi casi in cui non è possibile ottenere il consenso informato, come nei casi di ricerche sul pubblico; in queste situazioni vanno sempre tutelate la riservatezza e l’anonimato delle persone e quando non possibile i volti vanno censurati. C’è da dire che non risulta sempre facile distinguere contesti pubblici da contesti privati soggetti alla privacy; alcuni ricercatori suggeriscono di considerare se l’info costituisca un dato sensibile, quale sia il contesto e in che modo i dati vengano divulgati. In ogni caso, diffondere dati sensibili su individui senza che sia stato dato il consenso informato costituisce una grave violazione etica: è sempre bene chiedere prima il permesso e agire di conseguenza. Va trovato un equilibrio fra necessità della ricerca e diritti dei partecipanti; - l’inganno: l’inganno in psicologia è un tema controverso: il Codice etico suggerisce di utilizzarlo solo qualora non siano attuabili metodi differenti. Sono considerati inganno sia l’omissione di info sia la comunicazione intenzionalmente fuorviante su un aspetto della ricerca. Alcuni sostengono l’idea di inganno come moralmente ripugnante, poiché contraddice il concetto di consenso informato e relazione ricercatore-partecipante basata sulla fiducia. Come mai allora l’inganno è così utilizzato? Un motivo è che alcune ricerche vanno per forza condotte nascondendo parte delle info ai partecipanti, spesso per non influenzarne il comportamento e ottenere reazioni spontanee. Quindi gli inganni sono in parte giustificati, ma ingannare esponendo i partecipanti ad un rischio non è mai etico. Inoltre, usare l’inganno troppo spesso potrebbe portare le persone a comportarsi in maniera sospettosa, invalidando i risultati degli esperimenti. In sostanza, prima di utilizzare la tecnica dell’inganno, il ricercatore dovrebbe verificare 1) l’importanza dello studio per la comunità, 2) le alternative disponibili e 3) la “nocività” dell’inganno; - il debriefing: nel Codice etico si specifica la necessità di far seguire all’inganno una fase di debriefing: un incontro in cui vanno spiegati tutti gli aspetti della ricerca prima omessi o alterati, va ripristinato lo stato di umore e autostima del partecipante e vanno chiariti i dubbi. Il debriefing prevede, inoltre, che il ricercatore si renda disponibile anche a esperimento terminato, fornendo i propri recapiti. Questa fase è importante per entrambe le parti e ricorda ai ricercatori quale sia il peso delle possibili conseguenze della ricerca sui soggetti. Il debriefing, infatti, si rende necessario anche per formare le persone rispetto all’ambito scientifico e per lasciare un’impressione positiva di accrescimento personale. E per quanto riguarda i ricercatori stessi, questa fase aiuta a comprendere come i partecipanti percepiscano davvero lo studio attuato e quali siano gli eventuali errori nel protocollo, senza però esercitare pressioni: il debriefing va sempre condotto in maniera informale e indiretta, con domande aperte e generali. Il debriefing diviene complicato con le sperimentazioni online: i partecipanti possono ritirarsi prima del termine e “evitarlo”; una soluzione può essere quella di inserire una finestra di debriefing che appare ogni volta che un partecipante “termina” l’attività, oppure mandare il materiale via mail o pubblicarlo su una pagina web comune; - ricerca con gli animali: ogni anno milioni di animali vengono sottoposti ai test di laboratorio per rispondere alle domande della ricerca. Spesso parliamo di roditori come topi e cavie, ma anche scimpanzè, pesci, gatti e cani; vengono utilizzati per testare nuove sostanze, gli effetti di terapie farmacologiche, nuove procedure chirurgiche (specie quelle al cervello) o anche solo per studiarne il comportamento. Queste ricerche vengono svolte per migliorare il benessere delle persone, tuttavia molti animali sono sottoposti a stress, malattia, dolore e perfino morte. Sorgono principalmente due questioni etiche: 1) gli animali possono essere usati nella ricerca scientifica? 2) se sì, come tutelarli? Secondo il Codice etico gli animali vanno tutelati prima, durante e dopo l’esperimento da persone competenti del settore e dove gli animali sono esposti a procedure dolorose, deve essere fatto tutto il possibile per limitare la sofferenza. Si tratta di un tema etico complesso, che come tutti necessita di un compromesso: occorre bilanciare le necessità di ricerca con la necessità di tutelare gli animali; sperimentare sugli animali solleva polemiche e dilemmi etici, non farlo priva i malati incurabili della speranza di una cura; - diffusione della ricerca: Lo scopo principale della pubblicazione di un articolo scientifico è comunicare i risultati della ricerca alla comunità scientifica e alla società in generale. Anche nell’ambito delle pubblicazioni si pongono però diversi dilemmi etici, due in particolare: i diritti di autore e il plagio. Lo svolgimento di una ricerca coinvolge sempre diverse figure (colleghi, studenti, tecnici, esperti statistici etc....), quindi, al momento della pubblicazione, diviene difficile individuare chi possa essere considerato fra gli autori e chi vada invece solo citato (esempio in nota o nei ringraziamenti). E una volta individuati gli autori, sorge comunque il problema dell’ordine in cui questi vadano elencati: solitamente il primo autore è quello che ha maggiormente contribuito al progetto, seguito in ordine di “contributo” dal secondo e via dicendo. Si tratta di un’importante questione etica; sarebbe infatti ugualmente non etico sia appropriarsi indebitamente del lavoro di uno studente (esempio), sia inserire immeritatamente uno studente nell’elenco degli autori, falsandone le competenze e creando false aspettative. Come si risolve? Chi possa essere definito effettivamente “autore "e in quale ordine va deciso sulla base dell’importanza scientifica del contributo, inoltre si raccomanda sempre di specificare i criteri di questa decisione all’inizio della progettazione stessa. Il secondo problema è il plagio: il Codice etico specifica di riconoscere sempre la proprietà intellettuale di ciò che si scrive, riportando riferimenti precisi come fonte, autori, anno di pubblicazione e numero di pagina o occasione (in caso di convegni etc....). Si considerano plagio anche le dimenticanze/refusi (dimenticare le virgolette o non controllare a fondo la letteratura precedente) o il non dichiarare le fonti secondarie (riportare una frase da fonti secondarie come se appartenesse all’originale). Il processo attraverso il quale si prendono decisioni etiche è basato sull’analisi del disegno di ricerca, sull’identificazione di temi etici rilevanti e sulla considerazione di più punti di vista e di metodi alternativi. Gli autori che propongono un proprio articolo ad una rivista scientifica devono spesso dichiarare di aver rispettato tutte le norme etiche. Capitolo 5 - L’osservazione Le osservazioni quotidiane e quelle effettuate dai ricercatori si differenziano per diversi aspetti: quando facciamo osservazioni casuali non siamo sempre consapevoli dei fattori di distorsione ed è raro che teniamo traccia formale delle nostre osservazioni (usiamo la memoria). L’osservazione scientifica è fatta in condizioni definite con precisione, in maniera sistematica e obiettiva e tenendo delle registrazioni accurate. L’obiettivo è descrivere il comportamento nella maniera più completa e accurata possibile; non potendo considerare tutti i comportamenti, ci si affida a campioni rappresentativi, che descrivano il comportamento consueto in modo esaustivo, ossia in molte situazioni diverse e in tempi diversi. 5.1 Campionamento del comportamento Quando non si può ottenere una documentazione esaustiva del comportamento, i ricercatori cercano di ottenere un campione rappresentativo dello stesso, attraverso la generalizzazione delle osservazioni e quindi la validità esterna. Quando cerchiamo di stabilire la validità esterna di uno studio, esaminiamo il grado in cui i risultati di questo possono essere accuratamente utilizzati per descrivere persone, setting e condizioni che vanno al di là di quelli utilizzati nello studio. Di solito si combinano campioni di tempo con campioni di situazioni per identificare campioni rappresentativi di comportamento. Nel campionamento di tempo i ricercatori scelgono tra vari intervalli di tempo per le loro osservazioni; la selezione può essere sistematica (selezionare determinati periodi giornalieri) o casuale (spesso con apparecchi elettronici) o in entrambi i modi. Con il campionamento casuale il tempo varierebbe di giorno in giorno, ma a lungo andare verrebbe campionato uniformemente. Questo metodo non è efficace quando l’evento di interesse accade poco frequentemente: si rischia di mancare del tutto l’evento o, se l’elenco dura a lungo, si rischia di perderne una porzione. In questi casi risulta più utile il campionamento dell’evento: l’osservatore documenta ogni evento che soddisfa una definizione predefinita. Il campionamento dell’evento si dimostra utile nello studio di eventi imprevisti come i disastri naturali, ma l’osservatore può introdurre delle distorsioni nella rilevazione del comportamento: esempio campionare solo i tempi “più convenienti” o certi. Una procedura sicura per ottenere un campione rappresentativo è il campionamento della situazione: richiede l’osservazione del comportamento nei posti più diversi e nelle circostanze e condizioni più disparate, per evitare che il campionamento si riferisca a occasioni specifiche. Campionando situazioni diverse, il ricercatore può anche aumentare la diversità del campionamento dei soggetti e raggiungere una maggiore validità esterna. Ci sono molte situazioni in cui avvengono più comportamenti di quelli che possono essere effettivamente osservati; in questi casi i ricercatori ricorrono al campionamento dei soggetti, anche qui in maniera sistematica o casuale. 5.2 Il metodo osservativo Si distingue in osservazione diretta (1) e osservazione indiretta (2): 1) metodo osservativo diretto: prevede che il comportamento venga osservato direttamente secondo un grado di intervento o intrusività (azioni atte a cambiare/creare il contesto per l’osservazione), che varia su un continuum da zero o osservazione non intrusiva a osservazione intrusiva: - non intrusivo o naturalistico: l’osservatore opera in maniera passiva in una situazione in cui il comportamento avviene in modo ordinario (usuale), senza interventi. È il metodo osservativo opposto a quello in laboratorio e spesso viene utilizzato per verificarne la validità esterna dei risultati. L’osservazione naturalistica si è spostata recentemente anche online, dove si osservano le chat e discussioni su Internet, pur andando incontro a problemi etici. La finalità di questo metodo è descrivere il comportamento così come avviene normalmente e analizzare la relazione fra le variabili presenti, nonostante vi siano alcuni aspetti del comportamento umano che il dilemma etico ci impedisce di studiare (isolamento precoce nei bambini); - intrusivo: l’intervento più che il non intervento caratterizza la maggior parte della ricerca psicologica e riguarda 3 tipologie di osservazione. Sono: - osservazione partecipata: gli osservatori hanno il doppio ruolo di partecipanti al comportamento e ricercatori, non in incognito (antropologi) ma soprattutto in incognito. Nell’osservazione partecipata in incognito, gli individui osservati non sanno di esserlo, non si pone il problema della reattività (le persone reagiscono al fatto di essere osservate e modificano il normale comportamento), anche se possono sorgere problemi etici (privacy e consenso informato). Uno dei grandi vantaggi di questo metodo è che il ricercatore può avere accesso a una situazione normalmente non aperta all’osservazione scientifica e vivendo nei panni dei soggetti studiati, si acquisiscono dati importanti su gruppi e singoli individui. Questa stessa procedura può però comportare l’incapacità di terminare lo studio: per esempio per perdita dell’obiettività scientifica da parte del ricercatore a causa del coinvolgimento personale, oppure perché i soggetti studiati vengono influenzati (a causa di vari fattori come studio in incognito o meno, misura del gruppo di studio etc ); - osservazione strutturata: si tratta di un metodo osservativo in cui i ricercatori intervengono in maniera difficilmente categorizzabile ma sempre in minor misura rispetto agli esperimenti sul campo, con l’obiettivo di predisporre una situazione in cui il comportamento che si vuole analizzare sia facilmente documentabile, in ambito di laboratorio e naturale. L’osservazione strutturata si pone a metà fra la manipolazione delle variabili indipendenti in laboratorio e l’osservazione naturalistica; questo comporta vantaggi e svantaggi: da un lato la situazione risulta più naturalistica, dall’altro l’esperimento potrebbe non rispettare il criterio di replicabilità del metodo scientifico e non tenere conto di alcune variabili che potrebbero influenzare il comportamento; - esperimenti sul campo: si tratta del caso in cui il ricercatore manipola una o più variabili indipendenti in una situazione naturale per determinarne l’effetto sul comportamento studiato ed è la variante più estrema dei metodi osservativi, utilizzata soprattutto in ambito di psicologia sociale; 2) metodo osservativo indiretto: Il comportamento può essere osservato indirettamente attraverso prove e documenti, in maniera non intrusiva e senza rischio di reattività. Spesso questo metodo produce info importanti per confermare o confutare le ipotesi costruite attraverso il metodo diretto. Le misure indirette sono: - indizi fisici: sono le tracce, i frammenti e i prodotti del comportamento passato, divisibili in: - indizi d’uso: prove fisiche che derivano dall’uso o non uso di un oggetto (mozziconi di sigaretta). Possono essere di uso naturale (privo di interventi) o di uso controllato; - prodotti: sono creazioni, costruzioni o artefatti del comportamento; ad esempio, vi sono molti prodotti che forniscono una descrizione della cultura moderna e del nostro comportamento: programmi TV, musica, moda, tecnologia etc. Gli indizi fisici offrono mezzi validi e innovativi per la ricerca, limitati solo dall’ingegno dei ricercatori ma, tuttavia, la validità di questi mezzi (ossia la fedeltà di misura) deve essere testata con fonti indipendenti dalla prova. Si può parlare, infatti, di distorsione, dovuta allo stato degli indizi e a come vengono utilizzati; per contrastarla i ricercatori si affidano a prove supplementari: - documenti di archivio: sono documenti pubblici o privati che descrivono le attività degli individui, dei gruppi, delle istituzioni e dei governi. Sono misure non intrusive, che possono aiutare nell’analisi delle ipotesi precedenti; quando risultati frutto di vari approcci concordano, la validità esterna aumenta e possiamo generalizzare i risultati. I ricercatori utilizzano i documenti di archivio per studiare gli effetti di un accadimento naturale: evento (spesso impossibile da anticipare) che accade nella storia e ha un impatto significativo sulla società (11 settembre 2001) e sul singolo (morte di un genitore). I documenti d’archivio sono vantaggiosi perché abbondanti, spesso di dominio pubblico (meno problemi etici). Nonostante ciò, i ricercatori hanno riscontrato diversi problemi: - deposito selettivo: si verifica quando alcune informazioni vengono selezionate a discapito di altre, provocando una distorsione. Esempio eclatante sono le dichiarazioni confidenziali dei politici: sussiste un problema di reattività nel momento in cui l’individuo, durante la registrazione, può scegliere cosa sia o non sia ufficiale, - sopravvivenza selettiva: si verifica quando i documenti sono andati perduti o sono incompleti (anche senza che il ricercatore ne sia al corrente); - relazione spuria: quando i risultati indicano erroneamente che due o più variabili sono associate; può essere accidentale, un errore statistico o può avvenire quando una terza variabile, in genere non identificata, spiega tale reazione. I documenti indicano che la vendita di gelati e il tasso di criminalità siano correlati: prima di concludere una relazione causa-effetto, è importante considerare come le due variabili siano probabilmente influenzate da una terza variabile, ossia la temperatura stagionale. Questi rappresentano il motivo principale per cui questo tipo di misura non viene solitamente utilizzata per trarre conclusioni, ma integrata con altri tipi di osservazione. 5.3 Documentazione sul comportamento Gli obiettivi della ricerca osservativa guidano i ricercatori nel produrre una descrizione del comportamento esaustiva o relativa solo ad alcuni comportamenti selezionati. Alla fine, i risultati dello studio vengono riassunti, analizzati e comunicati proprio in base al modo in cui i comportamenti sono stati documentati. Parliamo quindi di: 1) documentazioni esaustive del comportamento: spesso per farlo i ricercatori ricorrono ai racconti narrativi, sia scritti che in contenuti audio o video, che forniscono una riproduzione del comportamento più o meno fedele rispetto al fatto originale. I racconti narrativi differiscono da altre forme di documentazioni perché la classificazione del comportamento avviene dopo l’osservazione, motivo per cui si cerca di ottenere racconti il più focalizzati possibile e privi di inferenze da parte dell’autore. Come regola generale vanno rispettati i criteri metodologici: il racconto deve essere costruito il più “vicino” possibile, in termini di tempo, all’accaduto, il grado di inferenza e completezza vanno stabiliti prima per poter istruire gli osservatori e eventualmente fare delle prove. Non è sempre possibile una documentazione esaustiva: gli appunti sul campo, utilizzati da giornalisti, antropologi, assistenti sociali etc.… contengono descrizioni di ciò che l’osservatore vede progressivamente, non sempre accurate e spesso personalizzate. L’utilità di questi appunti dipende dall’accuratezza e dalla precisione del contenuto e quindi dal training dell’osservatore. 2) documentazioni selezionate del comportamento: spesso i ricercatori si interessano solo a determinati aspetti di un individuo o di un gruppo e si focalizzano sulla misurazione di uno specifico comportamento. Supponendo di voler osservare una determinata situazione, bisognerà selezionare gli aspetti di tenere in considerazione e come misurarli attraverso le scale di misura. Un primo livello di misurazione comprende misure su scala nominale: spesso si utilizza una checklist (tale individuo ha o meno un certo comportamento?), contenente uno spazio per documentare le osservazioni sulle caratteristiche dei partecipanti (etnia, sesso, età) e della situazione (ora, località). Un secondo livello di misurazione, la scala ordinale, comprende l’ordinare e il classificare le osservazioni, talvolta avvalendosi dei giudizi soggettivi dei ricercatori rispetto al grado o alla quantità di alcuni tratti comportamentali. Se a prima vista le scale di valutazione utilizzate possono sembrare organizzate su intervalli identici, in realtà la maggior parte produce solo info di tipo ordinale. Perché gli intervalli siano costanti il punteggio 2 deve distare dal 3 come il 4 dista dal 5, cosa che accade raramente trattando di tratti comportamentali come l’aggressività, il piacere, l’ansia etc Tuttavia, la maggior parte dei ricercatori ipotizza un livello di misura a intervalli, consultandosi con esperti del campo per selezionare la scala di misura più appropriata. Le checklist si utilizzano anche per misurare la frequenza di un comportamento: la presenza o assenza di un tratto viene annotata ad ogni osservazione e alla fine si sommano le volte in cui il comportamento si è effettivamente presentato, considerando la frequenza della risposta come una variabile su scala di rapporti. Il comportamento può essere monitorato anche attraverso strumenti elettronici di registrazione e monitoraggio (es apparecchio per la pressione). Sempre più frequente è l’uso dei diari giornalieri su internet, attraverso siti sicuri che permettono di riportare gli eventi di routine o diari elettronici. Il lato negativo di queste modalità è rappresentato dal fatto che si basino su autodichiarazioni e non osservazione diretta, comportando talvolta distorsioni (omissioni), da controbilanciare, però, con un’analisi costi-benefici rispetto al metodo osservativo diretto. 5.4 Analisi dei dati osservativi Il passo successivo per i ricercatori è analizzare i dati osservati per riassumere il comportamento delle persone e per determinare l’attendibilità delle loro osservazioni. I metodi di analisi sono due e dipendono dai dati stessi, quantitativa e qualitativa: 1) analisi qualitativa dei dati: - analisi dei racconti narrativi: gli studi osservativi che utilizzano racconti narrativi hanno a disposizione migliaia di info, che necessitano di essere riepilogate. Il 1° step è infatti rappresentato dalla riduzione dei dati: i ricercatori identificano i temi, astraggono e raggruppano le info al fine di fornire un riassunto narrativo accurato e formulare una teoria che spieghi il comportamento. La riduzione dei dati spesso implica la loro codifica: identificazione di unità di comportamento o di particolari eventi in accordo con specifici criteri; questo processo permette di determinare la relazione fra tipi specifici di comportamento e avvenimenti ad esso antecedenti; - analisi dei contenuti dei documenti di archivio: anche qui il quantitativo di dati disponibili è enorme e la riduzione costituisce sempre il primo step, in alcuni casi semplice, in altri necessitante di un processo più complesso e accurato nell’analisi del contenuto della fonte. L’analisi del contenuto è in generale una qualsiasi tecnica obiettiva di codifica che permette ai ricercatori di fare inferenze su uno specifico aspetto del documento. Questa tecnica è associabile a qualsiasi tipo di contenuto: scritto, programmi radio, TV, film, e-mail, tweet etc e le unità di misura quantitative variano di conseguenza: nei programmi TV il tempo (per quanto tempo un gruppo etnico appare in onda es.), nell’analisi scritta parole, caratteri, paragrafi ecc. Le 3 operazioni base dell’analisi del contenuto dei documenti di archivio sono: 1. identificazione di una fonte utile: “utile” intesa come quella che permette di rispondere ai quesiti di ricerca, spesso relativamente semplice da individuare; 2. selezione dei campioni dalla fonte: le informazioni provenienti dall’archivio vanno campionate e selezionate idealmente in maniera casuale per ottenere un campione il più rappresentativo possibile (+ rappresentatività significa + validità esterna); 3. codifica delle unità di analisi: vengono definite categorie descrittive valide e unità di misura appropriate, in relazione agli obiettivi stabiliti, sulla base dei quali si effettua il training di chi codifica; 2) analisi quantitativa dei dati: l’obiettivo è di fornire un riassunto numerico o quantitativo, delle osservazioni di uno studio. Due sono gli aspetti importanti, la statistica descrittiva e la valutazione dell’attendibilità delle osservazioni effettuate: - statistica descrittiva: i tipi di statistica utilizzati dipendono dalla scala di misura utilizzata per registrare i dati. Per la scala nominale la più utilizzata è la frequenza relativa: per calcolarla si conta il numero di volte in cui un comportamento si verifica e lo si divide per il numero totale delle osservazioni, esprimendo il risultato con una proporzione o percentuale. Quando descrivono i dati ordinali spesso i ricercatori riportano gli item elencati più frequentemente tra una serie di item (es. Il 35% degli intervistati mette l’economia al primo posto). Quando il comportamento è misurato su una scala a intervalli o a rapporti (cap. 3) vengono utilizzate una o più misure di tendenza centrale, soprattutto la media aritmetica: descrive il punteggio rappresentativo in un gruppo di punteggi e fornisce una misura utile per riassumere la prestazione di un individuo o di un gruppo. Poi, per una più completa descrizione della prestazione, i ricercatori calcolano anche la deviazione standard, che approssima la distanza media di un punteggio dalla media; - attendibilità dell’osservatore: è il grado di accordo di due o più osservatori indipendenti. I ricercatori, infatti, si occupano anche di stabilire quanto sia attendibile un osservatore, chiedendosi se due osservatori indipendenti degli stessi eventi ottengano gli stessi risultati. L’attendibilità è facile che si abbassi quando l’evento è stato documentato non chiaramente e sono presenti inferenze soggettive degli osservatori. Allo stesso modo, i ricercatori possono alzare il grado di attendibilità producendo prove concrete come foto o video e fornendo training accurati e feedback sulle prestazioni degli osservatori. Attenzione: le osservazioni molto attendibili non sono necessariamente accurate (es. due osservatori possono essere entrambi d’accordo sullo stesso risultato e avere lo stesso grado di errore. Tuttavia, quando due osservatori indipendenti concordano siamo generalmente più inclini a ritenere le osservazioni accurate, rispetto a quelle di un singolo osservatore. Come si mantiene l’indipendenza dell’osservatore? Mantenendolo all’oscuro rispetto alle info degli altri osservatori.) La valutazione dell’attendibilità dipende da come viene misurato il comportamento: - se con scala nominale: la valutazione si effettua calcolando la percentuale di accordo. Rapporto tra n° di volte che due osservatori concordano e n° di opportunità per concordare, moltiplicato per 100. In molti studi gli osservatori lavorano su tempistiche diverse e la misura dell’attendibilità viene fatta sulla base di un campione; - se con scala ordinale: la valutazione si effettua con il coefficiente di correlazione per ranghi di Spearman [ρ], ma se parliamo di scala a intervalli o rapporti usiamo il coefficiente di correlazione del momento- prodotto di Pearson [r]. 5.5 Il pensiero critico sulla ricerca osservativa Dopo aver visto le basi del metodo osservativo, è importante evidenziare i potenziali problemi con cui il ricercatore deve costantemente misurarsi; in modo particolare parliamo di influenza dell’osservatore e bias dell’osservatore: - l’influenza dell’osservatore: il problema principale legato a questo aspetto è quello della reattività, per cui la presenza dell’osservatore può indurre i partecipanti a cambiare il proprio comportamento (che non è più “tipico” quindi) proprio perché osservati. Gli individui mettono in atto la reattività arrivando a variare i propri valori fisiologici (aumento dell’ansia e di conseguenza della frequenza cardiaca) e cercando die dimostrarsi “buoni partecipanti”, ovvero comportandosi come ritengono che si aspetti il ricercatore. Nel farlo si avvalgono delle caratteristiche attese: alla domanda “cosa ci faccio qui?” cercano di rispondere analizzando gli indizi presenti nella situazione e agendo di conseguenza. La validità esterna è quindi minacciata nella misura in cui i partecipanti agiscono in funzione delle caratteristiche attese, rendendo non intenzionalmente l’effetto di una variabile di ricerca più o meno efficace. I ricercatori hanno sviluppato vari approcci per controllare il problema della reattività; esso può essere eliminato tramite osservazione partecipata in incognito o tramite osservazione naturalistica in cui l’osservatore si nasconda senza destare sospetti o usi videocamere/registratori (tenendo conto della privacy). In questo senso, l’osservazione indiretta è il metodo più sicuro, poiché il comportamento è passato e quindi non modificabile. Generalmente la reattività può essere ridotta abituando i partecipanti alla presenza dell’osservatore, in due modi: - per assuefazione: gli osservatori entrano nella situazione di ricerca in molte occasioni diverse, finché i partecipanti non smettono di reagire (reality show); - per desensibilizzazione: processo simile alla procedura comportamentista nel trattamento delle fobie; in un contesto terapeutico sicuro, il paziente è esposto progressivamente allo stimolo temuto mentre lo psicologo pratica il rilassamento, fino a quando il paziente è in grado di affrontare direttamente l’oggetto della paura (lo si usa anche nelle ricerche con animali). Ovviamente il controllo della reattività pone dei problemi etici; osservare senza consenso informato può costituire una violazione della privacy, anche in contesti online come chat e forum sempre più diffusi, motivo per il quale gli scienziati stanno divenendo sempre più creativi nel trovare soluzioni ai dilemmi etici. Un problema etico è costituito anche dalla possibilità di mettere a rischio il paziente con l’osservazione strutturata o gli esperimenti sul campo: tutte le misure prese (debriefing etc ) bastano a tutelare l’individuo? Infine, anche i metodi indiretti sono veicolo di un problema etico fondamentale: il dovere dello scienziato di migliorare le condizioni di vita di individuo e società. Vanno affrontati problemi di violenza, razzismo, suicidio ecc., tutti dilemmi che rendono difficile l’approvazione di una ricerca diretta ma per cui il costo di non fare ricerca è più alto del costo di attuazione dello studio. Il bias dell’osservatore: ovvero gli errori sistematici nell’osservazione che risultano dalle aspettative di un osservatore. Il principale bias è l’effetto aspettativa: nell’intraprendere una ricerca, il ricercatore analizza la letteratura precedente sviluppando aspettative su come dovrebbe essere il comportamento in una particolare situazione, compromettendo i risultati con errori sistematici nell’osservazione. Altri bias riguardano ad esempio l’uso di attrezzature automatizzate (videocamere), che non eliminano per forza l’effetto aspettativa, giacché pospongono solo il processo di classificazione e interpretazione del comportamento. Questi bias sono difficili da eliminare, ma possono essere ridotti, ad esempio con l’uso di videocamere. In realtà la strategia più utile è l’essere cosciente di questi bias e limitare le info disponibili per l’osservatore (osservatore “cieco”). Capitolo 6 - L’inchiesta L’inchiesta è progettata per affrontare più direttamente la natura dei pensieri, delle opinioni e dei sentimenti delle persone; non si tratta di porre semplicemente domande, ma di formulare osservazioni ben più sofisticate di quelle che normalmente faremmo in modo casuale. L’inchiesta è lo strumento prediletto di politologi, psicologi, sociologi, viene spesso utilizzata a scopo di promozione politica o sociale (Ministeri, marketing etc....) e può essere circoscritta e specifica o più ampia. Particolare attenzione va prestata alle inchieste realizzate grazie a sponsorizzazioni, oggetto di diversi dilemmi etici: l’indagine potrebbe infatti essere finanziata da privati che abbiano interessi specifici per i risultati della ricerca stessa: le info raccolte vengono impiegate non per ampliare la nostra conoscenza ma per vendere un prodotto o promuovere una causa. Ma quindi, è ragionevole concludere i risultati di un’inchiesta sono distorti ogni volta che gli esiti della ricerca sono favorevoli all’agenzia che l’ha sponsorizzata? No, la ricerca può comunque risultare etica e di qualità; sapere se la ricerca sia stata sponsorizzata o meno è un elemento importante per valutare i risultati della ricerca, ma non sufficiente: la miglior precauzione è sempre controllare le procedure dell’indagine. 6.1 Le caratteristiche dell’inchiesta Tutte le inchieste condotte correttamente hanno caratteristiche comuni: richiedono un campionamento e l’utilizzo di una serie di domande predeterminate uguali per tutti i partecipanti, le cui risposte costituiscono i dati principali dell’inchiesta. Porre le stesse domande ad un campione rappresentativo di persone permette di descriver gli atteggiamenti della popolazione da cui è stato estratto, di confrontare popolazioni differenti o indagare i cambiamenti di atteggiamento nel tempo. 6.2 Il campionamento nell’inchiesta Il primo passo dopo aver selezionato come metodo l’inchiesta è selezionare la popolazione di interesse e un campione all’interno di questa, attraverso procedure che sono identiche sia per popolazioni molto ampie che ristrette. I quattro termini base del campionamento sono: - popolazione: insieme di tutti i casi/elementi di interesse; - lista di campionamento: poiché la popolazione è troppo vasta, si seleziona un sottoinsieme rappresentativo, una definizione operativa della popolazione di interesse; - campione: è il reale sottoinsieme su cui verrà effettuata l’indagine. Di primario interesse è la popolazione, non i campioni; - elemento: ogni componente della popolazione, la cui estrazione e identificazione sta al centro delle tecniche di campionamento. È importante che il campione sia rappresentativo: la possibilità di generalizzare i risultati dell’inchiesta dipende dalla rappresentatività. Si dice che un campione è rappresentativo quando mostra la stessa distribuzione di caratteristiche della popolazione e non è presente distorsione. Un campione distorto è quello in cui la distribuzione delle caratteristiche è sistematicamente diversa da quella della popolazione di interesse per via del bias di selezione: si verifica quando le procedure utilizzate portano a una soprarappresentazione o sottorappresentazione/esclusione di alcuni segmenti della popolazione. Ci sono due approcci di base per il campionamento: 1. campionamento non probabilistico: non dà garanzie che ogni elemento abbia una certa probabilità di essere incluso nel campione e non c’è modo di stimare la probabilità di inclusione di ogni elemento. I campionamenti che appartengono a questa categoria sono: - campionamento di convenienza: forma più comune, implica la selezione dei partecipanti soprattutto sulla base di disponibilità e sollecitudine a rispondere, non è molto rappresentativo. Una variante di questo campionamento particolarmente criticata è l’inchiesta in diretta, utilizzata soprattutto da programmi radio o TV per raccogliere pareri dall’audience o dai siti tramite pop up; la rappresentatività viene a mancare nella misura in cui a partecipare a queste inchieste sono persone interessate alla trasmissione/sito e motivate a rispondere; - campionamento a scelta ragionata: la selezione dei soggetti non è guidata da una tavola numerica casuale ma dalle conoscenze relative alla popolazione interpellata. Non è quindi una scelta casuale ma ragionata, la raccolta dei dati viene “pilotata” in modo da individuare un campione composto da elementi “tipici”. È un metodo non probabilistico, perché è il giudizio del ricercatore a guidare l’analisi; - campionamento per quote: variante non probabilistica del campionamento stratificato (vedi dopo); quando sono note le percentuali di popolazione racchiuse in un certo strato si può raccogliere un campione in numero rappresentativo del reale numero di soggetti con tale caratteristica. A differenza della variante probabilistica, non si possiedono i nomi di tutti gli elementi di un certo strato e non è possibile sorteggiare casualmente, quindi il campione potrebbe essere rappresentativo come no; - campionamento a palla di neve: si reclutano inizialmente dei rappresentanti in modo casuale e si chiede successivamente a questi di reclutare a loro volta altri partecipanti (es. Link per un sondaggio condiviso online); 2. campionamento probabilistico: ha come caratteristica principale che il ricercatore è in grado di specificare la probabilità per ogni elemento della popolazione di essere incluso nel campione. I campionamenti che appartengono a questa categoria sono: - campionamento casuale semplice: ogni elemento ha la stessa probabilità di essere incluso. È importante in questo caso scegliere la grandezza del campione, dipesa dal grado di variabilità della popolazione: più una popolazione è omogenea più il campione potrà essere ristretto; più la popolazione è eterogenea meno il campione sarà rappresentativo per quanto grande che sia; - campionamento casuale stratificato: aumenta la rappresentatività del campione e aiuta a descrivere popolazioni specifiche; la popolazione viene suddivisa in sottopopolazioni o strati e i campioni vengono sorteggiati casualmente da ognuno di questi strati. Come? Ci sono due principali procedimenti: 1) si estraggono campioni di uguali dimensioni da ogni strato 2) gli elementi si estraggono su base proporzionale (su 100 studenti 20% sono del terzo anno, estraggo un campione di 20 persone dallo strato “terzo anno”); - campionamento per clusters: si utilizza qualora la popolazione sia divisa in modo naturale o artificiale in gruppi sulla base di specifici criteri di analisi (classi di una scuola, quartieri di una città). Normalmente la procedura prevede che le osservazioni vengano eseguite su tutti gli elementi di un cluster; quando questo è troppo numeroso (es tutte le scuole superiori genovesi) si costituiscono sub-clusters (alcune classi per ogni scuola) procedendo per livelli (ulteriore divisione, solo le classi del terzo anno). I sub-clusters vengono trattati come singole entità indipendentemente dal numero di elementi, che però di solito è simile per ogni cluster; non necessario, si può anche rendere il campione scelto direttamente proporzionale al n° originale di elementi del cluster, in modo che cluster con elementi più numerosi abbiano più probabilità di essere estratti; - campionamento sistemico: gli N elementi della popolazione vengono numerati con numeri da 1 a N e in base all’ampiezza del campione si decide di selezionare un elemento ogni k individui nell’ordine numerico. Questo tipo di campionamento semplifica la procedura e produce stime più precise. 6.3 Metodi di inchiesta Dopo aver selezionato il campione si deve scegliere come ottenere i dati, ossia lo strumento, scegliendo fra 4 possibili opzioni, ciascuna con i suoi vantaggi e svantaggi: - questionari postali: sono questionari distribuiti alle persone via posta, che vengono compilati direttamente dalle persone. Tra i vantaggi troviamo la rapidità di compilazione, sono autosomministrati (non vi è l’influenza del ricercatore) e permettono di affrontare temi personali e imbarazzanti senza mettere a disagio l’intervistato. Tuttavia, sono molti gli svantaggi: non potendo riferirsi all’ideatore del questionario, questo deve essere chiaro e puntuale, inoltre, il ricercatore non ha controllo sull’ordine in cui vengono affrontate le domande (è un problema se l’ordine condiziona le risposte). Il problema principale riguarda il tasso di risposta: ci si riferisce alla percentuale di persone che completano il questionario; una bassa percentuale può indicare una distorsione a minacciare la rappresentatività. Perché il tasso di risposta si abbassa? Per esempio, gli intervistati possono avere problemi di alfabetizzazione, scarsa istruzione o problemi di vista e non riuscire a completare il questionario, venendo esclusi dal campione finale. È importante ricordare che, ad eccezione di un tasso di risposta del 100%, un potenziale bias del tasso di risposta esiste sempre, a prescindere da quanto sia stata accurata la selezione del campione. Tuttavia, un basso tasso di risposta non indica automaticamente che il campionamento non sia rappresentativo della popolazione. La percentuale media di restituzione dei questionari postali si aggira sul 30%, per aumentarla sarebbe possibile: - dare ai questionari un tocco personale; - formulare domande che richiedono uno sforzo minimo per rispondere; - rendere l’argomento interessante; - fare in modo che i partecipanti si rispecchino nel questionario; - interviste faccia a faccia: le persone in questo caso vengono generalmente contattate nelle loro case o in centri commerciali; tra i vantaggi troviamo maggiore flessibilità, possibilità di avere delucidazioni e di controllare l’ordine delle domande e le risposte errate/ambigue da parte dell’intervistatore. Tradizionalmente, inoltre, la percentuale di risposta in queste interviste è maggiore che nei questionari postali. Quali sono gli svantaggi dunque? Criminalità e impegni fuori casa rendono questa modalità meno attraente, oltre al costo in termini di tempo e denaro che devono essere impiegati in questo tipo di ricerca. Lo svantaggio più importante riguarda il bias dell’intervistatore: l’intervistatore registra solo porzioni di risposte o influenza le risposte. Il miglior modo per risolvere questo bias è assumere intervistatori ben pagati, motivati e istruiti, investendo in un training accurato; un’ulteriore soluzione è un ibrido automatizzato tra questionario e intervista: il partecipante ascolta le domande registrate (tutte alla stessa maniera) e risponde su un computer (permette di bypassare anche il dilemma sulla privacy); - interviste telefoniche: oggi vengono preferite ad altri metodi perché meno costose e più semplici, ma inizialmente questo metodo fu criticato per via dei limiti presenti nello schema di campionamento (non tutti avevano un telefono e non tutti i numeri comparivano negli elenchi). A partire dagli anni 2000 l’avvento della telefonia aumentò la popolarità del metodo: la tecnica della composizione numerica casuale permetteva di raggiungere anche i numeri non presenti sugli elenchi e le interviste superavano ostacoli dovuti a sobborghi pericolosi, edifici ad accesso limitato, controllo limitato sugli intervistatori e scarsa disponibilità degli intervistati. Nonostante ciò, sono presenti diversi svantaggi: possibili distorsioni dovute al bias dell’intervistatore, poca pazienza/ disponibilità da parte degli intervistati e possibilità che l’individuo non risponda sinceramente (non è un “faccia a faccia”). L’introduzione del telefonino ha permesso di ricevere telefonate in qualsiasi momento, anche quando gli intervistati non sono disponibili, attenti o semplicemente non hanno voglia: l’uso intensivo di sollecitazioni telefoniche (call center a scopi commerciali es.) spazientisce l’individuo, che vedendo un numero “sconosciuto” spesso sceglie di non rispondere a prescindere. Ultimo problema potrebbe essere la sovrarappresentazione di chi possiede più di una SIM e la sottorappresentazione di chi ha più lavori (ed è meno disponibile) o di chi non possiede un telefono; - questionari via Internet: è sufficiente che i partecipanti completino un questionario online e in base al software è possibile registrare e riassumere milioni di risposte con un semplice click. Alcuni programmi permettono addirittura di manipolare le variabili e l’assegnazione casuale dei partecipanti alle condizioni sperimentali, nonostante al momento non ci sia modo di generare un campione casuale di utenti di Internet. I vantaggi sono molti: efficienza, costo ridotto, varietà di partecipanti raggiungibili di etnie, età, sesso diversi, tempi di lavoro ridotti, risparmio energetico (non si usa carta), comodità, versatilità e raggiunge categorie spesso sottorappresentate nella ricerca psicologica. Tuttavia, ci sono anche qui degli svantaggi, come il bias di risposta o di selezione: per il bias di risposta i problemi sono legati alla bassa percentuale di restituzione del questionario (più di quelli via posta), per la selezione, il campione è di convenienza perché composto esclusivamente da persone che dispongono di una connessione Internet (si creano disparità sociali). In particolare, il bias di selezione può aumentare sulla base del modo in cui il questionario viene presentato: attraverso siti web appositi o pop up durante la navigazione e in via più attiva tramite mail; questo esclude chi non usa Internet e chi lo usa ma non naviga su determinati siti. Infine, anche la mancanza di controllo dello svolgimento della ricerca costituisce uno svantaggio, che può causare problemi etici o di comprensione. Nonostante ciò, l’analisi costi-benefici indica che i vantaggi delle inchieste via Internet superano di molto gli svantaggi. 6.4 Disegni di ricerca per inchiesta Una delle decisioni principali riguarda la scelta del disegno di ricerca, ossia la struttura generale usata per condurre un intero studio. Ci sono 3 tipi di disegni di ricerca: 1. disegno trasversale: uno o più campioni vengono estratti dalla stessa popolazione nello stesso momento con la finalità di descrivere le caratteristiche di una popolazione o le differenze tra due o più popolazioni in un particolare momento. I disegni trasversali hanno quindi finalità descrittive e predittive, ma non sono il metodo più adatto per indagare i cambiamenti nel tempo degli atteggiamenti e dei comportamenti e per determinare l’effetto di alcuni eventi (crisi economica 2008). 2. studio di trend (disegno longitudinale indipendente): vengono condotte nel tempo (in momenti diversi) una serie di inchieste trasversali, utilizzando campioni indipendenti, poiché campioni diversi di interpellati completa l’inchiesta a ogni dato momento. Ci sono due elementi chiave: 1) ad ogni campione vanno poste le stesse identiche domande e 2) i campioni diversi devono essere estratti dalla stessa popolazione. Se queste condizioni vengono rispettate i ricercatori sono in grado di confrontare le risposte all’inchiesta raccolte nel tempo; lo studio di trend è il più adatto quando lo scopo è descrivere i cambiamenti negli atteggiamenti o nei comportamenti nel tempo, all’interno di una stessa popolazione. Come ogni metodo, presenta però alcuni limiti: possiamo verificare il cambiamento di atteggiamenti/comportamento ma non quali specifici individui cambino idea, di quanto e soprattutto con quali motivazioni; inoltre accade che i campioni successivi non siano più rappresentativi della popolazione: in merito parliamo del problema dei campioni successivi non confrontabili. Il modo migliore per evitare quest’ultima evenienza è selezionare con molta attenzione i campioni successivi. 3. disegno longitudinale: la caratteristica distintiva è che lo stesso campione di soggetti viene convolto più di una volta, con due importanti vantaggi: 1) il ricercatore può determinare la direzione e l’estensione del cambiamento dei singoli individui e cercare di capirne le motivazioni e 2) questo disegno è il più efficace per valutare l’effetto di alcuni eventi che accadono naturalmente. Si tratta di uno studio piuttosto impegnativo perché richiede lo sforzo costante del campione esaminato nel tempo, ma molto efficace. Anche qui sono presenti alcuni problemi: è comunque difficile identificare le ragioni/cause dei cambiamenti di comportamento e soprattutto è difficile trovare individui disposti a partecipare allo studio nel tempo; potrebbe sembrare risolto il problema dei campioni successivi non confrontabili, ma questo solo se tutti i componenti del campione originale continuano a partecipare. In caso contrario parliamo di attrito selettivo, ossia il decrescere del campione nel tempo riducendo la rappresentatività; nonostante ciò, conoscendo le caratteristiche dei singoli soggetti è possibile stabilire chi non abbia risposto nel follow up e chi sì. Il vantaggio è poter seguire singolarmente i soggetti dello studio, nonostante questo significhi andare incontro ad alcune distorsioni: i soggetti subiscono il peso del “dover essere” coerenti rispetto alle risposte degli anni precedenti, oppure, sensibilizzati dall’oggetto dell’inchiesta, possono variare i propri atteggiamenti (reattività). 6.5 Costruzione del questionario Il valore dell’inchiesta dipende alla fine dalla qualità delle misure, che a sua volta dipende dalla qualità degli strumenti utilizzati. Lo strumento principale in questo caso è il questionario, uno strumento scientifico potente per la misura di diverse variabili. I risultati, senza un questionario ben formulato, sarebbero inutilizzabili. Tra le variabili misurate, le variabili demografiche sono degne di nota: vengono usate per descrivere le caratteristiche dei partecipanti (etnia, età, sesso, stato socioeconomico etc.); la scelta di misurare queste variabili dipende dagli scopi dello studio. Misurarle può sembrare semplice attraverso un metodo diretto (“qual è la tua razza?), ma la misura ottenuta può non essere soddisfacente: gli individui possono non comprendere la domanda e rispondere erroneamente (confondere “razza” con “etnia”). In generale, si tende quindi ad evitare l’approccio affrettato e superficiale, costruendo un questionario accurato e rivisto più volte prima di essere somministrato. Altra variabile misurata riguarda le preferenze e gli atteggiamenti, di solito attraverso le scale di self-report: utilizzate per misurare il parere delle persone sugli item presenti nella scala o per determinare differenze tra individui in qualche costrutto presente nella scala. Questo tipo di misurazione si concentra sulle differenze tra gli item, non tra gli individui e tiene conto di due importanti concetti: attendibilità e validità. Costruire un questionario è un compito difficile che richiede pazienza e esperienza; può essere riassunto in 6 fasi: 1. decidere quali info cercare (1° passo in generale nel pianificare un’inchiesta), determinando la natura delle domande del questionario. È importante predire i possibili risultati della ricerca e verificare se questi risponderanno alle domande ideate; 2. decidere come somministrare il questionario. Per esempio, autosomministrazione o presenza di un intervistatore? Va deciso in base alla tipologia di inchiesta. È importante consultare anche la letteratura precedente circa l’argomento che si vuole trattare: se esiste già uno strumento valido e attendibile per la valutazione di un costrutto non ha senso svilupparne un altro; 3. se lo strumento non è già esistente si passa alla stesura di una prima versione del questionario secondo le linee guida generali; 4. in questa fase il questionario va riesaminato e riscritto sotto la guida di esperti di inchieste e dell’argomento trattato; 5. pre-test: implica una somministrazione reale del questionario a un piccolo campione di persone in condizioni simili a quelle che si presenteranno nella somministrazione finale. La differenza fra pre- test e somministrazione finale è che ai soggetti viene chiesto di riferire le reazioni alle singole domande, per scovare aspetti ambigui o potenzialmente offensivi e poterli correggere. Se si dovessero fare grossi cambiamenti rispetto al test pilota potrebbe essere necessario un secondo pre- test; 6. si stende il questionario definitivo e si specificano le procedure specifiche da eseguire durante la sua somministrazione, secondo le linee guida. Le linee guida per un’efficace formulazione del questionario sono importanti perché il modo in cui vengono formulate le domande impatta sulle risposte, influenzando il giudizio dei soggetti. Clark e Schober (1992) fanno notare come le persone presumano che il significato delle domande sia ovvio: per esempio, quando una domanda include una parola vaga (“poco”), le persone possono interpretarla in vari modi in base alle distorsioni personali. Le persone tendono anche ad assumere che tutte le parole in questionario siano utilizzate con la stessa accezione con cui loro stessi le utilizzano nella loro cultura o sub-cultura. Quali sono le soluzioni possibili? Utilizzare formulazioni chiare alle domande cruciali, solitamente due: 1) risposta aperta, in cui i rispondenti possono esprimersi senza limiti; è l’opzione più flessibile ma può essere difficile registrare e codificare le risposte; 2) domanda chiusa o a scelta multipla, opzione più rapida e facilmente confrontabile, che tende

Use Quizgecko on...
Browser
Browser