Dispensa 1 - Cenni storici e metodologici (Psicologia Cognitiva) PDF

Summary

This document provides an overview of the history and methodology of cognitive psychology. It discusses the philosophical influences, the development of structuralism, functionalism, and the Gestalt approach, and the impact of behaviourism. It also touches upon the factors that contributed to the emergence of cognitive psychology as a distinct field of study.

Full Transcript

UER Dispense di Psicologia Cognitiva a cura di Riccardo Brunetti Rosalia Di Ma...

UER Dispense di Psicologia Cognitiva a cura di Riccardo Brunetti Rosalia Di Matteo Dispensa 1 – Cenni storici e metodologici 1.1 Le origini L‟interesse per le vicissitudini del cognoscere (Lat. – conoscere, legato alla conoscenza acquisita tramite l‟esperienza) ha sempre accompagnato la riflessione dell‟uomo: “riflessione” che qui può essere intesa in senso letterale, in quanto pensiero e ragionamento sugli stessi processi mentali (anche detta metacognizione). In altri termini, le abilità conoscitive della mente umana sono sempre state utilizzate, come in un metaforico rispecchiamento, anche per comprendere tali stesse abilità. Fin dai contributi filosofici di Pitagora (VI sec. a.C.), Parmenide (V sec. a.C.) e dei primi Empiristi (come Alcmaeone, Empedocle, V sec. a.C.), molta attenzione fu rivolta a facoltà come la percezione, la memoria, il ragionamento, le capacità logiche, ecc. Lo studio dell‟anima umana (psuchê - υστή) da parte di Platone (428-347 a.C.) ed Aristotele (384-322 a.C.), pur comprendendo ampiamente aspetti morali e meta-fisici, si concentrava molto sulle facoltà dell‟Anima Razionale, sede della logica, del pensiero e del giudizio. I processi cognitivi (cioè della conoscenza), pur se non ancora chiamati così, sono quindi stati oggetto di studio fin dai primi vagiti della cultura occidentale. Particolare attenzione venne proprio dedicata dai primi filosofi ai processi di percezione, in quanto elemento chiave per determinare le influenze delle esperienze sensoriali sullo sviluppo della conoscenza. Nei secoli successivi, particolare attenzione fu dedicata ai processi cognitivi superiori, specialmente dagli autori ad impostazione razionalista, come René Descartes (1596-1650). Nell‟empirismo inglese (XVII-XVIII sec.), ancora sarà sottolineata l‟importanza dei processi sensoriali e percettivi nella formazione delle esperienze, alla base della conoscenza secondo autori come John Locke (1632-1704) e David Hume (1711-1776). Sarà però solamente tra il XIX e XX secolo con la nascita della Psicologia Sperimentale, che i processi di conoscenza verranno finalmente investigati con una metodologia empirica e in maniera puntuale, classificandoli, dividendoli e studiandoli seguendo le peculiarità di ognuno di essi. I legami con i diversi 1 approcci filosofici saranno però sempre molto influenti nelle prime esplorazioni dei processi cognitivi. I rapporti tra la filosofia e lo studio dei processi cognitivi sono molto mutati nel corso dei secoli. La riflessione filosofica era fino al XVIII secolo l‟unico, incontrastato modo per studiare i processi mentali superiori. Successivamente, nel XIX secolo, la filosofia divenne, insieme con la fisiologia, una delle principali ispirazioni per condurre ricerche di ordine psicologico sui processi cognitivi. Nel corso del XX secolo poi, grazie al notevole sviluppo delle scienze psicologiche, il rapporto tra la disciplina filosofica e quella psicologica è lentamente cambiato. Oggigiorno lo scambio di ispirazioni tra le due è reciproco: mentre le scienze psicologiche continuano ad ispirarsi ad idee di stampo filosofico, anche la filosofia stessa trae ispirazione e suggerimenti dalle ricerche sui processi cognitivi. Da un rapporto di stretta dipendenza unilaterale (dove la filosofia era in una posizione di prevalenza), si è arrivati con gli anni ad un rapporto di interdipendenza dal quale entrambe le discipline traggono energie per il loro sviluppo. 1.2 Strutturalismo, funzionalismo e fenomenologia Wilhelm Wundt (1832-1920), padre dello strutturalismo, concentrò le sue ricerche sui processi interni, cioè sulla struttura che compone, a livello mentale, le nostre percezioni e i nostri pensieri. Nel suo studio sulla coscienza, compiuto con profonde ispirazioni dall‟empirismo filosofico e dalla rigorosa ricerca fisiologica, Wundt sviluppò approfondimenti principalmente sulla percezione e sull‟introspezione (cioè il resoconto strutturato delle esperienze interne), il metodo principale di investigazione usato nei suoi studi1. Accentuò poi il ruolo di un processo a metà strada tra la percezione e il pensiero astratto, detto appercezione, che secondo il suo approccio sarebbe alla base di tutti i processi mentali superiori. In questo modo, Wundt cominciava a spingersi verso l‟alto nella gerarchia dei processi mentali, distaccandosi significativamente dalle precedenti esperienze (come ad es. gli studi sulle sensazioni della psicofisica). Fu con l‟avvento dell‟orientamento funzionalista, che si contrapponeva allo strutturalismo di Wundt “trasferito e ampliato” negli Stati Uniti ad opera di Edward Bradford Titchener (1867-1927), che esplose l‟interesse per i processi cognitivi superiori, come l‟apprendimento, la motivazione, le emozioni, l‟attenzione e il linguaggio. L‟accento veniva posto dai funzionalisti sulle funzioni adattive di ogni facoltà mentale, con un approccio chiaramente 1 Fu in realtà nella “Scuola di Würzburg” che Oswald Külpe (1862-1915), un allievo di Wundt, ed i suoi collaboratori svilupparono maggiormente il metodo introspettivo nella direzione di un’analisi del pensiero. Le ricerche condotte a Würzburg portarono a numerose polemiche, principalmente relative al cosiddetto “pensiero senza immagini” e al metodo introspettivo stesso. Le esperienze di Külpe e colleghi contribuirono allo sviluppo dell’approccio fenomenologico descritto oltre. 2 legato all‟evoluzionismo: l‟interesse principale era per comprendere le cause e i significati dei processi cognitivi superiori. Tale approccio, proprio in legame con la sua matrice evoluzionistica, si contraddistingueva anche per una espansione delle indagini sui processi cognitivi a bambini e animali, per cogliere continuità e rotture di stampo ontogenetico e filogenetico nelle facoltà superiori. Ma fu con l‟approccio fenomenologico (cioè basato sull‟esperienza) ispirato dall‟opera di Franz Brentano (1838-1917) che, nella Gestaltpsychologie, i processi cognitivi guadagnarono momentaneamente il centro della scena psicologica. Sviluppatasi all‟inizio del „900, la Gestalt si muoveva dalle idee di Meinong (1853-1920) sull‟esistenza di oggetti mentali inferiori, strettamente dipendenti dall‟input sensoriale e di oggetti superiori, di tipo diverso dai primi in quanto costrutti molto più dipendenti dal lavoro mentale che dai sensi. Gli oggetti superiori, in questo senso, si costruiscono su quelli inferiori, ma ne rappresentano l‟insieme e la congiunzione, risultando così in rappresentazioni qualitativamente diverse dai semplici aggregati di oggetti inferiori. Negli stessi anni, von Ehrenfels (1859-1932) descriveva le qualità della forma (Gestaltqualitäten), cioè le qualità delle relazioni tra singoli elementi, come fattori principali negli atti percettivi. Koffka (1886-1941) classificherà successivamente più precisamente queste qualità nelle leggi della buona forma (Prägnanz). L‟iniziale interesse per la percezione da parte degli psicologi della Gestalt si estese ad altre facoltà superiori, in particolare alla risoluzione di problemi e ai processi di pensiero. I lavori di Wertheimer (1880-1943) e di Köhler (1887-1941) proposero concetti importanti e innovativi (in quanto molto controcorrente rispetto alle idee presenti all‟epoca) come l‟insight e il pensiero produttivo. 1.3 Il periodo buio Dopo l‟iniziale periodo di notevole e promettente sviluppo a cavallo tra l‟ottocento e il novecento, lo studio sui processi cognitivi attraversò un periodo oscuro, quello derivato dall‟ “egemonia” del comportamentismo. Nella scienza del comportamento di John B. Watson (1878-1958) e Burrhus Frederic Skinner (1904-1990) i contenuti della “scatola nera” non erano di primario interesse, in quanto l‟unico oggetto di studio contemplato era il comportamento osservabile secondo un rigido schema Stimolo-Risposta (S- R). In questo modo, il comportamentismo sviluppava un approccio solido e sperimentale, a scapito dell‟investigazione di tutto ciò che poteva accadere tra lo stimolo e la risposta. Per Watson, il pensiero, elemento così rilevante per lo studio della mente, si riduceva addirittura ad un semplice discorso “subvocalico” (cioè non udibile, non espresso vocalmente). Dal suo manifesto del 1913: 3 “La psicologia, come la vede il comportamentista, è puramente un ramo sperimentale oggettivo della scienza naturale. Il suo scopo teorico è la previsione e il controllo del comportamento. L‟introspezione non è parte essenziale del suo metodo e il valore scientifico dei suoi dati non dipende dalla facilità a cui si prestano ad interpretazioni in termini di coscienza.” (Watson, 1913) Fu tuttavia proprio in alcuni autori comportamentisti (o almeno che si definivano tali) che cominciò a farsi strada l‟idea che all‟interno della “scatola nera” della mente accadesse qualcosa che meritava più attenzione. 1.4 I fattori che portarono allo sviluppo della Psicologia Cognitiva La psicologia cognitiva “propriamente detta” nacque negli anni ‟50 del secolo scorso, grazie ad un complesso intreccio di fattori. Cercheremo qui di raccontare brevemente quali furono i fatti e le scoperte che ebbero maggior influenza sullo sviluppo della disciplina. 1.4.1 L’interesse per i processi interni nel comportamentismo All‟interno del paradigma comportamentista ci furono delle spinte “eretiche” ad opera principalmente di tre autori: Hull, Tolman e Hebb. Clark L. Hull (1884-1952) impostò la sua interpretazione del modello S-R su un‟idea centrale di adattamento biologico. L‟organismo, nella sua spinta all‟adattamento, è guidato da pulsioni (drives) aspecifiche (come la fame, la sete) che generano le energie necessarie per il comportamento. Tali energie pulsionali sarebbero dei veri e propri “stimoli” interni, che provocherebbero delle risposte. Hull portava così l‟attenzione verso la presenza di moti interni, addirittura degli “stimoli”, che assumevano un ruolo chiave nella generazione dei comportamenti. Nello studio di queste “energie pulsionali”, Hull mantenne comunque un rigorosissimo approccio comportamentista, studiando ad esempio come la forza di una pulsione dipendeva dalla quantità di tempo che l‟animale aveva passato deprivato di alcuni stimoli. Il primo reale “rivoluzionario” all‟interno del comportamentismo fu Edward C. Tolman (1886-1959) che, pur partendo da basi comportamentiste e sviluppando ricerche con tali metodologie, arrivò a conclusioni “mentaliste”, che sottolineavano la rilevanza dell‟interesse per gli stati interni dell‟organismo. I suoi celebri risultati furono così rilevanti proprio perché ottenuti con una metodologia comportamentista “ortodossa”: fu proprio tale metodologia che “puntò il dito” incontrovertibilmente verso l‟interno dell‟organismo. Tolman (1948) condusse una serie di sperimentazioni nel 1930 con dei gruppi di ratti. Le cavie venivano messe in un labirinto e mentre un primo gruppo riceveva fin dall‟inizio un rinforzo (del cibo) alla risoluzione del 4 labirinto, un secondo gruppo di ratti non trovava mai cibo. Un terzo gruppo, infine, trovava cibo nel labirinto solamente dall‟undicesimo giorno di sperimentazione in poi. I risultati del primo gruppo mostrarono un normale apprendimento, mentre quelli del secondo mostrarono una più o meno costante presenza di errori, confermando le tipiche previsioni legate agli effetti del rinforzo. Fu il terzo gruppo di ratti a mostrare dei comportamenti peculiari. Fino al decimo giorno il terzo gruppo si comportò esattamente come il secondo, essendo in condizioni identiche, ma, non appena cominciarono ad essere somministrati i rinforzi, i ratti di questo gruppo mostrarono un apprendimento molto più rapido di quello del primo gruppo (Figura 1.1). Figura 1.1 L'andamento degli errori in un esperimento di Tolman. Il gruppo I non riceveva alcun rinforzo; il grupo II lo riceveva dal primo giorno; il gruppo III lo riceveva dal decimo giorno. Da notare la spiccata pendenza della curva del gruppo III rispetto a quella più dolce del gruppo II. Tolman spiegò questo effetto utilizzando un concetto di Blodgett, l‟apprendimento latente: i ratti, evidentemente, pur non ricevendo rinforzo nella prima fase, apprendevano alcune delle caratteristiche del labirinto, ma tale apprendimento risultava inespresso fino a quando non potevano usarlo per raggiungere il cibo dal decimo giorno in poi. Dall‟undicesimo giorno, però, i ratti potevano mostrare tutto quanto avevano appreso del labirinto. Tolman ritenne che questo apprendimento latente fosse la formazione, durante i giorni senza rinforzo, di mappe cognitive del labirinto. Gli esperimenti di Tolman arrivarono a dimostrare in maniera convincente la rilevanza di stati interni attraverso delle dimostrazioni ottenute con i metodi stessi del comportamentismo: i grafici di Tolman mostravano chiaramente come le variabili “interne” avessero un notevole effetto anche quando non erano direttamente espresse nel comportamento. Nello stesso periodo, anche Donald O. Hebb (1904-1985) sottolineava sotto altri aspetti l‟importanza degli stati interni. Nella sua teoria sulle assemblee cellulari (1949), Hebb tenta di dare corpo per la prima volta a ciò che accadrebbe all‟interno dell‟organismo tra lo stimolo e la risposta, suggerendo così un modello S-O-R (la “O” sta per “organismo”). Secondo Hebb, l‟apprendimento rinforzerebbe nel sistema nervoso specifici “percorsi 5 dell‟informazione” che, attraverso un processo di facilitazione sinaptica, porterebbe quindi a delle modifiche funzionali all‟interno delle vie neurali stesse. Al di là degli specifici aspetti della teoria di Hebb, pioniere dell‟approccio connessionista che si svilupperà solo 40 anni più tardi (vedi § 30), vediamo come le variabili intervenienti cominciano lentamente ad attrarre sempre più attenzione tra le file dei neocomportamentisti (come li ribattezza Berlyne). Questo rinnovato interesse, insieme allo sviluppo di altre discipline, sarà uno dei principali fattori nello sviluppo del nuovo approccio alla cognizione umana. 1.4.2 La cibernetica, la teoria dell’informazione e gli elaboratori elettronici Tra gli anni ‟40 e ‟50 del „900 veniva rinnovato il vigore nello studio dei sistemi di controllo, comunicazione e retroazione (feedback) chiamato cibernetica (termine riproposto nella nuova accezione da Norbert Wiener). Sarà Kenneth J. Craik (1943) a coniugare per primo la psicologia sperimentale con la cibernetica nel suo studio sul Tracking (l‟inseguimento di bersagli mobili). Craik elaborerà una teoria che vede l‟uomo come un sistema di autoregolazione basato sulla rappresentazione simbolica, soffermandosi su alcune caratteristiche “interne”: la presa di decisione del “sistema uomo” risulterà essere un processo discreto, sensibile a misure meccaniche e caratterizzato da precise temporizzazioni. Il giovane scienziato, forse il primo “psicologo cognitivo” della storia, purtroppo scomparirà a 31 anni in seguito ad un incidente di bicicletta. Parallelamente al rinnovato interesse per i circuiti di controllo e la comunicazione, gli anni ‟40 e ‟50 vedevano lo sviluppo della Teoria dell’informazione, ad opera di Claude E. Shannon (1916-2001) e Warren Weaver (1894-1978), un approccio matematico alla comunicazione. Lo sviluppo congiunto di queste due discipline è già precursore di una delle principali rivoluzioni del XX secolo, di centrale rilevanza per la psicologia, la nascita dell‟informatica. La creazione degli elaboratori elettronici permetteva infatti agli psicologi di poter immediatamente cercare un riscontro delle proprie teorie, attraverso simulazioni ad hoc, ma, in maniera ancora più rilevante, forniva loro una preziosa metafora per comprendere ed interpretare il funzionamento del sistema cognitivo. Il funzionamento dei moderni elaboratori informatici, basato sull‟interazione tra un hardware (cioè la struttura fisica dell‟elaboratore) e un software (cioè i programmi che organizzano e regolano il funzionamento di tale struttura) venne quasi immediatamente utilizzato come impianto metaforico per spiegare la relazione intercorrente tra cervello (cioè la struttura neurobiologica) e mente (cioè la proprietà emergente di tale struttura). Anche se tale approccio, con le sue sfumature, subirà forti attacchi sotto vari fronti, le basi per una psicologia dell’elaborazione dell’informazione erano ormai solide. 6 1.4.3 Il problema del linguaggio Un ultimo fattore che vibrò un colpo fatale all‟approccio comportamentista fu una dura critica ai processi di apprendimento del linguaggio descritti da Skinner, ad opera da un giovane, brillante linguista di nome Noam Chomsky. Chomsky (1957), in uno dei contributi chiave per lo sviluppo della psicolinguistica, attaccò le teorie sull‟apprendimento del linguaggio per imitazione e rinforzo, individuando tre principali problemi. Il primo riguardava l‟enorme rapidità con cui i bambini acquisiscono il linguaggio, anche di fronte a stimoli degradati e ristretti e nonostante enormi differenze nelle esperienze individuali: i meccanismi di rinforzo e l‟imitazione non potevano spiegare in maniera adeguata dei fatti così peculiari. Il secondo aspetto riguardava la grande similarità strutturale dei linguaggi: un fatto che secondo Chomsky appoggiava un approccio mentalista basato sull‟analisi delle regole e della grammatica profonda dei diversi linguaggi. Il terzo problema era legato alla grande produttività creativa del linguaggio: da un alfabeto finito di simboli è possibile generare un numero infinito di frasi di senso compiuto. Questo ultimo aspetto costituiva per Chomsky una delle basi fondamentali per lo sviluppo di uno studio delle regole sintattiche del linguaggio e sul come tali regole vengono apprese e applicate. L‟approccio di Chomsky ebbe un forte impatto sulla comunità scientifica, supportato da indagini rigorose basate sulla logica e la matematica. Ma l‟impianto mentalista, addirittura razionalista (non a caso uno dei suoi riferimenti principali era proprio Descartes), di Chomsky contribuì in maniera fondamentale allo sviluppo di un approccio che considerava gli stati interni e l‟elaborazione dell‟informazione i suoi principali oggetti di studio. 1.5 I primi contributi Durante gli anni ‟50 osserviamo dunque una proliferazione di studi che mirano ad investigare quanto accade nei processi superiori, interni, cognitivi. In un mondo di informazioni, era necessario ipotizzare una mente con processi di controllo, regole e strategie (Bruner, 1983). Già nel 1955 veniva rilevato un interesse crescente per processi di pensiero e di soluzione di problemi (Taylor & McNemar, 1955), mentre nel 1972 si poteva parlare ampiamente della piena rinascita dell‟interesse per i processi cognitivi (Bourne & Dominowski, 1972). Questa “rinascita” portò alla produzione di una letteratura sperimentale sempre più estesa, sulla formazione dei concetti, il ragionamento, la soluzione dei problemi, l‟attenzione, la memoria, le differenze negli stili e nelle strategie cognitive (Hearnshaw, 1989). La nuova psicologia fu caratterizzata sempre di più da un rigore espositivo, derivante dall‟esigenza di simulare al computer i processi cognitivi. Ricorderemo alcuni tra i primi contributi più significativi che segnarono più nettamente l‟inizio dell‟era della cognizione. 7 Pubblicato nel 1956, il testo A study of thinking di Bruner, Goodnow e Austin offrì una ricca panoramica di studi sperimentali e osservazioni di vita quotidiana sulla formazione dei concetti e il ragionamento induttivo. Alcuni dei paradigmi sperimentali utilizzati nel testo diventarono il punto di riferimento per tutta la ricerca successiva. Fu il primo frutto del Cognition Project, avviato da Bruner ad Harvard nel 1952. Nel 1958, Donald Broadbent pubblica il suo Perception and communication, dove espone le sue teorie sviluppando notevolmente lo studio dell‟attenzione e rendendola una delle facoltà più studiate nella nuova psicologia ad orientamento cognitivo. Plans and the structure of behavior, [Piani e struttura del comportamento], pubblicato nel 1960 da Miller, Galanter e Pribram, propone una mediazione cognitiva tra lo stimolo e la risposta dei comportamentisti. Tale mediazione cognitiva deve necessariamente includere, secondo gli autori, dei processi di monitoraggio che controllano l‟acquisizione delle relazioni stimolo-risposta. L‟unità T.O.T.E. (Test-Operate-Test-Exit) è la prima proposta “quasi-computazionale” di tale unità di monitoraggio. Tale unità si compone di varie fasi, potenzialmente ricorsive (nel senso che una unità può contenerne altre al suo interno), che controllano le condizioni di partenza (Test), mettono in pratica delle operazioni (Operate) e ne monitorano gli effetti (Test). La serie di controlli e operazioni continua finché i risultati attesi non sono raggiunti (Exit). Nel libro, gli autori vincolano le loro teorie ai limiti di elaborazione precedentemente dimostrati da Miller (1956), nel suo classico lavoro sulla quantità di elementi che è possibile mantenere a breve termine per la successiva elaborazione (il celebre magico numero 7 - più o meno 2). Nel 1967, Ulrich Neisser pubblicò Cognitive Psychology [Psicologia Cognitivista], affrontando un enorme numero di problemi di stampo cognitivo, dalla percezione, alla memoria, al pensiero. Uno dei punti principali del libro riguarda la distinzione tra i processi multipli, o paralleli, e i processi sequenziali, tutti implicati nel pensiero. Neisser afferma che il pensiero umano è un‟attività multipla, composta da vari flussi, più o meno indipendenti. Ordinariamente, comunque, vi è una sequenza principale, perché la coscienza è intrinsecamente singola e non siamo quindi consapevoli di tutte le operazioni concomitanti: tale sequenza principale avrebbe il controllo dell‟attività motoria. La visione e l‟ascolto vengono poi trattati come processi costruttivi, caratterizzati da due stadi: uno primario, rapido, grezzo e parallelo; uno secondario, volontario, dettagliato e sequenziale. Alla fine del libro, Neisser osserva comunque che lo studio della cognizione è solo una frazione della psicologia, che non può rimanere la sola. L‟influenza delle idee di Neisser riguardo ad un sistema duale (rapido-parallelo vs. lento-sequenziale) è ancora percepibile nella ricerca contemporanea: numerosi autori basano ancora le loro costruzioni teoriche sulla medesima dicotomia (o su altre molto simili, cfr. Evans, 2003; Stanovich & West, 2000). 8 Neisser farà seguire a questa altre opere, sempre più caratterizzate da una critica alla pratica sperimentale in psicologia, e proponendo un approccio più ecologico allo studio dei processi cognitivi. Secondo la critica di Neisser tra gli anni ‟70 e „80, la psicologia sperimentale ignora tutti i processi che hanno una qualche funzione rilevante nella vita di tutti i giorni: le attività di elaborazione non si svolgono in contesti astratti e senza significato (come quelli ricreati nei laboratori), ma nell‟ambiente reale, dove i processi cognitivi possono assumere forme specifiche, complesse, che necessitano uno studio ad hoc (cfr. Brunetti, 2008). 1.6 L’epistemologia genetica di Jean Piaget L‟influenza dell‟opera dello psicologo svizzero Jean Piaget (1896-1980) è cresciuta costantemente lungo il ventesimo secolo. Sebbene i suoi primi scritti risalissero agli anni ‟20 e il maggiore sviluppo delle sue ricerche avvenne tra gli anni ‟40 e ‟50, la comunità internazionale cominciò ad apprezzare il suo interesse per i processi cognitivi solamente negli anni ‟60. In effetti, l‟interesse di Piaget, con il suo approccio filosofico e costruttivista, era decisamente pionieristico, in un mondo scientifico che apprezzava, all‟epoca, quasi esclusivamente le osservazioni delle relazioni tra stimolo e risposta. Nella sua opera, Piaget cercò di conciliare empirismo ed innatismo, attraverso una teoria basata sui meccanismi dell‟adattamento tra organismo e ambiente. Ma la sua focalizzazione sull‟individuo e sugli aspetti innati dello sviluppo cognitivo, fecero sì che le sue ricerche e riflessioni si concentrassero sui processi interni e sui fenomeni legati al cambiamento degli schemi cognitivi. Secondo Piaget (1970), il processo di maturazione dell‟individuo è tanto fisiologico quanto psicologico, e può essere suddiviso in stadi: lo sviluppo mentale inizia con il cosiddetto periodo senso-motorio nel quale il bambino sperimenta il mondo attraverso prima i riflessi e poi le azioni dirette ad uno scopo. Le sue idee sulla natura “attiva” della conoscenza, cioè che la conoscenza deriva dall‟attività e non esclusivamente dalla sensazione, arrivano quasi ad avere una risonanza con le attuali teorie che legano percezione e azione (vedi § 10). Lungo gli stadi successivi, il bambino riesce progressivamente a differenziare il sé dalla realtà, soggetto e oggetto, attraverso un processo di decentramento, tanto cognitivo quanto affettivo. Tale processo di differenziazione gli permette di svincolare le sue operazioni mentali dall‟hic et nunc, fino a manipolare simboli astratti e operazioni formali. La idee di Piaget divennero così popolari che negli anni ‟70 nessuno poteva permettersi di ignorarle. L‟opera di Piaget ebbe un notevole impatto anche per la mole di critiche che suscitò negli anni successivi: l‟influenza di una teoria psicologica è evidente anche dalle critiche che le vengono mosse e dal dibattito che ne origina. 9 Passeremo ora in rassegna le tipologie di ricerca della psicologia cognitiva e approfondiremo poi gli aspetti contemporanei della disciplina e i differenti approcci che la contraddistinguono. 2.1 Dall’osservazione naturalistica al metodo empirico Fin dall‟antichità l‟uomo ha tentato di comprendere i come e i perché degli eventi naturali intorno a sé. Ma, pur se mossi da questa comune intenzione, gli studiosi, in diversi luoghi e periodi storici, hanno proposto modi molto diversi riguardo a come riuscire a decodificare le informazioni e le regolarità del mondo che ci circonda. Il primo, grande strumento di conoscenza dell‟uomo è sempre stato il ragionamento2. Attraverso tale strumento, in varie forme (dalla matematica di Talete di Mileto per interpretare il mondo, alla “aritmo-geometria” dei pitagorici) i Greci svilupparono le loro filosofie, fino a ritenerlo, con il razionalismo platonico, l‟unico modo per conoscere la vera natura delle cose. Successivamente, principalmente grazie ad Aristotele, l‟osservazione diretta della natura cominciò ad essere un elemento chiave dello sviluppo della conoscenza. Ma siamo ancora lontani dall‟indagine scientifica come la conosciamo oggi: le osservazioni aristoteliche della natura erano molto più qualitative (cioè descrizioni basate su singoli casi), che quantitative (cioè regolarità estratte da grandi quantità di casi). Ben presto si delinearono due approcci distinti al problema della conoscenza umana, più o meno ben definiti: mentre da una parte il Razionalismo sosteneva il primato della ragione come strumento di conoscenza, dall‟altra l‟Empirismo sosteneva che la conoscenza della verità può essere raggiunta solamente dalle informazioni che arrivano dai sensi, dal mondo, dall‟empeirìa (εμπειρία), cioè dall‟esperienza. Facendo un salto in avanti di alcune centinaia di anni, arriviamo al 1543, anno che vede la pubblicazione di due opere che avranno un grande effetto sulla conoscenza umana: il De rivolutionibus Orbium Coelestium del polacco Nicolaus Koppernigk e il De humani corporis fabrica del belga Andreas von Wiesel. Il testo di Koppernigk (forse lo avete sentito nominare col suo nome latinizzato Copernico), rivoluzionò l‟ipotesi geocentrica (il pianeta Terra al centro) sull‟organizzazione delle sfere celesti, con la sua 2 In realtà, per amor di precisione, il primo degli strumenti di conoscenza dell’uomo, dovrebbe essere la narrazione (principalmente di stampo poetico): basti pensare a tutti i miti di creazione presenti in ogni cultura. L’antropologo James Frazer (1854-1941) segnava una linea continua nello sviluppo della conoscenza umana, dal pensiero magico/mitologico al pensiero scientifico. Non bisogna poi dimenticare che l’arte del narrare le proprie riflessioni fu sempre centrale per i filosofi Greci, che componevano i loro testi in versi. Ma, per la trattazione di queste dispense, sarà meglio partire dalla ragione. 10 ipotesi eliocentrica (il sole al centro)3. Mentre veniva così “ridimensionata” la posizione della Terra rispetto al resto dell‟universo, attraverso l‟opera di von Wiesel (latinizzato come Vesalio) fu il corpo umano ad essere rivelato nella sua anatomia. Il testo infatti proponeva uno studio anatomico sulla struttura del corpo umano sezionato, accompagnato da una serie di tavole illustrate. Così, a metà del XVI secolo, le comuni idee a proposito del lontano cosmo e del vicino corpo umano, subivano una rivoluzione che le avrebbe cambiate per sempre. Le opere di questi due autori proposero agli studiosi dell‟epoca un magistrale esempio del potere esplicativo di ragionamento e osservazione, dando origine a delle basi tuttora valide di astronomia e anatomia. L‟unione del sapere derivato dal ragionamento e dalla riflessione (Theorìa – Θεφρεία) e dall‟abilità pratica (Mètis – Μήτις), ovvero l‟unione del sapere “filosofico” e dell‟intelligenza pratica, fu una delle fonti principali del metodo empirico o scientifico. Solo nel XVII secolo però, attraverso l‟opera di Galileo Galilei (1564- 1642) prima, e di Isaac Newton (1642-1727) poi, avrà inizio la cosiddetta rivoluzione scientifica. Galilei riusciva a definire con precisione il metodo empirico, basato sull‟esperimento controllato, come mezzo per svelare le leggi naturali. Newton, dal canto suo, forniva forza e supporto all‟intuizione galileana con la sua scoperta della gravitazione universale: l‟universo sarebbe quindi regolato da leggi da comprendere attraverso l‟indagine sperimentale. Il metodo empirico, fondato sull‟esperienza, vede quindi l‟esperimento come mattone fondamentale per l‟avanzare della conoscenza. L‟esperimento però, non è solamente un‟osservazione della natura (alla maniera aristotelica), ma consiste nello studio dei fenomeni naturali attraverso una manipolazione umana degli stessi: per dirla con Francis Bacon (1561-1626) non basta osservare il leone, per comprenderlo bisogna provare a torcergli la coda e vedere come reagisce (!). 2.2 Il piccolo passo: l’esperimento Come immaginerà il lettore, prendere un leone per la coda per vedere come reagisce non è un‟impresa facile. Ma nemmeno valutare con precisione lo span di memoria di un bambino di 6 anni o l‟attenzione sostenuta di un addetto ai radar di una torre di controllo sono affari semplici. Per questo, la sperimentazione è regolata da alcuni principi, che rendono possibile distinguere ciò che rientra nella ricerca sperimentale da altri tipi di ricerca. 3 Sigmund Freud, il fondatore della psicanalisi, avrebbe ritenuto questa rivoluzione nel pensiero rispetto alla posizione dei pianeti “il primo colpo all’Ego dell’uomo”. La posizione Tolemaica e Aristotelica della Terra al centro dell’universo aveva infatti resistito per quasi quattordici secoli, a simboleggiare la centralità dell’essere umano rispetto al resto del creato. 11 Innanzitutto, un esperimento deve trattare di fenomeni misurabili, deve cioè essere possibile categorizzare, contare o quantificare in qualche modo (anche mediante una strumentazione ad hoc) ciò che sta studiando. Ma la natura è spesso complessa e molti fenomeni accadono contemporaneamente, incrociandosi e dipendendo uno dall‟altro. Quindi, un‟altra necessità è che gli esperimenti siano strettamente controllati. Bisogna essere certi di misurare solo ed esclusivamente i fenomeni che ci interessano, “ripulendo” la nostra ricerca da tutti quegli elementi che potrebbero avere un‟influenza sui risultati: in questo modo ci assicuriamo di studiare effettivamente cosa desideriamo studiare. È poi necessario che l‟esperimento sia ripetibile, cioè che, attraverso una sua descrizione dettagliata, sia possibile condurlo di nuovo ed ottenere, possibilmente, gli stessi risultati. In questo modo, si rende possibile una verifica incrociata ad opera di altri studiosi interessati agli stessi fenomeni che interessano noi: a volte, la replicazione di esperimenti ha messo in luce limiti significativi degli esperimenti originali, permettendo una migliore comprensione dei fenomeni studiati. Le teorie e i modelli della Psicologia Cognitiva si sviluppano principalmente con la sperimentazione, anche se, specialmente negli ultimi 30 anni, un notevole contributo è stato legato agli studi di singoli casi e alle simulazioni al computer. Ripasseremo quindi brevemente quali sono i principali elementi della sperimentazione, per poi trattare i diversi tipi di ricerca in Psicologia Cognitiva. 2.2.1 Le ipotesi Anche se spesso delle ricerche vengono condotte per raccogliere quanti più dati relativamente ad un fenomeno (le cosiddette ricerche descrittive), alla base della sperimentazione c‟è solitamente la formulazione di una chiara ipotesi. Un‟ipotesi sperimentale ha molto spesso una forma del genere: “Se manipolando solamente la causa x vedrò variazioni nell’effetto y, allora potrò assumere che y è un effetto di x”. Nella realtà della ricerca scientifica, molto spesso le ipotesi hanno una forma più complessa rispetto a questa forma “semplice” (ci sono spesso molte “x”, molti più “se”, molti più “allora”, etc.): per adesso possiamo limitarci alla forma appena esposta. Un‟ipotesi sperimentale può essere verificata (confermata) o falsificata (negata), a seconda che i risultati del nostro esperimento vadano effettivamente nella direzione prevista oppure no. Un‟ipotesi confermata può diventare una legge. Secondo il filosofo della scienza Karl Popper (1902- 1994), il solo modo per poter distinguere una scienza da una disciplina non- scientifica è la falsificabilità delle sue affermazioni: una scienza deve produrre leggi (e teorie) falsificabili, cioè deve essere possibile fornire delle osservazioni o dei risultati che le neghino. Questo non vuol dire però che ogni legge deve necessariamente essere falsificata per essere scientifica: è 12 sufficiente che sia potenzialmente falsificabile attraverso dei risultati che ne provino la falsità4. Le ipotesi riguardano delle relazioni tra variabili (le x e y della nostra ipotesi più sopra): ripassiamo brevemente quali variabili sono essenziali negli esperimenti scientifici. 2.2.2 Le variabili Come dice il nome stesso, una variabile è qualcosa che può variare, cioè assumere differenti valori. Ad esempio, mio zio, mio fratello e mio nipote sono alti rispettivamente 180, 172 e 120 cm e hanno rispettivamente una laurea, un diploma e una licenza elementare: sto prendendo in considerazione due variabili in questa mia piccola indagine familiare, l‟altezza e il titolo di studio. Ognuno dei miei soggetti, per esempio mio fratello, ha degli specifici valori per ognuna delle variabili che prendo in considerazione, per esempio “altezza = 172 cm” e “tit. di studio = diploma”. Solitamente, per motivi che capiremo tra poco, le variabili vengono classificate a seconda del tipo di scala di misurazione. Le scale di misurazione sono 4 e si distinguono per i tipi di paragoni e operazioni che ci è possibile fare sui valori delle variabili. Al primo gradino troviamo la scala nominale: in una scala nominale possiamo dire solo ed esclusivamente che un valore è diverso o uguale ad un altro. Ad esempio, sempre continuando la mia piccola indagine familiare, mio zio è di nazionalità tedesca, come mio fratello, mentre mio nipote è ungherese (quella parte di famiglia si è trasferita prima che lui nascesse). In una variabile nominale, come la nazionalità, non avrebbe senso paragonare i diversi valori se non per dire che sono uguali o diversi. Per quanto riguarda il titolo di studio, invece, possiamo paragonarli in un modo un po‟ diverso: possiamo dire quale è superiore e quale è inferiore (dal momento che i titoli di studio si raggiungono in sequenza). In questo caso, ci troviamo di fronte ad una scala ordinale, dove cioè è possibile paragonare i valori della variabile secondo relazioni di tipo “maggiore”, “minore”, “precedente”, “successivo”, “superiore”, etc. Le scale di misurazione dove è possibile effettuare altri paragoni e operazioni, sono chiamate scale a intervalli equivalenti e scale a rapporti equivalenti. In una scala ad intervalli è possibile paragonare la distanza tra un primo valore e un secondo, e la distanza tra il secondo e un terzo. Ad esempio, se chiedo ai miei parenti di giudicare la bellezza di una scultura su una scala di mia invenzione che va da zero (brutto come uno straccio sporco) a 7 (bellezza paradisiaca), potrò paragonare i loro punteggi su questa variabile non soltanto in termini di maggiore o minore: potrò dire, per 4 Un esempio pratico di un’affermazione falsificabile è “Tutti gli alberi hanno foglie verdi”: se troviamo anche un solo albero con foglie non verdi, possiamo dire che l’affermazione è falsa. Un’affermazione non falsificabile sarebbe invece: “Esiste un albero con foglie a strisce rosse e blu”, dal momento che, per quanti alberi osserverò, non potrò mai avere la certezza che non ne esista uno, da qualche parte, con quelle caratteristiche. 13 esempio, che il 3 di mio fratello è più distante dal 6 di mio nipote che dal 2 di mio zio. Ma lo zero della mia scala non è uno zero “assoluto”, cioè non indica la completa assenza della caratteristica (la bellezza): è uno zero arbitrario, cioè messo lì per convenzione. Inoltre, non avrebbe senso dire che per mio nipote la scultura è bella “il triplo” che per mio zio. Un scala dove è possibile fare affermazioni di questo tipo, cioè con rapporti moltiplicativi tra i valori, è una scala a rapporti: un esempio è l‟altezza. Io posso infatti affermare che mio zio è alto un terzo più di mio nipote (60 cm in più), e posso notare come lo zero della misura dell‟altezza è, in effetti, uno zero assoluto (cioè assenza di altezza). I tipi di scale non servono solamente a complicarsi la vita, ma determinano i tipi di analisi statistiche che è possibile poi fare sui dati raccolti. Negli esperimenti, esistono poi due tipi di variabili: le indipendenti e le dipendenti. Le variabili indipendenti sono quelle che vengono manipolate dallo sperimentatore e rappresentano le presunte cause dei fenomeni che vogliamo studiare. Le variabili dipendenti sono i presunti effetti, cioè i valori che andiamo a misurare come risposta alla nostra manipolazione. Ora possiamo comprendere come le ipotesi sperimentali non siano altro che ipotesi riguardo al rapporto tra le variabili indipendenti e dipendenti. Più sotto forniremo un esempio pratico di quali variabili siano dipendenti o indipendenti in un esperimento. Un importante aspetto delle variabili, infine, è proprio la loro misurabilità. A volte si desiderano studiare processi o fenomeni che sappiamo descrivere solamente in modo astratto: per esempio, vogliamo studiare l‟intelligenza degli studenti di due differenti scuole. Ma dire “intelligenza” non ci aiuta a mettere in piedi il nostro esperimento, è necessario rendere concreto e misurabile l‟oggetto del nostro studio, in termini scientifici, è necessario operazionalizzare le variabili. Nel caso dell‟intelligenza, un modo per operazionalizzarla sarebbe quello di determinarla facendo risolvere ai nostri soggetti un certo numero di problemi e calcolare quanto tempo impiegano per risolverli. Vediamo quindi che il nostro concetto “astratto”, l‟intelligenza, si concretizza in 2 variabili: il numero di problemi risolti e il tempo impiegato per risolverli. Operazionalizzare significa perciò rendere misurabile ciò che in principio non lo era. 2.2.3 Il campione La maggior parte delle volte che una ricerca viene sviluppata non è possibile far partecipare tutta la popolazione che vogliamo studiare. Se pensiamo che piuttosto spesso, negli esperimenti di Psicologia Cognitiva, si pretende che le conclusioni siano applicabili a tutto il genere umano, si comprende facilmente come sia arduo convincere tutta l‟umanità a partecipare ad un esperimento. 14 Per questo si ricorre ad un campionamento, cioè ad una selezione (che dovrebbe essere casuale) di un piccolo numero di soggetti dalla popolazione che intendiamo studiare. Il campione così ottenuto deve essere rappresentativo, cioè deve rispecchiare la normale variabilità della popolazione alla quale intendiamo estendere i nostri risultati. Se voglio ad esempio studiare la popolazione degli italiani tra i 20 e i 30 anni, dovrò fare attenzione ad includere nel mio campione uomini e donne, dal momento che tra gli italiani in quella fascia di età sono presenti entrambi i generi. 2.2.4 Le condizioni sperimentali Quando viene pianificato un esperimento, si sviluppa il cosiddetto disegno sperimentale. In tale disegno viene programmato quante e quali prove saranno presenti nella nostra ricerca e come verranno divisi i soggetti per ciascuna di queste prove. Anche in esperimenti che sembrano avere una sola prova sperimentale, come vedremo, spesso ne serve almeno un‟altra, una sorta di “controprova”. Ad esempio, ipotizziamo che io voglia verificare l‟influenza della lunghezza delle parole su di un compito di memoria: ricordare quante più parole possibile. La mia ipotesi potrebbe essere più o meno la seguente: “Se cercando di memorizzare parole lunghe il numero di parole ricordate è minore, allora si può assumere che la lunghezza delle parole è la causa del ricordo peggiore”. Decido quindi di dividere i miei soggetti in due: a metà di loro farò memorizzare parole lunghe, mentre all‟altra metà farò memorizzare parole brevi. Avrò quindi 2 condizioni diverse, in questo caso assegnate a due gruppi distinti. Perché questa divisione? Perché è necessario essere certi che è solo ed esclusivamente la manipolazione che è presente nella mia ipotesi ad ottenere l‟effetto che sto studiando. In altre parole, devo essere certo che sia proprio la causa che ho ipotizzato a provocare quel particolare effetto, e non qualche altra causa. L‟unico modo per escludere che l‟effetto che voglio misurare sia provocato da altri fattori, è creare un‟altra condizione, la “controprova”, dove tutto sia identico a quella principale tranne che per il fattore cruciale (il fattore cruciale in questo esempio sono le parole lunghe). Questa si chiama condizione di controllo e il gruppo che viene assegnato a quest‟ultima si chiama gruppo di controllo. La condizione dove applico il fattore che secondo me è cruciale (le parole lunghe) si chiama condizione sperimentale e il gruppo di soggetti che viene assegnato a questa si chiama gruppo sperimentale. Quali sono i possibili risultati di questo esperimento? L‟unico caso in cui la mia ipotesi sarà confermata è quello in cui c‟è una differenza tra la prestazione del gruppo sperimentale e quella del gruppo di controllo. Gli esperimenti infatti cercano sempre di far emergere differenze tra una condizione e un‟altra, nella direzione dell‟ipotesi sperimentale. In questo 15 caso, per verificare la mia ipotesi, dovrò trovare che le parole lunghe vengono ricordate meno delle brevi: se trovo il contrario (che le parole lunghe sono ricordate meglio di quelle corte), la mia ipotesi non è valida, perché l‟effetto sul ricordo deve essere provocato da qualche altro fattore (per esempio il significato delle parole usate). Quali sono in questo esempio le variabili dipendenti e indipendenti? La variabile indipendente è quella manipolata, cioè la lunghezza delle parole, mentre quella dipendente è quella misurata dalle prestazioni dei soggetti, cioè la quantità di parole ricordate. Possiamo qui notare come le variabili dipendenti e indipendenti giochino due ruoli diversi nella sperimentazione. La variabile indipendente dovrà creare appunto diverse condizioni e sarà quindi organizzata in livelli, nel nostro esperimento, la variabile aveva due livelli: parole lunghe e corte. Ovviamente, con un disegno sperimentale più complesso, con più condizioni, la variabile indipendente avrebbe assunto più livelli, ad esempio parole lunghe (4 sillabe), medie (2 sillabe) e brevi (una sillaba). Sono quindi i livelli della variabile indipendente a determinare quante condizioni sperimentali (e di controllo) saranno presenti nel mio esperimento. A seconda dell‟esperimento, del tipo e del numero di condizioni che dovrò gestire, potrò decidere di dividere i soggetti in gruppi diversi (creare cioè delle condizioni between) oppure di far affrontare le differenti condizioni agli stessi soggetti, in momenti diversi (creare condizioni within)5. Nel nostro esempio quindi, avrei potuto anche assegnare tutti i soggetti ad entrambe le condizioni (facendo memorizzare ad ognuno parole brevi e parole lunghe). In questo caso però, avrei dovuto avere l‟accortezza di variare casualmente l‟ordine in cui i soggetti le affrontavano (in un esperimento bisogna tenere conto di ogni possibile causa!). I soggetti infatti diventano sempre più bravi a svolgere un compito, in questo caso a memorizzare parole: imparano strategie, trucchi, etc. Se tutti devono imparare parole lunghe e corte, e mantengo sempre lo stesso ordine con tutti (ad es. lunghe e poi corte), come farò a sapere se l‟effetto sulla memoria è dovuto alla lunghezza delle parole oppure alla pratica con il compito? Da questo possiamo imparare un‟altra regola della sperimentazione: le variabili che potrebbero disturbare (cioè avere effetti indesiderati sul compito) è necessario controllarle. Esistono essenzialmente due strategie per controllare una variabile, cioè farla variare casualmente oppure mantenerla sempre costante: quale di queste strategie sceglierò dipenderà dal mio esperimento, dalle mie variabili dipendenti e indipendenti e dalle possibili cause di disturbo. 5 Between e Within sono due termini inglesi tradotti rispettivamente come condizioni “tra i soggetti” ed “entro i soggetti”. Dal momento però che la differenza tra “entro” e “tra” è sottile e potrebbe sfuggire, abbiamo scelto di mantenere i termini inglesi, che risultano anche i più usati nella pratica sperimentale. 16 2.2.5 L’analisi dei dati A volte il fine di una ricerca è semplicemente quello di descrivere un determinato fenomeno: in questo caso ci si può avvalere della statistica descrittiva, che ci permette di descrivere grandi quantità di dati in maniera sintetica (con le misure di tendenza centrale, di dispersione, etc.). Abbiamo anche visto però che un esperimento cerca di evidenziare differenze. Ma come possiamo fare per sapere che le differenze che abbiamo trovato sono significative? Per poter decidere la rilevanza dei nostri dati, cioè se quello che osserviamo nel nostro campione è vero per l’intera popolazione, la psicologia si avvale dell‟aiuto della statistica inferenziale. Una trattazione dei metodi inferenziali va al di fuori degli scopi delle presenti dispense, ma sarà utile ripassarne i concetti fondamentali6. La statistica inferenziale serve appunto a determinare con quale probabilità i risultati ottenuti sui nostri soggetti sono dei risultati estendibili all‟intera popolazione. I dati ottenuti possono essere analizzati con differenti tecniche, a seconda del tipo di scala di misurazione delle variabili (nominale, ad intervalli, etc.) e del disegno sperimentale (quante condizioni, quali sono within o between, etc.). Indifferentemente da quale specifica tecnica useremo (ANOVA, χ2, analisi Log-lineare, etc.), avremo alla fine un valore di probabilità: p. La p può assumere valori da 0 a 1 e il modo più intuitivo di interpretare questi valori è il seguente: la p rappresenta la percentuale di volte che si otterrebbero gli stessi risultati ripetendo ancora l‟esperimento su altri soggetti della stessa popolazione. Se ad esempio otteniamo un valore di p pari a 0,07, possiamo interpretarlo come: se ripetiamo questo esperimento 100 volte, 7 di queste otterremo dei risultati differenti da quelli che vediamo ora. Esistono delle convenzioni rispetto a quando un risultato si può considerare significativo: quando la p è inferiore a 0,05 (significatività) oppure quando è inferiore a 0,01 (alta significatività). Per questo, a volte, il valore di p non è scritto per intero, ma ci viene semplicemente detto quando è inferiore a questi due valori convenzionali (p < 0,05 oppure p < 0,01). In termini pratici, questo significa che se ripetessimo l‟esperimento otterremmo lo stesso risultato in più del 95% dei casi (p < 0,05) o in più del 99% dei casi (p < 0,01). Sulla base di queste inferenze statistiche, possiamo trarre conclusioni rispetto alla nostra ipotesi sperimentale di partenza: molto spesso mesi e mesi di lavoro si trovano concentrati nei valori di qualche p, con conseguente gioia o frustrazione dei ricercatori coinvolti. 2.2.6 Il ciclo sperimentale Possiamo riassumere quanto detto finora con il seguente diagramma, che illustra come la sperimentazione sia in realtà un processo circolare. 6 Per una trattazione dell’uso della statistica in psicologia si rimanda a testi introduttivi, come ad es. Areni, Ercolani & Scalisi (1994). 17 1. Formulare 2. Operaziona- ipotesi lizzare (relazioni le variabili tra variabili) 6. Trarre 3. Creare il conclusioni disegno rispetto alle speriment. ipotesi (e le condizioni) 5. Raccogliere 4. Scegliere il e analizzare i campione e dati dividerlo seguendo il disegno Figura 2.1 Il ciclo sperimentale 2.3 Il grande passo: la teoria Come già accennato, gli esperimenti sono il mattone fondamentale del progredire delle scienze empiriche. Più esperimenti possono confermare e definire delle leggi. Diverse leggi possono organizzarsi in modelli, cioè rappresentazioni concettuali (o matematiche) di fenomeni: un modello può integrare differenti leggi in modo da fornire previsioni complesse rispetto ai fenomeni modellizzati. I modelli servono anche ad ipotizzare le cause e i meccanismi “invisibili” di alcuni fenomeni: immaginate di cercare di capire il funzionamento di un‟automobile senza poter guardare nel cofano. Probabilmente guardereste come gli input (i comandi del guidatore, i liquidi che servono al suo funzionamento, etc.) creano differenti effetti, e riuscireste ad evidenziare delle regolarità, delle leggi (ad esempio, se il veicolo è in movimento, quanta più 18 pressione si esercita sul pedale di centro, tanto più istantaneamente il veicolo si fermerà). Via via che accumulate leggi, attraverso i vostri esperimenti, comincerete a farvi delle idee su quello che può esserci dentro il cofano (un motore elettrico, un motore a scoppio, dei piccoli animali, etc.): la vostra scelta cadrà probabilmente su quello che riesce a spiegare meglio l‟incrocio di tutti gli effetti e le leggi riscontrate. Potreste infatti scartare come improbabile l‟ipotesi modellistica dei piccoli animali, dal momento che non si conoscono ancora animali che possano sopravvivere senza cibo e bevendo quasi esclusivamente olio e combustibile. I modelli possono poi espandersi fino a diventare delle teorie, cioè delle rappresentazioni più complesse che forniscono una cornice esplicativa che integra insieme fenomeni, leggi e modelli. Secondo Thomas S. Kuhn (1922-1996), un famoso storico e filosofo della scienza, il sapere scientifico non si accumula in maniera progressiva. Le teorie scientifiche si instaurerebbero in maniera più o meno stabile per un periodo di tempo che lui chiamava scienza normale. Successivamente, quando questo corpus di teorie non riesce a spiegare più in maniera soddisfacente i nuovi dati, si assisterebbe ad un periodo di crisi, seguito da un periodo di rivoluzione, dove differenti quadri teorici si avvicendano, fino a stabilizzarsi in un nuovo periodo di scienza normale. Anche se l‟interpretazione di Kuhn del progredire scientifico è interessante, si applica tuttavia con difficoltà alle teorie psicologiche. La psicologia, infatti, appare un dominio della conoscenza estremamente parcellizzato: molte teorie convivono, spesso offrendo differenti interpretazioni degli stessi fenomeni, spesso a differenti livelli di analisi. 2.4 La presentazione dei piccoli e dei grandi passi alla comunità scientifica Le differenti ricerche psicologiche, i loro risultati e le differenti interpretazioni (con leggi, modelli, teorie) vengono rese pubbliche attraverso la pubblicazione su riviste scientifiche, di taglio più generale (come ad esempio Journal of Experimental Psychology, fondata nel 1916) o più specializzato (come Vision Research, fondata nel 1961). Un altro modo per presentare dei lavori di ricerca alla comunità scientifica consiste nel partecipare a Conferenze (nazionali o internazionali), dove i vari interventi vengono solitamente pubblicati in volumi (o supporti informatici) di Atti. Quando si presentano i propri esperimenti alla comunità scientifica attraverso pubblicazione su rivista o in atti di conferenze, si rispetta generalmente una struttura di esposizione predefinita: 1. Abstract (un riassunto molto breve della ricerca con i maggiori risultati e le conclusioni più rilevanti, utile ad una rapida consultazione); 19 2. Introduzione (un‟esposizione delle ricerche già esistenti e pubblicate sull‟argomento in esame e come il nostro contributo si colloca in questo quadro); 3. Metodo (una descrizione dettagliata degli esperimenti condotti, uno per uno, specificando chi erano i soggetti, i materiali utilizzati, gli apparati, il disegno e la procedura sperimentale); 4. Risultati (un‟esposizione sintetica dei dati raccolti, con tutte le analisi statistiche condotte e i rispettivi livelli di significatività raggiunti); 5. Discussione (una spiegazione di come i risultati ottenuti e il nostro contributo vanno ad arricchire o a rettificare il corpus di ricerca già esistente). Ovviamente, a seconda delle necessità, è possibile uscire al di fuori di questo schema per rispondere alle esigenze di esposizione di ogni singolo lavoro, ma questa struttura viene generalmente rispettata. La pubblicazione su rivista scientifica e la relazione a conferenze è regolata di solito da un sistema di revisione anonima tra pari. Quando spedisco un articolo per la pubblicazione, gli editori della rivista lo inviano per una revisione a (di solito due) studiosi esperti dell‟argomento trattato nel mio lavoro. Questi due revisori comunicheranno all‟editore se il lavoro può essere accettato per la pubblicazione (raggiunge cioè gli standard scientifici della rivista o della conferenza), oppure se è necessario modificarlo. Se sono necessarie delle modifiche, l‟editore mi invierà le correzioni o le integrazioni suggerite dai miei due colleghi in maniera anonima: dopo aver integrato queste correzioni, il lavoro sarà di nuovo spedito all‟editore, da lui ai revisori, e così via, fino a che i revisori non reputeranno il lavoro all‟altezza della pubblicazione. Se pensate che questo sia un procedimento lungo, avete ragione: a volte, prima di pubblicare un lavoro concluso, possono passare degli anni! Vedremo ora quali sono gli approcci che trovano spazio nell‟ambito della Psicologia Cognitiva contemporanea. 3.1 I diversi approcci alla ricerca La psicologia cognitiva, fin dalle sue origini, si è contraddistinta principalmente per il suo approccio sperimentale. Negli anni, tuttavia, altri approcci si sono affiancati alla sperimentazione comportamentale, per estendere i limiti teorici, metodologici e modellistici della pura ricerca in laboratorio. All‟approccio Sperimentale, lungo l‟arco degli ultimi venticinque 20 anni, si affiancano altri approcci: la Neuropsicologia Cognitiva, le Neuroscienze Cognitive7 e la Scienza Cognitiva Computazionale. In questa sezione passeremo in rassegna questi differenti approcci, sottolineandone particolarità, punti di forza e limiti. Si vuole così orientare il lettore attraverso una terminologia spesso opaca, sottolineando l‟importanza che i rapporti interdisciplinari hanno avuto per lo sviluppo della conoscenza dei complessi aspetti del sistema cognitivo. 3.2 La Psicologia Cognitiva Sperimentale L‟approccio sperimentale alla psicologia cognitiva è stato, fin dagli anni ‟50 dello scorso secolo, l‟asse portante della disciplina. Attorno alle scoperte, alle teorie e alle verifiche emerse grazie alla sperimentazione, si sono sviluppati tutti gli altri approcci. Anche grazie all‟”eredità” della psicofisica e del comportamentismo, la sperimentazione cognitiva ha potuto sviluppare metodologie solide per lo studio dei processi cognitivi, e così influenzare anche altri rami della psicologia, come quelli legati allo studio dello sviluppo, dei rapporti sociali e della pratica clinica. Tutta la recente tendenza della psicologia ad adottare una lente più “cognitiva”, si deve proprio all‟efficacia e all‟avanzare della sperimentazione. Non tutti gli esperimenti sono uguali però: alcune distinzioni teoriche ci aiutano a capire limiti e possibilità dei diversi metodi dell‟approccio sperimentale. 3.2.1 Veri Esperimenti, Quasi Esperimenti e Studi Correlazionali Più sopra abbiamo ricordato quali sono gli aspetti più importanti della pratica sperimentale e come, grazie ad una manipolazione e misurazione controllate, è possibile trarre induttivamente delle conclusioni probabilistiche da una serie di osservazioni. Quando lo sperimentatore manipola direttamente una variabile indipendente, ci troviamo di fronte ad un Vero Esperimento. Ad esempio, se desidero misurare l‟effetto dell‟ordine di presentazione di una lista di stimoli sul ricordo, potrò e dovrò manipolare direttamente l‟ordine degli stimoli creando diverse condizioni sperimentali, etc. In altri casi, però, per ragioni pratiche, etiche o economiche, non ci è possibile manipolare direttamente le nostre variabili indipendenti, cioè le supposte cause di ciò che desideriamo studiare. Ad esempio, se voglio misurare l‟effetto del livello di scolarità sulla memoria, potrò scegliere di 7 Il termine “Neuroscienze Cognitive” è un termine problematico, in quanto viene spesso utilizzato con una connotazione allargata che arriva addirittura ad abbracciare alcuni degli altri approcci elencati in precedenza. Tuttavia, in questa sede, utilizzeremo il termine nella sua accezione più circoscritta, come risulterà chiaro nel paragrafo dedicato a quest’approccio. 21 comporre il mio campione con soggetti che possiedono diversi titoli di studio. Ma non potrò manipolare direttamente il livello di scolarità: sono costretto a basarmi su casi che già presentano nell’ambiente naturale e sociale le caratteristiche che mi interessano. Un altro esempio, questa volta legato ad impedimenti di natura etica, può essere legato allo studio di danni cerebrali: se voglio studiare gli effetti di una particolare lesione su di una prestazione cognitiva, dovrò ovviamente condurre i miei studi su pazienti che già presentano lesioni (non potendo procuragliele!). Come è facile comprendere, basare i propri studi su differenze già esistenti, dovute a cause al di fuori della nostra volontà, significa perdere controllo sulle variazioni della variabile indipendente: in altre parole, la controllabilità e replicabilità della ricerca ne vanno a soffrire. In questi casi, si parla di Quasi Esperimenti, proprio per sottolineare la diversa affidabilità dei risultati che vengono così ottenuti. Sebbene dotati di meno potenza, però, anche i Quasi Esperimenti permettono di trarre conclusioni probabilistiche rispetto alle cause dei fenomeni studiati. In un‟ultima categoria, cadono quegli studi dove non solo nessuna delle variabili viene direttamente manipolata dallo sperimentatore, ma dove si desidera esclusivamente vedere se l‟andamento, l‟intensità o la presenza di due o più fenomeni distinti è casuale o si contraddistingue per delle regolarità. Si parla in questo caso di Studi Correlazionali8, cioè studi dove si desidera misurare la correlazione (cioè la relazione di variabilità) tra due o più variabili. Gli Studi Correlazionali si differenziano radicalmente dagli esperimenti in quanto non permettono di trarre nessuna conclusione rispetto ai legami causali dei fenomeni studiati. Il motivo per questa limitazione è presto detto: osservando che due fenomeni variano insieme (ad esempio, quando uno cresce, l‟altro diminuisce oppure cresce con regolarità), non è possibile, se non con una sperimentazione vera e propria, discriminare quale dei due fenomeni è causa dell‟altro (o se hanno il ruolo di causa ed effetto). Facciamo un esempio. Poniamo che si desiderino studiare gli andamenti di due variabili: lo status economico e il livello di scolarizzazione. Nel campione estratto dalla popolazione riscontro quindi una correlazione positiva, cioè che al crescere dello status economico (ad esempio misurato con il reddito annuo), il livello di scolarizzazione sale, e quando il primo scende, anche il secondo mostra valori più bassi. Ma, come vedete, non ci è possibile, da questa misurazione, determinare quale sia la causa e quale l‟effetto. Infatti potrebbe essere il livello economico, magari familiare, ad aver determinato l‟impossibilità di studiare per molti anni, oppure, d‟altro canto, la 8 L’indice di correlazione più diffuso, la r, fu sviluppato da Carl (Karl) Pearson (1857-1936), un allievo del celeberrimo studioso inglese Francis Galton (1822-1911). Pearson, sotto la guida di Galton, sviluppò dei metodi statistici per studiare le regolarità nella variazione congiunta di diversi fenomeni. Sono celebri, in ambito psicologico, le applicazioni allo studio dell’intelligenza della Regressione lineare e dell’indice di correlazione: Galton fu tra i primi a misurare la correlazione positiva tra i diversi voti scolastici e a sviluppare così l’idea generale dell’intelligenza come un’abilità unitaria. Questa idea venne successivamente sviluppata da Spearman (1927) con la sua proposta del fattore g. 22 causa di un reddito più basso potrebbe proprio essere la mancanza di un titolo di studio avanzato. Un‟altra possibilità è che siano le condizioni sociali generali ad aver prodotto entrambe gli effetti che sto osservando: ad esempio, entrambe le variabili potrebbero essere gli effetti di un mercato del lavoro molto statico, che non permette una mobilità sociale dalle classi inferiori a quelle superiori. In breve, con un semplice studio correlazionale, non mi è possibile concludere nulla riguardo agli eventuali rapporti di causa- effetto tra i fenomeni che osservo. 3.2.2 I limiti dell’approccio Sperimentale Pur essendo la grande anima della Psicologia Cognitiva, l‟approccio sperimentale non è scevro da limiti. Elencheremo di seguito alcuni tra i più rilevanti. Come accade spesso, virtù e vizi appaiono proprio nelle stesse caratteristiche. La controllabilità e ripetibilità che donano alla sperimentazione la sua efficacia, sono al contempo la causa di uno dei suoi principali limiti: la carenza di validità ecologica. Per poter studiare dei fenomeni in laboratorio è necessario isolarli, ma proprio per questo isolamento ciò che accade in laboratorio è spesso molto diverso da ciò che accade nella realtà quotidiana. Spesso la complessità della realtà è legata all‟interazione di cause e fattori prossimi e remoti. Fu Neisser (1976) uno dei primi a sottolineare la necessità di una svolta ecologica nella psicologia cognitiva, invitando gli studiosi a concentrarsi su fenomeni e processi più vicini alla vita quotidiana fuori dal laboratorio. Ciò che accade dentro il laboratorio, in poche parole, è lontano per molti aspetti da ciò che ne accade al di fuori (Wachtel, 1973). L‟enfasi degli sperimentalisti ricade quindi troppo spesso sul creare una miriade teorie troppo specifiche su effetti di dubbia rilevanza per la realtà quotidiana, senza una teoria generale che possa fungere da quadro di riferimento per evidenziare le relazioni tra i processi studiati. I tentativi fatti in questa direzione sono stati rari e spesso accolti con diffidenza dalla comunità scientifica. Un altro importante limite dell‟approccio sperimentale riguarda la natura comportamentale degli esperimenti condotti. Le misurazioni negli esperimenti comportamentali, infatti, riguardano solo in maniera indiretta il vero oggetto di studio. I processi cognitivi vengono così inferiti sulla base di effetti comportamentali, quali l‟accuratezza in un compito, i tempi di reazione, etc. Questo può spesso mettere gli studiosi in condizioni di non poter discriminare tra differenti ipotesi: ad esempio, se ritengo che durante un particolare compito entrino in gioco più processi cognitivi, potrei non essere in grado di discriminare se questi processi avvengano tutti contemporaneamente (in parallelo), uno dopo l‟altro (serialmente) oppure in parziale sovrapposizione (a cascata) (Eysenck & Keane, 2005). 23 Infine, lo studio della cognizione in maniera sperimentale ha poi sempre reputato le differenze individuali una sorta di “male necessario”: dal momento però che spesso non tutti affrontiamo nello stesso modo un compito, questa tacita assunzione si rivela spesso un forte limite nello studio dei processi cognitivi. 3.3 La Neuropsicologia Cognitiva Il sistema cognitivo è una proprietà emergente del cervello: molti studiosi sono convinti che per comprendere tale sistema è necessario avvicinarsi a comprendere anche il sostrato neurale da cui origina. La Neuropsicologia Cognitiva cerca di comprendere i processi cognitivi in soggetti sani attraverso lo studio delle prestazioni cognitive di soggetti con danni cerebrali. Spesso, infatti, i sistemi complessi rivelano molto del loro funzionamento quando non funzionano più: apprendiamo quanto sia complesso il motore della nostra macchina proprio quando scopriamo quante cose si possano rompere e necessitare riparazione. L‟origine di questo approccio si riconduce tradizionalmente al medico francese Pierre Paul Broca (1824-1880). Broca operò un esame post-mortem su di un paziente con una grave forma di afemia (un disturbo successivamente ribattezzato afasia da Armand Trousseau nel 1864): il soggetto riusciva, da anni, a pronunciare esclusivamente la parola “tan”, pur riuscendo a comprendere molto di ciò che gli veniva detto. Nella sua analisi del cervello del paziente dopo il suo decesso, Broca scoprì un danno circoscritto in una circonvoluzione nel lobo frontale sinistro. Questa osservazione fu uno dei primi9, decisivi passi verso l‟affermarsi dell‟approccio della localizzazione delle funzioni nel cervello. La Neuropsicologia Cognitiva si concentra principalmente sul pattern dei disturbi presentati dai pazienti con danno cerebrale: tuttavia, a differenza della Neuropsicologia, l‟attenzione viene principalmente posta sui deficit cognitivi e non sulla localizzazione dei danni che li hanno provocati. I pazienti con danno cerebrale possono offrire infatti preziosi suggerimenti sull‟organizzazione funzionale dei processi cognitivi, e sulla loro suddivisione. Ad esempio, Coltheart, Inglis, Cupples, Michie, Bates e Budd (1998) riportano che AC, un paziente con danno cerebrale, rispondeva a caso a domande riguardo caratteristiche visive di alcuni animali (ad es. se avevano zampe o no), mentre mostrava un‟ottima prestazione nel rispondere a domande riguardanti altri aspetti degli stessi animali (riguardo ai loro versi, se erano pericolosi, se vivevano nell‟acqua, etc.). Questa evidenza ha portato gli autori 9 È doveroso puntualizzare che il legame tra danni all’emisfero sinistro e linguaggio, fu evidenziato anni prima (nel 1836 e nel 1863) nelle pubblicazioni di due rispettabili neurologi, Marc (1771-1837) e Gustave Dax (1815-1893). Per questo, la teoria battezzata a nome di Broca dovrebbe essere ribattezzata teoria di Dax-Broca (Cubelli & Montagna, 1994). 24 (Coltheart, 2001) ad evidenziare come la rappresentazione visiva della conoscenza sugli oggetti è distinta e separata dalle conoscenze relative ad altri aspetti degli stessi oggetti. 3.3.1 Principi teorici e metodi di indagine La Neuropsicologia Cognitiva si avvale di alcune assunzioni teoriche, che ne guidano le ricerche e le conclusioni. Il primo fondamentale principio, ispirato all‟opera di Fodor (1983), è quello della modularità funzionale: un “modulo” è un sottosistema per l‟elaborazione delle informazioni che funziona in maniera relativamente separata e/o indipendente dagli altri moduli. In questo senso, la mente sarebbe composta da una serie di questi moduli, rispondenti a stimoli estremamente specifici (ad es. volti, parole scritte, parole pronunciate, etc.). Non è detto che il principio della modularità funzionale sia effettivamente corretto: si è comunque mostrato, negli anni, più stabile rispetto al principio della modularità anatomica, che assume che ogni modulo funzionale sia situato in una specifica ed identificabile area cerebrale. Un altro importante principio che guida la ricerca in questo settore è l‟assunzione dell‟uniformità dell’architettura funzionale (Coltheart, 2001). In altre parole, si assume che l‟architettura funzionale dei diversi moduli mentali sia la stessa in tutti i soggetti: è facile comprendere come, senza questo assunto, non sarebbe possibile estendere le scoperte sull‟organizzazione funzionale di alcuni soggetti con lesioni cerebrali a tutti i soggetti sani. Questo principio viene condiviso dall‟intera Psicologia Cognitiva. Un ultimo semplice (ma essenziale) principio riguarda l‟effetto sottrattivo del danno cerebrale. Si assume infatti che un danno cerebrale possa solamente danneggiare o rendere inutilizzabili alcuni processi cognitivi, ma mai aggiungere nulla al sistema. Se così fosse, cioè se i pazienti potessero sviluppare nuovi, personali processi cognitivi per compensare un danno cerebrale, le conclusioni legate alla prestazione di tali pazienti sarebbero esclusivamente applicabili ai singoli casi. La metodologia principale della Neuropsicologia Cognitiva è lo Studio di Casi Singoli, cioè l‟analisi puntuale ed esaustiva delle prestazioni di singoli soggetti. Un approccio a campione, come nelle strategie della Psicologia Cognitiva Sperimentale, sarebbe infatti molto problematico sui soggetti con danni cerebrali, dal momento che molto spesso i pazienti non presentano le stesse costellazioni di disturbi. Per ovviare a questo problema, spesso i neuropsicologi cognitivi presentano risultati relativi all‟analisi di più casi singoli messi assieme: in questo modo ogni paziente può essere analizzato singolarmente e poi messo a paragone con gli altri, senza la necessità di raggrupparli ed assumere che abbiano gli stessi deficit cognitivi. Una delle strategie chiave per analizzare i processi cognitivi nei singoli casi è cercare evidenze di dissociazione, una situazione dove il paziente è in 25 grado di svolgere senza problemi un compito A, ma mostra difficoltà in un compito B10. Potrebbe essere questa l‟evidenza per dimostrare che il compito A si basa su moduli/processi differenti del compito B e che quindi il soggetto mostra un danno ai meccanismi necessari ad affrontare B, ma non A? In realtà no, ma siamo comunque sulla buona strada. Non possiamo trarre questa conclusione, perché potrebbe darsi semplicemente il caso che il compito B sia più difficile (e quindi richieda più risorse cognitive) del compito A. Per poter risolvere il problema, gli studiosi cercano quindi evidenze di doppie dissociazioni tra due compiti, cioè di evidenze in cui ci sono alcuni soggetti che riescono a portare a termine A e non B, ed altri che riescono a portare a termine B e non A. In questo modo, si può assumere che i due compiti si basano su processi funzionalmente distinti, riconducibili quindi a moduli differenti. Questo approccio è quello attualmente più utilizzato per trarre conclusioni in Neuropsicologia Cognitiva, anche se alcuni autori ne hanno sottolineato alcune falle (vedi ad es. Baddeley, 2003). 3.3.2 I limiti dell’approccio Neuropsicologico I limiti principali legate all‟approccio che studia i deficit cognitivi legati a danni cerebrali riguarda proprio la “purezza” e specificità di tali deficit. I pazienti, infatti, sviluppano strategie personali per aggirare le difficoltà legate ai loro deficit, e tali strategie possono distorcere il danno, rendendolo meno chiaro e meno rilevabile. Anche prima del danno, è possibile che i soggetti non avessero tutti le stesse identiche strategie cognitive: lo stesso danno potrebbe avere quindi effetti diversi su ognuno. Un altro limite è che il paziente “ideale”, con un singolo modulo funzionale danneggiato, non esiste: ogni soggetto mostra molti deficit legati ai suoi danni cerebrali e spesso si rilevano anche grandi differenze nei sintomi di pazienti con grossomodo le stesse lesioni. La variabilità individuale e la natura dei danni cerebrali, quindi, appaiono come le principali spine nel fianco di questo prezioso approccio allo studio della cognizione. 3.4 Le Neuroscienze Cognitive Grazie agli sviluppi tecnologici, l‟interesse per il sostrato neurale dei processi cognitivi si è lentamente sviluppato negli ultimi anni, fino ad arrivare ad essere una delle principali direttrici di ricerca attuali. Le Neuroscienze 10 Le dissociazioni si accompagnano alla descrizione delle associazioni, i casi in cui, alla cattiva prestazione in un compito A, si associa la cattiva prestazione in un compito B. La descrizione di associazioni è stata molto rilevante da un punto di vista storico: hanno infatti portato alla descrizione di sindromi, costellazioni tipiche di sintomi e deficit cognitivi. Tipicamente, si assumeva che le difficoltà nello svolgimento di più compiti nelle sindromi fossero una prova del fatto che quei compiti si basavano sugli stessi processi cognitivi. In realtà, dal momento che il danno cerebrale può facilmente estendersi ad includere larghe porzioni di corteccia, le associazioni ci dicono spesso quali moduli funzionali potrebbero trovarsi in aree cerebrali anatomicamente adiacenti. 26 Cognitive studiano dove e quando determinati processi cognitivi accadono direttamente nel cervello: per far questo si avvalgono di molte tecniche differenti, basate su differenti criteri di indagine dell‟attività neurale. La corteccia cerebrale, sede delle elaborazioni cognitive, è divisa in quattro lobi (dagli anteriori ai posteriori): frontale, temporale, parietale e occipitale. I lobi sono divisi da solchi o scissure, che ne delimitano i confini. Il neurologo tedesco Korbinian Brodmann (1868-1918) divise la corteccia in diverse aree citoarchitettoniche (cioè aree contraddistinte da una diversa struttura cellulare dei tessuti che le compongono), numerandole da 1 a 52. Molte delle aree determinate da Brodmann si sono successivamente rivelate come funzionalmente distinte: la sua suddivisione viene utilizzata ancora oggi. Nel parlare del cervello, spesso vengono usati quattro termini che indicano le posizioni relative delle aree: dorsale (superiore o verso l‟alto), ventrale (inferiore o verso il basso), laterale (verso i lati) e mediale (verso il centro del cervello). 3.4.1 Alcune tecniche di indagine dell’attività cerebrale Le diverse tecniche usate dalle Neuroscienze Cognitive registrano diverse tracce dell‟attività dei neuroni corticali e sottocorticali: - l‟attività elettrica (registrata da: Registrazioni da Singole Cellule, ElettroEncefaloGramma [EEG], Potenziali Evento-Correlati [ERP]), o i campi magnetici generati da questa attività (MagnetoElettroencefaloGrafia [MEG]); - la diversa affluenza del sangue (emodinamica) all‟interno del cervello, traccia di una maggiore attività neurale in specifiche aree (registrata da: Tomografia ad Emissione di Positroni [PET], Risonanza Magnetica Funzionale [fMRI]). Queste tecniche presentano diversi vantaggi e svantaggi, principalmente riconducibili alla loro risoluzione temporale e spaziale. Per risoluzione temporale, si intende l‟accuratezza con la quale una determinata tecnica ci può dire quando sta avvenendo una determinata attività neurale; per risoluzione spaziale, si intende la precisione con cui si può individuare il dove si verifica una certa attività. Ad esempio, l‟EEG ci comunica con altissima precisione il momento in cui si presenta un‟attività cerebrale (risoluzione temporale fino al millisecondo), ma, a causa delle caratteristiche del segnale elettrico, della distorsione e dell‟isolamento dovuti ai tessuti della volta cranica, la sua indicazione di quali aree sono coinvolte (la sua risoluzione spaziale) è estremamente poco precisa. Inoltre, la sua rilevazione, ottenuta grazie agli elettrodi appoggiati sulla cute, è limitata alle aree cerebrali più vicine al cranio. Al contrario, l‟fMRI, una tecnica recentemente molto usata basata 27 sulla rilevazione dei diversi campi magnetici creati dal sangue ossigenato, riesce a dirci con più precisione dove è concentrata l‟attività neurale (arrivando al millimetro cubo), ma le sue rilevazioni necessitano di molto tempo per essere registrate (principalmente a causa dei tempi dell‟emodinamica: tra 1 e 4 secondi). Inoltre, la misurazione dei flussi sanguigni ossigenati è soltanto un indizio indiretto dell‟attività neurale e il sangue è sempre presente nel cervello: la sensibilità della tecnica è spesso legata alle soglie utilizzate per determinare quale area è effettivamente “attiva” e quale non lo è. A volte, alcune tecniche vengono utilizzate congiuntamente per supplire ai limiti di ognuna, ma alcuni limiti rimangono strettamente legati all‟approccio in questione. Una speciale menzione è meritata da una nuova tecnica recentemente utilizzata per delle pratiche sperimentali innovative. La Stimolazione Magnetica Transcranica (TMS) permette, attraverso una sequenza di impulsi magnetici somministrati dall‟esterno della calotta cranica, di mettere temporaneamente “fuori uso” una piccola area di corteccia cerebrale. In questo modo, è possibile studiare gli effetti di tale stimolazione su diversi compiti sperimentali, esplorando quindi i ruoli che le diverse aree corticali hanno nello svolgimento di diversi processi cognitivi. Questo è solo una delle molteplici applicazioni che si basano sulla TMS: questo esempio dovrebbe dare un„idea del potenziale di questa nuova tecnica. 3.4.2 I limiti dell’approccio Neuroscientifico I dati degli esperimenti di “immagini cerebrali” vengono spesso ottenuti senza una valida base teorica: questo, secondo alcuni studiosi, rischia di far regredire l‟attuale conoscenza del cervello ad una sorta di “nuova frenologia”. La potenza delle tecniche sviluppate non dovrebbe mai far dimenticare che è il cervello dello sperimentatore che rimane lo strumento più prezioso per la ricerca (Tulving, 1998). Un altro limite notevole è il possibile grado di dipendenza dei processi cognitivi dalle dinamiche cerebrali: non è detto che i processi della mente siano necessariamente ed interamente spiegabili da ciò che accade nel cervello (Coltheart, 2004). La mente, come accennato, è infatti una proprietà emergente del cervello e, in quanto tale, si sviluppa da esso con regole proprie. Questo vuol dire che, nell‟opinione di molti psicologi cognitivi, il risultato degli esperimenti di neuroimmagine funzionale non è vincolante o necessario ai fini della teorizzazione cognitiva. Altri autori però sottolineano come, negli ultimi anni, le sperimentazioni con tali tecniche abbiano offerto la possibilità di gettar luce su alcuni aspetti chiave dei maggiori sottosistemi cognitivi e delle relazioni tra essi. 28 3.5 La Scienza Cognitiva Computazionale Con l‟avvento e la diffusione degli elaboratori elettronici, la psicologia cognitiva si è avvalsa della possibilità di simulare i processi studiati sui computer, in modo da poter controllare la validità dei costrutti derivati dagli altri approcci descritti più sopra. La creazione di modelli computazionali si distingue dal campo dell‟intelligenza artificiale, in quanto mentre nei primi si mira a creare dei programmi per computer che mimino i processi cognitivi dell‟uomo, nella seconda l‟obiettivo consiste nel creare dei programmi che mostrino comportamenti intelligenti, ma con strategie non necessariamente paragonabili a quelle umane. Un modello computazionale valido ci permette quindi di verificare la validità di una teoria e di prevedere i comportamenti in situazioni nuove. Inoltre, la possibilità di implementare un modello su di un computer è un notevole stimolo a far sì di creare teorie sufficientemente specifiche e libere da punti vaghi. I modelli creati dagli scienziati cognitivi sono essenzialmente di due tipi: modelli a diagramma di flusso (flowchart, anche chiamati modelli a “scatole e frecce”, basati sulla descrizione dei flussi di informazione e regole) e modelli connessionistici (le cosiddette reti neurali). Un esempio di un diagramma di flusso si può osservare nella figura qui sotto. Questi modelli sono basati su di una schematizzazione dei flussi di informazioni, delle operazioni possibili e delle regole di gestione di tali flussi. Ad esempio, nel diagramma della figura è evidenziata (per amor di semplicità, molto grossolana) la sequenza di operazioni (cioè un algoritmo) necessaria a decidere la scelta di un vestito da acquistare. Nella figura osserviamo due tipi di “scatole”: una che determina una semplice operazione (rettangolo) e una che determina una decisione INIZIO Scegliere il prossimo vestito No No Osservare il Ho soldi a Il vestito mi Acquistare il prezzo sul sufficienza piace? vestito cartellino ? Sì Sì FINE Figura 3.1 Un semplice algoritmo 29 (rombo). Come risulterà evidente, tali modelli possono incappare nel rischio di essere poco specifici e imprecisi rispetto ad una serie di fattori rilevanti (come il tempo di esecuzione delle operazioni, quali informazioni scorrono esattamente nelle scatole e lungo le frecce, etc.). Il diagramma qui presentato non specifica infatti come vengono scelti i vestiti nella prima operazione, con quali criteri si decide se il vestito è di nostro gradimento, etc. Un differente tipo di modelli viene chiamato reti neurali e si basa su differenti criteri rispetto ai modelli dove ogni elemento rappresenta una diversa operazione. Le reti neurali vengono create su ispirazione dell‟organizzazione dei neuroni presenti nella corteccia cerebrale e sono composte da unità interconnesse tra di loro che ricevono e valutano diversi input, stimolando eventualmente altre unità. Le diverse informazioni sono quindi incamerate nelle caratteristiche delle connessioni tra le unità: due importanti differenze dagli altri modelli è che (1) in una rete neurale l‟elaborazione dell‟informazione avviene in parallelo (cioè non in sequenza, ma tutta assieme) e che (2) l‟informazione stessa viene rappresentata in maniera distribuita (in altre parole viene codificata in maniera diffusa in tutta la rete; Rumelhart, McClelland & PDP Research Group, 1986). Le reti neurali presentano molte caratteristiche vicine all‟elaborazione biologica dell‟informazione: tra le altre, la resistenza ai danneggiamenti simulati, la possibilità di apprendere con o senza supervisione, e di generalizzare regole apprese a nuovi stimoli. 3.5.1 I limiti dell’approccio Computazionale Spesso i modelli computazionali vengono sviluppati isolatamente, al contrario dei lavori sperimentali che mostrano uno sviluppo cumulativo (Gazzaniga, Ivry, & Mangun, 1998). Questo porta gli sviluppatori di tali modelli a non prendere in considerazioni soluzioni modellistiche alternative ed, eventualmente, a mettere più modelli a confronto attraverso una sperimentazione ad hoc. Ancora più fondamentale però appare la carenza degli approcci modellistici nell‟inquadrare gli scopi dei fenomeni cognitivi. Nell‟uomo, infatti, la cognizione viene guidata o profondamente influenzata da numerosi fattori di tipo emozionale e motivazionale che spesso i modelli non prendono in considerazione. Pensate ad esempio quanti fattori influiscono sulla scelta di acquisto di un vestito: dall‟importanza dell‟occasione per cui lo si compra a tutto l‟enorme peso del nostro gusto estetico che può essere decisivo per scegliere un vestito invece che un altro (persino che non possiamo permetterci!). In questa sezione abbiamo passato in rassegna i vari approcci che costituiscono gli strumenti principali di indagine sui processi cognitivi. 30 Facendo leva sugli aspetti positivi e cercando di colmare i limiti di ognuno di questi, i diversi metodi vengono sempre più integrati in maniera interdisciplinare, cercando di studiare contemporaneamente i diversi fenomeni sotto tutti questi diversi punti di vista. 31

Use Quizgecko on...
Browser
Browser