Appunti Psicologia Stampa PDF
Document Details
Uploaded by Deleted User
Sara Santona
Tags
Summary
These notes provide a historical overview of psychology, tracing its development from ancient philosophies to modern scientific approaches. They discuss key figures and concepts, including the work of Aristotle, Plato, Hippocrates, and Descartes, and the emergence of the scientific method in psychology. The notes highlight the relationship between physical stimuli and mental sensations, and the localization of mental functions in the brain.
Full Transcript
1. LA PSICOLOGIA SCIENTIFICA: SVILUPPO STORICO 1.1 Introduzione È possibile definire la psicologia come lo studio scientifico del comportamento degli individui e dei loro processi mentali. L’aspetto scientifico della psicologia richiede che le conclusioni a cui essa approda siano basate su prove f...
1. LA PSICOLOGIA SCIENTIFICA: SVILUPPO STORICO 1.1 Introduzione È possibile definire la psicologia come lo studio scientifico del comportamento degli individui e dei loro processi mentali. L’aspetto scientifico della psicologia richiede che le conclusioni a cui essa approda siano basate su prove fornite in raccordo con i principi del metodo scientifico, il quale allude ad una serie di procedure per la raccolta e l’interpretazione dei dati, che permette di limitare le fonti d’errore e trarre conclusioni verificabili; il metodo scientifico ricorre quindi ad informazioni ottenute in maniera oggettiva, in modo tale da formulare conclusioni a partire da evidenze basate sui fatti. Il comportamento è l’insieme delle azioni attraverso cui gli organismi rispondono agli stimoli e interagiscono con il loro ambiente, mentre i processi mentali corrispondono a meccanismi di funzionamento della mente. Risulta essere pressoché doveroso porre una distinzione tra la disciplina psicologica e quella filosofica (che sovente vengono considerate come simili tra loro): seppure la psicologia fonda le proprie origini dalla filosofia, è una disciplina empirica che si avvale di dati confutabili o certificabili in quanto scientifica; la filosofia, d’altra parte, ricorre ad un approccio speculativo-riflessivo applicato a dilemmi metafisici e non inferibili con dimostrazioni empiriche, di conseguenza si configura come disciplina non scientifica (astratta). 1.2 Le basi della psicologia: dagli antichi filosofi al cristianesimo La psicologia scientifica è nata ufficialmente in Europa nella seconda metà del 1800 e si è successivamente diffusa negli USA e in vaste aree del resto del mondo. Essa fonda le sue radici nel pensiero classico dell’Occidente le quali, a loro volta, sono riconducibili alle prime domande che l’uomo pose su se stesso e sulla propria condizione esistenziale. Nel corso della storia, sorgono 2 principali dilemmi per quanto riguarda la psicologia: 1. La disciplina psicologica, prima del 1879, era stata interamente studiata su basi non empiriche (in quanto indagata solamente su un piano teorico e non direttamente osservabile/tangibile), seppur attualmente la psicologia sia riconosciuta a tutti gli effetti come una pratica che necessita di fenomeni per poter essere indagata; 2. Spaccato tra pensiero greco e cristianesimo (in epoca medievale). In Occidente, filosofi, uomini di cultura e di scienza hanno gettato le basi per tematiche affini alla psicologia. Tra i filosofi dell’antica Grecia, la psiche ha rappresentato una nozione rilevante alla quale hanno fatto riferimento autori come Aristotele e Platone. Quest’ultimo ha teorizzato una netta separazione tra psiche e soma (anima e corpo), la prima da intendersi come principio di vita, la seconda come materia inanimata, dando così inizio ad una dicotomia. Tale concetto verrà poi ripreso dallo stesso Platone nella teoria delle idee. Il dualismo platonico non fu accettato da Aristotele, il quale ritiene che l’anima sia inscindibile dal corpo e che la sua essenza consista in quelle capacità che consentono all’organismo di sopravvivere; psyche è per Aristotele il principio alla base di tutte le attività, in quanto atto primario. In secondo luogo, Aristotele contribuì ad introdurre le prime indagini sulla percezione e sulla memoria. Un altro studioso greco, Ippocrate, ha contribuito allo sviluppo di tematiche psicologiche in epoca classica: egli fu infatti il primo ad ipotizzare che il cervello corrispondesse alla base biologica della mente; dapprima, infatti, si riteneva che la sede delle funzioni legate alla psiche fossero le viscere (una regione somatica ritenuta più calda rispetto alla testa, quindi con una maggiore concentrazione di attività intense legate ai processi mentali), mentre il cervello serviva unicamente per raffreddare il sangue che ribolliva in prossimità dei centri dell’attività mentale (data l’ampia rete di vasi sanguigni che vascolarizzano il tessuto nervoso e la posizione periferica della testa rispetto al tronco). 1 In epoca medievale il dualismo anima-corpo tende ad acuirsi sempre di più, tanto da ritenere che l’uomo sia al di sopra della natura e quindi maggiormente vicino a Dio rispetto a qualsiasi altro essere vivente (la psicologia, considerata come “studio dell’anima” al tempo, era totalmente subordinata alla teologia). A tal proposito, l’uomo veniva unicamente interfacciato con la sola componente immateriale dell’anima e non era possibile studiare l’essere umano con gli stessi strumenti scientifici usati per compiere indagini su altri esseri viventi. 1.3 Il Rinascimento (naturalizzazione parziale) Col Rinascimento, la netta separazione tra anima e corpo viene riproposta da Cartesio, il quale ha introdotto una dicotomia tra res cogitans e res extensa, dove: ・ res cogitans → mondo immateriale del pensiero, mente, anima- propria dell’essere umano; è possibile analizzarla attraverso i contenuti di coscienza, quindi mediante l’introspezione; ・ res extensa → sfera della materialità e del corpo, concepito come una macchina; il corpo è comune sia all’uomo che agli altri esseri viventi. All’interno della res extensa è contenuto il soggetto pensante, cioè la res cogitans. Cartesio ricolloca così una dimensione fisiologica a livello della natura e degli animali, affiancata da una visione meccanicistica del corpo, il quale è di fatto morfologicamente analogo a quello degli altri esseri viventi: è così possibile studiare l’uomo con strumenti scientifici; inoltre si crea la sponda filosofica necessaria per avviare gli studi sull’anatomia umana con strumenti analoghi a quelli usati per l’indagine dell’anatomia animale (si pongono le fondamenta per lo studio dell’anatomia e fisiologia del cervello). 1.4 L’Illuminismo: il dilemma kantiano Kant afferma che, seguendo la riflessione condotta da Cartesio, la mente umana studia se stessa, e perciò il processo di introspezione è possibile solo su se stessi: non c’è quindi una separazione tra soggetto e oggetto di studio, nè tantomeno si può avere un atto introspettivo sugli altri. La mente, quindi, non può essere studiata in modo oggettivo. Kant comprende quindi che c’è bisogno dell'osservazione empirica di un fenomeno per poterlo determinare oggettivamente. 1.5 Indagini pionieristiche sul sistema nervoso Con le prime indagini pionieristiche in ambito scientifico, è emerso che il sistema nervoso è a tutti gli effetti la base dei processi mentali, fornisce rappresentazioni sul mondo e comanda ogni distretto somatico. Il SN è caratterizzato da: ・ una fitta rete neuronale; ・ fibre nervose (assoni di neuroni) che consentono la trasmissione degli stimoli dalla periferia somatica al SNC (fungono da vere e proprie interfacce tra realtà esterna e mondo psichico); ciascun nervo non trasferisce lo stimolo in sé, ma veicola selettivamente particolari informazioni in modo tale da influenzare le esperienze sensoriali; ・ processo di trasduzione (catena psicofisica) → la ricezione degli stimoli avviene grazie a organi-recettori, i quali reagiscono elettrochimicamente a particolari forme di energia per la quale sono selettivi; lo stimolo viene poi trasmesso dai nervi tramite un impulso nervoso fino al SNC e il risultato dell’elaborazione cerebrale è una rappresentazione della realtà, fortemente influenzata dagli stimoli provenienti dall’ambiente (si tratta quindi di un processo tale per cui si converte una particolare forma di energia fisica che uno stimolo possiede in prima istanza in un formato di energia generalmente utilizzata dal SNC, quale energia elettrica). 2 → fisica-fisiologia-mente. A partire da queste scoperte, Helmholtz indagò sulla corrispondenza tra le reazioni nervose e i vissuti psichici; secondo lo scienziato, la sola catena psicofisica non è bastevole per spiegare l’esperienza percettiva: bisogna studiare i processi mentali e le corrispondenze fisiologiche nervose considerando anche i res cogitans cartesiani e le cosiddette inferenze inconsce. 1.6 La Frenologia di Gall (teorie di localizzazione) Gall postulò 4 ipotesi relative al funzionamento e alle proprietà del SN, quali: 1. facoltà mentali indipendenti → i meccanismi mentali impiegati a svolgere una determinata attività vengono impiegati unicamente per la stessa: tali operazioni sono altamente specifiche; 2. sede cerebrale specifica → aree del cervello differenti svolgono differenti funzioni; 3. aree cerebrali più sviluppate → buona dotazione innata o esercizio; mediante la comparazione delle varie aree cerebrali, è possibile individuarne alcune più estese, altre meno: in base alle dimensioni delle regioni corticali si inferiscono i talenti e le propensioni di un individuo, così come le sue carenze (le aree cerebrali possono accrescere con la pratica e l’esercizio, a partire da delle predisposizioni innate); 4. deformazione della scatola cranica → in base alla forma della scatola cranica è possibile intuire le propensioni e le carenze di un individuo; a partire da queste informazioni, si costruiscono delle mappe mentali. Solo le ipotesi 1 e 2 risulterebbero essere corrette, mentre le ipotesi 3 e 4 sono state successivamente confutate. 1.7 La localizzazione: nascita della neuropsicologia Nel 1861 Paul Broca definì l’area di produzione del linguaggio. Facendo esperienza diretta con un paziente che aveva subito un trauma cerebrale, Broca notò che il paziente stesso presentava come deficienza l’incapacità di produrre linguaggio (afasia non fluente), ma d’altra parte era in grado di comprenderlo (ciò viene dimostrato somministrando al paziente una batteria di test cognitivi). Post mortem, venne analizzato il cervello del paziente defunto e si trovò, nell’autopsia, un’area di neuroni morta, presumibilmente coinvolta nella produzione del linguaggio (area di Broca, emisfero sinistro). Successivamente, nel 1874, Carl Wernicke definì l’area per la comprensione del linguaggio. Analogamente a Broca, anche Wernicke lavorò su pazienti neuropsicologici che presentavano in questo caso afasie fluenti (capacità di produrre linguaggio, ma non di comprenderlo). Post mortem venne analizzato il cervello di questi pazienti e si individuò l’area di interesse (area di Wernicke, emisfero sinistro). 3 Grazie a queste indagini pionieristiche in ambito neuropsicologico (relativo quindi al funzionamento normale o patologico di determinati processi cognitivi in presenza di lesioni cerebrali) è stato possibile fornire un contributo a favore degli studi sulla specializzazione emisferica: ciascun emisfero cerebrale, infatti, risulterebbe essere specializzato per particolari tipologie di informazioni: per tutti i destrimani e per il 60% dei mancini si ha l’emisfero sinistro selettivo per funzioni linguistiche e attività logico-matematiche, mentre l’emisfero destro è selettivo per funzioni di tipo visuo-spaziali, grafiche e paralinguistiche. Sara Santona | Introduzione alla psicologia | A.A. 23/24 Per il restante 40% di individui mancini si ha un’ulteriore suddivisione: ・ 20% invertito; ・ 20% ambidestro. 1.8 Relazioni psicofisiche Si ricerca come le energie veicolate dalla realtà possano venir parcellizzate dai recettori sensoriali dell’uomo, quindi come la materialità (fisica) viene parcellizzata ed elaborata da una componente immateriale (psicologia). Tra il 1834 e il 1860 sono state postulate una serie di relazioni psicofisiche volte ad indagare sulla relazione esistente tra l’intensità di uno stimolo fisico esterno e la sensazione evocata mentalmente: tale rapporto è direttamente proporzionale, anche se non persiste una relazione lineare (quindi ad aumenti costanti di una variabile, non si hanno aumenti costanti di una seconda variabile); è così possibile associare una variabile fisica con una mentale, in maniera tanto specifica da quantificarla con un’equazione matematica, rappresentabile graficamente con una curva logaritmica. 1.9 L’Evoluzionismo (naturalizzazione totale) Darwin pubblicò nel 1859 “L’Origine delle Specie”, la cui teoria afferma che tutte le specie viventi discendono da un antenato comune. L’uomo, quindi, non è altro che il risultato di un processo di selezione naturale, analogamente alle altre specie animali. Tali scoperte determinarono un forte impatto in tutto il mondo scientifico: dopo secoli di veti, era finalmente possibile studiare l’uomo con strumenti scientifici. Darwin delineò 3 principi all’interno della propria teoria evoluzionista: 1. non tutti gli individui di una popolazione sono uguali: presenza di varianti; 2. alcuni individui con determinate varianti sopravvivono meglio e si riproducono con ritmi più elevati; 3. i tratti associati a questo vantaggio possono passare in qualche modo dai genitori ai figli. È l’ambiente che seleziona delle variabili spontanee. Considerando il versante psicologico, si può dire che anche le funzioni mentali si evolvono per selezione naturale: si apre l’opportunità di poter indagare anche sulla prospettiva cognitiva degli animali, data la continuità tra le caratteristiche mentali umane e dei primati. Nasce la psicologia animale, la quale è correlata ad una evoluzione filogenetica. 1.10 Wundt e l’introspezione Nel 1879 Wilhelm Wundt diede inizio, nel suo laboratorio a Lipsia, a un programma di ricerche di psicologia. La psicologia sperimentale praticata da Wundt applicava i metodi della fisiologia ai processi e ai contenuti della coscienza umana: si ha quindi una vera e propria analisi dei contenuti di coscienza, che riduce l’esperienza ai suoi contenuti elementari, sommata a regole che descrivono come contenuti più semplici possano combinarsi tra loro per generare un’elaborazione d’uscita, alla base del percetto. Wundt faceva ricorso a protocolli derivati da resoconti dell’esperienza diretta dei soggetti. L’oggetto di studio della psicologia wundtiana corrispondeva alla comprensione di come si possa arrivare a percepire la realtà esterna in maniera diretta, o immediata; il metodo elettivo per rilevarla era costituito dall’introspezione (ricorrere all’atto introspettivo per comprendere e studiare i percetti). Secondo Wundt, l’introspezione come metodo scientifico richiedeva: ・ il controllo accurato dello stimolo in grado di produrre l’evento mentale, oggetto di osservazione; 4 ・ il soggetto doveva essere in grado di essere in una condizione di “sforzo attentivo”; ・ doveva essere possibile ripetere diverse volte la medesima osservazione; ・ la condizione sperimentale doveva prendere in considerazione variazioni in termini di intensità e di qualità della stimolazione. La qualità dei risultati del metodo introspettivo dipendeva dall’abilità e dall’esperienza dell’osservatore. Il controllo sperimentale era ottenuto non solo attraverso il rispetto delle linee guida per condurre un esperimento, ma anche facendo ricorso a osservatori che consentissero di raccogliere dati attendibili, grazie alle loro risorse attentive e alla loro rapidità in fase di osservazione e di stesura del resoconto. Secondo Wundt, il metodo dell’auto-osservazione sperimentale era in grado di rilevare l’esistenza di processi mentali come l’appercezione, la volontà e le emozioni. Tuttavia era convinto che il metodo sperimentale non fosse in grado di studiare i processi mentali di ordine superiore, i quali potevano essere studiati esclusivamente dall’osservazione naturalistica e dalla storia (Wundt non si è ancora liberato del dilemma kantiano). 1.11 Donders: i tempi di reazione Franciscus C. Donders propose un approccio fondato sui tempi di reazione, coi quali si richiede di mandare una risposta in esecuzione a seguito della comparsa di uno stimolo nel minor tempo possibile, cercando di minimizzare l’errore. I tempi di reazione ricorrono, a tal proposito, al metodo sottrattivo, che rileva il tempo che intercorre tra la presentazione della stimolazione sensoriale (input) e la prima reazione osservabile da parte dell’individuo (output). Nei tempi di reazione si individuano 2 fasi principali: 1. fasi periferiche → sono suddivise in fasi afferenti (ricezione dell’input) ed efferenti (esecuzione della risposta selezionata); fanno riferimento ai tempi fisiologici di trasporto dell’informazione, che avviene tramite le fibre nervose; 2. fasi centrali → processi di elaborazione dell’informazione e selezione della risposta da emettere in output. Per poter monitorare la complessità dei processi mentali ed effettuare una misurazione, sono necessarie 3 tipologie differenti di tempi di reazione, a seconda del compito: 1. TR semplice → uno stimolo, una risposta; 2. TR scelta → 2 stimoli, 2 risposte; implica una scelta tra 2 risposte possibili a seconda dello stimolo (maggiore latenza nell'emissione della risposta); 3. TR go/no go → 2 stimoli, una risposta; è un tempo di reazione intermedio. Tra la comparsa dello stimolo e la risposta si ha: ・ un intervallo di tempo di trasduzione del segnale in un impulso nervoso tramite una reazione elettrochimica (fase periferica afferente); ・ l’impulso che scorre da nervo a nervo, giungendo infine presso una determinata area cerebrale che verrà stimolata (detenzione dello stimolo e fase periferica afferente); ・ l’elaborazione delle informazioni ricevute dagli impulsi di input (discriminazione dello stimolo); ・ sulla base delle istruzioni, la programmazione di una risposta motoria (selezione della risposta) da parte del soggetto; ・ l’esecuzione della risposta (fase periferica efferente). 5 Si sviluppa da qui la planimetria della cronometria mentale, dovuta alle fasi centrali e al loro tempo di impiego (dove fasi centrali= discriminazione degli stimoli+ elaborazione delle risposte+selezione di una risposta). Infatti, i tempi periferici rimangono costanti, mentre si hanno tempi di elaborazione centrale differenti. ・ TR scelta-TR go/no go= tempo impiegato per selezionare la risposta; ・ TR go/no go-TR semplice= tempo impiegato per discriminare gli stimoli. Nel tempo di reazione di scelta, la maggiore latenza è causata da un maggiore tempo di elaborazione centrale dell’informazione (discriminazione dello stimolo, selezione della risposta). Nel tempo di reazione go/no go è possibile quantificare in maniera precisa quanto nella differenza tra TR di scelta e TR semplice sia da attribuirsi alla discriminazione dello stimolo e quanto alla selezione della risposta. Si può dire quindi che i tempi di reazione di Donders hanno permesso di associare una variabile fisica (il tempo) a una variabile mentale non direttamente osservabile (si quantifica il consumo temporale di eventi mentali). 1.12 Lo strutturalismo Spesso si attribuisce erroneamente la paternità dello strutturalismo alla psicologia di Wundt. In realtà, il termine ‘strutturalismo’ fu coniato per la prima volta da Edward B. Titchener. Secondo quest’ultimo, il primo passo per comprendere la mente consisteva nello scoprirne la struttura, scomponendola nei suoi elementi primari. Era necessario, quindi, evidenziare come si combinano tali elementi. Infine occorreva comprendere perché si configurano determinate combinazioni. Per Titchener, tali configurazioni potevano essere spiegate facendo riferimento ai processi fisiologici soggiacenti. L’esperienza cosciente è costituita da percezioni, idee ed emozioni, a cui corrispondono 3 componenti fondamentali: sensazioni, immagini e stati affettivi. Si può dire quindi che sensazioni, immagini e stati affettivi sarebbero gli elementi semplici, sulla base dei quali si strutturano le percezioni, le idee e le emozioni. In particolare, Titchener focalizzò l'attenzione sulle sensazioni; alle 2 caratteristiche essenziali (qualità e intensità) identificate da Wundt per definire le sensazioni, Titchener ne aggiunse altre 2: durata e chiarezza. Il metodo utilizzato era sempre l’introspezione, ma con delle piccole variazioni rispetto all’approccio wundtiano. Titchener indicò con l’espressione “errore dello stimolo” l’attribuzione di significati e valori soggettivi ai dati oggettivi dell’esperienza, che andrebbero invece analizzati sulla base delle componenti mentali che lo costituiscono. Lo strutturalismo si fondava sul presupposto che tutte le esperienze mentali degli esseri umani potessero essere comprese attraverso la combinazioni delle componenti di base. Molti psicologi criticarono lo strutturalismo principalmente per 4 ragioni: 1. era riduzionista, perché riconduceva la complessità dell’esperienza umana ad alcune componenti sottostanti; 2. era elementarista, perché concepiva la mente come il risultati del combinarsi di elementi semplici, piuttosto che studiare direttamente un comportamento nella sua globalità; 3. era mentalista, perché analizzava solo i resoconti verbali della consapevolezza umana cosciente, ignorando chi era nell’impossibilità di descrivere le proprie introspezioni (come bambini e soggetti mentalmente disturbati); 4. era sporadica → mancanza di attendibilità dei risultati (non è replicabile su altri soggetti). Successivamente al fallimento dello strutturalismo, nascono 2 nuove correnti: ・ USA → comportamentismo e funzionalismo; ・ Europa → psicologia della Gestalt e psicodinamica. 1.13 Il funzionalismo Il funzionalismo attribuì un’importanza sostanziale alle abitudini apprese, che permettevano ad un organismo di adattarsi all’ambiente e di funzionare con efficacia. Si può dire che il funzionalismo è a tutti gli effetti un approccio psicologico che interpreta i fenomeni psichici come funzioni mediante le quali l’organismo si adatta all’ambiente fisico e sociale. Alcuni capostipiti di tale corrente furono John Dewey e William James. Il funzionalismo fornì un contributo determinante al formarsi di un nuovo concetto di esperimento di laboratorio, a partire 6 dall’oggetto di indagine, il quale era il comportamento nella sua totalità. Mentre lo strutturalismo affermava la necessità di una psicologia “pura”, esclusivamente sperimentale, i funzionalisti sostenevano l’esigenza di una psicologia impegnata anche sul versante applicativo. 1.14 La prospettiva psicodinamica Secondo l'approccio psicodinamico, il comportamento è guidato da potenti forze interiori. In quest’ottica, le azioni umane sono il risultato di istinti ereditari, di impulsi di natura biologica e di tentativi di soluzione di conflitti tra i bisogni personali e le richieste della società. Stati di deprivazione, attivazione fisiologica e conflitti sono le fonti di stimolazione del comportamento; l’organismo torna in uno stato di equilibrio quando i suoi bisogni sono soddisfatti e le sue pulsioni sono ridotte. Lo scopo principale dell’agire è la riduzione delle tensioni. Sigmund Freud è stato uno dei capostipiti nell’ambito psicoanalitico: la teoria freudiana considera la persona in balìa di una complessa rete di forze interne ed esterne. Il modello di Freud fu il primo a rilevare che la natura umana non è sempre razionale e che le azioni possono essere la risultante di motivi inconsci. Freud ha inoltre sostenuto che la prima infanzia è il periodo in cui si forma la personalità; inoltre, ha introdotto, col concetto di ciò di cui non si è consapevoli, l’inconscio (le pulsioni influenzano in maniera ineludibile l’attività comportamentale). Queste teorie hanno così permesso di definire pulsioni e bisogni profondi che consentono di distinguere la normalità dal patologico, quindi come lo studio della popolazione patologica possa facilitare anche la descrizione e discriminazione della normalità. 1.15 La psicologia della Gestalt La data di nascita della psicologia della Gestalt risale al 1912, anno in cui Max Wertheimer pubblicò i risultati delle sue ricerche sul movimento apparente; oltre a Wertheimer, i principali esponenti di tale indirizzo furono Kurt Koffka e Wolfgang Köhler. L’approccio gestaltista enfatizza 3 aspetti fondamentali per spiegare i fatti psicologici: 1. anti elementarismo → il percetto non è dato dalla combinazione di contenuti elementari di coscienza, né tantomeno dall’introspezione: la percezione è considerata come un atto immediato, guidato da principi di organizzazione; 2. metodo fenomenologico → studiare ciò che accade nel mondo fenomenico dell’individuo (quindi ciò che viene percepito); 3. isomorfismo → l’organizzazione degli eventi psicologici rispecchia o è riconducibile alle proprietà strutturali degli eventi neurofisiologici corrispondenti. Gli oggetti di studio di questa corrente sono la percezione e i principi di organizzazione percettiva, i quali fanno emergere delle gestalt (forme). Il termine Gestalt (forma) fa riferimento a una configurazione unitaria e organizzata, che differisce dalla somma delle sue singole parti. 1.16 Il comportamentismo e il neocomportamentismo Il comportamentismo Contemporaneamente alla nascita della psicologia della Gestalt in Germania, negli Stati Uniti esordiva sulla scena scientifica il comportamentismo. Un articolo di John B. Watson pubblicato nel 1913 è considerato il “manifesto” del movimento comportamentista. In esso, Watson rivolse una critica radicale nei confronti della tradizione “mentalista” e introspezionista. Secondo l’autore, la psicologia non doveva occuparsi né della coscienza, né, tantomeno, della mente, ma bensì del comportamento osservabile. Inoltre, la psicologia non doveva avvalersi di metodi che non fossero suscettibili degli stessi controlli utilizzati in tutte le scienze naturali. Di conseguenza, essa era tenuta a rifiutare il metodo dell’introspezione, poiché l’unica psicologia scientifica possibile era quella basata sull’indagine, condotta con metodi rigorosamente obiettivi, delle manifestazioni del comportamento osservabili dall’esterno o con l’ausilio di appositi strumenti; a tal proposito, si conducono grandi ricerche sull’apprendimento associativo (condizionamento classico) e sulla manipolazione delle variabili ambientali per misurarne le conseguenze comportamentali (condizionamento operante). Per il comportamentismo, la mente era da considerarsi una “scatola nera” (black box), al cui interno lo psicologo non poteva, né era tenuto ad entrare. Presso la scatola nera impattano degli stimoli ambientali: non si sa cosa succeda all’interno della 7 black box, ma l’organismo emette delle risposte comportamentali. È così possibile manipolare l’ambiente e verificarne gli effetti tramite l’osservazione del comportamento manifesto. Infatti, l’obiettivo dello psicologo comportamentista era lo studio delle associazioni stimolo-risposta (S-R), consistenti nelle risposte comportamentali (R) agli stimoli (S), in modo tale da prevedere e il controllare il comportamento (ricerca di tipo applicativo). Le ricerche del fisiologo Ivan P. Pavlov sui riflessi condizionati anticiparono l’approccio di Watson, ponendo l’enfasi sull’analisi del comportamento dell’individuo, senza dover ricorrere a costrutti mentalisti. Analogamente, la “legge dell’effetto” di Edward L. Thorndike, secondo la quale la risposta comportamentale era da considerarsi esclusivamente in funzione dello stimolo, forniva un’ulteriore conferma alla possibilità di ignorare i processi che si svolgono nella mente del soggetto sperimentale. Un’eredità importante del comportamentismo è stata l’enfasi posta sul rigore della sperimentazione, condotta in larga parte su animali. I principali limiti del comportamentismo derivano dal grande orientamento riduzionistico, in quanto i processi mentali non vengono considerati: tutto è ridotto a prestazioni di tipo motorio. La psicoterapia cognitivo-comportamentale (psicoterapia breve) La psicoterapia breve presenta un approccio ben diverso da quello dinamico: segue infatti una corrente empirista (in analogia con la prospettiva della tabula rasa), in cui il repertorio di risposte comportamentali di un soggetto dipende dalle esperienze vissute dallo stesso; in caso di patologie mentali, l’individuo ha sviluppato una rete di associazioni S-R di tipo patologico: bisogna scardinare le associazioni esistenti in favore di altre meno conflittuali. La psicoterapia cognitivo- comportamentale, quindi, agisce direttamente sui sintomi. Il neocomportamentismo A una prima fase del comportamentismo subentrò, fra gli anni ‘30 e ‘50 del secolo scorso, una seconda fase, il neocomportamentismo, che ebbe, tra i suoi esponenti principali, Edwin R. Guthrie, Clark L. Hull, Edward C. Tolman e Burrhus F. Skinner. Alcuni neocomportamentisti introdussero, tra le associazioni S-R, delle variabili intermedie (intervenienti), le quali corrispondevano ad eventi “interni”, non direttamente osservabili. Tra i neocomportamentisti, Guthrie formulò una teoria dell’apprendimento secondo cui l’associazione temporale fra uno stimolo e un movimento era la condizione sufficiente perché alla rappresentazione dello stimolo seguisse lo stesso movimento: ciò che si apprendeva in risposta a una stimolazione erano i movimenti, intesi come risposte muscolari minime. Altre ricerche, tra le quali quelle di Hull, col concetto di pulsione, e di Tolman, col concetto di apprendimento latente e mappa cognitiva, portarono al superamento della teoria S-R e al conseguente affermarsi della teoria stimolo- organismo-risposta (S-O-R), dove l’organismo è tradotto nei termini di variabili intervenienti, cioè dei processi mentali interni, che si frappongono tra gli stimoli e le risposte comportamentali. Un sostenitore del comportamentismo radicale fu Skinner, il quale introdusse il concetto di condizionamento operante. Secondo Skinner, l’obiettivo primario della psicologia rimaneva quello di stabilire relazioni funzionali tra stimoli e risposte, indipendentemente dal riferimento a qualsiasi concetto “mentalista”. 1.17 Il cognitivismo Lo sviluppo dell'orientamento cognitivista viene fatto risalire alla seconda metà degli anni ‘50 del secolo scorso. È presumibile che la piena consapevolezza della nuova ottica cognitivista si sia fatta strada lentamente, grazie anche a un documento pubblicato nel 1960 da George A. Miller, Eugene Galanter e Karl Pribram. Al centro di tale testo vi è l’unità TOTE (Test-Operate-Test-Exit), una spiegazione “circolare” del comportamento; essa è formata da fasi a retroazione ed è nettamente divergente dallo schema unidirezionale S-R. Per il cognitivismo, l’uomo è un 8 elaboratore biologico di informazioni (approccio HIP, 1972): la mente non è una black box e i processi mentali possono essere indagati con opportune tecniche sperimentali. A tal proposito, il cognitivismo nasce negli USA dal comportamentismo: ・ come continuazione (viene ereditato il rigore metodologico); ・ come reazione all’aridità del comportamentisti; il paradigma S-R, infatti, presentava l’idea per cui era possibile plasmare il comportamento in modo deterministico: tale ipotesi è assolutamente instabile, poiché tiene conto solamente dell’ambiente e del comportamento manifesto (determinismo ambientale), senza considerare d’altra parte la black box, soprattutto a seguito delle nuove scoperte in ambito psicodinamico. Internamente al movimento, si riconosce quindi la limitatezza dell’approccio comportamentista, in quanto l’assenza di elaborazione cognitiva delle informazioni tra lo stimolo e la risposta denota la presenza di individui passivi. Si può dire quindi che il cognitivismo è un approccio psicologico che ha come obiettivo lo studio di tutti i processi mentali (quindi la black box comportamentista) attraverso i quali il sistema cognitivo acquisisce, elabora, archivia e recupera le informazioni; tale oggetto di studio influenzerà successivamente la cibernetica e lo sviluppo della linguistica. I cognitivisti, oltre a ricorrere al metodo introspettivo e reintrodurre i tempi di reazione, condussero nuove ricerche che si avvalsero ampiamente dei progressi tecnologici di quel periodo. La cibernetica Con la cibernetica si ha lo sviluppo delle prime macchine problem solving, la quali presentano stadi interni di elaborazione delle informazioni: a partire da un input, è possibile, mediante una elaborazione centrale degli stimoli in ingresso (che ricorre ad algoritmi presenti in memoria), prendere decisioni sul comportamento da esibire in output. Scopi ed intenzioni sarebbero a tal merito determinanti per stabilire il tipo di comportamento in uscita. L'analogia mente-computer Con la nascita della cibernetica emerge anche un confronto tra il funzionamento degli automi e il SN umano che ha determinato, col tempo, la genesi dell’analogia mente-computer. Mente e cervello sono software e hardware biologici che hanno lo scopo di prendere decisioni sulla base di conoscenze pregresse e di rappresentazioni fenomeniche della realtà. Similmente ai computer, la mente: ・ estrae informazioni dall’ambiente → sistema sensoriale; ・ elabora le informazioni e le manipola mediante processi complessi presenti in memoria → funzioni cognitive; ・ pianifica il comportamento e lo mette in atto → sistema motorio. Con il paradigma mente-computer, quindi, si intende scoprire il software umano (= funzioni cognitive) con l’intento di riprodurlo su supporti diversi dall’hardware biologico dell’uomo (= cervello). Nonostante esistano delle analogie strutturali e funzionali tra dispositivi artificiali e sistemi biologici, esistono al contempo importanti differenze, infatti: ・ l’intelligenza umana può essere fallace; ・ il modo di ragionare dell’uomo non è razionale; ・ l’uomo non presenta grandi capacità algoritmiche e/o computazionali; ・ l’uomo prova emozioni, le quali incidono inevitabilmente sui processi decisionali. 1.18 La scienza cognitiva La scienza cognitiva ha avuto origine nella seconda metà degli anni ‘70 del secolo scorso. Due eventi ne hanno segnato la data di nascita: la fondazione della rivista “Cognitive Science” ad opera di R. Schank, A.M. Collins e E. Charniak, e la costituzione della relativa società. 9 In particolare, nell’articolo, Collins dichiara che vi è un insieme di temi di ricerca relativi all’intelligenza naturale e artificiale su cui convergono gli interessi di ricercatori di diverse aree disciplinari. I modelli del funzionamento mentale della scienza cognitiva possono essere suddivisi in modelli computer-style e brain- style. I primi sono fondati sull’idea che per spiegare la processazione dell’informazione da parte della mente umana occorre tenere conto delle modalità di funzionamento del computer. Quanto ai modelli brain-style, essi partono dal presupposto che, per formulare ipotesi sulla mente umana, si deve fare riferimento al modo di operare del cervello umano; questi modelli di tipo brain hanno una comune struttura di base, costituita da aggregazioni di elementi semplici, detti nodi o neuroni artificiali. I 2 paradigmi che hanno dominato all’interno della scienza della cognizione sono il modularismo e il connessionismo. Il modularismo e la mente computazionale Il modularismo parte da una prospettiva innatista secondo cui la mente è organizzata in moduli specializzati, ciascuno dei quali presenta una struttura specializzata volta a rendere il SN un sistema esperto nella sua interazione con l’ambiente. A tal proposito, si cerca di costruire una serie di modelli per comprendere le facoltà mentali indipendenti (parte dai processi cognitivi per inferire le corrispondenti sedi cerebrali specifiche). Secondo Jerry A. Fodor, capostipite dell’approccio modularista, la mente computazionale (= proprietà della mente caratterizzata da proposizionalità e composizionalità) è proposizionale, quindi espressa in un codice simbolico estremamente astratto, quale il “linguaggio della mente”. Fodor ipotizza che il sistema cognitivo dell’uomo sia costituito da 3 tipi di strutture distinte, gerarchicamente organizzate: 1. trasduttori → registrano informazioni sul mondo e producono rappresentazioni degli stati ambientali in forme tali da renderle disponibili per l’elaborazione successiva; 2. sistemi di input → ricevono informazioni dai trasduttori, non sono sotto il controllo cosciente dell’individuo, elaborano l’informazione molto velocemente e in modo seriale; inoltre, non sono influenzati né dagli altri sistemi di input né dai processi centrali; 3. processi centrali → non sono modulari (interagiscono fra loro) e cercano di produrre una rappresentazione del mondo, la più pertinente possibile. Essi hanno il compito di collegare e di integrare tra loro i prodotti dei singoli sistemi di input. Il connessionismo e la mente situata Il connessionismo pone in relazione l’architettura biologica del cervello con l’architettura funzionale dell’attività cognitiva (parte dalla struttura del SN dalla quale si inferiscono una serie di processi cognitivi). Inoltre, esso fa riferimento alle reti neurali artificiali, modelli ispirati alla struttura neurale del cervello. Le reti neurali sono simulazioni che riproducono in maniera approssimativa e semplificata le proprietà e i processi di funzionamento del SN. Secondo il connessionismo, infatti, le informazioni sono elaborate all’interno delle reti, ciascuna delle quali è composta da molte unità che procedono in parallelo. In tal modo, la conoscenza avviene sulla base di meccanismi di integrazione. Di conseguenza, il connessionismo pone le basi per una concezione dinamica e attiva della mente, in grado di adattarsi alle condizioni del momento e di autocorreggersi (concetto di mente situata = mente costantemente immersa in un contesto immediato). 10 La mente radicata Una mente situata è una mente radicata nel corpo. Secondo tale tale prospettiva, ogni conoscenza ha il suo fondamento nell'esperienza e procede sulla base di informazioni tratte dai diversi sistemi sensoriali, immaginativi, linguistici, affettivi e motivazionali, nonché derivate dalle azioni compiute dal proprio organismo in una data circostanza. 2. METODI DI RICERCA IN PSICOLOGIA Il processo di ricerca in psicologia risponde all’esigenza di determinare quali supposizioni sul comportamento siano corrette, verificarle e approfondirle. Le teorie psicologiche sono sottese infatti da un’ottica deterministica, secondo cui tutti gli eventi fisici, mentali o comportamentali sono il risultato di specifici fattori causali. 2.1 Il metodo scientifico Il metodo scientifico usato per fare ricerca in psicologia segue una serie di specifiche fasi sistematiche: ・ individuare l’oggetto d’indagine → pone le sue fondamenta nella ricerca bibliografica; ・ formulazione di un’ipotesi → una volta consultata la letteratura scientifica e individuato l’oggetto di indagine, si formula un’affermazione provvisoria e verificabile sulla relazione tra fenomeni; ・ delineare un metodo di ricerca → stabilire una procedura scientifica che consente di raccogliere e mettere in rapporto dati empirici, in modo da poterli interpretare; ・ raccolta e analisi dei dati → i dati vengono ottenuti tramite procedure prestabilite, dette protocolli sperimentali; una volta che i ricercatori hanno raccolto i dati, procederanno alla loro analisi e alla loro discussione. L’analisi statistica contribuisce a verificare se le ipotesi sperimentali sono corrette. In particolare, gli psicologi si servono di 2 tipologie di statistiche per l’analisi dei dati raccolti: statistiche descrittive e statistiche inferenziali; quest’ultime permettono di stabilire la significatività dei dati raccolti; ・ divulgazione dei risultati alla comunità scientifica. 2.2 Le variabili In un esperimento (metodo di ricerca che presenta il più alto grado di controllo, in quanto prevede la manipolazione sistematica di una o più VI) viene ipotizzata una relazione di causalità tra 2 o più variabili. Una variabile corrisponde alla proprietà di un qualsiasi evento o fenomeno che può essere misurata in termini qualitativi o quantitativi (la possibilità di misurazione garantisce oggettività). È possibile distinguere tipologie diverse di variabili: ・ variabili indipendenti (VI) → viene manipolata dallo sperimentatore (funge da causa); ・ variabili dipendenti (VD) → è la prestazione misurata (effetto); dipende dalla VI; ・ variabili discrete (categoriche) → rappresenta un insieme di categorie distinte e indivisibili, come il sesso biologico; ・ variabili continue → può assumere un numero potenzialmente infinito di diversi valori, come l’età. 11 2.3 Analisi statistica Da un punto di vista statistico, risultano più significativi i dati ottenuti facendo ricorso ai veri esperimenti, i quali usano come strategia di controllo sperimentale l’assegnazione casuale dei partecipanti (si ha pari probabilità di finire in un gruppo). Ciò può essere dimostrato tramite la statistica descrittiva, in particolar modo con la distribuzione normale dei dati (curva gaussiana), in riferimento al metodo di misurazione. La gaussiana, infatti, permette di capire la frequenza cumulativa (= concentrazione punteggi in prossimità di un valore medio) e comprendere la statistica inferenziale riguardo il confronto fra più gruppi (come questa analizza i dati); in base al metodo di ricerca utilizzato, a parità di valore medio può capitare che la distribuzione dei dati differisca: le stesse medie possono essere prodotte da differente distribuzione dei dati: ・ variabilità ristretta/limitata (curva stretta) → i punteggi raccolti sono distribuiti attorno al valore medio (predittore di una maggiore significatività); ・ variabilità importante (curva ampia) → i dati raccolti sono molto distanti dal punteggio medio (predittore di una minore significatività). La statistica inferenziale valuta se la differenza dei dati raccolti tra un gruppo e l’altro è significativa o no. La variazione nei punteggi può discendere da 2 fonti: 1. variazione tra i gruppi, indotta dalla manipolazione della VI (è aggiuntiva rispetto a quello che si osserva) → dati statisticamente significativi, legati nella maggior parte dei casi ai veri esperimenti; 2. variazione entro ciascun gruppo, dovuta alle differenze individuali → dati non significativi, legati maggiormente ai quasi esperimenti (metodi di ricerca che ricorrono a gruppi precostituiti; non vengono quindi bilanciate le caratteristiche individuali). 2.4 Metodi descrittivi Con questi metodi non si ricerca una relazione causale tra variabili (contrariamente al metodo sperimentale), ma si cerca di descrivere empiricamente comportamenti e fenomeni. Sara Santona | Introduzione alla psicologia | A.A. 23/24 I principali metodi descrittivi sono i metodi di inchiesta, tra i quali l’intervista e il questionario. ・ intervista → può essere aperta (domande non prestabilite), semi strutturata o strutturata (domande stabilite a priori); ・ questionario → le domande non vengono chieste da un intervistatore, ma sono presentate in forma scritta (possono essere sia aperte che chiuse). 12 La misurazione può essere sia quantitativa, sia qualitativa. I metodi descrittivi presentano diversi limiti, quali: mancanza di neutralità nel porre i quesiti (nelle interviste), interpretazione soggettiva dei risultati, non si è a conoscenza della serietà dei partecipanti, desiderabilità sociale, reattività... 2.5 Studi correlazionali Il metodo correlazionale indaga sul grado di associazione tra 2 o più variabili; le ipotesi non implicano rapporti di causa- effetto: non è infatti prevista una manipolazione sistematica delle variabili. Per individuare il grado di correlazione lineare esistente tra 2 variabili, i ricercatori calcolano, quando le variabili sono misurate su scala a intervalli o a rapporti, il coefficiente correlazionale r, il cui valore è compreso tra -1 e +1: ・ -1 < x < 0 → correlazione lineare inversa; ・ x = 0 → assenza di correlazione; ・ 0 < x < 1 → correlazione lineare diretta. Gli studi correlazionali possono essere usati come studi esplorativi, oppure quando non è possibile realizzare un esperimento per motivi pratici e/o etici. Se da un lato con gli studi correlazionali è possibile trarre dei vantaggi, d’altra parte si delineano una serie di limiti riguardo questi metodi: essi, infatti, non sono conclusivi rispetto all’esistenza di una relazione causa-effetto tra 2 o più variabili. 2.6 Procedure di controllo Anche il il metodo sperimentale ha i suoi limiti: in psicologia vengono chiamati artefatti i risultati dovuti a qualcosa di diverso da quello che si credeva di manipolare attraverso la VI (l’effetto della causa manipolata non è dovuto alla stessa, ma bensì da altre variabili). Lo sperimentatore, infatti, può trattare inconsapevolmente il gruppo di controllo in maniera diversa rispetto a quello sperimentale (al di là della condizione di trattamento); il primo ad individuare tale fenomeno fu Rosenthal, il quale studiò in che modo le convinzioni dei ricercatori e dei soggetti sperimentali potessero influenzare la realtà e dare origine a una profezia che si autoavvera. → effetto Rosenthal: distorsione dei risultati, dovuta all’attesa che lo sperimentatore e/o i soggetti sperimentali hanno in merito ai risultati stessi. → effetto placebo: si verifica quando i partecipanti a un esperimento modificano le loro risposte in assenza di qualsiasi tipo di trattamento sperimentale. 13 I comportamenti degli esseri umani e degli animali sono complessi e spesso sono dovuti a molteplici cause; per questa ragione un buon disegno di ricerca anticipa le possibili variabili confondenti e progetta strategie per eliminarle, quali le procedure di controllo. Esse sono finalizzate a tenere costanti tutte le variabili e condizioni, tranne quelle collegate con l’ipotesi che deve essere testata. Il modo migliore per eliminare le distorsioni prodotte dall’effetto Rosenthal (o effetto dell’aspettativa) sarebbe far sì che i partecipanti all’esperimento fossero inconsapevoli delle condizioni sperimentali in cui si trovano (controllo a singolo cieco); se anche lo sperimentatore non sa a quale condizione sperimentale sono stati assegnati i soggetti che sta esaminando, si ha un controllo a doppio cieco. Per controllare l’effetto placebo, i ricercatori inseriscono una condizione sperimentale in cui non viene somministrato il trattamento (o non vi è una manipolazione della variabile indipendente). Questa tecnica prende il nome di controllo placebo. 3. BASI BIOLOGICHE E EVOLUTIVE DEL SN 3.1 L’evoluzione umana La selezione naturale ha favorito due principali tipi di adattamento: ・ il bipedismo → capacità di camminare in posizione eretta, emerse nei nostri antenati evolutivi dai 5 ai 7 milioni di anni fa; ・ l’encefalizzazione → incremento della dimensione del cervello (in particolar modo del tessuto corticale) che porta allo sviluppo di capacità più complesse relative al pensiero, ragionamento, ricordo e pianificazione. Nel corso del processo evolutivo il cervello ha triplicato le sue dimensioni, determinando la comparsa di circonvoluzioni/solcature della corteccia cerebrale: i numerosi ripiegamenti della corteccia determinano un’area molto più estesa del tessuto corticale contenuto all’interno della scatola cranica. Dopo il bipedismo e l’encefalizzazione, la pietra miliare evolutiva più importante per la nostra specie è stata la comparsa del linguaggio, il quale è alla base dell’evoluzione culturale, cioè della tendenza che hanno le culture a rispondere in maniera adattativa, attraverso l’apprendimento, ai cambiamenti ambientali. Anziché apprendere le lezioni della vita in prima persona per tentativi e prove di errori, gli esseri umani potevano trarre vantaggio dalla condivisione delle esperienze altrui. 3.2 Il neurone: struttura e funzioni 14 Il neurone è la cellula nervosa, l’unità fondamentale del SN specializzata nel ricevere, elaborare e/o trasmettere le informazioni alle altre cellule. I neuroni variano nella forma, nella dimensione, nella composizione chimica e nella funzione svolta, ma hanno tutti la stessa struttura fondamentale: ・ dendrite → fibra ramificata di un neurone che riceve i segnali in entrata; ・ soma → corpo cellulare di un neurone contenente il nucleo e il citoplasma; ・ assone → fibra lunga e sottile, spesso rivestita da una guaina mielinica, attraverso la quale gli impulsi nervosi scorrono dal soma ai bottoni terminali; ・ bottone terminale → struttura dalla forma di bulbo, situata alla fine delle ramificazioni di un assone, contenente vescicole piene di neurotrasmettitori. I neuroni possono assumere diverse funzioni: ・ neuroni sensoriali → neuroni che trasmettono i messaggi dai recettori sensoriali al SNC; ・ neuroni motori (motoneuroni) → neuroni che trasmettono i messaggi dal SNC, in direzione dei muscoli e delle ghiandole; ・ interneuroni → neuroni che mettono in comunicazione fra loro altri neuroni, permettendo una elaborazione fine dei segnali; l’essere umano presenta per il 75-80% del tessuto nervoso totale interneuroni. 3.3 Comunicazione nel SN Potenziale di riposo e potenziale d’azione La comunicazione neuronale è prodotta dal flusso di ioni attraverso la membrana neuronale (che separa l’ambiente interno della cellula da quello esterno) che in una condizione di riposo (quando il neurone è silente) presenta una differenza di potenziale pari a -65/-70 mV rispetto all’ambiente extracellulare. La presenza di un potenziale più negativo nell'ambiente intracellulare rispetto a quello extracellulare è dovuto in prima istanza dalla diversa concentrazione, a riposo, di ioni positivi e negativi nei 2 ambienti, tali per cui si ha una maggiore concentrazione di cationi all’esterno della cellula e una maggiore concentrazione di anioni nell’ambiente interno del neurone. Nella fase ascendente del potenziale d’azione, la cellula nervosa avvia la transizione da potenziale di riposo a fenomeno digitale (=potenziale d’azione) in risposta ad una sequenza di input, i quali provocano un cambiamento della polarità della membrana nel momento in cui viene trasmesso l'impulso nervoso: ciò si traduce in un potenziale maggiormente positivo nell’ambiente intracellulare rispetto a quello extracellulare (depolarizzazione del neurone fino a +40 mV). Il potenziale d’azione si propaga poi lungo tutto l’assone con un’intensità costante (legge del tutto o nulla). 15 Non appena il potenziale d’azione è passato lungo un segmento della cellula nervosa ha inizio la sua fase discendente, la quale determina un meccanismo di ripolarizzazione che ripristina il valore del potenziale di membrana che questa presenta normalmente a riposo. Periodo refrattario Quando il potenziale d’azione ha superato un segmento dell’assone, la regione del neurone che ha condotto l’impulso nervoso entra in un periodo refrattario, cioè un intervallo di tempo (2 ms circa) immediatamente successivo ad uno stimolo, durante il quale il tessuto nervoso rimane parzialmente (periodo refrattario relativo) o totalmente (periodo refrattario assoluto) insensibile ad uno stimolo successivo. Il periodo refrattario assicura che il potenziale d’azione scorra lungo l’assone soltanto in una direzione: non può procedere a ritroso, perché le precedenti parti dell’assone si trovano nello stato refrattario. Sinapsi La trasmissione sinaptica consiste in uno shock elettrico (che si manifesta nel momento in cui il potenziale d’azione giunge nei bottoni sinaptici dell’elemento presinaptico) che permette il rilascio di particolari sostanze o trasmettitori chimici, i neurotrasmettitori, contenuti all’interno di vescicole nei bottoni terminali. I neurotrasmettitori si legano, una volta liberati nella fessura sinaptica, a recettori specifici presenti nella membrana del neurone adiacente (la corrispondenza ligando- recettore non è arbitraria, ma estremamente selettiva). A seconda del tipo di recettore col quale si lega, il neurotrasmettitore può avere effetto eccitatorio o inibitorio sull’elemento post sinaptico, dando così origine a 2 tipologie differenti di sinapsi: ・ sinapsi eccitatorie (epsp) → contribuiscono a depolarizzare il neurone post sinaptico, quindi aumenta la probabilità che nel neurone ricevente si generi un potenziale d’azione; ・ sinapsi inibitorie (ipsp) → contribuiscono a iperpolarizzare il neurone post sinaptico, quindi diminuisce la probabilità che nel neurone ricevente si generi un potenziale d’azione. Affinché possa generarsi un impulso nervoso anche nell’elemento post sinaptico c’è bisogno di integrazione, cioè sommazione spaziale e temporale di tutte le epsp e le ipsp che il neurone riceve dalle altre cellule nervose. 3.4 Anatomia del SN Il sistema nervoso presenta 2 suddivisioni principali: ・ sistema nervoso centrale (SNC) → è costituito dai neuroni dell’encefalo e del midollo spinale; ha il compito di integrare e coordinare tutte le funzioni corporee, elaborare tutti i messaggi neuronali in entrata e inviare comandi a differenti parti del corpo. Il SNC invia e riceve i messaggi neuronali attraverso il SNP; ・ sistema nervoso periferico (SNP) → fornisce al SNC le informazioni provenienti dai recettori sensoriali (i quali sono responsabili del processo di trasduzione) tramite i nervi (fibre nervose). Il SNP è a sua volta suddiviso in sistema nervoso somatico (SNS) e sistema nervoso autonomo (SNA): il primo connette il SNC ai muscoli scheletrici, alla pelle e alle articolazioni, mentre il secondo controlla le risposte motorie involontarie del corpo, connettendo il SNC alla muscolatura 16 liscia, al muscolo cardiaco e alle ghiandole. Infine, il SNA è suddiviso in ortosimpatico (reazioni fisiologiche di attacco o fuga) e parasimpatico (reazioni fisiologiche di assimilazione e rilassamento). Midollo spinale Il midollo spinale è una struttura contenuta nella cavità vertebrale, nella quale risulterebbe essere anche protetto. Da esso originano 31 paia di nervi che seguono lo stesso andamento delle vertebre ad essi corrispondenti (8 nervi cervicali, 12 toracici. 5 lombari, 5 sacrali,1 coccigeo). Ciascun nervo spinale ha una componente afferente (periferia-SNC) ed efferente (SNC-periferia), volta a mettere in comunicazione il midollo spinale col tronco, gli arti e i visceri. Danni al midollo spinale possono provocare paralisi del tronco e delle gambe. Tronco encefalico Contiene delle strutture che regolano lo stato interno del corpo. Il midollo allungato (bulbo) è una regione romboencefalica che regola la respirazione, il sistema cardiovascolare e contiene parte della formazione reticolare. A livello del bulbo sono situate anche le piramidi bulbari, dove circa l’85% dei fasci discendenti decussano (passano la linea mediana, raggiungendo la parte del corpo controlaterale rispetto all’emisfero di provenienza → vie crociate). Quindi, il fascio piramidale crociato collega la parte destra del cervello con la parte sinistra del corpo e la parte destra del corpo con la parte sinistra del cervello. Sopra il bulbo è situato il ponte, il quale trasmette informazioni dalla corteccia cerebrale al cervelletto e racchiude una parte della formazione reticolare, la quale è costituita da una fitta rete interneuronale che presiede ad importanti funzioni autonomiche, riflessi, comportamenti stereotipati e meccanismi di modulazione degli stati di vigilanza/coscienza (arousal corticali). L’ultima componente del tronco encefalico è il mesencefalo. Cervelletto Controlla la coordinazione motoria, la postura e l’equilibrio, così come la capacità di imparare a controllare i movimenti corporei. Inoltre, è implicato a funzioni non motorie (apprendimento, memoria e altre implicazioni di natura cognitiva). Talamo Questa struttura diencefalica, suddivisa in numerosi nuclei, invia impulsi in funzione degli stimoli sensoriali ricevuti dal SNP alla corteccia cerebrale tramite neuroni connessi con i centri corticali; in particolare, le afferenze si sinistra proiettano al talamo destro, mente le afferenze di destra proiettano al talamo sinistro. Oltre ad assolvere questa funzione (nuclei di relay), i nuclei talamici rielaborano attivamente le informazioni e le ritrasmettono selettivamente alla corteccia (funzione di filtro selettivo di informazioni per le quali essere coscienti). Sistema limbico Il sistema limbico corrisponde ad una regione del cervello che regola il comportamento emotivo, gli impulsi motivazionali fondamentali e la memoria; regola anche la temperatura corporea, la pressione sanguigna e il livello glicemico. Alcune parti del sistema limbico sono costituite da: ・ ippocampo → è coinvolto nell’acquisizione di nuove informazioni; ・ amigdala → controlla le emozioni, l’aggressività e la memoria emotiva; ・ ipotalamo → regola il comportamento motivato e l’omeostasi. 17 Telencefalo Il telencefalo è una struttura suddivisa in gangli della base (fanno parte del sistema extrapiramidale) e corteccia cerebrale, la quale è la principale responsabile nella regolazione delle funzioni cognitive ed emotive di livello superiore. Il telencefalo è inoltre diviso in 2 metà quasi simmetriche, gli emisferi cerebrali, strutture anatomicamente e fisiologicamente indipendenti, ma tra loro sinergiche e coordinate: infatti, le aree omologhe dei 2 emisferi della corteccia cerebrale sono collegate da una spessa massa di fibre nervose interemisferiche che formano il corpo calloso. Ciascun emisfero presenta scissure e circonvoluzioni, utilizzate per suddividere in 4 lobi ciascun emisfero: 1. lobo occipitale → regione posteriore del cervello; contiene la corteccia visiva primaria; 2. lobo temporale → regione del cervello situata sotto la scissura di Silvio (laterale); contiene la corteccia uditiva. Inoltre, presiede a funzioni importanti per quanto riguarda la memoria e l’apprendimento; 3. lobo frontale → regione del cervello situata sopra la scissura laterale e davanti alla scissura di Rolando (solco centrale); è coinvolta nel controllo motorio e nelle attività cognitive, come pensiero, ragionamento, pianificazione e decisione; 4. lobo parietale → regione del cervello situata dietro il lobo frontale e sopra la scissura laterale; contiene la corteccia somatosensoriale. La maggior parte della corteccia è coinvolta in processi cerebrali di alto livello, relativi all’integrazione e all’interpretazione delle informazioni; si ritiene che tali meccanismi avvengano presso le cortecce di ordine superiore, quali: 1. corteccia parieto-temporo-occipitale → integrazione di specifiche informazioni sensoriali alla base del percetto; 2. corteccia orbitofrontale (circuito limbico) → integrazione degli aspetti emozionali, mnestici e motivazionali delle informazioni sensoriali (vissuto emotivo); 3. corteccia prefrontale → fondamentale per processi di pianificazione, strategia e decisione, in più ha a che fare con la personalità. Somatotopia La somatotopia consiste nella corrispondenza, punto per punto, di un'area del corpo con un punto specifico del sistema nervoso centrale. Le aree che sono finemente controllate (come ad esempio, le dita) hanno una maggiore rappresentazione in corteccia (e quindi presentano un maggior numero di neuroni deputati all’elaborazione di stimoli presso uno stesso distretto somatico), in quanto sono regioni corporee densamente 18 innervate; le aree che sono grossolanamente controllate (ad esempio, il tronco) hanno invece una minore rappresentazione in corteccia. Si nota quindi come la rappresentazione somatotopica corticale sia sproporzionata rispetto alle reali proporzioni del corpo, dipendentemente dal grado di innervazione delle stesse parti somatiche. 3.5 Lateralizzazione emisferica Split brain: sindrome da cervello diviso La possibilità di esaminare le differenze tra gli emisferi si manifestò per la prima volta nell’ambito neuropsicologico, su pazienti con forme di epilessia farmaco resistenti piuttosto gravi: col fine di ridurre le crisi provocate dalle anomalie elettriche, sono stati eseguiti una serie di trattamenti neurochirurgici che consistevano nel recidere il corpo calloso; il cervello diviso rendeva i 2 emisferi reciprocamente autonomi e quindi separatamente funzionanti. Per verificare nei pazienti epilettici le funzioni degli emisferi separati, Roger Sperry e Michael Gazzaniga idearono alcune situazioni che comportavano la presentazione delle informazioni visive separatamente a ciascun emisfero dei pazienti split-brain. Il metodo di Sperry e Gazzaniga si basa sull’anatomia del sistema visivo, in quanto la sezione del corpo calloso non comporta la scissione delle fibre ottiche e del chiasma ottico, che rimangono perfettamente integri. Anzitutto, le informazioni che arrivano al cervello attraverso l'organo della vista vengono elaborate in una parte del lobo occipitale che si chiama corteccia visiva. Gli impulsi nervosi partono dalla retina e attraverso fasci di fibre ottiche arrivano in una zona chiamata chiasma ottico, in cui avviene un incrocio tra alcune delle fibre che Sara Santona | Introduzione alla psicologia | A.A. 23/24 provengono dalla retina. In particolare, quest’ultima è divisa in 2 componenti, dette emiretine: una nasale (in prossimità del naso) e una temporale (in prossimità della tempia). Le informazioni visive che provengono dall’emiretina temporale mantengono la lateralizzazione negli step successivi di elaborazione (giungono nella corteccia visiva ipsilaterale), mentre le informazioni che provengono dall’emiretina nasale si dirigono verso l’emisfero controlaterale, incrociandosi nel chiasma ottico. Ciò significa che le immagini che appaiono nell’emicampo visivo destro (che colpiscono l’emiretina nasale destra e quella temporale sinistra) vengono proiettate nell’emisfero sinistro, e viceversa. In soggetti normali la presenza del corpo calloso rende possibile la ‘visione’ degli oggetti in entrambi gli emisferi (data la comunicazione interemisferica), ma è chiaro che se si recide questa struttura le informazioni rimarranno lateralizzate. Considerando gli esperimenti di Sperry e Gazzaniga, l’apparecchiatura sperimentale consiste in uno schermo diviso simmetricamente in 2 parti (una destra e una sinistra). In mezzo alla linea di separazione c’è un punto nero di fissazione. Al paziente viene chiesto di guardare presso il punto di fissazione mentre lo sperimentatore proietta in maniera tachistoscopica (1/10 di secondo: tale durata di presentazione dello stimolo viene scelta perché non permette i movimenti oculari, quindi l’informazione viene lateralizzata e giunge in un solo emisfero) delle immagini e/o delle parole sulla parte destra o sinistra dello schermo. Se, ad esempio, viene proiettata una parola alla destra del punto di fissazione, questa giunge nell’emisfero cerebrale sinistro: in questo caso, il soggetto riconosce la parola e la legge con facilità. Se invece la parola viene proiettata alla sinistra del punto di fissazione, l’informazione arriva all’emisfero destro; si nota come in quest’ultima condizione il paziente sostiene di non aver visto nulla. Lo sperimentatore procede con un’altra prova sperimentale: pone sul tavolo, vicino alle mani del paziente (il quale le pone sotto un pannello di legno in modo tale da non vederle), diversi oggetti, fra cui una pera, e gli viene chiesto successivamente di scegliere con la mano sinistra l’oggetto che è stato proiettato nella parte sinistra dello schermo (ovvero l’immagine di una pera). Il paziente è stato in grado di riconoscere la pera mediante l’esplorazione tattile, anche se non è stato in grado di nominare l'oggetto. Da queste indagini è quindi possibile individuare una serie di funzioni per le quali ciascun emisfero è specializzato: 19 ・ emisfero destro → materiale visuo-spaziale e aspetti paralinguistici; ・ emisfero sinistro → espressione, comprensione ed organizzazione del linguaggio. 3.6 Strumenti di indagine dell’attività cerebrale Elettroencefalogramma (EEG) Misura globale dell’attività elettrica del cervello mediante elettrodi posti sul cuoio capelluto, i quali registrano le variazioni di potenziale nel tessuto nervoso sottostante. A seconda del compito svolto cambia il tracciato, rilevando una maggiore attività (nell’ordine di potenziali registrati nell’unità di tempo) presso quelle aree cerebrali coinvolte in determinati meccanismi. Potenziali evento-relati (ERPs) : Misura delle onde elettriche evocate (in termini di tracciati) da un particolare stimolo. Magnetoencefalografia (MEG) Registra le variazioni di campo magnetico nel tessuto nervoso. Presenta la possibilità di rilevare segnali profondi, addirittura in prossimità del solco longitudinale; l’attività che viene tracciata è spontanea, per questo tale procedura non è intrusiva. EEG, MEG ed ERPs presentano un’ottima risoluzione temporale, economici e non sono intrusivi. Micro elettrodi (single cell recording) A metà degli anni ‘50 del secolo scorso, Walter Hess sperimentò per primo l’uso della stimolazione elettrica allo scopo di esaminare strutture localizzate in profondità nel cervello. Lo studioso inserì degli elettrodi nel cervello di gatti (in particolare, su singoli neuroni) lasciati liberi di muoversi. Premendo un pulsante, veniva erogata una piccola scarica elettrica nel punto in cui era localizzato l’elettrodo. Hess registrò attentamente le conseguenze comportamentali collegate alla stimolazione scoprendo che, a seconda della collocazione dell’elettrodo, la pressione dell’interruttore poteva provocare sonno, attivazione sessuale, ansia o terrore. Stimolazione magnetica transcranica (TMS) La TMS è una tecnica usata per produrre una temporanea inibizione delle aree cerebrali attraverso ripetuti impulsi di stimolazione magnetica. Tramite uno stimolatore posto sullo scalpo si va a generare un campo magnetico, il quale induce un campo elettrico che percorre il tessuto nervoso sottostante, stimolandolo. L’effetto di questa attività elettrica può essere sia facilitatoria che inibitoria: in quest’ultimo caso, è possibile simulare lesioni cerebrali temporanee e reversibili, senza danneggiare i tessuti. I sintomi che si manifestano a causa della “lesione” permettono quindi di risalire alla funzione per la quale una particolare area corticale risulterebbe essere specializzata (è possibile inoltre osservare possibili fenomeni di vicariamento). La TMS è una procedura più invasiva rispetto all’EEG, MEG ed ERPs. Tomografia assiale computerizzata (TAC) Tecnica nella quale fasci concentrati di raggi x attraversano il cervello da angolazioni differenti per produrre immagini tridimensionali. La TAC fornisce una serie di immagini strutturali dell’organo esaminato, informa sull’anatomia e sull’eventuale presenza di lesioni. Risonanza magnetica (MRI) La MRI è una tecnica di neuroimaging per mezzo della quale il cervello viene sottoposto a scansione impiegando campi magnetici e onde radio. Assieme alla TAC contribuisce a fornire immagini tridimensionali sull’anatomia degli organi. 20 Tomografia ad emissione di positroni (PET) Rappresentazione del cervello ottenuta tramite uno strumento che produce immagini dettagliate dell’attività metabolica del cervello, registrando la radioattività delle cellule durante differenti prove cognitive o comportamentali. Fornisce principalmente dati funzionali. Risonanza magnetica funzionale (fMRI) Tecnica di neuroimaging che abbina i vantaggi delle scansioni PET e MRI, rilevando le variazioni del flusso ematico cerebrale: fornisce quindi sia dati strutturali che funzionali in base alla stima di come il sangue si distribuisce nelle varie regioni cerebrali mentre si svolgono determinate attività. 3.7 Il sistema visivo La vista è il sistema sensoriale più complesso, altamente sviluppato e importante per gli esseri umani: consente infatti di accorgersi dei cambiamenti delle caratteristiche dell’ambiente fisico e di adattare di conseguenza il proprio comportamento. L’occhio umano L’occhio è la cinepresa con cui il cervello costruisce la propria rappresentazione del mondo; l’occhio, infatti, raccoglie e mette a fuoco la luce: essa accede in prima istanza alla cornea, una membrana non vascolarizzata e totalmente trasparente situata nella parte anteriore dell’occhio; successivamente la luce attraversa la camera anteriore, contenente un fluido chiamato umor acqueo (che nutre la cornea); si giunge poi alla pupilla, un’apertura opaca e trasparente dell’iride che permette di far filtrare i raggi luminosi in regioni più posteriori della camera visiva. Per mettere a fuoco la luce nell’occhio, una lente cristallina (cristallino) si assottiglia per mettere a fuoco gli oggetti distanti e si ispessisce per mettere a fuoco quelli vicini. Per controllare la quantità di luce in una cinepresa, si varia l’apertura della lente: a tal proposito, il muscolo ciliare dell’iride cambia la dimensione della pupilla, in modo tale da modulare il passaggio di luce nel bulbo oculare. Nella parte più caudale della cinepresa biologica, la luce prima passa presso l’umor vitreo (sostanza gelatinosa completamente trasparente) e infine giunge nella retina, una sottile membrana che riveste la parte posteriore dell'occhio. Pupilla e cristallino La pupilla è l’apertura nell’iride attraverso cui passa la luce. L’iride controlla la quantità di luce che entra nel bulbo oculare, facendo dilatare o restringere il diametro pupillare. I raggi luminosi che filtrano dalla pupilla vengono messi a fuoco sulla retina dal cristallino; quest’ultimo, nel contempo, capovolge e inverte il pattern luminoso. Il cristallino ha un’importanza particolare per la propria capacità di variare la messa a fuoco sugli oggetti vicini e lontani. 21 I muscoli ciliari cambiano lo spessore del cristallino (in termini di accorciamento e allungamento) e, pertanto, le sue caratteristiche ottiche con un processo chiamato accomodazione. Le persone con un’accomodazione disfunzionale presentano una capacità di messa a fuoco alterata rispetto a condizioni normali, come nei casi di miopia, ipermetropia e astigmatismo. Retina La retina è una membrana collocata nella parte posteriore dell’occhio che contiene i fotorecettori, responsabili del processo di trasduzione dei segnali luminosi (fototrasduzione = conversione dell’energia luminosa in risposte neuronali). Al microscopio è possibile osservare che la retina possiede 5 strati altamente organizzati di differenti tipi di neuroni. La fototrasduzione è compiuta nella retina da bastoncelli e coni, i 2 tipi di fotorecettori localizzati nello strato retinico più esterno: ・ coni → fotorecettori concentrati nella fovea (regione centrale della retina dove convogliano i raggi luminosi del punto di fissazione e dove si ha la massima acuità visiva); i coni sono specializzati per la visione diurna (quando c’è maggiore intensità luminosa), cromatica e dettagliata; esistono 3 tipologie diverse di coni, i quali trasducono diversamente gli uni dagli altri in base al colore cui sono sensibili; ・ bastoncelli → fotorecettori concentrati nella periferia della retina e attivi soprattutto in presenza di illuminazione fioca/a bassa intensità; i bastoncelli sono recettori acromatici, con una acuità visiva grossolana e con sensibilità al movimento. Nella retina, gli assoni dello strato cellulare più interno (cellule gangliari) convogliano in un punto relativamente vicino alla fovea (il punto cieco) per formare il nervo ottico, il quale fuoriesce dalla porzione posteriore del bulbo oculare con lo scopo di veicolare le informazioni dall’occhio al SNC. Nel punto cieco non sono presenti cellule recettrici. Per coprire la macchia cieca (o scotoma, che va a presentarsi presso il punto cieco in quanto non si hanno fotorecettori), l’occhio mette in atto una serie continua di micromovimenti: ciò consente anche a mantenere la retina stimolata da raggi luminosi diversi. Processi cerebrali La destinazione finale di molte informazioni visive è il lobo occipitale, sede della corteccia visiva primaria (V1). Tuttavia, prima di raggiungere questa meta, la maggior parte delle informazioni che partono dalla retina attraversano altre regioni del cervello, come il talamo (NGL), il collicolo superiore, il nucleo soprachiasmatico dell’ipotalamo e l’area pretettale. Lesioni alla corteccia occipitale determinano condizioni di cecità corticale, in cui non è più possibile essere coscienti del mondo esterno ricorrendo alla vista (non si può più “vedere” propriamente); ciononostante, se le strutture sottocorticali connesse alla retina rimangono intatte, l’informazione luminosa viene comunque colta in input ed elaborata in maniera inconsapevole. D’altra parte, lesioni ad aree visive di ordine superiore (come la corteccia inferotemporale e la corteccia parietale posteriore) possono dare origine a diversi disturbi, tra i quali le agnosie (difficoltà a riconoscere o a identificare determinati oggetti o persone); tra le agnosie più gravi si ha la prosopagnosia, un disturbo legato all’incapacità di riconoscere i volti biologici. Vedere il colore Il colore si crea quando il cervello elabora le informazioni codificate nella fonte luminosa. La luce che vediamo è soltanto una piccola porzione della dimensione fisica chiamata spettro elettromagnetico: i recettori del nostro sistema sensoriale sono in grado di cogliere stimoli aventi una gamma di lunghezze d’onda comprese tra i 380 e i 760 nm. La luce, pertanto, da un punto di vista fisico si descrive in termini di lunghezze d’onda; i colori esistono solo nell’interpretazione delle lunghezze d’onda da parte del nostro sistema sensoriale. Tutte le esperienze del colore possono essere descritte nei termini di 3 dimensioni: 22 1. tonalità → dimensione dello spazio cromatico che cattura l’esperienza qualitativa del colore della luce; 2. saturazione → dimensione dello spazio cromatico che cattura la purezza e la vividezza delle sensazioni del colore; 3. luminosità → dimensione dello spazio cromatico che cattura l’intensità della luce. 4. SENSAZIONE E PERCEZIONE La sensazione rappresenta una condizione di detenzione di stimoli in input ad opera dei nostri sistemi sensoriali, fortemente dipendente dalle caratteristiche fisiche degli stimoli stessi (a partire dalla loro intensità). La percezione è un processo di individuazione di oggetti ed eventi nell'ambiente esterno e interno al soggetto, volto ad attribuire loro un senso, a comprenderli, riconoscerli, categorizzarli e a prepararsi a reagire a essi; la percezione è quindi guidata da meccanismi molto più complessi (step di elaborazione successivi a quelli elementari) rispetto a quelli che intervengono per la sensazione. L’organizzazione percettiva si riferisce alla fase in cui il cervello integra i segnali raccolti dagli organi recettori grazie alla conoscenza pregressa del mondo per formare una rappresentazione interna di uno stimolo esterno. 4.1 Stimoli distali e stimoli prossimali Il mondo fisico è popolato da oggetti tridimensionali posti a varie distanze; ciò vale anche per il mondo fenomenico (percetto). L’interfaccia tra queste 2 dimensioni è invece bidimensionale e corrisponde all’immagine retinica (viene creata grazie al processo di fototrasduzione). Le differenze tra un oggetto fisico collocato nell’ambiente e la sua immagine sulla retina sono così profonde e significative che gli psicologi distinguono accuratamente 2 differenti stimoli percettivi. L’oggetto fisico reale è chiamato stimolo distale (distante dall’osservatore) e l’immagine sulla retina è definita stimolo prossimale (vicino all’osservatore). Ciò che aspiriamo a percepire è lo stimolo distale, l’oggetto “reale” presente nell’ambiente, mentre lo stimolo da cui ottenere le informazioni è lo stimolo prossimale, cioè l’immagine sulla retina. A livello percettivo, i processi di elaborazione sono volti a determinare lo stimolo distale a partire dalle informazioni contenute in quello prossimale. In relazione ai vari domini percettivi, quindi, la percezione coinvolge processi che utilizzano le informazioni contenute nello stimolo prossimale per individuare le proprietà di quello distale. I processi di elaborazione cognitiva, operati dal nostro SN, cercano di compensare la bidimensionalità dell’interfaccia per recuperare la tridimensionalità del mondo fisico esterno; a tal proposito, il nostro cervello è avido di indicatori di profondità: non serve un mondo fisico per cogliere distanze e profondità diverse. L’illusione di Müller-Lyer è un esempio di come, a parità di grandezza fisica, è possibile cogliere percettivamente dimensioni tridimensionali differenti in base agli induttori di profondità (o indicatori) associati allo stimolo. Si può dire quindi che il mondo fenomenico (o mondo percepito) non è una copia esatta del mondo fisico, ma bensì una sua rappresentazione imperfetta. Il mondo fenomenico, infatti, non può esistere senza quello fisico (in quanto quest’ultimo fornisce input che permettono di ricavare energia trasducibile dai recettori), ma d’altra parte non dipende unicamente dallo stesso, poiché sussistono una serie di leggi specifiche, indipendenti dalla realtà esterna, che condizionano inevitabilmente il modo col quale costruiamo l’esperienza percettiva. Esistono fenomeni che mettono in rilievo la discrepanza tra realtà fisica e fenomenica: ・ assenza dell’oggetto fisico e presenza dell’oggetto fenomenico (esempio: triangolo di Kanizsa); ・ assenza dell’oggetto fenomenico e presenza dell’oggetto fisico (esempio: figure mascherate di Gottschaldt); ・ discrepanza fra oggetto fenomenico e oggetto fisico (esempio: illusioni ottico-geometriche). 23 4.2 Psicofisica La soglia La psicofisica corrisponde allo studio della relazione tra gli stimoli fisici e il comportamento o le esperienze mentali evocate dagli stimoli. Alla psicofisica è strettamente legato il concetto di soglia. Con soglia assoluta si fa riferimento alla quantità minima di energia fisica necessaria per produrre un’esperienza sensoriale rilevata nel 50% dei casi. I risultati degli studi sulla soglia assoluta possono essere espressi tramite una funzione psicometrica detta curva sigmoide (o curva ad s). È possibile osservare nella sigmoide una regione di transizione da una condizione di non rilevazione a una di rilevazione saltuaria, infine una di rilevazione costante. La nostra capacità di rilevare le intensità di uno stimolo molto basso è variabile: non c’è un’intensità per la quale si abbia una risposta fissa, ma esiste una “zona grigia” di intensità molto basse per le quali si hanno risposte ambigue. Sebbene sia possibile identificare la soglia assoluta, i sistemi sensoriali sono più sensibili alla presenza di cambiamenti in un dato ambiente sensoriale che a contesti che rimangono immutati. I sistemi, infatti, si sono evoluti in modo tale da favorire la percezione di stimoli ambientali nuovi rispetto a quelli precedenti attraverso un processo chiamato abituazione. L’abituazione sensoriale è la responsività diminuita di un sistema sensoriale sottoposto a una stimolazione prolungata. Con soglia differenziale si fa riferimento alla più piccola differenza fisica tra 2 stimoli che può essere riconosciuta come differenza minima rilevabile nel 50% dei casi. Le leggi psicofisiche Il primo ad indagare in ambito psicofisico, nel 1834, fu Ernst Weber, il quale postulò l’omonima legge, secondo la quale: K= ΔI / I dove: ・ K → costante di Weber; ・ I → intensità dello stimolo iniziale; ・ ΔI → misura dell’incremento che produce la differenza minima rilevabile. Secondo la legge di Weber, la differenza minima rilevabile tra 2 stimoli è una frazione costante dell’intensità dello stimolo iniziale. Quindi, più è elevata l’intensità dello stimolo iniziale, più deve essere elevato l’incremento necessario per ottenere una differenza minima rilevabile. Weber ha scoperto che ogni modalità sensoriale presenta un valore K specifico (esempio peso: K = 0,02). I maggiori problemi di generalizzazione di questa legge si riscontrano quando l’intensità dello stimolo diventa molto elevata. Nel 1860, Gustav Fechner studiò la relazione che intercorre tra la variazione dell’intensità dello stimolo e la variazione della sensazione. Tramite un’equazione, espressa nella legge di Fechner, si osserva come la sensazione sia direttamente proporzionale al logaritmo dell’intensità dello stimolo. In altri termini, Fechner sostenne che, mentre lo stimolo aumenta secondo una progressione geometrica, la corrispondente sensazione aumenta secondo una progressione aritmetica; tale corrispondenza è quindi direttamente proporzionale, ma non lineare: infatti, ad andamenti costanti dell’intensità dello stimolo fisico non si hanno aumenti costanti della sensazione evocata. S = K log I + C dove: ・ S → intensità della sensazione; 24 ・ K → costante di Weber; ・ log I → logaritmo dell’intensità dello stimolo; ・ C → costante d’integrazione. La legge di Fechner si è dimostrata valida per diverse modalità sensoriali, fatta eccezione per le intensità più basse e più alte. Con l’emergere della psicologia soggettiva spiccò la figura di Stanley. S. Stevens, noto per il suo metodo della stima di grandezza, il quale consisteva nel chiedere ai soggetti di stimare la grandezza dell’intensità di un determinato stimolo. La funzione più efficace per descrivere la relazione fra il giudizio sensoriale del soggetto e l’intensità della sensazione è una funzione di potenza. È stato possibile, grazie a questi studi, definire la legge di potenza, secondo la quale: n S=K(I) dove: ・ S → intensità della sensazione; ・ K → costante relativa allo stimolo; ・ I → intensità dello stimolo; ・ n → elevazione a potenza (variabile a seconda del tipo di stimolo). La grandezza soggettiva della sensazione è proporzionale all’intensità dello stimolo elevata ad una certa potenza. Se l’esponente è inferiore a 1 (come nel caso della luminosità), la sensazione aumenta più lentamente al crescere dell’intensità dello stimolo (ciò è comune in modalità sensoriali innocue); se l’esponente è uguale a 1 (lunghezza apparente), la sensazione è direttamente proporzionale all’intensità dello stimolo (rapporto lineare); se l’esponente è superiore a 1 (come nel caso della scossa elettrica), la sensazione aumenta assai più rapidamente dello stimolo (comune in modalità nocicettive). Si può dire però che le misurazioni della soglia possono essere soggette a bias; a tal proposito, la teoria della detezione del segnale (TDS) è un approccio sistematico al problema delle distorsioni di giudizio. La TDS enfatizza i processi di formulazione di giudizio circa l’assenza o presenza di un determinato segnale; quest’ultimo, se presentato, viene somministrato assieme ad altri segnali di interferenza (distraibilità). La TDS (Green & Swets, 1966) ha identificato una serie processi distinti nella rilevazione sensoriale: ・ rapporto segnale/rumore → il segnale è lo stimolo da rilevare; esso appare assieme ad una certa quantità di interferenza, volta a rendere meno rilevabile il segnale target nell’ambiente; ・ fattori soggettivi → un iniziale processo sensoriale, che riflette la sensibilità dell’osservatore nella sua finezza discriminativa degli stimoli; ・ un successivo processo decisionale che è legato agli errori di giudizio dell’osservatore. Nella prima parte delle prove è presentato uno stimolo di debole intensità, mentre nella seconda parte non viene presentato nessuno stimolo. In ogni prova, gli osservatori sono chiamati a rispondere sì se pensano che lo stimolo sia presente e no se pensano che non lo sia. Ogni risposta rientra in una delle 4 possibilità: 1. una risposta è definita hit se indica che il segnale è presente quando questo è effettivamente comparso; 2. una risposta è definita omissione se indica che il segnale non è presente quando questo è effettivamente comparso; 3. una risposta è definita falso allarme se indica che il segnale è presente quando questo non è effettivamente comparso; 4. una risposta è definita rifiuto corretto se indica che il segnale è assente quando questo non è effettivamente comparso. 4.3 Teorie bottom-up e teorie top-down I processi bottom-up e i processi top-down 25 I sistemi percettivi sono caratterizzati da una profonda complessità. sia funzionale che strutturale. Di conseguenza, la percezione è l’esito di processi che agiscono sia dal basso verso l’alto (bottom-up), sia dall’alto verso il basso (top-down). I processi bottom-up sono guidati dalle informazioni sensoriali provenienti dal mondo fisico. I processi dal basso verso l’alto consistono nel recepire i messaggi sensoriali dall’ambiente e inviarli al cervello affinchè siano elaborati, in modo da individuare le informazioni rilevanti. Questo processo è ancorato alla realtà empirica ed è correlato all’informazione sensoriale e alla trasformazione di caratteristiche fisiche e concrete degli stimoli in rappresentazioni astratte (è basato sui dati in quanto il punto di partenza per l’identificazione è l’evidenza sensoriale che si rileva dal contesto). I processi top-down ricercano ed estraggono attivamente le informazioni sensoriali e sono guidati dalle conoscenze, dalle credenze, dalle aspettative e dagli obiettivi di ciascun di noi. Attraverso i processi dall’alto verso il basso, le funzioni mentali più complesse influenzano il modo in cui riconosciamo gli oggetti e comprendiamo gli eventi. Il processo di identificazione è guidato dai concetti in quanto le rappresentazioni mentali che abbiamo immagazzinato nella nostra memoria influenzano l’interpretazione dei dati sensoriali. Teoria empiristica di Helmholtz Helmholtz ipotizza che il cervello, inconsapevolmente, utilizza l’esperienza passata mediante il ricorso a processi di associazione (detti inferenze inconsce) per dare significato a ciò che proviene dagli organi di senso. Le sensazioni elementari sono per loro natura parcellari e fugaci; mediante le inferenze inconsce e in virtù dell’esperienza passata, questi dati sensoriali vengono sintetizzati nella percezione di oggetti ed eventi (primato dei processi top-down su quelli bottom- up). Teoria costruttivista di Bruner La percezione si basa su un’attiva ricerca della migliore interpretazione possibile delle caratteristiche disponibili (controllo delle ipotesi: processo top-down di “costruzione” della percezione). La realtà fenomenica è costruita in base ai dati sensoriali (fondamenta), dati in memoria (esperienza passata) e processi mentali di alto livello (controllo delle ipotesi) dei quali siamo totalmente inconsapevoli, ma che ci consentono di attribuire significato a ciò che proviene dagli organi di senso. Bruner ha allargato l’influenza di fattori di tipo non percettivo nel determinare la percezione, estendendola ad aspettative, bisogni e motivazioni dell’individuo (la percezione è un atto mediato da processi mentali di alto livello che considerano fattori di tipo non percettivo). Teoria gestaltista Secondo i gestaltisti, il cervello si è evoluto per cogliere, col percetto, il significato che deriva dall’informazione che proviene dall’esterno: si dà, a tal merito, una spiccata rilevanza ai processi bottom-up. La percezione non è preceduta da sensazioni, ma è un processo primario e immediato: è infatti il risultato dell'organizzazione interna delle “forze” che si vengono a creare fra le diverse componenti di uno stimolo → concetto di campo percettivo: gli elementi che sono 26 presenti acquisiscono una nuova funzione dinamica, grazie anche alla presenza di leggi di organizzazione percettiva innatamente presenti nell’uomo. Teoria computazionale di Marr L’output di una determinata fase diviene l’input della fase ad essa successiva; Marr individua 3 fasi principali che portano alla costruzione del percetto (il quale dipende sia da processi bottom-up, sia da processi top-down): 1. bottom-up → schema grezzo primario (bidimensionale): formazione di linee, punti e barre sulla base di contrasti di luminosità dell’immagine (interfaccia a 2D di fotorecettori retinici); 2. bottom-up → schema a 2 dimensioni e mezzo (principi di organizzazione percettiva della Gestalt): conversione dello schema grezzo originario sulla base di indizi di profondità centrati sulla prospettiva dell’osservatore (nel momento in cui si percepisce un oggetto, si ha un’articolazione in figure e sfondi); 3. top-down → modello tridimensionale (contributo dell’esperienza passata): costruzione di un modello 3D che rappresenta in modo completo le relazioni spaziali tra gli oggetti, indipendentemente dalla prospettiva dell’osservatore (si arricchisce indirettamente l’output finale integrando i processi bottom-up con quelli top-down). Lesioni che riguardano le aree visive e/o parieto-temporo-occipitali determinano una perdita più o meno grave del senso di profondità e tridimensionalità: un deficit che coinvolge l’output della fase 3 della teoria di Marr porta alla percezione di un mondo meno profondo e meno interpretabile; se invece si hanno deficit che coinvolgono gli output della fase 2 e 3 della teoria di Marr (provocati da lesioni più estese) si determina una condizione in cui va a perdersi totalmente il senso di tridimensionalità e profondità (tutto viene rimandato alla sola immagine retinica bidimensionale). 4.4 Processi bottom-up: l’organizzazione percettiva I processi di integrazione delle informazioni sensoriali che permettono una percezione coerente sono denominati collettivamente processi di organizzazione percettiva. Tali processi sono stati descritti per la prima volta dalla teoria della Gestalt. L’articolazione figura-sfondo La figura è la regione percepita come oggetto saliente, posta in primo piano, mentre lo sfondo è la regione in secondo piano dalla quale emergono le figure. Uno dei compiti principali svolti dai processi percettivi è quello di decidere, all’interno di una data scena, quale elemento sia da considerare come figura e quale come sfondo. Secondo Rubin, l’articolazione figura-sfondo è un processo percettivo universale e costante, poiché non c’è figura senza sfondo. La figura ha una forma, un’estensione definita e appare in maniera più evidente, mentre lo sfondo è amorfo e indifferenziato. Alla base dell’articolazione figura-sfondo vi sono diversi fattori, tra i quali: ・ inclusione → a parità di altre condizioni, diventa la figura la regione inclusa; ・convessità → a parità di altre condizioni, diventa la figura la regione convessa rispetto a quella concava; ・area relativa → a parità di altre condizioni, diventa la figura la regione di area minore; ・orientamento → a parità di altre condizioni, diventa la figura la regione i cui assi sono orientati secondo le direzioni principali dello spazio percettivo. Se questi fattori non intervengono, si creano le condizioni per ottenere le cosiddette figure reversibili, nelle quali si ha un’inversione fra la figura e lo sfondo: sono configurazioni instabili e ambigue, nelle quali figura e sfondo si alternano regolarmente. In virtù di questa fluttuazione spontanea non è possibile percepire nello stesso momento entrambi gli elementi come figura, poiché il contorno appartiene, di volta in volta, soltanto a uno di essi. 27 Inoltre, l’organizzazione percettiva degli stimoli comporta la comparsa di fenomeni percettivi particolari: nel triangolo di Kanizsa, i contorni della figura non sono fisicamente presenti, pur essendo percettivamente colti; essi sono definiti contorni anomali o illusori, e sono determinati dalla distribuzione e organizzazione degli elementi dello stimolo. Principi di raggruppamento percettivo (leggi di Wertheimer) I fenomeni psicologici, secondo i gestaltisti, possono essere compresi solo all'interno di un’organizzazione, come un tutto unitario (non scissi in singoli elementi di base). Variando un singolo fattore all’interno del tutto e osservando come questo influenza il modo in cui le persone percepiscono la struttura della configurazione, Wertheimer formulò i seguenti principi: ・ principio della vicinanza → a parità di altre condizioni, si unificano gli elementi vicini; ・ principio della somiglianza → a parità di altre condizioni, si unificano gli elementi simili; ・ principio della buona direzione → a parità di altre condizioni, si unificano gli elementi che presentano continuità di direzione; ・ principio della chiusura → a parità di altre condizioni, si unificano gli elementi che tendono a chiudersi fra loro; ・ principio del destino comune → a parità di altre condizioni, si unificano gli elementi che condividono la medesima direzione di movimento. Percezione del movimento La percezione del movimento richiede la capacità di combinare informazioni provenienti da differenti osservazioni visive. È possibile comprendere le conseguenze di come avvengono questi processi di integrazione quando si assiste al fenomeno phi, il quale si osserva quando 2 punti di luce statici posti in differenti punti del campo visivo vengono accesi e spenti in modo alternato a un ritmo di circa 4-5 volte al secondo (avviene analogamente guardando le luci stroboscopiche). Ci sono molti modi per immaginare il percorso che va dalla localizzazione del primo punto a quella del secondo punto; nella maggior parte dei casi, tuttavia, gli osservatori umani vedono soltanto il percorso più semplice, quale una linea retta. Percezione binoculare della profondità (indizi fisiologici) Le informazioni relative alla profondità dell’oggetto si ottengono a partire dalla distanza dell'oggetto percepito e dalla sua direzione rispetto alla posizione di chi osserva. La presenza dei 2 occhi consente di avere a disposizione indizi binoculari di profondità, i quali implicano confronti tra le informazioni visive fornite dai 2 occhi. Le 2 sorgenti da cui provengono queste informazioni sono: ・ disparità retinica → è lo scarto tra posizioni orizzontali di immagini retiniche corrispondenti nei 2 occhi. La disparità retinica fornisce informazioni circa la profondità, in quanto il grado di disparità dipende dalla distanza relativa tra l’oggetto e l'individuo. Quando si osserva il mondo con entrambi gli occhi aperti, la maggior parte degli oggetti percepiti stimola posizioni differenti sulle 2 retine. Se sulle 2 retine la disparità tra 2 immagini corrispondenti è abbastanza contenuta, il sistema visivo è in grado di integrarle nella percezione di un singolo oggetto collocato in profondità, mentre se le immagini sono troppo distanti tra loro, si vedono le immagini doppie. → a partire da 2 diverse immagini retiniche, il sistema visivo confronta lo spostamento orizzontale delle parti corrispondenti e produce una percezione unitaria di un singolo oggetto in profondità: il sistema visivo, infatti, interpreta lo spostamento orizzontale tra 2 immagini come indizio di profondità in uno spazio tridimensionale; 28 ・ convergenza → informazione binoculare relativa alla profondità, in base alla quale gli occhi si girano verso l’interno per osservare uno stimolo vicino. Oggetti collocati ad una distanza minore dal soggetto convergono maggiormente rispetto a quando l’oggetto è collocato ad una distanza maggiore. Il cervello usa