Cenni Storici e Metodologici PDF
Document Details
Rinaldo Livio Perri
Tags
Summary
Introduzione alla storia e ai metodi delle neuroscienze, un campo di studio che riconosce l'importanza dell'unità psicofisiologica dell'essere umano. Il documento esplora l'evoluzione dei metodi di indagine nelle neuroscienze, con particolare riferimento al connessionismo.
Full Transcript
CENNI STORICI E METODOLOGICI Modulo 1 Insegnamento di Fondamenti anatomo-fisiologici dell’attività psichica Corso di laurea triennale in Scienze e Tecniche Psicologiche...
CENNI STORICI E METODOLOGICI Modulo 1 Insegnamento di Fondamenti anatomo-fisiologici dell’attività psichica Corso di laurea triennale in Scienze e Tecniche Psicologiche Prof. Rinaldo Livio Perri Introduzione Le neuroscienze rappresentano una disciplina multidisciplinare, di fondamentale importanza per lo psicologo. Sin dall’antichità, infatti, gli uomini si interrogano sull’origine di attività cognitive complesse quali ad esempio la capacità di percepire, comprendere e decidere, così come sui fattori biologici della personalità e dei comportamenti, anche di tipo deviante. Come vedremo, il riconoscimento dell’unità psicofisiologica dell’essere umano deriva da un lungo processo di “maturazione” filosofica e scientifica che, grazie anche all’ausilio di moderne tecniche di indagine cerebrale, ha consentito gradualmente alle neuroscienze di superare l’originario dualismo mente-corpo favorendo lo sviluppo di discipline relativamente recenti come, ad esempio, la neuropsicologia cognitiva e la psicologia fisiologica. La vasta letteratura disponibile sulla relazione cervello-comportamento, ovvero la comprensione di quest’ultimo in termini di funzionalità neurofisiologica, impone quindi allo psicologo uno studio attento dei sistemi nervosi che disciplinano emozioni, pensiero, percezione, movimento. Una solida conoscenza della fisiologia nervosa consente infatti di comprendere le malattie mentali e nervose in termini di disfunzioni dei principali meccanismi affettivi, cognitivi e regolatori del cervello. In questo primo capitolo vedremo come l’evoluzione dei diversi metodi di indagine nelle neuroscienze ha influenzato il modo di intendere e di studiare le funzioni cerebrali. Fra i diversi possibili metodi di indagine bisogna ad esempio menzionare il cosiddetto approccio riduzionistico, che consiste nel dividere la complessità del problema in piccole parti, ovvero limitando l’indagine cerebrale a specifici e singoli aspetti (ad es. cellulare, comportamentale etc.). Tuttavia, attualmente il riconoscimento della complessità del “sistema” cervello suggerisce di orientare l’indagine, soprattutto se di carattere cognitiva e comportamentale, ai principi che governano le connessioni fra aree e strutture cerebrali. Il connessionismo, o connettomica, rappresenta infatti la nuova frontiera delle neuroscienze, poiché consente di superare un approccio frenologico all’indagine dei processi nervosi a favore di una visione più complessa e dinamica delle funzioni cerebrali. Sin dall’antico Egitto, ovvero a partire da alcuni millenni prima di Cristo, gli uomini ritenevano che il cuore (e non il cervello) fosse la sede dell’anima e della memoria. Tuttavia, nonostante le scarse conoscenze anatomo-fisiologiche di quel periodo storico, si ritiene che gli antichi egizi riconoscessero già alcune importanti funzioni all’organo cervello. Questa conclusione si basa prevalentemente sulla constatazione, derivante da osservazioni anatomo-antropologiche, della pratica della cosiddetta trapanazione cranica. La trapanazione consisteva nel provocare chirurgicamente dei fori nel cranio di individui ancora in vita: l’intento non era quello di provocarne la morte (spesso infatti il malcapitato sopravviveva) ma anzi di curare specifiche malattie mentali e nervose (incluso il mal di testa); si ritiene infatti che la pratica della trapanazione fosse intesa come una procedura utile a liberare gli spiriti del male. Se si rimane sorpresi nell’apprendere di questo singolare intervento da parte degli antichi egizi, bisogna però considerare che la trapanazione è stata praticata da alcune popolazioni, oltre che da alcuni occidentali, sino al XX secolo: sono stati addirittura documentati dei casi recenti di “autotrapanazione” per la cura di condizioni di malessere psichico come ad esempio la depressione. Bisogna arrivare all’incirca al IV sec. a.C., nell’antica Grecia, affinchè la medicina inizi ad interrogarsi sul ruolo del cervello rispetto a specifiche funzioni. In particolare, Ippocrate definì il cervello come la sede dell’intelligenza e della elaborazione delle sensazioni. Ippocrate partì da un’assunzione di base, ovvero quella secondo cui vi è, nell’anatomia umana, una correlazione fra struttura e funzioni, come nel caso ad esempio degli arti e della loro conformazione fisica. In particolare, egli osservò come molte innervazioni si dirigono dagli organi di senso (e quindi dall’ambiente) verso il cervello, ritenendo così quest’ultimo rilevante nell’elaborazione sensoriale. Ippocrate fu inoltre il primo ad identificare nel cervello la sede dell’intelletto. Questa opinione tuttavia non fu condivisa da tutti i suoi contemporanei: ad esempio Aristotele (III sec a.C.) riconosceva ancora nel cuore la sede dell’intelletto, mentre attribuiva al cervello la funzione di “raffreddamento” del sangue pompato dal cuore: in altri termini, il temperamento umano veniva interpretato alla luce delle capacità di refrigerazione del cervello. Un significativo passo in avanti nel riconoscimento delle funzioni cerebrali avvenne nel I sec. d.C. ad opera di Galeno, un medico e filosofo dell’antica Roma. In qualità di medico dei gladiatori, egli ebbe l’opportunità di condurre numerose osservazioni neuroanatomiche indicando una importante distinzione fra encefalo e cervelletto; in particolare, Galeno suggerì il coinvolgimento del cervelletto nel controllo dei movimenti. sebbene confermata da studi successivi, la sua conclusione nacque da un’indagine piuttosto bizzarra: tastando il cervelletto, Galeno notò che la sua consistenza era più dura dell’encefalo, e ne ipotizzò quindi il coinvolgimento nel controllo motorio. Al contrario, identificò nell’encefalo (più morbido al tatto) la sede delle memorie. Galeno condivise inoltre la teoria, dominante all’epoca, del bilanciamento dei quattro fluidi vitali o umori nel controllo del movimento. In altre parole, lo spostamento dei quattro fluidi all’interno dei ventricoli, e dai ventricoli verso la periferia mediante i nervi, sarebbe responsabile del controllo dei movimenti. Questa teoria si basa chiaramente sulla concezione dei nervi come tubi all’interno dei quali si spostano i fluidi, in maniera analoga a quanto avviene per il sangue nei vasi sanguigni. Le concezioni galeniche rimasero dominanti per diversi secoli, sino a quando Andrea Vesalio (XVI sec.) fornì maggiori dettagli anatomici sulla struttura cerebrale mediante la sua pubblicazione “de humani corporis fabrica” (vedi figura in basso). Altro autore di spicco nella storia della evoluzione dei metodi di studio in neuroscienze fu Cartesio (XVII sec.) che sostenne il dualismo mente-cervello, ovvero riconobbe la mente come entità spirituale e il cervello come entità meccanica, fisica. Come riportato nella successiva immagine, Cartesio riconobbe nella ghiandola pineale la struttura di connessione alla base del rapporto di comunicazione mente-cervello. Grazie a tecniche di dissezione più specifiche per il cervello, verso la fine del XVII sec. si raggiunsero alcune importanti conclusioni, ovvero si riconobbe che i ventricoli cerebrali non sono vuoti, ma contengono il liquido cerebro-spinale, e che il tessuto cerebrale è suddiviso in due parti: la sostanza grigia e la sostanza bianca. Altre importanti osservazioni rivelarono che la sostanza bianca cerebrale mostrava una continuità con i nervi, ovvero che contenesse le fibre che dipartivano dalla sostanza grigia. Vennero inoltre definite conformazioni generali del cervello e del midollo spinale, con la porzione periferica del sistema nervoso associata alla rete di nervi che attraversano il corpo. Si osservò inoltre che la distribuzione generale della superficie dell'encefalo presentava delle irregolarità simili in ogni individuo, favorendo così le prime concezioni del cervello in mappe e ripartizione in lobi. Si riteneva, tuttavia, che diverse funzioni fossero localizzate in diverse prominenze del cervello (teoria definitivamente superata con la disconferma della frenologia). I più importanti sviluppi nell’ambito delle neuroscienze avvennero in realtà a partire dal XIX sec., quando si riconobbe al cervello un ruolo fondamentale nella elaborazione di funzioni quali percezione, movimento, pensiero. In questi stessi anni prende piede la concezione di “nervi come fili” (in contrapposizione alla teoria galenica dei tubi): in particolare, grazie agli esperimenti di Luigi Galvani si osservò che la somministrazione di impulsi elettrici provocava la contrazione di alcuni muscoli, riconoscendo quindi la funzione fondamentale dei nervi nella trasmissione della energia elettrica. Grazie inoltre al metodo invasivo delle ablazioni sperimentali si osservarono delle associazioni dirette fra lesione cerebrale e sintomatologia. Non bisogna inoltre trascurare lo sviluppo tecnologico della strumentazione disponibile: in particolare, i primi microscopi consentivano l’osservazione diretta dei neuroni e il loro riconoscimento come unità funzionale fondamentale del cervello. Quelli del XIX sec. furono anche gli anni in cui la frenologia conobbe notevole diffusione; secondo questa prospettiva, oggi ritenuta priva di fondamento scientifico, la morfologia (conformazione anatomica) del cranio e del cervello indicherebbero particolari aspetti del temperamento e delle abilità individuali. Questa teoria si basava sull’assunto secondo cui particolari aree cerebrali si associano a particolari aspetti del comportamento (es. generosità, gelosia etc.), come indicato nella seguente immagine. Alla “fazione” dei frenologi può essere ricondotto anche un celebre neurologo, Broca, che per primo descrisse una importante area del linguaggio che ancora oggi porta il suo nome. Così come altri suoi contemporanei, Broca e i cosiddetti diagrammisti tentarono di identificare le aree cerebrali le cui lesioni potessero interamente spiegare specifici disordini di carattere cognitivo e neurologico. Sebbene alcune osservazioni di Broca sono ritenute ancora valide, bisogna ricordare che le funzioni cognitive, come ad esempio il linguaggio, rispondono alle attività di network o reti di strutture cerebrali (prospettiva della connettomica) piuttosto che al funzionamento di una ristretta area cerebrale. Studi recenti di neuroimmagine sui cervelli dei pazienti di Broca hanno infatti dimostrato che l’estensione della lesione era più diffusa rispetto a quanto ritenne Broca, ovvero interessava anche altre aree cerebrali. Nel corso dell’ ‘800 venne definita anche la prima mappa citoarchitettonica del cervello (vedi immagine in basso) grazie al contributo di Brodmann. Con l’ausilio di nuovi microscopi e di una particolare tecnica di colorazione dei tessuti (branca di studio che prende il nome di istologia), egli osservò che le diverse aree della corteccia sono caratterizzate da una diversa architettura cellulare (da cui citoarchitettura), ipotizzando che ciascuna fosse associata a funzioni diverse. Sebbene Brodmann non ebbe la possibilità di dimostrare la sua ipotesi, oggi conosciamo le specializzazioni corticali nei due emisferi, e la classificazione di questo autore è ancora in uso (caratterizzata dalla sigla BA seguita da un numero, ad es. “BA 6” è l’area di Brodmann 6 dove viene localizzata la corteccia premotoria). Negli stessi anni un biologo tedesco di nome Theodor Schwann sostenne la teoria cellulare, secondo cui tutti i tessuti sono costituiti da unità microscopiche chiamate cellule. Inizialmente non fu semplice riconoscere la teoria cellulare anche al cervello, poiché il tessuto nervoso appariva al microscopio come costituito da una rete, ovvero da filamenti e prolungamenti molto più simili al sistema dei vasi sanguigni. Tuttavia, anche grazie ai moderni sviluppi della microscopia, il neurone è stato in seguito definitivamente riconosciuto come unità funzionale e distinta e non un reticolo continuo dove fluisce l’informazione nervosa. A Schwann va riconosciuta inoltre la scoperta di un particolare tipo di cellule che portano il suo nome. Le cellule di Schwann (descritte in dettaglio nel modulo successivo) fanno parte delle cosiddette cellule gliali, e la loro funzione principale è quella di fornire un “rivestimento” protettivo ai neuroni. Nel secolo successivo, ovvero il XX, una delle principali e più importanti scoperte nel mondo delle neuroscienze fu quella di Hodgkin e Huxley i quali, a partire dal 1939, studiarono i meccanismi attraverso i quali i neuroni producono segnali elettrici e come questi segnali si propagano all’interno delle cellule. In particolare, i due scienziati arrivarono a definire un modello matematico che descrive il processo di depolarizzazione della membrana cellulare. Per i loro esperimenti si avvalsero del calamaro, ovvero del suo assone gigante che, grazie alle sue dimensioni, consentiva di essere studiato più agevolmente. Sia Hodgkin che Huxley vinsero il premio Nobel per la medicina nel 1963. Se a questi due autori va il merito di aver individuato l’attività elettrica nelle cellule nervose, bisogna invece riconoscere agli studi di Katz, Miledi e Castillo la comprensione della comunicazione nervosa, ovvero della trasmissione chimica tra neuroni. In particolare, negli anni ’50 questi tre scienziati individuarono e descrissero per la prima volta la presenza di neurotrasmettitori e recettori nello spazio inter-sinaptico, ovvero nelle piccolissime fessure che separano i punti di contatto fra neuroni. Grazie ai notevoli sviluppi sperimentali del XIX e soprattutto del XX secolo, la moderna biologia riconosce due principali classi di cellule nel sistema nervoso: i neuroni e la glia. Mentre i primi rappresentano l’unità fondamentale e principale della comunicazione nervosa, le seconde rappresentano una classe particolare di cellule che preservano i neuroni e ne consentono il corretto funzionamento mediante diversi processi che verranno trattati più in dettaglio nei capitoli successivi. Se invece volessimo tracciare le principali differenze dei metodi di studio in neuroscienze fra ‘800 e ‘900, potremmo riconoscere le seguenti caratteristiche: - Nel XIX secolo erano frequenti gli studi dei singoli casi clinici, ovvero di singoli pazienti che per ragioni particolari o per caratteristiche sintomatologiche catturavano l’attenzione del clinico/ricercatore. Tuttavia, molti casi reputati meno interessanti sfuggivano all’osservazione. In questi anni si assiste inoltre alla diffusione della prospettiva frenologica, che affonda le sue radici in una procedura sperimentale caratterizzata da una rigida correlazione anatomo-clinica. - Nel XX secolo nascono i modelli statistici che consentono un confronto sperimentale basato sulla quantificazione dei dati e non solo sull’osservazione clinica. La metodologia sperimentale ricorre inoltre all’uso di gruppi di controllo, ovvero a individui che non presentano la sintomatologia del gruppo sperimentale e che per questa ragione costituiscono un elemento di paragone al quale riferirsi per confronti statistici diretti. La selezione dei pazienti si arricchisce di due criteri principali, ovvero uno basato sulla sede della lesione ed uno sulla sintomatologia manifesta (ciascuno associato a vantaggi e svantaggi specifici). Le neuroscienze iniziano inoltre a dialogare con la psicologia dei processi “normali” gettando così le basi delle future neuroscienze cognitive. In particolare, però, bisogna riconoscere che molte delle scoperte del ‘900 furono possibili grazie alle nascenti tecniche di indagine della struttura e dell’attività cerebrale (es. la risonanza magnetica) che verranno descritte di seguito. METODI DI INDAGINE DELLA STRUTTURA E DELLE FUNZIONI CEREBRALI Tecniche di indagine strutturale Si tratta delle tecniche di indagine che restituiscono immagini della struttura cerebrale: sono quindi particolarmente utili per l’identificazione di aree lesionate (es. come conseguenza di ictus, trauma cranico etc.). Tomografia assiale computerizzata (TAC) La formazione dell’immagine TAC dipende dalla trasmissione di un fascio di radiazioni X. Il coefficiente di assorbimento del tessuto determina l’attenuazione del fascio di radiazioni, tradotte dal computer in diverse tonalità di grigio (ad es. il liquor appare scuro, il cranio bianco). Ai fini delle correlazioni anatomo-cliniche, le lesioni più indagate con questa tecnica sono quelle di tipo vascolare come infarti ed emorragie, particolarmente evidenti alle immagini TAC. L’esposizione alle radiazioni X fa della TAC uno strumento di tipo invasivo: è infatti sconsigliabile l’esposizione frequente a questo tipo di radiazioni. Risonanza magnetica nucleare (RMN) Diversamente dalla radiologia tradizionale, la RMN ricorre all’uso di campi magnetici per ottenere immagini del tessuto oggetto di indagine. La RMN presenta il vantaggio di restituire delle immagini di risoluzione elevata, superiore alla TAC: con questa tecnica è infatti possibile distinguere chiaramente la sostanza grigia dalla sostanza bianca, così come i nuclei della base ed altre regioni cerebrali. La RMN non rientra fra le tecniche invasive: le principali controindicazioni sono per i portatori di pacemaker, mentre i claustrofobici potrebbero mal sopportare le procedure di indagine. Tecniche di indagine funzionale Rientrano in questa categoria le tecniche che consentono di osservare la funzionalità cerebrale. Uno dei parametri utilizzati per studiare la funzione del cervello è l’afflusso di sangue. L’attivazione di un’area cerebrale richiede maggiore metabolismo, che è associato ad un maggiore apporto di sangue nelle aree coinvolte. Alcune tecniche, come ad esempio la SPECT, la PET e la fMRI si basano sull’analisi di questo parametro, mentre altre come la MEG e l’EEG si basano sull’attività elettrica cerebrale, che rappresenta l’indice più diretto e rapido di attivazione cerebrale (i neuroni comunicano mediante potenziali d’azione, mentre il flusso di sangue impiega più tempo per essere rilevato). Tomografia ad emissione di singoli fotoni (SPECT) Studia il flusso ematico cerebrale grazie alla rilevazione di un tracciante radioattivo mediante una gammacamera che ruota a 360 gradi intorno alla testa del soggetto. Non presenta rischi o effetti collaterali, tuttavia potrebbe essere definita come leggermente invasiva per via della necessità di somministrazione del tracciante. Il vantaggio della SPECT è quello di poter ottenere immagini tridimensionali (dati strutturali) ma anche informazioni di tipo funzionale. Tomografia ad emissione di positroni (PET) La PET fa uso di traccianti emittenti positroni. I diversi traccianti utilizzabili con la PET possono essere associati a diversi parametri di interesse fisiologico, quale il flusso ematico, il consumo di ossigeno, il metabolismo del glucosio. Il tracciante più utilizzato è solitamente il 18-Fluorodesossiglucosio (FDG) che impiega circa 40 minuti dopo la somministrazione per raggiungere lo stato stazionario. In quei 40 minuti al paziente è richiesto di rimanere in condizione di riposo e di ridotta stimolazione acustica e visiva (ad occhi chiusi). Offre il vantaggio di poter studiare il cervello durante l’esecuzione di compiti cognitivi, sebbene il suo uso è piuttosto limitato nell’ambito delle neuroscienze cognitive di base. Risonanza magnetica funzionale (fMRI) Utilizza i principi della RMN per ottenere le immagini strutturali del cervello. Si basa sulle proprietà magnetiche della emoglobina, che è la proteina che porta l’ossigeno al sangue. Quando cede ossigeno, l’emoglobina si trasforma in desossiemoglobina, producendo un segnale che viene definito BOLD (blood oxygen dependent level). Il vantaggio principale della fMRI è l’elevata risoluzione spaziale; la risoluzione temporale è invece nell’ordine dei secondi (gli indici metabolici sono per definizione “lenti”). I disegni sperimentali con fMRI sono di due tipi: a blocchi ed evento-correlato. Nel disegno a blocchi il soggetto esegue diversi compiti per un certo intervallo temporale. Nel metodo evento-correlato invece il segnale BOLD viene correlato a specifici eventi (cognitivi, motori o sensoriali) rendendo così possibile anche una analisi trial-by-trial. La analisi dei dati fMRI ricorre generalmente al metodo sottrattivo, che consiste nella sottrazione dell’attività cerebrale in stato “di riposo” dall’attività cerebrale in fase di “attivazione”, come ad esempio durante l’esecuzione di un compito cognitivo. Sebbene largamente impiegato, questo metodo non è esente da critiche per le quali si rimanda a testi specifici di approfondimento. Magnetoencefalografia (MEG) La MEG registra i campi magnetici generati dall’attività elettrica del cervello: questo conferisce allo strumento una elevata risoluzione temporale (nell’ordine dei ms), ma una bassa risoluzione spaziale. E’ una tecnica poco diffusa a causa degli elevati costi di acquisto e di manutenzione (necessità di un’area schermata e di frequenti interventi da parte di personale specializzato). Diverse potenzialità di questo strumento sono sovrapponibili all’elettroencefalogramma (EEG), sebbene la MEG risulta più idonea nello studio di generatori corticali paralleli alla superficie di rilevazione, come nel caso della corteccia uditiva (disposta su un solco del lobo temporale). Elettroencefalografia (EEG) L’elettrodo EEG rileva l’attività di popolazioni di migliaia di neuroni, ovvero la somma spazio-temporale dei potenziali post-sinaptici (più lenti del potenziale d’azione e quindi facilmente sommabili). Le attività neuroelettriche di superficie originano dal III e V strato della neocorteccia, ovvero dalle cellule piramidali che sono disposte radialmente alla superficie consentendo così un flusso di corrente orientato all’elettrodo di registrazione. Così come la MEG (e diversamente dalle tecniche di neuroimmagine), l’EEG è caratterizzato da una elevata risoluzione temporale (nell’ordine dei ms) e una bassa risoluzione spaziale. Spettroscopia nel vicino infrarosso (NIRS) E’ la tecnica più recente di indagine della funzionalità corticale. E’ composto da una serie di sorgenti e detettori disposti su una cuffia o su una fascia (dipende dal numero). La NIRS misura l’ossigenazione tissutale mediante una radiazione ottica: la banda spettrale nel vicino infrarosso. Parte del fotone NIR emesso dalla sorgente viene assorbito dal tessuto, e parte viene rilevato dal detettore secondo una distribuzione detta a banana (banana shape). La distanza fra sorgente e detettore determinerà l’estensione e la profondità dell’area corticale indagata. Le caratteristiche spazio-temporali di questa tecnica ne fanno un buon compromesso rispetto alle tecniche descritte in precedenza: la risoluzione temporale della NIRS è infatti inferiore a MEG/EEG ma superiore alla fMRI, mentre la sua risoluzione spaziale è superiore a MEG/EEG (sebbene limitata alle aree corticali più superficiali) ma inferiore alla fMRI. La NIRS è una tecnica ancora poco diffusa (lo è prevalentemente in Giappone, mentre la diffusione dello strumento in Europa risale agli ultimi anni) e non può essere utilizzata in presenza di capelli e carnagione scure. Il vantaggio principale delle NIRS risiede invece nella insensibilità agli artefatti da movimento, che rende possibile l’applicazione di questa tecnica in studi “sul campo” (ad esempio durante la pratica sportiva). Indici elettrofisiologici periferici Di seguito vengono riportati i principali indici elettrofisiologici periferici associati alla funzionalità del sistema neurovegetativo e muscolare, così come all’analisi dei movimenti oculari. Attività elettrica cutanea L’attività elettrica cutanea è strettamente connessa alle ghiandole sudoripare, la cui caratteristica è di essere innervate da fibre del sistema nervoso simpatico. Di conseguenza, l’attivazione del sistema nervoso simpatico è associata ad una maggiore secrezione di queste ghiandole. Le variazioni dell’attività elettrica della pelle in risposta ad eventi sensoriali o cognitivi vennero inizialmente indicate come «riflesso psicogalvanico». Oggi si tende a distinguere una attività di base o tonica (SCL, skin conductance level), da una attività in risposta a stimoli specifici (SCR, skin conductance response). La conduttanza cutanea viene rilevata mediante elettrodi posti sulla cute, tipicamente sui polpastrelli delle dita, particolarmente idonei alla rilevazione di questo parametro data l’elevata presenza di ghiandole sudoripare. Il segnale psicogalvanico fornisce diverse informazioni quali ad esempio: - Latenza: tempo in cui avviene l’incremento della risposta psicogalvanica (rispetto ad uno specifico evento) o in cui il segnale manifesta la massima attività (risposta di picco) - Ampiezza: potenza del segnale in un dato intervallo o in un punto specifico (ad es la peak response), misurata in micro siemens. - Altri parametri da considerare potrebbe essere il tempo trascorso prima che il segnale ritorni ai valori di baseline dopo l’esecuzione di un test o l’esposizione ad un evento di interesse (es. presentazione di uno stimolo). Sono diversi i contesti di applicazione e sperimentazione della conduttanza cutanea. Nel campo delle emozioni questo parametro viene utilizzato ad esempio per valutare il livello di attivazione simpatica in risposta ad eventi emotigeni, sia in soggetti sani che in gruppi di pazienti: sono numerosi ad esempio gli studi che dimostrano alterate risposte di conduttanza cutanea in individui ansiosi e depressi. Inoltre, è un indice di diffusa applicazione anche nell’ambito dei training con biofeedback, dove viene utilizzato ad esempio per facilitare lo stato di rilassamento. Elettromiogramma (EMG) L’EMG consente di misurare l’attività elettrica associata alla contrazione muscolare. Viene misurata mediante elettrodi (o schiere di elettrodi) di superficie. Nella ricerca neuropsicologica può essere utilizzato come indice di risposta comportamentale (es. misura l’inizio di un movimento in risposta a specifici stimoli) o per lo studio delle contrazioni muscolari in aree di particolare rilievo psicologico (es. i muscoli facciali per le emozioni). Elettrooculogramma (EOG) Elettrodi di superficie che registrano le variazioni di potenziale elettrico durante i movimenti oculari. La parte anteriore dell’occhio è infatti elettricamente positivamente rispetto alla parte posteriore del bulbo, per cui ogni movimento oculare produrrà una variazione di potenziali elettrici rilevabili dall’EOG. In ambito sperimentale è particolarmente usato per lo studio delle saccadi, ad es. nel contesto della percezione, delle strategie cognitive, della lettura e del sonno REM. Le saccadi sono movimenti oculari orizzontali molto rapidi (circa 100 ms). In aggiunta, l’EOG viene utilizzato regolarmente nell’elettroencefalografia (EEG) per monitorare i principali artefatti muscolari di tipo oculare, ovvero quelle attività (muscolari) che non sono di origine cerebrale e costituiscono quindi un elemento di disturbo per il tracciato EEG. Gli artefatti oculari dell’EEG sono prevalentemente due: le saccadi e i blink (ammiccamento palpebrale). Questi ultimi ricoprono talvolta un ruolo funzionale di interesse cognitivo, poiché è stato dimostrato ad esempio che l’ammiccamento può riflettere processi attenzionali orientati al consolidamento di una traccia mnestica. Indici elettrofisiologici centrali Tecniche che consentono di studiare l’attività elettrica del cervello. Le principali sono: - Patch-clamp recording: misura le correnti che attraversano singoli canali ionici presenti nella membrana cellulare. - Single-unit recording: registra l’attività di singoli neuroni in animali vivi. - Elettrocorticografia (ECoG): registra l’attività neuroelettrica mediante elettrodi posizionati direttamente sul cervello. Applicazioni limitate a pazienti epilettici farmacoresistenti per i quali si rende necessario un intervento chirurgico. - Elettroencefalografia (EEG): misura l’attività neuroelettrica mediante elettrodi di superficie. Elettroencefalogramma (EEG) Il posizionamento degli elettrodi Il posizionamento degli elettrodi sullo scalpo risponde ad un preciso sistema detto “sistema internazionale 10-20”. Considerando due riferimenti auricolari, il nasion (in coincidenza dell’attaccatura del naso) e l’inion (protuberanza cranica in sede occipitale), bisogna anzitutto rilevare la lunghezza delle linee sagittale e trasversale, al centro delle quali posizionare l’elettrodo Cz, anche detto elettrodo di vertice (o vertex) in quanto posizionato al centro del cranio. Tutti gli altri elettrodi verranno conseguentemente disposti al 10% o al 20% della distanza totale delle due linee sopra descritte. La misurazione manuale del posizionamento si rende necessaria solo nei casi in cui l’EEG disponga di pochi elettrodi; al contrario, sistemi ad alta densità (es. 64 o 128 elettrodi) dispongono solitamente di una cuffietta entro la quale gli elettrodi sono già collocati nelle rispettive posizioni. Ciascun elettrodo è identificato con una sigla: la lettera iniziale è riferita al lobo sottostante (F per frontale, T per temporale etc.), mentre i numeri dispari indicano l’emisfero sinistro, i pari l’emisfero destro. I numeri crescono all’aumentare della distanza dalla linea mediana, i cui elettrodi vengono indicati con una “z” dopo la prima lettera di riferimento: ad esempio Fz è l’elettrodo fronto-mediale, mentre PO8 è un elettrodo parieto-occipitale destro. L’attività di ciascun elettrodo attivo viene misurata rispetto all’attività rilevata da un elettrodo detto reference (o riferimento): quest’ultimo può essere collocato su un punto elettricamente inattivo (es. mastoidi) o attivo (es. Cz) in base al tipo di montaggio (rispettivamente monopolare e bipolare) che si è deciso preventivamente di adottare. Analisi delle frequenze Uno dei possibili metodi di analisi del segnale EEG è costituito dall’analisi delle frequenze. Secondo la teoria di Fourier ogni segnale periodico può essere considerato come costituito da una serie di onde sinusoidali. L'applicazione della trasformata di Fourier al segnale nel tempo determina la scomposizione del segnale nelle sue componenti di frequenza generando "uno spettro di frequenze". L'ampiezza di ciascuna delle componenti di frequenza indica il contributo di quella componente nel segnale originale. L'energia di una componente di frequenza è calcolata come il quadrato dell'ampiezza. Di seguito viene riportata un’immagine con la rappresentazione delle principali bande di frequenza EEG. Nota che la frequenza viene misurata in Hz, ovvero numero di cicli al secondo (3 cicli/s=3 hz). La potenza del segnale viene invece misurata in micro volt, che indicano il contributo di ciascuna banda di frequenza al segnale originario. Generalmente, l’aumento di Hz si associa alla riduzione di ampiezza: le onde delta sono infatti lente ed ampie, mentre le beta sono veloci e ridotte. Per ciascuna banda di frequenza vengono tipicamente identificati alcuni stati psicofisiologici, così come indicato in figura. I potenziali evento-correlati (ERP, event-related potentials) Un secondo metodo di analisi del segnale EEG consiste nell’estrazione degli ERP, ovvero di potenziali correlati ad un evento di tipo sensoriale, motorio o cognitivo che costituirà il tempo 0 del segnale estratto. Una delle caratteristiche di questo metodo è la procedura dell’averaging (media), che si basa sulla sommazione algebrica del segnale estratto. Si consideri la seguente figura: La somma di diversi potenziali farà si che il segnale finale riporti soltanto le attività evocate (ovvero correlate) all’evento, ovvero consentirà di eliminare ogni altra attività di fondo (o rumore) non associata direttamente all’evento oggetto di interesse. Morfologia degli ERP Gli ERP sono anzitutto caratterizzati da una specifica distribuzione sullo scalpo, oltre che da una particolare morfologia. Gli ERP vengono generalmente (ma non sempre) classificati con una lettera che ne indica la polarità: P (positiva) o N (negativa). In seguito, si attribuisce un numero che ne indica la latenza: ad esempio un potenziale positivo a 100 ms prende il nome di P1 o P100. La latenza e l’ampiezza degli ERP indicano generalmente la velocità e l’intensità di elaborazione del processo di riferimento: ad es. la P1 emerge tipicamente occipitalmente dopo la presentazione di uno stimolo visivo e riflette l’elaborazione dello stesso in corteccia visiva. SCL (slow cortical potentials): un esempio di potenziali lenti di preparazione all’azione I potenziali lenti (o SCL) riflettono generalmente il livello di eccitabilità delle aree sottostanti l’elettrodo di registrazione. Nella seguente figura vengono mostrati dei potenziali lenti di preparazione al movimento: Il tempo 0 coincide in questo caso con la pressione di un tasto (evento motorio). La BP (Bereitschaftspotential) riflette la preparazione motoria della pre-SMA (area motoria supplementare). La BP emerge fino a 2 sec prima dell’esecuzione motoria e, nelle sue fasi precoci, riflette il livello di preparazione motoria, ancora “inconsapevole”, all’esecuzione del gesto. La NS (negative slope) riflette invece la preparazione motoria della corteccia premotoria laterale. Diversamente dalla BP, la NS presenza una maggiore lateralizzazione corticale (controlaterale all’arto utilizzato). Le componenti MP e RAP rappresentano invece degli ERP associati all’esecuzione del movimento, ovvero: MP (motor potential): attività dell’area M1 (motoria primaria) coincidente con l’emissione della risposta motoria. RAP (re-afferent potential): attività della corteccia somatosensoriale controlaterale, correlato al contatto (pressione) del dito sul tasto di risposta. Tipici ERP di un paradigma visivo Di seguito vengono mostrati alcuni ERP “classici”, rilevati in un compito di discriminazione visiva su alcuni elettrodi di riferimento: P1: origine nella corteccia occipitale ventrale (area V4 e giro fusiforme posteriore). Modulata da aspetti «fisici» dello stimolo, oltre che dalla attenzione visuo-spaziale. N1: corteccia extrastriata. Sensibile alla richiesta discriminativa del task. N2: probabile origine nella corteccia cingolata anteriore. Aspetti funzionali sono ancora oggetto di dibattito. P3: diversi generatori corticali. Componente multifattoriale genericamente associata a processi attenzionali. Tradizionalmente gli ERP sono stati suddivisi in esogeni ed endogeni, considerando i primi come “precoci” (entro 100-150 ms dallo stimolo) e i secondi come “tardivi” (oltre i 200 ms). In realtà soltanto gli ERP molto precoci (es. primi 50 ms) riflettono attività puramente esogene, mentre per le altre si riscontra talvolta una combinazione di effetti esogeni/endogeni nella loro modulazione di superficie. Risoluzione spazio-temporale: metodi a confronto Si riporta di seguito una immagine riassuntiva in cui le diverse tecniche di indagine funzionale (metaboliche ed elettrofisiologiche) vengono raffigurate in riferimento a 3 parametri: la risoluzione temporale, la risoluzione spaziale e il grado di invasività.