Medicina di Laboratorio PDF
Document Details

Uploaded by AmazingConnemara8695
Sapienza Università di Roma
Tags
Summary
Questo documento esplora la medicina di laboratorio, focalizzandosi sulla biochimica clinica e l'analisi di campioni biologici. Vengono discussi i diversi tipi di campioni, le finalità diagnostiche e le fonti di variabilità nelle misurazioni cliniche. L'accuratezza e la riproducibilità sono fondamentali.
Full Transcript
LEZIONE 1 Con il termine di MEDICINA DI LABORATORIO si definisce quella disciplina che studia «in vitro» principalmente, ma non solo, in campioni biologici provenienti dall’uomo (ma anche «in vivo»: per esempio spettroscopia a risonanza magnetica nucleare) quei parametri fisico-chimici che possono f...
LEZIONE 1 Con il termine di MEDICINA DI LABORATORIO si definisce quella disciplina che studia «in vitro» principalmente, ma non solo, in campioni biologici provenienti dall’uomo (ma anche «in vivo»: per esempio spettroscopia a risonanza magnetica nucleare) quei parametri fisico-chimici che possono fornire informazioni su processi fisiologici e/o patologici che avvengono nell’uomo stesso a vari livelli d’organizzazione strutturale (sistemi d’organi, di tessuti, di cellule, ed anche di singole molecole -DNA, proteine, ecc-). In tale ambito la biochimica clinica è incentrata sull’analisi di campioni di fluidi corporei, principalmente il plasma e altri fluidi quali urina, liquido pleurico e peritoneale, fluido cerebro-spinale e altri. Sono oggetto degli esami di laboratorio (test, indagini, analisi) i liquidi o i tessuti biologici che costituiscono i sistemi dai quali ricavare informazioni. I liquidi o tessuti prelevati dal paziente sono definiti CAMPIONI e su questi il laboratorio esegue il dosaggio dei vari costituenti, o ANALITI, secondo la richiesta che perviene dal clinico. Sono Campioni biologici: 1. Sangue 2. Urine 3. Feci 4. Liquido sinoviale 5. Liquor cefalo-rachidiano 6. Liquido amniotico 7. Latte 8. Liquidi biologici speciali 9. (ascitico, pleurico, 10. bronchiale, intestinale, peritoneale) 11. Lacrime 12. Sudore 13. Succo gastrico 14. Saliva 15. Succo duodenale 16. Liquido seminale 17. Villi coriali 18. Biopsie Le ultime due sono campioni solidi che per essere analizzati devono subire processi differenti (inclusione in paraffina, taglio e colorazione in base a quello che si vuole andare a detectare). La biochimica clinica è parte integrante della Medicina di Laboratorio che è una scienza multidisciplinare che raggruppa in sé differenti branche della medicina che vengono in questo caso «utilizzate» a fini diagnostici. In particolare: o L’EMATOLOGIA e l’IMMUNOEMATOLOGIA che studiano le cellule del sangue e del sistema immunitario (es. anticorpi), gli organi che formano il sistema ematopoietico e le patologie ad essi collegati. o La MICROBIOLOGIA/VIROLOGIA CLINICA che studia i patogeni di origine batteria e virale e le patologie da questi provocate. o La BIOLOGIA MOLECOARE/GENETICA DI LABORATORIO che studiano gli eventi molecolari e quelli a carico degli acidi nucleici, delle proteine mutate che sottendono le patologie umane, soprattutto di origine tumorale. o La BIOCHIMICA CLINICA che è incentrata sull’analisi di campioni di fluidi corporei, principalmente il plasma e altri fluidi quali urina, liquido pleurico e peritoneale, fluido cerebro-spinale e altri che sono presenti nell’organismo e che possono avere una valenza più o meno in ambito clinico. Da un punto di vista classificativo la biochimica clinica è qualcosa di profondamente diverso rispetto alla biochimica che siamo soliti studiare, difatti la biochimica clinica studia l’effetto della malattia o dei farmaci sui processi biochimici degli organi, dei tessuti e dei fluidi biologici. A differenza della biochimica che ha l’intento di ricavare comportamenti e leggi generali, la biochimica clinica è interessata allo studio del singolo individuo ammalato. A questo scopo utilizza la misura delle eventuali alterazioni riscontrabili nei materiali biologici, per raccogliere dati che abbiano valore di prove semeiologiche, a favore o contrarie, all’ipotesi formulata dal clinico. Le indagini di Laboratorio siano esse di tipo biochimico siano di altra natura (genetiche, emato/immunologiche, microbiologiche) hanno essenzialmente tre FINALITA’: o FINALITA’ DIAGNOSTICHE -Confermare o escludere un sospetto diagnostico del clinico -Per formularne un altro. o FINALITA’ PROGNOSTICHE -nel momento in cui al paziente viene identificata la presenza di una determinata patologia, e viene avviato ad un percorso terapeutico, i dosaggi degli analiti che individuano e caratterizzano quella patologia possono fornire informazioni utili per prevedere il decorso della malattia -quindi essere utilizzate per il monitoraggio terapeutico o del decorso di una malattia o FINALITA’ DI SCREENING -Questi analiti vengono analizzati per fornire informazioni di tipo epidemiologico/statistico e indirizzare eventuali interventi di prevenzione all’interno della comunità Qual è l’utilità della biochimica clinica alla luce di queste tre finalità diagnostiche? o Diagnosi di malattie su base biochimica (errori del metabolismo) o Classificazione e caratterizzazione fisiopatologica di malattie (es. diabete) o Fornire dati per analisi statistiche e/o epidemiologiche o Ruolo nel controllo della posologia dei farmaci o Monitoraggio di farmaci o Rischio lavorativo e tossicologia Trentacinque anni fa George Lundberg introduceva, per la prima volta un concetto molto importante per la medicina di laboratorio, cioè quello del TOTAL TESTING PROCESS e descriveva con il termine di BRAIN-TO-BRAIN LOOP, alcuni degli eventi essenziali che compongono la formazione dell’informazione clinica. Un solo punto del ciclo rappresenta la fase analitica mentre tutti gli altri fanno parte della fase pre- e post-analitica. Con il termine di FASE PRE-ANALITICA si intendono tutti quegli eventi e condizioni che avvengono o si determinano prima dell’analisi del campione e che hanno una qualche relazione con le misure e le loro interpretazioni. Contrariamente a quanto si possa ipotizzare grazie agli avanzamenti tecnici ed all’introduzione di protocolli di valutazione, calibrazione e standardizzazione delle metodiche analitiche, NON è la fase analitica a generare la maggiore variabilità (e possibilità di errore) nell’intero loop che porta dall’ipotesi all’emissione della diagnosi ed all’azione, bensì nelle fasi pre- e post- analitica si «accumula» la percentuale più alta di errori pari all’80% del totale con la fase pre-analitica che da sola rende conto del 60% di tutti gli errori di laboratorio. Negli ultimi anni è consuetudine sempre più diffusa dividere le fasi pre- e post- analitica a loro volta in fasi pre-pre-, pre-, post- e post-post-analitica. La fase PRE-PRE-ANALITICA riguarda tutto ciò che accade prima dell’analisi, ma è AL DI FUORI del laboratorio o al di fuori DEL CONTROLLO del laboratorio; richiesta del test, identificazione del paziente, prelievo e trasporto del campione sono elementi tipici di questa fase. La fase PRE-ANALITICA vera e propria comprende ciò che accade prima dell’analisi ma ricade sotto la responsabilità diretta del laboratorio stesso; trattamento del campione, etichettatura secondaria, centrifugazione e tutti gli altri trattamenti che servono a preparare il prelievo per l’analisi da effettuare, fanno parte di questa fase. La Variabilità della misurazione analitica Quando si ha a che fare con misurazioni di tipo clinico l’ACCURATEZZA e la RIPRODUCIBILITA’ dei dati ottenuti costituiscono requisiti fondamentali per la definizione della diagnosi. Tali fabbisogni si scontrano però con un’intrinseca VARIABILITA’ dei campioni biologici che vengono normalmente utilizzati per le analisi cliniche che variano da persona a persona o per la stessa persona, se quell’analita viene analizzato in situazioni differenti. Quindi bisogna avere da una parte una precisione massima; idealmente analizzando lo stesso campione, si dovrebbe leggere sempre lo stesso risultato; dall’altra ci scontriamo con il fatto che ogni campione ha insita una certa variabilità e non si sa fino a che punto questa non conformità risiede nella diversità individuale o se in qualche modo è stato commesso un errore. Tale Variabilità può essere ricondotta a due tipi principali: o VARIABILITA’ INTRINSECA o PRE-ANALITICA Questo tipo di variabilità è essenzialmente legata al paziente e/o alle modalità di prelievo e conservazione del campione stesso o VARIABILITA’ ANALITICA Questo tipo di variabilità è invece intrinsecamente legata al metodo di analisi utilizzato Variabilità PRE-ANALITICA legata al paziente si divide a sua volta in due tipologie: Esiste una variabilità pre-analitica BIOLOGICA INTER-INDIVIDUALE dovuta essenzialmente alle differenze intrinseche tra i singoli soggetti. Esempi tipici di questo tipo di variabilità sono: -Età -Sesso -Razza -Massa Corporea Vi è, poi una variabilità pre-analitica cosiddetta INTRA-INDIVIDUALE dovuta a stili di vita, uso di farmaci ed altri fattori che determina una variazione del valore di un determinato analita nel singolo individuo da momento a momento. Esempio di questo tipo di variabilità sono: -Assunzione o meno di cibo prima del prelievo (Carico Glicemico) -Tabagismo -Assunzione medicamenti -Attività fisica (ematocrito più basso, intorno al 40-42%) -Postura (Renina ed Aldosterone in Clino- o Ortostatismo) -Ritmi biologici (Cortisolo al max al mattino e al min intorno a mezzanotte) per info Tutte i tipi di variabilità viste sia che si parli di variabilità inter- che intra- possono considerarsi per così dire intrinseche e come tali fanno sono parte integrante del percorso analitico e dell’interpretazione del risultato. La variabilità che si osserva nei valori degli analiti che è basata su questo tipo di fattori non può MAI essere considerata un errore pre-analitico. In altri casi vi sono veri e propri ERRORI che si commettono nella fase pre-analitica (soprattutto nella fase pre-pre-analitica) che portano a variazioni nei valori dell’analita non corrispondenti ad effettive patologie (FALSI POSITIVI o FALSI NEGATIVI). Quindi viene definito ERRORE in medicina di laboratorio "qualsiasi difetto durante l'intero iter diagnostico, dalla prescrizione dell'esame alla sua comunicazione, che possa influenzare in qualsiasi modo la qualità del servizio". Malgrado la fase analitica non ne sia scevra, la letteratura dimostra che la grande maggioranza degli errori in medicina di laboratorio si concentra in attività che precedono (fase preanalitica) o seguono (fase postanalitica) l'analisi dei campioni. In particolare, una percentuale variabile dal 60 al 70% degli errori si concentra nella fase preanalitica, soprattutto nelle attività in cui la componente umana è ancora determinante. In quest'ambito, la raccolta del campione rappresenta la fase più critica di tutto il processo come confermato dalla prevalenza delle non conformità riscontrabili. In particolare gli errori più comuni sono rappresentati da: Errori identificativi Campioni non idonei per tipo o quantità Campioni coagulati Campioni emolisati o lipidemici o itterici Partendo proprio dall’inizio del BRAI-TO-BRAIN-LOOP quali sono questi errori? il primo più semplice è legato all’inappropriatezza della richiesta. Questo tipo di errore pre-pre-analitico, determinato dalla richiesta di un esame non corretto per la patologia sospettata o la mancata richiesta, comporta il rischio di un ritardo o di un mancato riconoscimento di una condizione patologica e della conseguente cura. Da un punto di vista clinico la situazione più grave è la mancata richiesta, però una «over-prescrizione» potrebbe essere altrettanto insidiosa perché oltre a poter non fornire il giusto riconoscimento della patologia e/o a fornire dati confondenti rappresenta anche un danno economico per il SSN. Per la sua natura aleatoria questo tipo di errore non è facilmente quantificabile in termini percentuali. Eventuali contromisure sono la messa a punto di profili diagnostici per patologia, integrando esami con livelli diagnostici successivi e sistemi informatici di richiesta di esami strutturati per problema diagnostico, con sistemi di suggerimento della prescrizione. Ad esempio, se un medico ha un sospetto di celiachia, la prima cosa che fa è quella di prescrivere un test per la valutazione delle IgA totali e per le TG2 che sono enzimi coinvolti nell’assorbimento del glutine. Chi soffre di celiachia ha livelli di anti- TGIgA e Iga totali elevati. Nel momento in cui si effettua l'analisi si possono presentare diverse situazioni: i due marcatori hanno valori normali che tecnicamente sono associati ad un risultato negativo, per cui se il sospetto persiste si può effettuare un biopsia dell'intestino tenue, nel caso in cui le IgA sono normali ma le anti TG2IgA sono elevate sicuramente il paziente è celiaco, mentre se abbiamo valori alterati (più bassi) di IgA e quindi difficilmente si possono individuare anti-TG2IgA, si ricorre ad un secondo test sulle IgG totali in modo da andare sempre alla ricerca delle IgG anti- TG2; anche in questo caso se il test è negativo e il sospetto persiste, si può richiedere una biopsia del tenue. L’errore più importante invece riguarda l’identificazione del paziente o del campione Questo tipo di errore pre-pre-analitico, è forse il più pericoloso tra gli errori di tipo pre-analitico. Si possono confondere due pazienti perché omonimi o con nomi molto simili, perché vicini di letto in ospedale, si possono confondere i documenti di riconoscimento o scambiare le provette destinate al prelievo di due pazienti; questo errore può verificarsi anche a livello post-analitico inserendo i risultati sul file di un altro paziente per gli stessi motivi visti prima. Secondo un recente rapporto negli USA oltre il 72% di questo tipo di errori avviene nel momento in cui si incontra il paziente ed il 36,5% è associato a procedure diagnostiche. Malgrado il lavoro di diverse commissioni deputate alla standardizzazione ed al controllo delle procedure laboratoristiche (standard 15189:2012; Laboratory Errors and Patient Safety – LEPS dell’International Federation of Clinical Chemistry and Laboratory Medicine) questo tipo di errore continua ad essere presente. Poi ci sono situazioni di non conformità in relazione alla richiesta degli esami di Biochimica Clinica Il modulo di richiesta, oltre alle notizie anagrafiche (nome, cognome, provenienza, età, sesso) e nosografiche (struttura clinica di provenienza, medico richiedente di riferimento), deve riportare sia notizie relative al paziente che relative al prelievo, quali: o Il sospetto diagnostico; ciò permette di definire l’urgenza dell’esame (dato che in alcuni laboratori esistono linee analitiche separate per la routine e per le analisi urgenti); inoltre, la conoscenza del sospetto clinico permette anche di prevedere i valori di alcuni analiti, ed effettuare eventuali diluizioni del campione stesso; o L’indicazione dell’eventuale terapia in corso, poiché diversi farmaci possono creare interferenze analitiche con i metodi usati per il dosaggio, oppure possono alterare realmente i livelli ematici di un parametro di laboratorio; o La data e l’ora del prelievo; infatti, per numerosi analiti si possono verificare delle variazioni dei livelli in diverse ore della giornata, in base alla presenza di ritmi circadiani; o Il tipo di indagine da eseguire (prelievo basale, prova da carico, prova funzionale, prova circadiana). Le etichette applicate alle provette devono essere del tipo inasportabile e devono riportare le indicazioni necessarie all’identificazione univoca del paziente e dell’esame richiesto. Nella maggior parte dei laboratori si utilizzano ormai sistemi di identificazione mediante codice a barre, per ridurre gli errori; inoltre, le linee guida internazionali oggi indicano la necessità di usare un doppio codice di identificazione (es. nome e data di nascita, oppure codice fiscale) perché, soprattutto nel caso di indagini di biologia molecolare clinica, può capitare che nella stessa giornata vengano analizzati campioni appartenenti a diversi membri di una famiglia con lo stesso nome. Un altro degli errori da tenere in considerazione è quello che riguarda il tipo di contenitore Questo tipo di errore pre-pre-analitico, si manifesta quando la provetta utilizzata non è conforme al tipo di analisi di laboratorio, il classico esempio è quello della provetta per la conta delle cellule del sangue che contiene anticoagulante, se questo non viene miscelato, si ha la formazione dei coaguli, che visivamente la macchina non riesce a contare mentre micro-coaguli la macchina conta come delle cellule di grandi dimensioni; quindi avremo un’alterazione quantitativa del campione. La più efficace contromisura a questo tipo di errore consiste nella formazione del personale prelevatore e la diffusione della conoscenza del rischio potenziale (anche per l’operatore!!!) derivante dal mescolamento di campione da una provetta all’altra. Ogni analita ha una specifica provetta che viene identificata secondo una relazione cromatica: Il tappo viola è una delle provette più utilizzate in tutte le prove di tipo ematologico, la provetta contiene EDTA, che è un anticoagulante. L’EDTA è un chelante digli ioni calcio, fondamentali nel processo della coagulazione, per cui sottraendo ioni calcio, gli enzimi della coagulazione non vengono attivati. Viene usato per analisi di ematologia e ha un'ampia applicazione per il dosaggio di enzimi quale è ALP e creatin-chinasi. Il Na+ citrato è un anticoagulante che però ha degli effetti reversibili, normalmente viene usato per misurare il tempo di protrombina, tempo di tromboplastina parziale attiva, fibrinogeno e aggregazione piastrinica. NaF è un inibitore enzimatico della via glicolitica e, anche un debole anticoagulante ed infatti alcune volte viene usato in associazione con l’EDTA. È usato quindi per le analisi della glicemia L’ossalato funziona un po’ come l’EDTA, chelante del calcio, ha un’ampia applicazione, ma non viene utilizzato per l’ematocrito, calcio ed enzimi quali: ALP, ACP, LDH e può causare precipitazioni di Sali di ossalato Nelle provette dove non c’è nulla, il sangue coagula. È presente all’interno un gel che, una volta avvenuta la coagulazione, si va a porre tra la parte liquida e quella coagulata, facilitando il prelievo di plasma o di siero. Se devono essere effettuate diverse analisi, in che ordine dovrebbe essere analizzato il prelievo, cioè da quale provetta partire? Secondo degli standard americani bisogna incominciare da quelle a tappo giallo o nero dove non c’è nulla o quelle azzurre dov’è presente sodio-citrato, quindi quelle destinate alla coagulazione. Poi man mano utilizzare quelli con gli anticoagulanti perché se restassero, sul dispositivo, delle tracce di anticoagulante potrebbe andare a contaminare le provette successive. Proseguendo con la carrellata di errori, troviamo la campionatura insufficiente Questo tipo di errore pre-pre-analitico affligge in modo particolare i prelievi pediatrici, ma può rilevarsi in tutte le altre tipologie di pazienti, sia per difficoltà di accessi venosi sia per le difficoltà tecniche di prelievo, che può portare a un insufficienza nella misurazione di tutte le analisi richieste dal clinico. Esistono diverse possibili contromisure a questo tipo di errore: È possibile dare priorità ad alcuni esami omettendo di eseguire quelli non strettamente necessari all’accertamento diagnostico. È possibile usare metodiche alternative che fanno uso di volumi minore di campione di partenza; in questo caso dovrà essere specificato il metodo alternativo in refertazione. Se l’analita da dosare è presente in elevate concentrazioni è possibile diluire il campione di partenza in fisiologica o tampone opportuno. In questo caso è necessaria la massima attenzione poiché la diluizione aumenta l’imprecisione e, soprattutto, esistono analiti che sono chimicamente «incompatibili» con i normali tamponi che possono essere utilizzati per diluire i campioni. Altro problema importante è la presenza di coaguli all’interno del campione Si definisce CAMPIONE COAGULATO il campione ematico raccolto in PROVETTE CONTENTI ANTICOAGULANTE (EDTA, NA-Citrato, Ossalato) che presenta micro- o macrocoaguli visibili. Questo tipo di errore NON E’ RISOLVIBILE e di fatto rende impossibile l’esecuzione di una conta cellulare precisa (Emocromo, tipizzazione linfocitaria etc.) e di un test coagulativo dove i fattori della cascata coagulativa devono necessariamente essere sotto forma di ZIMOGENO1. La coagulazione di un campione avviene essenzialmente per due motivi: difficolta di campionatura o prelievo prolungato nel tempo che si traduce in un prelievo in cui non sono rispettati i rapporti sangue/anticoagulante e mancato mescolamento del campione all’interno della provetta subito dopo il prelievo, per far in modo che l’anticoagulante si distribuisca omogeneamente all’interno del campione. Di gran lunga uno dei più diffusi problemi è l’emolisi, quindi un campione emolisato Viene definita EMOLISI come la rottura dei Globuli Rossi causata dal flusso turbolento del sangue nell’ago o nelle attrezzature deputate al prelievo ed è definita dalla presenza di emoglobina libera nel siero o nel plasma A CONCENTRAZIONI SUPERIORI A 0,30 g/L. L’emolisi dà luogo al rilascio di contenuti intracellulari come enzimi cellulari, potassio, magnesio e fosfato, quindi se bisogna dosare queste ioni all’interno del nostro prelievo, l’analita risentirà degli ioni rilasciati dai globuli rossi e ne risulterà alterata. Inoltre, l’emoglobina libera provoca interferenza in molti metodi di dosaggio. Cause di emolisi sono: -L’utilizzo di aghi con diametro troppo sottile, che genera un flusso turbolento che va a creare una pressione fisica/meccanica sulla membrana del globulo rosso, che si rompe e rilascia il suo contenuto nel plasma o nel siero. -Togliere la provetta prima che sia stata riempita, si creano sempre queste turbolenze -Eseguire un prelievo con la siringa e travasare il sangue nelle provette sottovuoto espellendolo dalla siringa con ago innestato. -Incompleto riempimento della provetta per esami coagulazione. -Uso di provette con anticoagulanti o conservanti non idonei. 1 In biologia, qualsiasi precursore cataliticamente inattivo di un enzima: condizioni per il prelievo Il gauge è l’unità di misura dell’ago, un numero piccolo vuol dire un ago con diametro grande e vicevrsa L’Emolisi rappresenta la prima causa di non accertabilità nei laboratori clinici. Anche se esiste un’emolisi «patologica» (o intravascolare) dovuta a patologie quali l’anemia emolitica, questa rappresenta meno del 2% di casi di emolisi. Nel resto di casi si parla di emolisi extravascolare dovuta a problemi che intervengono durante e dopo il prelievo venoso. È stato riportato che l’uso di dispositivi tipo «Butterfly» sia per la presenza di un ago di diametro minore sia per la presenza del tubo di raccordo all’interno del quale si possono formare micro-vortici determina un maggior grado di emolisi del campione. Sono quindi da preferirsi dispositivi a «Camicia» con aghi da 20G o 21G. Da non sottovalutare ancora è la contaminazione/diluizione da infusione venosa Un’altra fonte di errore di campionatura è, nel caso di pazienti ospedalizzati e sottoposti ad infusione venosa, operare in prelievo in prossimità del catetere o direttamente a partire da esso. Se questo, difatti, è meno fastidioso per il paziente può portare ad una diluizione del campione di sangue prelevato con conseguente alterazione dei valori ematochimici. Errore dovuto ad un campione lipemico Dopo l’emolisi il campione lipemico o TORBIDO, rappresenta la seconda causa più frequente di campionatura non idonea. Elevate concentrazioni di lipidi interferiscono otticamente nelle analisi spettrofotometriche. La lipemia può essere identificata ad occhio ma può essere anche quantificata spettrofotometricamente a 660/700 nm. È possibile ovviare a questo errore trattando il campione per eliminare l’eccesso di lipidi, ad esempio, centrifugando il campione e sostituendo il siero iper-lipidemico con un egual volume di fisiologica. Tuttavia, questo tipo di procedura deve essere attentamente valutata perché se ad es. è adatta per un esame emocitometrico non può essere effettuata prima di una conta piastrinica. Per gli analiti distribuiti nello strato lipidico non è possibile effettuare la rimozione ma si può provare con la diluizione. Campione itterico I campioni itterici appaiono colorati intensamente di giallo e contengono elevate concentrazioni di bilirubina. La bilirubina può interferire chimicamente nelle reazioni analitiche, causando in genere sottostime delle misure (es. colesterolo, creatinina, isoenzimi della creatinchinasi etc.) o disturbando con gli spettri di assorbanza, nelle misure spettrofotometriche. Grossee contro misure su un campione itterico non se ne possono introdurre. Vi è poi una variabilità (ed errori legati a una non corretta esecuzione), sempre di tipo PRE- ANALITICA, legata alla preparazione e conservazione del campione e sono: -Tempo di conservazione -Temperatura -Esposizione alla luce -Sterilità I provvedimenti adottabili, in base anche al tipo di saggio che si scegli di utilizzare, per garantire una conservazione ottimale dei campioni consistono sostanzialmente nella scelta di opportune condizioni quali: o Temperatura di conservazione o Conservazione al buio o Liofilizzazione o Modificazione del pH (es. acidificazione o alcalinizzazione per aumentare la stabilità di determinati enzimi) o Aggiunta di sostanze (es. anticoagulanti) Andando ad analizzare questi fattori, per quanto riguarda la temperatura sebbene sia diversa in relazione ai differenti parametri, per la maggioranza degli analiti si raccomanda una temperatura di conservazione tra 10 e 22 °C, perché la maggior parte degli analiti sono stabili anche a temperatura ambiente e a quella corporea. Temperature sopra i 35 °C devono essere evitate in quanto alte temperature accelerano il deterioramento dei costituenti ematici. Se non appropriatamente imballato, anche il trasporto ad una temperatura inferiore agli 0 °C deve essere evitato poiché all’interno delle cellule si possono formare dei cristalli che vanno a romperne la membrana, e quindi nel momento dell’analisi le cellule risultano danneggiate o morte (elevata fonte di emolisi). A Tª ambiente però ci sono alcune variazioni che devono essere considerate: Decremento del glucosio (Per 2h a 23 °C diminuzione del 10% della concentrazione). La perdita di concentrazione aumenta in patologie quali le leucocitosi Aumento del fosfato Aumento dell’ammonio a 15’ Diminuzione del folato a 30’ Alterazione delle Vitamine B6 e B12 A 4ºC invece il discorso risulta più semplice in quanto significherebbe mantenere il campione in una condizione termostatata e quindi avere però questi problemi: Diventa instabile il fattore VII della coagulazione (il campione deve essere mantenuto a Tª ambiente) A temperature inferiori ai 4 °C o superiori ai 30 °C vi è aumento del rilascio di ioni potassio dagli eritrociti Gli anticorpi possono alterare la conta cellulare eseguita in ematologia quale conseguenza della loro forte sensibilità alla temperatura di conservazione Per quanto riguarda il fattore tempo, le linee guida americane indicano un tempo massimo di 2 ore dal prelievo nel caso di sangue intero (non centrifugato) o campione urinario per mantenerne inalterata la stabilità. Altri lavori di ricerca indicano accettabile il tempo massimo di 4 ore per la maggior parte degli analiti se conservati alla temperatura massima di 22-23 °C. I campioni urine (V. dopo) possono essere conservati previa refrigerazione se il tempo massimo previsto supera le 4 ore. Di norma, si può considerare di eseguire gli esami routinari da 30min a 6 ore dal prelievo basta che vengano conservati. A seconda degli analiti da quantificare anche altri fattori possono inficiare o alterare le letture. Il più importante di questi fattori e l’Esposizione alla luce. In particolare, è necessario evitare assolutamente l’esposizione alla luce, sia artificiale sia naturale (raggi ultravioletti) per alcune analisi: Estremamente critico per la bilirubina Importante per : – Vitamina A e B6 – Beta-carotene – Porfirine In questi casi è richiesto il trasporto in contenitori ambrati o rivestiti con alluminio. Per quel che riguarda la modalità di trasporto il Gold Standard è quello di trasportare le provette contenti i campioni di sangue in posizione VERTICALE alloggiati in appositi portaprovette alloggiati in appositi contenitori di trasporto per evitare eventuali sversamenti ed eventualmente operare un trasporto a temperatura controllata. In questo modo: Si evita l’Emolisi nella provetta Si facilita la coagulazione nelle provette senza anticoagulanti Si evita l’eventuale rottura delle provette Nel caso di prelievi destinati all’analisi microbiologica (emo- ed urinocoltura in primis ma anche ad esempio tamponi oro-faringei, prelievi fecali etc. etc.) oltre alle precauzioni già viste in termini di stabilità del campione (di sangue) tempi e temperature di trasporto, sono necessarie delle ulteriori accortezze. In particolare per evitare che un campione possa essere identificato come FALSO NEGATIVO o FALSO POSITIVO è necessario: - Assicurare la presenza del germe stesso in quantità adeguata e vitale in modo che possa essere coltivato ed identificato (FALSO NEGATIVO) - Evitare la presenza di germi contaminanti che non sono la causa della malattia e, portare a terapie antibiotiche inutili se non controproducenti (FALSO o «ALTERATO» POSITIVO) Effettuare il prelievo nella sede anatomica di infezione o meglio, identificare correttamente, al momento dell'immatricolazione, il materiale e l'esame da effettuare La raccolta dei campioni deve avvenire prima dell’inizio della terapia antibiotica; Se il paziente sta assumendo antibiotici o li ha assunti recentemente (entro 6 giorni) e necessario segnalare quale antibiotico assume, il suo dosaggio e da quanti giorni dura la terapia Il campione deve essere in quantità adeguata, non servono campionature multiple sulla stessa sede (es 2 tamponi da ulcera), ne basta uno raccolto correttamente, in quanto si potrebbe andare incontro a contaminazione di microbi che nulla hanno a che fare con il patogeno di interesse. La raccolta deve essere effettuata sterilmente evitando: ◦ Contaminazione esogena coi germi presenti nell'ambiente o sull'operatore che raccoglie il campione: se il tampone prima o dopo il prelievo, tocca il tavolo, il letto o qualsiasi altra superficie non sterile, va sostituito con un nuovo tampone sterile ◦ Contaminazione endogena cioè con la flora normalmente residente in alcuni distretti corporei che può inquinare il materiale al momento della sua emissione o durante il prelievo: toccare col tampone solo la sede da campionare, ad esempio una ulcera cutanea, se il tampone tocca anche la cute del paziente il campione va riprelevato. Utilizzare i contenitori adeguati e correttamente conservati: se la confezione non è integra il tampone non è più sterile e non va utilizzato. L’invio ed il trasporto dei campioni devono avvenire in tempi e modi che non alterino le caratteristiche microbiologiche del materiale prelevato. La conservazione prolungata può causare la morte dei batteri meno resistenti, oppure causare lo sviluppo di alcune specie a spese di altre. Il trasporto dei campioni diagnostici è una variabile critica, a crescente impatto sulla qualità e sulla sicurezza della fase preanalitica. La corretta gestione dell’attività di conservazione e trasporto dei campioni diagnostici è oggetto di diverse delibere regionali, normative e standard di riferimento nazionali ed internazionali (Circolare Min.Sal. n. 3/2003, ISO 15189, ADR 2007, OMS). Tali indicazioni evidenziano la necessità di intervenire sulle seguenti criticità: - Modalità di trasporto - Temperatura di trasporto - Tempo di trasporto Se un campione prelevato non è trasportato ad una temperatura adeguata, ad es. troppo caldo o troppo freddo, e/o non rispettando altre condizioni specifiche (ad es. mantenimento del contenitore primario in posizione verticale al fine di facilitare la formazione del coagulo ed evitare l’emolisi del campione) i risultati forniti dal laboratorio potrebbero risultare alterati, comportando una diagnosi errata ed un trattamento inappropriato del paziente. Esiste poi la variabilità ANALITICA legata alle «fluttuazioni» sperimentali intrinseche all’esecuzione del saggio stesso, per quanto venga utilizzato un sistema accreditato, sensibile, specifico e riproducibile, le variazioni tra una misura e l’altra rientrano in un errore statistico. Sono esempi di questo tipo di variabilità: -manualità dell’operatore che effettua il dosaggio (operatori diversi hanno manualità diverse che influiscono sulla misurazione) -Apparecchiatura utilizzata (modelli diversi forniscono letture differenti ma anche macchine diverse dello stesso modello possono, se non tarate adeguatamente, fornire letture non concordanti) -Materiale di consumo (es. cuvette per spettrometria, supporti per elettroforesi, etc, etc.) -Kit di misurazione (variazione nella sensibilità tra kit differenti per la misurazione dello stesso analita e variabilità da un lotto all’altro dello stesso kit) In definitiva tutte queste variabili riconducibili alla variabilità analitica della misurazione, influiscono sulla PRECISIONE del metodo di misurazione. La PRECISIONE di un metodo di misurazione può essere definita come il grado di concordanza tra differenti misurazioni indipendenti in condizioni sperimentali definite. La precisione normalmente viene espressa da un punto di vista «statistico» come DEVIAZIONE STANDARD, VARIANZA (quadrato della Dev. Std.) e DEVIAZIONE STANDARD RELATIVA o COEFFICIENTE DI VARIAZIONE. Nella valutazione delle prestazioni analitiche (e di conseguenza per valutare la variabilità analitica), si distinguono TRE tipi di precisione: RIPETIBILITA’ (PRECISIONE ENTRO IL RUN): è la precisione in condizioni sperimentali che minimizzano il più possibile le fonti di variabilità (STESSO laboratorio, metodo, strumento e operatore, STESSE condizioni operative, misurazioni effettuate in un BREVE intervallo di tempo). PRECISIONE INTERMEDIA (PRECISONE ENTRO IL LAB.): è la precisione che si misura in condizioni sperimentali ben definite (stesso laboratorio, metodo, strumento, misurazioni effettuate in un intervallo di tempo ESTESO con DIVERSI calibratori, operatori e/o lotti di reagenti). RIPRODUCIBILITA’: precisione al variare di differenti condizioni (DIVERSI laboratori, operatori, strumenti etc.). La RIPETIBILITA’ in particolare viene soggetta a rigorosi controlli per stabilire la robustezza di un determinato metodo. In questo caso il laboratorista prima di utilizzare un metodo di analisi validato da soggetti terzi (ad es. la ditta produttrice di un determinato kit) esegue un rapido controllo di verifica «in loco». Anche se sono riportati diversi disegni sperimentali in letteratura viene considerato sufficientemente rapido ed attendibile uno schema cosiddetto 5x5: vengono effettuate 5 repliche (misurazioni indipendenti dello stesso campione) per 5 giorni; in altri casi (ad es. in metodi non ancora validati) possono essere effettuate un numero minore di repliche (ad. es. duplicati) ma per un numero maggiori di giorni (SCHEMA 2x20), il numero di repliche che si possono effettuare dipende principalmente dai risultati ottenuti, se si ottengono dei risultati non conformi si potrebbe pensare di aumentare la numerosità del campione e vedere se rientrano in valori di precisione. Il protocollo di verifica della ripetibilità prevede le seguenti fasi: - Selezione dei campioni, che in alcuni casi dipende anche da quello che è riportato nel kit, se ad esempio un determinato kit è più appropriato per la scansione di una patologia su un soggetto sano piuttosto che su uno malato, si preferisce il sano - Analisi dei campioni (5 campioni per 5 giorni = 25 letture) con il metodo da testare - Trattamento di eventuali dati aberranti ed eventuale integrazione con nuove misurazioni fino ad ottenere la numerosità desiderata - Calcolo della ripetibilità E alla fine si verifica quanto dichiarato dal produttore La verifica di norma andrebbe fatta utilizzando almeno 2 controlli o utilizzando un «pool» di pazienti, con concentrazioni vicine sia ad eventuali valori decisionali, sia a quelle utilizzate dalla ditta produttrice nella fase di validazione e che di norma sono riportate nella scheda tecnica del kit. Quando tra le misurazioni si osservano una o più misurazioni che si discostano significativamente dal valore medio (valori estremi o ABERRANTI) è necessario eseguire un test statistico per dati aberranti, dopo aver controllato che tali valori non siano frutto di errori nella processazione del campione. Esistono diversi test in grado di identificare la presenza di valori estremi, tra i quali il test di Dixon-Reed, il test di Grubbs, il test di Huber ed il metodo di Horn. Il test di Grubbs Il più intuitivo di questi è il test di Grubbs dove viene calcolato un coefficiente in funzione del valore massimo (o minimo) da analizzare come aberrante, la media e la deviazione standard secondo le formule: Media-max Gmax= media - min dev.std. Gmin= dev.std. Dove G è il coefficiente in funzione del presunto valore aberrante massino (max) o minimo (min), media la media delle misurazioni e dev. std. la deviazione standard. Se il valore di G calcolato è maggiore di un determinato valore critico che dipende dalla numerosità del campione ed è riportato in tabelle in letteratura, il dato viene considerato aberrante. In letteratura ci sono delle tabelle che in base alla numerosità del campione preso in analisi, predisporrà dei valori critici per il test di Grubbs; quindi, facendo un paragone tra i risultati ottenuti e quelli riportati in tabella, saprò quando il valore che ho ottenuto di Gmax e Gmin è aberrante o meno al 99.9%, al 99,95%, al 99,975, al 99,98% ecc. se il valore ottenuto è superiore ad ogni valore riportato in letteratura allora parliamo di un valore aberrate. Esempio: Gmax per 25 campioni=3,41 (valore aberrante) Gmin per 25 campioni=1,77 (valore non aberrante) LEZIONE 2 TECNICHE SEPARATIVE A seconda del tipo di analisi cellulare da effettuare (Emocromo, Formula Leucocitaria, analisi di sottopopolazioni leucocitarie o di popolazioni rare) deve essere valuta la necessità o meno di separare la componente corpuscolata del sangue da quella serica ed eventualmente separare (o eliminare) le diverse popolazioni cellulari (eritrociti, leucociti, linfociti, monociti, granulociti), in base anche a quello che è lo scopo diagnostico o di ricerca a cui è rivolto quell’indagine. L’utilizzo di metodiche separative non ha soltanto valenza diagnostica ma anche (in alcuni casi soprattutto) una valenza «preparativa». In altri termini separare una determinata popolazione cellulare permette poi il suo utilizzo in vitro o in vivo come «componente purificato». Estendendo questo concetto dalle cellule alle loro componenti è possibile, attraverso tecniche separative basate su differenti tipi di centrifugazioni non solo separare le cellule ma anche i loro componenti (nuclei, organelli come mitocondri, lisosomi, perossisomi etc. etc.). Nel caso di determinazioni di analiti serici invece è praticamente sempre necessario separare (eliminare) la componente corpuscolata perché questa interferirebbe con le misurazioni che si basano, principalmente, su analisi di tipo spettrometrico. Applicando metodiche di separazione più “raffinate” anche in questo caso è possibile separare i vari componenti della frazione serica. Nel caso più semplice, quello dell’enumerazione delle diverse componenti corpuscolate del sangue periferico (emocromo) e delle diverse popolazioni leucocitarie (formula), ma anche ad es. per l’allestimento di uno striscio di sangue, viene utilizzato sangue intero. Evitare uno step di separazione in analisi di questo tipo serve ad evitare la perdita di cellule durante il passaggio di separazione che altererebbe il numero e/o la percentuale di una o più popolazioni cellulari dando luogo a possibili falsi positivi o falsi negativi. Poiché la tecnica di separazione per antonomasia è la Centrifugazione e, tra le varie frazioni della componente corpuscolata quella di dimensione minore è data dalle piastrine, quest’ultima rappresenta anche quella che più risentirebbe di alterazioni del numero o della percentuale. Evitare di introdurre nella processazione del campione dei passaggi di centrifugazione, che possono comportare della perdita di materiale, non è fondamentale solo per evitare «distorsioni» nel valore della misurazione ma in alcuni casi diventa di fondamentale importanza. È questo il caso di alcuni tipi di indagini diagnostiche dove si ricercano quelli che vengono definiti EVENTI RARI (ad esempio delle cellule rare che circolano nel sangue periferico). Quindi utilizzare sangue intero non frazionato in questo caso non solo è consigliabile ma di fatto è una SCELTA OBBLIGATA per evitare di perdere quei pochi eventi rari di cui si sta andando alla ricerca, emettendo così un referto di (Falsa) negatività. In alcuni casi, quando per una determinata analisi si vuole andare a valutare la presenza, ad esempio, delle cellule nucleate del sangue, la componente più preponderante, che è costituita da globuli rossi, rappresenta un intralcio. Senza dover ricorre a centrifugazione ed eliminando allo stesso tempo il rumore di fondo dato dalle cellule che non sono di nostro interesse, è possibile sfruttare caratteristiche chimiche che definiscono e caratterizzano una popolazione cellulare rispetto alle altre. I globuli rossi oltre ad essere elementi corpuscolari del sangue che non hanno al loro interno il nucleo cellulare, sono anche particolarmente sensibili agli ambienti IPOTONICI e pertanto incubando il sangue intero in tamponi Ipotonici (ad es. 1,7m NH 4Cl, 0,1M KHCO3, EDTA, pH 7.4) i globuli rossi vengono lisati mentre i leucociti rimangono intatti. Attraverso questo passaggio in cloruro di ammonio è possibile isolare i leucociti quando si utilizzano applicazioni in cui, l’elevato numero di eritrociti nel sangue, causerebbe una interferenza nella lettura. LA CENTRIFUGAZIONE La centrifugazione è un metodo di separazione che consente di separare sostanze a diversa densità e in base anche alle diverse proprietà fisico-chimiche dei vari analiti, per mezzo della forza centrifuga. In una centrifuga, le provette sono sottoposte ad una rotazione ad altissima velocità. A causa della rotazione, le particelle nella miscela sono sottoposte ad un’intensa accelerazione centrifuga, che può equivalere anche a molte migliaia di volte la accelerazione di gravita (indicata con g). si tratta di un contenitore a tenuta stagna, all’interno del quale c’è un motore collegato ad un perno, sul quale gira ad una velocità che può variare da poche rotazioni per minuto, fino a velocità altissime, un rotore. I rotori possono essere di due tipi: ad angolo fisso, in cui normalmente le provette sono inclinate rispetto all’asse di rotazione di un certo angolo, il pellet che si forma si va a depositare a lato della provetta, per cui diventa un pochino più difficile purificarlo dal sovranatante ma uno dei sui più importanti vantaggi e che può essere portato a velocità molto elevate; oppure dei rotori in cui esistono degli alloggiamenti per le provette che sono incardinate al corpo centrale del rotore e, nel momento in cui questo inizia a ruotare su se stesso, le provette, per forza centrifuga, vengono portare in posizione orizzontale, e quindi vengono centrifugate con un angolatura di 90° rispetto all’asse di rotazione, il pellet che si forma si va depositare sul fondo della provetta per cui è più facile purificarlo dal sovranatante ma non può essere portato ad elevate velocità di centrifugazione altrimenti rischia di sfasciarsi. Quelle più moderne oltre ad una camicia che contiene del refrigerante che permette di centrifugare a temperature più basse, infatti alcune centrifughe non devono essere effettuate a temperature ambiente ma a 4°, può essere presente una pompa che aspira l’aria e crea il vuoto nella camera di centrifuga in modo da abbassare le resistenze, dovute all’attrito dell’aria, e quindi far aumentare la possibilità di velocità della centrifuga, in modo da portare alla velocità di quelle che vengono definite ultracentrifughe (100-150.000 giri per effettuare delle centrifughe preparative di componenti subcellulari). Che cos’è una g? quando il rotore gira si applica un’accelerazione centrifuga alle provette che viene espressa rispetto all’accelerazione di gravità; equivale a dire quante volte ruota rispetto all’accelerazione di gravità. Misurazione più precisa ed è quella che richiedono le riviste scientifiche. Rpm è più impreciso perché varia al raggio del rotore della centrifuga che si sta utilizzando; quindi, di norma un protocollo quando da un’indicazione sul numero di giri che deve fare la centrifuga dovrebbe specificare anche il raggio del rotore della centrifuga. In che modo varia la velocità della particella quando si trova in soluzione nella provetta che è soggetta a centrifugazione? L’equazione fondamentale (LEGGE DI STOKES) che descrive la velocità di sedimentazione di una particella in sospensione, sottoposta ad una accelerazione centrifuga è la seguente: non studiare la formula v = velocità terminale della particella rP = raggio della particella (rP - rM)= differenza tra la densità della particella (r P) e quella del mezzo in cui e sospesa w = velocità angolare della centrifuga (in radianti/secondo) r = distanza tra la particella e l’asse di rotazione h = coefficiente di viscosità del mezzo (f / f0) = rapporto di attrito, cioè il rapporto tra il coefficiente di attrito f della particella ‘reale’ (la cui forma non è perfettamente sferica) ed il coefficiente di attrito per una particella perfettamente sferica e non idratata, f0. (In pratica, si tratta di un fattore di correzione che tiene conto della diversa forma e delle diverse caratteristiche superficiali delle particelle). In termini pratici questo significa che una particella sedimenterà tanto più velocemente quanto più grande sarà la sua dimensione, la velocità angolare ed il raggio del rotore e, quanto più bassa sarà la viscosità ed il “rapporto di attrito”. Poiché, inoltre, il raggio della particella, il coefficiente di viscosità del mezzo ed il rapporto di attrito sono variabili indipendenti dall’operatore, è possibile operare una separazione per centrifugazione “lavorando” sulle altre variabili: VELOCITA’ (e TEMPO DI CENTRIFUGA) RAGGIO DEL ROTORE (Rotori di diversa grandezza) DIFFERENZA DI DENSITA’ (densità del solvente all’interno del quale si trovano le particelle) TEMPO Ed è questo che fa la differenza sui vari tipi di centrifugazione che si possono effettuare. Se volessimo fare un discorso classificativo sui diversi tipi di centrifugazione, distinguiamo una centrifugazione PREPRATIVA (che è quella più frequente) e una centrifugazione ANALITICA la C. PREPARATIVA è utilizzata per estrarre/purificare/isolare da una sospensione, componenti da sottoporre ad analisi successive, ed è tipicamente utilizzata per SEPARARE cellule, frazioni subcellulari, organelli, virus, membrane o macromolecole. la C. ANALITICA viene utilizzata per conoscere le componenti e le caratteristiche di molecole o particelle ed è tipicamente utilizzata per lo studio di caratteristiche di sedimentazione di MOLECOLE PURIFICATE. In generale, i metodi preparativi possono essere utilizzati su scala diversa, adattandosi a quantità molto grandi o molto piccole di materiale di partenza, mentre quelli analitici utilizzano quantità piuttosto limitate perché normalmente quello che viene utilizzato è già stato purificato a monte. Nella situazione più semplice di centrifugazione, definita DIFFERENZIALE, la provetta contenente il sangue o in generale il campione eterogeno viene posta nella centrifuga, per un tempo x e ad una certa velocità ed i componenti si separeranno principalmente in base alla loro dimensione e densità. A Z Campo centrifugo Solvente Particelle piccole Particelle medie Particelle grandi Tempo di centrifugazione All’inizio le particelle sono distribuite uniformemente nel mezzo (A), alla fine (Z) sono sedimentate in funzione delle loro dimensioni e della loro densità, quindi le più grandi sul fondo e le più piccole verso l’alto, fino ad arrivare alla superficie dov’è presente solo il solvente. Perché viene chiamata differenziale? Perché consiste in uno step successivo di complessità ma è anche una possibilità maggiore di purificazione e si compone di diversi step di centrifugazione, dove viene aumentato sia il tempo che le velocità di centrifugazione. La centrifugazione differenziale sfrutta la differente velocità di sedimentazione di particelle di diverse dimensioni e densità. Le diverse componenti vengono separate mediante tappe di centrifugazione successive, aumentando gradualmente il campo centrifugo applicato (RCF rpm). In questo modo, ad ogni tappa, si ottiene un sedimento contenente uno specifico tipo di particelle, ed un sopranatante contenente quelle non ancora sedimentate. In questo modo vengono separate le varie componenti cellulari. Ad esempio: pochi minuti a 1000 g sono sufficienti a far sedimentare cellule intere, mentre valori di RCF progressivamente più elevati sono necessari per far sedimentare nuclei, membrane e organelli, vescicole. RCF molto più elevati sono necessari per la sedimentazione di ribosomi e altri componenti multi-molecolari. La centrifugazione in gradiente di densità sfrutta differenze di dimensioni, forma e/o densità delle particelle da separare. Il gradiente di densità viene preparato a partire da diversi tipi di soluti, caratterizzati da buona solubilità, non tossicità e purezza; i più comunemente usati sono: Sali di minerali pesanti, come il CLORURO DI CESIO, attualemnete non più utilizzati perché altamente tossica per l’operatore Piccole molecole organiche come il SACCAROSIO Polimeri sintetici come il FICOLL, più utilizzato Silice colloidale come il PERCOLL Quello che avviene una volta che vengono aggiunte queste sostanze è la formazione del gradiente di densità all’interno del tubo da centrifuga, che può avvenire durante la centrifugazione (GRADIENTE AUTOFORMATO), o prima (GRADIENTE PREFORMATO). In questo caso, il gradiente può essere di tipo CONTINUO, se la densità del soluto cresce in maniera graduale lungo il tubo da centrifuga, o di tipo DISCONTINUO, se la densità cresce in modo discontinuo per effetto della stratificazione di soluzioni di densità crescente La Centrifugazione ZONALE La centrifugazione zonale consiste nella sedimentazione delle particelle in ZONE discrete. E’ usata per la separazione di particelle di densità simile ma di massa diversa come organelli, subunità ribosomali, ibridi RNA –DNA, proteine. Trattandosi di un metodo dinamico, la durata della centrifugazione deve essere sufficiente a determinare la separazione delle componenti, ma inferiore al tempo necessario alla completa sedimentazione sul fondo della provetta. Tecnicamente si procede attraverso: la formazione di un gradiente di qualunque tipo, preformato continuo/ discontinuo, autoformato, di densità MINORE delle particelle da separare (ad esempio di saccarosio), su cui viene messo il campione. Viene mandata la centrifuga e si genererà una stratificazione del campione sul gradiente; le cellule si fermeranno là dove la loro densità equivale o è minore di quella del gradiente. Non è una tecnica all’equilibro in quanto dipende dal tempo che viene imposto di centrifuga, difatti un tempo eccessivo di centrifugazione porterebbe con sé tutte le cellule sul fondo, perdendo così il risultato. La Centrifugazione ISOPICNICA Discorso contrario deve essere fatto per la centrifugazione isopicnica, si tratta in una centrifugazione all’equilibrio, che consiste nel portare ogni componente della miscela ad un livello corrispondente alla propria densità (figura A). Si tratta quindi di una tecnica che separa le particelle di una miscela esclusivamente in base alla densità, e non in base alla forma ed alle dimensioni. Una volta raggiunto l’equilibrio, questo non viene alterato dal tempo di centrifugazione. il gradiente viene allestito utilizzando una soluzione la cui densità massima DEVE ESSERE SEMPRE SUPERIORE a quella di tutte le particelle da separare, anche quelle più grandi. Quindi le particelle si andranno a posizionare là dove la loro densità corrisponde alla densità del gradiente, di conseguenza dato che per definizione la densità del gradiente sarà sempre superiore, anche se la centrifuga viene mandata per un periodo di tempo maggiore, le particelle rimarranno sempre lì poiché si tratta di un metodo all’equilibrio. Non si preferisce usare questo tipo di metodologia poiché per avere una sostanza che ha una densità massima sempre superiore a quella delle particelle da separare, bisognerebbe fare ricorso a quei metalli o sali di metalli pesanti che sono tossici per l’operatore. A Z Particelle piccole Campo Particelle medie che si vogliono separare Particelle grandi La centrifugazione zonale viene utilizzata per separare le componenti del sangue. Nella situazione più semplice la provetta contenente il sangue o in generale il campione viene posta nella centrifuga ed i componenti si separeranno principalmente in base alla loro dimensione; avremo quindi una provetta formata per il 50% da globuli rossi, bianchi e piastrine; per il resto da un componente liquida, siero o plasma che contiene acqua, sali e tutte quelle proteine plasmatiche tipiche. Centrifugando il sangue intero contenente anticoagulanti a velocità adeguate (3000/4000 G) è possibile separare il siero/plasma dalla componente corpuscolata. Inoltre, poiché nella componente corpuscolata esistono cellule anucleate (globuli rossi) che sedimentano più rapidamente e cellule dotate di nucleo (globuli bianchi), si ha la formazione di tre strati visibili: -zona gialla=plasma -zona bianca= buffy-coat che contiene i globuli bianchi -zona rossa= globuli rossi, che scendono più in basso perché rispetto ai bianchi hanno densità minore Il «Buffy Coat» pur essendo una frazione arricchita in globuli bianchi (Linfociti, Monociti e Granulociti) contiene comunque una frazione «contaminante» costituita da piastrine e globuli rossi. Utilizzando dei reagenti specifici è possibile non solo eliminare queste contaminazioni ma anche operare una prima separazione all’interno della frazione leucocitaria. Il più utilizzato di questi reagenti è il FICOLL un copolimero sintetico ramificato di alto peso molecolare molto idrosolubile, sintetizzato a partire da saccarosio e epi-cloridrina che permette non solo di separare globuli bianchi e globuli rossi ma anche di operare una separazione all’interno, di almeno un paio di categorie di globuli bianchi. Tecnicamente il sangue proveniente da un prelievo effettuato in presenza di anticoagulante viene stratificato, diluito in soluzione fisiologica (B), su un volume (in inglese si usa il termine «cushion», cuscino) di Ficoll (F). La provetta viene successivamente centrifugata a velocità opportuna (800 G). Al termine della centrifuga gli Eritrociti che aggregano grazie alle sostanze contenute nel Ficoll precipitano sul fondo della provetta (R), i granulociti che possiedono una densità più alta rispetto a quella del Ficoll rimangono intrappolati all’interno del cuscino mentre sulla parte superiore del cuschino si forma uno strato («anello», W) contenente i cosiddetti PBMC o Cellule mononucleate del Sangue Periferico dall’inglese «Peripheral Blood Mononuclear Cells» costituiti da Linfociti e Monociti. Qual è il concetto teorico su cui si basa il separamento su Ficol? A seconda della densità di Ficoll utilizzato si ottiene la separazione di Linfociti e Monociti dai globuli rossi e dai granulociti. In questo caso viene utilizzato un Ficoll con densità di 1,084 g/ml. Utilizzando un Ficoll di densità più bassa (1,073 g/ml) è possibile arricchire la preparazione cellulare in monociti ed altre cellule come le cellule staminali. Il principio della separazione è basato sulla densità delle diverse popolazioni di globuli bianchi: Linfociti: 1,077 g/ml Monociti: 1,084 g/ml Date le loro densità i Linfo/Mono non sono in grado di entrare nel cuscino di Ficoll (1,084) avendo una densità minore o uguale a quella del Ficoll, quindi formando al di sopra di esso un «anello» costituito da queste cellule (PBMC). Questo permette l’isolamento di una frazione ARRICCHITA e CONCENTRATA di PBMC. I linfociti con una densità superiore a 1,073 (da 1,073 a 1,077) entrano nel cuscino di Ficoll (1,073) di conseguenza l’anello che si viene a formare sarà ARRICCHITO (NON PURO!) in cellule staminali, poiché sono quella classe di cellule che presenta una densità che oscilla in questi range (1,073-1,077). I granulociti e i globuli rossi ,che si trovano, rispettivamente nello strato di ficol e nel pellet, riescono ad oltrepassare il cuscinetto di Ficol perché i granulociti hanno una densità maggiore e quindi entrano nel Ficol mentre i globuli rossi, no avendo il nucleo, dovrebbero avere una densità minore ma dato che all’interno della soluzione ci sono altre sostanze, quali coagulanti, che determinano la coagulazione degli eritrociti e determinano la formazione del coagulo, il globulo rosso acquista una densità maggiore di 1,84 e sprofonda andando a formare il pellet. Come detto, i PBMC sono costituiti da Monociti e Linfociti. Inoltre, esistono diverse classi di Linfociti che non possono essere separati in base alla loro dimensione o densità come i Linfociti T ed i Linfociti B. In questo caso non è possibile ricorrere a sostanze come il Ficoll per separare queste cellule... Come posso separare (PURIFICARE) i Linfociti dai Monociti o i Linfociti T dai Linfociti B? Si ricorre alla proprietà delle cellule (tutte le cellule e di conseguenza anche quelle del sangue) di esprimere sulla loro superficie delle proteine specifiche che per questo vengono definiti MARCATORI e vengono identificati con la sigla CD seguita da un numero (ad es. CD1, CD2, CD3 etc. etc.), e alcuni di questi marcatori sono espressi da una ed una sola popolazione. I Monociti esprimono, ad esempio, il marcatore CD14 mentre i Linfociti T esprimono il marcatore CD3 ed i linfociti B i marcatori CD19 e CD20. Vengono quindi utilizzati degli anticorpi che riconoscono questi Marcatori e che sono legati a delle microsfere (più piccole delle cellule) di materiale PARAMAGNETICO (che si magnetizza quando posto in un campo magnetico come quello generato da una calamita) (ferro). Tecnicamente le biglie rivestite dell’anticorpo, che hanno un ordine di grandezza in nm (200-450nm), specifico per il Marcatore che vogliamo selezionare (ad esempio il CD14 per purificare i monociti) vengono aggiunte al sangue intero (o anche ai PBMC ottenuti dopo il Ficoll). Il campione è poi posto in una colonna anch’essa formata da materiale paramagnetico ed inserita in un magnete. Solo le cellule cui sono legate le biglie (quindi nel nostro esempio le CD14 positive) resteranno intrappolate nella colonna mentre le altre verranno eliminate. Dopo aver lavato la colonna le cellule eluite saranno altamente purificate per il marcatore. Questo tipo di strategia purifica le cellule riconosciute POSITIVAMENTE dall’anticorpo che ricopre le biglie e viene per questo definita SELEZIONE POSITIVA. Il vantaggio di questo tipo di strategia è quello di ottenere delle preparazioni molto pure (99%), la limitazione è data dalla possibile attivazione delle cellule dovuta all’interazione tra anticorpo e marcatore di superficie che potrebbero interferire su un possibile studio di attivazione cellulare. Quindi per sopperire a questo problema che cosa si fa? Utilizzando lo stesso tipo di tecnologia è possibile anche «marcare» con le biglie tutte le cellule indesiderate intrappolandole nella colonna e facendo eluire dalla colonna solo le cellule non riconosciute (che in questo caso sono quelle di nostro interesse). Questo tipo di strategia viene definita SELEZIONE NEGATIVA, perché l’anticorpo viene utilizzato per individuare la popolazione cellulare indesiderata. Vantaggi e svantaggi sono opposti alla selezione positiva. Oggi questo tipo di tecnologia di purificazione di popolazioni cellulari, anche rare, viene effettuata nei Laboratori di ricerca (ricchi!) ed in quelli di clinica (Ematologia) in maniera parzialmente o totalmente automatizzata ed asettica (preparazione di cellule da reinfondere nel paziente). ELETTROFORESI Per separare le cellule (o organelli di queste) è possibile utilizzare delle tecniche separative di centrifugazione, ma nel caso delle macromolecole qualsiasi metodo di separazione fisica è spesso inefficace (soprattutto ma non solo nel caso delle proteine). Si ricorre perciò a tecniche di tipo chimico e la più utilizzata è l’ELETTROFORESI. La prima metodica elettroforetica è stata messa a punto, nel 1937, da Arne Tiselius, un pioniere in questo campo, premio Nobel nel 1948, ed è stata definita elettroforesi in FASE LIBERA. Il principio su cui si basano tutte le tecniche elettroforetiche è la migrazione, attraverso un mezzo liquido e/o solido, e sotto l’impulso di un campo elettrico, di particelle dotate di cariche, ioni o polielettroliti. Molte molecole biologiche (aa, peptidi, proteine, DNA,RNA) hanno gruppi ionizzabili e pertanto ad un determinato pH esistono in soluzione come specie cariche elettricamente, cationi (+) e anioni (-) che, sotto l’azione di un campo elettrico migrano al catodo o all’anodo. Un alimentatore fornisce un flusso di corrente continua agli elettrodi applicati alla cella elettroforetica. I cationi migrano verso il catodo (-) e gli anioni verso l'anodo (+) a una velocità che dipende dall'equilibrio tra la forza di spinta del campo elettrico e le forze frenanti (frizionali ed elettrostatiche) esistenti tra ioni e mezzo circostante. Quindi, la migrazione è DIRETTAMENTE proporzionale alla carica netta di una molecola, (che dipende dal proprio punto isoelettrico e dal pH del mezzo), ed INVERSAMENTE proporzionale alle dimensioni. Il PUNTO ISOELETTRICO (pI) è il valore di pH al quale una molecola presenta carica elettrica netta nulla. Un ulteriore classificazione può essere fatta in base al supporto, che deve essere sempre in contatto con il tampone di corsa. Questo nell‘ELETTROFORESI ORIZZONTALE può essere fatto con ponti costituiti da carta da filtro o garza (a meno che il supporto del campione non sia già la carta). In alternativa, in un SISTEMA VERTICALE, si immerge direttamente il gel nel tampone in modo da permettere direttamente il passaggio di corrente attraverso il gel. Quando l'elettroforesi è condotta su un supporto, i componenti del campione migrano come bande o "zone" distinte che, al termine della corsa, possono essere rivelate mediante opportune tecniche analitiche. Questo metodo prende, quindi, anche il nome di ELETTROFORESI ZONALE. I supporti comunemente usati per l'elettroforesi sono: Cellulosa, su supporto solido Acetato di cellulosa, su supporto solido Silice (gel) Amido (gel) Agarosio (gel) Poliacrilamide (gel) Sephadex (gel) L’elettroforesi di proteine utilizza di norma supporti costituiti da gel di poliacrilammide (PAGE) che separano le proteine in base alle dimensioni ed alla carica delle molecole, l’applicazione utilizzata prende il nome di SDS-PAGE, dove si ricorre all’utilizzo di SDS che è una sostanza che si aggiunge nel gel e all’interno dei campioni che ha una importante funzione. È un supporto molto usato perché ha una porosità omogenea e riproducibile e che può essere variata dall’operatore, in base anche a quelle che sono le proteine da studiare, se ad esempio bisogna individuare proteine a basso peso molecolare si deve preparare un gel molto concentrato che presenta delle maglie molto strette, un gel così fatto però non permetterebbe di separare le proteine ad alto peso molecolare per cui a secondo a secondo del tipo di proteina da studiare si va a modificare la concentrazione del gel di poliacrilamide. Il gel di poliacrilamide è un copolimero cross-linked della acrilamide. Il gel si prepara per polimerizzazione di una soluzione di un monomero monofunzionale, l'acrilamide (CH2=CH-CO-NH2), e uno bifunzionale, la N,N'-metilen-bis-acrilamide (CH2=CH-CO-NH-CH2-NH-CO- CH=CH2). La polimerizzazione avviene per mezzo di una reazione a catena dovuta all'aggiunta di ammonio persolfato (APS) e della base N,N,N',N'-tetrametiletilendiammina (TEMED). Il TEMED catalizza la decomposizione dello ione persolfato con la produzione del corrispondente radicale libero. In questo modo si formano catene di acrilamide tenute insieme da legami crociati di bis-acrilamide che va a formare i ponti tra le diverse linee di acrilamide. Si forma una vera e propria rete molecolare, formata da linee e da colonne (che sono dovute dal rapporto tra acrilamide e bis-acrilamide). Variando la quantità di reagente per preparare il gel o utilizzando delle soluzioni con diverse percentuali di Acrilamide-Bis o diversi rapporti è possibile ottenere gel più o meno concentrati e con un maggiore o minore potere di risoluzione. Ciò permette di utilizzare questo tipo di matrice sia per separare Acidi Nucleici sia Proteine a basso o alto peso molecolare. si possono scegliere soluzioni in cui il rapporto tra acrilamide e bis-acrilamide è 19:1/29:1/37,5:1, queste proporzioni stanno ad indicare che in ogni soluzione si avranno 19/29/37,5 molecole di acrilamide e per ogni molecola di bis- acrilamide. Aumentando le concentrazioni aumenterò il numero di linee di acrilamide ma la quantità di colonne, che è data dal rapporto di acrilamide e bis-acrilamide, rimarrà lo stesso. La prima soluzione ha un più alto potere risolutivo e quindi utilizzata per separazioni più precise Nell’elettroforesi in presenza di SDS, le proteine sono denaturate mediante l’aggiunta del detergente, sodio dodecil solfato (SDS) che denatura le proteine conferendo a tutte una carica netta negativa, [CH3-(CH2)10- CH2-OSO3-] Na+. Interagisce con le proteine in un rapporto costante di circa 1,4 g SDS ogni g di proteina. Le cariche negative dell’SDS mascherano la carica intrinseca della proteina conferendo a tutte un rapporto carica/massa simile. La separazione avviene quindi mediante filtrazione su gel ESCLUSIVAMENTE in base alla massa delle proteine [per info: in base conformazione della proteina, se consideriamo la stessa sequenza aa ripiegata in due modi differenti, quella più compatta migrerà più velocemente di quella meno compatta perché quest’ultima tende ad occupare più volume, avrà più forze di resistenza, più attrito del gel]. Una volta migrate le proteine si andranno a disporre nel seguente modo: le proteine più grandi in alto, quelle medie al centro e le più piccole in basso, il gel ottenuto potrà essere colorato con un colorante che colora le proteine, che in alcuni casi, dà anche dei risultati molto sensibili ma che da un certo punto di vista sono di difficile interpretazione perché se si vogliono andare ad individuare delle specifiche di quella proteina e, quindi saranno necessari l’utilizzo di anticorpi, e dato che gli anticorpi non sono in grado di entrare nel gel, risulta conveniente ottenere una «copia speculare» del gel su membrana (nitrocellulosa o PVDF) che è un supporto più lavorabile. Si parla in questo caso di TRASFERIMENTO come durante l’elettroforesi, viene applicata una ddp che determina la migrazione delle proteine dal polo negativo a quello positivo, in modo che le proteine si trasferiscano sulla membrana. Esistono due tipi trasferimento: WET, in cui il sistema di trasferimento viene immerso completamente in una camera elettroforetica, normalmente in posizione verticale, disposto in modo tale che le proteine vadano verso il polo positivo. Ci sono anche dei sistemi SEMI- DRY in cui tutto l’apparato viene montato in orizzontale, il tampone viene utilizzato in quantità molto limitata, serve solo a bagnare la nitrocellulosa o le carte da filtro che vengono utilizzate per far entrare in contatto il tampone di trasferimento con il supporto; il tutto viene pressato in modo da permettere il trasferimento. Per quanto riguarda i coloranti che colorano il gel c’è ne sono di diversa natura e sensibilità, il più sensibili utilizzato sul gel è il nitrato d’argento, che mette in evidenza proteine dell’ordine di 1-2 ng, poi abbiamo il blu di coomassie che ha una sensibilità più bassa (50-500ng) ed è una colorazione che permette di individuare, almeno su quelle notevoli, le differenze tra un campione e l’altro, infine si possono fare delle colorazioni anche sulla nitrocellulosa e viene utilizzato il rosso Ponceau che ha una sensibilità ancora più bassa da 100 a 1000ng e viene utilizzato per avere un idea dell’avvenuto trasferimento delle proteine Qualora si voglia analizzare solo una data proteina e si ha a disposizione un anticorpo capace di riconoscerla, la tecnica di rivelazione di gran lunga più sensibile e specifica è quella dell’IMMUNOBLOT. In questo caso la membrana di nitrocellulosa “copia” del gel viene incubata con una soluzione contenete l’anticorpo che riconosce la proteina di interesse, questo anticorpo oltre alla proteina potrebbe riconoscere anche altri siti (siti a-specifici), andando a falsare l’analisi; per cui il passaggio all’iimunoblot è preceduto da una saturazione con proteine non rilevate, che possono essere: albumina, proteine del latte. Sono sistemi differenti che vanno a saturare tutti siti di legame. Successivamente un secondo anticorpo riconosce il primo, il secondario è accoppiato ad un enzima che sviluppa una reazione in genere di chemioluminescenza (es. Perossidasi di Rafano). L’aggiunta del substrato determina SOLO laddove presente l’enzima (dove quindi è presente la proteina di interesse) lo sviluppo di luce capace di impressionare una lastra autoradiografica. Questo tipo di tecnica può avere un’applicazione anche dal punto di vista diagnostico, esempio: Il Western Blot per HIV consiste di una sottile striscia di nitrocellulosa sulla quale sono immobilizate le proteine che sono espresse unicamente da HIV1 e/o HIV2. Ogni proteina di HIV è identificata da una sigla fromata da p (per proteina) e da un numero che ne indica il peso molecolarein Kda (ad es. p24 è la proteina di 24 kDa che forma il core proteico del virus mentre la gp120 è la glicoproteina di 120 kDa che cosituisce una parte del recettore virale). Il siero del paziente viene fatto reagire con la striscia e se nel siero sono contenuti anticorpi anti-HIV questi si legano alle proteine “blottate” sulla striscia. Attraverso una reazione colorimetrica la positività viene rivelata. Recentemente l’uso sempre più diffuso di metodiche di rilevazione fluorescente (maggiormente sensibili sia di quelle colorimentriche che di quelle basate sulla chemioluminescenza) permette di rivelare le proteine utilizzando anticorpi marcati con fluorofori che emettono un segnale quando eccitati da una sorgente laser. Il segnale Fluorescente è più stabile di quello di Chemoluminescenza che decade rapidamente. Utilizzando anticorpi primari e Fluocromi differenti è possibile rilevare diverse proteine contemporaneamente (Multiplex). Mediante SDS-PAGE è possibile determinare la massa molecolare delle proteine, tramite l’utilizzo di marker che sono delle miscele costituite da frammetti di proteine a peso molecolare noto, che ci permettono di confrontare il campione ottenuto con quello noto. È possibile costruire quindi, rette di calibrazione utilizzando proteine con peso molecolare noto. La mobilità relativa (migrazione) è in questo caso direttamente proporzionale al logaritmo della sua massa molecolare. Un'altra applicazione diagnostica dell’elettroforesi è quello sull’acetato di cellulosa; pur essendo una metodica meno risolutiva rispetto ai gel di poliacrilamide ed agarosio, riveste un ruolo in ambito clinico per la valutazione delle proteine del siero ed altre specifiche applicazioni. Il campione viene posto sulla superficie del supporto di acetato di cellulosa che è imbibito del tampone di corsa a pH 8.6. Successivamente viene applicata la differenza di potenziale. ↓ Metodica relativamente veloce con buona applicabilità in campo diagnostico/clinico (test rapidi), in 15 minuti si ha la separazione delle classi principali di siero-proteine Questa analisi riveste una notevole valenza in ambito diagnostico perché serve a sviluppare il tracciato classico delle immuno-proteine sieriche, che possono rappresentare un indice prognostico per una determinata patologia che riguarda le cellule che producono le immunoglobuline ISOELETTROFOCALIZZAZIONE Tutte le tecniche di separazione elettroforetica precedentemente illustrate prevedono la separazione delle proteine SOLO in funzione del loro peso molecolare neutralizzando la carica propria delle proteine dovuta ai gruppi laterali degli AA. carichi positivamente o negativamente. In realtà le proteine possono essere anche separate in base alla loro carica utilizzando supporti (solidi o gel) che contengono miscele di ANFOLITI, sostanze capaci di formare un gradiente di pH, si applica poi la ddp che fa migrare le proteine, le quali giunte al proprio PUNTO ISOELETTRICO, assumono carica nulla e quindi non migrano più nel campo elettrico. Ed è quello che viene utilizzato nei gel 2D, si fa avvenire una prima separazione nei gel che contengono gli anfoliti, in funzione del PH, poi alle proteine ottenute separate si aggiunge SD, in modo da caricarle tutte con la stessa carica e si fanno migrare su un altro gel, in funzione solo ed esclusivamente del peso molecolare. Poiché mutazioni puntiformi delle proteine possono avere un effetto sul punto isoelettrico (e quindi sulla migrazione in IEF) introducendo o eliminando AA con gruppi polari carichi negativamente o positivamente, questo tipo di tecnica ha anche una valenza diagnostica. È il caso ad es. dell’ANEMIA FALCIFORME in cui l’emoglobina presenta una mutazione in posizione 6 in cui un GLUTAMMATO (AA carico NEGATIVAMENTE) è sostituito da una VALINA (AA APOLARE). Il risultato è una minore migrazione verso il polo positivo della forma mutata rispetto a quella WT. Un’altra applicazione diagnostica è quella legata al test della sclerosi multipla, in cui ancora una volta si utilizzano questo tipo di gel per studiare le diverse isoforme delle immunoglobuline presenti nel siero dei pazienti e nel corrispettivo liquido cefalo rachidiano. Nel test vengono confrontate le IgG presenti nel liquor (C) e nel siero (S) dello stesso paziente e quindi, dopo la migrazione su gradiente di anfoliti, viene effettuato un blotting su membrana e quindi uno sviluppo di colore. Dal confronto della corsa effettuata in parallelo di liquor e siero si possono attendere 5 profili: Tipo 1: bande assenti nel siero e nel liquor (4) Tipo 2: bande assenti nel siero e presenti nel liquor (1,3,5) Tipo 3: bande presenti nel siero ma presenti nel liquor in quantità maggiore (2) Tipo 4: bande presenti nel siero e presenti in modo identico nel liquor Tipo 5: componente monoclonale IgG nel siero e nel liquor CROMATOGRAFIA (tecnica preparativa) Il processo della cromatografia (dal greco chòma, colore e gràphein, scrivere) si basa su interazioni tra una miscela di sostanze da frazionare sciolte in un liquido (FASE MOBILE) ed una matrice solida porosa o sottoforma di gel o resina (FASE STAZIONARIA). La cromatografia fu introdotta da Tswett nel 1903 che separò i pigmenti solubilizzati da piante usando sostanze adsorbenti solide. Venne usato una colonna di vetro riempita con particelle di argilla o una fase stazionaria costituita da materiale granulare (gel di silice, allumina attiva, etc.) adeso su una lastrina di vetro (cromatografia su strato sottile). L’eluente utilizzato era etere di petrolio. La cromatografia più semplice ancora una volta prevede la capacità/caratteristica delle macromolecole che ad un determinato PH possono essere caricate negativamente o positivamente, quello che si fa è costituire una colonna cromatografica; quindi, costituire una fase solida costituita da molecole che sono cariche + o -, le resine che sono cariche positivamente andranno ad agganciare gli anioni e viceversa. Dopo di che si possono scegliere tra le diverse opzioni i modi per eluire dalla colonna le molecole: si può sfruttare la competizione per i siti di legame con altri gruppi ionici aumentando la concentrazione di sale dell’eluente. In alternativa è possibile variare il pH per modificare lo stato ionico delle molecole legate. Un'altra applicazione di cromatografia è quella per gel filtrazione. Nella cromatografia per gel filtrazione (esclusione molecolare o setaccio molecolare) le molecole sono separate in base alle loro dimensioni e alla loro forma. La fase stazionaria è formata da granuli di gel contenenti pori di dimensioni variabili. All’interno di queste colonne le molecole GRANDI percorrono la colonna PIU’ RAPIDAMENTE, passando tra gli spazi che si trovano tra un poro ed un altro, quelle di PICCOLE dimensioni attraversano i pori entrando nei granuli. L’ultimo tipo di cromatografia e se vogliamo anche quello più efficace per portare a purificazione completa una determinata frazione della fase solubile di interesse, è la cromatografia per affinità. Nella cromatografia per affinità una molecola (ligando) che si lega specificamente alla proteina di interesse, è legata covalentemente alla matrice inerte della fase stazionaria. Tutto ciò che non si lega alla resina verrà eluito e rimarrà soltanto la proteina bersaglio nella colonna cromatografica, che viene recuperata variando la forza ionica del tampone in modo tale da far venir meno le interazioni che normalmente avvengono tra ligando e proteina o antigene/anticorpo,( interazione di tipo elettrostatico), oppure possono essere utilizzate delle sostanze, dei competitori per il sito di legame. A differenza degli altri tipi di cromatografia non si basa sulle differenze nelle proprietà fisiche delle molecole da separare, ma sfrutta le interazioni altamente specifiche delle molecole biologiche. LE TECNICHE SPETTROSCOPICHE Una parte molto importante della Biochimica Clinica è basata sullo studio e sulle misurazioni effettuate sulla base delle interazioni tra la materia, che nel caso specifico è costituita dal campione da analizzare, e radiazioni” emesse da una sorgente di varia natura. Nella stragrande maggioranza dei casi tali radiazioni sono di tipo ELETTROMAGNETICO (luminoso), che ci permettono di quantificare o di avere informazione relativamente al campione in analisi, caratterizzare che cosa è contenuto all’interno del campione o dosare l’analita che ci interessa nel campione. Una radiazione Elettromagnetica può essere rappresentata sotto una duplice forma: o Come un'onda elettromagnetica (natura ondulatoria): che si propaga sotto forma di perturbazione periodica di un campo elettrico e di un campo magnetico, perpendicolari l’una all’altra o Come un “pacchetto discreto”: una particella priva di massa e con carica elettrica nulla definita FOTONE o QUANTO DI LUCE (natura corpucolare), il fotone all’interno della materia ha una propagazione ondulatorio/a spirale Benché i due tipi di rappresentazione possano sembrare separati e non correlati esistono, invece, delle precise correlazioni tra le grandezze misurate “elettromagneticamente” e quelle misurate in maniera “corpuscolare”. Le onde elettromagnetiche possiedono infatti delle caratteristiche tra loro correlate quali LUNGHEZZA (distanza tra due creste), FREQUENZA AMPIEZZA, PERIODO e VELOCITA’ DI PROPAGAZIONE e questo tipo di caratteristiche sono riassunte in una legge ben definita, in cui la lunghezza d’onda è inversamente proporzionale alla frequenza; quindi, più è piccola la 𝛌 più volte l’onda passa lungo l’asse (più alta è la frequenza) a meno di una costante c. 𝐜 𝛌= 𝐯 Dove c’è la Velocità della luce (3x108 m/s) A sua volta l’ENERGIA di ciascun fotone è proporzionale alla FREQUENZA della l’onda elettromagnetica e, quindi, per quello appena visto anche alla LUNGHEZZA d’onda, a meno sempre di un costante h (costante di Plank). La relazione tra energia di un fotone e frequenza elettromagnetica è data dalla formula: E=h Dove h è la COSTANTE DI PLANK e la frequenza. In seguito a quanto detto bisogna fare delle considerazioni, siccome ogni onda elettromagnetica (quindi ogni lunghezza d’onda luminosa) ha una frequenza fissa e la costante di Plank è per sua stessa natura costante, OGNI FOTONE emesso da quella radiazione ha LA STESSA ENERGIA. Una data radiazione, quindi, è più o meno intensa SOLO SE PORTA PIU’ O MENO FOTONI. Poiché esiste una correlazione inversa tra frequenza e lunghezza d’onda (ad alte frequenze corrispondono basse lunghezze d’onda e viceversa) anche l’energia contenuta nei singoli fotoni è inversamente proporzionale alla lunghezza d’onda. Di conseguenza le basse lunghezze d’onda sono caratterizzate da alta frequenza e maggiore energia dei loro fotoni mentre le alte lunghezze d’onda sono caratterizzate da basse frequenze e minore energia dei loro fotoni. Esistono in natura diversi tipi di radiazioni elettromagnetiche che differiscono per la loro lunghezza d’onda e, di conseguenza per la loro frequenza e la loro energia “fotonica”: Le radiazioni elettromagnetiche che “interessano” principalmente il campo della Biochimica Clinica sono quelle che coprono lo spettro della LUCE sia visibile che non (tipo radiazioni UV) che rappresentano solo una piccola parte dello spettro elettromagnetico da 400 a 800 nm. Alle diverse radiazioni che differiscono per la loro lunghezza d’onda (e, quindi, per la loro frequenza e l’energia dei loro fotoni) corrispondono i vari colori. Come un oggetto colorato ad es. di rosso è in grado di assorbire tutte le radiazioni corrispondenti agli altri colori e riflettere solo quella del Rosso così un qualsiasi campione da analizzare interagisce se “colpito” da una luce di determinata lunghezza d’onda e, come l’oggetto colorato è in grado di assorbire e trasmettere parte di quella luce. L’analisi spettrofotometrica consiste proprio nella misurazione di tali onde elettromagnetiche emesse o assorbite dalla sostanza in esame, nel nostro caso il campione biologico. In particolare: - L’analisi dello spettro permette di individuare LA SOSTANZA IN ESAME, che ha un tipico spettro di assorbimento - La misura dell’intensità, ad una determinata lunghezza d’onda, delle radiazioni emesse o assorbite, permette di risalire alla QUANTITA’ DI SOSTANZA ANALIZZATA Come avviene questo assorbimento/emissione a livello molecolare? Gli atomi e le molecole che compongono la sostanza, trovandosi in un campo energetico (come i campi elettromagnetici ma anche elettrici o di calore…) sono in grado di assorbire quantità DEFINITE e CARATTERISTICHE di energia passando a livelli energetici più alti, e passa da uno stato fondamentale ad uno eccitato: S + energia= S*(stato eccitato). Sulla rilevazione e misurazione dell’energia (E=h ricordi?) dei fotoni assorbiti si basa la SPETTROSCOPIA DI ASSORBIMENTO. Tecniche di questo tipo sono la SPETTROFOTOMETRIA e la COLORIMETRIA. Sulla rilevazione e misurazione dell’energia (E=h di nuovo) emessa dalla materia quando le sue molecole tornano allo stato fondamentale, si basa la SPETTROSCOPIA DI EMISSIONE. Tecniche di questo tipo sono la FLUORIMETRIA e la FOSFORIMETRIA. Nelle APPLICAZIONI ANALITICHE tutto ciò si riflette in una misurazione accurata e quantitativa poiché: - La LUNGHEZZA D’ONDA delle radiazioni emesse/assorbite sono caratteristiche delle sostanze analizzate: questo permette una misurazione QUALITATIVA (cos’è contenuto nel mio campione?) - L’INTENSITA’ delle radiazioni emesse/assorbite, ad una determinata lunghezza d’onda permette di dare una valutazione della quantità di una data sostanza contenuta nell’analita permettendo così una misurazione QUANTITATIVA. Un esempio concreto può essere quello delle misurazioni delle proteine. Gli AMMINOACIDI che compongono le proteine non sono colorati, quindi per quello detto fin qui sul colore delle sostanze, non assorbono/emettono radiazioni elettromagnetiche nello spettro della LUCE VISIBILE. Ma assorbono tutti la LUCE UV (ultravioletta) caratterizzata da una lunghezza d’onda superiore ai 220 nm. Questo avviene perché alcuni AA sono caratterizzati, nella loro catena laterale da anelli aromatici (fenilalanina, tirosina e triptofano), che hanno la caratteristica di assorbire la luce UV a lunghezze d’onda comprese tra 240 e 320 nm. Per effettuare ANALISI QUALITATIVE si fa uso di raggi policromatici a spettro continuo. Le singole radiazioni monocromatiche di tale raggio si fanno passare, una alla volta, attraverso la sostanza in esame, la quale assorbirà in modo diverso, cioè con diversa intensità, le diverse radiazioni. Riportando perciò in un grafico i valori registrati di assorbimento in funzione della lunghezza d'onda, si ottiene lo SPETTRO DI ASSORBIMENTO della sostanza esaminata. Per il fatto che OGNI SOSTANZA HA IL SUO SPETTRO di assorbimento, l'esame di tali spettri permette di IDENTIFICARE una sostanza (per confronto diretto con campioni noti o tramite banche dati di spettri) o di controllarne il GRADO DI PUREZZA. Per eseguire ANALISI QUANTITATIVE si fa uso di raggi monocromatici. Le determinazioni quantitative sono basate sul fatto che, quando una radiazione attraversa una soluzione, viene assorbita più o meno intensamente in funzione della concentrazione. Appositi dispositivi sono in grado di misurare l'intensità del flusso luminoso ed in particolare: o I0: intensità del flusso luminoso all'ingresso della cella con il campione (RADIAZIONE INCIDENTE); o I: intensità del flusso luminoso all'uscita della cella con il campione (RADIAZIONE TRASMESSA). Dalla misura di I0 e I gli strumenti forniscono direttamente i valori di TRASMITTANZA e ASSORBANZA, che rappresentano le grandezze caratteristiche della spettroscopia di assorbimento. Il rapporto tra l'intensità del raggio uscente e quella del raggio entrante viene definita TRASMITTANZA data, quindi, dalla formula: T = I/I0 Questa grandezza esprime quale frazione della luce incidente ha attraversato il campione senza essere assorbita. T può, quindi, assumere valori compresi tra 0 e 1. È 0 quando non c’è luce trasmessa quindi il campione assorbe tutta l’energia; è 1 quando non c’è assorbimento e quindi tutta l’energia viene trasmessa per cui l’intensità della luce che esce è uguale a quella che entra. L' ASSORBANZA, detta anche DENSITA’ OTTICA o ESTINZIONE, è definita come: A = -log T A = log 1/T Trasmittanza e assorbanza sono adimensionali (numeri, senza unità di misura). L’assorbanza viene utilizzata nelle analisi quantitative poiché risulta direttamente proporzionale alla concentrazione, secondo quella che è la legge di Lambert-Beer. Prendendo in considerazione una cella, contenente una sostanza in soluzione, attraversata da un raggio di luce monocromatica, si dimostra che: A = elC dove: A=Assorbanza (adimensionale) e=Coefficiente di assorbimento molare, caratteristico della sostanza (mol-1 L cm-1) l=Cammino ottico (cm), cioè lo “spessore” della soluzione, che di fatto è costante C=Concentrazione molare della sostanza (mol/L) L'equazione A = elC rappresenta una retta passante per l'origine degli assi in cui el è il coefficiente angolare. Il DNA, ad esempio, presenta un picco di assorbimento a 260 nm di lunghezza d'onda. Quando un raggio di luce a tale lunghezza d'onda colpisce la soluzione di DNA, una parte di energia di tale raggio viene assorbita dalle basi azotate del DNA, così dalla cuvetta uscirà un raggio di minore intensità rispetto a quello incidente. A questa lunghezza d'onda viene misurato il valore di Assorbimento per calcolare la concentrazione del DNA. Per il DNA, utilizzando cuvette di 1 cm di cammino ottico ad un valore di assorbanza a 260 nm pari a 1 unità di assorbimento, corrisponde una concentrazione di DNA di 50 μg/ml. Vale la seguente formula semplificata: 1 u.a.260 = 50 μg/ml (dsDNA) 1 u.a.260 = 37 μg/ml (ssDNA) 1 u.a.260 = 40 μg/ml (RNA) 1 u.a.260 = 30 μg/ml (Oligonucleotidi) Questo vale soltanto per il DNA a doppia elica, quando ad esempio la macchina segna 2 u.a.260=100 μg/ml Con una semplice proporzione si ricava: Concentrazione di dsDNA (μg/ml) = A260 x 50 / 1 u.a. In pratica inserendo ad es. 4 μl di DNA estratto in una cuvetta da 1 ml (4 μl+996 H2O) la concentrazione espressa in μg/ml si ricava semplicemente così: A260 X 50. Lo spettrofotometro ci indica che nella cuvetta da 1 ml ci sono (A260 X 50) μg di DNA. Tale quantità deriva dai μl di DNA che abbiamo inserito nella cuvetta. Avendo caricato 4 μl del campione di DNA estratto, la concentrazione del campione, espressa in μg/μl, sarà: (A260x50) /4 Osservando lo spettro, è possibile valutare anche la purezza del DNA isolato; infatti, tracce di proteine o fenoli mostrano uno spettro deformato con un picco aggiuntivo (o una "gobba") a 280 nm. Per un DNA di buona qualità il rapporto dei valori di assorbimento a 260 e 280 nm deve essere di 1,8 o superiore (max 2,0). Se tale rapporto risulta inferiore significa che ci sono possibili contaminazioni di proteine o composti fenolici. In questi casi il DNA dovrà essere ulteriormente purificato perché tali contaminazioni possono interferire con le reazioni enzimatiche che si utilizzano in biologia molecolare. Dal punto di vista concettuale uno spettrofotometro segue il seguente schema: La luce della lampada, che rappresenta la sorgente luminosa, viene convogliata tramite una lente attraverso un monocromatore, che va a scomporre la luce visibile nelle sue componenti. Dopodiché una griglia va a bloccare tutte le lunghezze d’onda diverse da quelle di nostro intere