Dispensa Metodologie Farmacologiche e Tossicologiche PDF
Document Details
Uploaded by Deleted User
Francesca D'Apolito
Tags
Summary
This document provides a comprehensive overview of pharmaceutical and toxicological methodologies. It details the steps involved in drug discovery, from identifying drug targets to pre-clinical and clinical trials. The document also covers topics such as in vitro models, drug screening, and pre-clinical studies.
Full Transcript
METODOLOGIE FARMACOLOGICHE E TOSSICOLOGICHE INDICE Sviluppo di nuovi farmaci – principi generali (fasi della ricerca, fasi dello sviluppo pre-clinico, fasi dello sviluppo clinico)………………………………………………………………………………………………………………………. 3 I modelli in vitro per lo sviluppo di nuovi farmaci……………………………………………………...
METODOLOGIE FARMACOLOGICHE E TOSSICOLOGICHE INDICE Sviluppo di nuovi farmaci – principi generali (fasi della ricerca, fasi dello sviluppo pre-clinico, fasi dello sviluppo clinico)………………………………………………………………………………………………………………………. 3 I modelli in vitro per lo sviluppo di nuovi farmaci………………………………………………………………………………6 Dalla disfunzione all’identificazione del target…………………………………………………………………………………..8 Il saggio biologico…………………………………………………………………………………………………………………………….11 Automatizzazione del saggio e librerie…………………………………………………………………………………………….15 Screening primario…………………………………………………………………………………………………………………………..16 Screening secondario e sperimentazione animale……………………………………………………………………………19 Efficacia del candidato farmaco in vivo, gli studi pre-clinici………………………………………………………………22 Metodologie farmacologiche…………………………………………………………………………………………………………..25 Caratterizzazione farmacocinetica……………………………………………………………………………………………………27 Caratterizzazione tossicologica………………………………………………………………………………………………………..31 Test di autovalutazione pt.1…………………………………………………………………………………………………………….35 Dalla sperimentazione nell’animale a quella nell’uomo……………………………………………………………………37 Farmacogenetica e personalizzazione della malattia……………………………………………………………………….40 Farmaci antitumorali……………………………………………………………………………………………………………………….43 Sostanze d’abuso……………………………………………………………………………………………………………………………..45 Ingegneria genetica e cellule staminali per le terapie del futuro………………………………………………………48 I farmaci biotecnologici e nanotecnologici……………………………………………………………………………………….52 -Farmaci nanotecnologici…………………………………………………………………………………………………………………54 Test di autovalutazione pt.2…………………………………………………………………………………………………………….56 D’Apolito Francesca 2 SVILUPPO DI NUOVI FARMACI – PRINCIPI GENERALI Un farmaco è una sostanza che, una volta introdotta nell’organismo, è in grado di introdurre dei cambiamenti relativi ai processi biologici attraverso le sue azioni chimiche, in modo tale da modificare le funzioni di cellule e organi, questi cambiamenti possono essere sia benefici che tossici, in particolare si parla di medicamento se la modificazione funzionale è favorevole per la salute, e tossico se è tossica per la salute. Per ogni farmaco si possono definire le dosi che permettono di ottenere un beneficio ed anche le dosi, più elevate, che causano tossicità, quindi lo stesso farmaco, in base alle dosi e alla via di somministrazione, può avere un effetto benefico o tossico, e questo è fondamentale per dare le indicazioni terapeutiche e per le reazioni avverse che qualsiasi molecola può dare, queste ultime rare e spesso dovute ad un sovradosaggio. La creazione di un farmaco è un processo estremamente lungo, esistono vari metodi per farlo, quello più classico utilizzato dagli anni ’90 comprende diverse fasi influenzate da diversi fattori, inizialmente prevalentemente scientifici, e questa fase comprende tutta la parte di ricerca di base e di ricerca applicata, quando c’è una stretta collaborazione tra queste due la molecola arriva fino ai trial clinici, oltre ai fattori scientifici si hanno fattori economici, umani e molti altri, meno legati alla conoscenza e all’invenzione; la prima fase è quella di Target Discovery/ Target Validation, infatti il farmaco per esercitare la sua azione deve agire su qualcosa (l’esempio classico è il legame tra ligando e recettore), più nello specifico si tratta di trovare un bersaglio (es. proteina) su cui la molecola dovrà agire, ed in base al tipo di bersaglio lo sviluppo della strategia può variare, mentre la validazione consiste nel fatto che il ricercatore deve essere certo che il bersaglio, una volta trovato, sia corretto, e questo lo si fa mediante sistemi e saggi diversi, pertanto non ci si deve soffermare su un singolo esperimento, bensì si devono fare dei replicati biologici e confermare il bersaglio in vari modi, infatti soprattutto in passato la percentuale di successo dei trial clinici era veramente molto bassa, ma in quegli anni il concetto di validazione veniva sottovalutato, mentre tutt’oggi si ripone molta attenzione su questo fattore, inoltre in questa prima fase spesso si fa il killing experiment, ossia si cerca di trovare l’esperimento che in qualche modo va ad “uccidere” l’ipotesi, ma se quest’ultima rimane in piedi anche dopo questo esperimento si ha la sicurezza che il bersaglio sia quello corretto. La fase successiva è quella di Drug Discovery and Screening, dove si valutano tante possibilità e si sceglie la migliore, in questo caso si verifica l’effetto di moltissime molecole su quel bersaglio in modo tale da poter vedere quali sono le “migliori” che producono un effetto, infatti alcune non avranno un effetto e verranno scartate, altre avranno un effetto positivo ma saranno altamente tossiche e quindi anch’esse verranno scartate, pertanto solo alcune agiranno nel migliore dei modi sul bersaglio precedentemente identificato, e l’obiettivo di tutto ciò è ottenere il lead, ossia la molecola migliore (molecola guida), ottenuta mediante un processo di drug screening, ed in genere tutto ciò viene fatto in modelli cellulari, ossia modelli molto semplici, la molecola lead va poi incontro ad una fase di Lead Optimization, ossia di ottimizzazione, e dopo ciò avviene una fase di sviluppo pre-clinico, la Preclinical Development, in cui la molecola viene testata in modelli cellulari e animali di malattia per capire se è efficace e tossica, e qui rientrano anche gli studi di tossicologia. Se tutto procede nel modo corretto si passa all’ultima fase, quella di sperimentazione clinica o Clinical Trial, dove la molecola viene testata negli individui, in particolare dalla fase di ottimizzazione del lead allo sviluppo pre-clinico e clinico entrano in gioco vari sponsor, queste sono fasi estremamente costose perciò dipendono fortemente da fattori economici. Un programma di ricerca su una determinata malattia per creare un nuovo farmaco si inizia non solo per un aspetto scientifico e conoscitivo ma anche per moltissimi altri fattori, D’Apolito Francesca 3 quali per esempio la necessità terapeutica, ossia quando è presente una malattia per la quale non sono ancora presenti delle cure, ma anche il numero di pazienti (di malattie comuni o malattie rare, queste ultime richiedono un numero di pazienti reclutati minore e questo può essere un vantaggio, inoltre si può sfruttare una malattia genetica rara per sviluppare terapie avanzate che poi possono essere utili per sviluppare terapie simili per malattie più diffuse), o ancora dipende dallo stato delle conoscenze scientifiche, ossia quello che realmente si conosce della malattia, dalla competizione internazionale e così via. Vi sono politiche sempre più restrittive delle autorità europee e americane, se ci sono dei farmaci già disponibili con un buon livello di efficacia e tollerabilità la ricerca sarà meno incentivata, come anche nel caso di patologie croniche per le quali sono già disponibili dei farmaci (anche non ottimali, ma che tengono sotto controllo la patologia), perché i processi per formare un nuovo farmaco sono molto costosi e richiedono un numero di pazienti molto elevato su cui testarli, lo stesso vale per i farmaci generici, e per quanto riguarda le malattie gravi a bassa prevalenza, quelle rare e quelle neglette (es. HIV, diffuse nei paesi più poveri) la ricerca è difficile da portare avanti. Esistono due fasi distinte per la formazione di un nuovo farmaco, ossia la fase di ricerca e di sviluppo pre-clinico e clinico (Research and Development, R&D); la fase di ricerca è l’invenzione, ossia l’esplorazione di nuove molecole e la selezione di quelle attive su un bersaglio precedentemente identificato e validato, questa spesso viene effettuata in università e non per forza si preclude di creare un farmaco funzionante, ma è sicuramente il punto di partenza per lo sviluppo dei farmaci, ossia la caratterizzazione e l’ottimizzazione della molecola più selettiva e più potente affinché possa diventare un nuovo farmaco, la fase di ricerca può durare 5-10 anni, ovviamente sarà più lunga quante meno conoscenze tecnico-scientifiche su quella malattia si hanno; una molecola selettiva è una molecola con un bersaglio specifico, mentre la potenza consiste nel fatto che l’effetto farmacologico ottenuto si ha a concentrazioni molto basse. Fasi della ricerca La ricerca parte dall’identificazione del bersaglio e finisce nell’identificazione della molecola che ha le caratteristiche migliori in base al target e che quindi potrebbe essere un nuovo farmaco, pertanto prima avviene l’identificazione del target biologico, dopo di che si ha la conferma e la validità del target, infatti alcune disfunzioni, e quindi pathway, saranno più importanti di altre, quelle primarie scatenano il processo della malattia, quelle secondarie sono la conseguenza di disfunzioni primarie, ed ovviamente l’ideale è agire su quelle primarie, inoltre si fa la preparazione di saggi biologici per HTS, ossia la parte più importante di un Drug Screening, dove si mette in relazione la molecola e l’effetto, ossia si deve trovare un modo per quantificare l’effetto delle varie molecole che si vanno a testare sul bersaglio. Un target biologico è quindi un cambiamento cellulare, molecolare o funzionale all’interno di cellule e tessuti che contribuisce alla patogenesi o progressione di una malattia, ed è un passaggio critico del processo patologico su cui si vuole intervenire, mentre un saggio biologico è una misura in grado di quantificare l’effetto di composti sul target biologico. Il Drug Screening comprende alcuni processi, quali ad esempio screening ad alto flusso e automazione (HTS) dell’archivio di composti chimici, ma anche di composti ottenuti con la chimica combinatoriale (produzione sintetica di molecole simili ma diverse, in quanto parte della struttura chimica iniziale viene modificata con altre caratteristiche e modifiche, creando diverse molecole) e di estratti da fonti naturali (es. piante), ovviamente più molecole si testano e più possibilità si ha di trovare quella corretta, ma per avere molte molecole testate c’è la necessità di qualcosa di automatizzato, altrimenti sarebbe davvero complicato se dovesse farlo solo l’operatore, o ancora lo studio di sostanze endogene o di composti noti che interagiscono con esse (utilizzo di librerie più D’Apolito Francesca 4 focalizzate). Dopo di che viene fatta l’identificazione dei vari hit e poi dei lead compound, quindi bisogna studiarne la struttura-attività e bisogna farne l’ottimizzazione, ma anche studiarne l’attività biologica nei modelli sperimentali della malattia, l’ADME, ossia lo studio delle fasi di assorbimento, distribuzione, metabolismo ed eliminazione e la farmacologia generale per valutare gli effetti sulle funzioni vitali, pertanto si parla di studi farmacologici, e solo dopo tutto ciò si trova la molecola candidata per lo sviluppo. Gli studi di ricerca di base per quanto riguarda il target biologico vengono fatti in modelli in vitro ed in vivo, di solito ciò viene fatto identificando una disfunzione associata alla malattia, il meccanismo molecolare alla base di quella disfunzione, si valuta la rilevanza di quest’ultima nella patogenesi o progressione della malattia e si fa l’identificazione di un target su cui agire. Il saggio biologico viene fatto tramite delle tecnologie per misurare un effetto, di solito vengono utilizzati dei sistemi cellulari per eseguirlo, si tratta infatti di screening di composti attivi su un target, in particolare gli scopi sono identificare il composto più efficace (e meno tossico) sul target, la migliore concentrazione farmacologicamente attiva ed il meccanismo d’azione del composto. Partendo quindi da una libreria di composti si utilizza un modello cellulare come “contenitore” del saggio biologico e si identificano dei composti con un effetto positivo sul bersaglio, e questo viene misurato con il saggio biologico stesso. Il processo di Drug Screening comprende due parti, ossia lo screening primario, che avviene in vitro e su composti con l’obiettivo di misurare la loro attività sul target di interesse, ed i composti identificati sono definiti HITs (composti capostipiti, permettono di restringere il campo), e lo screening secondario, dove si ha l’ottimizzazione degli HITs e della loro attività farmacologica sul target di interesse, e da qui si identifica un lead (composto guida) selettivo e potente. Fasi dello sviluppo pre-clinico Una volta identificata la molecola si ha tutta la fase di sviluppo pre-clinico, durante la quale la molecola viene prodotta in laboratorio in piccole quantità, nel momento in cui si eseguono studi di farmacocinetica e tossicologia per capire se la molecola è sicura ed efficace deve essere prodotta in grandi quantità ed in modo standardizzato (in maniera controllata, con un’elevata purezza) e questa viene definita produzione in GMP. Il lead compound ha quindi le caratteristiche tali per diventare un potenziale farmaco, questo deve essere prodotto in elevate quantità e con elevato grado di purezza (questo richiede dei costi notevoli), uno dei problemi per esempio con alcune nanoparticelle e nanovettori è la produzione su larga scala, dopo di che bisogna fare la formulazione del prodotto, ossia definire le caratteristiche farmaceutiche, gli additivi autorizzati, dopo di che si fanno gli studi di farmacologia e tossicologia in ambito regolatorio, e questo viene fatto anche a livello animale, alla fine di tutto ciò si deve arrivare a produrre una documentazione da sottoporre alle autorità regolatorie per iniziare lo studio clinico. I punti chiave della fase pre-clinica sono un processo più tecnologico legato al processo di scale-up, ossia al passaggio da una preparazione di laboratorio ad una industriale, ossia una produzione di larga scala ed in GMP (Good Manufacturing Practices), e questo fa sì che quella molecola abbia tutte le caratteristiche di qualità che le permettono poi di andare ad essere somministrata, anche le cellule, per esempio, devono essere prodotte in GMP, la molecola deve quindi essere prodotta in quantità elevate in modo rapido, economico e sicuro, un altro aspetto importante è rappresentato dalla Green economy, ossia i processi non devono introdurre elementi inquinanti nell’ambiente, i processi di produzione devono essere stabili e deve essere fatto un controllo delle impurezze, oltre a ciò vi è tutta una parte fondamentale riguardante la farmacologia, infatti si fanno studi tossicologici per studiare la sicurezza del potenziale nuovo farmaco, e quindi si fa la valutazione di eventuali effetti tossici di una nuova molecola su organi e sistemi (inizialmente in modelli in vitro, poi anche in vivo) ma si parla anche di tossicologia in ambito regolatorio, ossia la molecola deve avere determinate caratteristiche ben definite, quindi ci sono dei test da eseguire che sono definiti dalle normative vigenti. Gli studi tossicologici sono quindi studi sulla sicurezza di un nuovo farmaco e devono fornire diverse risposte, e se non si hanno delle risposte non si potrà proseguire nella sperimentazione clinica, in particolare è necessario definire la dose massima che non induce alcun D’Apolito Francesca 5 effetto tossico (diretto o indiretto) su organi e sistemi, ma anche la dose che induce effetti tossici e il tipo di alterazioni indotte, infatti se la dose terapeutica identificata è molto vicina al limite oltre il quale diventa tossica, la medicina non sarà sicura, oltre a ciò è necessario definire la relazione tra dose terapeutica e la dose tossica (finestra terapeutica rispetto alle dosi tossiche), individuare il bersaglio dell’effetto tossico del composto originale e dei suoi metaboliti, infatti non è detto che una molecola con un profilo di tossicità che può creare dei problemi non possa andare avanti nella sperimentazione, ed infine definire se gli effetti tossici sono reversibili. Un altro punto chiave è la legislazione nazionale e sovranazionale, ossia la legislazione farmaceutica con regole ben precise per garantire efficacia e sicurezza dei nuovi farmaci, che permette l’autorizzazione della sperimentazione clinica e la commercializzazione. Gli obiettivi dello sviluppo pre-clinico sono quindi verificare che la molecola in esame abbia le proprietà terapeutiche richieste, valutarne il profilo di tossicità, modificarne eventualmente la struttura per ridurre la tossicità ed aumentare l’efficacia del candidato farmaco ed identificare la formula e la via di somministrazione ottimale da usare nell’uomo, normalmente nel modello di topo si utilizza la via intraperitoneale in quanto è molto semplice, non è stressante per l’animale ed il farmaco ha un profilo paragonabile ad altre vite di somministrazione, ma questa negli individui umani non è utilizzata, quindi anche questo aspetto è molto importante. Fasi dello sviluppo clinico La sperimentazione clinica nell’uomo è prevista dalla legislazione internazionale e va impostata secondo criteri rigorosi, essa comprende quattro fasi, l’ultima delle quali è la fase di farmacovigilanza. Gli obiettivi dello sviluppo clinico sono quello di valutare la sicurezza ed efficacia del candidato farmaco prima della sua commercializzazione, e la sicurezza è monitorata in tutte le fasi, soprattutto nella fase I, bisogna anche valutare il rapporto rischio/beneficio, e questo rapporto può variare notevolmente in base al tipo di farmaco, ed infine, una volta che il farmaco entra in commercio, bisogna verificare e monitorare la sicurezza e l’efficacia del nuovo farmaco una volta che è in commercio («farmacovigilanza»). I MODELLI IN VITRO PER LO SVILUPPO DI NUOVI FARMACI Il ricercatore ha a disposizione modelli in vitro e modelli in vivo, in realtà oggi si hanno anche dei modelli in silico, ma i primi due sono uno strumento fondamentale per il ricercatore, in genere si inizia dai modelli cellulari, in quanto essi sono molto semplici e permettono di identificare un target biologico, possono essere ricreati in laboratorio, quindi può essere studiato il meccanismo d’azione associato a quel target, si può sviluppare un saggio biologico per testare e screenare moltissimi composti sul target biologico, ma permettono anche di identificare i composti attivi sul target, esplorare meccanismi d’azione dei composti in esame, allo stesso tempo si può valutare il profilo citotossico dei composti attivi, per capire se quella molecola a certe dosi può creare danno alla cellula stessa, e si possono definire le curve dose-risposta e tempo-risposta in vitro. Tra i modelli cellulari si hanno ad esempio le colture primarie, che sono cellule che derivano dai tessuti freschi animali o umani che devono essere sottoposti a digestione enzimatica (es. tripsina, papaina) o meccanica per ottenere una sospensione cellulare, queste sono coltivabili in vitro per un periodo di tempo limitato (vanno incontro a senescenza dopo un certo periodo in coltura, e questo è un limite) e mantengono la maggior parte delle caratteristiche delle cellule in vivo, e questo è un grande vantaggio; spesso per chi lavora ad esempio con neuroni si utilizza un animale che viene sacrificato, un esempio di coltura primaria sono anche i fibroblasti della pelle, ma anche le cellule del sangue, che in questo caso sono ottenute direttamente dall’individuo, a seconda del tipo di tessuto la capacità di ottenere colture primarie può variare, per esempio è più semplice ottenere neuroni primari dagli embrioni di topo piuttosto che da un adulto. Vi sono diverse fasi per ottenere le colture primarie, si parte infatti da un prelievo delle cellule da un tessuto (embrionale o adulto) detto biopsia, da questa si esegue una dissezione meccanica tramite un bisturi, si sottopone il tutto a un trattamento con tripsina (o papaina) e con D’Apolito Francesca 6 EDTA (chelante del calcio), per esempio la tripsina è un enzima che elimina i contatti proteici delle cellule con la matrice, mentre l’EDTA aiuta a disgregare i contatti fra cellule, più nello specifico si blocca la digestione enzimatica con un inibitore (lo stesso siero animale, addizionato al terreno di coltura, contiene alcuni inibitori) e si centrifuga la sospensione cellulare, in tal modo le cellule vengono risospese in un terreno di coltura adatto. Un altro tipo di modello cellulare sono le cellule immortalizzate, le quali derivano da tessuti neoplastici o da cellule primarie trasformate con oncogeni, queste sono immortali e proliferano in vitro in modo indefinito, e degli esempi sono le cellule HeLa, le cellule SH-SY5Y e le cellule ST14A, nel caso delle cellule HeLa, queste derivano da un tumore della cervice uterina di una persona, Henrietta Lacks, e prima che la ragazza morì il medico prese un pezzo di tessuto tumorale e lo mise in una piastra Petri, vedendo che quelle cellule proliferavano moltissimo, infatti riproducevano un’intera generazione ogni 24h e non si fermavano mai, il fenotipo di queste cellule però è anomalo, infatti si parla comunque di oncogeni che agiscono. Altri modelli che negli ultimi anni stanno diventando sempre più importanti sono le cellule staminali, che possono essere embrionali o adulte (con caratteristiche diverse), le quali sono indifferenziate, si replicano e possono differenziarsi, sono in grado di auto-replicazione (propagazione) e differenziarsi (specializzazione), possono essere totipotenti, ossia dare origine ad un intero organismo (zigote), pluripotenti se si possono differenziare in qualsiasi tipo di tessuto (staminali embrionali), multipotenti se possono differenziarsi in tipi cellulari diversi con precursori comuni, oppure unipotenti se si differenziano in un unico tipo cellulare. In proliferazione queste cellule proliferano in maniera indefinita, quindi si comportano come delle cellule indifferenziate, però queste possono essere differenziate in tipologie di cellule specializzate, il limite tutt’oggi è che non ci sono dei protocolli di differenziamento per tutti i tipi cellulari. L’altro gruppo di cellule fondamentali sono le cellule Staminali Pluripotenti Indotte (IPS), nel 2006 Shinya Yamanaka (Premio Nobel in medicina nel 2012) è riuscito a riprogrammare cellule specializzate adulte in cellule staminali grazie all’espressione di quattro geni (Oct4, Sox2, cMyc, Klf4), nei fibroblasti ciò induce il processo di programmazione, ed in questo caso si possono avere dei sistemi paziente-specifici, ovviamente in Italia tutt’oggi si hanno dei problemi etici, ma la cosa più importante è il fatto che si hanno delle cellule dal paziente ma in laboratorio. In laboratorio serve la plasticheria monouso sterile per mantenere le colture cellulari, questa può essere rappresentata da flasche (flask), piastre-pipette, filtri, provette, il mezzo di coltura (MEDIUM) per il mantenimento delle cellule, tra cui i più comuni sono DMEM e GMEM, che contengono AA, sali, glucosio e vitamine necessarie per fornire energia alle cellule e mantenerle in coltura, e tra le diverse formulazioni variano le diverse concentrazioni di vitamine, amminoacidi e glucosio, inoltre il MEDIUM deve essere addizionato con siero bovino fetale (FBS) che apporta fattori di crescita, ormoni, chelanti e sostanze detossificanti, il Sodio Piruvato che è un additivo comunemente usato come fonte di C, la L-Glutammina che è un AA essenziale richiesto come fonte di energia e carbonio, e penicillina e streptomicina, che sono antibiotici per impedire la contaminazione da batteri. Oltre a tutto ciò serve la strumentazione/reagenti in laboratorio per le colture cellulari, come ad esempio la cappa a flusso laminare, la quale permette di mantenere la stabilità e riduce il rischio per l’operatore, in particolare essa è dotata di un motoventilatore che spinge l’aria attraverso un filtro principale, i filtri HEPA (High Efficiency Particulate Air) sono filtri in micro- fibra che garantiscono aria «pura» al 100%, l’aria scende verticalmente con flusso laminare che investe il piano di lavoro e sono presenti uno schermo di vetro per una maggior sicurezza dell’operatore e una lampada UV da accendere 20’ prima di iniziare a lavorare per sterilizzare. In laboratorio serve anche un incubatore per colture cellulari, con temperatura solitamente di 37 gradi centigradi, con circa un 5- 10% di CO2 ed un appropriato livello di umidità, ma anche la centrifuga, che serve per separare le D’Apolito Francesca 7 cellule da un mezzo liquido, un microscopio ottico per l’osservazione della coltura senza necessità di prelievo, per la conta cellulare e la valutazione della vitalità. La scelta del modello cellulare dipende dall’obiettivo della propria ricerca e dalle fasi della ricerca, ogni modello cellulare ha vantaggi e limiti, per esempio il ruolo delle IPS da paziente è sempre più rilevante nello screening secondario, le cellule primarie da paziente sono difficili da isolare e non disponibili in grosse quantità, le cellule immortalizzate spesso perdono proprietà funzionali presenti in origine, allo stesso tempo le iPS da paziente possono ricapitolare meglio i diversi aspetti della patologia umana; tutt’oggi si possono utilizzare diversi modelli, per esempio per vedere se una disfunzione identificata precedentemente è vera ed è vera in un sistema più simile a quello umano. Per inserire un plasmide in una cellula si può utilizzare la lipofezione, che sfrutta strutture lipidiche all’interno delle quali si inserisce il plasmide, queste entrano nella membrana e il plasmide viene rilasciato, oppure si ha l’elettroporazione, dove le cellule subiscono una sorta di elettroshock, si creano pori temporanei sulla membrana che permettono l’ingresso del plasmide e la nucleofezione funziona in modo simile, ma tutte queste tecniche servono per passare da una cellula sana ad una cellula mutata per poi studiarla. DALLA DISFUNZIONE ALL’IDENTIFICAZIONE DEL TARGET La ricerca di base consiste nell’utilizzo di modelli cellulari e animali di malattia per identificare disfunzioni molecolari, cellulari, funzionali associate al processo patologico, quello che è importante è andare ad evidenziare le differenze tra modelli cellulari e animali, vengono inoltre fatti ulteriori studi per validare quella disfunzione (cioè se è fondamentale per il processo patologico), per fare ciò è importante usare tutte le tecnologie a disposizione per capire se la disfunzione ha un ruolo chiave in quel processo patologico, e successivamente dallo studio di quella disfunzione è possibile identificare un target su cui agire. Come già detto si ha una divisione in disfunzioni primarie, sulle quali è importante agire per ridurre i sintomi della patologia piuttosto che ritardarli, ed in disfunzioni secondarie, spesso non esiste un unico bersaglio per una malattia ma ne esistono di più e solo agendo su tutti si riescono ad avere dei benefici. I modelli cellulari e animali mimano la malattia umana, per fare questo bisogna considerare la patologia, alcuni processi metabolici e vie alterate sono diverse nella cellula sana e in quella malata, il modello animale ovviamente mima la malattia in modo più complesso, permettendo di andare a studiare modelli cellulari ed animali alterati, piuttosto che il comportamento, e questo è un vantaggio enorme rispetto a quello cellulare, infatti esso deriva dall’attivazione di circuiti molto complessi, ed allo stesso tempo si può associare ciò che si vede dal punto di vista emotivo ai meccanismi molecolari che vi sono alla base; se un ricercatore deve studiare una malattia sulla quale non si sa nulla, generalmente parte dal modello cellulare perché molto più semplice, poi si passa a sistemi complessi che forniscono più informazioni. Le cellule primarie sono un ottimo strumento perché si possono prelevare anche dai pazienti da tutti quei tessuti periferici e accessibili senza dover passare dal modello cellulare, in alcuni casi si può utilizzare il modello animale, nel caso in cui il tessuto che dobbiamo studiare non è accessibile (es. cervello, ottenimento di neuroni primari che mimano la malattia umana), quindi si sfruttano tessuti embrionali, per quanto riguarda le iPS, tutt’oggi è possibile ottenere cellule specializzate direttamente dai pazienti, mentre le cellule immortalizzate o le cellule staminali sono ingegnerizzate per esprimere il gene mutato associato alla malattia, e per fare ciò è necessario usare metodi per inserire il gene esogeno nelle cellule, questo viene prima inserito in un plasmide di espressione o in un vettore virale, e mediante trasfezione infezione il gene esogeno è inserito all’interno delle cellule. Per quanto riguarda plasmidi e vettori virali, cambia il modo di inserire il gene all’interno delle cellule, questi sfruttano principi diversi, infatti il plasmide di espressione è un elemento extra-cromosomico che si autoreplica in modo indipendente, ha DNA circolare con delle sequenze per la replicazione di plasmidi (ORI) e siti unici per gli enzimi di restrizione, ed in esso si può inserire il gene di interesse mediante appunto questo sito di restrizione, in generale il suo utilizzo prevede alti livelli di espressione per un periodo di tempo variabile ed efficienza variabile di introduzione, mentre nel caso dei vettori virali, questi arrivano da virus e D’Apolito Francesca 8 vengono modificati in modo da non renderli pericolosi, infatti sono dei virus modificati che hanno l’abilità di trasferire geni, e questi possono essere inseriti nel genoma della cellula ospite permettendo un’espressione stabile del transgene, ed in questo caso si ha alta efficienza di introduzione ed espressione del transgene persistente e uniforme mediante una singola integrazione. Se si prende un plasmide classico, gli elementi più importanti sono il promotore, che permette l’espressione del gene (forte o debole), quindi è importante scegliere il promotore corretto, a monte di dove viene inserito il transgene, la scelta tra promotore forte e debole può dipendere da come vogliamo modulare l’espressione, ad esempio di una proteina mutata, se la proteina è presente a livelli estremamente alti e si utilizza un promotore forte, questa potrebbe agire su altri pathway e creare degli artefatti, quindi è preferibile un promotore debole che permetta di non essere in una condizione elevata di sovraespressione, in alcuni casi il promotore può essere lo stesso endogeno (del gene umano) che regola quel gene che si vuole inserire, un altro aspetto importante è la resistenza agli antibiotici, normalmente esistono due geni che permettono questa resistenza, uno che permette la selezione di cellule batteriche (AmpR), l’altro di cellule di mammifero (NeoR), infatti normalmente il plasmide viene prima amplificato in cellule batteriche che crescono in presenza di un antibiotico, in modo da selezionare i batteri con quel plasmide che ha la resistenza per l’antibiotico, poi il DNA plasmidico viene purificato e quindi separato da quello batterico, oltre a ciò i plasmidi hanno una resistenza ad un antibiotico che permette la selezione delle cellule di mammifero, e questo è molto utile perché è necessario un sistema che permetta di riconoscere le cellule che hanno al loro interno quel plasmide da quelle che non lo hanno ricevuto, e poi un’origine di replicazione che permette l’inizio della replicazione e controlla il numero di copie del plasmide all’interno della cellula ospite. Insieme al transgene, nel plasmide si trova anche un gene per la GFP, ed andando ad utilizzare un gene reporter si può studiare l’espressione del gene in modo molto più rapido (es. tramite microscopio a fluorescenza), una cassetta semplice di espressione, ossia un plasmide semplice, è formata da promotore e gene di interesse, quindi inserendola nella cellula si ottengono il gene e la proteina, mentre una cassetta doppia comprende promotore, a valle il transgene, ma anche un gene reporter (es. GFP, gene per la luciferasi), e ci sono due modi per farlo, ossia da una parte si possono avere transgene e gene reporter sotto due promotori diversi, oppure si può fare una fusione tra transgene e gene reporter, entrambi regolati a questo punto dallo stesso promotore (bicistronico), ma nel primo caso la quantità di proteina corrispondente al transgene e quella corrispondente al gene reporter è diversa, se al posto del gene reporter si hanno il gene per la subunità a e quello per la subunità b e queste devono collaborare, è necessario invece che siano nelle stesse proporzioni, quindi è meglio utilizzare lo stesso promotore, in modo tale che l’azione sia esattamente la stessa, inoltre la sequenza IRE non prevede che ci sia un unico trascritto, nel momento della traduzione il ribosoma riconosce la sequenza e si stacca e riattacca, così si formano due proteine diverse ma che sono sotto la stessa regolazione. Una volta ottenuto tutto ciò, il plasmide deve essere inserito tramite metodi di trasfezione e infezione, i metodi più utilizzati sono il metodo chimico di lipofezione, quello fisico di elettroporazione, e quello virale che è il processo di infezione, per quanto riguarda la lipofezione, D’Apolito Francesca 9 questa consiste in un mix di lipidi policationici e neutri che permette la formazione di vescicole liposomali unilamellari che portano una carica netta positiva, la testa cationica del composto lipidico (+) si associa ai gruppi P (-) dell’acido nucleico (il DNA viene “intrappolato” in queste vescicole), ed i complessi lipidi-DNA si fondono con le membrane cellulari e rilasciano spontaneamente il loro contenuto nelle cellule. L’altro metodo spesso utilizzato è l’elettroporazione, che prevede l’utilizzo di uno strumento che induce un impulso elettrico, il quale crea dei pori momentanei nella membrana cellulare, ed in questo modo si ha il passaggio del vettore di espressione a livello della membrana delle cellule, questa tecnologia è molto efficiente e si sa quale percentuale di DNA plasmidico entra nelle cellule, però queste per via dell’ impulso elettrico entrano in sofferenza, infatti normalmente appena avviene sono inserite in un terreno di coltura arricchito per avere più energia. L’infezione virale è un metodo che sfrutta la capacità di infettare dei virus per inserire il gene all’interno delle cellule, in questo caso si generano dei virus “difettivi” ricombinanti che contengono il gene, si fa poi l’amplificazione delle particelle virali in cellule packaging e la purificazione del virus, ed infine l’infezione delle cellule di interesse e l’integrazione nel genoma ospite (a seconda del virus). Nella trasfezione stabile il DNA esogeno si integra nel DNA delle cellule, mentre nella trasfezione transiente ciò non succede, la seconda viene utilizzata in alcuni tipi di esperimenti soprattutto a breve termine, il processo di inserimento del transgene è in ogni caso lo stesso, mentre le fasi successive cambiano, infatti la trasfezione transiente si può utilizzare se si vuole valutare l’effetto cellulare nel giro di 48h, se i risultati sono buoni si può procedere con una linea stabile in modo da seguire quella linea cellulare nel tempo; la trasfezione transiente è quindi utile per esperimenti a breve termine perché poi il plasmide si perde, le cellule sono normalmente raccolte 48-72h dopo la trasfezione, si ha sovra- espressione genica e questo è un limite, e la popolazione cellulare è disomogenea, infatti si ritrovano poche cellule con molto plasmide, invece nel caso di trasfezione stabile, questa è utile per esperimenti a lungo termine, si ha la possibilità di isolare e propagare singoli cloni contenenti il DNA trasfettato, il plasmide si integra nel genoma e questo processo è sicuramente lungo e laborioso, è necessario un marker di selezione (morfologia, resistenza a sostanze) e la popolazione cellulare è omogenea, ossia si hanno molte cellule con poco plasmide. Per fare tutto ciò è necessario seguire varie fasi, inizialmente si ha la piastratura delle cellule, in genere il giorno prima della trasfezione, inserendole in maniera omogenea nei pozzetti in cui si vuole eseguire la trasfezione, in genere quando la confluenza delle cellule è al 70%, ossia quando le cellule presentano degli spazi tra una e l’altra (se fosse al 100% sarebbero tutte attaccate tra di loro) si può procedere con la trasfezione, nel caso si abbia trasfezione mediante lipofezione si prende il DNA plasmidico, il mix di lipidi, la miscela viene aggiunta nel terreno di coltura e le vescicole entreranno nelle cellule tramite la membrana cellulare, a questo punto una piccola porzione di cellule è utilizzata per vedere se ciò è avvenuto in modo corretto, quindi dopo 48-72h si interrompe l’esperimento, e per fare ciò si può utilizzare la Western Blot (quantifica livelli di proteine specifiche), mentre la maggior parte delle cellule viene, dopo circa 48-72h (in modo tale che si sia sicuri che il plasmide è presente nelle cellule) piastrata a bassa densità (cellule molto isolate tra loro ma non troppo) in presenza di un antibiotico di selezione, col passare dei giorni quelle che non hanno ricevuto il plasmide moriranno, mentre quelle che lo hanno ricevuto cresceranno e si moltiplicheranno, in alcune di queste entrerà anche il plasmide, in altre no, fino a quando non si arriva in una situazione in cui rimangono solo quelle cellule con il plasmide dentro D’Apolito Francesca 10 al genoma, per ogni gruppo di cellule si inseriscono poi dei prince (cilindri) per creare dei cloni cellulari, ossia delle linee cellulari tra loro omogenee, in questo modo queste cellule tra loro uguali si isolano, dopo di che si potranno verificare le caratteristiche di quei cloni, per vedere dove si integra il plasmide (es. regione molto attiva dal punto di vista trascrizionale), infatti normalmente si hanno la crescita e valutazione dei cloni cellulari isolati, ossia si fa la crescita (sempre in selezione) e l’analisi dell’espressione del transgene (e relativa proteina) in diversi cloni, per esempio tramite RT-PCR, Western Blot o immunofluorescenza, in questo modo si possono isolare i cloni migliori, e quindi si ottengono linee cellulari stabili che esprimono il gene sano o il gene mutato. Riassumendo, prima di identificare il target bisogna identificare una disfunzione, inizialmente avviene la raccolta dei dati dalla letteratura, si osserva il modello cellulare di malattia, quali sono i cambiamenti già noti e si identifica ciò che non ha ancora una risposta, dopo di che si formulano nuove domande che permettono di dare origine a nuove ipotesi di lavoro, che poi devono essere dimostrate sperimentalmente, quindi non si fa altro che applicare il metodo scientifico per dimostrare se delle ipotesi sono vere o false. Il confronto tra cellule sane e cellule malate è fondamentale, le cellule mutate possono crescere più lentamente o velocemente delle cellule sane, l’espressione di un set di geni risulta ridotto nelle cellule malate rispetto alle cellule sane (valutabile tramite RNA-Seq) oppure un processo metabolico è ridotto nelle cellule malate rispetto alle cellule sane, l’altro aspetto fondamentale dopo aver definito queste differenze è la valutazione della disfunzione, ossia è necessario confermare che la disfunzione sia «reale» (in modelli animali) ed associata al processo patologico in studio, e per fare ciò è necessario verificare che la disfunzione sia presente in più modelli cellulari e animali di malattia, piuttosto che misurarla in campioni e tessuti che derivano da pazienti, bisogna vedere se con tecniche tra loro complementari si arriva allo stesso risultato, e se i dati in letteratura sono in accordo, dopo di che, per confermare che la disfunzione sia fondamentale nel processo patologico (e questo è fondamentale per fare il Drug Screening) bisogna vedere se la disfunzione è precoce, se è direttamente legata al gene mutato e se è coinvolta in processi chiave associati alla malattia. A questo punto si cerca di avere un focus sul meccanismo molecolare, ossia si va a studiare il meccanismo molecolare alla base di quella disfunzione, in modo tale da identificare un bersaglio, per esempio se la crescita delle cellule malate è più o meno veloce rispetto alla crescita di quelle sane si potrebbe pensare che l’attività di alcune proteine sia alterata, se un set di geni risulta ridotto nelle cellule alterate rispetto a quelle sane e se i geni sono regolati dallo stesso fattore di trascrizione il problema è a monte, ossia del fattore, la cui attività nella malattia è alterata, o ancora se si scopre che un processo metabolico è ridotto e quindi si studia, si va a capire quali proteine ed enzimi sono coinvolti. Andando a studiare le proteine chiave nelle funzioni cellulari compromesse, nei processi metabolici ridotti, ma anche il fattore di trascrizione che regola quel set di geni o il gene mutato che causa la malattia, tutti questi potrebbero essere il target biologico, e poi da questo si va ad identificare il saggio biologico. IL SAGGIO BIOLOGICO I saggi biologici vengono suddivisi in modi diversi, una di queste suddivisioni è quella tra saggi biochimici e saggi cell-based; i saggi cell-based sono saggi in grado di quantificare gli effetti su aspetti funzionali e fenotipici in sistemi cellulari (Reporter gene Assay, Proliferation Assay, Vitality Assay), mentre i saggi biochimici sono in grado di misurare l’attività enzimatica o di binding, ossia il legame per esempio tra recettore e ligando (Kinase Assay, Alpha-Screen Assay, Protease Cleavage activity Assay). Nel saggio cell-based è necessario avere un sistema cellulare, quindi è necessario usare delle cellule, mentre i saggi biochimici possono essere fatti in sistemi cellulari o in sistemi cell-free, senza cellula, infatti se il target è una proteina questa può essere purificata o si può ottenere una proteina ricombinante e misurarne l’attività enzimatica in soluzione, al di fuori del contesto cellulare. Gli elementi chiave di un Drug Screening sono un sistema cellulare, un bersaglio, una libreria di composti, e l’obiettivo è testare ciascun composto per identificare quelli con effetto positivo sul bersaglio, quindi D’Apolito Francesca 11 se per esempio nelle cellule bersaglio è stato identificato un set di geni ridotto, regolati da un fattore di trascrizione comune, e tramite esperimenti in modelli cellulari e animali di malattia si nota che l’attività del fattore di trascrizione è ridotta, allora il target diventa quel fattore, e bisogna creare delle molecole che mimano la sua funzione nell’organismo, in modo da compensare a ciò, e questo può essere fatto in diversi modi, in genere vengono utilizzati i saggi reporter, che si basano su luminescenza o fluorescenza e permettono di valutare l’attività di un fattore di trascrizione all’interno di un sistema cellulare. Tornando alla disfunzione identificata, oltre al set di geni ridotti è necessario avere un promotore comune ed un fattore di trascrizione comune, infatti se ogni gene fosse regolato da un fattore di trascrizione diverso la formulazione del farmaco diventerebbe molto complicata e dispendiosa, oltre al fatto che potrebbe non essere efficace; un esempio è il fattore di trascrizione TFEB, il quale regola una serie di geni, detti CLEAR, tutti coinvolti in processi di autofagia e lisosomali, e TFEB è il master regulator ed è un target importante non solo per le malattie neurodegenerative ma anche per molti tumori, i processi che regola sono ubiquitari, e quando la sua attività è diminuita, identificare dei composti che siano in grado di aumentarne l’attività è molto complesso, è necessaria una certa specificità, infatti ci potrebbero essere problemi anche a livello delle cellule periferiche e non di quelle target. Tornando al fattore di trascrizione in esame, essendo la sua attività ridotta nei modelli di malattia, bisogna fare un focus sul promotore, che diventa il target su cui sviluppare il saggio biologico. Per studiare l’attività del promotore bisogna sfruttare dei geni reporter per valutare l’attività di promotore all’interno dei sistemi cellulari, e questo può essere fatto ad esempio tramite il gene per la luciferasi o tramite il gene per la GFP; quello che si può fare è andare a prendere il promotore, ossia il target, ed al posto dei geni che risultano essere ridotti nel sistema malattia, nel plasmide si inserisce il gene per la luciferasi, quindi il reporter permette di valutare l’attività su quel promotore, e l’attività della luciferasi può essere quantificata tramite un processo di bioluminescenza ed è direttamente proporzionale all’attività del fattore di trascrizione e di vari composti che agiscono su quel promotore. Quindi sostanzialmente si prende il promotore dei geni ridotti nel modello malattia, a valle si inserisce il gene per la luciferasi e si misura la bioluminescenza, infatti quando la luciferasi viene trascritta e tradotta, in presenza di un substrato detto luciferina, e di ATP e Mg2+, emette un segnale di bioluminescenza, quindi catalizza una reazione ed emette luce che può essere quantificata tramite uno strumento detto luminometro; il target in questo caso è quindi il promotore del fattore di trascrizione con ridotta attività, il plasmide modificato deve essere inserito nel modello cellulare scelto (la trasfezione più utile è quella stabile, infatti ogni volta che avviene una trasfezione la sua efficienza può variare) e poi si tratta con la libreria di composti selezionati, a questo punto si valuta l’attività luciferasica tramite il luminometro, in particolare l’aggiunta di un composto potrebbe portare ad un aumento dell’attività luciferasica, un altro potrebbe aumentarla ma nemmeno di molto. Il saggio della luciferasi necessita quindi di un plasmide con il gene reporter clonato a valle del promotore target, deve avvenire la trasfezione del plasmide nel sistema cellulare prescelto, e questo serve per valutare l’attività del promotore, un aspetto importante che può essere valutato con la trasfezione transiente è il fatto che si deve essere certi che il saggio biologico basato sulla luciferasi funzioni, per quanto riguarda la validazione del saggio, si deve usare un controllo positivo, quando l’aggiunta del fattore di D’Apolito Francesca 12 trascrizione aumenta l’attività luciferasica, e per fare ciò oltre al plasmide con il gene per la luciferasi si può utilizzare un plasmide che presenta a valle del promotore il fattore di trascrizione, infatti questo agisce sul promotore del primo plasmide aumentando l’attività luciferasica, ma si deve fare anche il controllo negativo, che si ha quando l’aggiunta di un inibitore del fattore di trascrizione riduce l’attività luciferasica; prima di iniziare il Drug Screening bisogna quindi essere sicuri che il saggio biologico funzioni, ma bisogna anche validare qualcosa che vada ad inibire l’attività luciferasica, e questo a volte è più complicato. Per visualizzare che la trasfezione sia avvenuta, nelle cellule si ha non solo il gene della luciferasi ma anche la proteina espressa dal gene, perciò si può fare un Western Blot, e questo è un controllo che permette di capire se per esempio si ha un problema di bassa trascrizione, e questo viene risolto creando la linea stabile, se il problema è a livello del plasmide, si può isolare il suo DNA e farlo sequenziare per leggere una parte di sequenza, in modo tale da controllare se la sequenza è corretta, perché magari nel processo di clonaggio si è spostato il frame. Un altro esempio può essere l’utilizzo del gene reporter GFP, una proteina che emette fluorescenza nel verde, in questo caso cambia il sistema di rilevazione, infatti si quantifica la fluorescenza tramite un microscopio a fluorescenza, ma il concetto è lo stesso, si ha sempre un plasmide con un promotore target, ed a valle di questo si ha un gene per la GFP, e questo può essere utile quando il bersaglio ha dei livelli ridotti (es. proteina), infatti in questo caso si studia il promotore che regola l’espressione del gene codificante per quella proteina, e si screenano molecole che aumentano l’espressione della proteina agendo su quel promotore. Soprattutto nelle malattie neurodegenerative si formano degli aggregati di proteine patologiche, i meccanismi di aggregazione possono essere diversi ma il bersaglio in questo caso risulta sempre la formazione di aggregati, quindi si potrebbero identificare composti che vanno a contrastare questo fenomeno di aggregazione, quindi un esempio di saggio biologico potrebbe essere sfruttare il gene reporter della GFP e creare un gene di fusione, ossia un gene mutato associato alla malattia che si sta studiando (o una porzione di quel gene) fuso a un gene reporter come la GFP, come promotore si può scegliere ad esempio il promotore endogeno del gene associato alla malattia, il plasmide inserito nel sistema cellulare fa si che la proteina mutata venga tradotta e formi aggregati nel sistema cellulare, questi possono essere visualizzati facilmente grazie alla GFP, inoltre nel caso di un controllo positivo, questo può essere qualcosa che stimola ulteriormente la formazione di aggregati, mentre un controllo negativo potrebbe essere già il saggio biologico in sé a livello della fluorescenza, oppure si potrebbe usare un altro costrutto simile ma non uguale, per esempio utilizzando il plasmide solo con il gene per la GFP senza la sequenza del gene mutato, si avrà la produzione di una fluorescenza ma più diffusa in quanto non si formano aggregati. Se il bersaglio è, ad esempio, l’interazione tra due proteine, la quale è fondamentale per la cellula e se non avviene la fa morire, il bersaglio è riuscire a trovare composti che siano in grado di ripristinare la corretta interazione tra quelle due proteine, per fare ciò si può fare il saggio di FRET (Fluorescence Resonance Energy Transfer), che si basa sul principio di trasferimento energetico tra due fluorofori (molecole che emettono fluorescenza ad una certa lunghezza d’onda a seconda del tipo), devono quindi essere usati due fluorofori diversi, uno viene legato alla proteina A, l’altro alla proteina B, un fluoroforo deve funzionare da donatore, l’altro da accettore, ossia il primo può essere eccitato e quando ciò avviene ad una certa lunghezza d’onda questo emette fluorescenza ad un’altra lunghezza d’onda, se le due proteine sono lontane, quella che ha il fluoroforo accettore non varia, mentre se le proteine sono vicine ed interagiscono tra loro, l’assorbanza emessa dal fluoroforo donatore è la stessa che viene utilizzata per eccitare il fluoroforo accettore, che a sua volta emette ad una certa lunghezza d’onda, ed anche in questo caso è necessario uno strumento che misuri l’emissione di energia. In questo caso un controllo positivo potrebbe essere l’utilizzo di un composto che vada ad agire sull’interazione stessa, sicuramente la linearità tra dose e risposta è sempre valida, infatti se all’aumentare della dose aumenta la risposta il saggio è confermato, mentre se la curva è diversa si potrebbe migliorare in qualche modo, inoltre se già si conoscono le caratteristiche chimiche di quell’interazione, magari potrebbe già essere conosciuto un inibitore per un controllo negativo, togliendo il fluoroforo alla molecola accettore non dovrebbe esserci D’Apolito Francesca 13 luminescenza, e se è presente si tratta di un rumore di fondo che non deve essere preso in considerazione. Ci sono altri saggi che possono essere utilizzati nel momento in cui le funzioni cellulari di base, come la proliferazione o la vitalità cellulare, possono essere compromesse, quello che si può fare è sfruttare la caratteristica fenotipica delle cellule che crescono lentamente, e quindi selezionare dei composti che permettono di aumentare la crescita e la proliferazione cellulare, quindi il bersaglio non è definito ma è una “proprietà cellulare” (crescita), questo può essere fatto tramite un ATP assay, il target è quindi la vitalità cellulare, il nome deriva dal fatto che l’ATP è fondamentale per la cellula ed anche per la reazione della luciferasi, quindi in una cellula sana si produce una certa quantità di ATP che permette alla luciferasi di catalizzare la reazione che porta alla formazione di luce, e se la cellula sta molto male o è morta non si ha produzione di ATP, quindi la luciferasi, anche se presente, non ha i componenti necessari per svolgere la propria reazione. In questo saggio si hanno pozzetti di cellule, ognuno trattato con determinati composti, e si andrà a vedere la quantità di luminescenza prodotta. In questo caso un controllo positivo potrebbe essere la produzione di ATP o un farmaco che accelera la proliferazione cellulare, mentre nel caso di un controllo negativo, essenzialmente deve avvenire l’opposto, inoltre più cellule si utilizzeranno, più ATP si produrrà; in questo caso si deve utilizzare per forza un sistema di cellula malata, mentre nei casi precedenti si possono utilizzare cellule sane, infatti queste sono una sorta di «contenitore» del saggio stesso, quindi un aspetto importante nel Drug Screening è il fatto che non è essenziale usare il modello cellulare di malattia, mentre nella fase successiva deve essere utilizzato il modello malattia, infatti essendo la fase di Screening iniziale molto costosa e delicata, si procede a step. Nel caso in cui il target sia una proteina con attività chinasica, ossia un enzima con attività catalitica che è in grado di trasferire gruppi P da molecole donatrici a specifici substrati sfruttando appunto ATP che diventa ADP, anche in questo caso si può sfruttare la fluorescenza per quantificare l’attività della chinasi che è il target, e questo può essere fatto in diversi modi (polarizzazione di fluorescenza, intensità di fluorescenza), i saggi sfruttano diversi approcci associati alla fluorescenza, come la polarizzazione di fluorescenza (Fluorescence Polarization, FP), una tecnica usata diffusamente per monitorare gli eventi di legame in soluzione (tra una molecola piccola ed una molecola più grande), questa sfrutta il principio della luce polarizzata, le molecole piccole (es. ADP) vengono marcate con un fluoroforo (traccianti fluorescenti), se non legate alla molecola più grande, essendo piccole, ruotano in modo rapido depolarizzando la luce durante l’emissione e con conseguente bassa polarizzazione, mentre se legate alla molecola più grande ruotano più lentamente e la luce emessa rimane polarizzata (non subisce alterazioni), quindi si può misurare la quantità di luce che rimane polarizzata, che risulta minore nel caso in cui non ci sia un legame con la molecola grande, pertanto la quantità di luce polarizzata è inversamente proporzionale alla quantità di ADP-tracer libero; questo principio può essere utilizzato per valutare l’attività chinasica perché la molecola piccola è l’ADP, nella maggior parte dei casi questo è legato a un anticorpo (molecola più grande), e nel momento in cui nel sistema si abbiano chinasi, substrato ed ATP, la prima trasformerà ATP in ADP, che compete con il tracer fluorescente (far-red) cambiando la proprietà di fluorescenza e fornendo un readout fluorescente, quindi si quantifica direttamente l’ADP formato dalla reazione. Sostanzialmente più attività chinasica significa più produzione di ADP non marcato, questo scalza l’ADP legato al tracer e sostanzialmente si ha depolarizzazione della luce, e se si volesse creare questo saggio in un ambiente al di fuori del contesto cellulare, si dovrebbe prendere una chinasi purificata e metterla in soluzione. L’intensità di fluorescenza (FI) è un’altra modalità per misurare l’attività chinasica, in questo caso caso l’anticorpo è legato a un quencer (crea un complesso insieme al fluoroforo e smorza la fluorescenza) e l’ADP è sempre legato ad un tracer fluorescente ed a sua volta D’Apolito Francesca 14 è legato all’anticorpo coniugato al quencer, in particolare quando si genera ADP, il tracer viene scalzato dall’anticorpo coniugato al quencer, e lontano dal quencer, il tracer emette fluorescenza; in questo caso, l’intensità di fluorescenza è direttamente proporzionale alla quantità di ADP- tracer libero. La scelta del saggio biologico dipende essenzialmente dalle caratteristiche del target, dal sistema cellulare in uso, dalla disponibilità di «assay» sul bersaglio e dalla sensibilità di questi ultimi (quanto sono capaci di identificare dei composti che superano un certo livello soglia). AUTOMATIZZAZIONE DEL SAGGIO E LIBRERIE Come già visto, il processo di Drug Screening può essere diviso in due fasi, ossia lo screening primario, detto anche HTS (High-Throughput Screening), che comprende un test automatizzato che valuta l’effetto di moltissimi composti su un target precedentemente identificato e validato, e successivamente l’identificazione di un piccolo numero di composti che hanno l’effetto desiderato sul target, e lo screening secondario, ossia un test successivo che valuta l’effetto dei composti migliori (ottimizzati) sullo stesso target. Dal bancone all’HTS le regole cambiano, infatti il saggio biologico ed il sistema cellulare prescelto devono adattarsi al processo di automatizzazione, in casa o sul bancone un operatore riesce a gestire una piastra con 96 pozzetti, mentre in un saggio automatizzato si ha la miniaturizzazione del saggio, e si usano fino a 1536 o 3456 pozzetti per piastra, quindi lo screening primario prevede automatizzazione e miniaturizzazione, e si ottiene riproducibilità da well a well (pozzetto), quindi l’unica variabile da un pozzetto all’altro è il tipo di composto, da piastra a piastra e da giorno a giorno, inoltre quando si fa la miniaturizzazione alcune cellule fanno fatica a crescere e stanno male, quindi il passaggio non è automatico, ed a seconda del tipo di cellule questo passaggio potrebbe essere più o meno complicato. Oltre all’automatizzazione del saggio biologico è necessaria anche l’automatizzazione della misura che si va a quantificare, che può essere attività luciferasica, fluorescenza della GFP ecc., proprio perché si deve misurare contemporaneamente l’effetto di più molecole in maniera oggettiva, quindi non può essere l’operatore che conta gli spot di aggregati in moltissime immagini, ma ci deve essere qualcosa di automatizzato e meno variabile possibile, infatti la raccolta manuale al bancone (per esempio durante gli esperimenti pilota con controllo positivo e negativo) è sufficiente per raccogliere informazioni sulla disfunzione o sul bersaglio, tramite il microscopio a fluorescenza si possono acquisire le immagini dell’esperimento, queste vengono viste al computer e si possono fare le proprie considerazioni, mentre quando si passa ad uno screening primario si fa un’analisi automatizzata, infatti si ha la raccolta di moltissimi dati in poco tempo, compatibile con l’HTS, quindi sono presenti dei software in grado di andare ad elaborare quelle immagini in maniera automatica, senza nessuna possibilità di influire su quel risultato. Lo screening primario è quindi uno screening di ampie librerie di composti, per quanto riguarda l’HTS, lo screening ad alta capacità permette di valutare contemporaneamente migliaia di molecole (naturali o prodotte dalla chimica) sullo stesso bersaglio e identificare quelle che superano un valore soglia predeterminato (composti capostipiti, HITs), il saggio biologico sviluppato deve poi essere automatizzato e deve esserci un’alta efficienza del processo e della sua produttività (intesa come numero di specie identificate). Una volta pronti a fare il Drug Screening, si possono utilizzare sia librerie di composti che contengono moltissime molecole casuali (>1000000 molecole), ossia Primary libraries, oppure delle librerie più mirate nel caso si conoscano il recettore ed il ligando naturale, in modo da produrre prodotti analoghi alle molecole che magari già agiscono ma che producono meno tossicità, quindi si possono utilizzare Focused libraries di 10-100 D’Apolito Francesca 15 molecole oppure Targeted libraries di 10-50 molecole. Quello che può essere fatto è anche utilizzare molecole già approvate dall’FDA e da altre agenzie del farmaco, in modo da creare un riposizionamento dei farmaci già in uso, così da evitare tutta la parte sugli studi tossicologici, oppure si possono usare molecole non ancora approvate dall’FDA e da altre agenzie del farmaco. Esistono degli archivi di composti chimici, se si conosce il target che è un recettore ed il ligando naturale, quello che si può fare con la sintesi chimica è modificare quest’ultimo a livello di alcuni domini strutturali che permettono di migliorare la molecola dal punto di vista farmacologico, quindi si ottengono molte molecole simili ma con caratteristiche leggermente diverse, e questo nel caso in cui si vogliano trovare agonisti e antagonisti di quel recettore; si parla di «sintesi razionale» quando si parte infatti dalle conoscenze del target biologico identificato. Tutt’oggi è possibile fare previsioni circa l’interazione tra il farmaco ed il sito di legame, permettendo la sintesi virtuale (al computer, in silico) di un numero maggiore di composti, si parla infatti di modellistica molecolare, e questo permette di conoscere la geometria delle molecole, le possibili conformazioni e proprietà chimico-fisiche (energia, orbitali molecolari, densità elettronica ecc.), nonché caratteristiche tridimensionali delle molecole e la risoluzione di strutture complesse. Un esempio di tutto ciò è la chimica combinatoriale, ossia un insieme di tecniche di sintesi ad alta numerosità che permettono di produrre molti composti in quantità minima, con grande purezza ed in tempi molto rapidi; nel caso di una “random” library, questa è casuale, mentre le “combinatory” library sono combinazioni di più elementi seguendo uno schema ripetuto. Quello che si può fare è anche partire da fonti naturali, infatti tecnologie avanzate permettono di conoscere rapidamente il funzionamento del metabolismo delle cellule di piante, alghe e batteri, quindi si può fare l’identificazione di sostanze naturali che hanno un ruolo chiave nel metabolismo cellulare, per esempio molti chemioterapici derivano da piante o altri organismi viventi. Un esempio di tutto ciò è la trabectedina, un composto estratto da organismi invertebrati marini caraibici (Ecteinascidia turbinata), la quale viene utilizzata per il trattamento di sarcomi delle parti molli e per il tumore ovarico, o ancora vincristina e vinblastina sono estratti dalla pervinca del Madagascar (Catharantus roseus G. Don.), esse interferiscono con il ciclo cellulare e portano a morte cellulare, quindi vengono utilizzate per il trattamento di linfomi, del carcinoma del testicolo e del tumore mammario. Come detto prima, quello che si può fare è anche il riposizionamento dei farmaci già in uso, si parla infatti di drug repurposing, in particolare questi possono essere farmaci sul mercato o farmaci che erano in via di sviluppo clinico per una indicazione e che poi sono stati registrati per un altro uso, come nel caso del viagra che era stato sviluppato per l’angina pectoris, e vi sono molti vantaggi nel fare tutto ciò, come la riduzione del tempo necessario per la registrazione, ma anche la riduzione del rischio associato allo sviluppo delle molecole e dei costi di sviluppo. SCREENING PRIMARIO Uno screening ad alta capacità permette di testare contemporaneamente tantissime molecole, proprio per questo ci deve essere automatizzazione, lo screening primario è fondamentale per identificare un certo numero di composti che hanno l’effetto desiderato sul target, poi su di essi verrà fatto un test successivo, lo screening secondario, per ottenere quella che è la molecola più efficace. Il saggio biologico ed il sistema cellulare prescelto devono adattarsi al processo di automatizzazione, ma deve esserci anche miniaturizzazione del saggio biologico stesso (proprio per permettere l’automatizzazione), e tutto ciò permette di essere veloci, di avere una buona riproducibilità, ed ovviamente deve essere presente anche un sistema che permetta di leggere il dato ottenuto, quindi D’Apolito Francesca 16 ci deve essere anche un’acquisizione automatizzata dei dati, ossia una loro raccolta in poco tempo, compatibile con l’HTS stesso. Il saggio dovrebbe avere un’elevata efficienza, ossia dovrebbe essere sufficientemente sensibile per ottenere molte molecole che superano un livello soglia predeterminato, il sistema è sempre più stringente per ottenere il composto migliore, però inizialmente se ne devono identificare molti, altrimenti i processi successivi risulterebbero più difficoltosi. Per quanto riguarda l’identificazione degli HITs, le varie molecole che vengono screenate vengono testate ad una singola dose ed un singolo tempo di trattamento, e questo lo si fa proprio perché è necessario screenare moltissime molecole in un tempo strategico, la dose si sceglie sulla base della letteratura, ovviamente la concentrazione non sarà molto alta, in genere le dosi vanno da 50 nM ad 1 microM, si fa lo screening primario e si identificano i composti che superano il livello soglia, in questo modo si ottiene una lista preliminare di composti HITs (capostipiti), i quali dovranno essere validati ed ulteriormente screenati successivamente; questa lista è preliminare e non definiva, proprio per il fatto che gli HITs vanno incontro a validazione, ossia per ogni HIT identificato con lo screening primario ci deve essere un re-testing della molecola nel saggio biologico ma in maniera non più automatizzata, infatti ormai si è in possesso di un numero molto più piccolo di molecole, ed oltre a ciò è necessario creare delle curve-risposte, ossia curve dose-risposta e tempo-risposta. A livello di ogni molecola che si va a ri-testare è necessario inserire un controllo negativo ed un controllo positivo, un esempio di controllo negativo potrebbe essere la soluzione in cui è sospesa quella molecola, per esempio se è sospesa in DMSO, questa soluzione alle cellule non dovrebbe dare nessun tipo di problema, infatti non dovrebbe causare un effetto nell’attività luciferasica, mentre il controllo positivo potrebbe essere lo stesso di quando è stato settato il saggio biologico, ed entrambi sono fondamentali per avere la conferma che l’esperimento è riuscito dal punto di vista tecnico. La curva dose-risposta permette di vedere se la molecola che ha superato il valore soglia non solo agisce, ma magari agisce anche a dosi più basse, così nelle fasi successive si può utilizzare la dose più bassa, ed una volta identificata la dose ottimale si crea una curva tempo-risposta per capire la cinetica della molecola all’interno del sistema cellulare; un composto che non ha nessun effetto a varie dosi probabilmente è stato un falso positivo nello screening primario (come il composto D nell’immagine), in altri casi si può notare che il composto è attivo ad una dose più bassa (composto H in esempio), quindi la validazione degli HITs è importante per escludere i falsi positivi e per identificare dosi più basse ma comunque efficaci, ed in questo modo si può generare una lista definitiva di questi composti che passa alla fase successiva. I composti HITs migliori vengono infatti testati in altri saggi sperimentali che agiscono sul meccanismo ed in modelli cellulari di malattia, in realtà questi sono divisi in tre gruppi, ossia test ortogonali, test nel modello cellulare di malattia e test di tossicità (non sempre). I test ortogonali, nel caso si stiano cercando molecole che agiscono su un promotore (il fattore di trascrizione controllato da esso viene espresso in minore quantità nella malattia), possono essere rappresentati da una real time PCR dei geni target regolati da quel promotore insieme agli HITs, oppure si possono fare delle Western Blot per le proteine target; nel caso della real time PCR, si sfruttano dei fluorofori e si quantifica dal segnale fluorescente quanto mRNA è stato prodotto, mentre per testare i livelli di proteina si deve fare un SDS-PAGE, che permette di denaturare le proteine e avvolgerle di carica negativa in modo da attraversare un gel di poliacrilamide, e le proteine si separano in base al PM (quelle a basso peso molecolare si muovono più velocemente nel gel), in questo modo esse possono essere separate, trasferite su una membrana di nitrocellulosa ed essere utilizzate per la tecnica del Western Blot, che permette di identificare la proteina di interesse nell’intera miscela mediante il riconoscimento da parte di anticorpi specifici. Spesso durante lo D’Apolito Francesca 17 screening primario sono utilizzate delle cellule che non mimano la malattia, perché in questa fase la cellula è semplicemente il contenitore del saggio biologico, però durante la validazione degli HITs è importante fare dei test nei modelli in vitro di malattia, perché non si può escludere che le molecole in un contesto patologico non abbiano effetto, pertanto avendo le cellule in cui il fattore di trascrizione è attivo e determina una certa quantità luciferasica, se aggiungendo il composto negativo si ha la stessa attività (DMSO), aggiungendo la molecola HIT si ha un aumento dell’attività luciferasica, ma se nel modello patologico l’attività del fattore di trascrizione è ridotta bisogna verificare che la molecola che stiamo studiando è in grado di promuovere l’attività trascrizionale del promotore anche in questo contesto. Un altro aspetto importante è andare ad eseguire il test di citotossicità, ossia valutare se alle concentrazioni in cui si vede un effetto positivo sul target non ci siano degli effetti tossici, quindi se le cellule trattate con le molecole selezionate non vanno incontro a sofferenza, infatti nel caso questo succeda i composti verranno esclusi dalle fasi successive, un esempio di questi saggi è detto MTT Assay, questo è un saggio colorimetrico di attività metabolica dove si piastrano le cellule, viene aggiunto il reagente MTT di colore giallo, si lascia incubare per un certo periodo di tempo e poi esiste una reduttasi mitocondriale che è in grado di trasformare l’MTT in un altro prodotto, il formazano, di colorazione viola, la quale è misurabile con uno spettrofotometro a 490nm, e questa reazione è direttamente proporzionale alla vitalità cellulare perché più la cellula sta bene, più mitocondri ha; un altro esempio è dato dal saggio di luminescenza che misura la quantità di ATP, ossia l’ATP Assay, dove si fa la quantificazione della luminescenza associata alla vitalità cellulare, infatti la quantità di luce prodotta è ATP- dipendente. Sostanzialmente oltre a valutare l’effetto dose-dipendente si valuta anche l’effetto di vitalità cellulare, nel caso un composto abbia attività e le cellule soffrono, questo verrà scartato, nel caso in cui invece l’effetto sia minimo ma le cellule stanno bene, la molecola potrebbe proseguire al processo successivo, ma in realtà quello che si può fare è continuare nelle fasi successive con composti che magari conferiscono una piccola tossicità per poi riuscire a modificare chimicamente le molecole per eliminare questo effetto di tossicità. Gli obiettivi della validazione degli HITs sono quindi quelli di generare una lista definitiva degli HITs che viene poi sottoposta allo screening secondario, ma prima di procedere allo screening secondario gli HITs possono essere ulteriormente ottimizzati mediante modificazioni nella struttura chimica in modo da migliorarne le caratteristiche chimico-fisiche, questa fase prende il nome di ottimizzazione (ed espansione) degli HITs, i quali vengono non solo modificati, ma da questi ne vengono ottenuti altri con struttura simile. Quest’ultima fase è importante perché permette di migliorare le molecole per quanto riguarda potenza, selettività ed efficacia, in modo da identificare una nuova lista di HITs da sottoporre allo screening secondario, i quali siano potenzialmente più potenti e selettivi rispetto agli HITs originali; questa fase è svolta dal chimico e non dal biologo, ma supponendo che uno degli HITs sia un ligando che si lega ad un recettore (target), si possono aggiungere gruppi chimici al ligando in modo che se ne aumenti il PM (diventa più stabile) e migliori la sua interazione con il recettore, quindi D’Apolito Francesca 18 le sue proprietà farmacologiche, nel caso invece di due HITs che si legano a due regioni che si sovrappongono dello stesso enzima, quello che si può fare è che la similarità della struttura di questi HITs iniziali permetta di «unirli» in un solo composto (HIT finale) con maggior potenza, mantenendo intatte le proprietà di binding, o ancora, avendo due HITs che legano a due regioni adiacenti alla proteina target, si può utilizzare un linker che unisce questi due HITs in modo da ottenere un composto con proprietà migliori (es. più potente). Una volta arrivati a questo punto si procede con lo screening secondario, il quale può essere anche automatizzato ma il numero di composti testati è ovviamente inferiore, quello che bisogna fare è valutare l’efficacia delle modifiche strutturali apportate a ciascun HIT, e valutare se queste modifiche aumentano o meno le proprietà farmacologiche degli HITs rispetto all’obiettivo desiderato, infatti si entra in una fase HIT-to-LEAD, dove dai composti HIT si arriva ad identificare il composto LEAD, in particolare si cercano anche modifiche che possono essere utili in vivo, cioè che migliorano le proprietà farmacocinetiche e tossicologiche in modelli animali, dato che comunque il lead verrà testato in vivo, in questo modo si ha la selezione di un candidato finale per un potenziale sviluppo pre-clinico e clinico. Il lead è un composto che fa da prototipo per una data struttura chimica che mostra attività e selettività in uno screening rilevante dal punto di vista biochimico o farmacologico, questo di solito costituisce la base per un processo di ottimizzazione e sviluppo, allo scopo di identificare un composto candidato per l’impiego chimico (es. si possono attuare delle modifiche che permettono alla molecola di passare attraverso la barriera emato- encefalica nel caso inizialmente non ci riuscisse). SCREENING SECONDARIO E SPERIMENTAZIONE ANIMALE Lo screening secondario è molto simile allo screening primario ma utilizza meno composti, e l’obiettivo è arrivare alla fase HIT-to-LEAD che permette di trovare il composto guida. Lo screening dei composti HITs ottimizzati può essere anche in questo caso automatizzato, ma appunto il numero di composti testati è inferiore, ed esso come già detto verifica se le modifiche apportate (durante l’espansione degli HITs) aumentano l’efficacia sul target, e ciò permette di ottenere una lista preliminare di composti, e poi questi LEADs devono essere validati, infatti per ognuno di essi identificato con lo screening secondario si fa un re-testing utilizzando lo stesso saggio biologico non più automatizzato per escludere falsi positivi, nonché bisogna generare curve-risposta (dose-risposta e tempo-risposta) associate ad un test di citotossicità (o vitalità cellulare), in quanto si deve conoscere la dose migliore da utilizzare negli step successivi, ma bisogna anche essere sicuri che il composto non sia tossico inizialmente nelle cellule, e poi nel modello animale e nell’uomo. I test di citotossicità possono essere fatti anche durante lo screening primario ma questo non accade sempre, mentre in questa seconda fase è fondamentale farlo per escludere tutti i composti che magari avevano avuto un effetto durante lo screening secondario ma facendo il re-testing non hanno avuto effetto, si può identificare la dose minima per un effetto e si identificano i composti che a basse dosi sono tossici, ma vi sono anche alcuni composti che sono tossici solo ad alte dosi, quindi nelle fasi successive si può identificare il dominio che determina questa tossicità e modificarlo, in ogni caso l’obiettivo finale è identificare la lista definitiva di LEADs, ossia composti più efficaci, più potenti e meno tossici. I composti LEADs definitivi vengono testati in altri saggi sperimentali che agiscono sul meccanismo e in modelli cellulari di malattia, quindi vengono utilizzati test ortogonali e test nel modello cellulare di malattia, ed in genere si utilizzano gli stessi test discussi nello screening primario, o anche di ulteriori se necessario. Tutt’oggi uno screening primario con cellule IPS è un po’ complicato, perché si dovrebbero differenziare IPS, per esempio di neuroni, in multiwell estremamente piccoli, però a livelli successivi, con i protocolli oggi disponibili, un composto può essere testato in neuroni differenziati in IPS del paziente, e quindi questo modello è più vicino al paziente stesso (che ha un certo background genetico), e questo può essere un ulteriore modo per validare il medicinale. A questo punto avviene l’ultima fase, ossia quella HIT-to- LEAD, che sostanzialmente permette di selezionare un candidato finale per un potenziale sviluppo pre-clinico e clinico, questa è una fase estremamente costosa e quindi si devono fare importanti scelte, D’Apolito Francesca 19 ma prima di passare alle fasi successive si può ottimizzare nuovamente il LEAD, per esempio riducendo la sua tossicità modificando un dominio, ma si può anche modificare la struttura in modo da migliorarne le proprietà farmacocinetiche, in quanto la molecola verrà testata anche nel modello animale, oppure se è presente un LEAD che agisce nel sistema nervoso ma lo si vuole utilizzare a livello periferico, si possono fare delle modifiche in modo che questo riesca a passare la barriera emato- encefalica. Il LEAD compound è una sostanza attiva che presenta una selettività nei confronti di un target, e se interessante per un ipotetico utilizzo nell’uomo, si procede con la sua sperimentazione in animali da laboratorio, mentre molte molecole si fermano a questa fase in quanto non sono sufficientemente interessanti, inoltre una volta arrivati a questo punto è necessario valutare l’efficacia in vivo nel modello animale di malattia, in modo da avere un candidato farmaco che viene poi sottoposto ad una fase di sviluppo pre-clinico e clinico che normalmente viene fatta al di fuori dell’università. L’obiettivo della valutazione dell’efficacia in vivo è valutare che la molecola in esame abbia le proprietà terapeutiche richieste nel modello animale di malattia, valutarne la farmacologia e il profilo di tossicità, modificarne (eventualmente) la struttura per ridurre la tossicità e aumentare l’efficacia del candidato farmaco, identificarne la formulazione migliore e identificare la via di somministrazione ottimale da usare nell’uomo, e tutti questi altri punti spesso sono valutati in modelli animali wild type, ossia sani, spesso anche di grandi dimensioni (il ratto non è sempre la scelta migliore). Per quanto riguarda la verifica che la molecola abbia le proprietà terapeutiche richieste nel modello animale di malattia, è necessario identificare il modello animale, che deve essere il migliore in base alla malattia che si sta studiando, ed è importante scegliere il modello animale che mimi gli aspetti importanti a livello del target precedentemente identificato, è importante anche identificare la via di somministrazione, nonché il tipo di trattamento, che può essere acuto nel caso di una singola somministrazione che determina un effetto dopo poco tempo (48-72h) o cronico, che dovrebbe mimare il trattamento nel momento in cui si passa ad una sperimentazione clinica, e spesso prima si fa il trattamento acuto e poi si passa a quello cronico, e successivamente bisogna identificare gli assays per valutarne l’efficacia, tra i quali per esempio test comportamentali (durante il trattamento), oppure biochimici, molecolari, di immunofluorescenza, in modo da valutare l’efficacia della molecola una volta che l’animale è stato sacrificato. Per quanto riguarda la sperimentazione animale, in life science gli animali sono usati per comprendere processi biologici, migliorare la comprensione delle malattie e sviluppare strategie di intervento terapeutico, una delle cause che ha portato ad avere un fallimento in molti trial clinici era legata alla sperimentazione pre-clinica nei modelli animali che non veniva svolta nella maniera corretta, e questo soprattutto perché l’attenzione al benessere animale non veniva considerata, mentre negli ultimi anni delle normative europee ed italiane hanno messo in primo piano il benessere degli animali in modo da ridurre notevolmente le variabili che potevano alterare un certo dato, in modo da rendere più solido il risultato. Il topo è il modello animale più utilizzato perché dal punto di vista genomico vi è una corrispondenza di oltre il 90%, la vita media di un topo è di 2 anni (questo permette di accorciare i tempi in studi sull’invecchiamento), è un modello facilmente maneggiabile e con un buon tasso di riproduzione, è possibile creare topi geneticamente modificati come modelli di malattia (tramite CRISPR-Cas9, possibile anche in organismi più grandi), ed i meccanismi che vogliamo studiare sono ben rappresentati dai roditori, anche se ci sono delle eccezioni, per esempio essi non sono in grado di vomitare. In Italia la protezione degli animali utilizzati a fini scientifici è disciplinata dal Decreto Legislativo 4 marzo 2014 n.26, che rappresenta il recepimento italiano della Direttiva europea 2010/63/UE, in particolare l’Art.1 (oggetto e ambito si applicazione) afferma che il Decreto si applica ad animali vertebrati non umani e cefalopodi (polpi, calamari, seppie) ma non a Drosophila e C.Elegans. Questa legge definisce delle regole che permettono di valutare il benessere e l’Animal care dell’animale da laboratorio, quindi si ha una regolamentazione della sperimentazione, è necessaria una formazione professionale del personale di alto livello, essa regola la diffusione dell’informazione, l’aggiornamento sulle moderne tecnologie/procedure per garantire il benessere dell’animale, e regola anche la ricerca di tecniche alternative per ridurre l’uso D’Apolito Francesca 20 degli animali. Queste regole derivano da due ricercatori, Russel e Burch (rispettivamente zoologo e microbiologo), che nel 1959 pubblicarono un libro (The Principles of Humane Experimental Technique) per ridurre l’impatto della sperimentazione sugli animali. Il principio delle 3R si basa su Replacement, Reduction e Refinement; Replacement (Sostituzione) implica che l’uso degli animali, quando possibile, debba essere sostituito con tecniche alternative, o evitato completamente, mentre se non possibile, bisogna usare la specie animale a più basso sviluppo neurologico compatibile con l’obiettivo del progetto di ricerca, e l’UE ha contribuito alla nascita di un centro per la convalida dei metodi alternativi (European Union Reference Laboratory for alternatives to animal testing, EURL-ECVAM), Reduction (Riduzione) significa ridurre al minimo il numero degli animali utilizzati cercando di acquisire i dati con un minor numero di animali, o acquisendo più dati con gli stessi animali (ottimizzazione degli animali che si utilizzano), mentre il Refinement (Raffinamento) è l’ottimizzazione delle procedure per ridurre il dolore e la sofferenza e/o migliorare il benessere degli animali, e questo non giova solo agli animali, ma migliora anche la qualità dei risultati della ricerca e riduce il grado di stress negli animali. Esistono delle restrizioni introdotte con la legge italiana D.lgs 26/2014, ossia il divieto di utilizzare gli animali per gli xenotrapianti d’organo (ma è possibile trapiantare cellule staminali), il divieto dell’uso di animali nelle ricerche sulle sostanze d’abuso, nonché del loro uso nella didattica e nella formazione universitaria (tranne per veterinari), e prevede anche il divieto di allevare in Italia cani, gatti e primati non umani destinati alla ricerca scientifica; queste restrizioni ad oggi non sono in atto, infatti è stata fatta una moratoria di 3 anni (sospensione di quelle restrizioni), e questa è stata prorogata fino al 2025. Gli aspetti positivi della normativa sono il fatto che ha sostituito quella precedente introducendo un articolato sistema di controllo per chi intende impiegare animali per fini scientifici in tutte le fasi della ricerca, e questo ha permesso di ridurre la sofferenza dell’animale e creare condizioni sperimentali migliori per gli studi pre-clinici. Per quanto riguarda l’autorizzazione dei progetti, è vietata l’esecuzione di progetti di ricerca che prevedono l’utilizzo di animali senza la preventiva autorizzazione del Ministero della Salute, o in modo non conforme alla autorizzazione medesima e ad ogni altra determinazione eventualmente adottata dal Ministero. È quindi necessario scrivere un protocollo sperimentale, della durata di 2-5 anni, con un elenco dei ricercatori (formati) che possono accedere allo stabulario, e dove si ha una descrizione dettagliata delle procedure (es. attività di ricerca/progetti), il numero di animali che verranno utilizzati e la giustificazione statistica, i metodi di sacrificio o farmaci utilizzati per ridurre il dolore, la classificazione delle procedure (non risveglio, lievi, moderate, gravi), ed assegnando la gravità delle colonie transgeniche utilizzate (es. i modelli animali Huntington sono classificati come gravi). Nel momento in cui c’è un’ipotesi scientifica, si definisce un progetto ed è presente un Ente Finanziatore, si può scrivere il Protocollo Sperimentale di 2-5 anni, esiste una commissione interna ad ogni laboratorio detta OPBA che valuta il protocollo, lo invia al Ministero della Salute, il quale può autorizzare o no il protocollo indipendentemente dal finanziamento, inoltre l’OPBA funge anche da comitato etico, ed il protocollo deve indicare tutte le persone che lavoreranno con gli animali, i quali devono avere una formazione specifica accreditata dal Ministero. L’aspetto importante del protocollo di ricerca sono gli obiettivi scientifici, che ovviamente D’Apolito Francesca 21 devono essere in primo piano, ed oltre a ciò il Ministero della Salute fa una sorta di analisi costi/benefici, ossia una matrice (il cubo di Bateson) che suggerisce il livello di sofferenza che dovrebbe essere abbinato alla ricerca, quindi da una parte si hanno i danni ai quali gli animali dovrebbero essere sottoposti, rispetto ai benefici che si possono ottenere per l’uomo e per gli animali stessi con quegli esperimenti, e questo permette di identificare la probabilità di ottenere benefici. La formazione del personale (Decreto ministeriale del 5 agosto 2021, Decreto Direttoriale 18 marzo 2022) viene determinata sulla base di criteri e accreditamento dei corsi di formazione del personale specializzato, infatti tutto il personale che opera in stabulario deve essere formato (corso di perfezionamento di 44h accreditato dal Ministero della Salute), e la formazione deve essere aggiornata periodicamente, in particolare tratta della realizzazione di procedure sugli animali, della concezione delle procedure e di progetti, della cura degli animali e della loro soppressione. La legge riassume il rispetto delle 3R, la stabulazione dei roditori, il monitoraggio sanitario, il trasporto degli animali, le procedure e le tecniche nei roditori, la tutela della salute, la sicurezza sul luogo di lavoro ed il reinserimento degli animali da laboratorio, infatti esistono delle strutture che accolgono gli animali che sono stati utilizzati in ricerca ma non sono stati sacrificati. Lo stabulario deve essere SPF (Specific Patogen Free), infatti gli animali devono essere monitorati dal punto di vista sanitario, e per mantenere questa condizione è necessario vestirsi in un certo modo e seguire delle regole in modo tale da non essere portatori di patogeni per gli animali, inoltre c’è un percorso unidirezionale di entrata ed uscita dagli stabulari, in modo da evitare di portare contaminazioni all’interno delle aree. Un altro aspetto fondamentale della normativa è che l’arricchimento è diventato obbligatorio, infatti i topi sono animali sociali, perciò si parla di arricchimento sociale che permette l’introduzione di altri individui della stessa specie nella stessa gabbia, ma anche l’arricchimento fisico, ossia la presenza di strutture di plastica autoclavabili o di cartone nella gabbia, che sono una sorta di gioco per questi organismi, in modo da ridurre lo stress. Per quanto riguarda le procedure nei modelli animali, bisogna indicare qualsiasi uso, invasivo o non invasivo, di un animale, che possa causare all’animale un livello di dolore, sofferenza o stress o danno prolungato equivalente o superiore a quello provocato dall’inserimento di un ago secondo le buone prassi veterinarie, per esempio bisogna indicare le vie di somministrazione del candidato farmaco, i prelievi di sangue, le operazioni chirurgiche in anestesia, i test comportamentali, il sacrificio in anestesia ecc. EFFICACIA DEL CANDIDATO FARMACO IN VIVO, GLI STUDI PRE-CLINICI La valutazione dell’efficacia in modelli animali, quindi in vivo, fa parte della fase di caratterizzazione farmacologica e permette di capire quanto il candidato farmaco può agire sul target in un organismo molto più complesso rispetto al sistema di cellulare, per fare ciò è necessario decidere il modello animale di malattia migliore, e questa scelta non è semplice e deve essere fatta in base, ad esempio, al target. I modelli animali devono ricapitolare alcuni aspetti della malattia umana, questi possono essere topi geneticamente modificati, che sono utili per fare una delezione del gene associato alla malattia piuttosto che un inserimento del gene mutato che causa la malattia, ma anche topi chimicamente trattati per indurre una degenerazione acuta, utile nel caso di malattie dove la caratteristica tipica è appunto la degenerazione di un tipo cellulare, o ancora dei topi che sviluppano spontaneamente la malattia, ossia che hanno una predisposizione genetica per lo sviluppo di alcune condizioni patologiche associate alle malattie. Se si parla di topi geneticamente modificati, nel momento in cui ci si trova di fronte ad una malattia monogenica (causata dalla mutazione di un singolo gene), nel caso il gene che la causa sia noto e la mutazione o delezione di quel gene causa la malattia, spesso si ha l’acquisto di funzioni nuove e tossiche in alcune malattie (es. Huntington) e perdita di espressione di alcune proteine, nel caso della malattia di Huntington il gene mutato (CAG espanso) è D’Apolito Francesca 22 quello codificante la proteina huntingtina, mentre nel caso della fibrosi cistica, il gene mutato codifica per la proteina CFTR, un canale del cloro. Nelle malattie idiopatiche ci sono diversi geni associati alla malattia ma che non sono la causa della stessa, ma anche geni di forme ereditarie causate dalla mutazione di alcuni geni, un esempio è la malattia di Parkinson, dove sono presenti varie forme associate alla mutazione di determinati geni, quindi questi sono stati identificati e sfruttati per mimare in un modello animale di malattia, ed in questo caso specifico la malattia deriva da aggregati soprattutto di alfa-sinucleina, perciò la presenza di suoi aggregati negli animali può minare la malattia. Un modo per andare a produrre topi geneticamente modificati è CRISPR/Cas9, ma anche mutagenesi random (meno utilizzata nel topo) che, a seconda del fenotipo che si ottiene, permette di risalire al gene, piuttosto che tramite i geni Knock Out (delezione del gene target); il classico modo che ha permesso di creare i primi modelli animali geneticamente modificati è il gene targeting, che utilizza la ricombinazione omologa nelle ES di topo (cellule staminali embrionali), oppure si ha un inserimento random del transgene nello zigote, e a differenza di quest’ultimo in CRISPR/Cas9 (genome editing) e ricombinazione omologa in ES il gene si conosce. Per quanto riguarda il gene targeting, si inizia sempre da un vettore, normalmente si utilizzano cellule ES murine (estratte dalla blastocisti), si trasfettano con il vettore di interesse e, mediante diverse strategie, si selezionano tutte quelle che hanno inserito il gene target, poi solo quelle geneticamente modificate vengono inserite in una blastocisti di topo, la quale viene impiantata in un topo femmina pseudo- gravido, ossia che è stata accoppiata con un maschio in modo tale che produca tutti gli ormoni necessari per accogliere la blastocisti e portare avanti la gravidanza, quindi ci saranno cellule ES endogene e cellule geneticamente modificate, normalmente le cellule ES derivano da un topo con un certo colore del pelo, come bianco, mentre la blastocisti deriva da un altro topo di colore diverso, come ad esempio nero, quindi la blasto