Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2009  novembre 18 Mercoledì calendario

SOS, LE MEDICINE SONO QUASI FINITE


Per un secolo il paradigma dominante in farmacologia è stato quello della ricerca del «determinante molecolare» di una malattia o, comunque, del punto debole attraverso il quale contrastare un malfunzionamento dell’organismo. Il farmaco, interferendo con questo determinante, avrebbe curato la malattia, tenendo al minimo gli effetti collaterali.
Milioni di molecole sono state provate negli anni nei laboratori di tutto il mondo su preparati minimali, spesso composti da raccolte il più possibile pure del ricettore corrispondente al presunto «elemento critico»: venivano accettate come meritevoli di ulteriori ricerche solo le molecole che si legavano selettivamente al ricettore d’interesse e si scartavano i derivati che mostravano spettri d’azione meno specifici, ma più ampi. La strategia ha funzionato in modo egregio a lungo, poi, improvvisamente, intorno agli Anni 80, ha smesso di funzionare con un apparente paradosso: la crescita esponenziale delle conoscenze di base in biologia si è rispecchiata nel crollo verticale del numero di nuovi farmaci immessi sul mercato.
La crisi fu descritta in un articolo di John Overington del 2006, in cui si stimava che il 76% dei farmaci sviluppati negli ultimi 20 anni si riferiva a ricettori scoperti più di 30 anni prima, mentre solo il 6% poteva dirsi figlio di scoperte più recenti. Infine, del rimanente nessuna ipotesi plausibile di meccanismo d’azione poteva essere immaginata. Tutti i farmaci sul mercato, poi, avevano come bersagli molecolari 130 molecole proteiche - i ricettori - appartenenti a 5 famiglie principali, un numero esiguo, se confrontato con le 16 mila famiglie proteiche riconosciute dalla genomica.
Che qualcosa sia andato storto è evidente, ma che cosa? Per capirlo dobbiamo riferirci al paradigma latente alla biologia molecolare che aveva plasmato speranze poi andate deluse. Anche se nessun biologo lo ammetterebbe mai, la metafora era quella di considerare un organismo alla stregua della pulsantiera di un jet di linea, dove a ogni azione corrisponde un comando: è sufficiente azionare il comando giusto perché si produca l’effetto corrispondente che attraversa tutte le scale, da quella microscopica del ricettore a quella macroscopica del sistema globale. Basta spingere il pulsante giusto o, come si dice nella divulgazione scientifica, la «molecola responsabile per...», per ottenere, come per magia, il risultato.
Alla base della concezione farmacologica classica c’è l’idea che una perturbazione applicata ad un elemento critico («la molecola responsabile per...» o «il gene del...») si riverberi sull’intero sistema: dall’iniziale legame del farmaco con il ricettore si arriva a un effetto sull’intero organismo e quindi il tutto diventa clinicamente rilevante. Fortunatamente per noi - che saremmo altrimenti in balia di qualsiasi fluttuazione microscopica - questo avviene di rado e in casi particolari, in cui l’organismo ha bisogno di un controllo veloce e repentino. Al contrario, gran parte dei fenomeni rilevanti in biologia avviene attraverso una struttura reticolare, in cui azioni e retroazioni si bilanciano, e il sistema ha molte strade per raggiungere i suoi «scopi».
Avere un quadro abbastanza realistico dei passaggi di scala in biologia - cioè di come quello che avviene in una cellula si propaghi a livello dei tessuti e dell’organismo, e, cosa ancora più interessante, di come eventi con origine macroscopica influenzino scale più microscopiche - è riconosciuto come il problema più urgente della ricerca biologica. Nel convegno che si svolgerà il 20 novembre all’Istituto Superiore di Sanità, in collaborazione con la Fondazione Sigma-Tau, il taglio sarà più pragmatico: capire come razionalizzare l’«effetto di perturbazione» sulle reti. In particolare, il gruppo di Peter Csermely ha immaginato una farmacologia «di rete» - «Network Pharmacology» - in cui, invece di modificare in modo massiccio un nodo del sistema, si provochi una modificazione dei legami che mettono in relazione gli elementi. Significa cercare qualcosa che si leghi a molti nodi diversi: è proprio ciò che veniva scartato nel paradigma precedente.
Csermely si basa sugli effetti di alcuni farmaci che si sono rivelati «multi-target drugs» (e quindi possibili farmaci di rete) e fornisce indicazioni per cercarli, utilizzando alcune regolarità della risposta delle reti alle perturbazioni esterne. Siamo ancora in una fase embrionale, ma è urgente avere almeno degli indizi con cui capire il sempre più frequente ricorso ai cocktails farmaceutici per venire a capo di patologie resistenti ai classici farmaci a «principio attivo singolo». All’orizzonte si delinea la possibilità per la farmacologia di tornare ad essere efficace.