CC

Licenza Creative Commons
Questo opera di above the cloud è concesso sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.

The Copyright Laws of the United States recognizes a “fair use” of copyrighted content. Section 107 of the U.S. Copyright Act states: “Notwithstanding the provisions of sections 106 and 106A, the fair use of a copyrighted work (...) for purposes such as criticism, comment, news reporting, teaching, scholarship, or research, is not an infringement of copyright.”
Any image or video posted is used according to the fair use policy
Ogni news è tratta da articoli peer reviewed ed è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto sia datato.
QUALUNQUE link in questa pagina rimanda a siti sicuri!! SEMPRE.
Volete aiutare questo blog? Cliccate sugli annnunci/prodotti Amazon (se non li vedete, disattivate l'Adblocker mettendo questo sito nella whitelist. NON ci sono pop up o script strani, SOLO Amazon). Visibili in modalità desktop! Se poi decidete di comprare libri o servizi da Amazon, meglio ;-)
Dimenticavo. Questo blog NON contiene olio di palma (è così di moda specificarlo per ogni cosa...)

Visualizzazione post con etichetta Salute. Mostra tutti i post
Visualizzazione post con etichetta Salute. Mostra tutti i post

Infezioni respiratorie e rischio attivazione tumori dormienti

Infezioni respiratorie comuni (dall'influenza al Covid19) potrebbero essere in grado di risvegliare le cellule dormienti tumorali favorendo così la comparsa/accelerazione di metastasi.
La conclusione viene da uno studio ottenuto incrociando dati dalla clinica con quelli ottenuti da un modello murino.

Primo tassello dello studio pubblicato su Nature l'analisi dei pazienti oncologici ancora in vita (dati presi dalla UK Biobank) la cui malattia era stata diagnosticata almeno 5 anni prima della pandemia di COVID. L'analisi ha mostrato che coloro che, durante e dopo la pandemia, sono risultati positivi al test del COVID avevano un rischio quasi doppio di morire di cancro rispetto ai pazienti con cancro risultati negativi.
Restringendo il periodo di follow-up al 2021 l'odd ratio (OR) saliva a 8, indicando che l'aumento del rischio di mortalità per cancro è maggiore nei primi mesi dopo l'infezione da SARS-CoV-2.
Secondo tassello l'analisi di 36.845 donne con tumore al seno con il fine di determinare se avessero un rischio aumentato di progressione verso la malattia metastatica nei polmoni dopo l'infezione da COVID. In effetti le sopravvissute che avevano contratto il COVID dopo la diagnosi iniziale di tumore mostravano un hazard ratio  (HR) aggiustato per età, razza ed etnia di 1,44 per la successiva diagnosi di metastasi nei polmoni.
In sintesi i risultati indicano che le persone con una storia di cancro sono tra i primi beneficiari di qualunque precauzione (leggasi vaccinazione) che contrasti l'infezione da virus respiratori. O in parole ancora più semplici sempre meglio evitare le infezioni se possibile.
Questo vale per i virus influenzali e il Sars-CoV-2 (compresi i coronavirus prossimi venturi)
Non una sorpresa se si considerano le precedenti evidenze che suggerivano come lo stato infiammatorio in generale sia in grado di risvegliare le cellule tumorali disseminate (DCC), cellule che si staccano da un tumore primario e si diffondono in organi distanti. E i virus respiratori sono un ottimo esempio di qualcosa in grado di indurre infiammazione.
Evidenze confermate dal terzo e ultimo tassello consistente in test per verificare se le infezioni da virus respiratori possano portare al risveglio di queste cellule tumorali, con conseguente progressione metastatica della malattia. 
Test condotti su un modello murino di carcinoma mammario metastatico, che includeva DCC dormienti nei polmoni e topi successivamente esposti a virus come SARS-CoV-2 o influenza. I risultati sono stati chiarissimi: dopo l'infezione virale si è rilevato un aumento da 100 a 1.000 volte del numero di queste cellule tumorali nell'arco di alcune settimane.
Per comprendere il meccanismo alla base di questo processo i ricercatori hanno condotto un'analisi molecolare che ha dimostrato che il risveglio delle DCC dormienti era guidato (e dipendente) dall'interleuchina-6, una proteina che le cellule immunitarie rilasciano in risposta a lesioni o infezioni.
Il team ha anche scoperto che questo processo è seguito da un ritorno a quiescenza e creazione di nicchie cellulari CD4+ che inibiscono l'eliminazione del DCC, in parte attraverso la soppressione delle cellule CD8+. 
In altre parole, una volta che queste cellule si sono espanse, risultano protette dal sistema immunitario. Invece di eliminare attivamente le cellule tumorali, il sistema immunitario le protegge dall'eliminazione immunitaria.

Pur riconoscendo che le differenze di specie giustificano cautela nell'interpretazione dei dati sui topi, i dati basati sulla popolazione "mostrano che il infezioni polmonari aumentano il rischio di metastasi polmonari nelle pazienti con tumore al seno.

Fonte
Respiratory viral infections awaken metastatic breast cancer cells in lungs
Shi B. Chia et al, (2025) Nature




Il boom in borsa dei farmaci antidiabetici che fanno anche perdere peso

Tra le hit di borsa degli ultimi mesi figurano alcune aziende farmaceutiche accomunate dal lancio di farmaci i cui principi attivi paiono ugualmente efficaci come antidiabetici e per perdere peso, due degli elementi chiave per contrastare la sempre più diffusa sindrome metabolica.

Elemento chiave dell'entusiasmo tra gli analisti l'incontrovertibile effetto positivo di questi farmaci contro l’obesità (Zepbound) e il diabete (Mounjaro) ma anche la lunghezza dell'ultimo studio clinico a supporto dei risultati, durato 176 settimane, che dimostra continuità dell’effetto e assenza di rilevanti effetti collaterali. Nello specifico rispetto al gruppo di controllo trattato in doppio cieco con un placebo, i soggetti (in sovrappeso o obesi) trattati con il farmaco hanno mostrato una riduzione media del 94% del rischio di sviluppare diabete di tipo 2 (T2DM), la patologia più comune tra questa categoria di persone, e una riduzione media del 22,9% del peso corporeo.
Alla fine dello studio durato poco meno di 3 anni e mezzo è stato inserito un periodo di 17 settimane senza farmaco così da avere un quadro completo della funzione farmacologica e della durata dell'effetto nei mesi successivi. Vero che al termine del trattamento i pazienti hanno iniziato a riprendere peso mostrando una alterazione dei parametri in senso diabetico ma il fattore di rischio di sviluppare il diabete propriamente detto è risultato inferiore dell’88% rispetto a prima di iniziare il trattamento. Un trattamento che come per tante terapie della sindrome metabolica deve essere continuativo, sebbene (i dati lo confermano) possa essere interrotto senza grossi problemi.
Di nuovi farmaci contro l’obesità ce ne sono stati vari nell'ultimo decennio (molti dei quali ritirati dal mercato) ma ben pochi sono stati accompagnati da studi clinici con risultati così chiari come Zepbound e Mounjaro, prodotti da Eli Lilly, che in comune hanno come principio attivo la molecola tirzepatide, brevettata nel 2016 con finalità di controllo glicemico nei soggetti affetti da T2DM e approvata nel 2021 dalla FDA.
L’effetto dirompente lo si è avuto dopo la conferma che le osservazioni aneddotiche sulla capacità della stessa di indurre perdita di peso erano fondate.
Tali osservazioni avevano convinto molti medici a prescriverla off-label a individui obesi. Ricordo che in assenza di studi clinici dedicati un farmaco (approvato per altro scopo) NON può essere prescritto come terapia per altra patologia. La FDA ha autorizzato l’uso come farmaco per la perdita del peso solo nel 2023, nella formulazione nota come Zepbound.
Ciliegina sulla torta il nuovo studio (ora sotto revisione) dimostra l'efficacia della tirzepatide anche nei soggetti prediabetici con finalità di prevenzione.

La tirzepatide appartiene a una classe di farmaci antidiabetici che funzionano come agonisti del recettore dell'ormone peptidico Glp-1 (glucagon-like peptide 1), molecole con azione simile a quella dell'ormone peptidico Glp-1 prodotto dal corpo per regolare l’appetito
Nei soggetti sani il livello dell’ormone si abbassa durante il digiuno, il che è innesca lo stimolo della fame. Negli individui obesi il livello si mantiene basso e questo spiega la loro ricerca di cibo anche subito dopo avere mangiato. Ulteriori dettagli a fine articolo **.
Nota aggiuntiva. Uno studio recente ha dimostrato come l'atto di ingoiare induca il rilascio di serotonina (ormone associato alla sensazione di piacere) che spiega come, in individui predisposti, il mangiare invece di indurre sazietà porti ad un rinforzo del piacere di mangiare.
In aggiunga al suo ruolo di agonista, la tirzepatide funziona anche come recettore del peptide inibitorio gastrico (Gip), ormone che ha dimostrato di poter migliorare l'efficienza con cui l'organismo scompone gli zuccheri e i grassi attraverso l'aumento della produzione di insulina e del tempo di ritenzione del cibo nello stomaco. I recettori del Gip si trovano, non sorprendentemente, selle cellule beta nel pancreas.

Tutto fa pensare che i farmaci basati sulla tirzepatide diventeranno la gallina dalle uova d’oro per Eli Lilly senza che questo pesi sui conti (statali o personali) dato il costo molto contenuto del trattamento (pesato per la diminuzione dei costi sanitari in assenza di trattamento)

***

Altra azienda molto attiva nello stesso segmento terapeutico è la danese Novo Nordisk, i cui farmaci di punta sono Ozempic (per il diabete ma da usare con cautela come ben insegna quel "genio" di Lottie Moss) e Wegovy (per la perdita di peso). Diverso il principio attivo che qui è la semaglutide, anch’essa una molecola agonista del recettore Glp-1. 


Nota
** GLP-1 (glucagon-like peptide 1) è un ormone che stimola la produzione dell’insulina e inibisce la secrezione del glucagone. Viene rilasciato dall’intestino dopo il pasto quando la glicemia inizia a salire per effetto dei carboidrati assunti. Il che spiega la popolarità degli analoghi del Glp-1, per la loro impossibilità a causare ipoglicemia, rischio invece concreto con le iniezioni di insulina.
Il GLP-1 rallenta inoltre lo svuotamento gastrico il che a cascata aumenta la sensazione di sazietà e riduce l’appetito, agendo direttamente sui centri di regolazione della fame del sistema nervoso centrale. Alcune osservazioni indicano anche una potenziale azione protettiva delle cellule beta del pancreas e del cuore.
Una volta in circolo il GLP-1 viene distrutto dall’enzima DPP-4 (dipeptil-peptidasi 4) e questo spiega perché non sia mai stato utilizzato a scopo terapeutico (sarebbe necessaria una infusione continua…). Da qui la ricerca di molecole equivalenti (dette analoghi) capaci di agire da agonisti sul recettore dell’ormone e più resistenti alla degradazione, meglio ancora se associati a molecole/matrici inserite in dispositivi (es. cerotti o infusori) che rallentano l’assorbimento cutaneo così da allungare la finestra temporale di utilizzo. A seconda dell'analogo la somministrazione prevede iniezioni da 1 volta al giorno a una volta a settimana (dulaglutide)
Curiosità. La prima molecola con tali proprietà, exenatide, venne sviluppata a partire da una molecola estratta dal veleno della lucertola Gila Monster

Pesticidi comuni e rischio Parkinson

Poco più di 10 anni fa scrivevo dei forti indizi tra l'uso estensivo di pesticidi e il rischio di contrarre il morbo di Parkinson (vedi articolo in calce).
Nel 2023 il dato pare essere stato confermato con l'identificazione di 10 pesticidi tossici per i neuroni dopaminergici (direttamente coinvolti nel movimento volontario).
Credit: neurosciencenews.com
Ecco un breve riassunto
I ricercatori hanno individuato 10 pesticidi che danneggiano in modo significativo i neuroni coinvolti nell’insorgenza della malattia di Parkinson.
Sebbene fattori ambientali come l’esposizione ai pesticidi siano stati a lungo collegati al Parkinson, identificare con certezza il/ vero/i responsabile di questa malattia neurodegenerativa si è rivelata una prova ardua per l'assenza di test specifici
Il nuovo studio pubblicato l'anno scorso su Nature Communications ha esaminato i pesticidi più in uso in California (grazie ad un database molto accurato) con test innovativi per identificare quelli direttamente tossici per i neuroni dopaminergici, cellule cruciali per il movimento volontario.
Il risultato ha mostrato che almeno 10 pesticidi (alcuni ancora presenti) usati nella coltivazione del cotone mostravano effetti diretti su queste cellule. Tra gli effetti più forti le combinazioni di pesticidi che contengono trifluralin, uno degli erbicidi più usati in California.

A parte la loro tossicità nei neuroni dopaminergici, i pesticidi identificati hanno poco in comune sia nella struttura/classe di molecole che come gamma di utilizzo

Nel prossimo futuro i ricercatori si focalizzeranno sullo studio delle alterazioni epigenetiche e metabolomiche legate all’esposizione cercando di capire quali sono i circuiti alterati che portano alla morte delle cellule dopaminergiche


Fonte
- A pesticide and iPSC dopaminergic neuron screen identifies and classifies Parkinson-relevant pesticides
Richard Krolewski et al. Nature Communications


***

Pesticidi e Parkinson: ricercatori UCLA identificano un nuovo collegamento
(26(0/2013)
Il morbo di Parkinson (PD) è una malattia neurodegenerativa invalidante che colpisce milioni di persone in tutto il mondo. I sintomi caratteristici - tra cui tremore, rigidità, difficoltà nei movimenti e della parola - sono il risultato della morte dei neuroni posti nella substantia nigra, un'area particolarmente ricca di neuroni dopaminergici. Quando il Parkinson si manifesta, circa la metà dei neuroni dopaminergici in questa area sono già morti.

Salvo quei casi in cui esiste una familiarità della malattia, le cause principali sono da ricercarsi in inquinanti ambientali.

Per diversi anni i neurobiologi della UCLA hanno cercato conferme sul nesso tra la presenza di pesticidi e morbo di Parkinson. Ad oggi, il paraquatmaneb e ziram - alcune fra le sostanze chimiche più usate dagli agricoltori californiani - sono tra i principali indiziati (mancano infatti dati conclusivi) dell'aumentata frequenza della malattia sia nei contadini che tra le persone che vivevano in vicinanza dei terreni trattati. 
Detto per inciso è curioso che i tanti avversari degli OGM (in uso da 10 anni e senza alcun elemento di tossicità trovato) non abbiano invece alcuna remora nel consumare vegetali trattati con prodotti simili. Curioso visto che il vantaggio principale della agricoltura OGM è di ridurre al minimo i trattamenti chimici.
 Come se non bastasse ecco che ora, grazie allo studio di Jeff Bronstein pubblicato sulla rivista PNAS, un nuovo pesticida viene fatto salire sul banco degli imputati, il benomil, i cui effetti tossici ambientali sono ancora presenti a 10 anni di distanza dalla proibizione da parte della EPA (Environmental Protection Agency) americana. Ma un dato è ancora più inquietante: l'aumentata incidenza di Parkinson sarebbe causata da un effetto indiretto del pesticida.

Alcuni dati riassuntivi a tal riguardo. 
Il benomil inibisce un enzima, la aldeide deidrogenasi (ALDH), importante nel processo di detossificazione della diidrossifenilacetaldeide (DOPAL) un metabolita naturale della dopamina cerebrale. E' evidente che se l'enzima viene inibito, il sottoprodotto tossico (del tutto fisiologico) della dopamina aumenta. Quindi in questo caso non è l'erbicida in se ad essere tossico, ma il suo effetto indiretto. Per spiegarmi meglio, i test di tossicità condotti a suo tempo avrebbero potuto dare segnali allarmanti solo se fossero stati condotti sul metabolismo dei neuroni dopaminergici.
Questo per quanto riguarda i dati di laboratorio, che sono indiziari e non conclusivi vista l'ovvia impossibilità di fare studi sull'uomo.
In ambito scientifico ogni ipotesi per essere validata necessita di studi di causa-effetto. L'unica strada percorribile quindi è stata quella di integrare i dati da colture cellulari con quelli ricavati da animali.
I risultati non si sono fatti attendere: test in zebrafish hanno dimostrato che il benomil colpisce prevalentemente i neuroni dopaminergici lasciando inalterati gli altri neuroni.
 
E' probabile che la comparsa del PD sia il risultato della somma di concause ambientali (inquinanti vari) e di predisposizione genetica. Ad oggi i geni (o meglio gli alleli) noti per essere fattori di predisposizione sono la alfa-synuclein e LRRK2. In entrambi i casi il risultato autoptico mostra la degenerazione dei neuroni della substantia nigra pars compacta a causa dell'accumulo dei corpi di Lewy (ricchi di alfa-synuclein).
Ora con la scoperta di un nuovo meccanismo le possibilità di sviluppare una terapia raddoppiano. Come? Ad esempio mediante farmaci in grado di preservare l'attività della ALDH.

Fonti
Pesticides and Parkinson's: UCLA researchers uncover further proof of a link.

 - Aldehyde dehydrogenase inhibition as a pathogenic mechanism in Parkinson disease
   Proc Natl Acad Sci U S A. 2013 Jan 8;110(2):636-41.
   



I farmaci "psichedelici". Una risorsa di cui però si ignora il meccanismo di azione

Ne ho scritto in passato (a partire dall'approvazione della ketamina come antidepressivo) quindi non dico nulla di nuovo citando gli studi in dirittura d'arrivo su farmaci derivati da molecole con attività non solo psicotropa ma psichedelica (vedi i funghi allucinogeni). Studi mirati a verificare l'efficacia del trattamento (riduzione dei sintomi) senza però che sia compreso a fondo il loro meccanismo d'azione cerebrale.
Illustration by Kasia Bojanowska
Il tutto nasce dall'utilizzo (plurisecolare se non millenario) da parte di alcune culture di droghe naturali a scopi rituali e terapeutici. Esempi in tal senso sono la psilocibina (da funghi allucinogeni), la mescalina (presente nel peyote, una pianta succulenta del Messico), l'ibogaina (estratta dalla corteccia di un arbusto centro-africano). 
Libro in cui si tratta, con piglio giornalistico/antropologico delle 4 principali piante con attività psicotropa (credit: Amazon)


Già alla fine degli anni '50 si iniziarono studi per determinare in modo rigoroso il loro potenziale terapeutico come antidepressivi, che però vennero in gran parte terminati quando queste e altri allucinogeni sintetici (ketamina, LSD, MDMA, ...) quando queste sostanze furono vietate o sottoposte a forte controllo nella maggior parte dei paesi. 
Si è dovuto attendere l’inizio degli anni 2000 per nuovi studi clinici che confermarono sia il potenziale terapeutico che la possibilità di usare versioni modificate di queste molecole, depauperate della loro attività allucinogena così da evitare rischio dipendenze e abusi.

Il 2019 ha segnato un momento importante di queste sperimentazioni quando una variante della ketamina (più sicura e priva di effetti allucinogeni) ha ricevuto il via libera da parte della FDA come  trattamento per il disturbo da stress traumatico (PTSD). Lo scorso maggio (2023) l'Oregon ha aperto il suo primo centro di trattamento per la somministrazione di psilocibina, risultato però di un percorso diverso cioè della decisione dello Stato di legalizzarla (la psilocibina rimane invece illegale negli altri stati). Negli ultimi mesi una organizzazione di ricerca senza scopo di lucro ha chiesto formalmente alla FDA l'approvazione della MDMA (nota anche come ecstasy) per il PTSD in base a due studi che ne hanno evidenziato la capacità, previa somministrazione sotto stretto controllo, di ridurre i sintomi più velocemente di altri trattamenti oggi disponibili.

Ci sono però alcune ombre in questi risultato legati sia ai limiti della sperimentazione animale per farmaci ad uso psichiatrico che (conseguenza del precedente e dei forti vincoli nel loro utilizzo sugli umani) le grandi lacune nella conoscenza del meccanismo d'azione di MDMA e di altre sostanze psichedeliche. Il recente cambiamento normativo che ha reso "più semplice" usare/studiare queste droghe sugli umani aiuterà a fare luce su alcuni meccanismi ma ci vorranno anni per avere un quadro paragonabile a quello dei farmaci non psichiatrici approvati. La comprensione del meccanismo del farmaco è inoltre un passaggio obbligato per disegnare molecole che mantengono la funzione terapeutica ma più sicure e private della loro componente allucinogena.

Alcune informazioni aggiuntive.
Da un punto di vista farmacologico, la parola “psichedelico” si riferisce storicamente a molecole con attività allucinogena (ad es. psilocibina, LSD, etc) che si legano ad uno dei vari recettori della serotonina chiamato 5-HT2A presente sulla superficie dei neuroni. Sebbene tale definizione non includa sostanze come ketamina o l’ibogaina, queste droghe sono spesso raggruppate insieme alle sostanze psichedeliche sia negli articoli di ricerca che sui media. Perfino il tetraidrocannabinolo, il principio attivo della cannabis, è talvolta catalogato come sostanza psichedelica. Va da sé che il permanere di tale definizione vaga, combinata con la mancanza di reagenti e protocolli standardizzati, può rendere difficile per i ricercatori confrontare il loro lavoro con quello pubblicato da altri colleghi.
Aggiungiamo poi il fatto che sostanze "psichedeliche" come ketamina e MDMA, sono funzionalmente "sporchi" perché interagiscono con molti tipi di neuroni e molecole nel cervello. Perfino gli psichedelici classici (LSD e psilocibina) interagiscono, anche, con recettori diversi dal 5-HT2A.

La recente "promozione" della ketamina da anestetico veterinario, (mal)usato come droga da party dagli umani, a farmaco antidepressivo è conseguenza della sua capacità di legare e bloccare il recettore NMDA, recettore ionotropico del glutammato presente sulla membrana dei neuroni e che gioca un ruolo essenziale nella plasticità sinaptica e nel consolidamento della memoria. Con il blocco si innesca una serie di eventi molecolari che, in modo inatteso (vale a dire non previsto dalle conoscenze precedenti), contrastano lo stato depressivo. Alcuni studi hanno ipotizzato che il tutto sia conseguenza dell'azione di un prodotto di degradazione della ketamina che va a legare a un recettore non ancora identificato.
Un recente articolo ha provato che la ketamina può rimanere intrappolata nel recettore NMDA e sopprimere, in alcune regioni del cervello, l’attività del recettore fino a 24 ore, il che potrebbe spiegare la potenza e velocità del suo effetto rispetto ai classici antidepressivi.

Alcuni ipotizzando che tutte le droghe "psichedeliche" potrebbero avere qualcosa in comune, anche se non utilizzano il recettore della serotonina. Una conferma in questa direzione viene da studi che hanno mostrato che tutte queste sostanze si legano (anche) al recettore di un fattore di segnalazione cerebrale noto come fattore neurotrofico derivato dal cervello (BDNF), coinvolto nella crescita dei neuroni e nel ricablaggio del cervello.
Vero che anche gli antidepressivi classici, come il Prozac (fluoxetina), si legano al recettore, ma il legame è fino a 1000 volte più debole rispetto agli psichedelici, il che spiega perché uno sembri migliorare i sintomi in poche ore, mentre gli altri richiedano molti mesi.
In verità sebbene non tutti i ricercatori concordano con il ruolo prominente del recettore BDNF, vi è accordo sul fatto che le droghe psichedeliche aumentino la plasticità cerebrale, consentendo ai dendriti e agli assoni che formano i circuiti neurali di diversificarsi e creare nuove connessioni. La plasticità potrebbe aiutare una persona depressa a vedere il mondo in un modo diverso, o aiutare una persona con PTSD a disconnettere i propri ricordi traumatici da una risposta di paura. Vero però che la plasticità in sé e per sé non è necessariamente una buona cosa: ci sono buone ragioni per cui il cablaggio del cervello si sviluppa in questo modo e mantiene connessioni tra esperienze ed effetti.
Ad esempio alcune condizioni patologiche come autismo e schizofrenia, potrebbero (talvolta) derivare da un’eccessiva plasticità del cervello. Inoltre, tutti i tipi di droga, comprese la cocaina e le anfetamine, possono indurre una sorta di plasticità e tutto noi conosciamo l'effetto negativo (fisico e psichico) indotto da queste sostanza.
Forse la ketamina induce un particolare tipo di plasticità che consente ai neuroni di regolare la loro attività di fronte a uno stimolo che normalmente li influenzerebbe in un certo modo. A differenza dei meccanismi di plasticità che rafforzano o indeboliscono specifiche connessioni neuronali durante l’apprendimento e la memoria, questa plasticità omeostatica consente ai neuroni di combattere contro fattori che cercano di cambiarli. In questo modo, la ketamina potrebbe fornire al cervello gli strumenti di cui ha bisogno per mantenere uno stato sano. Se questo meccanismo si rivelasse vero, la ketamina potrebbe servire da “Stele di Rosetta” per comprendere come funzionano altre sostanze psichedeliche.
Altri scienziati, tuttavia, non pensano affatto che le sostanze psichedeliche influenzino direttamente la plasticità. Piuttosto, potrebbero sbloccare qualcosa noto come metaplasticità, rendendo i neuroni più suscettibili a uno stimolo che induce plasticità, ad esempio un ormone. Questa teoria darebbe maggiore importanza ad altri fattori – l’interazione sociale, per esempio, o la rivisitazione di un ricordo traumatico – nel rimodellare i neuroni e formare nuove connessioni.
In un esperimento di somministrazione ai topi di queste sostanze (MDMA, ibogaina, LSD, ketamina o psilocibina) si sono osservati risultati comportamentali interessanti. I topi trattati sono diventati più disposti a dormire in uno scompartimento con altri (chiaro segno di riduzione di stress) e l’effetto è durato per settimane. Poiché i topi adulti non tendono a cambiare il loro comportamento sociale, la scoperta suggerisce che i farmaci psichedelici sono stati in grado di riaprire il “periodo critico”, la fase in cui i topi giovani imparano ad associare la socialità a qualcosa di positivo. Nello stesso studio si è  anche scoperto che i neuroni degli animali trattati hanno iniziato a esprimere un insieme di geni coinvolti nel rimodellamento della matrice extracellulare, una zona che che funge da “malta” tra i neuroni: il rimodernamento libera i dendriti e gli assoni dando loro la capacità di formare nuove connessioni.
Ma proprio come la plasticità, troppa metaplasticità potrebbe essere dannosa “fondendo il cervello”: rompendo i circuiti neurali guadagnati con fatica, causando convulsioni e amnesia e distruggendo la capacità di apprendere. 

Questi studi potrebbero portare innovazione anche in aree apparentemente diverse della neurofisiologia. I ricercatori stanno verificando se nei topi queste sostanze riescano ad aprirealtri periodi critici. L’apertura di un periodo critico nella corteccia motoria, ad esempio, potrebbe allungare il periodo di tempo in cui le persone che hanno avuto un ictus possono trarre beneficio dalla terapia fisica. Le sostanze psichedeliche potrebbero aiutare le persone a recuperare i sensi perduti o indeboliti oltre il breve intervallo temporale oggi accettato per iniziare una terapia di recupero.

Se però il contesto è essenziale, l’esperienza allucinogena stessa potrebbe essere necessaria per aprire i periodi critici sopra citati.
Vero anche che l'esketamina, la versione modificata della ketamina approvata per la terapia antidepressiva (necessita di dosaggio molto inferiori e questo evita gli effetti collaterali della droga), non è inferiore alla ketamina per cui è possibile agire sulla riduzione degli effetti allucinogeni.
Non è necessario ingerire un farmaco per avere un cambiamento neurochimico, abbiamo continuamente cambiamenti neurochimici causati dalla nostra esperienza e la psicoterapia stessa funziona (anche) attraverso l'indizione di cambiamenti epigenetici.
Ecco allora che forse il farmaco potrebbe semplicemente migliorare la capacità della terapia di cambiare permanentemente la prospettiva di una persona. Una ipotesi non condivisa da altri ricercatori secondo i quali gli effetti diretti delle sostanze psichedeliche sul cervello sono parte fondamentale della loro efficacia terapeutica.


Tra i problemi della sperimentazione clinica in ambito psichiatrico il ben noto "effetto placebo" che (a differenza delle malattie in altri distretti corporei) può da solo rendere conto dell'80% dell'effetto terapeutico.
L'effetto placebo lo si osserva nei gruppi di controllo in doppio cieco dove sia il medico che il paziente non sanno se la "pillola" è un farmaco o un placebo. Chiaramente il problema diventa ancora più importante se il trattamento farmacologico è associato ad un effetto intenso che palesa immediatamente al paziente cosa ha ricevuto. Per cercare di minimizzare questi condizionamenti la FDA ha approvato un sistema per gli studi sull’MDMA in cui gli psichiatri, che non sono coinvolti nella somministrazione della terapia, valutano il miglioramento dei sintomi di ogni persona senza sapere chi ha ricevuto il farmaco.
Una misurazione del problema placebo viene dai ricercatori di Heifets Labs che hanno sviluppato un modo  per quantificare l’intensità dell’effetto placebo; il team di ricerca ha testato la ketamina su persone sottoposte a intervento chirurgico che erano state messe sotto anestesia e incapaci di sperimentare gli effetti dissociativi del farmaco. Le persone che escono dall’intervento chirurgico spesso sperimentano sintomi di depressione accentuati. Ma i ricercatori hanno scoperto che, indipendentemente dal fatto che un paziente avesse ricevuto ketamina o un placebo, i suoi sintomi miglioravano se pensavano che avrebbero potuto assumere il farmaco: l’aspettativa stessa di ricevere il farmaco stesso avrebbe potuto migliorare il loro umore.

Articolo precedente sul tema "Il farmaco psichedelico che spegne la PTSD"

E se la prossima pandemia venisse da un fungo?

E se la prossima pandemia (perché ci sarà) venisse da qualcosa di ben diverso da un virus, il parassita per antonomasia, ad esempio da un fungo?
Questo è l’argomento che esplora il libro “Blight: fungi and the coming pandemic”. Non un romanzo ma un saggio scientifico che esplora una minaccia emergente per la salute pubblica figlia sia della globalizzazione che del riscaldamento globale.
In verità non si tratta di una minaccia mai sentita essendo stata descritta sia in videogiochi/serie TV (The last of us), che in libri di SF (The Genius Plague). Ma, come si suol dire, la realtà supera di molto la fantasia come ben evidente in Natura, dove abbiamo funghi che zombificano le formiche  per renderle vettori di disseminazione delle spore o, in tutt'altro scenario, l’ecatombe dei castagni americani, descritta anche nel bel libro di bryson “Una passeggiata nei boschi”.

Delle formiche zombie ne ho scritto in dettaglio in un precedente articolo a cui vi rimando (vedi QUI), mentre sui castagni ne riassumo ora gli eventi.
Nell’estate del 1904 i castagni americani (Castanea dentata) del Bronx, dove ha sede il famoso zoo, cominciarono a mostrare evidenti alterazioni. Le foglie, tipicamente sottili e di un verde brillante, mostrarono prima bordi arricciati per poi diventare gialle; su rami e tronchi comparirono in alcuni casi strane chiazze color ruggine. Dal momento della rilevazione dei primi sintomi fu sufficiente 1 anno perché tutti tutti gli alberi di castagno nei dintorni risultassero moribondi. Passa qualche decennio (siamo intorno al 1940) e tutti i castagni americani nativi (siti nella zona orientale degli USA, lungo la catena degli Appalachi) erano oramai morti o moribondi.
Un castagno infetto
Il colpevole era un fungo (Cryphonectria parasitica) causa del cancro corticale del castagno, importato casualmente insieme ad esemplari di castagni giapponesi.
I castagni americani sono invece più resistenti ad un altro fungo, Phytophthora cambivora, di cui soffrono i castagni europei e che causa il cosiddetto mal dell'inchiostro.
I castagni giapponesi, evolutisi per contrastare un parassita endemico, funsero da "portatori sani" del fungo che una volta approdato nel nuovo mondo si trovò di fronte delle "vittime" prive di difese finendo così per soccombere, tranne in alcune aree isolate (lontane dalla minaccia fungina) come il Rock Creek Park.
Nelle foreste un tempo dominate da castagni maestosi, alti come un edificio di 9 piani, sopravvivono (a tempo) alcuni castagni immaturi nati dalle radici ancora vive di alberi morti. Purtroppo per loro questi germogli non hanno alcuna speranza di sopravvivere fino all’età adulta per svettare; il fungo è ancora lì pronto a colonizzare gli alberelli nel momento in cui germogliano.

Il destino del castagno americano è solo un esempio della devastazione che i funghi possono provocare,
Il libro prima menzionato ci offre un resoconto illuminante, e a volte macabro, delle malattie fungine che minacciano pini, banane, rane, pipistrelli e, sempre più, le persone.
Sia chiaro, non tutti i funghi sono nocivi come ben dimostrano le forme commestibili (o che aiutano nella preparazione di cibi e bevande come i lieviti) e soprattutto i funghi saprofiti, fondamentali nella decomposizione degli organismi morti, rimettendo i circolo gli elementi essenziali per la vita. Ad esempio il legno degli alberi defunti, tra i materiali più resistenti alla decomposizione, rimarrebbe li per “sempre” se non fosse per l’azione combinata di di batteri e (su tutto) funghi.
Il problema è quando organismi non autoctoni si trovano trapiantiati (trasportati insieme alle merci) in posti in cui non hanno né nemici naturali né competitori. Se questo vale per animali e piante “aliene”, vale ancora di più per organismi microscopici ben più difficili tra controllare. Le conseguenze possono essere catastrofiche
Esempi in tal senso (dette specie aliene ... per un dato territorio) sono purtroppo innumerevoli e vanno dallo scoiattolo grigio al pitone in Florida (ne ho scritto QUI), dai gamberetti ai funghi, ... . QUI un elenco più esaustivo.

Fortunatamente*, noi mammiferi siamo troppo caldi per essere appetibili per la maggior parte dei funghi. Un dato ben evidente da chi ha esperienze di laboratorio, che sa che i funghi crescono preferenzialmente a 30 gradi, mentre le cellule di mammifero e i batteri di uso comune (derivati non a caso da ceppi colonizzanti l’intestino, come E. coli) necessitano di 37 gradi. I nostri corpi sono l’equivalente della Valle della Morte per molti funghi. Laddove le condizioni siano "permissive" per i funghi, ecco che gli animali sociali come formiche e termiti applicano procedure di rimozione drastiche per gli infetti.
* una affermazione che è implicitamente vera, ricalcante il famoso principio antropico: se non fosse così (i funghi non avessere questo punto debole) noi non saremmo qui a parlarne ma come mammiferi saremmo diventati loro cibo preferito fin dai tempi della comparsa del "sangue caldo" nei vertebrati
Altro ostacolo per i funghi viene dal nostro sistema immunitario abile (ancora, ha DOVUTO diventarlo) nel riconoscere e respingere i potenziali invasori fungini che nella maggior parte dei casi rimangono confinati nella loro azione su mucose, cute e unghie). Protezione che dura almeno fintanto che il sistema immunitario funziona a dovere come ben sanno le persone con immunodeficienze esposte ad attacchi molto pericolosi da parte di funghi come la Candida che nei soggetti sani sono al più un fastidio.

Ma non si tratta di una protezione perenne come la certezza che un batteriofago (virus batterici) che per quanto abbondanti ( nel mare se ne possono trovare fino a 10^7 fagi/ml) non potranno mai e poi mai, qualsiasi siano le mutazioni, diventare capaci di infettare una cellula eucariote.

I cambiamenti climatici sono oggi una variabile di cui si deve tenere conto. Il riscaldamento globale ha già reso possibile la migrazione di specie in territori prima a loro preclusi (vedi il mar mediterraneo e le specie tropicali) e i funghi potrebbero essere forzati ad adattarsi a temperature più elevate, diventando così meno “intolleranti” alle nostre temperature.
Cito la Candida auris che nell’ultimo decennio si è adattata diventando capace di infettare le persone fino a diventare un fattore di rischio concreto nelle strutture sanitarie (vedi qui), già prone per loro natura a facilitare la selezione e diffusione dei superbatteri. Anche altre infezioni fungine umane, come la coccidioidomicosi potrebbero presto seguire in questo adattamento.
Un rapido sguardo sulle pandemie fungine che oggi colpiscono altre specie ci offre una lezione sul loro potenziale effetto devastante, se avvenissero in tempi rapidi, senza dare il tempo al “bersaglio” di sviluppare contromisure.
Chiaro che, in un arco di tempo sufficiente, le piante e gli animali colpiti possono adattarsi per gestire meglio i nemici fungini come avvenuto per le rane nel Parco Nazionale di Yosemite, che nonostante siano infette non mostrano più i segni della malattia, oppure i pini dalla corteccia bianca (Pinus albicaulis) degli Stati Uniti occidentali che, a differenza dei cugini pini bianchi della costa orientale,  hanno geni per la resistenza alla malattia nota come ruggine del pino bianco (endemica nell'area da circa un secolo)

Potrebbe aiutare anche l’ausilio di tecniche di ingegneria genetica, come stanno cercando di fare alcuni ricercatori, mediante l’inserimento di geni per la resistenza presi dai resistenti (come i castagni giapponesi) per inserirli nei cugini americani,

In caso di pandemia umana potremmo non avere il tempo necessario per "adattarci" e di sicuro non potremmo godere di tecniche di ingegneria genetica per renderci resistenti. Quindi meglio che non accada


Libri suggeriti sul variegato universo dei funghi ... a cominciare da "Funghipedia"


Dall'analisi delle missive di "Dracula" l'analisi del suo stato di salute e l'origine della (famose) lacrime di sangue

Dall’analisi delle tracce biologiche presenti sulle missive vergate da Vlad III, noto “affettuosamente” come Vlad l’Impalatore, un team di ricercatori italiani dell’università di Catania ha inferito alcune interessanti informazioni sulla sua salute.
Una delle lettere di Vlad fornite dall'archivio romeno

Vlad III è di sicuro un personaggio interessante, non solo per avere ispirato secoli Bram Stoker nel creare la figura di Dracula, ma per la sua storia di persona vissuta in tempi e, soprattutto, un’area difficile come la Valacchia, area che dire di frontiera è riduttivo. Personaggi duri per tempi duri, in attesa che le anime belle di matrice anglosassone ne impongano l’oblio per il non essere conformi al canone (forse meglio dire, il conformismo) del politicamente corretto e del woke. Per ora rimaniamo con personaggi come Attila, Dracula e Gengis Khan tuttora eroi nazionali in Ungheria, Romania e Mongolia, rispettivamente (del resto anche Nerone ha goduto di fama pessima, ma falsa, fino alla fine del XX secolo). Di seguito uno dei migliori libri storici su Vlad III.

 

Lo studio, pubblicato su Analytical Chemistry, rivista specializzata dell’American Chemical Society, è consistito nella analisi dei residui proteici depositatisi su tre lettere (una del 1457 e le altre del 1475) autografe del condottiero, conservate negli archivi romeni.
I risultati indicano che Vlad potrebbe avere sofferto di una infezione cronica ai polmoni e, cosa più interessante almeno come suggestione, essere affetto da emolacria, una condizione associata alla produzione di lacrime di sangue (fenomeno descritto dagli ospiti di Vlad III. come il Legato Pontificio, ma che potevano essere semplice frutto del timore che incuteva Vlad ai suoi interlocutori).

Breve cenno alle tecniche utilizzate. La prima parte della procedura è consistita nell’applicazione di una pellicola di etilene-vinil acetato sui fogli, per catturare i residui proteici presenti senza danneggiare i reperti. Passo successivo è stato utilizzare la spettrometria di massa per determinare l’identità delle migliaia di peptidi presenti, così da selezionare solo quelli di origine umana ma più deteriorate dal tempo (quindi attribuibili allo scrivente e non all’archivista).
Uno dei passaggi dell'analisi. A sinistra una delle lettere e a destra l'analisi effettuata con luce UV sulla lastra di acetato per mappare la presenza di aminoacidi come triptofano, tiroxina e fenilalanina
(image credit: MGG Pittalà et al, Anal. Chem. 2023)

In totale sono decine i peptidi trovati riconducibili a proteine umane (di particolare interesse quelle di origine ematica, respiratoria e oculare) senza però trascurare le molte di origine ambientale (batteri, virus, funghi e muffe, insetti e piante) utili per ricostruire la vita dell’epoca. Alcune dei peptidi sono riconducibili a infiammazioni dell’apparato respiratorio, a ciliopatie e a retinopatie. Il confronto tra i residui organici presenti nelle tre lettere (scritte come ricordo a distanza di 20 anni) sembra confermare le variazioni nello stato di salute con tracce riconducibili alla emolacria presenti solo nelle due ultime lettere.

La presenza di tracce di batteri riconducibili alla flora intestinale ma anche associati a infezioni dello stesso tratto e delle vie urinarie (perfino tracce del batterio Yersinia pestis, causa della peste. Articolo tematico QUI) richiama le condizioni igieniche “comuni” (o meglio l’assenza di pratiche di pulizia) anche nelle magioni più altolocate fino alla fine dell’ottocento (vedi il colera nella Londra dell'epoca. Due libri consigliati: Cattive acque e The Ghost Map

Fonte
Count Dracula Resurrected: Proteomic Analysis of Vlad III the Impaler’s Documents by EVA Technology and Mass Spectrometry
Maria Gaetana Giovanna Pittalà et al, Anal. Chem. 2023, 95, 34, 12732–12744

***

Libro interessante quello sulle missive ritrovate scritte, in italiano, dalla regina Elisabetta I: Elizabeth I's Italian Letters


Schizofrenia. Mutazioni de novo durante l'embriogenesi

La schizofrenia è un importante disturbo psichiatrico che si manifesta all'inizio dell'età adulta e interessa una persona ogni 300. I sintomi comprendono deliri, allucinazioni, ritiro sociale e un progressivo deterioramento della capacità di prendere decisioni, di provare piacere, mantenere o stabilire affetti.
Le cause esatte della schizofrenia sono piuttosto incerte in quanto hanno una componente genetica ma anche fattori ambientali diversi tra loro, che vanno da traumi infantili o al momento del parto fino a infezioni virali e l'uso (non necessariamente abuso) di sostanze psicoattive ((cannabis, cocaina, LSD, anfetamine).
Non è invero chiaro se sia l'uso di droghe a causare i sintomi nelle persone a rischio o se siano le persone suscettibili alla schizofrenia più a rischio di far uso di droghe.
Alcune persone con predisposizione alla malattia possono manifestare l'evento psicotico anche in seguito ad un singolo episodio emotivamente intenso o se sottoposti a stress quotidiani sopportati senza problemi da individui "normali". Stessa variabilità si manifesta tra individui predisposti, per cui solo alcuni di loro manifesteranno i sintomi.

Fattori terzi
Tra le cause terze (oltre a quelle citate in apertura) non molto comprese, diversi studi hanno evidenziato come le persone affette da schizofrenia avessero una maggiore incidenza di complicazioni prima o subito dopo la nascita come peso inferiore alla norma, parto prematuro, eventi di asfissia durante il parto, ... a suggerire il loro coinvolgimento nella genesi di (sottili) alterazioni cerebrali.

Genetica
La schizofrenia tende ad avere caratteristiche di familiarità sebbene, ad oggi, non sia stato possibile identificare un singolo gene (o gruppo ristretto di geni) responsabile.
Studi su persone affette da schizofrenia hanno evidenziato la presenza di sottili differenze strutturali rispetto ai normali. Questi cambiamenti non sono in verità presenti in tutti i malati e possono anche essere presenti in persone asintomatiche.
Si ritiene che le persone affette da schizofrenia abbiano anomalie nel livello di alcuni neurotrasmettitori cerebrali. A riprova della loro centralità l'azione lenitiva dei sintomi (o del loro esordio) fornita da farmaci che riducono i livelli di neurotrasmettitori, come la dopamina.
L'evidenza di una componente genetica e familiare viene da studi osservazionali sui gemelli. Nel caso di gemelli omozigoti se uno dei due è affetto, l'altro ha il 50% di possibilità di sviluppare i sintomi anche nel caso in cui siano cresciuti in ambienti diversi. Al contrario nei gemelli non identici la possibilità che l'altro fratello sviluppi la malattia è di 1 su 8, valore in ogni caso maggiore rispetto alla frequenza nella popolazione generale dove la probabilità è di 1 su 100: la componente genetica è importante ma non è l'unico fattore in gioco.
Probabile invece che sia la combinazione di più varianti in diversi geni a rendere le persone a rischio. A rischio non vuol dire (come invece nel caso di mutazioni nei geni BRCA) la certezza di malattia proprio perché esistono dei "trigger" (inneschi) ancora poco compresi.
Nel 2014 lo Schizophrenia Working Group pubblicò i risultati di uno studio di tipo GWAS (associazione genome-wide) basato sull'analisi di 37 mila pazienti e 113 mila controlli, con l'identificazione di 108 loci genici in cui sussisteva una associazione statisticamente significativa con la presenza della malattia.
Si trattava però di associazioni riferite ad un numero di pazienti abbastanza basso (il 4% del totale) ad indicare la complessità sottostante del fenomeno (in quanto sia a varianti geniche ignote che ad eventi ambientali), fatto questo che minava anche le potenzialità diagnostiche. Dati in ogni caso nettamente migliori rispetto a quelli ottenuti dallo studio di altre patologie neuro-psicologiche (ad esempio il disturbo depressivo maggiore su cui una mega-analisi del 2013 fallì nell'identificare varianti geniche associate al rischio malattia.
A complicare il quadro il coinvolgimento di questi stessi geni in altre patologie neurologiche, come l'ADHD e l'autismo, e la presenza delle stesse varianti anche nel gruppo di controllo.
Ad esempio una delle varianti geniche identificate (pur se con statistica affidabile) era presente nell'86,4% dei pazienti e nell'85% del gruppo di controllo. 
Ciò significa che tutti noi portiamo varianti di rischio di schizofrenia anche se non siamo a rischio malattia sia perché devono (verosimilmente esserci nello stesso individuo molteplici varianti di n geni che l'esposizione ad eventi induttori.

Ed eccoci infine arrivare allo studio pubblicato pochi giorni fa da un gruppo di Harvard sulla rivista Cell Genomic, in cui si riporta l'identificazione di un paio di variazioni genetiche sono associabili al rischio malattia in individui senza familiarità per la malattia.
La particolarità della scoperta è che si tratta di mutazioni somatiche (non trasmesse per via germinale e apparse durante le prime fasi dell'embriogenesi) identificate dall’analisi genetica su campioni di sangue (13 mila adulti affetti da schizofrenia e 12 mila controlli).
Anche in questo caso un (basso) numero di pazienti (ma nessun controllo) si è rivelato essere portatore di mutazioni nelle cellule ematiche. I geni coinvolti ABCB11 e NRXN1.
Nota. La non origine germinale della mutazione si evince dalla assenza della stessa in altre cellule, correlate o meno, dello stesso individuo. In questo particolare caso le mutazioni di NRXN1 sono state trovate in una percentuale di cellule ematiche compresa tra il 14 e il 43%. Tale valore indica che la mutazione deve essere avvenuta nei primi giorni di sviluppo dell'embrione quando si stavano formando i precursori (staminali) che avrebbero poi, oltre ovviamente alle cellule coinvolte nel cablaggio neurale, il sistema emopoietico,
Il gene NRXN1 codifica per una proteina che regola il numero e la densità di connessioni tra neuroni ed è quindi importante per l'apprendimento (ecco perché altre cellule, come quelle ematiche, pur essendo portatrici della mutazione non mostrano alterazioni funzionali). La mutazione identificata è funzionalmente distruttiva.

A carico del gene ABCB11 sono state trovate mutazioni nel 18-27% delle cellule del sangue di sei partecipanti con schizofrenia, che avevano la peculiarità di appartenere ad un sottogruppo di pazienti non responsivi al trattamento con il farmaco clozapina.
Il gene ABCB11 codifica per una proteina che facilita il trasferimento di sali digestivi al fegato. La proteina è però prodotta anche nei neuroni che producono dopamina, che sono uno dei bersagli principali dei farmaci contro la schizofrenia. La mutazione (distruttiva) in questo gene potrebbe, in un modo ancora poco compreso, rendere queste cellule insensibili al trattamento. Un dato, se confermato, che potrebbe aprire la strada per farmaci alternativi per soggetti noti per essere portatori di questa mutazione.

Data la complessità della malattia ogni finestra informativa che si apre, rappresenta una possibilità di intervento aggiuntivo e molto più mirato.

Fonti
Schizophrenia-associated somatic copy-number variants from 12,834 cases reveal recurrent NRXN1 and ABCB11 disruptions.
Eduardo A. Maury et al. (2023) Cell Genomics

- Specific genes involved in schizophrenia identified for the first time
UCL / news (2022)

Schizophrenia’s strongest known genetic risk deconstructed
NIH /news (2016)


***



Alti livelli di caffeina ematica riducono il rischio di obesità e di diabete di tipo 2?

Alti livelli di caffeina nel sangue possono ridurre il peso corporeo e il rischio di diabete di tipo 2, questo almeno si deduce da una ricerca anglo-svedese che ha correlato il livello di caffeina nel sangue e il rischio di malattie metaboliche.
Lo studio, pubblicato a marzo sulla rivista BMJ Medicine, ha anche valutato se tali effetti protettivi si associassero (proprio a causa della caffeina) a malattie cardiovascolari, fibrillazione atriale inclusa.

Studi precedenti avevano, in effetti, già mostrato che bere 3-5 tazze di caffè al giorno (ogni tazza contiene 70-150 mg di caffeina)  diminuiva il rischio di diabete di tipo 2 e malattie cardiovascolari. Tuttavia la maggior parte di tali studi era di tipo osservazionale, meno validi per stabilire un effetto causale a causa dell'imprecisato numero di fattori di confondimento e per la difficoltà di distinguere effetti specifici della caffeina da altri composti inclusi nelle bevande e negli alimenti.

I ricercatori hanno utilizzato una tecnica statistica chiamata randomizzazione mendeliana, che utilizza le varianti genetiche come strumento per indagare sulla relazione causale tra la presenza di uno (o più) varianti genetiche e la caratteristica da valutare.
I risultati dell'analisi hanno mostrato che una predisposizione genetica ad avere più alti livelli di caffeina ematica erano associati a un peso corporeo inferiore (BMI) e a un minor rischio di diabete di tipo 2.
Nello specifico sono state analizzate poco meno di 10 mila persone portatrici di varianti (comuni) dei geni CYP1A2 e AHR (già coinvolte in altri studi di lungo periodo), geni coinvolti nel metabolismo della caffeina.
Varianti associate a minor metabolismo della caffeina rallentano la velocità di rimozione della molecola dal sangue e questo spiega i livelli alti in assenza di una dieta appositamente arricchita di fonti di caffeina. Anzi, le persone portatrici di tali varianti genetiche bevono, in media, meno caffè, proprio perché hanno meno bisogno di "rimpolpare" la caffeina eliminata.
I ricercatori hanno anche tenuto conto di effetti protettivi indiretti sul rischio diabete della caffeina, ad esempio quelli (noti) legati alla concomitante perdita di peso tra chi fa fa più uso di caffeina. I risultati hanno mostrato che la perdita di peso è responsabile per il 43% dell'effetto della caffeina.
Dall'altra parte non sono emerse associazioni significative tra il livello di caffeina ematica (nei soggetti predisposti, NON in chi fa un uso smodato di caffè) e il rischio di una qualsiasi patologia cardiovascolare.


I risultati potrebbero (una volta validati e depurati di eventuali effetti legati alla popolazione studiata) dischiudere il potenziale di bevande contenenti caffeina ma senza calorie, come ausilio nella riduzione del rischio obesità e malattie metaboliche associate.


Fonte
- Appraisal of the causal effect of plasma caffeine on adiposity, type 2 diabetes, and cardiovascular disease: two sample mendelian randomisation study.
Susanna C Larsson et al. (2023) BMJ Medicine.

***

Fruttosio e Alzheimer. Nesso causale conseguenza dell'evoluzione o pura coincidenza?

Uno studio, pubblicato su The American Journal of Clinical Nutrition da un team dell'Università del Colorado, solleva il quesito se un eccesso di fruttosio cerebrale (sia endogeno che da dieta), noto per poter causare un locale stato infiammatorio, abbia un ruolo nell'insorgere del morbo di Alzheimer a causa dello spegnimento parziale di alcuni circuiti neurali, non utili in attività come accumulare cibo per l'inverno.

Il comportamento degli animali che vivono attraverso stagioni di abbondanza e scarsità, è volto (o meglio, si è evoluto per) ad assicurare cibo anche per gli imminenti periodi di scarsità del cibo. Lo stesso è avvenuto con i primi esemplari del genere Homo che, specie dopo essersi avventurati in aree con variazioni stagionali sia climatiche che di disponibilità del cibo, hanno dovuto evolvere comportamenti preventivi atti a creare scorte e a massimizzare lo sfruttamento delle risorse disponibili per un tempo limitato. Attività quali l'accumulo per tempi grami non è qualcosa di spontaneo ma necessita una ricalibrazione dei sistemi di controllo del comportamento tale per cui una attività spontanea come hic et nunc ("c'è cibo quindi lo mangio visto che ho un leggero languorino") viene "bloccata" in funzione di raccolta e stoccaggio" mentre consumo avidamente quello che non posso conservare (frutta, etc).

Attività come provvedere al foraggio (in senso generale) richiede attenzione (allo scopo), valutazione, comportamento esplorativo, assunzione di rischi e spegnimento di esigenze finalizzate alla soddisfazione immediata. Lo studio qui riportato dimostra che il metabolismo del fruttosio (sia esso  esogeno, cioè assunto con la dieta, che prodotto dall'organismo) e il suo principale metabolita (acido urico) aiuta a smorzare alcuni circuiti neurali che entrerebbero in conflitto con le esigenze di pianificazione, consentendo una maggiore concentrazione nelle attività di raccolta del cibo.

I ricercatori hanno notato che il fruttosio diminuisce il flusso sanguigno nella corteccia cerebrale (sede dell'autocontrollo) così come nell'ippocampo (memoria) e talamo (centrale di controllo), mentre aumenta nella corteccia visiva e nelle vie della "ricompensa" associata al cibo.

L'ipotesi è che la alterazione fruttosio-dipendente del metabolismo cerebrale sia inizialmente reversibile ma il suo persistere (come ad esempio una dieta moderna ricca tutto l'anno di fruttosio, grassi e altri zuccheri) possa portare alla progressiva atrofia cerebrale e alla perdita di neuroni, tipica della AD. 
Un adattamento (detto anche survival switch) che ha permesso a innumerevoli generazioni di Homo di prepararsi e superare periodi di scarsità, è diventato, ora che l'interruttore è sempre attivato, un fattore di  rischio.

Il fruttosio prodotto nel cervello può portare all'infiammazione (vedi articoli citati sotto) e, secondo lo studio, al morbo di Alzheimer. Studi classici hanno dimostrato come una dieta ricca di fruttosio ad animali di laboratorio induca vuoti di memoria, perdita della capacità di navigare in un labirinto e infiammazione cerebrale. Se si alimentano i ratti da laboratorio abbastanza a lungo con fruttosio, si osserva la comparsa di aggregati cerebrali costituiti da proteine tau e beta-amiloide, le stesse proteine osservate nell'AD. 
Meno convincente invero l'ipotesi dei ricercatori che la tendenza dei malati a vagare senza meta sia vestigiale della attività di ricerca del cibo. 
I prossimi studi dovranno indagare se la dieta o trattamenti farmacologici atti a bloccare il metabolismo del fruttosio possano avere una qualche funzione protettiva contro la malattia.

Fonte
- Could Alzheimer’s disease be a maladaptation of an evolutionary survival pathway mediated by intracerebral fructose and uric acid metabolism?
Richard J. Johnson et al. (2023) American Journal of Clinical Nutrition


Articoli sul tema FRUTTOSIO precedentemente pubblicati in questo blog, qui copiati per comodità. 


Anche il cervello produce fruttosio
(Luglio 2017)

A volte i nomi "amichevoli" traggono in inganno rinforzando l'associazione tra una molecola e un prodotto naturale "buono".
Fruttosio
Un esempio classico è quello del fruttosio, uno tra gli zuccheri più abbondanti nella frutta, e per questo motivo spesso preferito, insieme al miele, al posto del saccarosio, lo zucchero "comune".
Fin qui niente di male, purché (ma questo vale per tutto) il prodotto venga usato in modo quantitativamente "intelligente".

Il problema sorge con l'accoppiata "percezione di minor danno in quanto presente nella frutta" e l'intensivo uso che l'industria alimentare fa di questo zucchero (sotto forma di sciroppo di mais); il risultato netto è un incremento del suo consumo reale. Se a questo aggiungiamo il fatto che il fruttosio è da tempo indiziato di essere uno tra i responsabili dell'aumentata incidenza di obesità e diabete di tipo 2, allora le ragioni per considerarlo un "falso amico" ci sono tutte.

Come detto il fruttosio non è un prodotto cattivo di suo ma presenta caratteristiche che possono facilmente diventare negative in certe situazioni.
  • Ha un elevato potere dolcificante (tre volte superiore a quello del saccarosio) il che teoricamente dovrebbe spingere il consumatore ad usarne di meno. Vero però che una volta "cotto" (come avviene nelle preparazioni industriali) il suo potere dolcificante diminuisce, quindi il consumo reale aumenta e con esso il carico glicemico (soprattutto grazie al numero di prodotti che contengono fruttosio). 
  • Ha un basso indice glicemico (il che è buono) che si accompagna ad una sostanziale incapacità di attivare la produzione di insulina, al contrario del glucosio. D'altra parte, sebbene sia in grado di stimolare la sintesi dei lipidi (vedi sotto) non ha alcun effetto sulla produzione della leptina, l'ormone della sazietà, aumentando così il rischio di mangiare più del dovuto
  • Tra le ragioni del basso indice glicemico vi è il suo scarso assorbimento da parte dell'intestino, assorbimento dipendente da un trasportatore (GLUT5) diverso  da quello usato dalle cellule per il glucosio. Dato che il fruttosio viene assorbito lentamente e in modo variabile (alcuni individui hanno deficit di GLUT5), il suo accumulo intestinale favorisce il metabolismo batterico locale con disturbi facilmente immaginabili. 
  • A differenza del glucosio, metabolizzabile da ogni cellula, il fruttosio è usato principalmente dal fegato che lo stabilizza sotto forma di glicogeno, previa conversione in glucosio, pronto per essere mobilizzato in caso di bisogno. In condizioni normali il fruttosio viene convertito per la maggior parte in glucosio (54%), glicogeno (18%), lattato (15%) e meno dell'1% in trigliceridi. Di questi solo il glucosio e il lattato fungono da "combustibile" usato dalle altre cellule del corpo. Se c'è troppo fruttosio, la capacità trasformativa del fegato viene saturata e quello in eccesso viene trasformato in grasso, soprattutto nei soggetti con ipertrigliceridemia e diabete, innescando così problemi a cascata.
  • In condizioni normali la quantità di fruttosio assunta è ben al di sotto della soglia di rischio. Vale la pena ricordare però che se per assumere 50 grammi di fruttosio servono 5 mele (difficile che qualcuno ne mangi così tante in una volta sola... senza danni), la stessa quantità si ottiene bevendo qualche bicchiere di succo di frutta. Quindi i "limiti naturali" che ben funzionavano in passato sono oggi inefficaci, specialmente con la dieta estiva.

Nel 2013 un team di ricercatori della università di Yale notò che il fruttosio e il glucosio avevano un diverso effetto sul cervello; non solo il fruttosio appariva meno capace di stimolare la sazietà ma aveva l'effetto opposto. I test dell'epoca tuttavia non permisero di capire se l'effetto del fruttosio fosse diretto o mediato da derivati del suo metabolismo.

La risposta arriva oggi con un articolo pubblicato sulla rivista JCI Insight.
I test sono stati condotti su volontari sani a cui è stato somministrato glucosio per 4 ore, misurando poi la concentrazione dello zucchero nel sangue e nel cervello (mediante risonanza magnetica). La scoperta in un certo senso sorprendente fu che l'infusione di glucosio provocava un aumento di fruttosio nel cervello ma non nel sangue, ad indicare che il fruttosio cerebrale non era il prodotto della conversione epatica. L'ipotesi più probabile è che la conversione  avviene a livello cerebrale mediante la via dei poioli (anche nota come via del sorbitolo e aldosio reduttasi) che trasforma il glucosio in sorbitolo e poi in fruttosio.


Tra le considerazioni che questo studio innesca, quella che il livello di fruttosio (almeno nel cervello) non è semplicemente una conseguenza del fruttosio ingerito ma è (anche) il prodotto ultimo della conversione da altri zuccheri. Il problema in tutto questo è che mentre in presenza di glucosio viene attivato lo stimolo di sazietà, con il fruttosio questo non avviene. La scoperta potrebbe spiegare perché un aumento nella quantità di zuccheri ematici non solo non si traduce sempre in una diminuita voglia di cibo ma anzi possa avvenire il contrario.
Limitare l'assunzione di fruttosio servirebbe quindi a poco se si è soliti indulgere in altri zuccheri dato che questi verrebbero poi convertiti in fruttosio.
Il dato è utile prospettivamente per pensare a terapie mirate per contrastare, nei soggetti a rischio, l'aumento del fruttosio a livello cerebrale

Fonte
- Effects of fructose vs glucose on regional cerebral blood flow in brain regions involved with appetite and reward pathways.
Page KA et al. (2013) JAMA; 309(1):63-70

- The human brain produces fructose from glucose.
Hwang JJ et al, (2017) JCI Insight


***

Il fruttosio agisce sul cervello favorendo una alimentazione eccessiva
(Luglio 2013)

Ho trattato in passato il tema controverso del fruttosio. Controverso perchè se da una parte l'essere il fruttosio lo zucchero più abbondante della frutta e del miele lo ha di fatto semplicisticamente associato alle proprietà della frutta, dall'altro è da tempo sotto la lente d'ingrandimento dei ricercatori che lo additano a principale responsabile dell'obesità e delle malattie correlate.
Facciamo un passo indietro e riassumiamo alcuni concetti base.
  • Il fruttosio è insieme al glucosio il monosaccaride più "usato" dal nostro organismo.
  • Mentre il glucosio è spesso inglobato in molecole a diverso grado di complessità (ad esempio nel saccarosio, amido, glicogeno, etc) e quindi deve essere reso disponibile per scissione enzimatica, il fruttosio è pronto per essere usato.
  • Il fruttosio grazie al suo elevato potere dolcificante è ampiamente usato nella industria alimentare  (sotto forma di High Fructose Corn Syrup). E' inoltre uno zucchero "di moda" (lo potete vedere spesso sui banconi dei bar) visto il minore apporto calorico e il minore indice glicemico. 
L'insieme di questi fattori ha determinato una impennata dei consumi negli ultimi anni, soprattutto in USA, con conseguenze rilevanti sulla percentuale di obesi nella popolazione.
    Alcuni dati recenti aiutano a comprendere come e perchè l'organismo "percepisca" in modo diverso il glucosio e il fruttosio. Elementi questi che come vedremo hanno diretta influenza sull'aumento di peso.
    L'articolo a cui farò riferimento oggi è stato pubblicato sul Journal of American Medical Association da una equipe della Yale School of Medicine. Il dato centrale del lavoro è che mentre il glucosio inibisce l'attività cerebrale delle regioni coinvolte nel desiderio di cibo, il fruttosio è meno "bravo" in questo processo. In termini semplici il primo rende sazi più facilmente del secondo.

    Robert Sherwin, uno degli autori, ha analizzato mediante la tecnica non invasiva della risonanza magnetica funzionale, il cervello di volontari sani non obesi allo scopo di valutare i cambiamenti nel flusso sanguigno cerebrale in seguito all'ingestione di  glucosio o fruttosio. Da queste analisi è emerso che mentre il glucosio diminuiva il flusso sanguigno nelle regioni cerebrali deputate alla regolazione dell'appetito, il fruttosio non aveva effetti rilevanti. Stesso dicasi per la regolazione della sensazione di soddisfazione e di sazietà.
    Entrando un poco più nello specifico, il glucosio riduce l'attivazione dell'ipotalamo, della insula e dello striato, regioni queste coinvolte nella regolazione dell'appetito, della motivazione e nei meccanismi di reward (appagamento/ricompensa). L'aumento dei livelli di glucosio ematico attiva le connessioni ipotalamo-striatali, generando gli effetti prima citati.

    Una dieta ricca di fruttosio (soprattutto in forma "libera" cioè privo dei molteplici nutrienti presenti nella frutta) favorisce una maggiore ingestione di calorie a causa del ridotto senso di sazietà indotta. Un processo che in qualche sembra anche favorire il fenomeno della l'insulino-resistenza; una condizione tipica del diabete di tipo II.

    Fonti
    Study suggests effect of fructose on brain may promote overeating
      Yale University, news

    Effects of Fructose vs Glucose on Regional Cerebral Blood Flow in Brain Regions Involved With   Appetite and Reward Pathways
     K.A. Page et al, JAMA. 2013;309(1):63-70


    ***aggiornamento gennaio 2016***

    Uno studio condotto su ratti pubblicato da un team della UCLA evidenzia che una dieta ricca di fruttosio rende problematico il recupero cognitivo successivo a traumi cranici. 

    Fonte
    Dietary fructose aggravates the pathobiology of traumatic brain injury by influencing energy homeostasis and plasticity
    R. Agrawal et al, J Cereb Blood Flow Metab, (2015) 



    ***


     Troppo fruttosio e poco omega 3 fanno male alla memoria
    (Dicembre 2012)
    Un articolo pubblicato su Journal of Physiology da Fernando Gomez-Pinilla (David Geffen School of Medicine presso la UCLA) fornisce nuove prove sugli effetti non salutari del fruttosio.

    Il fruttosio uno degli zuccheri più presenti nella frutta e nel miele rappresenta il lato oscuro di una alimentazione apparentemente salutista quale quella di chi mangia molta frutta.
    Non solo. Oramai il fruttosio viene usato abbondantemente in molte preparazione alimentari e bibite grazie al suo alto potere dolcificante. Inoltre mentre l'azione negativa del fruttosio nella frutta viene, in parte, bilanciata dagli antiossidanti presenti in alcuni tipi di frutta, tale bilanciamento manca quando si parla del fruttosio usato come additivo alimentare. 
    Il suo uso tuttavia passa in secondo piano visto che la moda alimentare insegna a distinguere fra eccipienti naturali ed artificiali. Quante volte infatti troviamo al bar le bustine di fruttosio ("totalmente naturale") da accompagnare al caffè?
    Il fruttosio è certamente naturale ma ha anche una azione chiaramente più dannosa di altri edulcoranti artificiali viste le quantità relative associate.

    Perchè il fruttosio fa male?  
    Fino ad ora la spiegazione era che lo zucchero della frutta fosse la causa di diabete, obesità e del fegato grasso (steatosi epatica). Sebbene il fruttosio abbia un indice glicemico inferiore rispetto al saccarosio, viene facilmente convertito in glucosio, nel fegato e nell'intestino, e inoltre induce un innalzamento dei trigliceridi. Questo e altri meccanismi fanno si che l'assunzione protratta di fruttosio sia causa di ipertrigliceridemia e iperuricemia, obesità, stress ossidativo, danni microvascolari e ipertensione.
    Questi i danni acclarati. Finora. Ma, come dicevo, c'è dell'altro.
    Lo studio di Gomez-Pinilla mostra che una dieta costantemente ricca di fruttosio "rallenta" il funzionamento del cervello agendo sulla memoria e sull'apprendimento. Un danno che tuttavia può essere evitato grazie ad un "grasso": l'omega-3.
    Una sorta di ribaltamento: un grasso che protegge dagli effetti dannosi di un eccesso di frutta e di zuccheri derivati!!

    Riassumiamo dunque i risultati sperimentali. 
    A due gruppi di ratti viene data per 6 settimane acqua zuccherata con fruttosio. Ad un gruppo viene aggiunto alla soluzione anche omega-3, sotto forma di acido docosaesanoico (DHA) e olio di lino, che ha una rinomata azione neuroprotettiva.
    Alla fine del periodo i ratti sono stati analizzati in quanto a capacità mnemoniche attraverso il test del labirinto (T-Maze test). E' ben noto che i ratti messi in un ambiente nuovo inizieranno ad esplorarlo e ne memorizzeranno i punti chiave; una capacità che permette loro di imparare, attraverso un processo di errore e apprendimento, a trovare la strada per uscire da un labirinto semplificato. Il labirinto è contrassegnato di segnali visivi in modo da facilitare il roditore nel ricordare i punti già visitati.
    Bene. Si è scoperto che i ratti appartenenti al secondo gruppo erano in grado di attraversa il labirinto più velocemente dei roditori del primo gruppo.
    Analisi successive hanno evidenziato che i ratti che non avevano ricevuto il DHA erano più lenti ed il loro cervello mostrava una ridotta funzionalità sinaptica. Per essere più precisi le cellule cerebrali erano meno in grado di comunicare fra loro e questo si traduceva in una minore "lucidità" nella elaborazione dei dati visivi necessaria per ricordare la strada fatta precedentemente.
    Come se non bastasse i ratti del primo gruppo (che non avevano ricevuto DHA) mostravano sintomi di resistenza alla insulina, un ormone che oltre a favorire l'assorbimento di glucosio ematico da parte delle cellule regola anche la funzionalità sinaptica nel cervello.  
    Riassumendo, una dieta ricca di fruttosio può bloccare la capacità dell'insulina di regolare l'utilizzo corretto (immagazzinamento e produzione di energia) del glucosio ematico, e questo si ripercuote sui meccanismi cerebrali superiori (memoria e apprendimento).  

    Gomez-Pinilla, da bravo scienziato ha messo subito in pratica gli insegnamenti derivanti  dalle sue scoperte e suggerisce di fare come lui :
    • limitare al massimo il consumo di fruttosio (soprattutto nei suoi usi più nascosti come ecciente) 
    • sostituire gli spuntini classici con bacche e yogurt greco (di cui ha una scorta anche sul lavoro). 
    • Nel caso sia disponibile non disdegna una bella barretta di cioccolato fondente (dall'80% in su meglio se amaro).
    • Se poi proprio appartenete al gruppo di persone che non trattenersi da limitare l'uso sacrosanto di frutta (e via anche di un po di dolciumi) allora complementate la vostra dieta con alimenti ricchi di omega-3 come salmone, noci, alcuni oli vegetali (esempio di lino) oppure una pastiglia di DHA (1 grammo al giorno). 

    Fonti
    Does too much sugar make for lost memories? 
    (A. Stefanidis, M. J. Watt, Journal of Physiology, qui)
    Metabolic syndrome' in the brain: deficiency in omega-3 fatty acid exacerbates dysfunctions in insulin receptor signalling and cognition
    (Rahul Agrawal e Fernando Gomez-Pinilla, Journal of Physiology, qui)


    ***

    Il fruttosio è sotto inchiesta
    (Febbraio 2012)

    Il fruttosio, lo zucchero della frutta, potrebbe essere coinvolto nello sviluppo di patologie metaboliche quali l'obesità ed il diabete. Questo almeno è quanto emerge dal lavoro del gruppo di Kyriazis pubblicato sull'ultimo numero di PNAS.  
    Fino ad ora i dati indicavano il glucosio, uno dei due monosaccaridi derivati dalla scissione del saccarosio, come il principale attivatore delle cellule beta nel pancreas. Queste cellule stimolate rilasciano insulina, una proteina che ha come effetto principale quello di favorire l'assorbimento del glucosio da parte delle cellule. Quando il meccanismo di rilevazione e di segnalazione della presenza di glucosio ematico funziona male compare il diabete: di tipo I se il difetto è nella produzione dell'insulina; di tipo II se sono le cellule bersaglio a divenire insensibili all'insulina. 
    Bene.
    Consideriamo ora l'altro prodotto della scissione del saccarosio: il fruttosio. Fino ad oggi la vulgata comune lo considerava come "genuino e sano in quanto lo zucchero della frutta". 
    Vero. 
    Ma oggi dobbiamo aggiungere un tassello. Anche il fruttosio è in grado di attivare le cellule beta attraverso il recettore eterodimerico TIR2-TIR3, sinergizzando l'effetto del glucosio nello stimolare le cellule a rilasciare l'insulina.
    Tralasciando il meccanismo molecolare alla base di questo effetto rinforzante, il dato importante di questo studio è che una dieta ricca di frutta potrebbe favorire l'insorgernza di alcune malattie metaboliche.
    Quando si dice "il troppo fa male"

    Articolo di riferimento
    Sweet taste receptor signaling in beta cells mediates fructose-induced potentiation of glucose-stimulated insulin secretion
    GA Kyriazis et al.  Proc. Natl. Acad. Sci. U.S.A. 109, 10.1073 (2012)


    Powered By Blogger
    "Un libro non merita di essere letto a 10 anni se non merita di essere letto anche a 50"
    Clive S. Lewis

    "Il concetto di probabilità è il più importante della scienza moderna, soprattutto perché nessuno ha la più pallida idea del suo significato"
    Bertrand Russel

    "La nostra conoscenza può essere solo finita, mentre la nostra ignoranza deve essere necessariamente infinita"
    Karl Popper