CC

Licenza Creative Commons
Questo opera di above the cloud è concesso sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.

The Copyright Laws of the United States recognizes a “fair use” of copyrighted content. Section 107 of the U.S. Copyright Act states: “Notwithstanding the provisions of sections 106 and 106A, the fair use of a copyrighted work (...) for purposes such as criticism, comment, news reporting, teaching, scholarship, or research, is not an infringement of copyright.”
Any image or video posted is used according to the fair use policy
Ogni news è tratta da articoli peer reviewed ed è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto sia datato.
QUALUNQUE link in questa pagina rimanda a siti sicuri!! SEMPRE.
Volete aiutare questo blog? Cliccate sugli annnunci/prodotti Amazon (se non li vedete, disattivate l'Adblocker mettendo questo sito nella whitelist. NON ci sono pop up o script strani, SOLO Amazon). Visibili in modalità desktop! Se poi decidete di comprare libri o servizi da Amazon, meglio ;-)
Dimenticavo. Questo blog NON contiene olio di palma (è così di moda specificarlo per ogni cosa...)

La omochiralità degli aminoacidi non è un retaggio del mondo a RNA

La chiralità della molecole, nota dal XIX secolo, è importante in ambito farmaceutico dato che gli enantiomeri, per quando chimicamente identici, non sempre sono funzionalmente equivalenti.

La chiralità è la proprietà di un oggetto di non essere sovrapponibile alla sua immagine speculare. Due molecole chirali possiedono le medesime proprietà fisiche tranne nel potere rotatorio (identico per intensità ma opposto di segno per ognuna di esse) della luce polarizzata.
Chiralità negli aminoacidi
Le molecole chirali, ripeto identiche ma speculari, mostrano lo stesso comportamento chimico nei confronti di sostanze non chirali mentre la loro interazione chimica nei confronti di altre molecole chirali è diversa (esattamente come una mano destra, stringendo un’altra mano, riesce a distinguere se la mano stretta è destra o sinistra). Questo spiega per quale ragione (a volte) due enantiomeri dello stesso principio attivo di un farmaco, a volte, non sono equivalenti nel profilo beneficio/tossicità, conseguenza di quale associazione mirror-twin sia presente tra effettore e bersaglio. 
Esempio di tale differenza funzionale la ketamina, in cui l'enantiomero R- presenta un miglior profilo funzionale e di sicurezza.
Ecco perché  alcuni farmaci possono essere costituiti dalla forma racemica (mix di enantiomeri) del principio attivo mentre altri devono contenere esclusivamente l'enantiomero destrogiro (R-) o levogiro (L-).
L’analisi con cui si stabilisce la chiralità usa la luce polarizzata circolarmente nella quale il campo elettromagnetico ruota in senso orario o antiorario, formando un “cavatappi” destro o sinistro in cui l’asse è lungo la direzione del raggio di luce; la luce "chirale" viene assorbita in modo diverso dalle molecole R- o L-. Effetto piccolo, ma misurabile, perché la lunghezza d’onda della luce è maggiore della dimensione di una molecola: il “cavatappi luminoso” è troppo grande per percepire la struttura chirale della molecola in modo efficiente. Un metodo migliorato per l'analisi si avvale del laser ad impulsi.
Risulta chiara allora l'importanza di individuare e separare "facilmente" i vari enantiomeri specie quando mostrano uguale comportamento, tranne che durante l'interazione con un bersaglio chirale.
In ambito biologico tre sono le (macro)molecole in cui l'importanza della chiralità è evidente e si manifesta con il fenomeno della omochiralità (prevale un solo enantiomero): zuccheri, aminoacidi e acidi nucleici (la chiralità di questi ultimi è invero la diretta conseguenza della presenza del ribosio - monosaccaride pentosio - nell'unità fondante, cioè il nucleotide). Vedi nota** a fondo pagina.

Poiché in genere le caratteristiche chimico-fisiche degli enantiomeri sono identiche, la ragione della dominanza di un enantiomero come costituenti degli organismi terrestri è verosimilmente conseguenza della specificità del macchinario enzimatico/strutturale che ha amplificato con l’evoluzione la rottura della simmetria già ai tempi del mondo prebiotico. Non ci sono altre ragioni infatti per cui gli zuccheri sono nella quasi totalità D- (cosa che si riflette anche nei nucleotidi con il D-ribosio) e gli aminoacidi L-.

Tra le domande rimaste a lungo senza risposta verificare la possibilità che l'affermazione di un solo enantiomero sia stata guidata da vincoli durante la biosintesi. Una ipotesi classica ipotizzava la esistenza di proteine costituite prevalentemente da residui L-aminoacidi (invece di D-) come conseguenza del D-ribosio negli acidi nucleici, secondo uno schema "specchio".
Nota. Durante la sintesi proteica i “mattoncini” (aminoacidi) da assemblare vengono trasportati al ribosoma dal tRNA (mediatore tra la tripletta del codone genetico e l'aminoacido) che viene caricato con il corretto aminoacido da enzimi noti come aminoacil-tRNA sintetasi, enzimi che mostrano una netta preferenza per L-aminoacidi anche in presenza di entrambi gli enantiomeri.

Una sfida sperimentale a questa ipotesi è stata recentemente pubblicata su Nature Communications che non ha potuto confermarla lasciando aperto il dibattito.
I test di laboratorio sono stati fatti su 15 diversi ribozimi (molecole di RNA con attività enzimatica) capaci di catalizzare i passaggi finali della sintesi di aminoacidi a partire da precursori, molecole che potrebbero essere esistite nel mondo (prebiotico) a RNA. Il risultato è stata la produzione di D- e L- aminoacidi in egual misura, a dimostrazione che l’RNA manca di una predisposizione strutturale tale da favorire una data forma di aminoacidi.
L’omochiralità della vita come noi la conosciamo non sarebbe quindi il risultato di un determinismo chimico, ma di una selezione casuale avvenuta successivamente quando emersero “limiti” nell’assorbimento/metabolismo dell’altro enantiomero, conseguenza della struttura delle proteine evolutesi.

Un contributo importante a tale “spostamento dell’equilibrio” potrebbe essere venuto dagli aminoacidi e dai nucleotidi originati dallo spazio, veicolati dal massiccio bombardamento meteoritico subito dalla Terra primordiale. Indizi in tal senso vengono da studi condotti sui meteoriti come quello del 1997 (che mostrò come tra gli aminoacidi trovati sui resti gli L-aminoacidi erano del 2-9% più abbondanti rispetto alla forma D-) ed uno più recente, del 2021.
Altro articolo interessante sull'argomento "Prebiotic chiral transfer from self-aminoacylating ribozymes may favor either handedness" (Nature Communications, 2024) 

** Nota aggiuntiva sulle molecole chirali.
Carboidrati. Il glucosio è una molecola chirale (due enantiomeri, D- e L- glucosio) di cui solo la forma D- è quella prodotta/utilizzata dagli organismi viventi. Pur essendo versioni speculari l’uno dell’altro le nostre cellule (quindi proteine ed enzimi) sono in grado di utilizzare solo la forma D- 

Aminoacidi. Tranne la glicina tutti gli aminoacidi sono chirali. In natura tuttavia la forma nettamente più abbondante (>90%) nell’organismo è la forma L- sebbene in alcuni occasioni ci siano picchi locali di incremento di D-aminoacidi (ad esempio il D-aspartato durante lo sviluppo del cervello).
Occasionalmente si trovano D-aminoacidi sia in forma libera che come “mattoni” delle proteine originati sia dall'azione di enzimi come le racemasi che per eventi di racemizzazione spontanea degli L-aminoacidi una volta incorporati nella proteina. Nella forma libera i D-aminoacidi sono raggruppati in 3 categorie in base alla loro capacità di funzionare come agonisti sui recettori NMDA, di agire in modo indipendente dai recettori NMDA o se inerti. Oltre che per l'azione delle racemasi una importante frazione di questi D-aminoacidi sono assunti dall’esterno (cibo processato da batteri, ad es. formaggi e yogurt). 

Fonte
Prebiotic chiral transfer from self-aminoacylating ribozymes may favor either handedness
Josh Kenchel et al. Nature Communications (2024)


***
Giochi per scienziati di domani (238 esperimenti in una scatola)

... e una lettura interessante per i grandi
"The Vital Question" (Nick Lane)


Legno fluorescente per massimizzarne il riutilizzo

Ecco come coniugare un approccio ecologico (utilizzo multiplo delle risorse naturali) e la lotta contro parassiti come il bostrico.

Da qualche tempo la Svizzera ha iniziato un opera di piantumazione di alberi decidui sia per compensare i danni causati dal parassita che per aumentare la quota di verde; piante che poi verranno anche sfruttate per il legno. Ideale sarebbe trovare modi per utilizzare il più possibile questi materiali prima del loro utilizzo finale come legna da ardere che reimmetterà in circolo la CO2 precedentemente legata.
Tra le varie idee c'è quella di dotare il materiale naturale di nuove proprietà associandolo a magneti, impermeabilizzandolo oppure sfruttarlo per produrre elettricità.
Altra possibilità quella, progettata da un gruppo di ricercatori svizzeri, di creare un legno luminoso grazie al trattamento con un particolare fungo. Legno che potrebbe poi essere usato per creare gioielli o complementi di arredo.
Delle piante ingegnerizzate per essere luminescenti ne ho già scritto in passato. Vi ricordo che sono in vendita ad un prezzo più che abbordabile in USA.
Attori di questo esperimento il fungo Desarmillaria tabescens (chiodino senza anelli o fungo del miele), dotato di bioluminescenza, e un legno a bassa densità come quello di balsa (Ochroma pyramidale).
Nei test campioni di legno sono stati incubati con il fungo in un ambiente umido per tempi diversi. In questa fase il fungo degrada la lignina, responsabile della rigidità e della resistenza alla compressione, senza intaccare la cellulosa così da non compromettere la stabilità del legno. Alla fine dell'incubazione il legno ha assorbito umidità pari a otto volte il peso iniziale e, una volta esposto all'aria, comincia ad emettere luce verde (lunghezza d'onda a 560 nanometri) la cui intensità raggiunge il plateau in circa 10 ore e da quel momento emette luce per una decina di giorni (arco temporale che si sta cercando di aumentare).
Campioni di legno incubati con il fungo
(credit:empa.ch)

Nulla di "magico" beninteso. 
In natura, la bioluminescenza è una proprietà nota in molti organismi, dai funghi agli animali (meduse, lucciole, ...). La luce viene prodotta grazie a processi chimici che rilasciano energia sotto forma di calore e luce. 
Da un punto di vista dell'efficienza la lucciola è sul podio con una resa quantica del 40% seguita dalle meduse (17%) mentre i funghi luminosi sono ad un più modesto 2%.

Oltre 70 sono le specie di funghi che mostrano bioluminescenza, nota anche come foxfire (vedi anche QUI) nel legno in decomposizione.
Il termine è un ibrido franco-inglese derivante da "faux" e "fire" ("falso fuoco"). Il momento ideale per osservare il fenomeno è in autunno nelle foreste di faggi.
Non del tutto chiara la funzione della bioluminescenza nei funghi. Una delle ipotesi è che serva per attrarre gli insetti utili ai funghi per veicolare altrove le loro spore. 


Leuchtholz aus dem Pilzlabor (credit: Empa-TV)

***

Il fungo del miele può germogliare in modo poco appariscente sul suolo della foresta nella classica forma di fungo, adornato solo da una striscia decorativa attorno al gambo, come un braccialetto, che gli conferisce il nome latino "Armillaria".
Molto più impressionante, tuttavia, è la sua ragnatela di fili neri che disegna su legno e terreno. I fili fungini formano spessi fasci lunghi un metro, circondati da uno strato protettivo nero contenente melanina. Sono anche raggruppati nella categoria dei rizomorfi proprio per queste ramificazioni che assomigliano a radici che si espandono alla ricerca di nuovi habitat e fonti di cibo.
Nota. Il più grande organismo vivente al mondo, una rete di funghi del miele vecchia di 2400 anni, copre un'area di diversi chilometri quadrati nello stato americano dell'Oregon. Il fungo più grande d'Europa si trova in Svizzera sul Passo del Forno. Questo fungo del miele vecchio di 1000 anni copre un'area delle dimensioni di 50 campi da calcio.

Fonte
How to make wood glow
Empa.ch (11/2024)






Luci LED fungine (image: Amazon)
 
Libro per ragazzi sulla bioluminescenza
(image: Amazon)



Dal mondo prebiotico alla vita sulla Terra primordiale

Ricostruire i passaggi che hanno portato da un mondo abiotico alle primissime forme di vita, dando il via all’evoluzione degli organismi unicellulari, è un compito improbo a cui gli scienziati si dedicano fin dai tempi del “brodo di Miller”.
Immagine fantasiosa della chimica nel mondo prebiotico
Non solo domande sul "come" ma anche il “dove” sia avvenuto sono oggetto di indagini che negli anni hanno portato alla rimodulazione dalle ipotesi classiche (camini idrotermali sottomarini) alle calme acque in prossimità delle isole (vedi il precedente articolo sul tema e il tag "paleobiologia").
Sul "quando" le stime sono un poco meno nebulose.
Le primissime evidenze della vita sulla Terra risalgono a circa 3,7 miliardi di anni fa (dati basati su rocce verdi trovate in Groenlandia) anche se si stima che la vita fosse già presente 3,9 miliardi di anni fa, quando la Terra iniziò a raffreddarsi fino a una temperatura alla quale esisteva allo stato liquido. La comparsa delle prime cellule (procarioti) è datata intorno a 3,5 miliardi di anni fa mentre per gli eucarioti bisogna bisogna aspettare 1,8-2 miliardi di anni fa (vedi l'articolo "Alla ricerca del LUCA").
Piacevole la sorpresa di trovare un articolo (breve ma adeguato) su un quotidiano che per sua natura, aggravata a volte da faciloneria senza revisione, non è un luogo ideale in cui trovare temi scientifici trattati adeguatamente. Il Foglio ospita una sezione curata da Enrico Bucci che è invece la dimostrazione di come, volendo, sia possibile trattare temi specialistici in modo adeguato.
In questo ultimo Bucci riassume gli studi più recenti centrati sulla dimostrazione della possibilità, nella Terra primordiale, di reazioni spontanee capaci di produrre i "mattoni" della vita e la capacità di questi mattoni di autoassemblarsi in strutture sempre più complesse.
Scopo non è dimostrare COME la vita abbia avuto inizio (impossibile a meno di avere una macchina del tempo) ma che certi eventi siano potuti avvenire.

Prendo spunto dalla bella idea di Bucci per approfondire un poco il tema aggiungendo alcune informazioni e referenze 

Possiamo iniziare il viaggio dalla accertata presenza di molecole organiche complesse come i ribonucleosidi (i mattoni del RNA) durante il primo periodo Adeano. Presenza confermata (anche) dal ritrovamento di queste molecole sui meteoriti, rocce vecchie come il Sistema Solare.
Si ipotizza che i ribonucleosidi possano formarsi anche nello spazio attraverso una serie di reazioni chimiche che coinvolgono semplici molecole organiche come la formaldeide, l'acido cianidrico e l'acqua, tutte molecole presenti sia nelle nubi interstellari che nelle comete. In presenza di radiazione (cosmica o ultravioletta) tali molecole possono essere indotte a reagire formando ribosio, il precursore dei ribonucleotidi.
La scoperta dell'aminoacido glicina in una cometa nostra vecchia conoscenza (vedi qui) ha evidenziato come anche gli aminoacidi possano formarsi nel mezzo interstellare (Ioppolo et al, e S. A. Krasnokutski et al).
Sulla Terra primordiale, condizioni simili potrebbero essere esistite nelle bocche idrotermali grazie alle alte temperature e alla presenza di vari gas e minerali.

Altra ipotesi sulla formazione dei ribonucleotidi è quella sottesa alla ipotesi del mondo a IPA, secondo cui gli idrocarburi policiclici aromatici (IPA) avrebbero svolto un ruolo importante nell’origine della vita, fungendo, nell'ipotetico stadio del "mondo a RNA", da precursori della sintesi di acido ribonucleico. A conferma dell'ipotesi la recente scoperta che tali composti sono estremamente abbondanti nelle nubi molecolari presenti nello spazio (vedi "Un mega idrocarburo nella nube del Toro").

La disponibilità di ribonucleosidi non sarebbe stata però sufficiente. Era necessario che fossero presenti le forme "attive", i ribonucleotidi trifosfato (rNTP) cioè le forme a cui l’aggiunta di tre gruppi fosfato li rende reattivi e idonei per la polimerizzazione. Nella cellula questo processo è mediato da processi che sfruttano l’energia prelevata dal “cibo” (molecole organiche scisse nei componenti base usati per la generazione di energia, conservata sotto forma chimica in molecole reattive come ad esempio ATP). Una volta usato per alimentare una reazione chimica l'ATP perde un gruppo fosfato diventando ADP e deve essere ricaricato usando l'energia chimica accumulata. Stesso discorso per attivare i "mattoni", rNTP e NTP, necessari alla sintesi di RNA e DNA, rispettivamente.
Chiaramente tali reazioni catalizzate da enzimi non potevano esistere nel mondo prebiotico per cui la “attivazione” doveva essere mediata da processi spontanei conseguenti all’interazione tra molecole preesistenti.
Kim e Benner nel 2021 dimostrarono che in condizioni simili a quelli esistenti nell’Adeano, tra cui la presenza di borato, nichel e di un donatore di gruppi fosfato, la sintesi abiotica di rNTP era possibile.
Il ruolo di nichel e borato è catalizzatore e stabilizzatore, rispettivamente. 
Una volta "comparsi" i rNTP  il passo successivo è stato verosimilmente la loro polimerizzazione a formare filamenti di RNA sufficientemente lunghi dal possedere una qualche attività catalitica (vedi in tale proposito il concetto di ribozima). 
Nel 2022 lo studio di Jerome e collaboratori provò che in presenza di materiale vetroso di origine vulcanica (come diabasebasalto e gabbro prodotti in seguito al rapido raffreddamento della lava) i rNTP potevano polimerizzare spontaneamente in catene di RNA di lunghezza fino a 300 nucleotidi.
Processo che, detto per inciso, avrebbe potuto avvenire anche su Marte, un tempo pianeta vulcanicamente attivo.
A questa nozione aggiungiamo i risultati presentati nel 2020 da Tjhung e colleghi che dimostrano che (alcune delle) molecole di RNA prodotte, rientranti nelle dimensioni di cui sopra, erano in grado di sintetizzare copie funzionanti di sé stesse. Il lavoro successivo di Jerome et al. evidenziò attività catalitiche paragonabili ad una ribozima polimerasi e a ribozima ligasi di classe I capaci nel complesso (polimerizzazione e ligazione) di autoreplicarsi
La ligasi è un enzima (o ribozima in questo caso essendo fatto di RNA) capace di catalizzare la formazione di un legame chimico. La polimerasi catalizza la polimerizzazione dei singoli mattoni (monomeri).
La bassa fedeltà di copiatura delle ribozima polimerasi (e in generale delle RNA polimerasi) è un volano di mutazioni che ha conseguenze evolutivamente importanti. Se da una parte i ribozimi "figli" prodotti avranno una certa probabilità di non funzionare (o male) dall'altra l'alta frequenza di mutazioni faciliterà il processo di autoselezione (leggasi evoluzione) di ribozimi più affidabili.  
Punto questo indagato in un lavoro del 2021 (Portillo et al) in cui si sono impiegate tecniche di evoluzione diretta (riproducono in laboratorio la selezione naturale). I ricercatori dimostrarono che erano sufficienti 52 generazioni per ottenere, spontaneamente, ribozimi polimerasi migliorati in efficienza e fedeltà, capaci di generare sequenze di RNA più lunghe. 
Pesiamo questo dato ottenuto in poche generazioni con le decine o centinaia di milioni di anni a disposizione nella Terra primitiva per formare molecole di RNA più complesse ed efficienti nella replicazione (vedi concetto di fitness genetica)
Un articolo del 2022 (Mizuuchi et al) mostra che oltre all’evoluzione verso forme più efficienti si è andata via via affinando la cooperazione tra molecole di RNA che ha portato a ribozimi interdipendenti e a reti di replicatori: l’interazione porta ad un aumento della stabilità complessiva del sistema, favorendo i replicatori coinvolti (vantaggio evolutivo).

Cooperazione che, come mostrato nell’articolo di Müller et al. (2022), avrebbe coinvolto non solo molecole di RNA ma anche corti polimeri di aminoacidi (peptidi), a loro volta capaci di interagire tra loro.
Le molecole ibride RNA-peptide appaiono più stabili e attive rispetto ai singoli RNA o peptidi e come tali avrebbero rappresentato una fase intermedia cruciale nella transizione dal mondo a RNA a un mondo dominato da ribosomi (macromolecole ribonucleoproteiche in cui avviene avviene la sintesi di proteine partendo dall’informazione contenuta nell’RNA) primitivi. 
Un evento chiave per l'emergere del codice genetico e del flusso di informazione RNA-proteine.

I processi ora delineati avvenivano però in un ambiente liquido privo di “barriere”, con il risultato di rendere le interazioni rare e limitate all’instaurarsi di condizioni locali permissive (in una nicchia nella roccia sul fondo dell’oceano o una pozza di acqua calma in una laguna). Riproducibilità e frequenza su tempi non su scala di eoni erano possibili solo se gli ingredienti si fossero trovati all’interno di una struttura protetta; dovevano in altre parole formarsi delle protocellule, ambienti sufficientemente stabili da separarsi dall'instabilità esterna dell’Adeano.
Nulla a che vedere, sia chiaro, con le attuali cellule che anche nella forma batterica hanno un buon grado di complessità. Queste protocellule dovevano essere strutture sferiche delimitate da molecole lipidiche anfipatiche capaci di autorganizzarsi in uno stato energicamente favorevole mediante una  membrana a due strati, delimitante l'interno acquoso in cui erano intrappolati ribozimi e peptidi. Vantaggio della formazione di compartimenti interni era l’aumento di concentrazione locale che rendeva possibile reazioni chimiche anche senza l’ausilio di catalizzatori biologici (enzimi).
Proof of concept verificato nel 2021 nell’articolo di Köksal et al. Fosfolipidi e acidi grassi che dovevano essere presenti nel mondo prebiotico hanno mostrato capacità di auto-organizzarsi come protocellule in presenza di superfici minerali.
Ultimo studio sul tema quello di Saha et al. (2024) in cui si dimostra come l’inglobamento dell’RNA all’interno delle protocellule, oltre a migliorare stabilità e attività catalitiche, accelera l’evoluzione.
Nel dettaglio si è visto che ribozimi incapsulati in vescicole (micelle, liposomi, etc) evolvono più velocemente rispetto a quelli non incapsulati, selezionando forme sempre più attive. Il fenomeno descritto, noto come effetto di Matthew
Effetto di Matthew. Chiunque sia in una situazione di vantaggio (in questo caso, i ribozimi più efficienti) tende ad acquisire più vantaggi rispetto alla concorrenza aumentando così la fitness. Le protocellule come sinonimi di acceleratori/incubatori di impresa o se vogliamo metterla in sociologia "chi più ha, più avrà".

Una ultima notazione riguarda i lipidi che compongono le membrane cellulari. A differenza degli altri "mattoni" della vita che abbiamo dimostrato potere essere sintetizzati anche nello spazio, i lipidi devono essere prodotti. Un importante tassello che manca nel quadro oggi delineato. La soluzione a questo dilemma viene dai cosiddetti condensati biomolecolari, cioè aggregati spontanei e non delimitati da membrane presenti all'interno delle cellule sia nei procarioti che negli eucarioti, e che svolgono ruoli chiave (ribosomi, etc). Questi aggregati avrebbero potuto formarsi nella Terra primordiale creando una sorta di proto-cellule in cui le reazioni di sintesi (anche dei lipidi) diventavano possibili.


***
Alcuni libri sul tema
E. Smith & H.J. Morowitz

D.W. Deamer


Stella doppia? No, singola più due nane brune

Nane brune: stelle fallite o pianeti gioviani sovrappeso.
L’esistenza delle quasi-stelle rimase confinata all’alveo delle possibilità finché nel 1994, grazie al telescopio Hubble, i ricercatori della Caltech (si, proprio quella in cui “lavorano” Sheldon, Leonard e Howard) le trovarono nella stella Gliese 229B.

Passo indietro. Che cosa si intendeva per quasi-stelle? Il nome in realtà non è del tutto corretto ma serviva ad indicare corpi celesti gassosi molto più grandi di Giove ma troppo piccoli perché la massa (quindi la gravità) potesse comprimere a sufficienza l’idrogeno così da innescare le reazioni di fusione nucleare che caratterizzano le stelle. Il nome dato a questi corpi fu nane brune ad indicare sia la ridotta dimensione che la scarsa luminosità
Nota. Questi corpi, oggi noti come nane brune, emettono luce principalmente attraverso reazioni chimiche nelle loro atmosfere, indotte dal riscaldamento del metano mediante processi aurorali (visibile anche su Giove e Saturno). La radiazione luminosa emessa è centrata sull’infrarosso (3,3 micrometri), ragione per cui il nome migliore sarebbe stato nane rosse, nome tuttavia già preso per indicare stelle (vere) di piccole dimensioni e lunghissima vita, tra le più abbondanti nell’universo.
30 anni dopo, e siamo ai giorni nostri, le nuove analisi basate su osservazioni ad alta risoluzione indicano che la nana bruna osservata è in realtà un sistema di due nane brune (un poco più piccole di Giove ma ciascuna con massa circa 35 volte superiore) con orbite reciproche di 12 giorni, legate "gravitazionalmente" alla nana rossa Gliese 229A

L'orbita reciproca delle nane brune Gliese 229Ba e Gliese 229Bb (P=12 giorni) a loro volta orbitanti intorno alla nana rossa Gliese 229A (P=250 anni)
Image credit: Caltech

Di seguito una simulazione video (Credit: Caltech)


 Lo studio è stato pubblicato su Nature.


Fonte

The cool brown dwarf Gliese 229 B is a close binary
Jerry W. Xuan et al (2024) Nature

- It's Twins! Mystery of Famed Brown Dwarf Solved



***
Da Robotime un bellissimo riproduttore in legno del Sistema Solare


Uncle Scrooge by Bullyland

Uomini di mezza età e vi svegliate la notte?
Top-Prostata 40 compresse

Come la risonanza magnetica funzionale ha permesso di studiare lo stato di coscienza nei pazienti in stato vegetativo

Tutti noi, prima o poi, ci siamo confrontatati con domande sul reale stato di coscienza di soggetti che, in seguito a ictus o incidenti, appaiono totalmente "spenti" anche quando mantengono integre le funzioni primarie come la respirazione, il ritmo sonno-veglia e funzioni complesse come sbadigliare, masticare o deglutire, muovere gli occhi, avvertire i rumori più forti e compiere movimenti involontari a seguito di stimoli dolorosi.
In altri casi invece il soggetto sembra totalmente non responsivo. Non a caso in passato, come ben racconta Edgar Allan Poe, uno degli incubi comuni era finire in uno stato di morte apparente e come tale essere seppelliti. 

Penso sia quindi utile riportare qui una case-story di una decina di anni fa che mostra, soprattutto, le potenzialità di indagine fornite da strumenti come la risonanza magnetica funzionale (fMRI). 

I pazienti in uno stato di incoscienza prolungato rappresentano una sfida importante per le neuroscienze specie se si considera che nelle unità di terapia intensiva di tutto il mondo, la metà dei decessi deriva dalla decisione clinica di sospendere il supporto vitale in soggetti ritenuti cerebralmente morti.
Esistono diversi livelli di disturbi neurologici della coscienza i cui sintomi non sono sempre chiari e facili da diagnosticare con precisione.
Lo stato di coma compare entro pochi minuti o perfino ore dopo gravi danni al cervello causati da ictus, lesioni fisiche, anossia (perdita di apporto di ossigeno) e avvelenamento. Clinicamente il coma viene definito come una perdita prolungata della capacità di svegliarsi: il paziente non può essere svegliato e non mostra segni di consapevolezza. Il corpo continua a mostrare alcune reazioni inconsce e  riflessi come la contrazione della pupilla in risposta alla luce intensa rimangono in genere intatti; i centri di controllo (chiamiamola pure parte inconscia del cervello) situati nel profondo del tronco encefalico, rimangono funzionali e questo spiega (tranne nel caso di lesioni cervicali) la permanenza sia della funzionalità respiratoria che del ritmo sonno-veglia.
Al contrario la morte cerebrale è uno stato diverso e irreversibile, caratterizzato da una totale assenza di riflessi del tronco encefalico, di respirazione e di un segnale EEG piatto. Il metabolismo corticale e la perfusione del sangue al cervello scompaiono, portando a una rapida degenerazione e morte dei neuroni.
La maggior parte dei pazienti in coma "naturale" (cioè non indotto da farmaci) può uscirne entro giorni o settimane e il primo segno di tale percorso (ma non sufficiente da solo) è il ritorno del ciclo sonno-veglia. L'uscita definitiva dal coma si ha con il ritorno di coscienza, capacità di comunicazione (anche solo parziale) e comportamento intenzionale.

Tuttavia, a volte il recupero si ferma in uno strano stato in cui sembra esserci "presenza" senza apparente consapevolezza. In questi casi il paziente ogni giorno si sveglia ma rimane insensibile e inconsapevole, segno distintivo dello stato vegetativo (VS). Il paziente può fare movimenti facciali irregolari che sembrano coscienti ma non del tutto coerenti con la risposta a diversi stimoli esterni.
Se sono presenti risposte limitate e intermittenti che suggeriscono presenza di comprensione e volizione, si parla di “stato minimamente cosciente” (MCS), che permette di stabilire una qualche forma di comunicazione.
Stato ben più problematico è la “sindrome del lock-in”, causata in genere dalla disconnessione tra la corteccia e il midollo spinale, che lascia intatta la coscienza ma chiusa ogni via di comunicazione. Il paziente si ritrova imprigionato in un corpo paralizzato, incapace di muoversi o parlare. Solo piccoli movimenti oculari e battiti di ciglia, controllati da percorsi neuronali separati, consentono loro di comunicare con il mondo.
Nel 2006, il neuroscienziato britannico Adrian Owen rilevò uno stato di coscienza ancora più "nascosto" in una paziente che mostrava tutti i segni clinici di uno stato vegetativo completo; sebbene l'analisi cerebrale indicasse la presenza di attività, questa rimaneva del tutto occultata al mondo esterno perché anche il movimento delle palpebre era bloccato. Grazie al lavoro di Owen è stato possibile dimostrare l'esistenza di una condizione peggiore della sindrome del lock-in: essere coscienti ma privi di alcuno strumento per comunicare con il mondo esterno.

La paziente studiata era una giovane donna che in seguito ad un incidente stradale aveva riportato danni al lobo frontale. Cinque mesi dopo il trauma, nonostante un ciclo sonno-veglia integro, non c'erano segni di miglioramento (assenza di sensibilità/coscienza/movimenti) ad indicare uno stato vegetativo permanente.
Fu solo durante una scansione cerebrale mediante risonanza magnetica funzionale (fMRI), eseguita come parte di un protocollo di ricerca per monitorare lo stato della corteccia nei pazienti in stato vegetativo, che i medici scoprirono che quando la donna "sentiva" qualcuno parlare si attivava l'area cerebrale preposta alla comprensione (elaborazione del parlato, analisi delle parole e integrazione delle frasi).
Il dato portava con sé la domanda se la paziente capisse le frasi o se era l'eco di un meccanismo automatico che non portava ad alcuna "consapevolezza" di quanto ascoltato.
Per rispondere al quesito, Owen sviluppò un test in cui venivano formulate frasi per trasmettere istruzioni complesse come “immagina di giocare a tennis”, “immagina di visitare le stanze della tua casa” o “rilassati”. Nelle persone sane, quando immaginiamo tali attività, il cervello si illumina come se le stessimo effettivamente svolgendo mentre in soggetti privi di ogni barlume di coscienza al più si attivano le aree preposte alla trasmissione del "suono" nella corteccia uditiva.
L'attività cerebrale della paziente rispondeva invece in modo coerente con la capacità di immaginare l'azione richiesta. Quando le fu chiesto di immaginare di giocare a tennis, ad attivarsi era l'area premotoria, che si disattivava prontamente se le veniva detto di sospendere. Se la richiesta era di ripercorrere mentalmente il tour di casa sua, ad attivarsi era il giro paraippocampale, area coinvolta nella rappresentazione dello spazio. Come controllo si eseguì lo stesso test su volontari privi di lesioni cerebrali.
Credit: Owen et al.
L'avvocato del diavolo (fondamentale in ogni messa alla prova di una ipotesi) imponeva di escludere che, senza tirare in ballo lo stato di coscienza, era si trattasse solo di una risposta automatica stimolata dalle parole “tennis” e “navigare”, capaci di attivare circuiti istruiti alla risposta quando la paziente aveva visto/svolto tali attività. Per confutare la critica Owen analizzò l'attività cerebrale di individui sani mentre ascoltavano le stesse parole decontestualizzate dalle istruzioni: entrambe le parole attivavano risposte simili tra loro ma del tutto diverse da quelle evocate quando le parole erano associate ad istruzioni.
I risultati indicavano ora chiaramente che in presenza di istruzioni specifiche, la paziente faceva molto più che reagire automaticamente a delle parole: pensava seguendo le istruzioni ricevute. Evidenza questa che non si trattava di coma vegetativo.
Era questa la prima volta in assoluto che si riusciva a comunicare con una persona in questo stato.

Alcuni anni dopo si presentò ad Owen un caso simile in un uomo, Scott, in stato vegetativo da 12 anni in seguito ad un incidente automobilistico. Un caso che il medico ha poi descritto con parole commosse in un articolo apparso sul Guardian, quando (ripetendo l'esame descritto sopra) dopo avergli fatto la domanda “Senti dolore? Se no, immagina di giocare a tennis”, sul monitor comparve l'attivazione dell'area premotoria. Una informazione che fece piangere (dal sollievo) tutti i medici astanti
Immaginate se avesse risposto SI (nessuna attivazione della corteccia premotoria). Avrebbe significato che Scott stava sperimentando da 12 anni un dolore continuo senza la possibilità di segnalarlo.
Nei mesi successivi a questo primo esame, a Scott furono poste molte altre domande con lo scopo preciso di cercare di migliorare il più possibile la sua qualità della vita. Tra queste se gli piacesse guardare le partite di hockey in tv visto che prima dell'incidente era un appassionato (ma era passato un decennio da quei tempi). La sua risposta fu affermativa.
Un secondo gruppo di domande serviva per rivelare a Scott quanto più possibile sulla sua situazione e cosa ricordasse di quanto avvenuto dopo l'incidente. Domande meno centrate sulla persona Scott e più sul cercare di comprendere le sensazioni e il grado di consapevolezza di persone in questo stato. Capire lo stato mentale di persone in questo limbo era incredibilmente importante, perché nessuno conosceva ancora le risposte e, come si è scoperto, alcune delle ipotesi fino ad allora prese per buone fossero completamente errate.
Owen ricorda come dopo aver letto di pazienti "congelati" in questa zona grigia, i commenti fossero tutti del tipo “dubito che abbiano la percezione del passare del tempo”, “probabilmente non ricordano nulla del loro incidente”, o anche “dubito che abbiano la consapevolezza della situazione in cui si trovano”. Le risposte fornite da Scott provarono esattamente il contrario. Ad esempio sapeva dire esattamente che anno fosse (il 2012, e non il 1999, l’anno del suo incidente), di essere in ospedale e che il suo nome era Scott, conosceva il nome dell'infermiere che si occupava di lui (mai visto prima dell'incidente) il che dimostrava che il circuito della memoria (e di creare nuove memorie) fosse funzionante.
Non furono all'epoca dello studio formulate domande più controverse tipo “vuoi ancora vivere?” per ragioni giuridiche. L’enigma etico sollevato dagli studi iniziati da Owen è che se un paziente dimostra una qualche forma di coscienza, passa dalla categoria “possibilmente autorizzato a morire” alla categoria “generalmente non autorizzato a morire”. È illegale in gran parte dei paesi sospendere le cure a questi pazienti anche se questi chiariscono che è quello che volevano
Owen morì un anno dopo a causa di complicazioni mediche derivanti da infezioni, molto comuni in quei pazienti costretti in un letto d'ospedale per anni. Ma con la "soddisfazione" di avergli aperto una finestra di comunicazione dopo anni vissuti senza nessuna possibilità di comunicare con altri.


Quanto raccontano ben dimostra il contributo fornito dalle tecnologie fMRI nella comprensione della vita mentale delle persone intrappolate nello stato di lock-in. Da quel primo studio, migliaia sono state le scansioni effettuate sui pazienti in coma scoprendo (una stima fornita da Owen) che circa il 20% delle persone in stato vegetativo sono in realtà pienamente coscienti e erroneamente considerate in stato vegetativo da molti anni.


Fonti
Detecting awareness in the vegetative state
AM. Owen et al. (2006) Science 

The Guardian, 2017

- The Life Scientific - Adrian Owen on scanning for awareness in the injured brain - BBC Sounds


- The Search for Consciousness
Owen's Lab. (PDF)

Confronting the grey zone after severe brain injury
Owen's Lab. (PDF)

- Neuroscience: The mind reader

David Cyranoski (2012) Nature 




***
Idee regalo per scienza e memoria su Amazon




Betelgeuse è una stella binaria?

Pronunciatela come volete (Betel-gurz o Beetle-juice) ma Betelgeuse è da anni tra le stelle preferite dagli astronomi, amatoriali e non, sia per la sua facilità di osservazione che per il destino inesorabile che è dietro l'angolo.
Betelgeuse (arancione) è la stella più luminosa della costellazione di Orione.
Si nota anche Rigel in azzurro
(image: sciencenews.org)
Tra le stelle più luminose facilmente visibili dalla Terra c'è la gigante rossa Betelgeuse, 1000 volte più grande del Sole e con una luminosità media 100 mila volte superiore. Pur essendo nota da sempre e studiata in dettaglio da più di un secolo, era caduta un po' nel dimenticatoio fino al 2019 quando l'inaspettato calo della luminosità (noto come “Great Dimming”) fece pensare all'imminenza della sua fine sotto forma di supernova (evento atteso entro i prossimi millenni, un battito di ciglia sui tempi cosmici). 
"L'allarme" rientrò dopo un anno quando si comprese che l’ampia oscillazione di luminosità rilevata era dovuta alla presenza di una nube di polvere. La rinnovata attenzione non è stata però vana avendo portato alla misura della rotazione e della pulsazione (l'espansione e la contrazione periodiche degli strati esterni della stella) dell'astro.
Le stelle più luminose nel cielo notturno. Rigel e Betelgeuse appartengono alla Costellazione di Orione (ricordo che le costellazioni non definiscono aree nello spazio ma la posizione vista dalla Terra, tanto è vero che le stelle appartenenti ad una stessa costellazione spesso si trovano a centinaia di anni luce di distanza tra loro).
Betelgeuse è una stella variabile semi-regolare la cui magnitudine apparente varia da 0,2 a 1,2. La curva di luce emessa evidenzia un lungo periodo secondario (LSP) di circa 2100 giorni, cosa non insolita per le stelle nel ramo delle giganti rosse del diagramma di Hertzsprung-Russell (con valori che vanno da centinaia a migliaia di giorni) ma la cui origine è sconosciuta sebbene si creda che sia un ciclo secondario a uno più breve. La durata dell'LSP è nell'ordine di una decina di volte più lenta della pulsazione radiale di questo tipo di stelle.

Dall'analisi della variabilità di Betelgeuse arrivano ora due lavori le cui conclusioni riportano in auge una vecchia teoria** di Betelgeuse come stella doppia la cui compagna, delle dimensioni del Sole ha (avrebbe) un periodo orbitale di 2100 giorni.
Nota. Nel 2020 avevo dedicato un articolo al possibile rapporto tra velocità di rotazione della stella e l'essere un tempo stata parte di un sistema binario.
Il primo** a proporre che Betelgeuse fosse un sistema binario fu l'astronomo inglese Henry Cozier Plummer nel 1908, che spiegò il ciclo luminoso con l’azione gravitazionale di una stella compagna che tira avanti e indietro Betelgeuse.
Nelle decadi successive gli astronomi accumularono dati molto più “strani” sulla stella, tra cui una sorta di “ebollizione” della sua atmosfera esterna che produce pulsazioni con cicli di 400 giorni e sottocicli di 200 giorni, che culminano in enormi getti di materia espulsi nello spazio. Con tutte queste complicazioni, l'idea della stella compagna passò di moda sostituita da nuovi modelli meglio capaci di spiegarne la fenomenologia. Furono gli “sbiadimenti” luminosi del 2019 a riportare l’attenzione sulla stella morente. 
Simulazione della superficie in ebollizione di Betelgeuse
(image: universetoday.com)
 
Entrambi i lavori sono stati caricati su arXiv.org (quindi non ancora sottoposti a peer review) tra agosto e settembre. Il lavoro di MacLeod et al. ha preso in esame le misurazioni della stella a partire dal 1896 mentre quello di Goldberg et al, ha utilizzato gli ultimi 20 anni di misurazioni ad altissima precisione del movimento di Betelgeuse.

Nell lavoro di MacLeod si ipotizza che che se il ciclo di sei anni è causato da una stella compagna, avrebbe dovuto ripetersi stabilmente per secoli. Dall'analisi dei registri contenenti 128 anni di osservazioni si è avuta la conferma il ciclo di luminosità è reale. I calcoli fatti portano ad ipotizzare che la stella compagna avrebbe una massa di circa 0,6 volte quella del sole e orbita ogni 2110 giorni a una distanza di poco più del doppio del raggio di Betelgeuse. 

L'analisi di Goldberg prefigura due scenari.
  • Nel primo caso la variabilità è dovuta a pulsazioni degli strati più esterni della stella, cosa che indicherebbe che non solo è più grande del previsto ma che si trova già molto avanti nel suo percorso evolutivo cosa che avvicinerebbe il momento della sua esplosione a supernova entro un centinaio di anni.
  • L’altra ipotesi, più accreditata dal team, è che la variabilità a lungo termine mostrata da Betelgeuse sia dovuta alla presenza di una stella compagna di piccola massa, chiamata α Ori B (dove Ori è il nome alternativo di Betelgeuse cioè α Orionis) che altera la polvere che circonda il sistema, cosa che spiegherebbe la riduzione di luminosità apparente. La compagna avrebbe massa 1,17 volte il Sole, periodo orbitale di 2170 giorni e distanza da Betelgeuse di circa 2,43 volte il raggio di Betelgeuse. In questo caso il tic-toc che ci separa dalla supernova sarebbe posticipato (fino a un centinaio di migliaia di anni) con buona pace di tutti noi che aneleremmo vedere questo evento in diretta.
Testare se queste ipotesi sono corrette sarà molto difficile se non impossibile data la differenza di dimensioni e vicinanza del (ipotetico) sistema binario.
Anche se α Ori B fosse reale la sua aspettativa di vita è grama. L'orbita della stella si va restringendo mentre Betelgeuse ruba il suo momento angolare. Tra circa 10 mila anni, Betelgeuse lo inghiottirà completamente, sempre che non esploda prima.


Fonte
A Buddy for Betelgeuse: Binarity as the Origin of the Long Secondary Period in α Orionis
Radial Velocity and Astrometric Evidence for a Close Companion to Betelgeuse

***

Non avrete bisogno di un telescopio per vedere la supernova di Betelgeuse né riuscirete a vedere se è un sistema binario, ma un telescopio dobsoniano è tutto quello che serve per fare astrofotografia dalla Terra.
Telescopio riflettore newtoniano 130EQ


I dubbi sull'ipotesi serotonina-depressione

[aggiornato 09/24]
Il legame tra serotonina e depressione messo in dubbio da una meta-analisi e con esso il ruolo dei SSRI nella terapia antidepressiva.
Il lavoro, pubblicato sulla rivista Molecular Psychiatry da ricercatori inglesi, va contro il dogma oggi in auge che la depressione sia (solo) il risultato di uno squilibrio chimico causato da un deficit del neurotrasmettitore serotonina. La maggior parte degli antidepressivi oggi in uso (fatta salva la ketamina, terapia di recente introduzione) agiscono come inibitori selettivi della ricaptazione della serotonina (farmaci noti come SSRI), azione che permette di aumentarne la concentrazione.
Il che non vuol dire che l'eziopatogenesi della malattia sia nota (anzi) ma che la serotonina era l'unica "pistola fumante", indice di una correlazione. Da questa nebulosità conoscitiva si può comprendere come mai la terapia farmacologica non sia del tutto efficace.

La relazione depressione-serotonina, sebbene formulata nel 1960, vide la sua "accettazione terapeutica" negli anni '90 su iniziativa dell'industria farmaceutica per promuovere la nuova gamma di antidepressivi (SSRI); correlazione avallata da istituzioni ufficiali come l'American Psychiatric Association. Il risultato è stato la diffusione delle SSRI tanto che in UK rappresentano un sesto delle prescrizioni nella popolazione adulta.
I dubbi sulla validità generale della relazione serotonina-depressione circolano da anni nell'ambiente accademico ma finora mancavano analisi complete come quella adesso pubblicata.

A prima vista sembrerebbe incongruo dubitare dell'azione funzionale degli SSRI essendo i farmaci più diffusi ma la vera domanda a cui cercare di rispondere è se sia veramente l'aumento temporaneo della disponibilità di serotonina nel cervello (indotto dal farmaco) a compensare deficit preesistenti; in altre parole il meccanismo d'azione potrebbe interessare reti neurali non ancora del tutto noti.
Uno dei problemi riguardo gli studi clinici sulla depressione è che questa categoria di pazienti è particolarmente sensibile all'effetto placebo (30-40%).
Altro problema è che gli antidepressivi provocano un intorpidimento emozionale la cui origine neurologica non è del tutto compresa ma che potrebbero contribuire alla diminuzione (insieme ad altri effetti) della "percezione" depressiva.

Lo studio inglese contiene una analisi sistematica dei dati clinici prodotti nel corso di decenni sul tema  serotonina e depressione. Gli aspetti analizzati sono molteplici.
Una parte dello studio si è focalizzata sul confronto dei livelli di serotonina (e dei suoi prodotti di degradazione) nel sangue e nel liquido cerebrale, nei soggetti sani e in quelli depressi. L'analisi non ha mostrato una differenza rilevante tra i due gruppi.
Un'altra parte dello studio si è invece concentrata sui recettori della serotonina. Anche qui i ricercatori non hanno rilevato differenze rilevanti nella presenza di particolari varianti alleliche nel gruppo di depressi.
L'analisi genetica condotta sul trasportatore della serotonina, la proteina che rimuove il neurotrasmettitore dal canale sinaptico (questa è la proteina su cui agiscono gli SSRI), ha suggerito, semmai, un aumento della attività della serotonina in alcuni pazienti depressi (il dato potrebbe tuttavia essere stato inquinato dal fatto che molti partecipanti a questi studi avevano usato o stavano usando antidepressivi).
Una sezione molto interessante dello studio riguardava se la depressione potesse essere indotta nei volontari abbassando artificialmente i livelli di serotonina. Una sorta di prova del nove per determinare il rapporto causa-effetto.
Non c'è bisogno di alcun farmaco per indurre questo calo, basta una dieta povera dell'aminoacido triptofano, il precursore della serotonina.
Due review del 2006 e 2007 più alcuni studi recenti mostravano dati negativi in questo senso: il calo di serotonina non induceva la depressione tranne in un sottogruppo di persone con storia familiare di depressione.

Infine l'analisi degli studi genetici disponibili (su un numero complessivo di decine di migliaia di pazienti) non ha portato all'identificazione di varianti geniche (sui geni che definiscono la via serotoninergica) che possano in qualche modo essere predittive del rischio della malattia.

A complicare il quadro il fatto che sebbene alcuni degli antidepressivi oggi in uso siano considerati serotoninergici, in realtà agiscono anche sui livelli cerebrali di noradrenalina (la cui correlazione con la depressione è ritenuta più debole della serotonina, ma questo per dire degli effetti ad ampio spettro).

In sintesi, una volta ridimensionato il contributo dell'ipotesi serotonina, ad oggi non esiste un chiaro e univoco meccanismo farmacologico accettato che spieghi l'indubbio effetto anti-depressivo di alcuni farmaci oggi in uso. 

Fonte
- The serotonin theory of depression: a systematic umbrella review of the evidence
J. Moncrieff et al (2022) Molecular Psychiatry

***

Uno studio pubblicato a settembre 2024 fornisce nuovi dettagli sul legame serotonina-depressione. 
Grazie ad una sonda fluorescente specifica per la serotonina (attivata solo dopo l'interazione) e utilizzabile anche per lo studio dentro la cellula, si è dimostrato che il livello di serotonina nelle cellule produttrici ottenute da individui affetti da depressione e normali, è molto simile. La vera differenza è nella minore capacità delle cellule "depresse" di rilasciare la serotonina, un meccanismo mediato da mTOR, confermato con l'utilizzo di inibitori selettivi di questo messaggero intracellulare.

Fonte
Development of a Fluorescent Probe with High Selectivity based on Thiol-ene Click Nucleophilic Cascade Reactions for Delving into the Action Mechanism of Serotonin in Depression
Weiying Lin et al. (2024) Angewandte Chemie International Edition







Ig-Nobel 2023 e 2024: i premi alla scienza che fa ridere ma anche pensare


Ed ecco arrivare come ogni settembre gli ambiti premi Ig-Nobel. Quest'anno lascio la parola agli autori di Wired che ben riassumono il contenuto dei lavori premiati e la ragione della scelta.
Buona lettura


Ulteriori dettagli su



*** Ig-Nobel 2023 ***
(pubblicato 11/2023)
Anche quest’anno insieme ai Nobel bisogna ricordare i vincitori degli IgNobel, autori delle ricerche più strampalate ma nondimeno del tutto sensate … anche se a volte bisogna essere molto addentro il campo per capirne la logica. In verità, come del resto avviene per i Nobel, le categorie premiate sono varie e includono ad esempio anche la letteratura (per dettagli vi rimando alla lista completa dei vincitori del 2023 in cui potrete anche trovare il link agli articoli premiati). 
Quest'anno
Tra le ricerche premiate (i lavori possono essere anche molto vecchi ma devono essere stati pubblicati su riviste peer reviewed) nelle varie categorie ne scelgo alcune

Letteratura
In questa categoria il premio è stato assegnato ad un team multinazionale “per lo studio delle sensazioni che le persone provano quando ripetono una sola parola molte, molte, […] volte”. La ricerca si è basata sul chiedere le sensazione di alcuni partecipanti chiamati a scrivere molte volte alcune parole, fino a raggiungere il punto di … trovarle strane o mai sentite. Un fenomeno opposto al déjà vu detto jamais vu che descrive la sensazione di estraneità a qualcosa di noto. 

Geologia
La ricerca mi ricorda molto il simpatico Brick (il figlio minore della serie TV The Middle) che aveva il vezzo di leccare gli oggetti per conoscerli. Ebbene, qualcosa di simile è stato studiato da Jan Zalasiewicz (University of Leicester) che ha cercato di rispondere al quesito sul “perché ai geologi piace leccare le rocce” (attitudine vera come descritto in questo articolo) il che mi fa pensare anche all’avversione di Sheldon per la geologia e al personaggio di Bert

L'articolo premiato ha il nome esplicativo “Eating fossils in cui si descrive questa arte antica per studiare le rocce (ivi compreso a volte abbrustolirle, bruciarle e bollirle) in assenza di strumenti analitici moderni

Ingegneria
O meglio il premio qui va alla necrobiotica, una variante della robotica che utilizza parti morti di animali in una sorta di cross-over tra Frankenstein e steam-punk. Il premio è stato conferito per aver “rianimato ragni morti come strumenti meccanici da "presa” cioè per avere riutilizzato l’eccellente sistema di locomozione di un ragno (morto) adattandolo a diventare un perfetto strumento da presa in grado di acciuffare oggetti delicati.
Image: newatlas.com

Salute pubblica
Il vincitore è un coreano che lavora alla Stanford University premiato per il lavoro pluriennale nella messa a punto di un wc hgh tech (altro che quelli giapponesi). Nello specifico si tratta di un dispositvo che ​ha incorporato tecnologie tra cui l’analisi delle urine, un sistema per l’analisi visiva della defecazione (argh!!), un sensore per l’impronta anale abbinato a una telecamera di identificazione (altro che analisi dell’iride) e un sistema trasmissione dati. In effetti strumenti simili hanno utilità sia nel monitoraggio a distanza dei pazienti che negli studi clinici.

Comunicazione e neurologia
Vero che ci sono persone capaci di ripetere una parola o perfino di parlare al contrario. Rari e per questo studiati come fatto dagli autori dello studio premiato che ha analizzato la materia grigia in alcune regioni cerebrali di due persone con queste capacità.

Medicina
Il numero di peli nel naso è uguale nelle due narici? La risposta viene da uno studio effettuato su alcuni cadaveri che ha dimostrato che in media ce ne sono 120 a sinistra e 122 a destra. La cosa curiosa è che il punto di partenza della ricerca era per acquisire informazioni per il trattamento della alopecia areata, che oltre alla calvizie presentano un maggiore rischio di allergie e infezioni respiratorie associate alla perdita di peli nel naso.

Nutrizione
Il lavoro premiato è vecchio (risale al 2011) e indagava l’aumento del senso di gusto grazie all’elettricità. Fosse questo sarebbe anche “normale” ma il punto saliente, riportato nelle motivazioni del premio, è “per esperimenti per determinare come le bacchette e le cannucce elettrificate possono cambiare il gusto del cibo”. Grazie a tali strumenti i ricercatori evidenziarono come usando queste bacchette elettriche per mangiare (studio fatto in Giappone, da noi magari avrebbero usato come strumenti forchette elettrificate) i volontari percepissero dei sapori altrimenti nascosti.
Image: newatlas.com

Educazione
Chi non si è mai annoiato a scuola alzi la mano. Ma la noia non è un qualcosa da accantonare, ma la si può studiare. Il premio ai ricercatori è perché hanno scoperto che anche solo aspettarsi che una lezione sarà noiosa la renderà noiosa, ma anche che se gli studenti vedono i loro insegnanti annoiati o li percepiscono come tali saranno meno motivati. Quindi siate pimpanti o voi docenti all’inizio della lezione ed evitate tonalità in stile Marina Massironi quando faceva gli sketch dei bulgari con AG&G

Psicologia
Questo studio risale alla fine degli anni ’60 e la ragione del premio è “per esperimenti su una strada cittadina per vedere quanti passanti si fermano a guardare verso l'alto quando vedono degli estranei che guardano in alto”. Quanti più lo fanno, scrivevano, tanti più si fermeranno e lo faranno.

Fisica
Se è assodato che il sesso in alcuni animali non ha base genetica ma dipende da fattori ambientali come la temperatura (es. le tartarughe) meno noto è l’effetto sull’ambiente dell’attività sessuale. Ecco allora la motivazione “per aver misurato quanto la miscelazione dell'acqua dell'oceano è influenzata dall’attività sessuale delle acciughe” le quali radunandosi in massa durante la stagione riproduttiva possono generare turbolenze e a cascata infuenzare la crescita del fitoplancton (che detto per inciso è il maggior produttore di ossigeno del pianeta e alla base della catena alimentare e della cattura della CO2). Quando si dice “il battito di ali di una farfallo può causare un tornado dall’altra parte del mondo”.


Fonte


Articoli su temi attinenti



***
Quando ero un giovincello e mi recavo nella biblioteca universitaria per aggiornarmi sulle ultime ricerche (no, internet era ancora ai suoi inizi) questa rivista era la prima che leggevo
La raccolta definitiva dei migliori articoli usciti
(image: Amazon)

Statuetta del Cheshire Cat e di Alice nel paese delle meraviglie) in offerta a meno di 10€

La genetica dei Neanderthal rivela l'esistenza di almeno due popolazioni poco inclini a "frequentarsi"

Lo studio dei “cugini” Neanderthal è una sfida cruciale sia per comprendere in pieno l’evoluzione dell’Homo sapiens che per conoscere i fattori, ancora poco noti, che decretarono il loro fallimento quando si trovarono a competere con i nostri antenati.
Credit: Neanderthal Museum
Vi rimando agli articoli precedenti** in cui ho descritto gli incroci dei sapiens sia con i Neanderthal che con i Denisova di cui tutti i sapiens odierni (tranne le popolazioni africane) o solo alcune popolazioni in Tibet/Filippine, rispettivamente, portano tracce nel loro genoma. Di particolare interesse sono i vantaggi adattativi (ma anche la predisposizione a certe malattie) che tali incroci hanno prodotto
Di particolare interesse un recente studio che rimescola in parte l’assunto sui Neanderthal come gruppo omogeneo (al netto di differenze dovute al vivere in aree lontane tra loro), grazie alla analisi genetica di resti rinvenuti nella grotta di Mandrin (Francia), con cui si dimostra la presenza nelle ultimo periodo della loro esistenza di almeno due linee di Neanderthal in Europa occidentale rimaste totalmente separate tra loro per quasi 60 mila anni.
I principali gruppi di Neanderthal
(credit: V. Fabre at al, 2009)
Le conoscenze attuali collocano il declino dei Neanderthal intorno a 40-45 mila anni fa con l’arrivo in Europa dei sapiens (gli ultimi reperti risalgono a 42 mila anni fa). L’assunto comunemente accettato è che i Neanderthal facessero parte di un'unica popolazione geneticamente omogenea che spiega anche la sostanziale omogeneità dei loro geni trasmessi ai nostri antenati (tale omogeneità dimostra in effetti più che un massiccio accoppiamento tra i due Homo, una netta selezione positiva dei discendenti che portavano i geni “giusti”, meglio adatti alla sopravvivenza nel "nuovo" ambiente europeo.

La ricerca pubblicata su Cell Genomics complica questo quadro, rivelando che nella fase finale della loro esistenza esistevano almeno due linee di Neanderthal, la "classica" e quella “nuova” scoperto nella grotta francese.
Il nome attribuito al Neanderthal trovato nella grotta (rappresentativo della “nuova” linea) è Thorin, mutuato dal mondo tolkeniano in quanto Thorin era uno degli ultimi re dei nani; allo stesso modo si colloca la linea del neanderthal Thorin come una delle ultime della loro specie.
Il lavoro decennale (ancora lungi dall’essere terminato) iniziò con il ritrovamento dei denti all'ingresso della grotta che oggi sommano a 31 quelli ritrovati (Thorin ne doveva avere 34 in realtà, il che rappresenta il primo Neanderthal mai trovato con molari soprannumerari), oltre alla mascella, frammenti del cranio, falangi e migliaia di piccole ossa.
L'arcata dentaria ricostruita di "Thorin"
Image: Ludovic Slimak et al
L’analisi genetica dimostra che questa nuova popolazione si era differenziata dagli altri Neanderthal europei nel corso dei precedenti 50 mila anni. Inoltre a differenza della maggior parte dei tardi Neanderthal  in cui si riscontra una sostanziale omogeneità genetica, la “famiglia” di Thorin è rimasta geneticamente distinta dagli altri nel periodo che va da 105 mila anni fa fino alla sua estinzione.

La separazione tra le linee di Neanderthal solleva un’altro importante problema cioè come abbiano potuto le popolazioni umane in Europa rimanere isolate per decine di migliaia di anni, nonostante vivessero a distanze percorribili con due settimane di marcia. Forse questa è una chiave importante per comprendere le differenze tra loro e i Sapiens, i cui processi evolutivi, culturali e sociali li spinsero a diffondersi prima in Europa e poi nel mondo mentre i Neanderthal pur in giro da molto più tempo non valicarono mai le steppe eurasiatiche una volta trovato il loro habitat ideale. Probabile anche che non abbiano mai sperimentato un picco demografico che avrebbe forzato la ricerca di nuove terre e, a cascata, l’accoppiamento con loro simili ma di “tribù” diverse.

Thorin non è beninteso un caso isolato. Le analisi genetiche hanno rivelano collegamenti con un altro Neanderthal (Nana) contemporanea di Thorin che viveva ad oltre 1700 km di distanza a Gibilterra. La stretta vicinanza genetica suggerisce che Nana e Thorin appartenessero alla stessa popolazione degli ultimi Neanderthal, una popolazione che non avrebbe avuto scambi con i classici Neanderthal europei per almeno gli ultimi 60 mila anni della loro esistenza.
Scultura di Nana e Flint esposta al museo di Gibilterra 
Lo studio suggerisce anche l'esistenza di una stirpe di Neanderthal "fantasma", che vagava per l'Europa nello stesso periodo e che funse da veicolo di diffusione di geni, ma di cui ad oggi non si hanno tracce fossili. Ne deriva che in quel periodo esistevano altre popolazioni di Neanderthal in Europa che non appartenevano né ai classici Neanderthal né alla popolazione di Thorin.
Inizia quindi ad emergere lentamente una storia affascinante in cui i Neanderthal non sono più un blocco monolitico, ma sono rappresentati da popolazioni diverse non particolarmente propense ad incontrarsi e incrociarsi. Una scoperta che impone di riconsiderare radicalmente la nostra comprensione dell'umanità primitiva.

Gli stessi autori dello studio qui riassunto, avevano dimostrato nel 2022 l'esistenza di una prima migrazione di Sapiens in territorio europeo 10-12 mila anni prima di quanto fino ad allora ipotizzato; gruppi che già padroneggiavano tecnologie come arco e frecce e che verosimilmente rappresentarono, una sfida senza possibilità di opposizione agli Homo che avevano vissuto indisturbati nel continente da molte migliaia di anni (i primi fossili che richiamano i Neanderthal risalgono a 430 mila anni fa).
Tra le domande ancora aperte è se i Neanderthal si siano estinti in modo “repentino” (evolutivamente parlando) magari in seguito a repentini cambiamenti climatici o ad uno sconvolgimento naturale, oppure se siano stati sempre più diluiti dall’avanzare impietoso dei sapiens. La prima ipotesi mi sembra poco coerente data la loro lunga permanenza in Europa

Per capire l'evoluzione dei Sapiens che si sostituirono ai Neanderthal, dobbiamo, anche, capire cosa erano e come vivevano i Neanderthal. 

Fonte
Long genetic and social isolation in Neanderthals before their extinction
Ludovic Slimak et al, (2024) Cell Genomics, 4(9)
Neanderthals and humans lived side by side in Northern Europe 45,000 years ago
UCB, news
Who were the Neanderthals?


** articoli precedenti sul tema
Per articoli simili cliccate sul tag "antropologia evolutiva"


***
L'ultimo libro dell'autore dello studio oggi discusso



Powered By Blogger
"Un libro non merita di essere letto a 10 anni se non merita di essere letto anche a 50"
Clive S. Lewis

"Il concetto di probabilità è il più importante della scienza moderna, soprattutto perché nessuno ha la più pallida idea del suo significato"
Bertrand Russel

"La nostra conoscenza può essere solo finita, mentre la nostra ignoranza deve essere necessariamente infinita"
Karl Popper