CC

Licenza Creative Commons
Questo opera di above the cloud è concesso sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.

The Copyright Laws of the United States recognizes a “fair use” of copyrighted content. Section 107 of the U.S. Copyright Act states: “Notwithstanding the provisions of sections 106 and 106A, the fair use of a copyrighted work (...) for purposes such as criticism, comment, news reporting, teaching, scholarship, or research, is not an infringement of copyright.”
Any image or video posted is used according to the fair use policy
Ogni news è tratta da articoli peer reviewed ed è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto sia datato.
QUALUNQUE link in questa pagina rimanda a siti sicuri!! SEMPRE.
Volete aiutare questo blog? Cliccate sugli annnunci/prodotti Amazon (se non li vedete, disattivate l'Adblocker mettendo questo sito nella whitelist. NON ci sono pop up o script strani, SOLO Amazon). Visibili in modalità desktop! Se poi decidete di comprare libri o servizi da Amazon, meglio ;-)
Dimenticavo. Questo blog NON contiene olio di palma (è così di moda specificarlo per ogni cosa...)

Batteri modificati per distruggere un tumore

Aggiorno il precedente articolo (in calce) per segnalare uno studio preliminare fatto su modelli animali per il tumore del polmone non a piccole cellule, usando batteri ingegnerizzati.
Lo studio è stato pubblicato da un team della Columbia University sulla rivista Scientific Reports a dicembre 2022.

In estrema sintesi, lo studio esplora come sviluppare terapie batteriche in sinergia con altri trattamenti per migliorarne l'efficacia senza aggiungere ulteriore tossicità.
Punto di partenza il sequenziamento del pool di RNA (trascrittoma) di cellule di tumore polmonare esposte a particolari ceppi di batteri; dall'analisi delle variazioni di espressione genica che queste cellule sviluppavano per resistere ai batteri, si sono identificate le vie metaboliche attivate solo nelle cellule tumorali e non quelle normali, su cui indirizzare appositi farmaci. I ricercatori hanno potuto così osservare che una volta bloccate queste vie, il trattamento delle tossine batteriche insieme al farmaco (ad esempio un inibitore della AKT) mostrava un netto incremento di efficacia.

Fonte
- Design of combination therapy for engineered bacterial therapeutics in non-small cell lung cancer.
Dhruba Deb et al, (2022) Scientific Reports, 12:21551


*** Batteri modificati per distruggere un tumore (aprile 2020) ***

A metà XIX secolo scienziati come Wilhelm Busch, Friedrich Fehleisen e Paul von Bruns riportarono un dato empirico assolutamente inatteso: la regressione spontanea del tumore nei pazienti in cui era comparsa una infezione batterica da streptococco nel tessuto operato. 
La conferma sperimentale di questi dati fu ottenuta pochi anni dopo da William Bradley Coleychirurgo americano e pioniere dell'immunoterapia antitumorale, che dimostrò l'effetto terapeutico inoculando in pazienti con tumori inoperabili due specie di Streptococcus (miscela nota come "tossine di Coley").
William Coley nel 1892
Passano alcuni anni e nel 1943 Murray Shear identifica l'agente causale del "rigetto tumorale" nella endotossina lipopolisaccaridica (LPS). Bisognerà aspettare il 1975 perché Lloyd Old scopra il TNFa (Tumor Necrosi Factor alpha) e la linfotossina (prodotte da macrofagi e linfociti, rispettivamente), come le proteine responsabili della uccisione delle cellule tumorali.

Il misterioso effetto terapeutico può essere compreso se si pensa ad un "effetto collaterale" dell'infezione. In sintesi, la presenza dei batteri in prossimità del tumore causa il reclutamento locale del sistema immunitario che "scopre" la presenza di cellule aberranti attaccandole.
Nota. Ricordate che i tumori insorgono nei nostri tessuti fin dalla nascita ma nel 99,9% dei casi le cellule anomale vengono scoperte e rimosse dal sistema di sorveglianza. Capita che queste cellule anormali riescano a mimetizzarsi tra le cellule normali e / o divengano capaci di "spegnere" le cellule di pattuglia non appena queste le riconoscono. Questo è il primo passo che consente il loro sviluppo e l'acquisizione di caratteristiche sempre più invasive fino al tumore conclamato e alla metastasi.
La presenza di batteri in un tumore induce una reazione immunitaria "forzando"uno stato infiammatorio anche dove prima c'era un tumore invisibile (image credit to: Jung-Joon Min et al, (2019) EMM)

Nonostante le premesse l'approccio terapeutico non assurse mai a terapia clinica dopo gli anni '60 a causa della scarsa affidabilità del metodo, intesa sia come effetti collaterali (rischio shock anafilattico o sepsi) che di una efficacia ben inferiore (e nemmeno utilizzabile su tutti i tumori) rispetto alla chemioterapia o alla radioterapia.
Un macrofago (in verde) mentre  passa tra le cellule tumorali. Molto spesso i macrofagi vengono "silenziati" dalla cellule tumorali con segnali che a lui risuonano come "siamo cellule normali, puoi proseguire". Quando questo avviene non solo il macrofago non attacca e "dissuade" anche i linfociti dall'iniziare l'attacco, ma fornisce alle cellule tumorali anche fattori di crescita. I batteri potrebbero sabotare questa connivenza attivando lo stato infiammatorio (image credit: Memorial Sloan Kettering Cancer Center)

Ma l'idea di riuscire ad ottimizzare l'approccio in modo da renderlo sicuro, controllabile ed efficace è sempre rimasto nella mente dei ricercatori.

Ora, molti decenni dopo, siamo forse giunti ad un punto di svolta con la pubblicazione di uno studio sulla prestigiosa rivista Nature Medicine, il cui contenuto può essere riassunto con
"batteri programmati per colpire le cellule cancerose".
Punto fondante del lavoro, il dato consolidato che molti tumori sovraesprimono la proteina di superficie CD47, una proteina con funzione anti-fagocitaria che nei tessuti normali serve come "mantello di invisibilità" (se la possiedi, il macrofago non ti degna di uno sguardo). Nel caso dei tumori la sua funzione è una delle alterazioni che permettono di sfuggire al controllo mostrando ai  macrofagi il messaggio "non mangiarmisono normale". (sic! Il termine inglese è proprio "do not eat me".

L'alta espressione del recettore CD47 è stata sfruttata per la diagnostica e per lo sviluppo di terapie equiparandola ad una "bandierina" che segnala "questa è una cellula tumorale ed è un bersaglio".
Facile in ambito diagnostico. L'analisi istochimica distingue chiaramente il forte segnale di CD47 sulle cellule tumorali rispetto a quello debole delle cellule normali.
La situazione si complica quando si vuole sviluppare un'arma che utilizzi CD47 come guida. Facciamo un esempio semplice e immaginiamo una molecola capace di riconoscere ed occultare CD47, così da rimuovere il lasciapassare immunitario e favorire l'attacco dei macrofagi. L'utilizzo sistemico di tale molecola andrebbe a colpire anche le cellule normali, causando effetti collaterali tra cui  anemia e trombocitopenia.
I ricercatori della Columbia University guidati da S. Chowdhury, hanno cercato un'altra strada, usando l'alta espressione tumorale di CD47 come un "faro" per guidare in loco un "missile terapeutico" basato sui batteri. Il sistema è stato messo a punto su modelli murini.
Passaggio preliminare la duplice modifica genetica del batterio Escherichia coli:
  1. reso capace di attivare una procedura di autolisi in modo sincrono con i suoi simili una volta raggiunta una certa densità;
  2. trasformato in un "container", il cui carico sono molecole capaci di bloccare CD47.
I batteri così ottenuti sono stati iniettati nel tumore e raggiunta la densità critica si attiva la lisi sincrona con relativo rilascio delle molecole dirette su CD47.
I batteri riescono a raggiungere la densità voluta nel tumore essendo questa un'area immuno-privilegiata, cioè a bassa densità di azione immunitaria a causa delle contromisure che il tumore attiva durante la sua evoluzione. La lisi in sincrono locale evita il rilascio delle molecole effettrici nei tessuti sani, minimizzando così il rischio di effetti collaterali. La sincronizzazione è basata sul sistema di comunicazione batterico del quorum sensing.
In sintesi, due sono i meccanismi immunitari che tale trattamento vuole stimolare:
  • la presenza di batteri vivi innesca una infiammazione locale nel tumore che richiama le cellule immunitarie;
  • i macrofagi si "accorgono" della presenza di cellule anomale (CD47 bloccato) e iniziano a fagocitarle,  rilasciando nel contempo citochine che richiamano i linfociti T infiltranti. Una volta attivati, i linfociti continueranno l'opera di bonifica anti-tumorale in altri tessuti rimuovendo metastasi altrimenti invisibili.
Il risultato in topi è stato più che positivo:
  1. regressione tumorale; 
  2. assenza di metastasi
  3. netto aumento del tempo di sopravvivenza.

Chiaramente si tratta di un primo studio di fattibilità (proof of concept) a cui dovranno seguire nuovi test di sicurezza e di efficacia con altri modelli tumorali in roditori.
Solo alla fine di questo percorso si potrà cominciare a pensare a studi clinici sull'essere umano.

Fonte
- Programmable bacteria induce durable tumor regression and systemic antitumor immunity.
Chowdhury, S. et al. (2019) Nat. Med. 25, 1057-1063

***

Un tema in parte correlato è quello dell'utilizzo di virus per infettare e distruggere le cellule tumorali in modo diretto (virus litici e/o ingegnerizzati per esprimere una tossina) o indiretto (attivazione risposta immunitaria locale). Vedi sul tema la review di K. Harrington et al (Nat. Rev. Drug Discovery - 2019)
Altro esempio di virus "benefici" è quello dei batteriofagi (i virus dei batteri) che hanno avuta una recente rinascita come trattamento dei batteri multiresistenti agli antibiotici; dato che i fagi coevolvono insieme ai batteri, possono agire come "antibiotici" in grado di autoadattarsi alla comparsa di ceppi resistenti alla infezione (articolo precedente sul tema --> qui).


La vita sulla Terra potrebbe essersi formata su isole e non nei camini idrotermali oceanici

*** Aggiornamento Gennaio 2023***
Il biochimica Nick Lane e la teoria che si sia evoluto prima il metabolismo e POI siano comparse le cellule.
Per quanto strana questa teoria ha un senso e si sostanzia sulla esistenza in natura di luoghi in cui esistono gradienti elettrochimici (in grado di generare flusso di elettroni e quindi energia) proprio in corrispondenza dei camini termici (sia quelli sul fondo oceanico che nelle sorgenti termali ad acqua dolce). La presenza di rocce porose forma dei divisori temporanei che rende possibile un gradiente in grado di fornire l'energia a processi anche estremamente energivori come la sintesi peptidica. In questi ambienti avrebbe potuto evolversi per mera selezione di un processo chimico, una protocellula consistente solo in un divisore artificiale (membrana lipidica) in cui mantenere e sfruttare questo gradiente; un processo poi "fissato" con la comparsa della "memoria informativa" sotto forma di DNA o RNA.
Vi rimando in tal senso ad una intervista a Nick Lane pubblicata su Quanta Magazine e, per approfondimenti, al suo bel libro





*** Gennaio 2021***
La vita sulla Terra potrebbe essersi formata su isole e non nei camini idrotermali oceanici 
La vita sulla Terra potrebbe essersi evoluta in pozze d'acqua calda su isole che punteggiavano l'immenso oceano che allora ricopriva il pianeta.
Image credit:  Michael S. Helfenbein via news.yale.edu

Le tracce più antiche della presenza di vita sulla Terra sono datate 3,5 miliardi di anni (le stromatoliti in Australia), solo un miliardo di anni dopo la formazione del pianeta.
Vedi anche il precedente articolo "alle Ebridi il fossile più antico"
Ci sono invero altre tracce che potrebbero spostare le lancette a 3,7 miliardi o a 3,95 miliardi di anni ma si discute ancora se queste siano veramente di origine biologica.
Chiaramente non si parla di resti fossili macroscopici come li intendiamo comunemente ma del risultato dell'azione di organismi microscopici sull'ambiente circostante (per altri esempi vedi veri fossili o no?).

Una migliore datazione dei primi veri reperti di origine biologica è importante anche per meglio comprendere in quali condizioni si sia passati dalla fase prebiotica (reazioni di replicazione di acidi nucleici in micro nicchie) alla comparsa di cellule, che altro non sono che ambienti delimitanti la sede delle reazioni chimiche e del patrimonio genetico. 

Le teorie sull'origine della vita (scientifiche, quindi divinità e UFO esclusi) sono varie (qui un elenco) ma hanno tutte un punto centrale da risolvere. 
La vita - almeno per come noi la conosciamo, quindi quella terrestre - richiede la formazione e l'assemblaggio di molecole elementari di base (amminoacidi e nucleotidi) per formare molecole complesse come proteine, RNA e DNA. Questa transizione dagli elementi costitutivi alle lunghe catene molecolari è nota come polimerizzazione e richiede che si verifichino temperature e condizioni specifiche.
La teoria (finora) più accettata postula che le prime forme di vita microbiche siano comparse nei pressi dei camini idrotermali posti sulle dorsali oceaniche, dove le condizioni chimiche e di temperatura potrebbero fornire il giusto mix affinché avvengano le reazioni chimiche per una prima polimerizzazione (il tema è discusso in modo approfondito in una review del 2008 su Nature Reviews Microbiology).
Altri scienziati obiettano che questi "sfiatatoi" emettono troppo calore perché il processo di polimerizzazione sia efficace; inoltre l'ambiente oceanico non sarebbe ideale allo scopo. Come alternativa propongono aree ai bordi di stagni poco profondi, riscaldati dall'energia geotermica.
Il problema principale per quest'ultima teoria è che, affinché l'ipotesi di "una pozza d'acqua calda" sussista è necessaria la presenza di terre emerse. Un dettaglio non di poco conto visto il consensus di una Terra primordiale come un vero e proprio waterworld
Il primo continente, Kenorland, risale infatti a 2,4 miliardi di anni fa
Image credit: Ilya Bindeman via dailymail 
(per approfondimenti vi segnalo l'articolo Hadean Earth and primordial continents: The cradle of prebiotic life)


Una ipotesi rimasta nel limbo delle possibilità remote, almeno fino alla recente pubblicazione (4 gennaio 2020) sulla rivista Nature Geoscience di uno studio che giustifica la presenza di isole nell'era archeana, il periodo tra 2,5 e 4 miliardi di anni fa.


L'idea alla base dello studio nacque quando il chimico Jeffrey Bada, sostenitore dell'ipotesi dello stagno caldo, decise di contattare i geofisici Jun Korenaga e Juan Carlos Rosas per capire cosa si sapesse (o fosse ipotizzabile) della topografia della Terra nell'era archeana e in particolare quanto fosse verosimile l'esistenza di terre emerse.

A tale scopo decisero di sviluppare al computer un modello delle condizioni della Terra arcaica con cui fare simulazioni e calcolare le diverse possibilità.

Oggi noi tutti sappiamo che è sui fondali oceanici, in particolare dalle dorsali medio-oceaniche (in tutto uguali a catene montuose), che emerge il materiale originato dal mantello che darà luogo ai nuovi fondali spostando a lato i vecchi fino a farli collidere tra loro; da questo scontro emergeranno nuove terre emerse, montagne e, nei punti di subduzione, i vulcani  (vedi la cosiddetta cintura del fuoco che delimita l'oceano Pacifico). 
Man mano che questa nuova crosta terrestre cola ai lati delle fenditure e si allontana dalla dorsale, si raffredda e si contrae, diventando più densa e diminuendo in altezza. La Terra ha però una ulteriore fonte di calore interno, il riscaldamento radiogeno generato dal decadimento degli elementi radioattivi nel mantello profondo. Questo calore aggiuntivo genera una pressione verso l'esterno che, anche in assenza di fenomeni vulcanici, contribuisce alla comparsa e al mantenimento dei rilievi nella parte esterna della crosta.

Durante l'era archeana la Terra era notevolmente più giovane e di conseguenza il calore radiogeno era più forte. Ciò significa che anche quando la crosta oceanica si raffreddava e si contraeva, la spinta verso l'alto dal mantello sottostante era tale che avrebbe potuto portare all'emersione di montagne sottomarine. Queste ultime, a differenza della dorsale, tendono ad essere circolari perché la spinta dal basso tende a focalizzarsi in aree in cui la crosta terrestre è meno spessa: immaginiamo le "dita del mantello che riescono a spingere punti sulla superficie" così da formare isole quasi perfettamente circolari.
Risultato finale la comparsa di isole in un pianeta ancora privo di continenti.

Lo studio di per sé non fornisce risconti alla ipotesi "vita sulla Terra in pozze calde" ma è un importante tassello di fattibilità prima mancante.
Sarà interessante ora attendere lo sviluppo dello studio portato avanti dai geochimici per quantificare l'effetto che tali isole avrebbero avuto nella formazione di un "brodo primordiale" adatto alle reazioni chimiche di un mondo pre-cellula.



Una interessante panoramica della evoluzione della Terra è fornita nel seguente video
Se non vedi il video clicca -->youtube.




Il sistema TOI-700 e il superamento di quota 5000 esopianeti


Riporto in prima pagina questo articolo di fine 2021 per aggiungere (in apertura) l'identificazione di un sistema stellare (centrato su una nana rossa) contenente almeno 2 pianeti di dimensioni terrestri, siti nella zona abitabile (che nel caso di una nana rossa è ben più vicina al stella di quella del sistema solare. Vedi figura sotto).
In questo biennio la soglia di 5000 pianeti è stata superata (5242) e ho scritto altri articoli sul tema (–> Il pianeta con nuvole di titanio e –> La prima foto di un esopianeta)

*** Aggiornamento 2023 ***
Il sistema TOI-700. Nane rosse e pianeti abitabili

Il consensus odierno è che un pianeta compatibile con la formazione della vita dovrebbe orbitare intorno ad una stella con vita media almeno pari a quella del Sole. Inoltre dovrebbe:
  • essere roccioso, con un'atmosfera rarefatta e attività tettonica (necessaria al ricircolo materia) e dotato di magnetosfera;
  • avere dimensioni simili alla Terra, ma non molto più grandi (si stima un 25-30% massimo più grandi prima che le dimensioni trattengano una atmosfera troppo spessa per permettere la vita);
  • orbitare attorno a una stella con una produzione di energia stabile e continua e ...
  • ... ad una distanza favorevole alla presenza di acqua liquida sulla sua superficie;
  • avere un'abbondanza di elementi pesanti simile al nostro Sistema Solare;
  • essere passato abbastanza tempo dalla sua formazione affinché la vita abbia avuto modo di modificare la biosfera del pianeta (necessario per essere "dedotta" dal nostro punto di osservazione).
Dal nostro punto di vista dovrebbe anche essere abbastanza vicino in modo che la tecnologia del prossimo futuro sia in grado di rilevare la presenza di firme biologiche.

Il nuovo sistema è noto come TOI-700 ed è stato identificato dal telescopio spaziale TESS (Transiting Exoplanet Survey Satellite) lanciato nel 2018, nell'ambito della missione omonima.
Il sistema stellare con 4 dei suoi pianeti.
L'interesse della notizia è duplice:
  • nana rossa;
  • pianeti dimensionalmente e "geograficamente" adeguati.
Nane rosse
Le nane rosse sono le stelle più comuni nell'universo (anche perché tra le più longeve) hanno subito un ottovolante di credibilità come luogo in cui cercare la vita.
All'inizio si pensava fossero la scelta migliore data la lunga vita e sostanziale stabilità ma la successiva scoperta di improvvisi getti di energia (brillamenti) associata alla prossimità della zona abitabile, rese il loro sistema un posto molto meno ospitale sul medio periodo (basta poco per spazzare via la vita – o anche "solo" l'atmosfera planetaria – anche se tali eventi si verificassero "solo" una volta ogni miliardo di anni). 
Il confronto tra un sistema solare e quello di TRAPPIST-1 (uno dei più diversificati trovati finora, associato ad una nana rossa) con il colore delle orbite ad indicare il "clima adatto". Da notare che il raggio orbitale nel sistema della nana rossa si troverebbe molto all'interno della orbita di Mercurio.
(Credit: NASA/JPL-Caltech)
Il rischio di brillamenti a raggi X spiega perché si ritiene ancora che i migliori candidati siano le stelle di classe K (simili al Sole ma appena meno massicce), di classe G (che include il Sole) e di classe F (leggermente più massiccia del Sole). TOI è interessante perché ha caratteristiche di confine tra classe K e M.

TOI-700 infatti, pur essendo una stella di classe M (nana rossa), è una delle nane rosse più massicce, poco più del 40% della massa del Sole. Inoltre ruota lentamente (una volta ogni 54 giorni, più lentamente del Sole – 27 giorni) e come tale ha anche una bassa attività. 
Coerentemente con i rotatori lenti, non è mai stata vista brillare, ha un'attività trascurabile delle macchie solari ed ha una età stimata superiore a 1,5 miliardi di anni. Inoltre ha un contenuto di elementi pesanti quasi identico al Sole.
Questi i dati principali dei 4 esopianeti identificati (vedi link nella sezione successiva) a cui in futuro potrebbero aggiungersene altri:
  • TOI-700b. Periodo orbitale (T) di 10 giorni; dimensione 91,4% della Terra (Mt),
  • TOI-700c. T di 16 giorni; dimensioni 2,6 Mt.
  • TOI-700e. T di 28 giorni; 95% Mt.
  • TOI-700d. T 37 giorni; 105% Mt; nella zona abitabile.
È importante sottolineare che, oltre alla zona abitabile propriamente detta, c'è anche la zona abitabile estesa (o ottimistica), dove con opportune condizioni atmosferiche/tettoniche potrebbero ancora esistere sul pianeta zone con acqua liquida superficiale (ad esempio Venere e Marte avrebbero potuto essere buoni per la vita se avessero aveva un'atmosfera migliore o massa era maggiore e nucleo ancora attivo, rispettivamente).
Le due "zone abitabili" in rapporto al tipo di stella
Dall'analisi del sistema TOI-700 si nota che i due pianeti interni, TOI-700b e TOI-700c, sono troppo caldi per essere biologicamente idonei interessanti per qualsiasi tipo di attività biologica, con in più il dubbio circa la reale "rocciosità" di TOI-700c.
TOI-700e e TOI-700d, sono invece quasi certamente rocciosi, con il pianeta più interno che si trova nella zona abitabile estesa e il pianeta più esterno situato nella zona abitabile standard. Molto probabilmente sono però in orbita sincrona con la stella (tidal locking) cioè la stessa situazione della Luna con la Terra a cui mostra sempre la stessa faccia.
La natura massiva delle nane rosse rende la zona abitabile prossimale all'orbita in cui si raggiunge il tidal lock.
Questo risulterebbe in un pianeta con una faccia sempre illuminata, una faccia nella notte perenne ed un "anello" crepuscolo/alba che sarebbe la zona ideale per ospitare la vita ... purché la stella non produca brillamenti. La parte illuminata non sarebbe "cotta " dalla stella visto che queste emettono meno energia (pochissimo UV e maggior parte infrarossi).
Quindi pur ipotizzato che i pianeti siano tidally locked, ci sono scenari che renderebbero questi pianeti "abitabili". Se l'atmosfera fosse ricca di CO2, il pianeta sarebbe uniformemente caldo, con venti che percorrono tutto il pianeta guidati dalle variazioni di temperatura e pressione e una zona "sicura" in quella del crepuscolo. Se però vi fossero anche vasti oceani, la abitabilità riguarderebbe zone molto più vaste, come una Terra primordiale.
Il pianeta TOI-700d con le opportune caratteristiche atmosferiche potrebbe essere idoneo alla vita nella zona del crepuscolo anche senza la presenza di mega oceani. Maggiori dettagli sul sito NASA


Il prossimo futuro, con la rilevazione dei dati atmosferici ci potrà dire di più su quale sia lo scenario corretto.



*** Dicembre 2021 ***
L'aggiunta di 300 pianeti in un colpo solo fa raggiungere (quasi) quota 5000

Chiudiamo l'anno con il (quasi) raggiungimento dei 5 mila esopianeti confermati.
Se al 18 novembre, il numero di esopianeti confermati si assestava a 4575, ecco arrivare i dati del telescopio spaziale Kepler che ne aggiunge 366 in un colpo solo, contribuendo così al salto fino agli attuali 4884.
Nota. Il numero si riferisce ai pianeti extra sistema solare confermati. Il numero di candidati è due volte tanto, il tutto distribuito su poco più di 3600 sistemi stellari.
Il nuovo traguardo oltre al mero valore simbolico rappresenta anche l'ultimo contributo del telescopio spaziale Kepler,  prima dell'esaurimento del carburante e alla "ibernazione" avvenuta nel 2018.  
Il "pacchetto" di pianeti è anche il risultato di un nuovo algoritmo, creato alla UCLA, applicato all'identificazione dei periodici cali luminosità stellare che indicano la presenza di un pianeta in orbita (metodo dei transiti. Vedi la ➡️ postilla metodologica per una descrizione sommaria dei metodi oggi in uso).
Dall'analisi cumulativa dei dati si può inferire massa e orbita del pianeta candidato
Image credit:gfycat
Del resto lo scrutare porzioni dello spazio registrando la luminosità stellare per lunghi periodi è stato proprio il compito di questo telescopio spaziale nella sua missione durata quasi un decennio.
Lo spicchio di cielo su cui era puntato il telescopio Kepler
(credit: space.com)

Facile a dirsi ma nei fatti si tratta di un lavoro spesso tedioso quello degli astronomi che devono avvalersi che programmi creati ad hoc per ripulire l'immensa mole dei dati dal "rumore di fondo" e da alterazioni della luce dovute a molteplici cause terze. Un concetto riassunto bene in una recente intervista ad un astronomo che racconta come la quasi totalità del loro tempo oggi sia dedicata alla scrittura di programmi per computer per automatizzare l'analisi dei dati, limitando la "visione" (diretta o indiretta) del cielo ai loro tempi morti.
È stato così che dopo avere creato il nuovo software e averlo "nutrito" con tutti i 500 terabyte di dati (pari a circa 800 milioni di immagini) prodotti nell'arco della seconda parte della missione di Kepler, si sono trovati 381 esopianeti già noti e 366 nuovi candidati. Alcuni di questi curiosi, come il sistema contenente due giganti gassosi delle dimensioni di Saturno che orbitano insolitamente vicini tra loro e alla loro stella.

Il team della UCLA non era l'unico a lavorare sui dati di Kepler. Un altro importante contributo è venuto dalla Universities Space Research Association (USRA) che ha aggiunto 301 esopianeti all'elenco di quelli confermati. In questo caso il sistema di analisi è basato su Deep Learning su una architettura di reti neurali profonde chiamata ExoMiner, fatta girare sul supercomputer Pleiades della NASA. La sua potenza è tale da permettere in automatico di distinguere un vero candidato da un falso positivo, con una affidabilità superiore sia ai sistemi esistenti che all'analisi manuale degli esperti umani.
ExoMiner è stato utilizzato per analizzare i dati presenti nell'archivio di Kepler riferito agli esopianeti già identificati ma in attesa di conferma.
Nessuno dei nuovi esopianeti ha dimensioni terrestri o si trova nella cosiddetta zona abitabile dell'orbita. Nondimeno i dati sono importanti per ampliare le statistiche dei sistemi planetari nella Via Lattea (vi rimando al precedente articolo per la notizia sul primo pianeta extragalattico identificato).

I nuovi algoritmi potranno ora essere utilizzati sui dati ottenuti da missioni in corso come quella di TESS.


Il seguente grafico della NASA, nella versione editata da Xxxx riassume la tipologia dei pianeti finora scoperti, in base anche alla strumentazione usata (pre e post Kepler)
QUI il grafico aggiornato al 2022 (Credit: NASA / Ethan Siegel) 

(Credit: NASA via Ethan Siegel) 



Fonti
- Scaling K2. IV. A Uniform Planet Sample for Campaigns 1–8 and 10–18
Jon K. Zink et al 2021 AJ 162 259

- A Highly Accurate and Explainable Deep Learning Classifier that Validates 301 New Exoplanets
H. Valizadegan et alarXiv (2021)

- New Deep Learning Method Adds 301 Planets to Kepler's Total Count



***
Suggerimenti
Consiglio la consultazione del sito Aladin Lite. Si tratta di uno dei migliori strumenti disponibili online per guardare lo spazio attraverso gli "occhi" di molti telescopi ottenendo informazioni sulle molteplici galassie e sulla loro evoluzione


Il nome non c'entra nulla con il sistema ExoMiner discusso sopra (è un gioco), ma visto che siamo ancora in periodo vacanziero vi suggerisco di dare uno sguardo alla app omonima sul playstore 


Risale ad un articolo di qualche anno fa apparso su questo blog ma può ancora fornire suggerimenti utili: lista siti e tool dedicati all'astronomia.

Evoluzione neocorteccia. Ecco il gene a cui dobbiamo il nostro grande cervello

Uno dei grandi quesiti in antropologia evolutiva riguarda gli eventi mutazionali che hanno spianato la strada verso l'Homo sapiens separandoci dai cugini primati più prossimi. Si tratta invero di tante piccole "modifiche" del piano base che hanno reso possibile non solo la vocalizzazione (impossibile per una scimmia parlare anche se ricevesse un trapianto di cervello umano) ma il cablaggio neurale possibile solo con l'ampio sviluppo della neocorteccia (in primis la corteccia prefrontale sede del processo decisionale) e in ultimo della coscienza, un evento non scaturito dalla comparsa di una singola area ma dall'interazione tra molteplici distretti (vedi anche "Genetic Mechanisms Underlying Cortical Evolution in Mammals").

In questo ambito non sono le dimensioni (cerebrali) a contare quanto lo sviluppo di alcune sue parti; le circonvoluzioni della neocorteccia sono assenti in altre mammiferi (che pure la possiedono) e sono solo abbozzate nei primati non umani a noi più prossimi.

Comparazione al CT/MRI tra umani, scimpanzé e gorilla.
Credit: JL Alatorre Warren et al (2019)

Sul tema "dimensionale" ne ho scritto in due precedenti articoli a cui rimando per approfondimenti ("Le dimensioni non contano (2017)" e "Grande cervello, grande potenza? (2015)"

credit: Lucía Florencia Franchini (2021)

Di interesse quindi l'articolo da poco pubblicato su EMBO reports in cui si dimostra che la comparsa del gene ARHGAP11B nel genere Homo (originato dalla duplicazione, e successiva mutazione, del gene ARHGAP11A), ha avuto importanti conseguenze strutturali sullo sviluppo della neocorteccia

Studiare l'evoluzione umana implica l'ovvio confronto con le grandi scimmie (in inglese ci sono due termini, monkeys e apes, usati per distinguere le scimmie piccole, arboricole e con la coda da quelle grosse, terrestri e senza coda) ma la sperimentazione su queste (almeno in Europa) presenta grosse limitazioni pratiche per motivi etici (quindi fortemente regolamentati) oltre che economici (il costo gestionale rispetto ai roditori). Ad aiutare i ricercatori viene l'utilizzo dei cosiddetti organoidi, ovvero strutture cellulari tridimensionali grandi alcuni millimetri, coltivati in laboratorio a partire da cellule staminali (di diverso grado di totipotenza a seconda dello scopo).

Questi organoidi possono essere prodotti da cellule staminali pluripotenti, fatte differenziare in specifici tipi di cellule, come le cellule nervose. In questo modo, è stato possibile produrre organoidi cerebrali di scimpanzé e umani, studiandone le differenze nella programmazione.

Un organoide cerebrale di circa 3 millimetri ottenuto dalle cellule staminali (in rosso) di uno scimpanzé. In verde le cellule modificate per fare aumentare l'espressione del gene ARHGAP11B che danno luogo ad una superficie più ampia
Credit: Jan Fischer
Grazie a questi organoidi si è potuto indagare il ruolo del gene ARHGAP11B che in uno studio precedente era stato associato alle dimensioni del cervello nei primati. Non era però chiaro il ruolo di questo gene nelle dimensioni del cervello umano, una domanda che ha evidenti implicazioni nel suo coinvolgimento nell'evoluzione umana.

Per rispondere a questa domanda (il gene è necessario per l'ingranamento della neocorteccia?), il gene è stato inserito in organoidi di scimpanzé che riproducono. il ventricolo cerebrale  scimpanzé. Il risultato è stato positivo con l'aumento proliferativo delle cellule staminali cerebrali e a cascata  del numero di quei neuroni che svolgono un ruolo cruciale nelle straordinarie capacità mentali dell'uomo.

Sul tema organoidi segnalo un articolo pubblicato a dicembre su Nature in cui mostra come impianti di organoidi cerebrali umani in topo si siano dimostrati capaci di creare connessioni tra i vari distretti. In futuro forse non troppo lontano gli organoidi coltivati in vitro potrebbero essere utili per riparare aree cerebrali danneggiate nei pazienti.

Come controprova, l'eliminazione del gene Arghap11b (fisicamente o funzionalmente) negli organoidi cerebrali umani ha ridotto le dimensioni del tessuto a livello di quello di uno scimpanzé.


Fonte
Human-specific ARHGAP11B ensures human-like basal progenitor levels in hominid cerebral organoids
Michael Heide et al. EMBO Reports (2022)

***

Nell'articolo citato in apertura ho descritto tutta una serie di geni le cui varianti sono state fondanti della specificità umana anche in tempi più recenti come quelli avvenuti durante la speciazione del genere Homo

Un esempio tra tutti, la duplicazione del gene SRGAP2B, avvenuta tre volte durante la storia evolutiva del genere Homo e che ha reso possibile l'aumento dimensionale della corteccia cerebrale. Un passaggio che segnò il distacco de facto del genere Homo da quello Australopithecus (vedi questo articolo per approfondimenti) 
Altro esempio è il gene FOXP2fondamentale per l'apprendimento e la capacità linguistica. FOXP2 è un gene estremamente conservato tra i vertebrati e questo è particolarmente evidente all'interno dei primati. Per capirci la differenza tra la proteina umana e quella nei primati non umani sono solo due aminoacidi (tra noi e i Neandertal la differenza è solo a livello intronico). E sappiamo che è sufficiente una sola mutazione in questo gene per generare forti deficit nella capacità comunicativa (casistica estremamente rara ma nota da un punto di vista clinico grazie alla familiarità del difetto). Vedi l'articolo su PLOS ONE per ulteriori dettagli.





Powered By Blogger
"Un libro non merita di essere letto a 10 anni se non merita di essere letto anche a 50"
Clive S. Lewis

"Il concetto di probabilità è il più importante della scienza moderna, soprattutto perché nessuno ha la più pallida idea del suo significato"
Bertrand Russel

"La nostra conoscenza può essere solo finita, mentre la nostra ignoranza deve essere necessariamente infinita"
Karl Popper
Controllate le pagine delle offerte su questo blog




















Zerbini fantastici