CC

Licenza Creative Commons
Questo opera di above the cloud è concesso sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.

The Copyright Laws of the United States recognizes a “fair use” of copyrighted content. Section 107 of the U.S. Copyright Act states: “Notwithstanding the provisions of sections 106 and 106A, the fair use of a copyrighted work (...) for purposes such as criticism, comment, news reporting, teaching, scholarship, or research, is not an infringement of copyright.”
Any image or video posted is used according to the fair use policy
Ogni news è tratta da articoli peer reviewed ed è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto sia datato.
QUALUNQUE link in questa pagina rimanda a siti sicuri!! SEMPRE.
Volete aiutare questo blog? Cliccate sugli annnunci/prodotti Amazon (se non li vedete, disattivate l'Adblocker mettendo questo sito nella whitelist. NON ci sono pop up o script strani, SOLO Amazon). Visibili in modalità desktop! Se poi decidete di comprare libri o servizi da Amazon, meglio ;-)
Dimenticavo. Questo blog NON contiene olio di palma (è così di moda specificarlo per ogni cosa...)

Casi di morbillo quadruplicati nel primo trimestre 2019

Vi ricordate l'articolo sulla evitabilissima recrudescenza dei casi di morbillo pubblicata 4 anni fa (dal titolo emblematico --> "Il ritorno del morbillo: la stupidità si paga")? Analisi confermata due anni dopo dai nuovi dati (--> "Contromisure ovvie ma disattese") e su cui oggi mi tocca tornare per evidenziare un trend ancora in salita.
Sarò breve, anche perché sono in aeroporto e le temperature di questi giorni invitano al risparmio di energia.
Come il virus del morbillo si "aggancia" alla cellula bersaglio
(credit: wikipedia)
La notizia viene da BBC che cita fonti della WHO/OMS.
Il numero di casi di morbillo nel mondo è quadruplicato nei primi tre mesi del 2019, rispetto allo stesso periodo dell'anno scorso. Sebbene i dati siano ancora provvisori, l'Organizzazione mondiale della sanità afferma che le cifre mostrano una chiara e coerente tendenza con un aumento univoco. L'Africa ha visto l'aumento più drammatico, con un aumento del 700%, ma in un certo senso sono gli unici "accettabili" perché contingente ad una serie di fattori economici, sociali, culturali e soprattutto demografici 
L'aumento della popolazione in modo non coerente con lo sviluppo locale da sempre favorisce la probabilità di di trasmissione di un virus. Un esempio ben evidente e che abbiamo ampiamente trattato è quello della  --> epidemia di Ebola.
Ma il trend si conferma anche in aree economicamente solide e, cosa molto più importante, anche in aree con elevata copertura vaccinale complessiva, come gli Stati Uniti (dove se non sei vaccinato non vai a scuola. PUNTO). Al che uno potrebbe pensare "ma allora a che servono i vaccini se aumenta il numero di casi?". La spiegazione è semplice: i nuovi casi sono tutti a carico di coloro che non erano vaccinati. Il problema va oltre il pensare "affari loro" perché tra i nuovi casi ci sono persone che NON potevano essere vaccinate in quanto immunodepresse (anziani, persone in terapia antitumorale, persone con anomalie immunitarie innate o semplicemente bambini troppo piccoli per essere vaccinati).
Tutte persone che in questi anni sono "sfuggite" al virus grazie al fenomeno noto come Herd Immunity (immunità del gregge) per cui se vi è una percentuale sufficiente di soggetti immuni nella popolazione (cioè con immunità da vaccino o perché hanno avuto il morbillo da piccoli) la probabilità di diffusione inter-individuale del patogeno diventa irrilevante.
Questo è valido solo nel caso di patogeni trasmissibili in modo diretto tra un individuo e l'altro e non, ad esempio, al colera dove il patogeno è ambientale (acque contaminate, etc). 
La soglia "percentuale" di protezione varia a seconda della virulenza del patogeno ed è dipendente dal valore R0 che indica il numero di persone infettate, in media, da ogni infetto. Nel caso del morbillo si parla di 12-18 ma è un numero che alcuni studi ritengono sottostimato. Pensate che Ebola ha un valore di 2 e coincide molto bene con il famoso caso del paziente di Dallas che infettò due infermieri prima che fosse effettuata la diagnosi (inattesa perché negli USA non c'erano mai stati casi). 

Valori di R0 per altre malattie contagiose
credit: wikipedia

Morbilloaerosol12–18
Pertosseaerosol12–17
difteritesaliva6–7
varicellaaerosol5–7
Poliooro-fecale5–7
Rosoliaaerosol5–7
Parotite/orecchioniaerosol4–7
HIV/AIDSsangue e fluidi corporei 2–5



Rimanendo sul tema morbillo, il numero di soggetti immuni nella popolazione perché la probabilità di epidemia sia ridotta a valori minimi, deve essere superiore al 93% !!
Grafico che correla i valori di R0 con la percentuale di soggetti immuni (es. vaccinati) necessaria per raggiungere la herd immunity (credit: theconversation.com)

Quindi quando qualcuno che potrebbe vaccinarsi non lo fa per motivi ideologici, sta di fatto giocando con la pelle di altre persone che non possono essere vaccinate. Il virus del morbillo è pericoloso non per l'eritema associato ma perché è fortemente immuno-soppressivo e permette così l'instaurarsi di patogeni opportunisti e causare la morte proprio nelle persone più indifese.

La mappa riassume l'aumento su scala globale del numero di casi di morbillo (ottobre 2018-settembre 2019).
Credit: Nature



Fonti



- Critical immunity thresholds for measles elimination



Ultima Thule. L'asteroide più lontano mai "visitato"

Sono passati 4 anni dall'ultimo articolo sulla sonda New Horizons, scritto in occasione dello storico fly-by  con Plutone. Da allora la sonda ha proseguito lungo la rotta di fuga dal sistema solare, con la speranza di ottenere informazioni sui planetoidi e magari perfino sull'ipotetico nono pianeta.
New Horizons è la terza sonda che abbandonerà il sistema solare, sulla scia (in senso metaforico) delle due sonde Voyager, oramai ben oltre le "colonne d'Ercole" della eliosfera.



Qualche mese fa, nello specifico il 1 gennaio 2019, la missione New Horizons è tornata alla ribalta a causa dell'incontro "ravvicinato" (a 3500 km) con l'asteroide 2014 MU69, il mondo più lontano mai "visitato" da uno strumento umano.
Nota. Il nome ufficiosamente attribuito all'asteroide sarebbe Ultima Thule, ma come vedremo rimarrà solo come soprannome, senza ufficialità, per una serie di motivi legati alla onnipresente attitudine del politicamente corretto che ammorba da qualche anno i paesi anglosassoni, a cui si aggiunge una totale mancanza di ironia. Andiamo per gradi. Il nome si ispira chiaramente alle Georgiche di Virgilio (Georgiche, 1. 30)  che indicavano in Ultima Thule il luogo più lontano tra quelli noti (Thule, una isola leggendaria ai confini del mondo, venne usato per la prima volta dal navigatore Pitea e da allora fu sinonimo di posto remoto). Nonostante l'origine classica del nome (e l'utilizzo successivo anche da parte di Goethe), il veto è venuto per l'esistenza della Thule Gesellschaft, fondata nel 1918, un gruppo occulto tedesco che immaginava Thule come la terra d'origine degli ariani. Poco conta quindi la vera origine e significato del nome se a qualche liberal della NASA viene il sospetto che qualcuno potrebbe fraintenderne il senso e pensare che l'asteroide sia dimora di giganti biondi e con gli occhi azzurri … . Per esercitare il diritto di censura dovrebbe essere obbligatorio il test si sobrietà oltre ad una pregressa valutazione del QI.

Le foto inviate da New Horizons mostrano un asteroide dalla stuttura bilobata simmetrica, probabile risultato di un "incontro" tra due mega-rocce rimaste poi incastrate, forse per l'eternità.
Ultima Thule - 2014 MU69 (Credit: NASA).
Se preferite la versione GIF --> JHUAPL
2014 MU69 appare quindi come una tipica "binaria da contatto" (contact binary) e non come il prodotto di una violenta collisione tra due asteroidi provenienti da direzioni diverse (altrimenti si sarebbero frammentati invece di rimanere incastrati).
Una categoria quella delle contact binary a cui probabilmente appartiene anche la celeberrima 67P / Churyumov-Gerasimenko, la cui forma ricorda una paperetta di gomma, che abbiamo incontrato parlando della missione Rosetta.
2014 MU69 con le sue dimensioni di 31 x 19 chilometri non ha dimensioni irrilevanti se si pensa che l'asteroide il cui impatto originò il cratere Chicxulub (e a cascata l'estinzione di massa di fine Cretaceo) aveva una dimensione, stimata, simile o inferiore.
Altre informazioni ricavabili dalle immagini, è la presenza di un "collare", nel punto di contatto, di colore più chiaro e riflettente che potrebbe indicare una diversa granulometria, la cui origine non sarebbe direttamente però associata alle conseguenze dell'energia liberata dall'impatto. Il colore rosso scuro delle zone circostanti è probabilmente il risultato dell'azione della luce solare che ha irraggiato la superficie ghiacciata per miliardi di anni. L'ipotesi è che il colore più chiaro del collare sia solo l'effetto del minor tempo (solo milioni di anni?) di esposizione verso l'esterno.
Credit: NASA/JHUAPL/Southwest Research Institute
Non sono evidenti crateri da impatto ma su questo i tecnici aspettano di avere immagini ad alta risoluzione (ci vuole un po' per coprire i 6,5 miliardi di chilometri che ci separano dalla sonda e bisogna considerare che la fotocamera montata sulla sonda è "primitiva" rispetto ai canoni odierni).
Il vero punto di interesse di questo asteroide è però la sua origine. Gli oggetti presenti nella fascia di Kuiper sono distinti in "caldi" e "freddi", un attributo non legato alla temperatura ma alla loro orbita sotto l'influsso della gravità di pianeti come Nettuno: orbita perturbata (visibile dalla sua eccentricità) nel primo caso e "indisturbata" nel secondo caso.
2014 MU69 viene dalla zona fredda della fascia di Kuiper, lLa zona rimasta "indisturbata" e congelata da 4,5 miliardi di anni, quando si formò il sistema solare.
"Congelata" in senso letterale se si considera che l'energia radiante che arriva dal Sole è  qui trascurabile, per cui la temperatura locale non si discosta troppo dai 3 kelvin attesi nello spazio "profondo", lontano cioè da stelle o nubi di gas.
Veri e propri fossili rocciosi di un tempo a cui altrimenti non avremmo accesso.
Probabile che i due lobi siano il risultato dell'unione di innumerevoli particelle rotanti, associatesi a generare 2 corpi asteroidali che alla fine si sono "incontrati". Un processo non così diverso da quello che, in zone a maggiore densità di materia nel proto-sistema solare avrebbe potuto continuare per formare un pianeta.

E' di poche settimane fa uno studio pubblicato sulla rivista Science in cui si descrive la superficie asteroidale con la presenza di punti luminosi e macchie, colline e depressioni, crateri e pozzi. La depressione più grande è una formazione larga 8 km chiamata “cratere Maryland”, verosimilmente conseguenza di un impatto. Altre depressioni dimensionalmente minori sono invece, forse, da attribuire al crollo della superficie su spazi vuoti sotterranei, o in alternativa alla sublimazione di ghiacciai (di idrocarburi?).
La prevalenza del colore rosso sulla superficie non è dissimile da quella di altri corpi della Fascia di Kuiper.

Se volete vedere dove si trova New Horizons in tempo reale --> JHUAPL 


Fonte
- Initial results from the New Horizons exploration of 2014 MU69, a small Kuiper Belt object
S. A. Stern et al, Science  17 May 2019, 364(6441)

- New Horizons team unravels the many mysteries of Ultima Thule
phys.org

- New Horizons NASA's Mission to Pluto and the Kuiper Belt
jhuapl.edu



La foto segnaletica ricavata dal solo DNA. Il futuro è già tra noi

I cultori di serie TV come CSI reputano prassi consolidata le tecniche di indagine fornite dalla genetica forense, grazie alle quali il tecnico di laboratorio di turno fornisce all'investigatore la chiave per identificare il reo.
In verità molto di quello che viene mostrato è pura bischeraggine (giusto per usare un eufemismo), specie quando attiene ai tempi necessari per fare una analisi, la strumentazione usata e soprattutto il multitasking del tecnico capace di usare ugualmente bene, e nello stesso laboratorio, uno spettrometro di massa e un sequenziatore next-gen. Ma si tratta di puro intrattenimento ed è bene sottolinearlo per evitare le false aspettative in coloro che poi "pretenderanno" di vedere in azione queste procedure nelle indagini reali, stupendosi poi della lentezza e magari della mancanza di risultati.
Con questo non si vuole sottostimare la potenzialità della tecnologia forense ma solo contestualizzarla alla realtà delle procedure (e dei tempi) nel mondo reale.
In Italia i reparti della scientifica (ad esempio i RIS) hanno ben poco da invidiare ai colleghi d'oltreoceano come ben evidenzia il lavoro immane di ricostruzione del profilo genetico nel caso dell'omicidio di Yara Gambirasio.
Rimanendo nell'ambito della genetica forense possiamo delineare due metodiche di indagine: la ricerca della concordanza genetica tra il reperto trovato sul luogo del crimine e il campione biologico di un indiziato; la ricostruzione del profilo dell'indiziato "ignoto" dal DNA trovato, in assenza di una lista di sospettati o qualora questi abbiano un profilo genetico non compatibile con la traccia.
Il primo caso non necessita di ulteriori commenti essendo un tormentone di qualunque serie poliziesca. Se la concordanza tra i marcatori genetici supera una certa soglia statistica, per cui è "improbabile essere dovuta al caso" (la statistica ragiona in questi termini), allora il riscontro avrà carattere probatorio.
Il secondo caso, di cui scriverò oggi, è più variegato e quindi di interesse, perché incorpora sia tecniche oggi routinarie che potenzialità un tempo fantascientifiche ma oggi prossime all'utilizzo nel mondo "reale".

Nessuno si stupirebbe troppo oggi nell'apprendere che è possibile risalire, da un campione biologico anche minimale, non solo al sesso ma anche all'etnia e perfino all'età di chi ha lasciato la traccia. Tutto dipende sia dall'abbondanza che dallo stato di conservazione del campione, che deve consentire la rilevazione di "impronte digitali" genetiche (oltre a tracce chimiche di altra natura) che altro non sono che sequenze nucleotidiche (il DNA) associate ad un particolare carattere.
Ad esempio le rilevazione di sequenze di DNA appartenenti al cromosoma Y indicano che il "proprietario" della traccia è un maschio così come altri marcatori genetici ci potranno dire se è biondo o se è africano, se è un nano o se è alto. Esempi non casuali perché è molto più semplice identificare due estremi invece della media della popolazione dove le differenze, pur presenti, necessitano di molti più marcatori per essere identificati. Non spaventatevi se vi appare nebuloso, lo capirete meglio quando spiegherò "quanta informazione" ci vuole per determinare caratteristiche esterne banali come il colore dei capelli, etc.
In un futuro dietro l'angolo, o che forse è già qui, il DNA da solo potrebbe fornire un identikit sufficientemente dettagliato da essere usato come foto segnaletica.
Una possibilità che è il sogno di ogni dipartimento di polizia. Raccogliere tracce di DNA da una scena del crimine, inserirle in un dispositivo portatile e da questo generare nel tempo di un caffè l'istantanea di chi ha lasciato queste tracce.
Alcune persone, non disinteressate, vorrebbero far credere che quel giorno è già arrivato. Persone, giusto per fare dei nomi, come gli autori di un articolo pubblicato sulla rivista PNAS che sostenevano di aver sviluppato un algoritmo capace di predire correttamente l'aspetto di una persona, partendo dal genotipo (non sempre ma il 74% delle volte … ). Articolo che ha sollevato critiche circa la faciloneria di alcune sue affermazioni che sembravano veicolate più da futuri interessi commerciali che dalla fattibilità e affidabilità del risultato. Il punto infatti non è se sia possibile ricavare informazioni sul "proprietario" del DNA (questo è possibile senza dubbio) ma nel definire la tecnica come matura a sufficienza per essere usata da sola come prova,
Nota. Gli autori lavorano per una biotech, la Human Longevity, fondata da Craig Venter (l'artefice del sequenziamento del DNA umano fatto un consorzio privato che si contrappose al Progetto Genoma pubblico)
Molto più affidabile e degno di citazione il lavoro di un team della Columbia University che è riuscito, partendo dal DNA ricavato dalle tracce biologiche e con un analizzatore portatile, a validare algoritmi predittivi delle caratteristiche dei soggetti. Vero che gli autori non fanno affermazioni circa l'utilizzo del metodo in ambito forense, ma si tratta di una applicazione che è di fatto "dietro l'angolo" una volta superate le forche caudine della verifica su larga scala.
Al momento è più appropriato parlare di fotofitting molecolare, cioè la predizione del fenotipo (tra cui la morfologia) partendo dal DNA, un approccio che fa già parte degli strumenti forensi. In USA ci sono aziende specializzate in queste ricostruzioni, come la Parabon, che per qualche migliaio di dollari forniscono agli inquirenti un identikit del "proprietario" della traccia biologica, grazie all'utilizzo di una ampia collezione di varianti genetiche (polimorfismi noti come SNP) associati a tratti morfologici specifici. Un prezzo accettabile da pagare per risolvere cold cases vecchi di decenni.

Un esempio della capacità predittiva dell'algoritmo, tratto dal sito della Parabon.

Il procedimento in sé non ha nulla di "fantascientifico", facile da capire per chiunque abbia anche solo una minima pratica di genetica molecolare. La chiave di tutto è uno (o più) chip su cui sono depositate le informazioni genetiche di cui si vuole valutare la presenza nel campione in esame.
Questi chip nulla hanno a che fare con i chip silicei usati nei dispositivi elettronici. I chip usati in biologia molecolare sono dei piccoli supporti suddivisi in minuscole celle in cui sono localizzati (ad esempio) stringhe di una determinata sequenza di DNA, che definisce un dato polimorfismo. I chip vengono messi a contatto con il DNA estratto (processato e spesso amplificato) dal campione in modo che le sequenze identiche (o meglio complementari) possano appaiarsi. Passaggio finale sarà la scansione del chip per identificare in quali celle è avvenuto l'appaiamento e quindi quali sono i marcatori che andranno considerati nella fase di profilazione.
Esempio generico di un DNA chip usato per monitorare l'espressione dei geni in un determinato tessuto.
Una delle applicazioni classiche in oncologia molecolare è la comparazione dell'attività genica tra cellule normali e tumorali in un dato tessuto. In modo concettualmente analogo viene fatta la comparazione tra il DNA di diversi campioni per verificarne la somiglianza
(image credit: NIH)
I chip della Parabon contengono circa 100 mila varianti nella sequenza nucleotidica che vengono messe a confronto con il campione forense, quasi sempre inferiore, qualitativamente e quantitativamente, di campioni "ideali" come quelli usati negli studi clinici, il che è ovvio visto che i primi vengono da scene complesse mentre i secondi sono ottenuti in un ambiente controllato e devono essere di alta qualità.
La scarsa qualità dei campioni viene "pesata" da un algoritmo interno che ricalcola i risultati rimuovendo le informazioni troppo "deboli" e che quindi si comporterebbero come outlier.
Il risultato finale prevede l'intervento umano sotto forma degli "artisti forensi" i quali traducono l'insieme delle previsioni morfologiche fatte dal DNA in uno snapshot (istantanea) dell'indiziato.

Chiaramente lo snapshot non è paragonabile ad un identik fatto da un testimone oculare (fatto salvo che da tempo è nota la scarsa affidabilità dei ricordi). Non potrà prevedere caratteristiche non genetiche come il naso schiacciato di un ex-pugile oppure una cicatrice o alterazioni estetiche volute (dai tatuaggi al trapianto di capelli in un soggetto "predetto" come calvo) ma si è già dimostrata utile in più di una indagine.
Tra queste quella di un sospetto che ha confessato l'omicidio dopo aver visto lo snapshot (il suo) ricavato dal DNA lasciato sulla scena del delitto a Dallas.
Metodi e dettagli tecnici sono secretati al di fuori dell'ambito processuale. Semmai si è in più riprese contestata la liceità del prelievo del DNA, in assenza di esplicita autorizzazione dell'indiziato anche nel corso di indagini ufficiali. In quasi tutti gli stati USA la legge definisce come ammissibile l'utilizzo di tracce biologiche lasciate "spontaneamente" da un individuo come può essere il caso della saliva lasciata sul bicchiere usato al bar oppure capelli persi. Parla molto chiaro in tal senso una sentenza della Corte Suprema in seguito al caso King vs. Maryland:
"In the case of surreptitious collection of DNA, the argument rests on the notion that the DNA has been voluntarily abandoned, and does not have the same legal status as property". Quindi non esiste il reato di "furto di DNA" se il DNA è stato abbandonato.
Il problema maggiore nella ricostruzione fenotipica del "possessore" della traccia biologica (potrebbe infatti appartenere sia alla vittima di cui non si trova il corpo o al perpetratore del crimine) è che esistono tratti "facili" (colore pelle, occhi, capelli) e altri ben più complicati come la fisionomia del volto. Non a caso gli stessi artisti forensi spiegano che i volti da loro prodotti sono stereotipati, generiche rappresentazioni di possessori di alcune caratteristiche e non veri identitik ottenuti da un testimone. Utili perché evidenziano caratteristiche somatiche che possono escludere qualcuno o all'inverso focalizzare l'attenzione su un soggetto altrimenti non considerato.

Parlare di tecnologia di riconoscimento facciale basata sul DNA in senso stretto è quindi prematuro. Soprattutto considerando che sesso, ascendenza, età e anche la dimensione del corpo contribuiscono tutti a definire la morfologia del viso.
Sesso e ascendenza contribuiscono per il 25% mentre un altro 20% che determina la forma del volto è il risultato di almeno 16 varianti.
Meglio definirla allora come un ausilio investigativo, utile quanto basta perché osservatori umani (con familiarità per la popolazione in esame) riconoscano le piccole differenze che definiscono un volto tra tanti osservati.


Credo sia utile, come nota finale, fare un breve accenno alla genetica che determina i tratti più evidenti della fisionomia (colore capelli, occhi, pelle e altezza), per comprendere quanto la determinazione di un carattere possa essere praticamente certa o probabilistica a seconda di quale sia il tratto somatico valutato.

Colore occhi
I geni coinvolti nel colore dell'iride sono 6, quindi la capacità previsionale è abbastanza buona. Da qui in poi userò una scala metrica dove 0,5 indica predizione casuale mentre 1 è predizione sicura. Senza addentrarci nella tipologia dei geni coinvolti possiamo dire che la predizione del colore blu, marrone e intermedio è dello 0,94 , 0,95 e 0,74 rispettivamente. Vale la pena precisare che varianti cromatiche "simili" come blu, verde e azzurro sono spiegabili dell'effetto Tyndall (simile a quanto avviene per il colore del cielo a causa dello scattering di Rayleigh) nello stroma dell'iride. Il colore chiaro dell'iride non dipende infatti dalla presenza di pigmenti verdi o blu ma sono entrambe conseguenza della bassa concentrazione di melanina nell'iride. Se ad alte concentrazioni questa determina il colore marrone o nero, a basse concentrazioni da luogo ai colori di cui sopra (con tonalità che possono variare a seconda dell'incidenza della luce). La tendenza al verde è dovuta alla presenza di un pigmento giallo (lipocromo) che sommato all'effetto blu dovuto alla dispersione della luce nello stroma genera il verde. 

Capelli
Il colore dei capelli (chiaramente quello naturale) è un poco più complicato perché è condizionato dall'età. Credo che tutti abbiate notato come le bionde naturali diventino castane già dopo l'adolescenza per poi virare verso il bianco. Cosa che non avviene con chi ha di partenza i capelli castani. Pertanto, le previsioni sui capelli castani sono meno accurate (0,75) rispetto ai capelli biondi (0,81), neri (0,92) e rossi (0,93). Avrete notato che il colore rosso è il più "facile" da prevedere; la ragione è nel determinante genetico, allele recessivo del gene MC1R che si trova sul cromosoma 16; se trovate due copie "concordi" dell'allele la determinazione di capello rosso è pressoché certa
La predizione genetica del colore dei capelli oggi in uso su basa sull'analisi di 24 varianti in 11 geni.

Colore pelle
Qui il set di geni da valutare per avere un tasso di predizione accettabile, comincia ad aumentare: servono 36 varianti da 17 geni. La capacità predittiva è alta se la scala di pigmentazione usata è su 3 categorie (chiaro, scuro e nero scuro), un poco più bassa se la categoria "chiara" viene ulteriormente frazionata a dare un totale di 5 categorie (molto chiaro, chiaro, intermedio, scuro e nero scuro).
L'affidabilità del risultato è 0,97 (chiaro), 0,83 (scuro) e 0,96 (nero scuro) nel primo caso, e 0,74 (molto chiaro),  0,72 (chiaro), 0,73 (intermedio), 0,87 (scuro) e 0,97 (nero scuro).

Quando si passa all'analisi di altri tratti le cose si complicano perché sono il risultato dell'azione combinata di un numero molto alto di geni (o meglio di varianti cioè alleli) ciascuno dei quali contribuisce in minima parte, per cui la presenza di un dato allele ha predittività in sé nulla e deve essere considerato solo insieme ad altri. La complessità di indagare la genetica di questi tratti è che se ogni allele ha un effetto basso il numero di individui da caratterizzare geneticamente aumenta esponenzialmente.

Altezza
Sebbene gli studi sui gemelli dimostrino che la componente genetica influisce per l'80%, fare una previsione dell'altezza è quanto mai complesso a causa del numero di geni in azione: per avere una previsione di 0,75 è necessario valutare almeno 180 alleli. Più facile la predizione degli estremi cioè i molto alti e i bassi (il nanismo e il gigantismo sono casi  a parte, pur se intrinsecamente eterogenei, perché associabili a condizioni patologiche).
Il tema è un poco più complesso perché nella determinazione dell'altezza abbiamo a che fare con la "ereditarietà mancante" (missing heritability) che consiste nel fatto che la somma dei singoli contributi apportati da ciascuna delle centinaia di varianti geniche è inferiore al contributo calcolato dagli studi familiari. In pratica manca ancora qualche informazione. A risolvere il problema è stato un recente studio del Queensland Brain Institute che ha identificato il tassello mancante nell'indice di massa corporea (BMI). Lo studio ha preso in esame il genoma (6 miliardi di nucleotidi) di 21620 persone partendo dal presupposto che le persone sono in qualche modo legate tra loro - anche se in modo remoto - quindi il DNA può essere usato per calcolare gradi di parentela.
Supponiamo, per esempio, che una coppia di cugini di terzo grado abbia una altezza tra loro più simile a quella che ha una coppia di cugini di secondo grado in un'altra famiglia: questo vuol dire che i primi hanno in comune più alleli "altezza" di un certo tipo. L'analisi al computer ha consentito così di identificare alleli di interesse (noti per il loro coinvolgimento nel determinare il BMI).

Altre caratteristiche del viso che possono essere previste sono la presenza di lentiggini, la struttura dei capelli (ricci o dritti), lo spessore della barba, la forma del sopracciglio (...). 
La calvizie precoce (anche molto prima dei 50 anni) può essere predetta con precisione di 0,74 mediante 14 varianti da 12 geni. Aggiungendo 200 varianti l'accuratezza sale fino a 0,78.

Età
Un parametro utile in molti casi giudiziari è la valutazione dell'età reale dell'individuo (fa la differenza tra punibilità totale o parziale soprattutto nel caso di soggetti senza documenti affidabili). Un metodo oramai classico si basa sulla determinazione della lunghezza dei telomeri cioè delle parti terminali dei cromosomi, fatte da sequenze ripetute, cruciali per preservare l'integrità dell'informazione ad ogni replicazione. Semplificando il tutto possiamo dire che le cellule "giovani" mantengono attivo un sistema che preserva la lunghezza dei telomeri; con il tempo il sistema si disattiva e i telomeri tendono ad accorciarsi provocando a loro volta l'attivazione dei sistemi di emergenza cellulare che portano alla senescenza cellulare (blocco proliferativo). Il sistema di controllo viene bellamente ignorato dalle cellule tumorali che riattivano il sistema di riparazione dei telomeri evitando così il blocco proliferativo.
La valutazione della lunghezza dei telomeri (o l'attività enzimatica dell'enzima preposto al loro mantenimento) in laboratorio non è complessa ma ci sono altri modi, anche più affidabili, per determinare l'età biologica.
Uno di questi è la valutazione dello stato di metilazione in alcune aree del genoma note come CpG islands. Nel lavoro prima citato fatto alla Columbia, i ricercatori hanno valutato lo stato di metilazione in 353 di queste regioni; l'informazione dell'età biologica ha una precisione inferiore ai 3 anni (vedi anche l'orologio di Horvath). Molto interessante il fatto che il test sia utilizzabile su qualunque tessuto, anche prenatale, il che sta ad indicare che è utilizzabile sia per determinare l'età che lo stadio di sviluppo. Non vi basta? L'analisi permette di determinare anche il tessuto d'origine e se il genoma della persona in esame abbia subito stress ambientali come quello legato all'essere un fumatore oppure dall'essere infettato da HIV (i ricercatori affermano che può prevedere quanti pacchetti di sigaretta al giorno abbia fumato il soggetto) .
Lo stato di metilazione non è ancora in uso per scopi forensi perché complicato e si sta lavorando per sviluppare qualcosa di più semplice.

L'analisi comparativa del DNA è già oggi centrale in molti procedimenti penali (400 mila solo negli USA) ed è destinato a crescere mano a mano che aumenterà il numero di soggetti il cui DNA (per trascorsi giudiziari) entri a fare parte dei database forensi.
Chiaramente questo approccio ha un limite importante in quanto permette di scoprire correlazioni unicamente tra i pregiudicati o all'interno di piccole popolazioni dove gli abitanti decidono di farsi esaminare in massa per agevolare le indagini nel caso di crimini efferati. Il DNA photofitting può colmare il gap.

Articoli su temi correlati che potrebbero interessarvi
--> DNA come memoria digitale del futuro?
--> DNA origami e nanorobot


Fonti
- Identification of individuals by trait prediction using whole-genome sequencing data
C. Lippert et al, (2017) PNAS, 14 (38) pp. 10166-10171

- Rapid re-identification of human samples using portable DNA sequencing
S. Zaaijer et al, eLife

- Parabon nanolabs

- DNA makes an appearance
Nature Biotechnology





Raggio traente. Dalla fantascienza alla realtà ... ma in piccolo

Tra le tecnologie un tempo relegate al futuribile prossimo venturo che oggi si affacciano al mondo reale, quella associata alla forza traente è forse la meno conosciuta.
La piattaforma operativa oggi disponibile, ben lontana dall'agire su una astronave come immaginò alla fine degli anni '60 Gene Roddenberry in Star Trek, è quella - ben più fattibile - delle acoustic tweezers, letteralmente pinzette/manipolatori acustici. Lo scopo? Spostare bioparticelle mediante onde sonore.
Siamo ben lontani dal raggio traente immaginato in Star Trek
I primi test, condotti su oggetti sferici (dalle sfere di lattice alle uova di rana), hanno dati dimostrato la fattibilità di spostarli da un punto all'altro, una volta intrappolati all'interno di un campo acustico. Da allora, si è passati a ipotizzare applicazioni pratiche in ambito scientifico ed ingegneristico.
Antesignane ed ispiratrici di questi dispositivi sono le pinzette ottiche (sviluppate nel 1986), cioè apparati che sfruttano la luce per catturare e muovere oggetti microscopici, da virus su fino alle cellule. Al di là delle loro potenzialità, l'utilizzo delle pinzette ottiche si è scontrato con limiti intrinseci come la necessità di ottiche complesse e di laser ad alta potenza, particolare quest'ultimo che poco si adatta all'utilizzo su campioni biologici.
Dato che i tweeter ottici non erano la scelta ottimale per l'utilizzo in biologia si è guardato ad altre forze come la magnetica, l'optoelettronica, la plasmonica (una variante dell'ottica che si fonda sull'uso di campi elettromagnetici localmente potenziati), l''elettrocinetica o la idrodinamica.
Ciascuna di queste con vantaggi e limitazioni, sintetizzabili come segue:
  • Le pinzette magnetiche e ottiche permettono una migliore risoluzione spaziale, ma non sono adatte a particelle più piccole di 100 nanometri (nm).
  • Le pinzette plasmoniche richiedono una potenza laser contenuta e sono adatte per catturare particelle di dimensioni nanometriche. Il limite è che le intensità locali necessarie per intrappolare le particelle possono provocare il riscaldamento del fluido circostante (e a cascata la comparsa di moti convettivi), rendendo necessaria l'implementazione di un sistema di controllo termico.
  • Le pinzette elettrocinetiche, basate sia sulle forze elettroforetiche che dielettroforetiche, sfruttano il campo elettrico e permettono di manipolare particelle di dimensioni comprese tra il nm e il mm. Il loro limite è nell'essere dipendenti dalla polarizzabilità dei bersagli e necessitano di medium a bassa conduttività, entrambi fattori non "amici" della fisiologia cellulare.
  • Le pinzette optoelettroniche usano una sorgente di luce e un substrato fotoconduttivo per indurre la dielettroforesi, consentendo così una manipolazione dinamica pur con limitate richieste nella potenza ottica; necessitano di medium a bassa conduttività.
  • Le pinzette idrodinamiche rappresentano forse l'approccio più semplice per la manipolazione delle particelle. il controllo del flusso del fluido permette di indirizzare le particelle all'interno di un microcanale, dove verranno poi ulteriormente separate in base alle caratteristiche cercate. Il punto debole è nell'assenza di un controllo fine.
  • Le pinzette acustiche possono risolvere molti dei limiti delle precedenti tecniche. Poiché le onde acustiche nel range tra il kHz e il MHz sono facili da generare, rende "facile" manipolare particelle su 5 ordini di grandezza dimensionale (da 10-7 a 10-2 m). Inoltre, la potenza acustica applicata (da 10-2 a 10 W / cm2) e le frequenze usate (da 1 kHz a 500 MHz) sono simili a quelle in uso per la diagnostica ad ultrasuoni (2-18 MHz, meno di 1 W/cm2), da cui deriva una intrinseca sicurezza. Ad esempio, test di manipolazione acustica condotti su globuli rossi e embrioni di zebrafish per 30 minuti non provocano alcuna alterazione nella vitalità cellulare o nello sviluppo, rispettivamente.

I tweezers acustici offrono interessanti prospettive di impiego in biologia e biomedicina specie nell'isolamento di biomarkers quali macromolecole nanometriche, vescicole extracellulari e cellule.

Video di qualche anno fa in cui viene mostrato l'utilizzo di un prototipo di pinzette acustiche per muovere le cellule.


Passano gli anni e la tecnica fa passi da gigante permettendo di manipolare le particelle in 3D

Altro esempio di applicazione, questa volta macroscopica, è la levitazione di un oggetto ottenuta solo grazie alle onde acustiche. Per ulteriori dettagli sulla tecnica, vi rimando all'articolo pubblicato su Physical Review Letters a gennaio 2018.
(credit: UpnaLab) ,

Articolo precedente sul tema --> "Il raggio traente da costruire a casa")

Fonte
- Acoustic tweezers for the life sciences
Ozcelik et al. Nature Methods - 15 (2018) pp.1021–1028






Detriti orbitali, test missilistici indiani e rischi per la stazione spaziale

Film visivamente molto ben fatto, nonostante evidenti cortocircuiti di sensatezza scientifica, la cui trama verte sulle vicissitudini di due astronauti la cui navetta viene investita in pieno dai detriti provocati da una improvvida azione russa volta a rimuovere un satellite in disuso.
A distanza di quasi 6 anni (il film è del 2013) l'India ha deciso che poteva fare, nella realtà, meglio dei maldestri russi ... in quanto a capacità di creare detriti.

Nei primi giorni di aprile arriva il comunicato della NASA che stigmatizza il comportamento indiano per una azione che avrebbe potuto mettere a rischio l'integrità della ISS (Stazione Spaziale Internazionale), e la sicurezza di coloro che lì risiedono.
Riassumiamo gli eventi.
Credit: EPA via BBC
Il 27 marzo il primo ministro indiano Narendra Modi (che abbiamo già incontrato in passato su temi para-scientifici --> QUI) ha annunciato il raggiungimento di un traguardo storico grazie all'abbattimento mediante missile di un proprio satellite a bassa orbita. Un discorso pieno di intenzioni lodevoli "il test è stato condotto nella bassa atmosfera per minimizzare il rischio di detriti spaziali e favorire la ricaduta sulla Terra entro poche settimane di quelli eventualmente generati" ma sui cui auspici la NASA non sembra particolarmente d'accordo, affermando che il test indiano ha aumentato del 44% il rischio, nei 10 giorni successivi,  che piccoli detriti impattino la ISS.
Dei 400 detriti risultanti dall'esplosione, 60 erano sufficientemente grandi da essere seguiti dagli strumenti a terra e 24 sono "volati" sopra l'apogeo dell'ISS, il punto più lontano dalla Terra a cui orbita la stazione orbitale.

Ad oggi solo tre paesi (USA, Russia e Cina) sono dotati di tecnologia anti-satellite.

I detriti orbitali sono un problema destinato ad aumentare con l'aumento dei satelliti in orbita. Solo nel 2018 sono avvenuti 382 lanci (in calo rispetto al 2017) per un totale stimato in poco meno di 9 mila satelliti. Di questi circa 5 mila sono ancora in orbita.
La maggior parte dei detriti orbitali si trova nella fascia orbitale prossimale, dove transita la ISS
(credit: NASA)
Ma i detriti sono molti di più. La NASA tiene sotto osservazione 23 mila detriti le cui dimensioni superano i 10 centimetri. Di questi un terzo sono stati creati nel 2007 in seguito ad un test anti-satellite condotto dalla Cina, e nel 2009 dopo una collisione tra un satellite di comunicazione russo e uno americano.

In un momento in cui si assiste ad un rinnovato interesse per la corsa allo spazio con equipaggio umano (grazie soprattutto a quel geniaccio di Elon Musk) la presenza di nuovi detriti non può che preoccupare.

Per vedere la mappa in tempo reale di satelliti e detriti

Video dell'ESA (Ente Spaziale Europeo) sui rischi connessi all'abbondanza di detriti orbitali

Se non vedi il video clicca QUI (all credit to: ESA)

Il problema ha stimolato la creazione di progetti su come "fare pulizia" nel cortile di casa nostra. Un consorzio europeo ha dato vita a RemoveDEBRIS, finalizzato alla creazione di un satellite capace di intrappolare i detriti più grossi, grazie ad una rete retraibile
Di seguito un video dimostrativo delle finalità del progetto


Video edito dalla rivista per geeks "The Verge" sul tema (se non vedi il video --> QUI)

Fonte
- Nasa: India's satellite destruction could endanger ISS
BBC / news




"Riacceso" il cervello di un maiale morto da ore. E non è una scena di Pet Sematary

La notizia potrebbe suonare come un poco credibile plot hollywoodiano sulla falsariga di film anni '80 (da Linea Mortale a Reanimator e Pet Samatary), ma l'esperimento è reale e nemmeno collocabile tra i progetti di uno scienziato pazzo.
Steve Martin, neurochirurgo pazzo in un film del 1983

Ricercatori della Yale School of Medicine sono riusciti a ripristinare l'attività cellulare del cervello di maiali morti e a mantenerli vitali per le 36 ore del test.
Nota. La "riattivazione cerebrale" non è stata fatta su (o usando) animali di laboratorio ma sul cervello prelevato da animali macellati per fini alimentari in una azienda vicina all'università. La distinzione non è di poco conto in quanto segna la differenza tra un esperimento fatto su animali da laboratorio (fortemente regolamentato) ed uno fatto con materiale assimilabile a campioni autoptici (da cadaveri) e in più prelevato da animali finalizzati alla produzione di carne, quindi non uccisi per fini sperimentali.
L'esperimento è consistito nella perfusione del cervello estratto da un animale morto 4 ore prima (privato quindi di ossigeno, glucosio o altri nutrienti per tutto il tempo) con una soluzione fisiologica acellulare progettata per impedire la coagulazione e per veicolare sia agenti farmacologici che l'ossigeno (trasportato da emoglobina libera, data la mancanza di globuli rossi).
La perfusione è avvenuta mediante un sistema di pompe e filtri, chiamato BrainEx.
Schema del sistema BrainEx (credit: Z. Vrselja et al, Nature via vox.com)

Scopo dello studio
Può essere visto su due livelli. Il primo è l'analisi di fattibilità nel recuperare/preservare l'attività metabolica cellulare in porzioni più o meno estese del cervello per poterle studiare in laboratorio. Il secondo, vincolato al successo del primo, è l'eventuale ricomparsa della comunicazione intercellulare sotto forma di trasmissione di potenziali d'azione, utile per la caratterizzazione dei circuiti neuronali locali.

Sebbene sia oggi possibile tenere in coltura, anche per settimane, espianti vitali di aree cerebrali, si tratta in pratica della coltura di cellule, private dell'architrave 3D in cui queste sono organizzate in vivo. Un limite non di poco conto se si considera che la già essenziale correlazione funzione-struttura 3D riferita ad un qualunque altro organo, assurge a requisito fondamentale quando si vuole comprendere la complessità della rete neurale.
Vero che l'analisi strutturale delle diverse aree cerebrali è in uso da anni (pensate alle prime bellissime immagini catturate al microscopio da Ramón i Cayal) ma per decenni ci si è dovuti accontentare di sezioni tissutali fissate in formalina per preservarne l'integrità; in altri termini tessuti morti. Negli ultimi anni nuove tecnologie hanno permesso di dare uno sguardo alla struttura di tessuti vivi (vedi l'affascinante tecnica del Brainbow, in cui ciascun neurone emette un colore diverso, o Clarity che rende il cervello trasparente) e anche di monitorare il funzionamento del cervello in azione, per di più in modo totalmente non invasivo (vedi la fMRI) ma si è sempre sentita la mancanza di un metodo per studiare struttura e funzione usando un modello "da laboratorio". Le sezioni di tessuto sono chiaramente inadeguate per rispondere alle domande sulla funzione e sulla connettività neuronale se non su scala ridotta. Inoltre gran parte della struttura 3D viene persa durante la preparazione del tessuto e solo grazie alla potenza dei computer è stato possibile ricreare in silico l'intreccio ordinato della foresta neuronale grazie alla comparazione tra innumerevoli sezioni adiacenti e trasversali tra loro.

Il sistema BrainEx ha permesso di superare questo gap e senza usare organi (quindi animali) che non fossero già disponibili.
Tuttavia il cervello non è un organo come gli altri. Ragionare sulla sua riattivazione - se fattibile, anche solo su scala limitata - ha sollevato fin da subito nei ricercatori una serie di problemi etici legati al riattivare la funzionalità di cervelli defunti. Avrebbe questo comportato la ricomparsa di una sia pur minima attività percettiva e magari di dolore, ansia o altro?
Una preoccupazione probabilmente infondata se si considera che sono sufficienti pochi minuti di ipossia per indurre la morte cerebrale, un evento per definizione irreversibile.
Nota. Attenzione alla differenza di significato tra cervello preso da un animale morto e un cervello "morto", cioè le cui cellule sono morte. Nel primo caso alcune cellule tra quelle meno sensibili alla privazione di ossigeno e nutrienti potrebbero essere "recuperabili" entro un certo lasso di tempo, in quanto non ancora morte. Nel secondo caso nulla è recuperabile qualunque cosa si faccia, per l'ovvia ragione che le cellule sono morte.
Le conseguenze di un ictus diffuso (o che colpisce aree chiave anche se limitate) sono ben note e rappresentano un ulteriore elemento di "conforto" nel ritenere estremamente improbabile che la riattivazione anche di estesi gruppi di cellule nel cervello "rianimato" sia associabile al ripristino delle funzioni superiori quale è lo stato di coscienza.

L'attributo "estremamente improbabile" non permette di escludere l'evento. Tale consapevolezza, e l'implicito rischio etico, impose di approntare contromisure qualora gli strumenti di monitoraggio dell'attività cerebrale avessero rilevato segnali (tipicamente onde cerebrali) riconducibili ad una seppur marginale attività corticale superiore.
Due le procedure di emergenza predisposte qualora l'EEG (elettroencefalogramma) avesse mostrato un qualunque segnale indicativo di stress: sostanze ad azione anestetica da introdurre nel liquido di perfusione e riduzione della temperatura.

Spostiamoci ora sul risultato sperimentale. La procedura ha permesso una sostanziale riattivazione metabolica senza alcuna evidenza di attività EEG (elettroencefalogramma).

Sufficiente per escludere i timori di una riattivazione percettiva? NI.

Da un lato la possiamo infatti escludere un "risveglio" perché le conoscenze acquisite concordano sul fatto che un recupero anche minimo di "coscienza" o percezione, implica la comparsa, ALMENO, di onde di bassa ampiezza nell'intervallo alfa (8-12 Hz) e beta (13-30 Hz).
Nessuna di queste onde è stata rilevata nell'intervallo di tempo sperimentale.
Pertanto, in assenza di attività EEG l'esperimento può essere paragonato, da un punto di vista etico, ad esperimenti condotti su tessuti post-mortem e quindi fuori da ipotesi regolatorie.

Eppure è difficile scacciare completamente il pensiero quando si entra in una zona dai confini incerti.
Fino ad ora infatti era opinione comune tra neurobiologi e medici che l'attività neurale e la coscienza fossero irrimediabilmente perse dopo soli pochi minuti di interruzione del flusso sanguigno nei cervello (almeno nei mammiferi). Anzi come ben sappiamo, è sufficiente un calo di pressione (quindi anche di ossigeno che raggiunge il cervello) di pochi secondi per provocare svenimenti. Se la circolazione non viene ripristinata in tempi brevi il passo tra perdita di coscienza e morte cerebrale è rapido.
In questo studio si è visto che 4 ore dopo la morte era possibile riattivare nelle cellule il metabolismo degli zuccheri, finalizzato per la produzione di energia e sintesi proteica. Certamente questa è cosa ben diversa dal ripristinare la rete neurale ma rimane il punto che un evento prima ritenuto non possibile, sia in effetti fattibile.

Altre domande sorgono spontanee.
Sebbene sia estremamente probabile che l'attività EEG sia stata persa in modo irreversibile con la morte dell'animale non si può escludere che il non averla rilevata durante la "rianimazione" sia conseguenza del protocollo sperimentale usato più che una assenza definitiva. La soluzione di perfusione conteneva infatti agenti chimici inibenti l'attività neurale, introdotti seguendo l'ipotesi che sarebbe stato più semplice ottenere una certa riattivazione metabolica bloccando sul nascere funzioni neuronali come l'attività bioelettrica.
Ma cosa sarebbe successo se durante l'esperimento tali inibitori fossero stati rimossi? Ci sarebbe stata la comparsa di attività EEG? E in questo caso si sarebbe dovuta interpretare come un ritorno di attività cerebrale vera e propria o solo come usa serie di attività scoordinate, epifenomeni del metabolismo neuronale privi di ogni "grammatica" informativa?
Altra ipotesi è che magari sarebbe servito uno "shock" elettrico, come quello usato per fare ripartire il cuore, per resettare il neurone (ovviamente solo nel caso in cui il neurone fosse ancora vitale) in stasi e farlo ripartire.
O magari ci vuole più tempo rispetto alle sei ore di perfusione fatte con BrainEx perché la riattivazione bioelettrica si manifesti.

In sintesi l'approccio basato su BrainEx evidenzia potenziali mancanze nella normativa vigente sulla sperimentazione (quando si usano organi "senzienti") e ad un livello superiore mette in discussione le ipotesi di vecchia data su ciò che rende un mammifero (quindi anche noi) vivo pur in assenza di segnale EEG.

***

Passiamo ora ad alcune delle domande "pratiche" che un esperimento del genere solleva, specie tra chi non ha un background di neurobiologia.

Questa ricerca potrebbe portare all'immortalità?
E 'improbabile. I ricercatori hanno fornito alle cellule cerebrali ossigeno e sostanze nutritive mediante  perfusione e questo ha ripristinato alcune funzioni cellulari, come il metabolismo degli zuccheri; non      vi sono però dati su quanto a lungo il sistema BrainEx avrebbe potuto tenere in vita l'organo (l'esperimento è stato portato avanti solo per 36 ore complessive).
Sappiamo altresì che i danni da invecchiamento o malattia in aree critiche come il cervello sono irreversibili quindi la tecnica in sé non sarebbe utilizzabile per "ringiovanire" il cervello.
Sebbene oggi l'unico modo per usare BrainEx sia quello di rimuovere il cervello dalla calotta cranica (impensabile non solo in un essere umano ma anche usando un animale vivo) nulla vieta di pensare che in futuro un approccio simile diventi possibile "in sito", magari usando persone decedute in seguito ad un incidente o per eventi cardiovascolari.
Altro punto importante è che il test NON è stato fatto su un organo congelato ma su un espianto; inutile quindi per coloro (e non sono pochi) che oggi pianificano di congelare il proprio corpo (post-mortem, per motivi legali) in vista di terapie future.

Lo studio permette di pensare a futuribili trapianti di cervello?
Trapiantare un cervello da un corpo all'altro è qualcosa che attiene oggi (e nel futuro prossimo) al regno della fantascienza (o magari della distopia fantascientifica) più che alla fattibilità, e sensatezza, scientifica. Questo dimostra unicamente la possibilità di ripristinare le funzioni (alcune) cellulari (di alcune) in un cervello. Trapiantare un cervello è qualcosa di molto più complicato; una delle sfide principali sarebbe il collegamento tra il tronco encefalico e il midollo spinale. Solo così verrebbe ripristinato l'asse bidirezionale, di controllo e sensoriale, tra centro e periferia.

Un cervello separato dal resto del corpo potrebbe mai essere cosciente?
Difficile rispondere. In questo esperimento i ricercatori hanno deliberatamente impedito al cervello dei maiali di riprendere conoscenza, usando sostanze chimiche per bloccare l'emergere del potenziale d'azione. Non è stata inoltre osservata alcuna attività cerebrale assimilabile allo stato di coscienza. L'idea di per sé non è però impossibile. In un test i ricercatori hanno rimosso sezioni di tessuto cerebrale e dopo avere applicato uno stimolo elettrico hanno visto che i neuroni avevano mantenuto la capacità di rispondere. Altri esperimenti condotti presso la UCSD nel 2018 sono ancora più informativi: usando organoidi di cervello, vale a  dire "mini cervelli" ottenuti in laboratorio partendo da cellule staminali adulte, questi producevano onde cerebrali con pattern simili (non uguali) a quelli osservabili nei nati prematuri (--> Nature).
La sezione di un organoide di cervello che evidenzia la presenza di neuroni corticali maturi nella parte esterna
(Credit: Muotri Lab/UC San Diego)
Capire se un cervello "isolato" potrebbe mai percepire qualcosa di ciò che lo circonda implicherebbe per prima cosa l'aggancio ad organi sensoriali come gli occhi o la pelle. Ma sappiamo altrettanto bene dalla clinica che pur in assenza di stimolazione sensoriale è possibile uno stato di coscienza (ad esempio nella sindrome locked-in).
Tutti questi test "limitati" sono stati effettuati negli USA dove vi sono norme stringenti sull'utilizzo di animali vivi ma non sugli organi DOPO che sono stati rimossi dal corpo. Ipotizzare un qualsiasi esperimento che comporti l'utilizzo di un cervello "isolato" da un animale necessiterebbe l'approvazione dei comitati etici e nutro seri dubbi che riceverebbero il via libera (viste le pene esistenti per chi viola le leggi federali). Un problema che non si applica in altri paesi come ben evidenzia il caso delle bambine-OGM cinesi.

L'attività cerebrale minima osservata nell'esperimento suino è paragonabile ad uno stato vegetativo?
No. Sebbene una persona in stato vegetativo non sia considerata cosciente, i suoi neuroni sono ancora attivi e capaci di inviare segnali, tra cui quelli che regolano i cicli sonno-veglia e la funzione cuore-polmone, solo per citarne alcuni. In molti casi gli occhi del paziente possono seguire il movimento del dito del medico ma si tratta di un riflesso spontaneo che non attiene alla coscienza (assente per i danni corticali). Al contrario, i neuroni del cervello espiantato dal cadavere dei maiali non mostravano alcuna attività elettrica se non come risposta alla stimolazione con elettrodi (risposta di riflesso e non capacità intrinseca)

Certamente lo studio solleva domande sulla definizione di cosa sia una entità consapevole e quali diritti meriti. Non a caso (ma dal mio punto di vista in modo immotivato) sono in corso discussioni etiche circa se e quando attribuire diritti alla macchine dotate di IA.


Fonte
- Restoration of brain circulation and cellular functions hours post-mortem
Z. Vrselja et al (2019) Nature 568, pp. 336–343

- Pig experiment challenges assumptions around brain damage in people
Nature (2019)

- Part-revived pig brains raise slew of ethical quandaries
Nature (2019)



Powered By Blogger
"Un libro non merita di essere letto a 10 anni se non merita di essere letto anche a 50"
Clive S. Lewis

"Il concetto di probabilità è il più importante della scienza moderna, soprattutto perché nessuno ha la più pallida idea del suo significato"
Bertrand Russel

"La nostra conoscenza può essere solo finita, mentre la nostra ignoranza deve essere necessariamente infinita"
Karl Popper
Controllate le pagine delle offerte su questo blog




















Zerbini fantastici