"Too much information is even worse than no information at all," mi disse un saggio. Io voglio correggere questo detto cercando di recuperare dalla "nuvola" scientifica (life sciences & astronomia in primis) alcune fra le notizie più interessanti ma sconosciute ai più, a causa dell'appiattimento dei media generalisti sulle stesse identiche notizie di agenzia.
The Copyright Laws of the United States recognizes a “fair use” of copyrighted content. Section 107 of the U.S. Copyright Act states: “Notwithstanding the provisions of sections 106 and 106A, the fair use of a copyrighted work (...) for purposes such as criticism, comment, news reporting, teaching, scholarship, or research, is not an infringement of copyright.” Any image or video posted is used according to the fair use policy
Ogni newsè tratta da articoli peer reviewed ed è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto sia datato. QUALUNQUE link in questa pagina rimanda a siti sicuri!! SEMPRE. Volete aiutare questo blog? Cliccate sugli annnunci/prodotti Amazon (se non li vedete, disattivate l'Adblocker mettendo questo sito nella whitelist. NON ci sono pop up o script strani, SOLO Amazon). Visibili in modalità desktop!
Se poi decidete di comprare libri o servizi da Amazon, meglio ;-) Dimenticavo. Questo blog NON contiene olio di palma (è così di moda specificarlo per ogni cosa...)
La chiralità della molecole, nota dal XIX secolo, è importante in ambito farmaceutico dato che gli enantiomeri, per quando chimicamente identici, non sempre sono funzionalmente equivalenti.
La chiralità è la proprietà di un oggetto di non essere sovrapponibile alla sua immagine speculare. Due molecole chirali possiedono le medesime proprietà fisiche tranne nel potere rotatorio (identico per intensità ma opposto di segno per ognuna di esse) della luce polarizzata.
Chiralità negli aminoacidi
Le molecole chirali, ripeto identiche ma speculari, mostrano lo stesso comportamento chimico nei confronti di sostanze non chirali mentre la loro interazione chimica nei confronti di altre molecole chirali è diversa (esattamente come una mano destra, stringendo un’altra mano, riesce a distinguere se la mano stretta è destra o sinistra). Questo spiega per quale ragione (a volte) due enantiomeri dello stesso principio attivo di un farmaco, a volte, non sono equivalenti nel profilo beneficio/tossicità, conseguenza di quale associazione mirror-twin sia presente tra effettore e bersaglio.
Esempio di tale differenza funzionale la ketamina, in cui l'enantiomero R- presenta un miglior profilo funzionale e di sicurezza.
Ecco perché alcuni farmaci possono essere costituiti dalla forma racemica (mix di enantiomeri) del principio attivo mentre altri devono contenere esclusivamente l'enantiomero destrogiro (R-) o levogiro (L-).
L’analisi con cui si stabilisce la chiralità usa la luce polarizzata circolarmente nella quale il campo elettromagnetico ruota in senso orario o antiorario, formando un “cavatappi” destro o sinistro in cui l’asse è lungo la direzione del raggio di luce; la luce "chirale" viene assorbita in modo diverso dalle molecole R- o L-. Effetto piccolo, ma misurabile, perché la lunghezza d’onda della luce è maggiore della dimensione di una molecola: il “cavatappi luminoso” è troppo grande per percepire la struttura chirale della molecola in modo efficiente. Un metodo migliorato per l'analisi si avvale del laser ad impulsi.
Risulta chiara allora l'importanza di individuare e separare "facilmente" i vari enantiomeri specie quando mostrano uguale comportamento, tranne che durante l'interazione con un bersaglio chirale.
In ambito biologico tre sono le (macro)molecole in cui l'importanza della chiralità è evidente e si manifesta con il fenomeno della omochiralità (prevale un solo enantiomero): zuccheri, aminoacidi e acidi nucleici (la chiralità di questi ultimi è invero la diretta conseguenza della presenza del ribosio - monosaccaride pentosio - nell'unità fondante, cioè il nucleotide). Vedi nota** a fondo pagina.
Poiché in genere le caratteristiche chimico-fisiche degli enantiomeri sono identiche, la ragione della dominanza di un enantiomero come costituenti degli organismi terrestri è verosimilmente conseguenza della specificità del macchinario enzimatico/strutturale che ha amplificato con l’evoluzione la rottura della simmetria già ai tempi del mondo prebiotico. Non ci sono altre ragioni infatti per cui gli zuccheri sono nella quasi totalità D- (cosa che si riflette anche nei nucleotidi con il D-ribosio) e gli aminoacidi L-.
Tra le domande rimaste a lungo senza risposta verificare la possibilità che l'affermazione di un solo enantiomero sia stata guidata da vincoli durante la biosintesi. Una ipotesi classica ipotizzava la esistenza di proteine costituite prevalentemente da residui L-aminoacidi (invece di D-) come conseguenza del D-ribosio negli acidi nucleici, secondo uno schema "specchio".
Nota. Durante la sintesi proteica i “mattoncini” (aminoacidi) da assemblare vengono trasportati al ribosoma dal tRNA (mediatore tra la tripletta del codone genetico e l'aminoacido) che viene caricato con il corretto aminoacido da enzimi noti come aminoacil-tRNA sintetasi, enzimi che mostrano una netta preferenza per L-aminoacidi anche in presenza di entrambi gli enantiomeri.
Una sfida sperimentale a questa ipotesi è stata recentemente pubblicata su Nature Communications che non ha potuto confermarla lasciando aperto il dibattito.
I test di laboratorio sono stati fatti su 15 diversi ribozimi (molecole di RNA con attività enzimatica) capaci di catalizzare i passaggi finali della sintesi di aminoacidi a partire da precursori, molecole che potrebbero essere esistite nel mondo (prebiotico) a RNA. Il risultato è stata la produzione di D- e L- aminoacidi in egual misura, a dimostrazione che l’RNA manca di una predisposizione strutturale tale da favorire una data forma di aminoacidi.
L’omochiralità della vita come noi la conosciamo non sarebbe quindi il risultato di un determinismo chimico, ma di una selezione casuale avvenuta successivamente quando emersero “limiti” nell’assorbimento/metabolismo dell’altro enantiomero, conseguenza della struttura delle proteine evolutesi.
Altro articolo interessante sull'argomento "Prebiotic chiral transfer from self-aminoacylating ribozymes may favor either handedness" (Nature Communications, 2024)
** Nota aggiuntiva sulle molecole chirali.
Carboidrati. Il glucosio è una molecola chirale (due enantiomeri, D- e L- glucosio) di cui solo la forma D- è quella prodotta/utilizzata dagli organismi viventi. Pur essendo versioni speculari l’uno dell’altro le nostre cellule (quindi proteine ed enzimi) sono in grado di utilizzare solo la forma D-
Aminoacidi. Tranne la glicina tutti gli aminoacidi sono chirali. In natura tuttavia la forma nettamente più abbondante (>90%) nell’organismo è la forma L- sebbene in alcuni occasioni ci siano picchi locali di incremento di D-aminoacidi (ad esempio il D-aspartato durante lo sviluppo del cervello).
Occasionalmente si trovano D-aminoacidi sia in forma libera che come “mattoni” delle proteine originati sia dall'azione di enzimi come le racemasi che per eventi di racemizzazione spontanea degli L-aminoacidi una volta incorporati nella proteina. Nella forma libera i D-aminoacidi sono raggruppati in 3 categorie in base alla loro capacità di funzionare come agonisti sui recettori NMDA, di agire in modo indipendente dai recettori NMDA o se inerti. Oltre che per l'azione delle racemasi una importante frazione di questi D-aminoacidi sono assunti dall’esterno (cibo processato da batteri, ad es. formaggi e yogurt).
Fonte
- Prebiotic chiral transfer from self-aminoacylating ribozymes may favor either handedness
Le prime stelle nell'universo potrebbero essere state innescate e alimentate dall'annichilazione della materia oscura
Credit: universetoday.com
Nell'universo attuale la materia oscura non sembra capace di fare molto pur essendo un componente dell'universo (27% della massa-energia totale) che contribuisce a definire il valore di densità che farà spostare l'ago della bilancia "evolutivo" verso un universo piatto, chiuso o aperto. Mattone essenziale, certo, ma di fatto ignoto nella sua identità e non previsto fino agli anni 60 quando sorse il problema della "materia mancante". Importante ma "elitario" dato che non interagisce con la materia standard (fotoni inclusi) e con una densità troppo bassa per potere interagire con se stesso.
Ottima introduzione divulgativa alla materia oscura
Agli albori del cosmo (stavo per scrivere "all'inizio dei tempi", ma questo è un termine quanto mai sdrucciolevole dati i concetti di spazio-tempo, come ben ci insegna anche il film Interstellar) tuttavia, le condizioni erano del tutto diverse e non è immotivata l'idea che esistessero sacche in cui la materia oscura aveva una densità sufficientemente elevata da fungere da innesco per la formazione di stelle molto particolari chiamate dark stars (stelle oscure)
Nei modelli più semplici di materia oscura questa fa ben poco, dato il suo non interagire con praticamente nulla (perfino meno di quanto facciano gli elusivi neutrini). I segni della sua esistenza ci arrivano dalla azione gravitazionale su scale dimensionali non inferiori a quelle di una galassia.
Questa immagine semplicistica della materia oscura presenta però alcuni problemi che si palesano quando gli astrofisici eseguono simulazioni al computer sulla formazione delle galassie, e devono introdurre tra gli "ingredienti" della ricetta anche la materia oscura: se si "disegnano" queste particelle in modo eccessivamente inerte, le simulazioni restituiscono un quadro non coerente con l'osservazione, ad esempio galassie molto più dense e con troppe galassie satellite.
Aumentando un poco la sua capacità interattiva (non interagisce con materia standard e fotoni ma può, in condizioni opportune, con se stessa) il risultato delle simulazioni migliora.
L'interazione non può essere però troppo forte, altrimenti la materia oscura si sarebbe aggregata e/o annichilita molto tempo fa.
Utilizzando questo scenario e applicandolo ad un universo "in fasce" (cento milioni di anni) i risultati ottenuti si fanno piuttosto interessanti.
L'universo era composto da materia oscura (qualunque cosa sia), fotoni e atomi neutri di idrogeno ed elio. Lentamente, nel corso del tempo, tutto quel materiale iniziò a collassare gravitazionalmente, formando strutture sempre più grandi. Le prime protostelle iniziarono come densi ammassi non più grandi di un millesimo della dimensione del Sole.
Nell'immagine tradizionale della formazione delle prime stelle, quei grumi crebbero costantemente fino a diventare colossi centinaia di volte più grandi del Sole, alimentati dalla fusione nucleare resa possibile al suo interno dal collasso gravitazionale della materia e il raggiungimento di densità e temperature sufficienti.
La modellistica prima citata ha però fatto sorgere il dubbio ad un team di astrofisici che questa visione fosse alquanto lacunosa. Le loro ipotesi sono state pubblicate come preprint su arXiv.
Il punto centrale è che se la materia oscura riesce ad interagire con se stessa in condizioni di densità adeguata, da queste "collisioni" si libera un po' di energia. Ogni collisione non ne produce molta, ma nelle condizioni esistenti in quell'epoca la quantità di collisioni locali potrebbe essere stata sufficiente affinché la materia oscura abbia avuto un ruolo importante nella formazione delle stelle.
In questo scenario, le prime stelle non furono alimentate dalla fusione nucleare, ma dall'annichilazione della materia oscura nei nuclei proto-stellari. Il nome "stelle oscure" è in realtà fuorviante perché per la maggior parte erano composte da materia normale, mentre la materia oscura funse "solo" da innesco.
Queste stelle non esistono nell'universo moderno, perché oggi (leggasi un universo di dimensioni non così piccole come allora) la materia oscura ha una densità troppo bassa perché possa interagire con se stessa; inoltre le stelle allora formatesi sono da lungo tempo "defunte" (le prime stelle avevano masse ben superiori alla media attuale il che si traduce in emivita di pochi milioni di anni).
Le prime stelle erano fatte da solo idrogeno e uno "zicco" di elio Credit: NASA/WMAP Science Team
I ricercatori sperano che il James Webb Space Telescope, progettato specificamente per studiare l'universo primordiale e le prime generazioni di stelle (guardando lontano, quindi indietro nel tempo), possa cogliere qualche indizio dell'esistenza di queste stelle.
Un eccellente articolo divulgativo sulla possibile correlazione PBH (buchi neri primordiali) e materia oscura la trovate su "Dark horses in the cosmos". A settembre 2024 è apparso su ARXIV un articolo che propone come usare alterazioni nel moto orbitale di Marte come rilevatore del transito di PBH nel nostro sistema ("Close encounter of the primordial type" https://arxiv.org/pdf/2312.17217)
Fonte
- Dark Stars Powered by Self-Interacting Dark Matter
È di alcune settimane fa la notizia che particelle elementari note come muoni non sono esattamente come previsto data la discrepanza del momento magnetico misurato sperimentalmente con quello previsto dal modello standard. Se tale discrepanza venisse confermata da esperimenti indipendenti, sarebbe la prima volta in cinquant'anni, cioè dalla nascita del modello a metà anni 70, in cui si rileva una falla predittiva.
Lo strumento (Muon g-2 ring) usato nell'esperimento (credit: Fermilab)
Un risultato più che sufficiente per mandare in fibrillazione i fisici teorici sia perché inserisce una crepa in un modello capace di unire le 4 forze fondamentali (gravità esclusa) che per le prospettive legate alla necessità di trovare il tassello mancante. Il tutto amplificato dalla sostanziale assenza di scoperte (attenzione scoperte, NON conferme tipo il bosone di Higgs o le onde gravitazionali) negli ultimi decenni.
A quanto ammonta la discrepanza?
Il valore misurato è stato 0,00116592040 mentre quello previsto era 0,00116591810. Una differenza che per noi comuni mortali (ovvero coinvolti in sperimentazioni con sistemi biologici o più in generale sistemi macroscopici) appare risibile, ma che nella fisica delle particelle ha lo stesso impatto della sirena di una nave quando avvista un iceberg inatteso. Delle due l'una, o è un problema di misurazione o di metodo, oppure della teoria sottostante. Poiché non sono state rilevate anomalie procedurali, anzi, come vedremo poi, questo esperimento nasce per confermare un dato anomalo ottenuto 20 anni fa, diventa palese la ragione dell'eccitazione montante tra i fisici.
Ok, bene ma cosa ci sarà mai in questa misura di strano?
I muoni possono essere considerati la versione pesante di un elettrone (massa 200 volte maggiore).
Volendo fare una catalogazione appena meno superficiale sono particelle elementari appartentente alla famiglia dei fermioni (l'altra famiglia è quella dei bosoni) e al gruppo dei leptoni carichi a cui appartengono anche elettroni e tauoni
image credit: CC BY 3.0 (wikipedia9
I muoni, a differenza degli elettroni, a causa della loro massa sono fortemente instabili e decadono a formare altre particelle.
Per quanto instabili sono ovunque intorno a noi. Si formano in genere quando una particella ad alta energia come un protone colpisce l'atmosfera terrestre generando altre particelle, tra cui i muoni.
Se hanno una breve emivita come fanno allora a raggiungere la superficie terrestre dove sono rilevati da appositi sensori? Il tutto nasce dalla loro velocità relativistica il cui primo effetto è che il tempo "visto da noi" e quello "visto dal muone" sono molto diversi, quindi il "loro" tempo di decadimento è sufficientemente lungo per farli arrivare sulla superficie.
Non si tratta beninteso di particelle che "nascono e muoiono" nella testa e nelle formule dei fisici teorici; un esempio di applicazione pratica la abbiamo con lo studio dell'interno delle piramidi dopo avere posizionato un rilevatore ad una estremità per catturare le particelle cha avevano attraversato la struttura (vedi muons reveal hidden void in egyptian pyramid).
Per studiarli non è necessario andare a caccia di quelli formatisi nell'atmosfera ma possono essere "comodamente" creati per fini sperimentali usando gli acceleratori di particelle come quello del CERN o, nel caso di questo esperimento, quello del Fermilab vicino a Chicago.
Data la presenza di carica e di movimento i muoni si comportano come piccoli magneti le cui caratteristiche (ad esempio la loro risposta all'interno di un campo magnetico esterno) sono calcolabili.
Facendo transitare i muoni attraverso un forte campo magnetico, questi mostrano oscillazioni attorno al loro asse di rotazione, quantificate da un valore noto come g-factor le cui caratteristiche sono funzione sia di proprietà intrinseche che del campo magnetico esterno
Altro modo per ripetere quanto scritto è che la forza del magnete interno determina la velocità di precessione del muone quando si trova un campo magnetico esterno; il momento magnetico e il momento angolare derivanti sono descritti da un numero che i fisici chiamano g-factor.
In queste condizioni i muoni si trovano ad interagire con la cosiddetta schiuma quantistica di particelle subatomiche che appaiono e scompaiono dall'esistenza (in senso letterale) in frazioni di un istante
Per quanto questo possa apparire strano è un fenomeno noto da decenni ed è, tra le altre cose, alla base dell'ipotesi della radiazione di Hawking quando questi eventi avvengono a ridosso dell'orizzonte degli eventi di un buco nero.
Le interazioni con queste particelle effimere modificano il valore del g-factor, causando la precessione del moto dei muoni. Il modello standard prevede nel dettaglio questo "momento magnetico anomalo".
Da qui il fatto che se il valore ottenuto sperimentalmente è diverso da quello teorico, questo implica l'esistenza all'interno della schiuma quantistica di forze o particelle non contabilizzate dal modello standard (particelle ipotetiche tipo leptoquark o Z' bosone).
Esattamente quanto verificatosi.
Se a questo aggiungiamo che l'esperimento era stato pensato per validare (o confutare) anomalie nelle misurazioni ottenute nel 2001 presso il Brookhaven National Laboratory, ne deriva che diventa sempre più difficile pensare ad un errore procedurale in questo e nell'esperimento di 20 anni fa. Ci deve essere un tassello mancante nell'impianto predittivo.
Mettendo insieme i risultati ora ottenuti al Fermilab con quelli al Brookhaven la significatività dei risultati raggiunge un valore pari a 4,2 sigma, molto alta ma non ancora a livello del 5 sigma che per gli scienziati sperimentali implica che il risultato assurge al grado "scoperta" (confusi? Leggetevi l'articolo Le Scienze "Il 5 sigma questo sconosciuto"): un valore anche "solo" pari a 4,2 sigma significa che la probabilità che i risultati siano frutto di fluttuazione statistica è pari a 1 su 40000. Quindi decisamente convincenti.
I valori teorici per il muone erano:
fattore g = 2,00233183620 ; momento magnetico anomalo = 0,00116591810
La media ottenuta dagli esperimenti del 2001 e del 2021 indica:
fattore g = 2,00233184122 ; momento magnetico anomalo = 0,00116592061
Poco probabile che la differenza tra risultati sperimentali e predizione sia frutto del caso (credit:B. Abi et al, /PRL 2021 via sciencenews )
L'impatto prodotto da questi dati sulla comunità dei fisici è, potenzialmente, maggiore dell'effetto, pur eclatante, della identificazione del bosone di Higgs.
Tale particelle era infatti prevista dal modello e l'esperimento tanto a lungo atteso serviva per confermare sperimentalmente un modello che funzionava su tutto il resto.
Il risultato attuale rivela invece un mancanza inattesa nella teoria. In ambito scientifico le anomalie vanno spiegate e se il modello in essere non può essere spiegato allora bisogna cambiare modello.
Queste dunque le ragioni delle possibili ripercussioni sulla teoria nota come supersimmetria, anche nota come SUSY.
Video riassuntivo della scoperta edito dal Fermilab
Fun Fact. Questa potrebbe essere la rivincita del Fermilab nella famosa sfida (fittizia) tra loro e il Caltech mostrata nell'episodio "The Confirmation Polarization" in "The Big Bang Theory", quando Sheldon Cooper si aggiudica la paternità della teoria della "superasimmetry" nella diatriba con i 2 ricercatori del Fermilab. (Nota a margine. La superasimmetria non esiste ma fu proposta dal consulente scientifico della serie come l'unica vera scoperta in grado di fare guadagnare un Nobel in tempi brevi in quanto antitetica alle attuali teorie fondate sulla simmetria)
Fonti
- Measurement of the Positive Muon Anomalous Magnetic Moment to 0.46 ppm
B. Abi et al, Phys. Rev. Lett. 126, 141801 – 7 April 2021
- First results from Fermilab’s Muon g-2 experiment strengthen evidence of new physics
Fino all’arrivo di Stephen Hawking l’assunto sui buchi neri era che da questi non potesse sfuggire nulla, nemmeno la luce (da cui il nome), e che quindi questi oggetti fossero destinati a persistere fino alla fine dei tempi senza mai perdere la massa-energia da essi catturata dall'inizio della loro formazione.
Con la formulazione nel 1974 di quella che sarebbe poi stata chiamata radiazione di Hawking il quadro cambiava; non solo qualcosa poteva sfuggire al buco nero ma il concetto stesso di radiazione (emissione verso l'esterno) permetteva di ipotizzare che, sebbene su tempi enormi, un buco nero potesse evaporare e quindi scomparire. Una ipotesi del genere potrebbe sembrare contraria alle leggi della fisica in quanto nulla può andare più veloce della luce; nessuna contraddizione in realtà, la radiazione non origina da "dentro" il buco nero ma dalla regione di confine ed è mediata dalle particelle virtuali (il principio di indeterminazione di Heisenberg implica che il vuoto completo dello spazio pullula di coppie di particelle "virtuali" che entrano ed escono dall'esistenza).
Facciamo un passo indietro per contestualizzare il tutto.
Il sunto del ragionamento di Hawking era che un buco nero dovrebbe comportarsi (irradiare) seguendo le regole della black body radiation, per cui un oggetto "caldo" emette una radiazione infrarossa costante. Per Hawking i buchi neri vanno assimilati a stelle normali, che irradiano costantemente un certo tipo di radiazione dipendente dalla loro temperatura.
Tuttavia la gravità di un buco nero è così potente che nemmeno la radiazione elettromagnetica può sfuggire alla sua presa, una volta che il fotone (l'unico "corpo che può viaggiare alla velocità della luce essendo privo di "massa") supera il cosiddetto punto di non ritorno, chiamato orizzonte degli eventi. Se nulla può viaggiare più veloce della luce, ne deriva che nulla può tornare indietro una volta superata questo "confine".
Hawking ipotizzò che dai buchi neri poteva comunque emergere una debole radiazione grazie a quelle che vengono chiamate particelle virtuali la cui esistenza è prevista dalla meccanica quantistica, particelle che appaiono e scompaiono (annichilendosi a vicenda) in ogni istante in seguito a fluttuazioni quantistiche.
L'esistenza di queste particelle, meno che istantanea, non implica creazione di materia dal nulla ma semmai prestiti e quindi non vanno contro il principio di conservazione dell’energia.
La loro esistenza effimera vale fintanto che l’area in cui si verifica tale “comparsa” non sia a ridosso dell’orizzonte degli eventi; quando la coppia di particella e antiparticella appare sul confine ed una di esse “supera” la linea di non ritorno, l’altra particella diretta in direzione opposta non potrà più interagire e scomparire con la sua “gemella” oramai persa per sempre.
Raffigurazione di come la coppia di fotoni "effimeri" può originare la radiazione di Hawking (credit: Ali Övgün)
Per rispettare il principio di conservazione dell'energia complessiva, la particella che è precipitata nel buco nero avrà energia negativa (rispetto ad un osservatore) e come tale il buco nero perderà massa (per l'osservatore esterno sarà come se il buco nero avesse emesso una particella).
Tuttavia questa descrizione, anche se evocativa è errata e me lo ha spiegato in dettaglio un fisico teorico con una sintesi che riassumo qui: nella teoria quantistica dei campi nello spazio-tempo curvo, ossia quando anche la gravità è in gioco, non è possibile definire chiaramente cosa sia una particella. La definizione di particella è chiara quando la gravità è assente, ma quando la gravità è inserita perde di significato. Hawking stesso non utilizza le particelle virtuali negli articoli tecnici. Insomma, è possibile ottenere i risultati sulla radiazione di Hawking in maniera rigorosa senza utilizzare il concetto di particella virtuale, che è solo un espediente divulgativo per rendere l'idea. La teoria proposta da Hawking è stata rivoluzionaria perché ha combinato la fisica della teoria quantistica dei campi con la relatività generale.
I tempi necessari perché questa “evaporazione” porti alla scomparsa di un buco nero sono talmente elevati da essere per noi poco comprensibili (VEDI il calcolo nella pagina "Hawking radiation calculator") e la loro energia troppo bassa per essere misurata anche ammettendo di avere un buco nero nelle vicinanze. Tra le ragioni che spiegano gli esperimenti (falliti) di generare microscopici buchi neri in laboratorio al CERN (mediante LHC) la principale è proprio quella di studiarli; vale la pena sottolineare che queste entità microscopiche (già la creazione di queste entità necessita di energie al limite delle possibilità tecniche attuali), non porterebbero alcun rischio data la loro intrinseca labilità, con una emivita stimata di 10-27 sec.
Finora, tuttavia, nessuno era mai riuscito né a creare questi mini-buchi neri né a rilevare in altro modo la radiazione di Hawking. La prima, indiretta, conferma arriva nel 2019 con un esperimento al Weizmann Institute centrato sulla interferenza di segnali all'interno di una fibra ottica.
Nell'esperimento gli scienziati hanno utilizzato una fibra ottica con micro-percorsi all’interno, che ricreano un effetto che possiamo assimilare ad un fiume che corre velocemente verso una cascata; oltre una certa velocità, nulla che si trovi sul fiume potrà sfuggire alla corrente e sarà trascinato verso il "salto" (una specie di orizzonte degli eventi). Lungo la fibra vengono sparati due impulsi di luce laser di colori diversi che si inseguono fra loro. Il primo interferisce col secondo e questa interferenza, molto intensa, cambia le proprietà fisiche della fibra, generando un cambiamento del suo indice di rifrazione. In quella fase si aggiunge un terzo impulso luminoso e si misura l'eventuale radiazione emessa. Si scoprì così che questa luce aggiuntiva generava una radiazione a frequenza negativa che equivale a dire una radiazione idealmente in uscita dal pozzo di potenziale.
L'ovvio limite di questo esperimento è l'avere ottenuto l'analogo di una radiazione di Hawking solo dopo stimolazione invece che spontaneamente dal sistema.
Un nuovo esperimento israeliano (questa volta da un team del Technion Institute) pubblicato qualche settimana fa su Nature Physics ha fornito una nuova conferma alla radiazione di Hawking usando un approccio diverso. Il risultato riassunto in un paragrafo è l'elusiva radiazione è spontanea ed è stazionaria (non cambia cioè di intensità nel tempo). Il nuovo articolo è un proseguimento dell'approccio usato nel 2019 (pubblicato su Nature) con la creazione di un analogo di buco nero basato su onde sonore, di cui l'immagine sotto riassume il concetto.
Mentre i ricercatori del Weizmann sfruttarono l'interferenza di segnali ottici, il nuovo approccio parte dalla creazione di qualcosa di simile ad un buco nero noto come condensato di Bose-Einstein(BEC) vale a dire uno stato della materia in cui le particelle, raffreddate a livelli infinitesimali (milionesimi di kelvin), assumono proprietà particolari come la super fluidità e l'agire all'unisono come se fossero un singolo atomo.
Come materiale di partenza una minuscola quantità di gas di rubidio, pari a circa 8 mila atomi, raffreddato quasi allo zero assoluto, tenuti in posizione da un raggio laser (si, un raggio laser può raffreddare, anche se sembra controintuitivo). Usando un secondo raggio laser, i ricercatori hanno creato una "scogliera" di energia potenziale forzando così il flusso degli atomi di gas lungo questo "salto" in modo analogo all'acqua che precipita in una cascata. Il risultato è la creazione di qualcosa di paragonabile ad un orizzonte degli eventi in cui metà del gas aveva una velocità maggiore della velocità del suono e l'altra metà una velocità inferiore.
Create le premesse, i ricercatori hanno cercato la comparsa spontanea di coppie di fononi (equivalente dei fotoni quando si parla di quanti di onde sonore) nel gas.
Evidente il parallelismo tra i fononi e le coppie di particelle virtuali all'orizzonte degli eventi di un buco nero.
Il fonone della coppia "apparso" nella metà lenta del flusso di gas potrebbe viaggiare "controcorrente" sfuggendo così alla "cascata", mentre un fonone comparso nell'altra metà, che scorre a velocità supersonica, non ha nessuna possibilità di sfuggire. Trovate queste coppie di fotoni e verificata la loro correlazione, bisognava capire se questo analogo della radiazione di Hawking rimanesse costante nel tempo. Analisi complicata dalla labilità di questi fononi, distrutti velocemente dal calore generato dal processo, tanto da avere dovuto effettuare 97 mila misurazioni (sic!) in un periodo di 124 giorni per ottenere i dati cercati.
I dati hanno confermato che la radiazione di Hawking è stazionaria, come previsto da Hawking 40 anni prima.
Rendering del buco nero M87* (vedi fondo pagina per dettagli e per la 1a immagine diffusa) Credit: NASA
Alla domanda "chi ha proposto per primo l'idea di buco nero?" i primi nomi che verrebbero in mente sarebbero Albert Einstein, Stephen Hawking, Karl Schwarzschild o John Wheeler, che nel 1967, fu il primo ad usare il termine Black Hole durante una conferenza (NASA GISS), stufo di dovere ripetere "gravitationally completely collapsed object".
Sebbene
questi scienziati abbiano avuto un enorme impatto sull'astrofisica dei
buchi neri, l'idea di un forte campo gravitazionale che altera la luce risale a molto prima, risale alla fine del '700 ad opera di un prete e professore di geologia
dell'università di Cambridge di nome John Michell.
Da sinistra Mitchell, LaPlace e Wheeler (credit: blackholecam)
Poco
noto ai più ma considerato oggi il padre della moderna sismologia, e
molto altro tra cui la descrizione teorica di quelle che chiamò Dark Stars, oggetti
planetari in cui la velocità di fuga supera la velocità della luce.
L'ipotesi risale al 1783 quando Mitchell era già in pensione e faceva il rettore della chiesa di St.
Michael a Thornill nello Yorkshire e (a tempo perso ...) dava sfogo alla sua inesauribile curiosità scientifica.
L'articolo in cui esponeva le sue
conclusioni apparve su The philosophical transactionsnel 1784, una data non così lontana dall'essere temporalmente mediana tra la teoria della gravitazione universale di Newton e la teoria della relatività speciale di Einstein.
In quel periodo
Michell stava cercando di determinare un metodo per
misurare la distanza e la luminosità delle stelle, usando come elementi di partenza le teorie della luce e della
gravità.
Il reverendo partiva dall'idea che la luce fosse costituita da una particella (un
argomento estremamente dibattuto all'epoca) e che quindi la gravità potesse agire sulle particelle di
luce nello stesso modo in cui agiva su tutti gli oggetti.
Data l'incontrovertibile esistenza della gravità Michell cercò di calcolare la "velocità per raggiungere l'infinito", cioè la velocità di fuga, sulla Terra e nel Sole. Il ragionamento lo portò a considerare che se si spingeva la massa oltre un certo valore anche la forza di gravità sarebbe aumentata e con essa la velocità di fuga finché avrebbe raggiunto e superato la velocità della luce e a quel punto l'oggetto sarebbe apparso del tutto nero.
Nota. Una ipotesi formulata quando ancora non si aveva alcuna idea della reale velocità reale (sebbene nel 1676 il danese Ole Roemer provò che aveva un valore finito) e tantomeno che, come Einstein poi dimostrò, tale valore rappresentava un limite invalicabile e che nessun oggetto di massa poteva, per definizione, raggiungere. Alcuni presupposti di Mitchell (come la deduzione della velocità della luce ) non erano corrette ma qui importa il ragionamento con cui dedusse potessero esistere stelle nere invisibili agli occhi degli astronomi. Qui lui propose che se la stella nera avesse una compagna luminosa quest'ultima avrebbe fornito indizi sulla esistenza della prima; un sistema oggi ben noto quando si studiano sistemi binari in cui una stella è una stella di neutroni o un buco nero.
Una idea molto simile fu proposta nel 1796 dal matematico francese Pierre-Simon Laplace, che parlò di "corpo invisibile". Vero che la proposta fu di 10 anni successiva a quella di Mitchell ma il consensus attuale è che Laplace abbia sviluppato in completa autonomia questa teoria, fatto supportato dalla quasi totale assenza di comunicazione (non solo scientifica) tra Francia e Inghilterra in quel periodo di travaglio rivoluzionario.
E' intellettualmente divertente ripetere oggi il processo matematico che portò Mitchell al concetto di stelle nere.
Punto di partenza è la legge gravitazionale di Newton con la quale si può dedurre la velocità di fuga che è la condizione per cui l'energia cinetica pareggia l'energia potenziale gravitazionale.
Invece di risolvere per la velocità (come fatto nel precedente articolo), seguiamo Mitchell, cioè calcoliamo il raggio di un oggetto con massa M affinché abbia una velocità di fuga uguale alla velocità della luce (per cui sostituiamo Vf con c).
Eliminiamo per prima cosa la radice quadrata moltiplicando tutto al quadrato e moltiplichiamo entrambi i lati dell'equazione per R diviso "c" al quadrato, risolvendo poi per il raggio.
nota. "r" è da intendere in maiuscolo come nelle equazioni sopra (mio errore digitazione)
Ovvero, un corpo di massa M ha una velocità di fuga pari alla
velocità della luce quando il suo raggio r è uguale a 2GM diviso C al
quadrato.
Da qui è immediato calcolare la dimensione che dovrebbero avere la Terra e il Sole affinché la velocità di fuga alla superficie sia uguale a quella della luce: 8,87 millimetri e 2,95 km, rispettivamente.
Piccoli? Le stelle di neutroni (da cui la recente conferma dell'esistenza delle onde gravitazionali) hanno un diametro inferiore all'isola di Manhattan (ca. 20 km)
In queste condizioni il Sole apparirebbe scuro dato che nessuna "particella di luce" (che noi oggi chiamiamo fotone) potrebbe fuggire da esso. Questo fenomeno, che nella fisica odierna rappresenta il caso più semplice di buco nero ("buchi neri di Schwarzschild ) fu previsto con il solo ausilio della fisica classica newtoniana.
Chiaramente Mitchell non poteva concepire l'idea di una densità di massa tale da giustificare stelle mignon, per cui ipotizzò una massa "sufficiente" allocata in stelle con raggio 500 volte quello solare in modo da allocare una massa sufficiente. Il risultato cambia poco data la predizione di stelle da cui è impossibile che la luce sfugga.
Oggi si sa che mentre enormi masse (pari a miliardi di stelle solari) possono localizzarsi in buchi neri grandi tipo quelli nel centro galattico, la dimensione massima che può raggiungere una stella è vincolata a limiti precisi oltre i quali non ci potrà essere energia prodotta sufficiente per sostenere la massa soprastante. Ad oggi le stelle più grosse hanno raggio record di 2 mila volte quello del Sole.
L'equazione sviluppata da Mitchell sarebbe ricomparsa secoli dopo nella relatività generale
di Einstein come soluzione di alcune equazioni e per spiegare l'orizzonte degli eventi (al posto di "R" si ha "REH" ad indicare il raggio della sfera che descrive l'orizzonte degli eventi - OE). Per il resto l'equazione predittiva delle Dark Stars di Mitchell è esattamente identica a quella ricavata da Einstein. Gli "oggetti" previsti sono invero diversi: per Mitchell era una stella con una propria "superficie" mentre oggi l'OE indica il punto oltre il quale si ha un collasso continuo, quindi impossibile avere una qualsivoglia idea di superficie.
Notevole quanto la matematica permetta di ottenere risultati talmente avanti nel tempo da non potere essere compresi ma solo "accettati", fino allo sviluppo di teorie adeguate.
Nota. L'utilizzo della fisica newtoniana è sufficiente fintanto ci si trova in situazioni in cui la gravità è "debole", evidente quando la velocità di fuga calcolata è una mera frazione della velocità della luce. Condizioni che si trovano quando si mette in orbita un satellite o si calcola la traiettoria per andare sulla Luna e tornare (la velocità di fuga dalla Terra è 11,2 km/sec, circa 27 mila volte minore di "c". L'accurata predizione di quanto avviene con gravità tali da causare velocità di fuga intorno al 10% di "c" necessitano delle equazioni della teoria generale della relatività.
Una immagine arricchita a fine marzo 2021 con i dettagli del campo magnetico
Immagine del buco nero al centro della galassia M87 in luce polarizzata. Le linee indicano l’orientazione della polarizzazione, legata al campo magnetico che circonda l’ombra del buco nero. Image Credit: Eht Collaboration. Testo: INAF
Descrizione video dell'immagine precedente (all credit to youtube/INAF)
Di seguito i dettagli dell'immagine in apertura
Per dettagli vedi il sito della NASA e una spiegazione ottica del fenomeno QUI.
Credit: ESO
Altri dettagli sul perché lo vediamo in un certo modo (image credit: Nature)
Poco più di un anno fa avevo segnalato lo sviluppo del prodotto più nero di sempre, che spruzzato su un oggetto era capace di assorbire il 99,995% dei fotoni incidenti, surclassando così il precedente primato del Vantablack®. Al lavoro portato avanti dai soliti geniacci del MIT hanno risposto, in modo complementare, i ricercatori della Purdue University con una vernice acrilica definita come il "bianco più bianco mai prodotto" capace di riflettere il 95,5% della luce incidente.
Nota. Per comodità del lettore riporto in calce alla presente il precedente articolo sul "super-nero".
Non si tratta, come ovvio, della solita ricerca accademica utile per soddisfare l'interesse nerd degli scienziati, ma di prodotti che hanno importanti applicazioni pratiche. Nel caso del "super-bianco" il suo utilizzo aiuterebbe anche a combattere il riscaldamento globale.
X. Ruan & J. Peoples testano la capacità schermante (credit: J. Pike/Purdue Un.)
Alcuni dettagli dei test condotti, usando il prodotto e verificando sia la riflessione che il calore assorbito Credit: ScienceDirect
Obiettivo dichiarato dei ricercatori quello di ottenere una vernice utilizzabile per mantenere gli edifici più freschi e, con questo, minimizzare lo sforzo degli impianti di raffreddamento.
Per inciso ricordo che l'impianto di condizionamento non è (sempre) un vezzo degli umani contemporanei ma lo strumento che ha permesso di abitare tutto l'anno territori altrimenti proibitivi; uno su tutti l'ovest degli USA (vedi il bell'articolo su The Atlantic per gli USA o a livello globale l'articolo e mappa del The Guardian).
Senza entrare troppo in dettagli chimici, si tratta di un materiale a base di carbonato di calcio, essenziale per le caratteristiche di riflettività, e a cascata di minor assorbimento di calore, assente nelle altre vernici bianche isolanti.
I dati parlano chiaro: le superfici verniciate con il "super-bianco" erano fino a 18 °C più fresche rispetto alle aree circostanti, il che rende perfino ipotizzabile fare a meno dell'area condizionata. La zona più ovvia in cui utilizzarlo sarebbero i tetti, con un risparmio nel consumo di energia stimato in 1 dollaro al giorno (molto di più da noi visto il costo dell'energia), massimizzando così i guadagni dell'utilizzo dei pannelli fotovoltaici, diffusi oramai nelle area ad alta insolazione nonostante la scarsa efficienza energetica.
Confronto tra la temperatura dell'area verniciata con il super-white (sinistra) e la classica vernice bianca (Image credit: Purdue University image/Joseph Peoples)
L'utilizzo del carbonato di calcio presenta molteplici vantaggi: molecola di facile produzione; molto più economico del biossido di titanio usato nelle vernici in uso oggi (oltre che come additivo alimentare e nelle creme solari).
I ricercatori stanno ora cercando di sfruttare la capacità di "abbattimento del calore assorbito" utilizzando la stessa miscela con altri pigmenti (secondo i tecnici è fattibile anche diminuendo la "bianchezza") per soddisfare le preferenze estetiche di tutti, facilitandone la diffusione e massimizzando così l'impatto positivo sui consumi.
Realizzato in laboratorio il materiale più nero del nero mai visto in natura (buchi neri esclusi).
** copia dell'articolo scritto il 19/09/19)**
Ricordo di avere letto per la prima volta del nero assoluto in un breve racconto di Jack London "L'ombra e il baleno", dove questo pigmento, capace di assorbire ogni radiazione nel visibile, permetteva di ottenere l'invisibilità dell'oggetto o corpo su cui fosse stato spruzzato.
Una teoria alquanto curiosa perché invece dell'invisibilità (per cui serve o il passaggio indisturbato dei fotoni o la loro curvatura attorno all'oggetto) il nero assoluto sarebbe semmai utile per mimetizzarsi in condizioni di scarsa luminosità e non in piena luce dove si apparirebbe come ... buchi neri ambulanti. A proposito di invisibilità potrebbe interessarvi l'articolo "la realtà del mantello dell'invisibilità di Harry Potter".
Nota. Il buco nero è tale perché ogni cosa, luce compresa, che vi entra scompare nella singolarità. Nella vita quotidiana il colore di un oggetto è funzione della quantità (percentuale) e qualità (lunghezza d'onda) della luce incidente che viene riflessa (per approfondimenti vi rimando all'ottima sezione sul colore della Stanford University).
Ma possiamo perdonare al grande Jack London questo errore scientifico a fini narrativi.
La ricerca del nero assoluto è tuttavia una realtà, per fini che vedremo poi, con miglioramenti continui che sono culminati con quello che si riteneva il top cioè il Vantablack ®.
Verbo declinato al passato perché poco tempo fa i ricercatori del MIT hanno annunciato un nuovo materiale, ancora senza nome, che (parodiando il claim di Tim Cook) è "il più scuro di sempre" grazie alla sua capacità di assorbimento della luce superiore al 99,995 per cento contro il 99,96 per cento di Vantablack. Può sembrare un miglioramento esiziale visto che si parla di decimali ma traducendo in linguaggio semplice il nuovo materiale riflette 10 volte meno luce del Vantablack.
La composizione di questo nuovo materiale è, a grandi linee simile a quella del Vantablack (nanotubi di carbonio o CNT) con una particolare struttura e geometria (allineati verticalmente) che appaiono come microscopiche stringhe che svettano dalla superficie come una piccola foresta.
Come spesso avviene nella scienza, la scoperta è frutto del caso nel senso che la si è ottenuta mentre si cercava altro. Proprio qui sta la differenza tra uno scienziato ed uno che "si occupa di cose scientifiche" cioè nella capacità di vedere oltre un risultato inatteso e comprenderne potenzialità al di fuori della ricerca in corso. Nello specifico i ricercatori stavano testando nuovi approcci per produrre CNT su materiali elettricamente conduttivi come l'alluminio; durante uno di questi esperimenti si resero conto che sul supporto di alluminio pretrattato per la reazione di sintesi (e già scuro di suo) il nero diventava via via "più nero". La conferma a questa sensazione visiva venne da test che mostrarono una assorbanza quasi assoluta.
Non è ben chiaro perché i CNT organizzati in tal modo siano così foto-assorbenti ma il risultato rimane.
Il nuovo nero da record è stato anche oggetto a New York di una installazione artistica, intitolata The Redemption of Vanity, dell'artista del MIT Diemut Strebe. Un'opera invero già preziosa di suo se si pensa che l'oggetto è un diamante giallo naturale da 16,78 carati (valore 2 milioni di dollari) rivestito con il nuovo materiale: invece di apparire come una gemma brillante, scintillante e altamente riflettente appare come un vuoto senza luce.
Una spruzzata del nuovo materiale e la lucentezza del diamante scompare (immagino dato il costo dello stesso che sia facile da rimuovere ...). Credit: Diemut Strebe via MIT news
Quali applicazioni per il nero assoluto? Ad esempio nella strumentazione ottica (fotocamere, telescopi e perfino nei telescopi spaziali) in cui la rimozione di luce e bagliore ha un valore fondamentale.
La ricerca è stata pubblicata su ACS Applied Materials & Interfaces.
Nota di "colore" La gara per ottenere il prodotto più di nero è uscita dall'alveo accademico coinvolgendo gli artisti. L'artista Anish Kapoor possiede la licenza esclusiva per l'utilizzo di Vantablack; questo ha provocato la "risposta" di un altro artista, Stuart Semple, che ha sviluppato la sua linea di pigmenti e sta cercando di surclassare il collega rivale con una versione beta di Whiteest White che dichiara di riflettere il 99,6% della luce.
Fonti - MIT engineers develop “blackest black” material to date MIT news
- Breakdown of Native Oxide Enables Multifunctional, Free-Form Carbon Nanotube–Metal Hierarchical Architectures Kehang Cui & Brian L. Wardle, (2019) ACS Applied Materials & Interfaces.
Nelle ultime due settimane sono stati assegnati i premi Nobel, tra i quali quelli che vale la pena sempre citare sono SOLO quelli per la medicina, la chimica (spesso attinenti a tematiche sovrapponibili) e la fisica.
La ragione del mio totale disinteresse per gli altri è che mentre questi sono basati su criteri e dati oggettivi gli altri due sono nel migliore dei casi basati su una totale (per quanto rispettabile) soggettività di giudizio (letteratura) per la natura stessa del lavoro giudicato e in altri è un veicolo puramente politico o ideologico (fatto salvo quello a Mandela o altri casi simili, cosa dire del Nobel ad un Obama appena eletto?)
Non che la valutazione delle scoperte scientifiche sia sempre trasparente od univoca ma di sicuro meno "opinabile". Nel caso del Nobel per la medicina di quest'anno si trattava di un riconoscimento atteso (dei 3 premiati Alter e Houghton avevano ricevuto già nel 2000 il Lasker Award for Clinical Medical Research, un riconoscimento che quasi sempre preannuncia il Nobel) per la scoperta del virus della epatite C in un'epoca ben lontana dagli strumenti di analisi odierni.
Anche i Nobel a Penrose (studio dei buchi neri) e al duo Charpentier-Doudna non sono sorprendenti sia per l'innegabile lavoro svolto (in verità decenni fa) dal primo che dal ben più recente sviluppo della tecnologia CRISPR-Cas di editing genomico nel secondo caso.
Degli studi sottesi si è parlato a lungo e ne potete leggere su molti siti/riviste di divulgazione. Quello che faccio oggi invece è quello di portare all'attenzione le voci fuori dal coro o il fare emergere punti nascosti che i giornali generalisti tralasciano (anzi, meglio dire che molto spesso non comprendono).
Lo faccio in questa occasione reindirizzandovi agli articoli in cui tali punti (esclamativi o interrogativi) sono stati sollevati.
Nobel per la Fisica
Mi riferisco alla "metà del Nobel" assegnato cioè quella a Roger Penrose (l'altra metà è stata assegnata al duo Genzel e Ghez). Una delle cose che affascina i media è da sempre la presenza in una notizia oggettiva di spunti su cui ricamare e costruire storie che spesso e volentieri travalicano le pur presenti affermazioni iniziali.
E' in un certo senso il caso di Penrose su cui in questi giorni potete leggere le cose più varie ed eventuali tra cui "la dimostrazione di un universo prima del nostro", "lo scienziato ateo che non esclude Dio" basate su alcune recenti affermazioni di Penrose che non sempre sono in linea con il lavoro da lui stesso sviluppato decenni prima (e a cui si riferisce il Nobel).
L'articolo che vi invito a leggere in proposito è quello del bravo Ethan Siegel, un astrofisico prestato poi a titolo definitivo a "scrittore di scienza" capace di tradurre ed elaborare concetti tosti perché siano compresi da non addetti al settore.
Diciamo che anche il suo buon amico (a volte "avversario") Stephen Hawking non avrebbe condiviso alcune "estrapolazioni" da lui fatte.
Clicca sull'immagine per andare all'articolo completo
A proposito di buchi neri, segnalo il recente comunicato dello European Southern Observatory (ESO) sull'osservazione delle ultime fasi di vita di una stella simile al Sole mentre viene "inghiottita", quindi spaghettificata, da un buco nero --> Death by Spaghettification
Nobel per la Chimica
Il metodo CRISPR-Cas nasce dallo studio del meccanismo evoluto dai batteri per difendersi dai virus incorporando l'informazione genetica di precedenti incontri a rischio in modo da fungere come "impronta digitale" con cui identificare e distruggere il portatore di questa sequenza al successivo incontro pericoloso fatto da una delle cellule "discendenti".
Charpentier e Doudna hanno trovato il modo per sfruttare ed "evolvere" questo meccanismo naturale in modo da usarlo come strumento potentissimo di editing genomico in laboratorio (sia su cellule isolate che in vivo iniettando virus portatori della "strumentazione" di editing).
Una applicazione eclatante di questa tecnica la si è vista nel caso dei bambini geneticamente modificati di cui ho scritto in passato (--> "La distopia è realtà").
Come impatto siamo dalle parti della PCR da parte di Kary Mullis (Nobel 1993) anche se ritengo quest'ultima nettamente più dirompente come impatto: si può parlare di una era pre e post PCR senza la quale, ad esempio, il Progetto Genoma o la diagnosi molecolare fatta in ore sarebbero impensabili.
Nota. Come al solito alcuni scrissero che la scoperta era "banale" o "già fatta" o "pensata" (i Nobel Khorana e Kleppe nel 1968) ma di fatto, e lo ricordo bene per averla vista in diretta, una tecnica anche solo potenzialmente simile alla PCR, prima di Mullis non esisteva nemmeno come argomento di discussione.
Di sicuro CRISPR-Cas ha rivoluzionato la progettualità nei laboratori di genetica molecolare permettendo approcci estremamente precisi in un tempo e a costi meno che frazionali rispetto al "prima".
Il "ma" in questo caso non si riferisce alla parte scientifica ma ad alcuni sottesi che sono stati bellamente ignorati dai media intenti a fotografare le due scienziate mano nella mano.
La verità è che da anni in corso una battaglia legale sui diritti di brevetto tra le due (o meglio tra gli istituti/enti a cui afferiscono). I soldi in ballo con questi brevetti farebbero impallidire il budget annuale della ricerca di tutto la UE e dintorni.
In parte ricorda la querelle Robert Gallo e Luc Montagnier (Nobel conferito al solo francese insieme a Barré-Sinoussi) su chi avesse veramente scoperto il virus HIV. Nel caso Charpentier-Doudna siamo molto lontani da quei toni, una battaglia più legata sui diritti di brevetto, una diatriba che va avanti in tribunale. L'articolo che qui allego si riferisce all'ultima fase della battaglia legale
Clicca sull'immagine per andare all'articolo completo
"Un libro non merita di essere letto a 10 anni se non merita di essere letto anche a 50" Clive S. Lewis
"Il concetto di probabilità è il più importante della scienza moderna, soprattutto perché nessuno ha la più pallida idea del suo significato" Bertrand Russel
"La nostra conoscenza può essere solo finita, mentre la nostra ignoranza deve essere necessariamente infinita" Karl Popper