CC

Licenza Creative Commons
Questo opera di above the cloud è concesso sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.

The Copyright Laws of the United States recognizes a “fair use” of copyrighted content. Section 107 of the U.S. Copyright Act states: “Notwithstanding the provisions of sections 106 and 106A, the fair use of a copyrighted work (...) for purposes such as criticism, comment, news reporting, teaching, scholarship, or research, is not an infringement of copyright.”
Any image or video posted is used according to the fair use policy
Ogni news è tratta da articoli peer reviewed ed è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto sia datato.
QUALUNQUE link in questa pagina rimanda a siti sicuri!! SEMPRE.
Volete aiutare questo blog? Cliccate sugli annnunci/prodotti Amazon (se non li vedete, disattivate l'Adblocker mettendo questo sito nella whitelist. NON ci sono pop up o script strani, SOLO Amazon). Visibili in modalità desktop! Se poi decidete di comprare libri o servizi da Amazon, meglio ;-)
Dimenticavo. Questo blog NON contiene olio di palma (è così di moda specificarlo per ogni cosa...)

I buchi neri. Una scoperta che ha radici nel settecento


Rendering del buco nero M87* (vedi fondo pagina per dettagli e per la 1a immagine diffusa) 
Credit: NASA
Alla domanda "chi ha proposto per primo l'idea di buco nero?" i primi nomi che verrebbero in mente sarebbero Albert Einstein, Stephen Hawking, Karl Schwarzschild o John Wheeler, che nel 1967, fu il primo ad usare il termine Black Hole durante una conferenza (NASA GISS), stufo di dovere ripetere "gravitationally completely collapsed object". 
Sebbene questi scienziati abbiano avuto un enorme impatto sull'astrofisica dei buchi neri, l'idea di un forte campo gravitazionale che altera la luce risale a molto prima, risale alla fine del '700 ad opera di un prete e professore di geologia dell'università di Cambridge di nome John Michell
Da sinistra Mitchell, LaPlace e Wheeler (credit: blackholecam)
Poco noto ai più ma considerato oggi il padre della moderna sismologia, e molto altro tra cui la descrizione teorica di quelle che chiamò Dark Stars, oggetti planetari in cui la velocità di fuga supera la velocità della luce.

L'ipotesi risale al 1783 quando Mitchell era già in pensione e faceva il rettore della chiesa di St. Michael a Thornill nello Yorkshire e (a tempo perso ...) dava sfogo alla sua inesauribile curiosità scientifica. 
L'articolo in cui esponeva le sue conclusioni apparve su The philosophical transactions nel 1784, una data non così lontana dall'essere temporalmente mediana tra la teoria della gravitazione universale di Newton e la teoria della relatività speciale di Einstein. 

In quel periodo Michell stava cercando di determinare un metodo per misurare la distanza e la luminosità delle stelle, usando come elementi di partenza le teorie della luce e della gravità. 
Il reverendo partiva dall'idea che la luce fosse costituita da una particella (un argomento estremamente dibattuto all'epoca) e che quindi la gravità potesse agire sulle particelle di luce nello stesso modo in cui agiva su tutti gli oggetti. 
Data l'incontrovertibile esistenza della gravità Michell cercò di calcolare la "velocità per raggiungere l'infinito", cioè la velocità di fuga, sulla Terra e nel Sole. Il ragionamento lo portò a considerare che se si spingeva la massa oltre un certo valore anche la forza di gravità sarebbe aumentata e con essa la velocità di fuga finché avrebbe raggiunto e superato la velocità della luce e a quel punto l'oggetto sarebbe apparso del tutto nero.
Nota. Una ipotesi formulata quando ancora non si aveva alcuna idea della reale velocità reale (sebbene nel 1676 il danese Ole Roemer provò che aveva un valore finito) e tantomeno che, come Einstein poi dimostrò, tale valore rappresentava un limite invalicabile e che nessun oggetto di massa poteva, per definizione, raggiungere. Alcuni presupposti di Mitchell (come la deduzione della velocità della luce ) non erano corrette ma qui importa il ragionamento con cui dedusse potessero esistere stelle nere invisibili agli occhi degli astronomi. Qui lui propose che se la stella nera avesse una compagna luminosa quest'ultima avrebbe fornito indizi sulla esistenza della prima; un sistema oggi ben noto quando si studiano sistemi binari in cui una stella è una stella di neutroni o un buco nero.
Una idea molto simile fu proposta nel 1796 dal matematico francese Pierre-Simon Laplace, che parlò di "corpo invisibile". Vero che la proposta fu di 10 anni successiva a quella di Mitchell ma il consensus attuale è che Laplace abbia sviluppato in completa autonomia questa teoria, fatto supportato dalla quasi totale assenza di comunicazione (non solo scientifica) tra Francia e Inghilterra in quel periodo di travaglio rivoluzionario. 

E' intellettualmente divertente ripetere oggi il processo matematico che portò Mitchell al concetto di stelle nere. 
Punto di partenza è la legge gravitazionale di Newton con la quale si può dedurre la velocità di fuga che è la condizione per cui l'energia cinetica pareggia l'energia potenziale gravitazionale.

Invece di risolvere per la velocità (come fatto nel precedente articolo), seguiamo Mitchell, cioè calcoliamo il raggio di un oggetto con massa M affinché abbia una velocità di fuga uguale alla velocità della luce (per cui sostituiamo Vf con c).
Eliminiamo per prima cosa la radice quadrata moltiplicando tutto al quadrato e moltiplichiamo entrambi i lati dell'equazione per R diviso "c" al quadrato, risolvendo poi per il raggio.
 
nota. "r" è da intendere in maiuscolo come nelle equazioni sopra (mio errore digitazione)

Ovvero, un corpo di massa M ha una velocità di fuga pari alla velocità della luce quando il suo raggio r è uguale a 2GM diviso C al quadrato. 

Da qui è immediato calcolare la dimensione che dovrebbero avere la Terra e il Sole affinché la velocità di fuga alla superficie sia uguale a quella della luce: 8,87 millimetri e 2,95 km, rispettivamente.
Piccoli? Le stelle di neutroni (da cui la recente conferma dell'esistenza delle onde gravitazionali) hanno un diametro inferiore all'isola di Manhattan (ca. 20 km)
In queste condizioni il Sole apparirebbe scuro dato che nessuna "particella di luce" (che noi oggi chiamiamo fotone) potrebbe fuggire da esso. Questo fenomeno, che nella fisica odierna rappresenta il caso più semplice di buco nero ("buchi neri di Schwarzschild ) fu previsto con il solo ausilio della fisica classica newtoniana.

Chiaramente Mitchell non poteva concepire l'idea di una densità di massa tale da giustificare stelle mignon, per cui ipotizzò una massa "sufficiente" allocata in stelle con raggio 500 volte quello solare in modo da allocare una massa sufficiente. Il risultato cambia poco data la predizione di stelle da cui è impossibile che la luce sfugga. 
Oggi si sa che mentre enormi masse (pari a miliardi di stelle solari) possono localizzarsi in buchi neri grandi tipo quelli nel centro galattico, la dimensione massima che può raggiungere una stella è vincolata a limiti precisi oltre i quali non ci potrà essere energia prodotta sufficiente per sostenere la massa soprastante. Ad oggi le stelle più grosse hanno raggio record di 2 mila volte quello del Sole.
L'equazione sviluppata da Mitchell sarebbe ricomparsa secoli dopo nella relatività generale di Einstein come soluzione di alcune equazioni e per spiegare l'orizzonte degli eventi (al posto di "R" si ha "REH" ad indicare il raggio della sfera che descrive l'orizzonte degli eventi - OE). Per il resto l'equazione predittiva delle Dark Stars di Mitchell è esattamente identica a quella ricavata da Einstein. Gli "oggetti" previsti sono invero diversi: per Mitchell era una stella con una propria "superficie" mentre oggi l'OE indica il punto oltre il quale si ha un collasso continuo, quindi impossibile avere una qualsivoglia idea di superficie.

Notevole quanto la matematica permetta di ottenere risultati talmente avanti nel tempo da non potere essere compresi ma solo "accettati", fino allo sviluppo di teorie adeguate. 
Nota. L'utilizzo della fisica newtoniana è sufficiente fintanto ci si trova in situazioni in cui la gravità è "debole", evidente quando la velocità di fuga calcolata è una mera frazione della velocità della luce. Condizioni che si trovano quando si mette in orbita un satellite o si calcola la traiettoria per andare sulla Luna e tornare (la velocità di fuga dalla Terra è 11,2 km/sec, circa 27 mila volte minore di "c". L'accurata predizione di quanto avviene con gravità tali da causare velocità di fuga intorno al 10% di "c" necessitano delle equazioni della teoria generale della relatività.

Fonte

***Note finali***

La prima immagine di M87* risale ad aprile 2019, qui di seguito in formato GIF che è di fatto un time lapse di 8 anni
Credit: Event Horizon Telescope Collaboration; gif compiled by Nature
Una immagine arricchita a fine marzo 2021 con i dettagli del campo magnetico
Immagine del buco nero al centro della galassia M87 in luce polarizzata. Le linee indicano l’orientazione della polarizzazione, legata al campo magnetico che circonda l’ombra del buco nero. Image Credit: Eht Collaboration.
Testo: INAF

Descrizione video dell'immagine precedente (all credit to youtube/INAF)



Di seguito i dettagli dell'immagine in apertura
Per dettagli vedi il sito della NASA e una spiegazione ottica del fenomeno QUI.

Credit: ESO

Altri dettagli sul perché lo vediamo in un certo modo (image credit: Nature)
Articolo successivo sul tema --> Virtualizzazione di 2 buchi neri supermassicci.


Aggiornamenti.


Astemi e chi abusa di alcol a maggior rischio di demenza? Troppe variabili

Il lavoro che cito oggi non è in verità  recente essendo rimasto in "naftalina" dal 2018 in attesa di conferme o smentite da terze parti.
Image credit: ucl.ac.uk.


La ragione prima è che questo genere di studi sono esposti a molteplici varianti la cui non corretta valutazione può portare a conclusioni totalmente fuorvianti e dannose da un punto di vista comunicativo. Dire infatti che l'astemia porta con sé un aumento del rischio demenza simile a quello associato all'abuso di alcool è un concetto comprensibile e razionalizzatile da chi fa ricerca clinica ma fraintendibile per la persona comune.
 
La successiva pubblicazione di un largo studio epidemiologico cinese e quest'anno di altri due lavori chiude di fatto il cerchio arrivando a conclusioni anche opposte, quindi è giunto il tempo di mettere fianco a fianco i vari studi per sottolineare i rischi di conclusioni affrettate, specie nell'indagine epidemiologica.
 
Cominciamo con lo studio britannico del 2018 condotto da un gruppo della UCL e pubblicato sul British Medical Journal.
Condensando il tutto in due righe, lo studio osservazionale condotto su individui di mezza età con "abitudini etiliche" diverse, indicava che sia gli astemi che chi consumava più di 14 unità di bevande alcoliche (la soglia di "consumo normale" in UK) era a maggior rischio di ricevere una diagnosi di demenza negli anni successivi rispetto ai consumatori di alcool nelle categorie intermedie.
Lo studio è importante in un mondo che invecchia, in cui i disturbi neurologici diventeranno parte preponderante della pratica clinica.
Il campione analizzato era costituito da poco più di 9 mila cittadini britannici di età compresa tra 35 e 55 anni, già arruolati all'interno di un maxi studio osservazionale (Whitehall II) finalizzato a misurare l'impatto di fattori sociali, comportamentali e biologici sullo stato di salute a lungo termine.
Nel periodo compreso tra il 1985 e il 1993 i partecipanti furono visitati ad intervalli regolari registrando nel contempo anche il loro consumo dichiarato di alcool.
 A partire dal 1991 si cominciarono a registrare eventuali degenze legate a patologie da alcool, cardiovascolari o diagnosi di demenza.
Tra tutti i partecipanti, i casi di demenza registrati durante il follow-up durato circa 23 anni, sono stati 397 (età media alla diagnosi, 76 anni)
Dopo avere normalizzato per fattori di rischio familiare, sociodemografici, stile di vita e correlati alla salute (ad esempio conseguenti ad altre patologie) il dato che emergeva era che sia astemia che  consumo eccessivo erano di loro un fattore di rischio.
Un dato curioso ma non cosi sorprendente se contestualizzato a studi oramai storici come il classico studio di Tromsø. Verosimile che i fattori di rischio aumentato sottostanti a consumo nullo o eccessivo siano tra loro diversi, ma sul legame causa-effetto ben poco potevano dire i ricercatori (un limite intrinseco agli studi osservazionali); non si poteva nemmeno escludere che gran parte del rischio aggiuntivo fosse legato a fattori confondenti non debitamente pesati.
Lo studio di Tromsø (sia nella versione del 1986 che in una variante successiva del 2011 riferita alla relazione tra alcool e tromboembolismo, TVE) aveva mostrato un certo effetto protettivo contro eventi cardiovascolari associato al consumo basso-moderato di alcool rispetto al non consumo o al consumo eccessivo. Nel dettaglio si osservava una protezione del 22% di eventi TVE nel solo caso di assunzione di vino in dosi  >= 3 unità/settimana (1U= 14 grammi di alcool). Una correlazione, è bene ricordarlo, NON associata al solo alcool ma al "veicolo", vale a dire vino contrapposto a superalcolici o birra.

Nel 2019 un imponente studio cinese pubblicato su Lancet basato su mezzo milione di persone non confermava il nesso causale tra il consumo (minimo) di alcool e l'effetto protettivo. Lo studio in sé era interessante perché sfruttava controlli interni basati su varianti genetiche, comuni in Cina, associate a non tolleranza per l'alcool (quindi un ottimo controllo dei "veri" astemi). Importante sottolineare che il consumo di alcool qui monitorato è riferito a prodotti diversi dal vino, elemento invece centrale per paesi come Francia e Italia.

Arriviamo nel 2021 ed ecco arrivare un nuovo studio in cui si scopre che l'alcool anche a dosi moderate (il classico "un bicchiere al giorno") porta con sé un aumento del rischio di fibrillazione atriale. Anche qui il problema è che si prende in esame la quantità di alcool contenuta in un bicchiere di vino, birra, etc ma non la bevanda in sé (e il vino è qualcosa di molto più complesso dell'alcool etilico in esso contenuto, vedi resveratrolo a antiossidanti vari).

Sempre nel 2021 un altro studio cinese indica che un consumo inferiore a 25 grammi a settimana abbassa il rischio di eventi cardiovascolari, cancro e mortalita generale.

Chiudo con una metanalisi del 2018 su Lancet, che conclude: "la quota di alcool che minimizza il rischio di eventi terzi è pari a ZERO".

Come direbbero in USA, the jury is still out per valutare appieno il rischio legato all'assunzione anche minima di alcool e soprattutto nel caso del vino.


Fonti
Ciascun riferimento bibliografico è in hyperlink all'articolo citato.

Scoperti 3 squali "che brillano nell'oscurità

Scoperto al largo della Nuova Zelanda quello che ad oggi è il più grande tra i vertebrati capaci di bioluminescenza. Ho usato il singolare ma in realtà sono 3 le specie di squali descritti nell'articolo appena pubblicato che in comune hanno l'habitat sui fondali a media profondità (tra 50 e 1200 metri). Di questi il più grande con il suo metro e mezzo abbondante è il Dalatias licha.
La cattura degli esemplari (13 squali pinna nera, 7 ventre neri e 4 lanterna del sud) risale a gennaio 2020, da cui lo studio pubblicato questo febbraio sulla rivista Frontiers in Marine Sciences.
La vista diurna e con bioluminescenza del Dalatias licha vista di lato (A) e dorsale (B). La luminescenza della seconda pinna dorsale è indicata dalla freccia rossa. La barra della scala corrisponde a 10 cm. (Image Credit: Jérôme Mallefet et al, Front. Mar. Sci.)


La bioluminescenza ovvero la produzione negli organismi di luce visibile attraverso una reazione chimica, è un fenomeno diffuso tra la vita marina (specie negli invertebrati e organismi planctonici) ma meno nei vertebrati. Anzi finora io associavo la bioluminescenza dei vertebrati marini alle specie abissali immerse nel buio perenne, abitanti della zona afotica (sotto i 1000 metri), mentre questi squali sono tipici abitanti della zona crepuscolare degli oceani.
L'origine della bioluminescenza può essere sia endogena che mediata da batteri simbionti ospitati in speciali organi; nel caso dello squalo l'origine è endogena. Nella pelle di tutte e tre le specie, i ricercatori hanno trovato fotofori, strutture ghiandolari responsabili della produzione della luce mediante reazioni chimiche.
Elemento interessante che in tutti questi squali la produzione della luce è controllata da ormoni e si tratta dell'unico caso noto tra gli animali. L'innesco è mediato dalla melatonina  mentre lo spegnimento è mediato dagli ormoni alfa-melanocitici (α-MSH) e adrenocorticotropi (ACTH).
Lo scopo della produzione del bagliore è ancora oggetto di discussione. Negli animali mesopelagici la bioluminescenza è usata per attirare un compagno o una preda, mimetismo o confondimento (in inglese schooling per indicare il comportamento di masse di pesci singoli ad agire in sincrono dando l'idea di un organismo più grosso e altrettanto elusivo per un predatore). Nel caso di questi squali la difesa (specie per i pinna nera che sono quasi al vertice della catena alimentare) avrebbe solo una utilità limitata, difesa da altri squali più grossi. Probabile che tale mimetismo sia però anche utile ai fini della predazione.
Non a caso la bioluminescenza non è uniforme ma si concentra nella zona ventrale il che per animali che bazzicano i fondali in una zona in cui dall'alto riesce ancora ad arrivare la luce, permette un maggior occultamento rispetto ad una massa scura che oscura il fondale.

Rimane da comprendere però perché la bioluminescenza sia presente, e ben visibile, anche sulla pinna dorsale.
Fun fact. Anche gli umani emettono una debole, ma presente, luminescenza come scoperto da una team di ricerca giapponese. No, non si tratta della ben nota emissione termica visibile con i visori all'infrarosso.

Fonte
- Bioluminescence of the Largest Luminous Vertebrate, the Kitefin Shark, Dalatias licha: First Insights and Comparative Aspects
Jérôme Mallefet et al, Front. Mar. Sci., 26 Feb. 2021




Un gruppo di "piccoli" buchi neri (o nane bianche?) dove ci si aspettava di trovarne uno medio

La serendipità di alcune scoperte è un fenomeno noto a chi fa ricerca. L'abilità sta nel comprendere il risultato inatteso senza farsi fuorviare dai propri preconcetti teorici.
Questo hanno fatto gli astronomi intenti a studiare il centro dell'ammasso globulare NGC 6397 per scovare le prove degli elusivi buchi neri intermedi.
Rappresentazione artistica del centro dell'ammasso globulare
(Credit: ESA/Hubble, N. Bartmann)

Gli ammassi globulari sono sistemi stellari estremamente densi, che ospitano stelle raggruppate. Si tratta di sistemi in genere molto vecchi e il NGC 6397 lo è, con una età solo di poco inferiore a quella dell'universo; nel suo caso, data l'elevata densità è noto come cluster collassato. Non che questo sia raro da trovare ma il pregio di questo ammasso è nel suo trovarsi a "soli" 7800 anni luce da noi, rendendolo uno degli ammassi globulari più vicini alla Terra. 
L'ammasso stellare NGC 6397, catturato dal telescopio spaziale Hubble, è quasi vecchio come l'universo con i suoi 13 miliardi di anni, e contiene circa 250 mila stelle, tutte vecchie, piccole e deboli.
 Credit: NASA, ESA, T. Brown, S. Casertano, J. Anderson (STScI)

I dati disponibili avevano fatto pensare che al suo interno vi fosse un buco nero di massa intermedia e questo era un motivo più che sufficiente per studiarlo. Ogni galassia ha un buco nero al centro ma si tratta in genere di buchi neri supermassicci (quello della Via Lattea, SgrA*, non è nemmeno troppo grosso con i suoi 4 milioni di masse solari).

I buchi neri intermedi sono infatti l'anello mancante, a lungo cercato tra i buchi neri supermassicci e i buchi neri di massa stellare (poche volte la massa del nostro Sole) la cui origine è correlata al collasso di singole stelle massicce.
La loro mera esistenza è da tempo oggetto di accesi dibattiti visto che è difficile ipotizzare una relazione tra l'incremento di massa e semplici eventi di inglobazione di materia (che un buco nero mini si sia pappato qualche milione di stelle o altri mini buchi neri è ritenuto improbabile).

Durante la caratterizzazione di questo ipotetico buco nero intermedio, i ricercatori si resero conto che la massa invisibile nel nucleo dell'ammasso (invisibile per ovvie ragioni) non era puntiforme come atteso ma copriva una certa percentuale dell'area ad indicare che dovevano essercene diversi.

Necessario fare un passo indietro e capire come fanno gli astrofisici a dedurre la presenza di una massa che seppur enorme sarebbe invisibile, specialmente quando inerte (alias "non si sta cibando" della materia circostante). Il metodo usato è quello di misurare le velocità e il percorso delle stelle nella parte più centrale dell'ammasso così da trovare il "perno" attorno a cui orbitano. Maggiore la massa in un punto, più velocemente le stelle si spostano attorno ad esso. 
L'immagine seguente rende meglio il concetto di come sia stata mappata la posizione di SgrA* al centro della Via Lattea.
Disponibile anche in versione youtube -->QUI.

La precedente immagine dopo la mappatura fatta al computer
(credit: Keck/UCLA Galactic Center Group via meeplephd.com)

Misurazioni di tale precisione e per tali distanze necessitano di tempo (anni) e di strumenti precisi e privi di interferenze atmosferiche (il telescopio spaziale Hubble con l'aggiunta dei dati del satellite Gaia).

L'analisi ha rivelato che le orbite delle stelle erano quasi casuali in tutto l'ammasso globulare, invece che circolari o molto allungate. La conclusione tratta è che la componente invisibile poteva essere costituita solo da un insieme di masse stellari, come i resti di stelle massicce (nane bianche, stelle di neutroni e buchi neri). A causa di fenomeni di attrito dinamico (immaginiamolo come una specie di flipper stellare) questi cadaveri stellari sono progressivamente affondati al centro dell'ammasso, spinti dalle interazioni gravitazionali con stelle meno massicce nelle vicinanze: la traiettoria è spiegabile con uno scambio di quantità di moto per cui le stelle più pesanti vengono segregate nel nucleo dell'ammasso e le stelle di massa inferiore migrano alla periferia dell'ammasso (per dettagli vedi anche qui).
La maggior parte della massa extra trovata era sotto forma di buchi neri. 
La conclusione che buchi neri di massa stellare potrebbero popolare le regioni interne degli ammassi globulari viene anche da altri studi.

Video riassuntivo del contenuto dell'articolo
Se non vedi il video clicca su --> youtube (credit: NASA Goddard)


I risultati ottenuti hanno fatto ipotizzare ai ricercatori che eventi di fusione tra i buchi neri in questi ammassi globulari potrebbero originare onde gravitazionali rilevabili con il LIGO (Laser Interferometer Gravitational-Wave Observatory).

NOTA. Un articolo ora in fase di revisione va contro le conclusioni di Vitral & Mamon. Gli autori (NZ Rui et al) sostengono non trattarsi di un folto gruppo di buchi neri stellari ma di molte nane bianche. Vedremo nelle prossime settimane se i revisori riterranno i dati raccolti sufficienti per la pubblicazione.

Fonte
Does NGC 6397 contain an intermediate-mass black hole or a more diffuse inner subcluster?
Eduardo Vitral & Gary A. Mamon, (21 Feb. 2021), Astronomy and Astrophysics

- No Black Holes in NGC 6397
Nicholas Z. Rui et al, arXiv (10 marzo 2021)



Non c'è solo Betelgeuse

Betelgeuse (stella preferita perché grande, arancione e ... mi ricorda Beetlejuice😉) è una gigante rossa che terminerà tra non molto (astronomicamente parlando) la sua vita con l’effetto pirotecnico della supernova prima e dell’inevitabile collasso in un buco nero poi.
La cosa di per sé non avrebbe nulla di curioso essendo il destino comune a tutte le stelle massicce. 
Diventa però interessante perché con i suoi 640 anni luce  è la stella massiccia più vicina e per di più lo scorso anno ha mostrato un calo del 20% della luminosità, fenomeno che aveva fatto ipotizzare l'essere pronta al collasso gravitazionale che innesca la supernova (vedi l'articolo precedente sul tema).
Ipotesi quest’ultima che è venuta meno dopo che gli astronomi hanoo scoperto che la variazione di luminosità era conseguente ad una imponente espulsione di materia che aveva creato immense nubi di polvere e gas nella nostra direzione, oscurando così parte del segnale.
Schema che riassume la cause della apparente perdita di luminosità di Betelgeuse. 
(Illustration credit: credit: NASA, ESA, and E. Wheatley, STScI)
Temete l'effetto di una supernova o di un γ-ray burst? Fate bene, ma almeno nel caso di Betelgeuse siamo ragionevolmente ad una distanza di sicurezza, stimata, per le supernova, in 50 anni luce. Vedi anche l'interessante articolo sulla nostra "fortunata" posizione galattica.

Ma se pensiamo che Betelgeuse con la sua massa 11 volte quella del Sole e una luminosità 135 mila volte superiore, sia un vicino a cui … è meglio non essere troppo vicino data la sua corta vita, che dire allora di VY Canis Majoris, un vero gigante che per di più sta attraversando un lungo periodo di apparente affievolimento dovuto alle sue stesse emissioni di gas e polvere?
Un articolo pubblicato lo scorso mese su The Astronomical Journal ne analizza l’evoluzione grazie ai dati ottenuti con il telescopio spaziale Hubble.

L’astro è una ipergigante rossa (con raggio, massa e luminosità di 1420, 15 e 300 mila volte quelle solari) distante 3840 anni luce. Tradotto in termini meno astratti, se sostituissimo la stella al nostro Sole, questa occuperebbe lo spazio ben oltre l'orbita di Giove. 
VY Canis Majoris, il Sole e l'orbita terrestre messi a confronto (image credit: Oona Räisänen )
Il record dimensionale va però a UY Scuti con raggio, massa e luminosità di 1708, 8 e 340 mila volte quelle solari. 
credit: Faren29.
A differenza di Betelgeuse che è facile individuare nel cielo anche per il suo colore arancio, VY Canis Majoris (VY CM) non è oggi più visibile ad occhio nudo in seguito all'espulsione di enormi quantità di materia (circa 100 volte quelli persi da Betelgeuse), i cui “pezzi” singoli hanno massa doppia di Giove!
Si ritiene che tali eventi siano originati da fenomeni convettivi simili a quelli che originano le eruzioni solari (basati su celle convettive) ma chiaramente su scala gigante; per capirci, ciascuna cella convettiva su VY CM è grande come il Sole!
Per rendere l'idea delle dimensioni cominciamo ad osservare quello che avviene con le protuberanze solari che in genere danno luogo ad un arco.
Immagine di una protuberanza solare particolarmente grande affiancata per soli fini comparativi a Giove (a fianco la minuscola Terra). (Image credit: NASA, Goddard SFC)

Dettaglio di un arco coronale sul Sole visto dalla sonda TRACE con un filtro specifico per raggi X (171 Å). Si tratta di strutture magnetiche chiuse (analoghe a quelle chiuse presenti nei buchi coronali delle regioni polari e nel vento solare) che emergono dalla superficie del sole e sono pieni di plasma caldissimo. A causa di tale attività magnetica gli archi coronali possono essere i precursori dei brillamenti e delle espulsioni di massa coronali. La temperatura in queste zone arriva al milione di kelvin rispetto ai meno di 10 mila della sottostante fotosfera (image credit: NASA)

Scaliamo verso l'alto queste strutture ed avremo quelle di VY CM con archi di plasma che partono dalla stella e si estendono per migliaia di unità astronomiche (1 UA è la distanza Terra-Sole).

Ingrandimenti progressivi di VY Canis Majoris in una composizione di immagini di Hubble e (ultima a dx) una rappresentazione artistica. Da sinistra l'immagine multicolore della enorme nube di materia emessa dalla stella (la nube è ha un diametro di oltre 10 mila UA) e lo zoom sulla regione. Il puntino rosso al centro serve per indicare la dimensione del nostro sistema solare fino a Nettuno che coincide con la dimensione della stella. Clicca per ingrandire o vai all'originale (credit: NASA)

L’enorme nube di materia emessa dalla stella ipergigante vista da Hubble.
Image credit: Nasa, Esa, R. Humphreys
La differenza rispetto a quelli solari non è però solo dimensionale. Mentre le protuberanze solari  formano archi che in buona parte ricadono sulla stella, quelli di Canis maioris sono veri e propri getti che si perdono nello spazio e con essi se ne va la luminosità stellare.
Un affievolimento rivelatosi molto utile ai ricercatori per datare l'inizio degli eventi eruttivi. A tale scopo si sono concentrati sul movimento e velocità delle masse di plasma più vicine alla stella; i risultati hanno confermato il dato aneddotico (scomparsa dalla osservazione a occhio nudo) datando l'inizio delle emissioni nel periodo a cavallo tra il 19esimo e 20esimo secolo.
Più importante di tutto, i dati hanno fornito informazioni uniche sulla dinamica stellare di questi giganti stellari.
Si tratta infatti di stelle "rare" data la loro vita esiziale rispetto alle nane rosse (poche decine di milioni di anni contro decine di miliardi), meno probabili in galassie antiche (più ricche di elementi pesanti) e con maggiore densità nelle zone di alta formazione stellare. Tradotto, avere a portata di telescopio uno di questi giganti in una fase instabile è un evento che difficilmente si ripeterà ... di sicuro non su scala umana. 
 

Fonte
- The Mass-loss History of the Red Hypergiant VY CMa* 
Roberta M. Humphreys et al, The Astronomical Journal (2021)
- Hubble Solves Mystery of Monster Star's Dimming


A corollario del caso VY Canis Majoris aggiungo alcuni dati su una "semplice" gigante rossa, V Hydrae (raggio, massa e luminosità pari a 430, 1 e 7850 volte quelle solari, quindi di fatto una stella solare giunta a fine vita), distante 1200 anni luce da noi.
I dati, forniti ancora una volta dal telescopio Hubble, riportano l'emissione dalla stella di "bolle" di gas ultra caldo (9400 gradi, il doppio della temperatura della stella) di dimensioni doppie del pianeta Marte. Le sfere di plasma (chiamate "cannonballs" nell'articolo) sono scagliate alla ragguardevole velocità di 700 mila km/h.

Secondo il comunicato della NASA/JPL queste palle di fuoco compaiono ogni 8,5 anni da almeno 4 secoli.

Sull'origine di queste bolle c'è stata sempre incertezza. Se in precedenza, gli astronomi avevano ipotizzato si trattasse da qualcosa di simile a dischi di accrescimento (materiale in orbita attorno alla stella che viene spinto via dall'attività stellare) la spiegazione era troppo stirata e senza vere fondamenta. 

I nuovi dati di Hubble suggeriscono ora che la causa prima sia una invisibile (perché oscurata dal luminoso vicino) compagna in quello che quindi risulterebbe essere un sistema binario.  Secondo questa ipotesi tale compagna si verrebbe ogni 8,5 nella parte più prossimale della sua orbita ellittica; quando questo accade parte del materiale degli strati più esterni della gigante rossa verrebbe "risucchiato" sotto forma di disco dalla stella transitante e infine (con qualcosa di simile ad un effetto fionda) scagliato nello spazio mentre si allontana.

L'ipotesi è intrigante perché potrebbe spiegare molte altre osservazioni con le stesse caratteristiche, tutte viste nei pressi di stelle morenti.


I dati sono stati ottenuti grazie allo spettrografo per immagini (STIS) montato su Hubble e copre un intervallo di tempo di 11 anni.

La spettroscopia decodifica la luce dell'oggetto, rivelando informazioni su velocità, temperatura, posizione e movimento.

Lo studio è stato pubblicato su "The Astrophysical Journal".







Su varianti, ceppi e altro

Le varianti virali sono un argomento, ahinoi, attuale ma i cui termini descrittivi sono usati in modo incongruo o non consapevole perfino da alcuni addetti ai lavori, figuriamoci dai media e dalle persone che da questi traggono le informazioni. 
Per un riassunto delle varianti di SARS-CoV-2 più rilevanti vi rimando al precedente articolo.
Il tema non è semplice specie quando si parla di microorganismi, non solo per le micro-dimensioni ma per il venir meno di alcune possibilità di categorizzazione basate sulla riproduzione sessuata (specie) che permette di alzare confini, funzionali e non solo morfologici, tra organismi.
Del resto se in ambito animale (vegetale) è l'esame di zoologia I (botanica generale) a fornire le basi per comprendere il grado di parentela facendo riferimento a chiavi di anatomia comparata così da distinguere i casi di evoluzione convergente da quella di "cugini diversi", in ambito microbico l'approccio morfologico serve come prima scrematura e per tutto il resto si deve procede per via genetica.
Esempio banale? Un verme segmentato e un millepiedi appaiono ben più simili che una medusa e un corallo eppure i primi due appartengono a Phyla diversi (anellidi e artropodi, rispettivamente) mentre gli ultimi due sono entrambi cnidari.
Se vogliamo contestualizzare i termini in voga perfino nel linguaggio corrente quando si parla di batteri e virus (ceppo, variante, linea, mutante ...) dobbiamo prenderla un poco alla lontana risalendo alle prime tecniche di classificazione basate su approcci opposti come "raggruppare" o "trovare differenze". Il tutto per risalire a domande come "è una nuova specie?" o "è un nuovo virus?".

Parte fondante del problema è che, per ragioni legate all'evoluzione, tutti gli organismi sono collegati. Differiscono solo per una questione di grado, funzione questa di quanto indietro nel tempo bisogna risalire per trovare l'antenato comune; possiamo visualizzare il concetto pensando al nodo che separa due rami dell’albero (evolutivo). 
I tentativi di catalogare la natura sono vecchi quanto (e anche più) Aristotele e hanno visto la lotta tra lumpers (approccio raggruppatore) e splitters (approccio differenziante) con i primi che facevano piu attenzione ai tratti che univano le famiglie e i secondi alle differenze che permettevano di creare nuove famiglie.
A complicare le cose l’assenza di accordo sull'importanza relativa delle caratteristiche misurate; assenza del tutto comprensibile nel mondo pre-molecolare e soprattutto pre-genomico.
 
A vederla con occhi moderni questa diatriba ha un forte sentore di filosofia e non a torto.
Lo stesso Charles Darwin era ben consapevole del problema e con il suo lavoro pose le basi per una nuova catalogazione, evolutiva oltre che descrittiva.
Da allora il confine tra specie fu tracciato nella compatibilità riproduttiva totale, alias generare progenie ugualmente vitale ma soprattutto fertile. Ecco perché cavalli e asini appartengono a specie diverse (sebbene simili) mentre un boxer e uno yorkshire sono la stessa specie (cani) anche se esteriormente molto diverse. Un punto che indica quanto differenze o somiglianze possano essere fuorvianti (vedi anche nota a fondo pagina su Homo sapiens e neanderthalensis).


Quando si passa a batteri e più ancora ai virus, il primo problema che incontriamo è che stiamo osservando minuscole forme al microscopio di cui possiamo certo distinguere differenze morfologiche come il filamentoso Ebola e uno sferoidale con protuberanze coronavirus (o nel caso dei batteri tra forme bastoncellari e cocchi, Gram positivi e negativi, ...) ma non possiamo sfruttare appieno il concetto di specie come faremmo con gli animali sia per ragioni di riproduzione asessuata che per la capacità di questi di scambiare materiale genetico anche tra membri molti diversi tra loro (problema questo alla base della diffusione della resistenza agli antibiotici).

Qui il molecolare non è più solo uno strumento ma LO strumento, usato ad esempio per studiare la parentela tra il SARS-CoV-2 e il primo membro "famoso" dei coronavirus il SARS-CoV (l'agente causale della SARS). Grazie a questo approccio si è compreso che il primo non è una variante del secondo ma un ramo laterale così come le scimmie attuali non sono i nostri antenati ma "cugini" con cui condividiamo un antenato comune. Solo semantica? No, comprensione della dinamica evolutiva.
Albero filogenetico ottenuto mediante ricostruzione bioinformatica.
Clicca per ingrandire o vai alla pagina dell'articolo originale (credit: Antibodies 2021, 10(1) 3 )


Nello studio dei virus molte sono le informazioni, molecolari e non, che contribuiscono alla caratterizzazione. Si inizia con la prima scrematura morfologica per passare al tipo di genoma posseduto (DNA, RNA, singolo o doppio filamento, numero di segmenti, ...) per cercare infine di rispondere a quesiti tipo: quanti e quali sono i geni codificati, e come sono organizzati nel genoma; com'è il ciclo riproduttivo; le caratteristiche delle proteine di superficie; etc.
 
Ed ecco allora che finalmente ci si imbatte nel termine ceppo (strain) che in verità non ha valenza analitica univoca ma dipende molto da chi lo usa o dal contesto in cui è usato. Termine in ogni caso più usato del ben più generico mutante, che può indicare sia un dato fenotipico che il portatore di una singola mutazione non silente ma funzionalmente non caratterizzante.
Il termine ceppo è ancora più elusivo da spiegare del termine razza animale (cani, bovini, etc) in quanto almeno in quest'ultimo caso si riferisce alla stessa specie con tratti morfologici univoci risultante da incroci selettivi. Con ceppo si intende un isolato emerso da colture di laboratorio come potrebbero essere le cellule di una singola colonia batterica presente in una piastra di Petri. 
Alcune persone usano questo termine per definire una "versione" specifica del virus isolata in un determinato momento. Altri invece lo usano per indicare un particolare "gruppo" in cui ogni membro è più simile agli altri membri del gruppo che ai membri di altri gruppi.
Confusi? Ricordate che ogni volta che avviene una infezione produttiva in una cellula la progenie virale porterà molte varianti e se queste daranno origine a ceppi distinti sarà solo soltanto perché hanno avuto (maggiore) successo rispetto alle "sorelle" nel generare una linea propria.
 
Ci imbattiamo così nel termine genetic lineage (linea genetica) che meglio dà il senso di quello che si vuole comunicare; anche qui però si impone una contestualizzazione perché potrebbe indicare sia un (oramai) ramo principale dell'albero genetico che una sottolinea, un piccolo ramo all'interno di un ramo più grande. In ogni caso il termine ci informa che stiamo guardando una popolazione in evoluzione e che ci si trova di fronte alla domanda se quanto questa linea vale la pena di essere seguita o se è un evento spurio che verrà diluito in fretta nel mare magnum della progenie virale. 
La linea NON è nulla di statico ma accumulerà altre mutazioni la cui rilevanza ne determinerà il successo o la scomparsa

 

Ricapitolando se sentite il ​​termine "ceppo" non è la descrizione migliore perché dipende se si sta parlando del virus isolato da uno specifico campione / paziente o della sottofamiglia di isolati correlati a quello originale che ha dato origine all’epidemia. In genere tra gli addetti ai lavori lo si usa quando si intende riferirsi al secondo caso (il messaggio sotteso è la trasmissione del ceppo).


Il SARS-CoV-2 ci offre un perfetto, e attuale, esempio dello sforzo di classificare e tracciare l'eterogeneità del pool virale in circolo in linee e sotto-linee: lo scopo è monitorare la dinamica della diffusione del virus sia a livello locale che globale.
Data la palese eterogeneità, a cosa sono riferite le differenze? La sequenza "standard" deriva sia dal primo isolato virale che dalla definizione di una "sequenza di consenso" che riporta la base nucleotidica più frequentemente osservata in ogni posizione del genoma, ben sapendo che c'è una variazione minore in ogni posizione tra le zilioni di particelle virali generate durante un singolo ciclo infettivo a causa delle mutazioni. Nel caso in esame il riferimento è al virus isolato a Wuhan all'inizio dell'epidemia.

Il seguente grafico, tratto dall'articolo "A dynamic nomenclature proposal for SARS-CoV-2 lineages to assist genomic epidemiology" rende l'idea di cosa intendevo con eterogeneità all'interno del virus causa del Covid19.
Cliccate per ingrandire o andate direttamente alla pagina originale dell'articolo.
Le 3 colonne laterali a destra rappresentano tre diversi livelli di raggruppamento/divisione a seconda di quanto si vuole entrare nel dettaglio. Notate come le "punte" di ogni ramo abbiano la forma di un triangolo allungato per dire"qui sono presenti n rametti che non disegneremo individualmente". 
(credit: A. Rambaut et al, Nature Microbiology (2020)5, pp1403–07)

Volete qualcosa di più dettagliato? L'albero filogenetico interattivo presente sul sito nextrain.org fa per voi. Qui compare un nuovo termine, CLADE, che in virologia fa da contenitore per i gruppi simili unicamente sulla base delle sequenze genetiche. Uno strumento fondamentale per seguire l'evoluzione di una linea senza confondersi con "mutazioni convergenti".
Cliccate per ingrandire o andate direttamente sul sito.
 
Arrivare a questo livello di tracciamento è oggi possibile grazie all'evoluzione delle tecniche di sequenziamento (quando ai miei tempi sequenziare un gene era un lavoro di una equipe di ricercatori che durava anni) e ai software che permettono di analizzare e assemblare il genoma di migliaia di isolati virali in automatico che verranno poi assegnati a linee sulla base di una serie di "mutazioni che definiscono la linea”.

E il temine "mutazione"?
Le mutazioni sono qualsiasi cambiamento nel genoma dell'oggetto in studio; in teoria geni, ma in realtà anche regioni non codificanti e per esteso gli organismi portatori, siano essi multicellulari o microbi, una volta che tale alterazione sia stata fissata.
 Le mutazioni sono eventi intrinseci e fondanti l'evoluzione, risultato sia di errori di copiatura durante la replicazione del genoma che (dove presente) errori compiuti dal sistema di riparazione del genoma su danni causati da agenti ambientali. La fase di copiatura è un passaggio critico tanto che le cellule (e alcuni virus) hanno evoluto meccanismi di proof-reading (correzione di bozze) per eliminare gli errori nel momento stesso in cui sono compiuti.
Molti virus privi di questo controllo, specialmente quelli a RNA il cui macchinario replicativo è di per sé a rischio errore, avranno un elevato tasso di errore (tra 106 e 104) che se da una parte comporta la produzione di virus non funzionali, dall'altra assicura una variabilità intrinseca che rende il virus in grado di rispondere prontamente alle sfide ambientali, tra cui eludere la risposta immunitaria.
Curiosamente il SARS-CoV-2 in particolare e i coronavirus in generale sono virus a basso tasso di errore (compatibilmente con l'essere virus a RNA) essendo dotati di proof-reading.
Ma parliamo pur sempre di virus per cui quando una cellula viene infettata, anche da un singolo virione, la popolazione virale che emergerà (dati i numeri) avrà una certa probabilità di avere varianti "utili": la probabilità è funzione sia della "lotteria" delle mutazioni (gene e tipo di mutazione) che di puro caso(il virus emerso troverà qualcuno da infettare?)

Quando un virus entra in contatto con un nuovo bersaglio, ogni anello della catena di trasmissione rappresenta un nuovo punto di partenza nell'evoluzione del virus sia questo un ramo minore di una linea preesistente o un nuovo ramo dell'albero come quello l'evento zoonotico che ha dato origine alla pandemia (un virus "nato" in un pipistrello che ha differenza dei suoi consimili aveva acquisito mutazioni tali da rendere permissiva l'infezione e la replicazione in cellule umane).

Ogni individuo infetto genera una nuvola di varianti e una singola variante può infettare l'individuo successivo. Il suo successo dipenderà dalla capacità di sfuggire agli anticorpi, efficienza di replicazione, virulenza, riconoscimento del bersaglio, …. . Della sola proteina Spike sono state descritte 4 mila mutazioni, ma solo poche sono "utili" al virus e ancora meno quelle emerse come parte costituenti una linea.
Questo fenomeno spiega per quale motivo le persone con infezione cronica o con durata durata molto maggiore del normale, come tipico dei pazienti nelle ICU sottoposti a trattamenti sia sintomatici che antivirali, sono i perfetti selettori di virus più efficaci data la forte pressione selettiva.

Riassumendo, variante è un termine “gergale” per indicare qualsiasi genoma virale là fuori che abbia acquisito mutazioni rispetto al virus originale. Un po' come il termine "mutante". Siamo tutti mutanti in un certo senso, tranne per il fatto che alcune delle nostre mutazioni sono più visibili esternamente di altre a causa dei loro effetti.
Noi stessi siamo mutanti rispetto allo zigote originale e alcune cellule più di altre. Senza scomodare la ben nota ricombinazione genomica che avviene durante la maturazione dei linfociti, cito i neuroni in cui si ha l'attivazione trasposonica (LINE-1 elements, che altro non sono che retrovirus vestigiali) durante lo sviluppo embrionale.
 
Da un punto di vista pratico e comunicativo l'unico termine utile è Variant Of Concern (VOC).
Il VOC definisce una famiglia di varianti caratterizzata da un insieme caratteristico di mutazioni che, per definizione, sono fonte di preoccupazione per loro caratteristiche come la capacità di "sfuggire" alla neutralizzazione da parte di anticorpi indotti da vaccini o infezioni precedenti, aumentata trasmissibilità, virulenza o resistenza agli antivirali. 
Quando leggete sui media variante in realtà si intende sempre VOC. Ci sono innumerevoli varianti del Sar-CoV-2 ma solo un piccolo numero ha acquisito mutazioni da monitorare: VOC sudafricana, inglese, etc etc
La linea B.1.1.7 (alias variante inglese alias VOC-202012/01) è definita da mutazioni che non sono necessariamente specifiche per questa linea ma il cui insieme lo è. Nello specifico si tratta di 23 mutazioni (rispetto all'originale di Wuhan), 8 a carico della proteina Spike e di queste 3 delle quali con rilevante potenziale biologico (vantaggio selettivo)


***

Nota. Quanto scritto dovrebbe anche rendere evidente il problema nella nomenclatura in uso per descrivere due appartenenti al genere Homo, i sapiens e i neanderthalensis.  Se infatti appartenessero a specie distinte, come la nomenclatura farebbe supporre (Homo sapiens e Homo neanderthalensis) non avrebbero, per definizione, potuto generare progenie fertile di cui noi (tutti i sapiens non africani) portiamo tracce nel genoma e quindi prova di unioni fertile (vedi articoli precedenti "una unione non priva di problemi" e "Denisovani").
Molto più verosimile che l'unione sia avvenuta tra proto-sapiens e proto-neanderthelensis in una fase in cui il processo di speciazione non si era ancora completato, quindi sarebbe meglio parlare di sottospecie. Un caso simile lo abbiamo tra scimpanzé e bonobo di cui si hanno tracce genetiche di accoppiamenti avvenuti in passato.


La mappa stellare dei buchi neri supermassicci

(se avete problemi di visualizzazione della pagina da smartphone provate la pagina standard per pc scienceabovetheclouds.blogspot.com/...

Questa immagine potrebbe sembrare una delle tante che ritrae la volta stellata in una limpida notte d'estate. In realtà se la guardate più da vicino noterete che ha caratteristiche diverse dal solito, definizione e sgranatura su tutte oltre all'assenza di alcune stelle note.
La ragione è che l'immagine è a tutti gli effetti una mappa di oltre 25 mila buchi neri supermassicci (SMBH), presenti in una porzione minima della volta stellata corrispondente al 4% del cielo osservabile dall'emisfero boreale, la cui posizione è stata ricavata dall'analisi dei segnali radio a bassa frequenza (tra 10 e 240 MHz).
Dato che i SMBH si trovano in genere al centro di una galassia potremmo anche dire che l'immagine sopra è una "foto" delle galassie osservabili in quello spicchio di cielo.
Lo studio, chiaramente in divenire, è stato possibile grazie al Low-Frequency Array (LOFAR).

La mappa "originale" dei buchi neri raffrontata alla dimensione con cui apparirebbe la luna.
Image credit: LOFAR/LOL Survey (CC BY 4.0)
Il LOFAR è un telescopio diverso da quelli a cui siamo soliti pensare sia per la tipologia di segnali che cattura (onde radio) che per essere una rete di radiotelescopi invece che una singola struttura.

Alcune nozioni di base.
Le onde elettromagnetiche che rientrano nell'ambito onde radio coprono un'ampia gamma di frequenze che vanno dai 30 Hz a sopra i 300 GHz, o per converso lunghezze d'onda (λ) comprese tra 10 mila Km (maggiore del raggio della Terra) a 1 mm, rispettivamente. Va da sé che visto che i rilevatori (antenne) devono avere dimensioni paragonabili alla lunghezza d'onda da intercettare diventa alquanto complicato catturare le onde radio a bassa frequenza (alta λ). 
In termini generali le antenne "utili" devono avere una lunghezza di almeno la metà della lunghezza d'onda data dalla frequenza in uso.
Tra noi e i buchi neri c'è un'abbondanza di polvere interstellare che assorbe la radiazione elettromagnetica di λ dall'infrarosso in giù. Solo quando si arriva a λ di circa 1 millimetro questo assorbimento viene meno e a questa lunghezza d'onda ci troviamo già nel regno delle onde radio.
La risoluzione angolare di un telescopio è proporzionale alla lunghezza d'onda osservata divisa per il diametro del telescopio. Una λ maggiore si traduce in una risoluzione inferiore, per cui il meglio sarebbe usare raggi X o UV ma per quanto scritto non sono ideali a causa della polvere ... oltre che per la necessità di usare telescopi orbitali visto che l'atmosfera li scherma. 
Le onde radio chiaramente non sono corte per cui l'unico miglioramento possibile è aumentare la dimensione dello specchio del telescopio. Ecco la ragione per cui le onde più usate finora sono quelle con λ poco sopra al mm (1,3 mm nello specifico).

Nel dettaglio la risoluzione angolare ottenibile è data dal rapporto tra lunghezza d'onda usata e il diametro del telescopio. Ad esempio se osservassimo nel campo del visibile mediante un telescopio di 2 metri, la risoluzione sarebbe di 50 msec di arco; per ottenere la stessa risoluzione usando le onde radio di 4 metri, il radiotelescopio dovrebbe avere un diametro di 160 km! Impossibile, ed è per questo che si usa la interferometria (vedi sotto) con cui unire radiotelescopi posizioni in varie parti del globo. Grazie alla VLBI è possibile ottenere risoluzioni dell'ordine del millesimo d'arco.

Altro problema è la distanza.
I buchi neri supermassicci si trovano a distanze galattiche (milioni di anni luce) il che equivale a dire che l'oggetto da "visualizzare" ha dimensioni angolari dell'ordine di micro-arcosecondi (la distanza di 1 parsec equivale a 1 secondo d'arco).
Per dare l'idea di quanto minuscoli siano, l'angolo per "inquadrare" la Luna è circa 0,5 gradi (in pratica la dimensione del vostro pollice messo a coprire la Luna con il braccio disteso) mentre quello usato per visualizzare il buco nero nella galassia M87 distante 55 milioni di anni luce è 40 micro arcosecondi quindi 45 milioni di volte più piccolo.
Ho citato M87 non a caso essendo stato il primo buco nero visualizzato (vabbeh ... non lui ma quello che sta immediatamente intorno). Paradossalmente si è scelto questo invece di Sgr A*, il SMBH della nostra galassia, perché più "semplice" da rilevare data l'enorme massa (1000 volte maggiore) che compensa abbondantemente la maggiore distanza.

Osservare oggetti con dimensioni angolari così piccole si porta dietro il problema della diffrazione, aggirabile usando lunghezze d'onda corte (visibile, raggi X, ...) e telescopi grandi. Una scelta quest'ultima che diventa obbligata quando si è costretti ad usare le onde radio.
Nota. L'immagine precedente è stata ottenuta mediante l'Event Horizon Telescope, un telescopio che potremmo definire "virtuale" o meta-telescopio essendo in realtà una rete di telescopi distribuiti in modo da creare una antenna virtuale grande come la Terra. 
La distribuzione dei radiotelescopi usati per il progetto EHT(credit: EHT)
Il grande vantaggio delle onde radio rispetto alle onde di lunghezza minore è nel coincidere con la cosiddetta "finestra atmosferica", l'intervallo di λ nello spettro elettromagnetico dentro il quale la radiazione degli astri non subisce apprezzabile assorbimento/riflessione da parte dell’atmosfera terrestre e quindi può giungere fino al suolo. Questa la ragione per cui per studiare i raggi X o gli ultravioletti si devono usare telescopi orbitali.

In ordinata l'opacità atmosferica alle varie lunghezze d'onda. Oltre alla (ovvia) trasparenza al componente visibile del spettro c'è un'ampia finestra nella banda radio, tra il cm e 10 m. Questa la ragione per cui i radiotelescopi possono trovarsi sulla Terra mentre i rilevatori a raggi X e gamma sono orbitali.

Ad oggi gran parte della radioastronomia si è concentrata sulle frequenze più alte all'interno della banda radio, quelle di decine o centinaia di Gigahertz (le microonde), usate per studiare M87, per ovvie ragioni di "maggiore facilità" nell'intercettare il segnale.
La radioastronomia a bassa frequenza è impegnativa perché le radiosorgenti astronomiche sono molto deboli ed è difficile catturare immagini radio con una buona risoluzione; la distorsione del segnale causata dalla ionosfera (uno strato di elettroni liberi che rende la visuale simile a quella del guardare il cielo dal fondo di una piscina) non aiuta.
Per superare queste sfide, il sistema LOFAR ha messo in campo una rete di 25 mila antenne sparse in tutta Europa (in 52 siti), così da ottenere un telescopio virtuale esteso per 1000 chilometri.
Gran parte del lavoro "bruto" è stato fatto da supercomputer che con algoritmi dedicati hanno corretto l'effetto della ionosfera ad intervalli pari ad ogni quattro secondi di osservazione.

Alcune delle stazioni parti europee parte della rete LOFAR (credit: INAF)

Ci vorranno molti altri anni prima che si riesca a completare il progetto anche per il solo emisfero boreale (per l'emisfero australe è stata creata una rete di radiotelescopi analoga, chiamata SKA da Square Kilometer Array).


La ricerca è stata pubblicata sulla rivista Astronomy & Astrophysics (link al PDF)

Diverse lunghezze d'onda, diverso utilizzo (image credit: revistapesquisa)

***

Nota tecnica per chi come me è curioso e vuole capire come fanno i radiotelescopi a mappare la posizione di sorgenti così lontane e a "confrontare" i dati raccolti da antenne distinte.
Alla base di tutto c'è la Very Long Baseline Interferometry (VLBI) una tecnica in cui un segnale da una sorgente radio astronomica, ad esempio un quasar, viene raccolto da più radiotelescopi sulla terra. Le  distanza vengono calcolate utilizzando la differenza di tempo tra l'arrivo del segnale radio ai diversi telescopi (il tempo assoluto di riferimento è dato da orologi atomici). In questo modo è possibile combinare osservazioni in sincrono di una stessa sorgente, creando un "telescopio virtuale" di dimensioni pari alla massima distanza tra i telescopi.
image credit: blackholecentral.com

I dati vengono archiviati su dischi rigidi locali e in un secondo momento raccolti ed analizzati da supercomputer (la mole di dati è tale che non possono essere spediti via internet ma gli HD vengono inviati fisicamente al punto di analisi). Solo allora si potrà ottenere l'immagine della sorgente dell'onda radio.
La risoluzione ottenibile mediante l'interferometria è proporzionale alla frequenza osservata, ovvero maggiore è la frequenza, maggiore è la risoluzione dell'immagine finale.
La tecnica VLBI consente alla distanza tra i telescopi di essere molto maggiore di quella possibile con l'interferometria convenzionale, che richiede il collegamento fisico delle antenne tramite cavi coassiali o altri tipi di linee di trasmissione.
Le distanze dei radiotelescopi possono oggi essere molto alte grazie ad una tecnica inventata negli anni '50, nota come "closure phase imaging" che aggiusta ad ogni ciclo eventuali ritardi tra le varie antenne.




Powered By Blogger
"Un libro non merita di essere letto a 10 anni se non merita di essere letto anche a 50"
Clive S. Lewis

"Il concetto di probabilità è il più importante della scienza moderna, soprattutto perché nessuno ha la più pallida idea del suo significato"
Bertrand Russel

"La nostra conoscenza può essere solo finita, mentre la nostra ignoranza deve essere necessariamente infinita"
Karl Popper
Controllate le pagine delle offerte su questo blog




















Zerbini fantastici