CC

Licenza Creative Commons
Questo opera di above the cloud è concesso sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.

The Copyright Laws of the United States recognizes a “fair use” of copyrighted content. Section 107 of the U.S. Copyright Act states: “Notwithstanding the provisions of sections 106 and 106A, the fair use of a copyrighted work (...) for purposes such as criticism, comment, news reporting, teaching, scholarship, or research, is not an infringement of copyright.”
Any image or video posted is used according to the fair use policy
Ogni news è tratta da articoli peer reviewed ed è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto sia datato.
QUALUNQUE link in questa pagina rimanda a siti sicuri!! SEMPRE.
Volete aiutare questo blog? Cliccate sugli annnunci/prodotti Amazon (se non li vedete, disattivate l'Adblocker mettendo questo sito nella whitelist. NON ci sono pop up o script strani, SOLO Amazon). Visibili in modalità desktop! Se poi decidete di comprare libri o servizi da Amazon, meglio ;-)
Dimenticavo. Questo blog NON contiene olio di palma (è così di moda specificarlo per ogni cosa...)

Visualizzazione post con etichetta laser. Mostra tutti i post
Visualizzazione post con etichetta laser. Mostra tutti i post

Fotografare la luce a 4 trilioni di fotogrammi al secondo? Fatto

Catturare l'immagine del movimento della luce potrebbe sembrare un paradosso e in effetti per riuscirci i ricercatori hanno dovuto usare alcuni trucchetti tecnici (vedi sotto).
Cominciamo con il dire che una volta tanto la definizione di ultra-veloce non è una esagerazione: parliamo infatti di un sistema di rilevazione (compressed ultrafast spectral-temporal - CUST), che ha il doppio vantaggio di permettere sia un frame rate elevato che un alto numero di fotogrammi.
Con frame-rate elevato intendo fino a 4 trilioni di fotogrammi al secondo (un trilione per gli anglosassoni è pari al nostro bilione, cioè 1012 o in termini semplici 1000 miliardi).
La novità non è paradossalmente nel numero di fps catturati (che è cosa diversa dai fps usati durante la riproduzione del video) ma nella lunghezza della ripresa video che finora era limitata da limiti contingenti alla dimensione del sensore.

Semplifichiamo il problema.
Le telecamere ad alta velocità oggi in uso (non mi riferisco ovviamente ai prodotti consumer) acquisiscono gli analoghi dei fotogrammi su sensori basati su semiconduttori. In genere ciascun fotogramma di una sequenza è "registrato" su un'area separata del sensore. La lunghezza del filmato ottenibile è quindi intrinsecamente limitata dalla dimensione del sensore e a cascata dal numero ridotto di fotogrammi "catturabili".
Per superare il limite (senza bisogno di ingigantire i sensori) i ricercatori hanno utilizzato un metodo definito "campionamento compressivo" che consente alle immagini di "sovrapporsi" parzialmente sul CCD pur rimanendo univocamente tracciabili. Ogni fotogramma finisce su aree separate ma sovrapposte del sensore e ciascun fotogramma successivo, prima ancora che arrivi sul sensore, viene "etichettato" (tagged). I tag permetteranno poi di ricostruire l'immagine come una successione di fotogrammi distinti.
Una volta fatta la ripresa questa verrà convertita in un sequenza a 60 fps (quella di una HDTV) ma estremamente dettagliata grazie ai sui 4 trilioni di fotogrammi al secondo di partenza. Il risultato, sotto riportato, mostra un impulso luminoso mentre viaggia attraverso un materiale.

Credit: Y. Lu et al./Phys. Rev. Lett.
Catturare un raggio luminoso è cosa ardua sia per la sua velocità (300 mila km al secondo nel vuoto) che per ragioni "di riferimento". Per vedere un movimento è necessario infatti avere punti di riferimento, quale può essere la "testa" (inizio) e la "coda" (fine) di quello che si vuole osservare. Se si vuole seguire il movimento di un raggio luminoso bisognerà allora imporre una serie di condizioni sperimentali o, se vogliamo, usare trucchetti tecnici.
Per prima cosa servirà un impulso di breve durata. Una soluzione utile ma non sufficiente. L'escamotage decisivo scelto dai ricercatori è stato quello di usare un impulso laser contenente una gamma ristretta di frequenze, trasmesso attraverso un sistema di lenti e un reticolo di diffrazione. L'effetto finale è "lo stiramento" dell'impulso, dura più a lungo, e che prende il nome di "impulso chirp"
Questo impulso avrà frequenze più alte nella parte "guida" e frequenze più basse in quella che segue. Al fine di ottenere una immagine 2D facile da visualizzare, l'impulso viene poi "allargato" perpendicolarmente alla sua propagazione; per dare l'idea è come se partendo da un linea di luce (monodimensionale) si ottenesse un nastro (bidimensionale).
Impulsi laser con tale strutturazione nella frequenza possono essere "facilmente" utilizzati nella registrazione su sensore (come una successione di fotogrammi) poiché vi è una corrispondenza precisa tra la frequenza della luce e la sua posizione all'interno dell'impulso.
Terzo trucchetto, quello di fare passare l'impulso attraverso un oggetto trasparente. L'impulso chirp interagisce con l'oggetto e la luce diffusa imprime su esso una "immagine" 2D casuale (i tag di cui sopra) prima di essere catturato dal sensore CCD. 
Per dirla un poco meno genericamente, le informazioni temporali o spettrali legate all'impulso vengono codificate spazialmente e compresse in un'unica immagine 2D. Le varie immagini vengono poi ricostruite dall'immagine 2D compressa utilizzando un particolare algoritmo. Il vantaggio è che le immagini ricostruite non sono limitate dalla velocità di acquisizione del sensore, garantendo così un'alta risoluzione temporale/spettrale.
I ricercatori hanno dimostrato la fattibilità dell'approccio fotografando un breve e intenso impulso di luce durante il passaggio attraverso un solido trasparente. 
Con un singolo impulso chirp, il sistema poteva produrre 1 immagine ogni 260 femtosecondi (10−15 sec) e generare un video a 60 fotogrammi in modo indipendente dalla velocità di acquisizione del sensore. L'immagine vista prima mostra un impulso di luce che lascia il materiale e viene riflesso nuovamente (tempo richiesto per l'azione 414 femtosecondi).

Sistemi di questo tipo potrebbero essere utilizzati per osservare processi come l'interazione tra la luce e un tessuto biologico nella chirurgia laser.


Fonte
- Compressed Ultrafast Spectral-Temporal Photography
Yu Lu et al, (2019) Phys. Rev. Lett. 122, 193904

- Camera captures four trillion frames per second 
Electronics Weekly (05/2019)

- Video filmed at four trillion frames per second captures light in a flash


La stampa 3D? Preistorica se comparata al "replicatore" 3D

Dimentica tutto ciò che sai della stampa 3D perché si va avanti

Le stampanti 3D sono uscite da tempo dai laboratori di sviluppo per entrare prima nei luoghi di produzione e nei FabLab (dove consiglio sempre di andare per prendere confidenza con il mondo dei makers) e infine nelle case.
E' indubbio che sebbene la qualità di una stampante 3D sia molto varia, da strumenti per l'hobbistica a quelle professionali per creare prototipi e  in futuro pezzi di ricambio, i passi avanti fatti in pochi anni hanno reso anche le entry-level qualcosa di più che un giocattolone molto costoso.
Le stampanti FDM (basate su termoplastiche o anche alluminio) sono la scelta più ovvia per un utente non professionale dato il costo abbordabile. Un gradino sopra sono le stampanti SLA (a resina) che se da una parte sono capaci di generare rifiniture molto precise, dall'altra hanno bisogno di equipaggiamento aggiuntivo (tipo i forni a UV e i bagni per rimuovere i solventi) che ne aumentano i costi. Un esempio economico del primo tipo è la Creality Ender 3 mentre una entry-level a resina è la TX o la Orange.
Il passo avanti di cui parlo nel titolo è quello di una stampante 3D capace di ricreare un intero oggetto "in un unico passaggio" anziché costruirlo strato su strato come avviene oggi attraverso la deposizione successiva della plastica o della resina. Il nome assegnato, "replicatore", è un richiamo (e un omaggio) ai dispositivi utilizzati nella serie TV Star Trek.

Il nuovo dispositivo, sviluppato da un team di Berkeley in un articolo apparso il mese scorso sulla rivista Science, funziona sulla falsariga della scansione in una tomografia computerizzata (CT) ... ma al contrario. Nelle macchine CT, un tubo a raggi X ruota intorno al paziente, prendendo più immagini, ciascuna corrispondente ad una sezione del corpo, e infine un computer ricostruisce l'immagine in 3D. 
I ricercatori californiani hanno seguito il procedimento inverso rispetto alla CT, partendo da un modello al computer di un oggetto 3D e da li riproducendo molteplici immagini in 2D dello stesso, prese da diverse angolazioni. Hanno quindi proiettato ciascuna di queste immagini su un contenitore cilindrico riempito con acrilato (un estere derivato dall'acido acrilico, cioè resina sintetica) in modo che la luce "scolpisse" la materia ancora informe.
Nello specifico mentre le immagini venivano proiettate sul cilindro, fino a coprire tutti i 360 gradi, il contenitore ruotava di un angolo corrispondente. Il principio alla base è che la luce su ciascun punto della resina variava e se la quantità di questa luce superava un certo valore, la resina in quel punto si polimerizzava trasformandosi da liquida a solida. Una volta rimossa la resina liquida "avanzata" il risultato finale è un oggetto 3D uguale al suo omologo "virtuale" presente nel computer.
Credit: UC Berkeley
Il processo è molto veloce, circa due minuti per un oggetto di pochi centimetri. La prova di funzionamento mostrata è quella con cui hanno ricreato una miniatura della scultura "Il Pensatore" di Auguste Rodin.

Il video che segue riassume i punti salienti del processo.
Se non vedi il video --> youtube

Il vantaggio di questo nuovo procedimento è la sua maggiore flessibilità operativa rispetto alla stampa 3D tradizionale in quanto, ad esempio, può creare oggetti che ne racchiudono altri andando oltre rispetto alla mera creazione di riproduzioni esterne. I prodotti hanno inoltre anche superfici più lisce, aspetto questo particolarmente interessante per la produzione di componenti ottici e di strumenti medicali.

 Fonte
- Volumetric additive manufacturing via tomographic reconstruction
Brett E. Kelly et al, Science (2019): 363(6431),  pp. 1075-1079


 ***

    



Indurre il sonno REM con un fascio di luce laser

Un ipnotizzatore può farti addormentare ma un fascio di luce laser ben diretto riesce a mandare nel mondo dei sogni i topi.

Tra le tecniche utilizzate da illusionisti e prestigiatori l'ipnosi è quella che in passato ha riscosso maggior successo in quanto non basata su un trucco scenico.
La capacità di indurre nel volontario di turno la "spinta" a fare cose al di fuori della propria volontà (ma fino ad un certo limite), e senza serbarne ricordo, è stata usata anche come elemento narrativo portante in molti film (ad esempio La maledizione dello scorpione di giada di Woody Allen), sebbene sviluppato in modo altamente fantasioso.
Al netto della non partecipazione di complici a queste scenette da palcoscenico, il trucco non è ... un trucco, ma un metodo usato dagli psicologi per fare emergere ricordi traumatici dalle profondità del subconscio di un individuo "preparato" all'uopo attraverso l'induzione di uno stato di trance.
Nota. A differenza di quanto  si crede, le persone sotto ipnosi non sono "spente" ma, al contrario, "iper-concentrate" su una data immagine, auto-creata o suggerita dall'ipnotizzatore, senza esserne cognitivamente consapevoli. Tra le aree cerebrali particolarmente attive durante lo stato ipnotico vi è il precuneo, sito nel lobo parietale superiore e coinvolto nei processi di elaborazione visual-spaziale. Per approfondimenti suggerisco due articoli, uno in italiano (--> su Focus) e uno in inglese (--> What Hypnosis Really Does to Your Brain).
Il miraggio della disponibilità di un interruttore "magico" in grado di attivare o spegnere un dato circuito neuronale legato a ricordi, emozioni o comportamenti ha guidato per anni il lavoro di molti neuroscienziati spinti dalla consapevolezza sperimentale che il modo migliore per valutare la funzione di una data area cerebrale fosse quello di testarne il rapporto causa-effetto, qualunque fosse l'effetto: dal semplice muovere un dito all'induzione di una emozione.
Fino a non molto tempo fa l'unica modalità per esplorare nel dettaglio "chi facesse cosa" nel cervello dipendeva da due approcci, uno clinico (basato sulla correlazione tra lesioni cerebrali e funzionalità alterate) e l'altro sperimentale (basato sull'attivazione/repressione di particolari aree). L'inserimento di microelettrodi nella calotta cranica è un tipico esempio di approccio sperimentale multi-funzionale, utile sia per identificare l'attivazione di una data area (in modalità "sensore") che per indurre una risposta nel soggetto (in modalità "stimolatore"); l'importanza del metodo è tale da essere ampiamente usato dai neurochirurghi sul paziente in sedazione vigile per monitorare la localizzazione di aree funzionali ed evitare così di lesionarle durante l'intervento.
Con gli anni le tecniche si sono affinate (complementandosi più che soppiantandosi) fino a rendere possibile modificare temporaneamente la funzionalità di una area specifica dall'esterno del cranio, come avviene con la stimolazione magnetica transcranica. Un metodo utile, in quanto totalmente non invasivo, ma grossolano quando lo scopo è caratterizzare nel dettaglio la funzionalità di poche decine di neuroni. 
optogenetica
 Ed è qui che entra in gioco una tecnica estremamente potente chiamata optogenetica grazie alla quale è possibile, mediante un fascio di luce coerente portato da microfibre ottiche, modificare l'attività elettrica di neuroni in cui è stato introdotto il gene per un recettore esogeno sensibile alla luce (che funziona sulla falsariga di un fotorecettore retinico); il nome della tecnica riassume il suo modus operandi essendo il risultato di Optical-control e Genetica. Il gene per il fotorecettore può essere inserito in due modi: 1) creando animali transgenici, caratterizzati dal fatto che tutte le cellule possiedono il gene "alieno" ma solo un ristretto numero lo esprime; 2) sfruttando il più moderno e meno costoso trasferimento mediato da virus, che funziona qui come una nave cargo per trasferire (senza mai replicarsi) il gene solo in cellule specifiche (Per informazioni più dettagliate rimando ai siti --> Neuroscience Fundamentals e --> optogenetics.weebly.com).
Pur di fondamentale importanza e incredibile potenza conoscitiva tale metodo ha il grosso limite di essere utilizzabile esclusivamente sui topi, dato che è imprescindibile dall'utilizzo di alterazioni genetiche create ad hoc. L'animale deve infatti possedere neuroni che producono il fotorecettore; una modifica che in condizioni normali non ha alcun effetto sull'animale per il semplice motivo che dentro la calotta cranica non vi è luce e quindi il fotorecettore è costantemente inattivo. Una volta però introdotto un micro-cavo in fibra ottica in grado di illuminare una piccolissima area del cervello, si potrà studiare in modo estremamente dettagliato l'effetto che l'attivazione (o inibizione a seconda del tipo di fotorecettore usato) di uno o pochi neuroni specifici ha su una data funzionalità.
Nota. La variazione di attività del neurone successiva alla illuminazione si basa sulla variazione del potenziale di membrana della cellula conseguente all'attivazione/repressione del fotorecettore. Il gene introdotto codifica in genere per una proteina con funzioni di canale ione-specifico, in grado di aprirsi/chiudersi una volta illuminato. L'apertura del canale permette il rapido transito di un certo numero di ioni sufficiente a depolarizzare (attivare) o iperpolarizzare (inibire) il neurone, inducendo così l'effetto sulla rete neurale a valle.
La procedura in sé è allo stato attuale delle tecnologie di "facile" implementazione con un enorme ritorno da un punto di vista informativo sulla conoscenza del funzionamento del cervello.
Per comprenderne la portata pensate alla quantità (e qualità) delle informazioni ottenibili avendo la possibilità di attivare uno o pochi neuroni tra i miliardi presenti associando poi l'effetto indotto da tale attivazione con anomalie neurologiche umane associate a malattia ad eziologia sconosciuta.

Raggio laser e sonno REM
Se associamo la potenza di questa tecnica allo studio del sonno, un argomento da sempre centro gravitazionale dell'interesse di molti neuroscienziati, arriviamo al tema dell'articolo odierno.

Nella nostra società il numero di persone che soffre di disturbi del sonno è tale che le ricadute socioeconomiche sono rilevanti e non un argomento di mero dibattito accademico. Un problema aggravato dalla sostanziale sottostima del problema sia per le abitudini di vita odierne che per la conoscenza superficiale dei meccanismi neurologici.
L'optogenetica ha permesso ai neuroscienziati dell'università di Berkeley di fare un passo in avanti nel comprendere i meccanismi del sonno trasformandoli in ... tecno-ipnotizzatori. Come?
I ricercatori sono riusciti a mettere a nanna un topo semplicemente usando un fascio di luce laser. O meglio non lo hanno fatto semplicemente addormentare ma hanno indotto la fase del sonno nota come REM.
Nota. REM, acronimo inglese per "rapidi movimenti oculari", è una fase intermittente del sonno la cui durata aumenta mano a mano che ci si avvicina al momento del risveglio. Circa l'80 % del nostro dormire avviene nella fase nota come non-REM caratterizzata da disconnessione sensoriale e bassa attività corticale. I neuroni in questa fase hanno attività intermittente (on/off) che si traduce in ampie onde lente facilmente registrabili con elettrodi posizionati sulla cute del cranio. E' noto che questa attività on/off interferisce con la trasmissione di informazioni tra diverse aree del cervello; da qui la sostanziale disconnessione con l'esterno e il non sognare.
Durante la fase REM, il cervello è invece "quasi sveglio", come evidenziato dall'attivazione della corteccia, sebbene anche qui sconnesso dal mondo circostante mediante una messa in sicurezza grazie alla paralisi totale dei muscoli scheletrici (per evitare di muoversi durante il sogno). In un precedente articolo si era già parlato di come la perdita di tale "messa in sicurezza" sia uno dei tratti predittivi di anomalie neurologiche in fieri (clicca --> "Disturbi del sono come predittori di malattie neurologiche"). Nella fase REM l'attività on/off dei neuroni è concentrata in alcune aree corticali chiave (sensoriali e motorie) e questo spiega perché si sogni pur rimanendo sconnessi e "paralizzati".
L'esperimento
Il punto di partenza è stato creare topi modificati che esprimessero l'interruttore optogenetico nei neuroni GABAergici situati nel midollo allungato, la parte più antica del cervello. Una volta "creato" il sensore è stato sufficiente illuminarlo con una fibra ottica ultra-sottile per indurne (a seconda dell'esperimento e del sensore montato) l'attivazione o la repressione del segnale.
L'attivazione mediata dalla luce induce il sonno REM
Credit: Franz Weberd
Dopo l'attivazione sono bastati pochi secondi per far piombare un topo già addormentato direttamente nella fase REM. La conferma inequivocabile di avere identificato esattamente i neuroni "interruttore" la si è avuta eliminandoli: il sonno REM non compariva più nemmeno durante il sonno naturale.
Particolarmente interessante il fatto che non era solo la capacità di sognare ad essere persa durante il sonno ma anche la paralisi muscolare e l'attività corticale. Per il resto il topo era normale.
Curiosamente se questo interruttore veniva attivato durante la fase di veglia, ad essere stimolato era il senso di fame nel topo; una possibile spiegazione è che tali neuroni siano importanti in attività "piacevoli" come la toelettatura e il mangiare e che essi agiscano in opposizione ad altre cellule di tipo noradrenergiche.

Questi neuroni rappresentano una piccola rete nei circa 70 milioni di neuroni che compongono il cervello di un topo (Suzana Herculano-Houzel et al, PNAS, 2006) e i circa 20 miliardi nell'Homo sapiens (Steven M. Platek et al, 2009), ma sufficienti per prendere la decisione di indirizzare la regolare la comparsa del sonno REM.

E' certo che le informazioni ricavabili da questi studi permetteranno di capire più in dettaglio le problematiche legate al sonno negli esseri umani, identificando dove possibile le cellule su cui agire in modo selettivo con nuove terapie mirate.



Fonte
- Control of REM sleep by ventral medulla GABAergic neurons.
Franz Weber et al, Nature (2015) 526, pp. 435–438
- Researchers find neural switch that turns dreams on and off
UC Berkeley/news


La telecamera che "vede" anche dietro l'angolo

Precisiamo subito che non si tratta dell'ennesima trovata pubblicitaria di venditori che cercano, tra le altre cose, di rifilare occhiali ad i raggi-x per scrutare le meraviglie, maschili o femminili a seconda dei gusti, celate sotto i vestiti.
Si tratta invece di uno studio serio frutto delle ricerche svolte presso il serissimo Media-lab del Massachusetts Institute of Technology (MIT), lo stesso laboratorio che poco tempo aveva sviluppato una telecamera in grado di registrare alla velocità di mille miliardi di frame al secondo - FPS mediante un trucchetto di usare più dispositivi di registrazione e poi combinarli  (--> qui la notizia). 

Proprio partendo dagli studi condotti per realizzare questa tecnologia i ricercatori sono stati capaci di "visualizzare" oggetti fuori dal campo visivo della telecamera.
In termini molto semplici la tecnica si basa su un laser e sui fotoni riflessi da uno schermo posto vicino all'oggetto nascosto. Alcuni dei fotoni "rimbalzati" colpiscono l'oggetto e vengono in seguito catturati dal sensore della telecamera. Un processore elaborerà quindi le informazioni ottenute e ricostruirà l'immagine occultata.
I risultati sono molto interessanti.
Meglio di tante parole il video che segue da l'idea della tecnica usata.
(clicca QUI se non vedi il video) Credit: MIT & Nature


Fonte
- A camera that peers around corners
MIT/news 


Come funziona il laser "freddo" nella terapia

Qualche settimana fa ho parlato della pressione negativa come metodo per accelerare la guarigione delle ferite ad alto rischio infezione.
Un altro approccio egualmente importante è quello basato sul laser, nello specifico la terapia laser a bassa intensità (Low-level laser therapy  - LLLT) o, se vogliamo, laser freddo.
La LLTT sfrutta un raggio laser rosso o nel vicino infrarosso (lunghezza d'onda tra 600 e 1000 nanometri) e potenza da 5 a 500 milliwatt, ed ha come caratteristica principale la non produzione di calore; da non confondere quindi con i laser usati in chirurgia per vaporizzare tessuti o cauterizzare i vasi sanguigni, la cui potenza è intorno ai 300 watt.
Tra i molteplici utilizzi del laser freddo, oltre al trattamento delle ferite, c'è quello di ausilio nel trattamento di tubercolosi, disturbi della articolazione temporo-mandibolare, affezioni muscolo-scheletriche e nella riabilitazione. Secondo alcuni è perfino utile per smettere di fumare.

Nonostante l'ampia gamma di utilizzi, non si tratta di una tecnica particolarmente diffusa e nota al grande pubblico. Due sono le ragioni principali: nonostante i successi manca una completa comprensione del suo meccanismo di azione a livello molecolare, cellulare e tissutale; inoltre l'alto numero di parametri di cui bisogna tenere conto per sviluppare i protocolli di trattamento (lunghezza d'onda, fluenza, tempi e numero di trattamenti, polarizzazione, etc) rende la tecnica difficilmente standardizzabile.
Ad aggiungere variabili vi è poi la progressiva diffusione dei LED come sorgenti luminose per la LLLT, più economici e capaci di emettere lunghezze d'onda simili a quelle dei laser, ma con gamma di emissione più ampia rispetto al "puro" monocromatismo della luce laser. La diffusione della tecnica, sotto il nome di terapia LED, in ambulatori di chiropratica dovrebbe mettere sull'avviso i potenziali utenti ... .
I diversi tipi di laser

Come può la LLLT indurre una risposta biologica?
A differenza dei laser "caldi", centrati sull'effetto termico, la LLLT induce una reazione fotochimica nella cellula, nota come biostimolazione (o anche fotobiomodulazione).
La fotobiologia (vale a dire la capacità dei fotoni di produrre un effetto biologico) si basa sul principio che quando la luce colpisce delle molecole  chiamate cromofori, l'elettrone esterno passa al livello superiore "eccitando" la molecola. Tale effetto è strettamente correlato alla natura quantica della radiazione elettromagnetica, per cui i fotoni sono in grado di trasferire "pacchetti discreti" di energia a molecole "ricettive", vale a dire molecole i cui elettroni necessitano di quel particolare "pacchetto" per passare allo stato eccitato. La radiazione infrarossa, meno energetica rispetto a quella del visibile, ha minor effetto eccitatorio e una maggiore capacità di indurre un effetto noto come transizione vibrazionale.


Il fenomeno è ben evidente nella fotosintesi, dove la luce "eccita" la clorofilla (batterioclorofilla nel caso dei cianobatteri, alias alghe blu-verdi), ma vale anche per le flavoproteine (coinvolte sia nella fotosintesi che nella bioluminescenza) e perfino per l'emoglobina. Il caratteristico colore associato alla presenza di questi cromofori è funzione di quali sono le lunghezze d'onda assorbite, quali riflesse e quali passano "intonse" attraverso il materiale; da qui il colore verde della clorofilla, giallo delle flavoproteine e rosso per l'emoglobina

Ci serve però un altro tassello per capire l'utilità del laser freddo in biologia e per questo bisogna introdurre un fondamentale organello presente in tutte le cellule eucariote, il mitocondrio (--> qui un articolo recente in questo blog).
I mitocondri sono le centrali elettriche della cellula eucariotica, responsabili della completa scomposizione delle molecole organiche a CO2, per produrre energia chimica sotto forma di una molecola nota come ATP. Attraverso il processo di fosforilazione ossidativa (la respirazione cellulare) gli elettroni estratti durante la scissione delle molecole organiche (ossidazione) vengono canalizzati, come un vero e proprio flusso di corrente, sulle creste della membrana interna del mitocondrio dove passano da un "complesso proteico all'altro e usati per "ricaricare" l'ATP dalle sue componenti esauste (ADP e fosfato), e infine scaricati/neutralizzati sull'ossigeno a formare acqua.
L'ATP può essere visto come una sorta "batteria ambulante" in quanto trasportatrice  dell'energia chimica che verrà utilizzata dagli enzimi per catalizzare le innumerevoli reazioni che avvengono nei vari distretti cellulari.
Esperimenti oramai classici hanno mostrato che nei mitocondri esposti ad un raggio laser (del tipo elio-neon) si aveva un aumento della respirazione cellulare (misurabile dal consumo di ossigeno) e con essa la produzione non solo di ATP e NADH, ma anche di proteine e RNA. Un effetto simile lo si ha quando un tessuto è esposto a radiazioni a bassa intensità.
Questo fatto spiega per quale motivo dosi minimali di radiazioni ionizzanti sembrano fare bene alle cellule, fenomeno come vedremo poi spiegabile con l'attivazione di meccanismi di salvaguardia della cellula. Tuttavia è bene ricordare che gli effetti delle radiazioni sono la somma di effetti deterministici (di natura fisica, con effetto proporzionale alla dose ed esistenza di soglia minima di sicurezza) e di effetti stocastici (non esiste una soglia minima in quanto l'effetto è livello genetico), quindi ogni "esposizione" alla radiazione può da un punto di vista probabilistico (di entità variabile a seconda della lunghezza d'onda) causare una mutazione.
Limitandoci alle radiazioni non ionizzanti, la gamma ottimale di onde elettromagnetiche necessarie per ottenere un effetto biologico "sicuro" è quella con lunghezze d'onda comprese tra la luce visibile e l'infrarosso vicino.

Sebbene queste osservazioni avessero fornito un utile tassello per capire il meccanismo d'azione della LLLT sui mitocondri, rimaneva da capire quale fosse al loro interno la struttura molecolare che fungeva da cromoforo, il "sensore" della luce. Il "responsabile" fu in seguito trovato nel complesso IV (alias citocromo-c ossidasi / CCO), il punto terminale della catena di trasporto degli elettroni nel mitocondrio, quello in cui avviene "l'incontro" tra elettroni ed ossigeno e protoni a formare acqua (--> figura).
Ottimo, ma questo pone una nuova domanda: cosa avviene nel CCO, e poi a valle, una volta assorbita l'energia luminosa?

A livello cellulare, la LLLT è in grado di indurre la fotodissociazione dell'ossido nitrico (NO) dal complesso CCO. Il fenomeno è interessante in quanto le cellule sotto stress producono alti livelli di NO (grazie all'enzima NO sintasi) che va a spiazzare l'ossigeno normalmente "ospitato" dal CCO provocando così un calo nella sintesi dei prodotti chiave (ed energicamente fondamentali) della respirazione cellulare, come l'ATP.

Sommando tutti questi elementi si può capire come un trattamento laser capace di favorire la fotodissociazione del NO dal CCO, possa controbilanciare gli effetti dello stress cellulare che sono evidenti con l'accumulo di NO, ripristinando la funzionalità della centralina energetica e a cascata la produzione sia dell'ATP che di un regolatore chiave da esso derivato come l'AMP ciclico.

Tutto risolto?
No, in quanto bisogna sempre ricordare che la respirazione cellulare produce spontaneamente (a causa della "perdita" di alcuni elettroni che non vengono debitamente neutralizzati con la formazione di acqua dall'ossigeno) specie chimiche reattive note come radicali liberi, che la cellula cerca di tenere sotto controllo mediante processi di detossificazione. Sebbene l'azione continuativa dei radicali liberi sia alla base dell'invecchiamento cellulare, queste molecole sono funzionalmente utili, ad esempio nella difesa antimicrobica e per l'eliminazione delle cellule danneggiate, grazie anche all'attivazione di fattori proteici redox sensibili (che rilevano la variazioni dello stato di ossidazione) come NF-kB e AP-1, che a loro volta attivano a cascata geni con funzioni protettive.


Riassumendo il tutto, il laser freddo agisce stimolando i naturali processi di guarigione grazie alla compensazione dello stato di stress cellulare e alla attivazione di fattori di trascrizione che coordinano la risposta genica anti stress (tra cui quelli coinvolti nel processo di guarigione tissutale).


Dallo studio delle api un sistema di atterraggio per gli aerei, a prova di hacker

La storia dell'innovazione umana è da sempre ispirata all'osservazione della natura, in particolare allo studio del paziente lavoro fatto dalla selezione nel corso di centinaia di milioni di anni per trovare la forma migliore ad una particolare funzione. Dalla prima scintilla catturata dopo un incendio al volo degli uccelli, il sogno umano è sempre stato quello di emulare quello che in natura sembrava essere così semplice. In particolare il sogno di volare è, da che se ne ha memoria storica, la fonte di fascinazione per eccellenza a cui si è abbeverato il genere Homo: dal mito di Icaro agli studi rigorosi ma poco praticabili di Leonardo si è infine arrivati alla pratica con i fratelli Wright che hanno aperto l'era dell'aeronautica moderna.

Ma tanto rimane ancora da imparare sia per quanto riguarda l'aerodinamica che i sistemi di controllo del volo. Un esempio in tal senso viene dallo studio delle api e trova applicazione in un un innovativo sistema di atterraggio completamente indipendente dalla tecnologia attuale, a prova quindi di malfunzionamenti e di hackeraggio dei sistemi.

Atterraggio "previsto" dalle telecamere dell'aereo
Thurrowgood et al)
Il progetto, coordinato da Saul Thurrowgood del Queensland Brain Institute, ha sviluppato un sistema di atterraggio che si differenzia dalle altre tecniche in uso in quanto è indipendente da sensori a raggio laser, radiofari o segnali GPS. Tutti sistemi che possono essere violati dall'esterno, con conseguenze facilmente prevedibili.
Lo spunto è venuto dallo studio della biologia delle api e di come usano la variazione degli input visivi per calibrare la loro discesa. Dati recenti indicano che questi insetti sfruttano non solo la variazione di posizione del punto di riferimento sottostante ma anche la visione stereoscopica per valutare la distanza dal punto scelto (e quindi variare la propria velocità).

Di seguito il video del test con la visione "ad ape" a sinistra e dall'esterno a destra.

Entrambe queste "procedure di navigazione" sono state integrate nel sistema di atterraggio automatico, opportunamente modificate in modo da essere idonee alle caratteristiche di un velivolo ad ala fissa. Integrazione effettuata mediante telecamere montate nella parte anteriore di un aeromobile di prova di piccole dimensioni (due metri di apertura alare).
Il commento degli australiani è finora positivo "l'aereo ha utilizzato i dati provenienti dai suoi occhi (telecamere) per guidare se stesso, percepire l'altitudine, controllare la velocità e spegnersi una volta atterrato".
E' evidente che lo scopo di questo non è quello di sostituire i sistemi (ottimi) in uso ma di integrarli con sistemi di backup indipendenti. Il malfunzionamento (o la manomissione) di uno di questi potrebbe essere così immediatamente scoperto, fornendo al contempo uno strumento di guida "sicuro".
Questo studio si avvale, e la cosa non stupisce, di finanziamenti forniti dal centro studi degli eserciti americano e australiano oltre che dalla Boeing.

(Altri articoli che trattano sulle applicazioni tecnologiche derivate dallo studio delle api -->"Robobee"

 Fonte
- A Biologically Inspired, Vision-based Guidance System for Automatic Landing of a Fixed-wing Aircraft
Saul Thurrowgood et al (2014) Journal of Field Robotics, 31(4) 699–727, July/August 2014

Una flotta stellare (in miniatura) da inviare su alfa centauri

Dopo la scoperta di un pianeta potenzialmente interessante nei nostri paraggi (vedi --> "Un esopianeta vicino?") si è riacceso il dibattito accademico sulle reali possibilità di inviare sonde in loco e magari in un lontano futuro addirittura organizzare viaggi di sola andata (multigenerazionali) con coloni umani.
Nota. La creazione di colonie umane è al momento una mera ipotesi accademica dato che non si è a conoscenza di alcun pianeta "abitabile" anche usando una accezione ampia del termine (come potrebbe esserlo Marte previa creazione di basi opportunamente "condizionate"). Anche il termine "paraggi" è alquanto aleatorio come significato; spannometricamente sono tali le (poche) stelle distanti meno di 8 anni luce.
Come si suol dire l'importante è crederci ed è per questo che un certo numero di imprenditori privati ha stanziato un budget iniziale di 100 milioni di dollari per attivare studi di fattibilità volti alla ricerca della soluzione tecnologicamente più idonea allo scopo.
Inviare dalla Terra fasci laser concentrati come propellente per le sonde del futuro.

Il progetto si chiama Breakthrough Starshot ed è centrato sulla "vecchia" idea di una fonte energetica indipendente dai propellenti classici che permetta alle sonde, al pari di barche a vela, di essere "spinte" verso la loro destinazione dalla "brezza" di un fascio di luce laser generato sulla Terra; in altre parole la sorgente energetica rimarrebbe sulla terra e grazie ai moderni puntatori associati ai telescopi verrebbe indirizzata per tutta la durata del viaggio sulla sonda.
Secondo i calcoli dei tecnici una raffica di laser concentrati, sparata da terra, potrebbe rapidamente accelerare una sonda delle dimensioni di uno smartphone (più che sufficiente per ospitare sensori base, microelettronica e una "vela") fino a raggiungere il 20 % della velocità della luce. Facile fare il calcolo di quanto "poco" ci vorrebbe per coprire la distanza di 4,37 anni luce che ci separa da α Centauri.
Nota. La sonda Solar Probe Plus che verrà lanciata il prossimo anno raggiungerà velocità di 200 km/sec. Se venisse inviata su α Centauri  ci metterebbe poco meno di 6400 anni..,
Una scelta tecnologica questa ben più efficiente di quella ottenibile sfruttando il "vento solare" poco utile ovviamente già ben prima di aver raggiunto le parti esterne del nostro sistema (sebbene l'importante è raggiungere velocemente una certa velocità, poi nel vuoto tale velocità rimarrebbe sostanzialmente costante senza necessità di ulteriori spinte). Per avere un metro di paragone con le precedenti missioni, se la sonda New Horizons (--> QUI) ci ha messo 9 anni per raggiungere Plutone, la sonda ora teorizzata (chiamata NanoCraft) ci avrebbe messo 3 giorni (!!). 

Video riassuntivo (fonte: Breakthrough Mission)

Ovviamente dato che la Terra ruota intorno al suo asse e intorno al Sole un solo emettitore (o gruppo di emettitori locali) laser non sarebbe in grado di assicurare una spinta costante. Questo non sembra un problema per i tecnici che negano anche la necessità di creare degli emettitori duplicati in diversi punti del globo; sarebbe infatti sufficiente dare una "spinta" ogni 1-2 giorni.
Rimossa la necessità di ospitare batterie ad alta capacità (e quindi minimizzare il carico e restare in standby quando non necessario per non consumare energia), la nanonavicella diventerebbe un multisensore compatto in grado di catturare informazioni durante tutto il percorso e di ritrasmetterle sulla Terra in tempo reale (al netto dei tempi perché il messaggio arrivi a destinazione) grazie a minuscoli fasci laser.

Il progetto ha ricevuto il consenso di finanziatori di alto livello come Mark Zuckerberg e di astrofisici importanti come Stephen Hawking.

Il progetto Starshot sarà guidato da Pete Worden, direttore della NASA fino allo scorso anno, e riceverà supporto oltre che dalla NASA anche dall'ESA.

Fonte
- Billionaire backs plan to send pint-sized starships beyond the Solar System 
Nature     doi:10.1038/nature.2016.19750


Le onde gravitazionali, finalmente!

Introduzione
Anche i più ottimisti tra noi non avrebbero scommesso alla fine del 2015 che fosse possibile "bissare" i successi dell'ultimo biennio in astrofisica (ivi comprese le missioni spaziali che sono il mezzo per analizzare "l'astrofisica vicina"). Dalla conferma dell'esistenza del bosone di Higgs all'atterraggio sulla cometa 67P/Churyumov-Gerasimenko dai fermioni di Weyl all'osservazione ravvicinata di Plutone, … c'era di che essere soddisfatti.
A rimproverarci di tale mancanza di "fede" ecco deflagrare sui media la tanto a lungo attesa prova dell'esistenza delle onde gravitazionali.
Einstein e l'onda (image hosted at INAF)
Forse nemmeno il bravo Ethan Siegel (professore di astrofisica a Portland e curatore del blog Starts wth a Bang) ci credeva veramente quando scrisse a dicembre su Forbes un articolo in cui elencava le 10 scoperte nel campo della fisica attese per il 2016 (tra le quali in quinta posizione quella delle onde gravitazionali).
A dire il vero Siegel non ha fatto altro che tenere conto del leak lanciato via Twitter da Lawrence Krauss lo scorso settembre sull'imminenza dell'annuncio della scoperta; un tweet accolto con profondo scetticismo dagli addetti ai lavori.
Il tweet di gennaio in cui Krauss conferma quanto aveva anticipato a settembre

Finalmente le onde
 L'11 febbraio è arrivata la notizia ufficiale: le onde gravitazionali sono state identificate.
La scoperta, avvenuta grazie al Laser Interferometer Gravitational-Wave Observatory (LIGO), è di tale importanza da avere fatto sobbalzare perfino la foto di Einstein che campeggia sulla parete alle spalle del mio monitor. Cosa c'entra Einstein? Le onde gravitazionali sono parte integrante della teoria della relatività generale, da lui formulata nel 1915, secondo la quale le vibrazioni dello spazio-tempo, indotte da fenomeni fisici estremamente violenti, si propagano in modo non dissimile alle onde create da un sasso quando cade nell'acqua. In questo caso il mezzo non è l'acqua ma lo spazio tempo; una differenza non da poco per chi ha dovuto in questi anni andare a caccia di onde invisibili ai più sofisticati strumenti.
La teoria della relatività generale era così avanti rispetto ai tempi che solo negli ultimi 50 anni le conoscenze tecniche e teoriche hanno permesso ai ricercatori di ipotizzare esperimenti per cercare prove a supporto. Nessuno dei test condotti in questi anni è riuscito a scardinare la teoria; un'altra evidenza, se mai ce ne fosse bisogno, della genialità di Einstein.
Il problema della fisica moderna (dalla relatività alla quantistica passando per la fisica delle particelle) è che la validazione di una ipotesi "matematica" impone l'utilizzo di mezzi e risorse ingenti, ottenibili solo attraverso la cooperazione internazionale. Mega-strutture come il LHC al CERN in grado di generare collisioni con energie dell'ordine di 1 PeV (10^15 eV) e i Laboratori Nazionali del Gran Sasso per lo studio dei neutrini, sono l'esempio della complessità sottostante ad ogni verifica sperimentale.

Uno scorcio di LIGO (--> vista aerea)  
(Cfoellmi via Wikimedia Commons)
Lo studio di onde elusive come quelle gravitazionali non poteva evidentemente essere da meno in quanto a complessità di approccio. Per sperare di catturare una di queste onde sono stati utilizzati due rilevatori giganti (LIGO) separati tra loro da 3 mila chilometri (uno ad Hartford in Louisiana e l'altro nello stato di Washington) ma gestiti come un singolo e grande osservatorio. Il motivo per cui LIGO è stato costruito come un duplicato a tali distanze è nella necessità  di eliminare segnali spuri (rumori di fondo, errori di detezione di tipo stocastico, etc) e di ottenere una conferma della veridicità del segnale statisticamente inoppugnabile. La probabilità che un segnale "casuale o ambientale" si ripeta a tali distanze e nello stesso momento è sufficientemente bassa da poter essere esclusa. Test così stringenti sono un obbligo quando si da la caccia a qualcosa di intrinsecamente difficile non solo da rilevare ma di cui bisogna in primis provare l'esistenza.
Oltre a LIGO vi è il rilevatore italo-francese, denominato VIRGO, sito nelle campagne di Pisa, che ha collaborato attivamente con gli americani per la rilevazione delle onde gravitazionali.
Come identificare onde mai captate prima?
Ci si è basati sul principio fisico dell'interferenza. Cerchiamo ora, usando VIRGO come riferimento, di capire come questo principio noto a tutti gli studenti liceali è stato usato per scoprire le onde gravitazionali.
Veduta aerea di VIRGO
(Credits: The Virgo Collaboration).)
Virgo consta di due bracci lunghi tre chilometri (vedi foto) costituiti da tubi a vuoto all'interno dei quali viaggiano fasci laser gemelli derivati, grazie ad uno specchio, da un singolo fascio principale. I fasci di luce vengono fatti viaggiare avanti e indietro centinaia di volte lungo ciascun braccio, fino a coprire una distanza teorica di 300 km, e infine ricongiunti generando una figura di interferenza. Se uno dei due fasci ha incontrato un'onda gravitazionale durante il "periodo di separazione", l'alterazione indotta emergerà dalla figura di interferenza.
Pensate ora ad un approccio simile ma in versione gigante ed otterrete LIGO: bracci lunghi 4 km e struttura duplicata a 3 mila km di distanza. Nello specifico dei risultati ottenuti, la perturbazione dello spazio-tempo ha raggiunto i rilevatori causando una piccolissima variazione della distanza tra gli specchi nei bracci (per capirci, una variazione pari a 1/1000 del raggio di un protone!! Vedi la Clicca qui per la simulazione video creata dalla Caltech). Vedremo in seguito quanto grande ha dovuto essere l'evento cosmico "perturbatore" per indurre una submicroscopica variazione. Un evento immane per una piccolissima alterazione ma sufficiente perché fosse rilevata.


Quando i fisici iniziarono ad analizzare le osservazioni ottenute da LIGO la prima cosa che fecero fu di confrontare il segnale interferometrico con quello ottenuto dai rilevatori standard basati sul segnale elettromagnetico (onde radio, raggi X e gamma, infrarosso e visibile), con la speranza di trovare una coincidenza di eventi e di verificarne l'eventuale ritardo temporale. Un elemento quest'ultimo molto importante in quanto non solo permette di correlare causa ed effetto ma è la chiave stessa per comprendere la natura della forza gravitazionale.
La teoria classica della gravità prevede la presenza di particelle chiamate gravitoni, l'analogo gravitazionale dei fotoni nelle onde elettromagnetiche. Il problema è che la gravità è la più debole tra le 4 forze fondamentali tanto da necessitare di masse enormi per essere percepita; un elemento questo che spiega il suo essere sfuggita ai tentativi di caratterizzazione nell'ultimo secolo, tanto che alcuni ricercatori avevano cominciato a dubitare della validità della teoria.
 Un "facile" video che riassume i concetti base delle onde gravitazionali e il loro rapporto con la materia (credit: PHD Comics)

Se i gravitoni fossero particelle prive di massa come i fotoni, potrebbero viaggiare alla velocità della luce, quindi i due segnali (elettromagnetico e gravitazionale) sarebbero temporalmente coincidenti. Al contrario, se i gravitoni avessero una massa anche solo infinitesimale, la loro velocità non potrebbe mai essere uguale a quella della luce (come Einstein ci insegna); ne consegue che le due onde generate da un dato evento cosmico arriverebbero a noi temporalmente sfasate. Identificare l'onda gravitazionale e l'evento che l'ha generata permetterebbe agli scienziati di attribuire o meno una massa al gravitone; un risultato con pesanti conseguenze sulle basi teoriche della forza gravitazionale. Il dilemma non è stato purtroppo risolto non essendo stata identificato il segnale elettromagnetico di riferimento.
 Semplificando il tema ai minimi termini, è come calcolare durante i temporali il ritardo tra il lampo (onda elettromagnetica che viaggia alla velocità della luce) e il tuono (onda sonora mediata dall'aria).

Alla ricerca di "catastrofi cosmiche"
 Se la sensibilità di un interferometro fosse sufficiente a catturare una delle infinite onde gravitazionali che pervadono ogni centimetro dello spazio, la verifica di uno dei cardini della teoria di Einstein sarebbe stata ottenuta già da qualche anno.
Sistema binario di buchi neri e le onde
gravitazionali indotte dalla loro orbita a
spirale --> video youtube
(T. Carnahan/NASA/GSFC)
Il problema è che nonostante la dimensione dei sensori, si sapeva che era impossibile sperare di  registrare le perturbazioni spazio-tempo "quotidiane". Per sperare di catturarne l'eco servivano "scossoni" dello spazio-tempo innescabili solo da eventi galattici. La collisione di due buchi neri è, energicamente parlando, uno scossone sufficientemente violento da fare al caso nostro. Un evento ovviamente raro ma "reale" su scala cosmica grazie anche alla possibilità di guardare indietro nel tempo che il guardare ai confini dell'universo consente.
Perché proprio la fusione di due buchi neri? Le onde gravitazionali sono difficilissime da individuare a causa della loro scarsa capacità di interagire con la materia. In un certo senso (semplifico al massimo) è lo stesso problema che si è avuto quando ci si è posto il problema di come rilevare i neutrini, particelle abbondantissime ma con bassa propensione ad interagire con la materia (vede solo i nuclei atomici, quindi noi e il nostro pianeta siamo di fatto trasparenti ad essi). Fu il fisico italiano Bruno Pontecorvo a ipotizzare il modo per intercettare almeno qualcuno dei miliardi di neutrini che attraversano la Terra ad ogni istante: usare come sensore atomi con alto numero di neutroni in modo da massimizzare la probabilità che un neutrino colpendo il nucleo "cambi" l'atomo in un altro elemento; i sensori più usati sono basati su cloro-argon. Al confronto delle onde gravitazionali, i neutrini sono facili da misurare. Scovare un'onda gravitazionale implica metodi di interferometria ed eventi eccezionali come buchi neri o stelle di neutroni in collisione (forse anche delle semplici supernova).
"Usare" lo scontro tra due buchi neri offre un altro vantaggio: oltre ad essere un evento sufficientemente violento da provocare increspature registrabili, è di fatto il modo migliore per dimostrare l'esistenza stessa dei buchi neri, almeno nella accezione standard di oggetti perfettamente rotondi costituiti di puro spazio-tempo deformato e vuoto, come predetto dalla relatività generale.
Ricordo che il buco nero come concetto astrofisico nasce dalla soluzione delle equazioni di Einstein, contenute nella relatività generale, fatta da Karl Schwarzschild. Non che ci siano dubbi sostanziali sulla esistenza dei buchi neri ma le prove fino ad oggi disponibili del loro essere reali oltre che matematici, erano circostanziali. Indizi molto forti come l'emissione da un sistema binario di raggi X generati dal gas di una stella risucchiato verso il buco nero oppure lo studio dei nuclei galattici attivi; indizi importanti ma non evidenze dirette. Le onde rappresentano la "pistola fumante" dell'esistenza di un buco nero; tornando al paragone fatto prima, identificare le onde gravitazionali equivale a identificare in uno stagno l'origine dei cerchi concentrici che si dipanano dal punto in cui il sasso è caduto in acqua. Il cerchio ci permette di calcolare posizione e dimensione del sasso, anche se non lo abbiamo visto.
Perché proprio due buchi neri?
La teoria ci dice che in un sistema stellare binario costituito da due stelle in orbita a spirale reciproca, l'energia liberata dalla loro collisione genera sia un "burst" di radiazioni che increspature dello spazio-tempo; tuttavia solo è "forte" a sufficienza da essere registrata dai nostri strumenti. E' lecito ipotizzare che all'aumentare della massa costituente il sistema binario, l'energia emessa cresca esponenzialmente e con essa le probabilità di rilevare le onde gravitazionali.
La fine di un sistema binario stellare (Image credit: NASA/CXC/GSFC/T.Strohmaye via E.Siegel)


Se non vedete la simulazione della fusione andate su --> wikimedia

Se sostituiamo le stelle del sistema binario con due stelle di neutroni, due buchi neri o una stella di neutroni e un buco nero, le onde generate dal botto (meglio ancora la fase immediatamente precedente allo stesso) dovrebbero essere sufficientemente potenti da essere percepite anche a distanze galattiche.
Immaginare la presenza di due buchi neri (o stelle di neutroni) al posto delle stelle non è un puro esercizio teorico. Dato come punto di partenza un sistema binario costituito da due stelle supermassicce è il loro stesso ciclo vitale che culmina in una supernova a prevedere che i resti lasciati dall'esplosione siano buchi neri o stelle di neutroni (a seconda della massa di partenza).
Nelle fasi che precedono lo collisione (orbite a spirale con velocità sempre maggiori, prossime a quelle della luce!!) la velocità di rotazione aumenta, e con essa la frequenza delle onde gravitazionali emesse. Negli ultimi secondi prima della fusione l'energia emessa è pari a circa il 5% della massa del sistema; facendo due calcoli si ha che l'energia emessa in un secondo è maggiore di tutta l'energia emessa dal sistema nel corso della sua esistenza ... .
Una volta avvenuta la collisione e prima che il buco nero risultante si stabilizzi in una perfetta forma sferica (conseguenza della enorme forza gravitazionale), l'oggetto assumerà forme irregolari e transienti; immaginiamo due bolle di sapone che si uniscono e prima di stabilizzarsi le vedremo assumere forme diverse. In questa fase il buco nero emetterà onde secondo uno schema noto come ring-down (per una descrizione più esaustiva consiglio vivamente la lettura di --> "Back Hole collisions" sul sito della School of Physics and Astronomy dell'università di Cardiff).
La figura esemplifica la variazione di frequenza di un onda gravitazionale poco prima della collisione. Il termine usato per descrivere un segnale che presenta tale variazione di frequenza in funzione del tempo è detto chirp (credit: A. Stuver/LIGO)
Visto che le onde gravitazionali sono state spesso paragonate al suono che si propaga nell'aria, può essere utile trasformare il segnale registrato dall'interferometro in "un'onda sonora". Il risultato è un suono sempre più acuto che ricorda quello prodotto da alcuni uccelli e insetti (da qui il nome chirp ovvero cinguettio o trillo).

Clicca sul tasto play per sentire il suono


Siamo arrivati così al giorno fatidico, il 14 settembre 2015, quando LIGO cattura un chirp inequivocabile dalla cui analisi è stato possibile determinare la massa dei due oggetti pre-collisione: due buchi neri di massa circa 36 e 29 volte quella solare. 
L'evento, battezzato GW150914, ha avuto luogo in una galassia lontana più di un miliardo di anni luce dalla Terra (red shift = 0.09) ed ha prodotto un nuovo buco nero di massa 64 volte quella solare (se pensate che sia enorme considerate che al centro della nostra galassia c'è ne è uno con massa 4,3 milioni quella del Sole ...).

I segnali registrati nelle due stazioni LIGO sono sovrapponibii ad indicare la natura non stocastica dello stesso o un rumore ambientale (essendo identico a 3 mila km di distanza). A causa della distanza tra le due antenne, si è osservato uno sfasamento di 10 milllisecondi tra i due eventi. La probabilità che un simile segnale apparisse quasi contemporaneamente nei due rivelatori per caso è stimata in 2·10^-7
Credit: B. P. Abbott et al. (2016) Phys. Rev. Lett. 116,

Per avere una idea dell'energia emessa durante lo scontro di questi buchi neri, è come una massa tre volte quella solare fosse stata convertita in una perturbazione gravitazionale. I numeri calcolati da qualcuno molto più bravo di me rendono meglio l'idea: dato che l'energia emessa è pari a 3.6x10^51 W e che il Sole emette normalmente 3.8x10^26 W, l'energia equivalente è quella che si otterrebbe accedendo 10^25 stelle. Se considerate che il numero di stelle nell'universo osservabile è "solo" 10^23 allora capirete quanto incredibile sia l'energia liberata.
Correlazione visiva tra il segnale emesso e l'avvicinamento dei due buchi neri. Nel pannello inferiore è ben evidente la velocità alla quale avviene lo scontro (prossima a quella della luce). Altra rappresentazione --> QUI.
Credit: B. P. Abbott et al. (2016) Phys. Rev. Lett. 116,
"Visualizzazione sonora" dell'onda (by GeorgiaTech)

Simulazione al computer della traiettoria di avvicinamento finale (linee tratteggiate) e delle perturbazioni gravitazionali indotte (contorni colorati). La freccia verde indica la direzione di rotazione (C. Henze/NASA Ames Research Center)

Dalla lettura dell'articolo non ho trovato alcun riferimento sulla correlazione temporale tra onda gravitazionale e segnale elettromagnetico, essenziale per capire qualcosa di più sulla natura dei gravitoni. Vedremo in futuro se emergeranno nuovi elementi.

***
Prospettive future. Stelle di neutroni e onde gravitazionali
E se nel sistema binario ci fossero state due stelle di neutroni?
Le stelle di neutroni sono i cadaveri di stelle massicce collassate sotto il loro stesso peso una volta finito il carburante in grado di sostenere gli strati esterni. Il collasso comporta il raggiungimento di una densità nella parte più interna della stella da causare la degenerazione della materia (elettroni e protoni si fondono a generare neutroni) con associata emissione dei neutrini che spazzano tutto ciò che si trova "sopra" il nucleo. In altre parola una supernova di tipo 2.
A seconda della massa della stella di partenza, il cadavere della stella è un buco nero o una stella di neutroni cioè una sfera di 10-20 km di diametro in cui è concentrata materia pari a 1-3 masse solari. La stella di neutroni è una stella buia che ruota ad altissima velocità sul proprio asse, rotazione conseguenza della legge di conservazione del momento angolare.
 Le stelle di neutroni dovrebbero avere una superficie perfettamente sferica. Lo stesso vale per i buchi neri, solo che qui invece di una superficie abbiamo l'orizzonte degli eventi. Alcuni astrofisici ipotizzano però (in base a calcoli ben lontani dalla mia capacità di comprensione) che nel caso delle stelle di neutroni la superficie sia in realtà frastagliata (parliamo di "rilievi" di pochi millimetri su oggetti del diametro di qualche chilometro). A causa della rotazione, la distribuzione asimmetrica della massa provocherebbe la deformazione dello spazio-tempo, generando un segnale d'onda gravitazionale che equivale ad una irradiazione di energia. Una perdita di energia che frenerebbe a sua volta la rotazione della stella.
Immaginiamo di trovarci di fronte ad un sistema binario costituito da stelle di neutroni che orbitano a spirale l'una intorno all'altra come nell'esempio di GW150914. Anche qui si avrebbe l'emissione di un segnale chirp ma l'esito finale è meno prevedibile a priori (dipende dalla massa e densità della materia dei due partner). A seconda dei casi l'esito della fusione potrebbe essere una enorme stella di neutroni o un oggetto che comincia un nuovo processo di collasso che lo trasformerà in un buco nero.
La fisica delle stelle di neutroni è così estrema che sebbene tale evento sia "predetto e circostanziato" da osservazioni consolidate, è ancora un oggetto "misterioso". Le onde gravitazionali potrebbero insegnarci qualcosa di più su questi oggetti.

La scoperta fatta grazie a LIGO promette di essere solo un anticipo di quello che potremmo capire dai segnali che arrivano dallo spazio profondo.


***
A distanza di pochi mesi dalla prima rilevazione delle onde ecco arrivare un'altra conferma derivante dalla fusione di due buchi neri, di sole 14 e 8 masse solari rispettivamente. Il segnale venne in realtà intercettato a dicembre 2015, qualche settimana prima dell'annucio ufficiale (riferita alla rilevazione di settembre). L'analisi completa fu messa in secondo piano  a causa della esistente mole di lavoro. Ora si è avuta la conferma che tali eventi non sono irripetibili (causa la loro rarità); semplicemente avevamo bisogno di "orecchie" adatte per poterle identificare.

Ulteriori dettagli nell'articolo apparso su Nature --> "LIGO detects whispers of another black-hole merger"


*** aggiornamento***
Ad ottobre 2017 è stata comunicata una nuova prova sull'esistenza delle onde gravitazionali (e anche molto di più) originata dallo scontro di due stelle di neutroni
Articolo tematico --> "Lampi gamma e onde gravitazionali"



Fonti
- Observation of Gravitational Waves from a binary black hole merger 
B. P. Abbott et al. (LIGO Scientific Collaboration and Virgo Collaboration) Phys. Rev. Lett. 116, (2016)

- Viewpoint: The First Sounds of Merging Black Holes
 Emanuele Berti, Physics (2016) 9,17

- Gravitational waves: 6 cosmic questions they can tackle
Davide Castelvecchi, Nature

- LIGO homepage e How does an experiment at LIGO actually work? (phys.org - 2016
- Gravitational Waves Discovered? A Physics Rumor Sends Shockwaves Across Twitter

- Un senso in più
INAF

- Onde gravitazionali alla portata di tutti
INAF

- L’alba dell’astronomia gravitazionale
astronomicamens

- Rivelatori per onde gravitazionali 
di Francesco Fidecaro  (università di Pisa) --> pdf

- Ligo. How it works
INAF


***

Dall'autore del tweet anticipatore la notizia sulle onde, un libro consigliato sia all'appassionato della serie che all'amante della fisica --> La fisica di Star Trek



Powered By Blogger
"Un libro non merita di essere letto a 10 anni se non merita di essere letto anche a 50"
Clive S. Lewis

"Il concetto di probabilità è il più importante della scienza moderna, soprattutto perché nessuno ha la più pallida idea del suo significato"
Bertrand Russel

"La nostra conoscenza può essere solo finita, mentre la nostra ignoranza deve essere necessariamente infinita"
Karl Popper