CC

Licenza Creative Commons
Questo opera di above the cloud è concesso sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.

The Copyright Laws of the United States recognizes a “fair use” of copyrighted content. Section 107 of the U.S. Copyright Act states: “Notwithstanding the provisions of sections 106 and 106A, the fair use of a copyrighted work (...) for purposes such as criticism, comment, news reporting, teaching, scholarship, or research, is not an infringement of copyright.”
Any image or video posted is used according to the fair use policy
Ogni news è tratta da articoli peer reviewed ed è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto sia datato.
QUALUNQUE link in questa pagina rimanda a siti sicuri!! SEMPRE.
Volete aiutare questo blog? Cliccate sugli annnunci/prodotti Amazon (se non li vedete, disattivate l'Adblocker mettendo questo sito nella whitelist. NON ci sono pop up o script strani, SOLO Amazon). Visibili in modalità desktop! Se poi decidete di comprare libri o servizi da Amazon, meglio ;-)
Dimenticavo. Questo blog NON contiene olio di palma (è così di moda specificarlo per ogni cosa...)

La stampa 3D? Preistorica se comparata al "replicatore" 3D

Dimentica tutto ciò che sai della stampa 3D perché si va avanti

Le stampanti 3D sono uscite da tempo dai laboratori di sviluppo per entrare prima nei luoghi di produzione e nei FabLab (dove consiglio sempre di andare per prendere confidenza con il mondo dei makers) e infine nelle case.
E' indubbio che sebbene la qualità di una stampante 3D sia molto varia, da strumenti per l'hobbistica a quelle professionali per creare prototipi e  in futuro pezzi di ricambio, i passi avanti fatti in pochi anni hanno reso anche le entry-level qualcosa di più che un giocattolone molto costoso.
Le stampanti FDM (basate su termoplastiche o anche alluminio) sono la scelta più ovvia per un utente non professionale dato il costo abbordabile. Un gradino sopra sono le stampanti SLA (a resina) che se da una parte sono capaci di generare rifiniture molto precise, dall'altra hanno bisogno di equipaggiamento aggiuntivo (tipo i forni a UV e i bagni per rimuovere i solventi) che ne aumentano i costi. Un esempio economico del primo tipo è la Creality Ender 3 mentre una entry-level a resina è la TX o la Orange.
Il passo avanti di cui parlo nel titolo è quello di una stampante 3D capace di ricreare un intero oggetto "in un unico passaggio" anziché costruirlo strato su strato come avviene oggi attraverso la deposizione successiva della plastica o della resina. Il nome assegnato, "replicatore", è un richiamo (e un omaggio) ai dispositivi utilizzati nella serie TV Star Trek.

Il nuovo dispositivo, sviluppato da un team di Berkeley in un articolo apparso il mese scorso sulla rivista Science, funziona sulla falsariga della scansione in una tomografia computerizzata (CT) ... ma al contrario. Nelle macchine CT, un tubo a raggi X ruota intorno al paziente, prendendo più immagini, ciascuna corrispondente ad una sezione del corpo, e infine un computer ricostruisce l'immagine in 3D. 
I ricercatori californiani hanno seguito il procedimento inverso rispetto alla CT, partendo da un modello al computer di un oggetto 3D e da li riproducendo molteplici immagini in 2D dello stesso, prese da diverse angolazioni. Hanno quindi proiettato ciascuna di queste immagini su un contenitore cilindrico riempito con acrilato (un estere derivato dall'acido acrilico, cioè resina sintetica) in modo che la luce "scolpisse" la materia ancora informe.
Nello specifico mentre le immagini venivano proiettate sul cilindro, fino a coprire tutti i 360 gradi, il contenitore ruotava di un angolo corrispondente. Il principio alla base è che la luce su ciascun punto della resina variava e se la quantità di questa luce superava un certo valore, la resina in quel punto si polimerizzava trasformandosi da liquida a solida. Una volta rimossa la resina liquida "avanzata" il risultato finale è un oggetto 3D uguale al suo omologo "virtuale" presente nel computer.
Credit: UC Berkeley
Il processo è molto veloce, circa due minuti per un oggetto di pochi centimetri. La prova di funzionamento mostrata è quella con cui hanno ricreato una miniatura della scultura "Il Pensatore" di Auguste Rodin.

Il video che segue riassume i punti salienti del processo.
Se non vedi il video --> youtube

Il vantaggio di questo nuovo procedimento è la sua maggiore flessibilità operativa rispetto alla stampa 3D tradizionale in quanto, ad esempio, può creare oggetti che ne racchiudono altri andando oltre rispetto alla mera creazione di riproduzioni esterne. I prodotti hanno inoltre anche superfici più lisce, aspetto questo particolarmente interessante per la produzione di componenti ottici e di strumenti medicali.

 Fonte
- Volumetric additive manufacturing via tomographic reconstruction
Brett E. Kelly et al, Science (2019): 363(6431),  pp. 1075-1079


 ***

    



La ricerca della vita nei laghi subglaciali dell'Antartide

Che io abbia una malcelata passione per l'Antartide è cosa risaputa sia tra la cerchia di amici di viaggio che tra chi legge il blog. Una passione che lega l'esplorazione in senso stretto a tematiche prettamente scientifiche. 
La ragione è duplice, legata da una parte all'idea "romantica" dell'essere la nostra ultima frontiera, in un mondo sempre più incancrenito dalla antropizzazione, e dall'altra l'essere il luogo in cui sono, letteralmente, sepolte informazioni biologiche e geologiche sul nostro pianeta.
Sia chiaro nulla (o almeno credo) che abbia attinenza a civiltà scomparse, ad alieni o ultimo rifugio di fantomatiche organizzazioni in stile Spectra (tra quelle più in voga in certi ambienti di "controkultura" del passato, quella di una base nazista in cui si sarebbero rifugiati i gerarchi in fuga ... ).
Un luogo in cui è possibile, scavando in profondità, raggiungere aree dove il ghiaccio cede il passo a laghi sotterranei in cui la vita, o  le sue tracce fossili, potrebbe essere rimasta isolata ed indisturbata per decine di migliaia di anni. Certamente l'Antartide sta correndo un rischio elevato oggi più che mai, preda ambita per la scoperta di giacimenti minerari di interesse economico, soprattutto per nazioni notoriamente immuni da ogni consapevolezza ecologica (la Cina è un esempio concreto).

Il luogo si presta inoltre sia ad osservazioni astronomiche, date le caratteristiche di quasi nulla umidità atmosferica, che a studi scientifici come quelli condotti  dalla ESA nella base italo-francese Concordia di cui ho già parlato in passato.

Oggi però mi interessa la parte biologica cioè le ricerche sulle tracce di vita (fossile per il momento) rilevate nelle profondità dei ghiacci dai ricercatori. 
Ai fan della SF la prima cosa che verrà in mente è il film "La Cosa" del mitico John Carpenter. Fortunatamente non si tratta di incontri dello stesso tenore drammatico. 
La notizia è il rinvenimento delle carcasse di piccoli animali in un antico lago antartico sepolto a centinaia di metri di profondità. Studio condotto dai ricercatori del SALSA (Subglacial Antarctic Lakes Scientific Access).
La superficie del pianeta ha subito profondi rimodellamenti a causa della deriva delle placche tettoniche. Negli ultimi 280 milioni di anni siamo passati da un supercontinente allo stato attuale. Limitandoci ad un intervallo di tempo più "recente" come il Cretaceo (circa 90 milioni di anni fa), l'Antartide non solo si trovava a latitudini meno estreme ma le temperature erano tali che il ghiaccio mancava anche ai poli. Risultato è che aree oggi "deserte" erano un tempo ricche di flora e fauna. Sebbene la temperatura si sia progressivamente abbassata con congelamenti e scongelamenti, la glaciazione "definitiva" è avvenuta alla fine del miocene  (credit: giphy)

In tempi "più recenti", pur all'interno di una sostanziale glaciazione diffusa, la temperatura media (dati riferiti all'area di Vostok, Antartide) è variata in modo ciclico all'interno di un intervallo di una decina di gradi. Variazioni sufficienti per consentire, almeno in alcune aree, il temporaneo "ripopolamento" biologico (pur se limitato nella tipologia). Un dato che spiega i resti fossili relativamente recenti, trovati nelle profondità dei ghiacci. (credit: NOAA via wikipedia)
  La notizia non è tanto nei fossili, "facili" da trovare in alcune aree dell'Antartide perennemente prive dei ghiacci, ma nell'averle identificate in profondità e databili ad un epoca in cui l'Antartide era già ghiacciata.
La McMurdo valley, vicino alla baia di Ross, è il tipico esempio di zona senza ghiaccio ma pur sempre freddissima. La ragione è legata ad una orometria che non favorisce il transito delle nubi e, a cascata, in un clima molto secco. Aree simili, anche se meno estese, sono catalogate come "oasi antartiche"
I ritrovamenti avvenuti nel lago subglaciale Mercer (1000 sotto la superficie e distante 600 km dal polo), sono quelli di resti di crostacei e di un tardigrado, che ad una prima analisi risalgono ad alcune decine di migliaia di anni fa. La scoperta non è stata casuale ma è il risultato di una attività di carotaggio dell'area finalizzata all'identificazione di tracce biologiche.
La tipologia dei resti ha fatto sollevare più di un sopracciglio ai biologi perché si tratta di animali che prediligono altre aree come dimostra la maggior frequenza di ritrovamenti nelle montagne circostanti. L'ipotesi attuale è che siano resti di animali che vivevano in prossimità di quelli che all'epoca erano stagni e ruscelli nei Monti Transantartici, distanti 50 chilometri dal lago, e poi trascinati a valle e in profondità fino al lago. fin qui. Se questo è il caso la datazione dovrebbe essere fatta risalire a due intervalli di tempo, compatibili con periodi di ritiro dei ghiacci, cioè 10 mila o 120 mila anni fa.
Probabile che il ritrovamento nel lago Mercer sia frutto dell'opera di dilavamento delle acque subglaciali dalle montagne verso il lago oppure che sia stato il blocco di ghiaccio in cui erano intrappolati ad essere stato spinto fino alla posizione attuale dall'avanzamento dei ghiacciai.
L'unica altra spedizione di cui sia a conoscenza che abbia cercato resti in un lago subglaciale antartico è quella del 2013 nel lago Whillans: qui i ricercatori trovarono letteralmente migliaia di specie microbiche, prive di capacità fotosintetica con un metabolismo centrato sull'ossidazione di metano e ammoniaca presenti nei fondali, ma nessun eucariote superiore.
In alternativa le altre due ipotesi formulate sono che il lago subglaciale avesse al tempo abbastanza ossigeno da permettere la vita di piccoli organismi acquatici che si nutrivano di batteri oppure che gli animali fossero arrivati dall'oceano attraverso lingue di acqua marina penetrata sotto le centinaia di metri di calotta ghiacciata, nei periodi di maggiore "riscaldamento". Organismi rimasti poi intrappolati in sacche di acqua interna dopo la chiusura dei ghiacci.
Qualcosa di simile è in effetti avvenuto in altre parti dell'Antartide, sebbene localizzate in aree meno "estreme" di quella del lago Mercer. Aree in cui il graduale sollevamento del continente ha trasformato le baie oceaniche poco profonde in laghi isolati sepolti da una coltre di ghiaccio che però permetteva il passaggio di luce sufficiente alla fotosintesi di alghe microscopiche, da cui il nutrimento per i crostacei "intrappolati"; un ecosistema rimasto inalterato per alcune migliaia di anni.
I laghi come il Mercer sono tuttavia luoghi ben più estremi dove nessuna luce solare può arrivare.
Gli unici organismi che potrebbero qui sopravvivere (fungendo a loro volta da cibo in un ecosistema in cui fossero presenti crostacei) potrebbero essere solo microbi chemotrofi, capaci di ricavare energia da alcuni minerali e/o materia organica residuale di epoche passate.
Una ipotesi che i biologi ritengono poco credibile perché la crescita dei batteri in queste condizioni non sarebbe tale da garantire cibo a sufficienza anche al più piccolo degli animali acquatici intrappolati nel lago.
La prima ipotesi (crostacei originari dei monti Transartici) è ritenuta la più credibile anche perché in una regione per certi versi simile come la McMurdo Valley, sono presenti (vivi e fossili) animali "imparentati" con i fossili del lago Mercer.

Prima di tornare alla base, nei primi giorni del 2019, i ricercatori hanno sigillato il pozzo di carotaggio per prevenire contaminazioni esterne. Una volta disponibili i risultati della datazione al radiocarbonio si potrà avere una stima più affidabile dell'età dei resti e con essa una migliore comprensione dell'ecosistema lì sviluppatosi per centinaia o migliaia di anni.

La domanda a cui le future missioni dovranno rispondere è se c'è ancora qualcosa di vivo (oltre ai microbi) nel lago.


Video del carotaggio
A Glimpse of Mercer Subglacial Lake - SALSA Science Team from SALSA Antarctica on Vimeo.


Il "lago dimenticato dal tempo" che si trova sepolto sotto i ghiacci Antartici.
Image credit: columbia.edu

Articoli correlati in questo blog --> "Un lago primordiale sotto la superficie canadese" e --> "Tepui le terre dimenticate dal tempo".

Fonte
- Salsa-antarctica.org website

-Lake Mercer Update: An Unprecedented Window into Subglacial Lake Draining
salsa-antarctica.org





Risparmio energetico. Finestre autoscurenti a comando

Oggi è  la "giornata del clima", quindi l'occasione ideale per parlare di una innovazione utile per risparmiare energia.

Si tratta di vetri che si scuriscono in modo controllato con il risultato di ottimizzare i consumi elettrici dell'aria condizionata sia negli edifici che nei veicoli.
Lo studio viene non a caso dall'università del Nevada, uno stato in cui la climatizzazione dei luoghi abitabili non è un vezzo ma una necessità 
Fu solo con l'avvento dei sistemi di condizionamento elettrico su larga scala (1920s) che fu possibile popolare zone della Sun Belt in USA, prima popolata unicamente su cadenza stagionale dai mandriani e da qualche temerario avamposto stabile.
Ad essere sinceri le finestre che da trasparenti diventano opache "a comando" non sono qualcosa di completamente nuovo. Le attuali hanno tuttavia punti deboli legati alla lentezza con cui si scuriscono e alla tonalità bluastra che passa quando parzialmente opache.

La novità tecnica nasce dall'avere sviluppato finestre che all'interno del pannello sono rivestite da strati di ossido di nichel, ioni di litio e gel elettrolitico. Una composizione che fa si che quando si fa passare la corrente in questi strati l'ossido di nichel, agendo come un vero e proprio elettrodo, assorbe gli ioni di litio diventando opaco. Nello stesso momento si forma un deposito di elettroliti sul secondo rivestimento della finestra che funge da secondo elettrodo. Il risultato è un blocco più efficace della luce, rapido e primo delle tonalità cromatiche delle finestre attuali.

credit: Chris Barile / Un. Nevada / Nat. Energy
I dati pubblicati indicano che è possibile bloccare il 94% della luce entro 60 secondi dall'attivazione ed è possibile fare ripetuti cicli acceso/spento (alias opaco/trasparente) per almeno 4000 volte senza che vi sia una perdita significativa di efficienza.

Video delle prove di laboratorio

 Sebbene sia un prototipo, il sistema è potenzialmente implementabile su larga scala anche sui veicoli (ovviamente non lato guidatore ... almeno finché non verrà sviluppato qualcosa di simile ad un vetro a specchio).
Di sicuro studi del genere sono molto più utili che i generici e molto mediatici "strilli di agenzia" o tavole rotone che parlano di "Giornata del Clima", buoni solo per la logorrea ideologica dei politici e, ammettiamolo, per gli studenti che ne approfittano (come ogni venerdì ... guarda che caso strano) per una sana bigiata da scuola in una giornata di primavera .

Fonte
- Hybrid dynamic windows using reversible metal electrodeposition and ion insertion
 Christopher J. Barile et al, (2019) Nature Energy, 4, pp. 223–229

- Adjustable tinted windows now electronically controlled


Studiare la visione cromatica nei pesci con test comportamentali

"Come potete dire quali colori riesce a vedere un animale?"
Questa è una delle domande più frequenti che vengono poste ai ricercatori che abbiano anche solo di sfuggita avuto a che fare con la fisiologia della vista. Non è una domanda peregrina quella di capire come e cosa vedono gli animali, sia in riferimento ai dettagli ambientali che alla percezione cromatica.

La risposta è possibile grazie a due approcci tra loro complementari che potremmo chiamare "meccanicistico" e "comportamentale".
Nell'approccio meccanicistico si parte dalle caratteristiche strutturali (macro e cellulari) dell'occhio per dedurre cosa possa e cosa non possa "vedere" (acutezza visiva e sensibilità cromatica ad esempio) quell'animale.
I test comportamentali analizzano la capacità dell'animale di riconoscere oggetti, forme e colori associandoli ad una ricompensa (il sistema del reward è profondamente innestato nella biologia come guida alla sopravvivenza).
Nota.  Solo limitandoci allo studio della retina si può capire molto osservando l'abbondanza relativa di cellule come i coni e i bastoncelli. Mentre i bastoncelli sono più sensibili alla luce ma incapaci di distinguere diverse lunghezze d'onda, i coni sono la chiave per discriminare i colori a costo di una minore sensibilità. Un dato che spiega per quale motivo con il diminuire della luce i colori percepiti tendano a "scomparire". Inoltre la distribuzione di coni e bastoncelli non è uniforme con i coni che si trovano quasi esclusivamente vicino alla fovea. Anche questo un dato che spiega perché la nostra visione laterale sia sensibile (rilevi qualcosa "con la coda dell'occhio") ma poco dettagliata e "acromatica". Un animale notturno dovrà quindi avere un maggior numero bastoncelli di uno diurno oltre che sistemi per "amplificare" la poca luce disponibile (questa la ragione per cui gli occhi dei gatti, animali notturni, sembrano avere luce propria). Per ragioni simili, nel senso di funzionalmente efficienti, animali che si nutrono di frutta, come i primati, dovranno avere una capacità cromatica nettamente superiore a quella di un erbivoro. I coni si differenziano tra loro per il tipo di fotorecettore che funge da rilevatore della luce. Se noi e un certo numero di primati abbiamo tre tipi di fotorecettori, ciascuno con un picco di sensibilità per il rosso, verde e blu, altri animali ne hanno due (minore necessità di discriminazione cromatica) mentre altri (come molti uccelli) ne hanno quattro. Tra l'altro anche le api hanno una capacità tetracromatica con una sensibilità aggiuntiva per l'ultravioletto, cosa che permette loro di identificare chiaramente alcuni fiori che a noi apparirebbero molto simili ad altri "bluastri".
La sensibilità cromatica negli umani correlata ai tre tipi di coni e al singolo tipo di bastoncelli s
(credit: OpenStax College)
La sensibilità cromatica nelle api. Negli uccelli non è molto diverso --> QUI
La selezione evolutiva che spiega il passaggio da dicromia (maggior parte mammiferi) a tricromia (molti primati) si ritiene sia stata la conseguenza di una dieta più "fruttariana" che vegetariana, da cui la necessità di distinguere visivamente un frutto maturo da uno acerbo. (credit: American Museum of Natural History)
Ma un conto è la previsione (in effetti abbastanza accurata) mediante calcoli basati sulla tipologia, distribuzione e numero dei fotorecettori presenti negli occhi e un altro capire come questa informazione venga poi elaborata nel cervello e, cosa ancora più importante, capire come una registrazione di dati visivi apparentemente caotica venga poi rielaborata per cogliere aspetti come forme e come l'insieme di questi dati venga ricostruito in una immagine capace di "avere un senso" per l'animale (cosa molto diversa dalla nostra elaborazione corticale, alla base del comprendere il mondo), intesa come identificazione di ciò che è utile alla sua vita (dal cibo ad ostacoli sul terreno a predatori).
Per le tematiche attinente a riconoscimento forme e volti vi rimando a due articoli precedenti --> forme e --> volti.
La fisiologia è utile ma le conoscenze non sono ancora tali da permettere previsioni accurate al 100% soprattutto quando oltre ai colori entrano in gioco variabili come la forma, distanza, movimento, ... .

Un esempio di studi comportamentali su animali "difficili" come i pesci, viene dal Brain Institute della università del Queensland in Australia. Qui i ricercatori hanno sviluppato metodi per insegnare ai pesci cosa è utile riconoscere (ad esempio associandolo ad una fonte di cibo) testando in tal modo cosa riescano a vedere nel mondo circostante.
Il nuovo test, basato sul test sul daltonismo di Ishihara e mostrato nel video in calce, è considerato tra i più completi per analizzare nei vertebrati la capacità di percezione cromatica.
Il test classico, volto a capire quali colori l'animale vedesse, si basava su due passaggi. Nel primo si insegnava all'animale a riconoscere il disegno di un quadrato verde in quanto associato al premio (cibo) mettendolo poi di fronte alla scelta tra quadrati rossi e grigi. Il test sarebbe poi continuato diminuendo ad ogni passaggio la differenza cromatica tra i due colori. Due i punti deboli di questo test: c'era sempre la probabilità (50%) che la scelta del pesce fosse stata casuale; per testare un colore diverso bisogna ricominciare da zero l'addestramento di un nuovo pesce.
Il test di Ishihara utilizza numeri o lettere incorporati all'interno di una serie di punti per valutare la capacità delle persone di vedere i colori.
Nel nuovo test i pesci balestra sono stati addestrati (l'incentivo è sempre il cibo) a trovare una particolare macchia di colore all'interno di un campo di macchie.
credit:uq.edu.au
Variando il colore del fondo e del punto target è relativamente semplice testare un'intera gamma di colori nello stesso momento e in condizioni non molto diverse dal loro ambiente naturale.

A che scopo?
Studiare la visione dei colori negli animali ha importanti implicazioni sia per approfondire la correlazione struttura-funzione che per capire l'ampia variabilità cromatica di molte specie di pesci.

Video
Se non vedi il video --> youtube (credit: QldBrainInstitute)

La ricerca, è stata pubblicata sul Journal of Experimental Biology.

Fonte
-  An Ishihara-style test of animal colour vision
Karen L. Cheney et al, Journal of Experimental Biology (2019) 222



***
I maschi hanno una intrinseca (e dimostrata) incapacità di identificare in modo conscio molti colori catalogandoli genericamente. Questo libro è un vero campionario cromatico.



Il colore nella storia e nella comunicazione


La University of California rompe con Elsevier

La University of California (UC) cancella gli abbonamenti alle riviste edite da Elsevier. 
Una notizia apparentemente irrilevante nel merito e come portata solo se si ignorano due aspetti:
1) la UC comprende 10 università californiane tra le quali top come Berkeley, UCSF e UCLA.
2) Elsevier, insieme a Wiley e Springer, è tra i giganti dell'editoria scientifica. Il loro impatto nella vita quotidiana di uno scienziato è molto superiore a quella di un editore classico in quanto il lavoro di ricerca, per essere diffuso e quindi attribuito, deve passare  attraverso le forche caudine della pubblicazione su una delle tante riviste da loro gestite.

La decisione di cancellare gli abbonamenti alle riviste (per un valore sottostante non secondario dato il numero delle riviste e il costo dell'abbonamento) va inquadrata all'interno del conflitto in corso da qualche anno tra chi fa ricerca e chi "usa" gli articoli come mezzo di business.
Scontro impari in quanto sbilanciato tra chi "è obbligato dal sistema" (vedi sotto) a pubblicare e chi, invece di fungere tra tramite tra i ricercatori in ogni dove diffondendo la conoscenza, impone ad università, biblioteche e centri di ricerca, elevati costi di abbonamento per potere accedere alla rivista (digitale o cartacea che sia). 
Se si pensa che il numero di riviste più o meno specializzate "essenziali" è, solo in ambito biologico, di alcune decine e che a queste vanno aggiunte riviste ultra-specializzate, si arriva facilmente al centinaio. Un costo "obbligato" se si vuole permettere ai propri dipendenti/studenti/affiliati di accedere alle novità del settore e ad articoli "di archivio". Non si tratta solo di "letture" ma di uno strumento essenziale per orientare l'attività di ricerca.
Il succo del problema può anche essere visto in modo ideologico considerando che la scienza necessita di comunicazione in tempo reale (e non dopo mesi) perché possa avanzare ed essere efficiente, evitando di buttare soldi e tempo per rifare qualcosa già fatto o per percorrere una strada dimostrata essere inutile da altri. Altrimenti il rischio reale è che solo i megaistituti possano accedere ai risultati ampliando così il già esistente gap tra istituti e paesi con minori risorse economiche.

Altro aspetto importante è che a differenza di altri media non c'è nemmeno la scusa dei costi sottostanti per pagare i giornalisti visto che qui gli articoli sono scritti da ricercatori e valutati da altri ricercatori su base gratuita. Inoltre il costo della stampa è un non-problema in un mondo in cui tutto dovrebbe essere digitalizzato e il supporto cartaceo è semmai un lusso da pagare. Ci sono evidentemente costi redazionali e di editore ma nemmeno lontanamente paragonabili a quelli, ad esempio, del NYT.

Che non sia una lotta "di settore" lo si evince dalla presa di posizione della Germania e di altri paesi che hanno cercato di calmierare i costi cercando di imporre abbonamenti su scala nazionale (tra stato ed editore) in modo che tutti gli istituti (ma anche i privati cittadini) potessero accedere "gratuitamente" aumentando così la competitività del sistema. Ogni studioso tedesco, che appartenga al Max Planck Institut o ad un ente di ricerca secondario della Foresta Nera, avrebbe così uguale accesso agli articoli che, ripeto per loro natura, devono essere di dominio pubblico.
L'iniziativa è stata accolta e rilanciata dalla EU che ha proposto il cosiddetto Plan S, una iniziativa per l'accesso libero ai contenuti dell'editoria scientifica nel giorno stesso in cui avviene la pubblicazione (oggi l'embargo è di almeno 6 mesi o indefinito in molti casi con un numero risibile di articoli open-access da subito). Il Plan S ha ricevuto il sostegno (morale e economico per i costi da sostenere) da fondazioni come la Wellcome Trust e quella di Bill Gates.
Una iniziativa che ovviamente è fortemente contrastata dai colossi dell'editoria e messa in sordina dalle consorelle generaliste (quelle che in Italia vivono, per inciso, di finanziamenti sullo stampato - NON sul venduto).

Ma vediamo cosa ha detto Robert May e Janet Napolitano, decano del senato accademico e presidente della UC, rispettivamente :
Knowledge should not be accessible only to those who can pay. The quest for full open access is essential if we are to truly uphold the mission of this university (… ). Open access publishing, which makes research freely available to anyone, anywhere in the world, fulfills UC’s mission by transmitting knowledge more broadly and facilitating new discoveries that build on the university’s research and scholarly work. This follows UC’s faculty-driven principles on scholarly communication. I fully support our faculty, staff and students in breaking down paywalls that hinder the sharing of groundbreaking research". “This issue does not just impact UC, but also countless scholars, researchers and scientists across the globe — and we stand with them in their push for full, unfettered access.
 La mossa è destinata ad avere ripercussioni non fosse altro che per il segnale forte (che suona come avvertimento) lanciato a chi ha fatto soldi (e tanti) usando il lavoro di altri.

Nota. Qualche settimana prima la Wiley ha sottoscritto con la Germania un accordo che garantisce il libero accesso agli articoli, per università e biblioteche (--> Wiley strikes open access deal with German universities and libraries)

Fonte
-UC terminates subscriptions with world’s largest scientific publisher in push for open access to publicly funded research


- Petizione " The Cost of Knowledge"

***

La parte che segue è indirizzata a coloro che non hanno familiarità con questo mondo e in particolare sul perché la pubblicazione sia lo strumento chiave (anzi spesso l'unico) che il ricercatore ha a disposizione per continuare a lavorare oltre che per farsi riconoscere come autore di una data osservazione.
Tre sono le cose da sapere per contestualizzare la notizia:
  1. La pubblicazione di un articolo di ricerca è il mezzo con cui i ricercatori comunicano i propri risultati, si fanno conoscere e possono legittimare i fondi ricevuti ma soprattutto rafforzare la propria posizione per accedere a quelli futuri. Chiaramente non funziona come con i politici che scrivono un articolo, millantando qualunque cosa, lo passano al direttore del giornale di turno e il giorno dopo questo apparirà senza alcun contraddittorio sul giornale nazionale. Il processo di pubblicazione di un articolo scientifico è lungo, incerto e snervante per i ricercatori. La rivista che lo riceve (che può essere una multidisciplinare come Nature o molto specializzata come Blood) fa una prima scrematura circa l'idoneità tematica e l'interesse potenziale; qualora fosse ritenuto idoneo "per essere valutato" inizierebbe un percorso della durata minima di qualche mese durante il quale l'articolo viene inviato a revisori (in genere tre) esterni, anonimi (per chi ha scritto l'articolo), appartenenti allo stesso campo di ricerca e con competenze in quel settore specifico. La loro valutazione può portare alla richiesta di nuovi esperimenti, alla accettazione o al rifiuto; in base alla summa di pareri l'editore comunica il responso. Se rifiutato in quanto non "adeguato" al livello di quella rivista, l'articolo in genere inizia l'iter con un'altra rivista, più specializzata e/o con barriere di ingresso inferiori. Il ricercatore intelligente deve quindi fare da subito una valutazione sul giornale più adatto al proprio lavoro (per evitare mesi di rimbalzo da una rivista all'altra) tenendo bene a mente che pubblicare su una rivista o l'altra non è uguale
  2. Non è uguale perché ogni rivista ha un "indice di popolarità" diverso. Questo indice, noto come Impact Factor (IF), è un valore che indica la visibilità e l'attendibilità del lavoro pubblicato (indica quante volte articoli apparsi su quella rivista sono stati citati sui lavori successivamente pubblicati da altri ricercatori, anche su altri giornali). Chi riesce a pubblicare su (ad esempio) Nature sa che è il top tra le riviste perché sceglie i lavori più significativi in vari campi scientifici. L'attendibilità è intrinseca perché il processo selettivo è molto duro e i risultati subito sottoposti a verifiche indirette da molti più ricercatori rispetto a chi pubblicasse i propri risultati su una rivista meno consultata. Oltre al IF con il tempo si sono affiancati altri parametri che svolgono più o meno la stessa funzione, cioè "pesare" l'articolo pubblicato (e quindi la solidità degli autori) per il numero di volte che questo è stato successivamente citato. Un numero alto di fianco all'articolo è un viatico per un articolo che è stato inserito nella bibliografia di articoli successivi, indice di affidabilità nel tempo.
  3. La ragione di tutto questo è sia scientifica (valutazione del lavoro da parte di pari, alias peer review) che economica (le risorse sono per definizione scarse e devono essere allocate in modo utile … per quanto questo suoni risibile in Italia dove per cultura tutto deve essere "a pioggia", "per conoscenze" e "per chiara fama"). Tale criterio di valutazione non è perfetto e ha un effetto collaterale: molto del tempo di chi fa ricerca è oramai dedicato al pensiero di pubblicare, alla stesura e all'attesa del responso; se per qualità di articoli pubblicati almeno per numero. Una mera ragione di "sopravvivenza" visto che senza pubblicazioni non si ricevono fondi. Tempo tolto alla ricerca e/o didattica. Per quest'ultimo punto la soluzione adottata da alcuni istituti di ricerca tedeschi (ad esempio i vari Max Planck Institut) è stata quella di farsi carico dell'elargizione dei fondi ai ricercatori che verranno poi valutati ogni 2-5 anni in base ai risultati prodotti: non dovendo preoccuparsi di come ottenere i fondi la loro unica preoccupazione è fare scienza e pubblicare su riviste di alto livello (pochi articoli ma buoni).




Powered By Blogger
"Un libro non merita di essere letto a 10 anni se non merita di essere letto anche a 50"
Clive S. Lewis

"Il concetto di probabilità è il più importante della scienza moderna, soprattutto perché nessuno ha la più pallida idea del suo significato"
Bertrand Russel

"La nostra conoscenza può essere solo finita, mentre la nostra ignoranza deve essere necessariamente infinita"
Karl Popper
Controllate le pagine delle offerte su questo blog




















Zerbini fantastici