Tag Archives: dati

Earth Overshoot Day: una riflessiva ricorrenza

19 Ago

Se stamattina vi siete dilettati nel leggere le notizie nelle rubriche di scienza dei principali quotidiani, non vi sarà sicuramente sfuggita la notizia riguardante il cosiddetto Earth Overshoot Day. Come da titolo, credo che sia importante, prima di tutto, comprendere a pieno cosa questo nome significhi ma, soprattutto, aprire una riflessione per il futuro energetico della nostra Terra.

Al solito, vi giuro non vorrei dirlo ma sono costretto, molti dei nostri amati giornali, anche a diffusione nazionale, pubblicano notizie perchè devono, senza minimamente comprendere di cosa si stia parlando. Perchè dico questo? Leggendo diversi articoli, e conoscendo già di mio il significato della ricorrenza, ho provato a mettermi nei panni di qualcuno ignorante sulla questione. Questa sarà anche una mia personale posizione, ma leggendo le notizie in rete, credo che molto difficilmente ci si possa informare capendo realmente quello di cui si sta parlando. Ora, non voglio assolutamente mettermi su un piedistallo, non ne avrei diritto ne tantomeno le competenze, ma, vi prego, prima di scrivere qualcosa, cercate di capirlo almeno voi.

Perchè dico questo? Molti giornali esauriscono la notizia in poche righe riassumendo in questo modo: oggi è il giorno in cui abbiamo ufficialmente consumato tutte le risorse rinnovabili che la Terra è in grado di produrre fino alla fine dell’anno solare. Come direte voi, ma se le risorse sono rinnovabili sono rinnovabili sempre. Come faccio ad aver già consumato quello che la Terra produrrà nei prossimi mesi? Inoltre, per farla breve, ma se ci siamo mangiati tutto quello che avevamo a disposizione fino alla fine dell’anno, domani cosa mangiamo? Per fare un esempio, è come una famiglia che fa la spesa per l’intera settimana senza la possibilità di riandare a comprare nulla. Arrivati a giovedi, le scorte sono completamente finite. Poi?

Cerchiamo di essere seri e comprendere a pieno cosa significa questa fantomatica data.

Ogni anno, l’organizzazione no profit Global Footprint Network, ripeto “organizzazione” non centro di ricerca come qualche giornale ha scritto, calcola la data in cui la nostra società globale ha consumato tutte le risorse rinnovabili annuali. Cosa significa? Prendiamo come esempio un campo coltivato con insalata. Nell’arco dell’anno, questo campo riuscirà a produrre 100 Kg di insalata. Arrivati ad agosto, noi abbiamo già mangiato 100 Kg di insalata, dunque abbiamo raggiunto molto in anticipo le risorse che il nostro campo sarà in grado di produrre. Dunque, se vogliamo mangiare altra insalata dobbiamo prenderla nel campo del nostro vicino.

Ora, come è ovvio, non mangiamo solo insalata. Infatti, questo calcolo viene fatto prendendo in esame tutte le risorse rinnovabili che abbiamo a disposizione sul nostro pianeta. Tra queste, oltre ai cibi, entrano ovviamente anche beni diversi: l’elettricità prodotta da fonti rinnovabili, i tessuti naturali che utilizziamo per i nostri capi d’abbigliamento, ecc..

Nel calcolo di questa data, entra ovviamnete anche la produzione di CO2 che immettiamo in atmosfera. Come è ovvio, il nostro pianeta è in grado di assorbire una frazione degli inquinanti che espelliamo, oltre questa soglia, questi gas restano in atmosfera formando strati inquinanti.

A questo punto, spero di essere riuscito a far capire come è possibile calcolare questa data e quali sono i fattori principali che entrano in questo computo.

Come anticipato, oggi è l’Earth overshoot Day, cioè come il nome stesso indica, il giorno in cui abbiamo superato le risorse della Terra.

Ci deve preoccupare questa data?

Ovviamente si ma, soprattutto, ci deve far riflettere molto. Praticamente, noi stiamo vivendo come parassiti in grado di consumare molto velocemente le risorse del pianeta che ci ospita. Come potete facilmente immaginare, questo trend negativo è solo peggiorato negli ultimi anni.

Visitando il sito dell’associazione:

Global Footprint Network

che oltre a questa data, ha tutta una serie di attività tese a sensibilizzare le società sul problema energetico, troviamo una tabella molto interessante:

Data dell'overshoot day nel corso degli anni

Data dell’overshoot day nel corso degli anni

Quanto riportato mostra l’overshoot day calcolato nel corso degli anni. Come evidente, se nel 1987 eravamo quasi in pari con una data prossima alla fine dell’anno solare, nel corso del tempo l’overshoot day si è sempre notevolmente anticipato. Come spesso sentiamo ripeterci, poichè oggi à il 19 agosto, secondo questo calcolo, per poter vivere noi oggi avremmo bisogno di 1.5 Terre in grado di fornirci le risorse rinnovabili di cui abbiamo bisogno.

Ovviamente, questo è un calcolo mediato su tutti i paesi. Come è facile immaginare, esiste uno squilibrio notevole anche in questo caso. Per un dettaglio su alcuni paese campione, possiamo far riferimento a questa tabella:

Paesi-equivalenti richiesti dai consumi dei singoli stati

Paesi-equivalenti richiesti dai consumi dei singoli stati

In questo caso, il calcolo è sul singolo paese tenendo conto delle risorse che il paese stesso è in grado di fornire alla propria popolazione. Notiamo che ci sono dei casi veramente disastrosi. Esempi? Gli Emirati Arabi avrebbero bisogno di più di 12 paesi equivalenti! Inoltre, non fatevi ingannare dal dato sugli USA. Considerando la grandezza del paese, il numero di abitanti e le risorse a disposizione, se il modello di consumi USA fosse “esportato” anche negli altri paesi, il nostro deficit peggiorerebbe in modo significativo.

Se ci concentriamo sul caso Italia, anche se, almeno in questo caso, non siamo i peggiori in assoluto, sicuramente ci mettiamo del nostro. Come vedete, ad oggi, noi richiediamo 4 volte le risorse del nostro paese. Praticamente, se il calcolo fosse relativo solo al nostro paese, il nostro overshoot day cadrebbe intorno alla fine di marzo.

Per completezza di informazione, esistono ovviamente dei paesi “virtuosi” che contribuiscono ad abbassare il nostro debito naturale. Tra questi, ad esempio, Brasile, Australia, Indonesia e Svezia.

Se volete “divertirvi” a calcolare il vostro contributo a questo calcolo, la Global Footprint Network ha a disposizione un semplice questionario in grado di calcolare il vostro singolo contributo basandosi sui vostri consumi medi. Visto che sbandieriamo sempre la sincerità, vi pubblico il mio profilo:

Il mio contributo all'Overshoot Day

Il mio contributo all’Overshoot Day

Come vedete, anche io faccio la mia parte in negativo anche se sono sotto la media nazionale (2.5 paesi verso 4 di media) ma sopra la media mondiale. Il mio contributo principale, neanche a dirlo, viene dal consumo di cibo.

Per calcolare il vostro contributo, potete compilare il rapido questionario disponibile, anche in Italiano, a questa pagina:

Footprint personale

Inutile dire che non si tratta di un gioco ma il nostro personale risultato deve spingerci ad una riflessione sui nostri consumi e, preferibilmente, a cambiare il nostro stile di vita per cercare, tutti quanti, di interrompere questo trend negativo di cui abbiamo discusso.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

La bufala di facebook sullo shampoo

4 Lug

Normalmente, non amo soffermarmi su tutte le bufale che gli utenti, più o meno ignari, fanno circolare su Facebook, ma questa volta, anche in risposta a diverse persone che mi hanno contattato, farò un’eccezione.

Se siete soliti frequentare questo social network, avrete sicuramente trovato sulla vostra bacheca decine di link, con alcune varianti ma il succo è lo stesso, che parlano di una presunta infezione che potrebbe venire usando lo shampoo di una nota marca. Non per fare pubblicità, anche perché trovare diverse versioni della stessa bufala, molti parlano della marca NIVEA.

Di cosa si tratta?

Più o meno il link recita questa frase “Guardate cosa potrebbe succeder usando la shampoo di una nota marca!” e nel link trovate anche il collegamento ad un video con lo screenshot iniziale che è questo:

Screenshot del video che circola in questi giorni su Facebook

Screenshot del video che circola in questi giorni su Facebook

Come vedete, una cosa davvero orribile anche solo da vedere. Il malcapitato che avrebbe usato questo prodotto, forse per una sua particolare sensibilità, avrebbe sviluppato questa terribile escrescenza cutanea che è un misto tra un bubbone e qualcosa di ancora più disgustoso.

Non provate a cliccare sul video, anche se, e posso capirlo, la curiosità potrebbe essere davvero tanta. Perché dico questo? Molto semplice, provando a seguire i vari link che si susseguono, passerete da un sito all’altro pieno di virus, malware, spyware e chi più ne ha più ne metta. Al solito, si tratta di una bufala bella e buona pensata inizialmente da qualche “buontempone” proprio per creare infezioni sparse di computer e permettere la diffusione di trojan molto pericolosi per i nostri dati personali. Dimenticavo, alla fine di tutti i giri, e dopo essere passati per decine di siti, non troverete assolutamente il video che volevate tanto vedere.

Premesso questo, perché parlo di bufala per la foto in questione?

Anche qui, basta fare una brevissima ricerca sul web per capire che si tratta di un fotomontaggio fatto anche molto male. Quella che può sembrare una terribile eruzione cutanea e in realtà un bellissimo fiore loto, nome botanico “Nelumbo nucifera“.

Ecco a voi un’immagine vera e reale del fiore in questione:

Il fiore di Loto (Nelumbo Nucifera) utilizzato per il fotomontaggio

Il fiore di Loto (Nelumbo Nucifera) utilizzato per il fotomontaggio

Si tratta di una specie di fiore molto diffusa in Asia e conosciuta da tempo per le sue proprietà e qualità. Un po’ come il maiale, di questo fiore non si butta nulla e viene infatti consumato come antidiarroico, antinfiammatorio e anche come curativo per le influenze. I semi di questo fiore, proprio quelli che si vedono all’interno della sua struttura, possono essere essiccati e vengono mangiati come salatini o preparati come popcorn. Inoltre, gli stami del fiore vengono bolliti in acqua e ve se ne ricava una particolare qualità di the molto profumata.

A conferma di quanto detto, addirittura anche le foglie del Nelumbo vengono utilizzate in alcuni paesi per incartare e conservare al meglio i cibi.

Concludendo, quella che vedete su Facebook non è altro che l’ennesima bufala diffusa in rete grazie alle moderne tecnologie. Ripeto, non c’è nulla di reale in quanto affermato se non la volontà di infettare i vostri pc con programmi molto pericolosi ed in grado di mettere a rischio i vostri dati personali. Quella che viene fatta passare come una terribile reazione allergica altro non è che un bellissimo fiore conosciuto da tempo e utilizzato, come visto, per gli scopi più disparati.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

SWARM e la diminuzione del campo geomagnetico

21 Giu

Nella solita sezione:

– Hai domande o dubbi?

Ormai divenuta punto di riferimento per i frequentatori di questo blog, è stata posta una domanda davvero molto interessante e che credo meriti un maggiore approfondimento attraverso un apposito articolo. La domanda in questione è relativa alla missione dell’ESA SWARM e che ha il compito di monitorare e misurare con una precisione mai raggiunta prima la struttura del campo magnetico terrestre. Per dirla tutta, la domanda iniziale puntava il dito anche contro una serie di articoli apparsi in rete, alcuni anche di note riviste considerate tutt’altro che catastrofiche, leggasi Focus, che forse si sono lasciate prendere un po’ la mano nei toni con affermazioni, lasciatemi dire, un po’ troppo esagerate.

Detto questo, cerchiamo di andare con ordine e capire meglio di cosa si sta parlando.

In diversi articoli ci siamo già occupati di campo magnetico terrestre dal momento che questo, ed in particolare la sua inversione, rappresentano da sempre un argomento molto in voga in chi vorrebbe far credere che qualcosa di grave stia accadendo alla nostra terra. Ecco alcuni esempi:

Inversione dei poli terrestri

La terza fascia di Van Allen

Come visto, il campo magnetico terreste offre una naturale protezione per la biosfera contro le radiazioni emesse dal nostro Sole. Queste, convogliate dalle linee di campo, vengono deviate e non riescono a penetrare direttamente nella nostra atmosfera. Questo, ad eccezione di alcuni punti specifici come ad esempio i poli, dove l’ingresso delle particelle e la loro seguente interazione con le molecole presenti in atmosfera da luogo allo splendido fenomeno naturale delle aurore.

Ora, come visto diverse volte, molto spesso vengono diffuse teorie secondo le quali il campo magnetico terrestre sia in procinto di invertirsi o, peggio ancora, di scomparire del tutto. E’ possibile questo? Per quanto riguarda l’inversione, assolutamente si. In diversi articoli abbiamo parlato di ciclo solare:

– Evidenze dal Sole?

– Le macchie solari AR1504

– Gli effetti di AR1504

– Sole: quanta confusione!

– Inversione dei poli terrestri

– Nuova minaccia il 22 Settembre?

– Come seguire il ciclo solare

– Curiosita’ sui cicli solari

– Possiamo scegliere tra era glaciale o desertificazione

Tempesta solare e problemi ai telefoni?

Come visto, il nostro Sole è solito invertire il verso dei suoi poli magnetici ogni 11 anni, in concomitanza con quelli che siamo soliti chiamare cicli solari. Per la nostra Terra invece, sempre caratterizzata da un campo magnetico dipolare, siamo soliti pensare che i suoi poli siano fissi nella loro posizione, polo nord magnetico verso nord terrestre e viceversa per il sud.

E’ possibile che i poli magnetici della Terra si invertano? Assolutamente si. Anzi, per dirla tutta, questo è già successo diverse volte nella storia geologica del nostro pianeta. Come si vede questo? Esiste una specifica branca della geofisica che si chiama paleomagnetismo. In questa disciplina, come visto negli articoli precedenti, si studia il verso del campo magnetico terrestre analizzando la disposizione magnetica delle rocce sedimentarie. Come è evidente, durante la loro formazione, i nuclei magnetici presenti si orientano secondo la direzione del campo terrestre e poi, una volta raffreddate, restano congelate in questa posizione.

Detto questo, torniamo invece a parlare di SWARM. Come anticipato, si tratta di una missione dell’ESA lanciata alla fine dell’anno scorso e che ora sta cominciando a dare i primi dati. L’intera missione è costituita da una costellazione di 3 satelliti che hanno lo scopo di mappare intensità, forma e andamento del campo magnetico, eliminando tutte le sorgenti esterne tra cui, ovviamente, quella solare. Solo pochi giorni fa, sono stati presentati i primi risultati della missione che hanno mostrato una sensibilità mai raggiunta prima per le misure di campo. Come potete immaginare, lo scopo della missione è quello di monitorare e capire a fondo il campo magnetico terrestre e, anche, vedere variazioni significative della sua forma. Queste, ovviamente, legate anche allo studio di una ipotetica inversione dei poli.

Bene, detto questo, i dati della missione hanno per il momento confermato quello che già si sapeva. Questo solo per rimanere nella parte interessante per rispondere alla domanda iniziale. Come visto anche nei nostri articoli precedenti, il polo nord magnetico è in lento e costante movimento e dovrebbe arrivare, nel giro di una cinquantina di anni, in Siberia. Questa foto, già utilizzata anche in precedenza, aiuta a visualizzare la posizione dei nord magnetico:

Posizione del polo nord magnetico nel corso degli anni

Posizione del polo nord magnetico nel corso degli anni

Ovviamente, ho parlato di “parte interessante per la domanda iniziale” dal momento che gli scopi della missione SWARM non sono solo quelli di vedere se il campo si sta invertendo o meno, ma di studiare moltissimi parametri legati al magnetismo del nostro pianeta.

Cosa si evince dunque dai dati preliminari della missione? Semplice, che il campo magnetico è in movimento e che i poli si stanno spostando. Questo significa che è in atto un’inversione del campo? Molto probabilmente no. Se prendiamo come riferimento il nostro Sole, la fase di transizione tra una configurazione e l’altra è estremamente complessa con un campo che non appare più semplicemente dipolare.

Linee di campo magnetico solare prima e durante l'inversione dei poli

Linee di campo magnetico solare prima e durante l’inversione dei poli

Per dirla tutta, esistono anche teorie che prevedono un lento e continuo movimento dei poli magnetici terrestri fino alla completa inversione. Anche in questo caso però, il processo durerebbe non meno di 5000-10000 anni.

Bene, alla luce di quanto detto, provate ora a leggere questo articolo:

Articolo focus SWARM

Come vedete, in alcuni tratti il catastrofismo sembra imperante. Ripeto, l’inversione del campo magnetico terrestre è possibile, il polo nord si sta spostando ed in passato sono già avvenute inversioni di campo. C’è da preoccuparsi? Da quanto detto, direi proprio di no! Sicuramente i dati raccolti da SWARM aiuteranno a comprendere meglio il campo magnetico terrestre e forniranno moltissimo materiale su cui lavorare. Da qui a parlare di inversione dei poli in corso, direi che c’è una notevole differenza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tomografie …. vulcaniche

30 Mag

Eccoci di nuovo qui. Scusate se in questi giorni sono un po’ assente ma, prima di tutto, ho molti impegni da portare avanti ma, soprattutto, come detto diverse volte, e aggiungo per nostra pace, il lato complottista-catastrofista e’ un po’ a corto di idee.

Negli ultimi giorni e’ stata pubblicizzata, anche su diversi giornali, una nuova campagna di misure che dovrebbe partire molto a breve e che personalmente trovo molto interessante. Come forse avrete letto, l’ambizioso progetto si propone di effettuare una tomografia della struttura interna di uno dei piu’ famosi vulcani italiani, l’Etna.

Il progetto, denominato Tomo-Etna, e’ stato annunciato solo una paio di giorni fa in una conferenza stampa seguita da moltissimi giornalisti non solo scientifici. Ecco la locandina dell’evento:

Conferenza stampa di presentazione del progetto Tomo-Etna

Conferenza stampa di presentazione del progetto Tomo-Etna

Come potete leggere, al progetto afferiscono diverse universita’ e istituzioni provenienti da diverse parti del mondo. Per l’Italia, come e’ facile immaginare, diverse sezioni dell’INGV partecipano attivamente fornendo uomini e mezzi.

Come e’ possibile fare una tomografia interna di un vulcano?

Apparentemente, la cosa puo’ sembrare molto strana e difficile da realizzare. In realta’, si tratta, sulla carta, di un progetto facile da spiegare. Creando onde sismiche artificiali, si misura la propagazione delle onde nel sottosuolo riuscendo in questo modo a risalire, attraverso le variazioni di densita’, alla struttura interna. Prima che qualcuno salti dalla sedia gridando allo scandalo pensando alle “onde sismiche artificiali”, non si tratta di nulla di pericoloso. In parole povere, sfruttando aria compressa, vengono create delle onde che poi si propagano all’interno dei materiali e, di volta in volta, si misura la loro riflessione nel passaggio tra materiali diversi.

Per questo progetto saranno utilizzati ovviamente mezzi marini, tra cui alcune navi militari italiane con l’ausilio di navi di ricerca di altri paesi, Spagna e Grecia in primis. Per poter rivelare le onde riflesse sono necessari diversi sismografi disposti sia a terra che in mare, utili per creare una rete fitta e precisa di strumenti. Per quanto riguarda il lato terrestre, come sappiamo bene, la rete di monitoraggio presente sul vulcano e’ gia’ sufficiente allo scopo. In mare invece la situazione si fa solo leggermente piu’ complicata poiche’ verranno calati sul fondo degli OBH, acronimo che sta per “Ocean-bottom Seismometer”.

OBS utilizzato nelle isole Barbados

OBS utilizzato nelle isole Barbados

Detto molto semplicemente, sono dei sismografi appositamente costruiti per essere immersi a grande profondita’ e supportare le pressioni. I dispositivi sono montati su delle zavorre che li tengono, insieme ad un gel, sul fondale e sono ovviamente dotati di memorie per la registrazione dei dati.

Oltre alle onde sismiche indotte artificialmente, la fitta rete predisposta misurera’ anche la sismicita’ naturale che aiutera’ a capire meglio la struttura interna. Stando a quanto riportato dal progetto, con questa campagna di misure, che dovrebbe iniziare gia’ dal prossimo mese, si potra’ conoscere con una risoluzione mai raggiunta prima la struttura fino a 20 Km di profondita’. Conoscere questi dati e’ utile anche per capire l’evoluzione e la dinamica di una struttura vulcanica complessa come quella dell’Etna. Per questo vulcano infatti ci si aspetta che la caldera presenti una struttura molto complessa con numerosi punti di accesso del magma. Arrivando a 20Km si spera di giungere fino al confine di quella che e’ chiamata Discontinuita’ di Mohorovicic, o anche slo MOHO, cioe’ la zona di separazione tra la crosta e il mantello.

Struttura interna della Terra

Struttura interna della Terra

Perche’ proprio l’Etna? La risposta a questa domanda l’abbiamo gia’ in parte data. Opinione comune e’ che la struttura interna di questo vulcano sia molto complessa ed inoltre ha presentato nel corso degli anni degli eventi sismici statisticamente fuori media. Cioe’? Come sappiamo, l’Etna non e’ considerato un vulcano esplosivo grazie ad una struttura debole in vari punti e che consente, di volta in volta, di scaricare le pressioni interne mediante modeste eruzioni. Tutto questo pero’ non esclude la possibilita’, come avvenuto in passato, di eventi piu’ violenti. Avere un quadro completo della struttura interna puo’ essere fondamentale per la comprensione e la simulazione su lungo periodo del comportamento del vulcano.

Ad oggi, il progetto Tomo-Etna, che riguardera’ non solo il vulcano ma una area abbastanza vasta della Sicilia e’ pronto ad iniziare. Terminato questo, gia’ si pensa di utilizzare questo tipo di ricerche su altri vulcani italiani, primo tra tutti, ovviamente, il Vesuvio. Come visto diverse volte, in questo caso parliamo invece di un vulcano profondamente diverso e con caratteristiche eruttive che potrebbero essere molto piu’ pericolose di quelle dell’Etna. Per il Vesuvio ancora di piu’, una ricerca del genere con risultati precisi puo’ essere una chiave fondamentale anche per preparare eventuali piani di emergenza o, perche’ no, predisporre sistemi alternativi precedentemente all’eruzione.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Presunte previsioni di Terremoti

22 Apr

Di Patrizia Esposito

———————————————————————————————————————–

Torno ad “approfittare” dello spazio che Matteo mi ha concesso sul blog per parlare nuovamente di terremoti. Il titolo dell’articolo che vi presento oggi è il nome di una sezione del forum Psicosi 2012, dedicata alle previsioni “ad capocchiam” dei terremoti, cioè quelle che indicano il giorno e il luogo esatti di un sisma (preferibilmente catastrofico) sulla base dei parametri più bislacchi (apparizioni, profezie, ecc.). L’ultimissima della serie- segnalata da un nostro caro utente- è quella di un tizio che aveva previsto per il 17 aprile scorso niente poco di meno che il Big One in California. Ma magari bastasse la lettura dei tarocchi per prevedere eventi catastrofici e salvare vite umane! La previsione dei terremoti è una materia spinosa e complessa alla quale si dedicano anima e corpo ricercatori scientifici seri. A tal proposito, vorrei illustrarvi qui di seguito uno studio tutto italiano che, a mio avviso, aggiunge un tassello interessante al mosaico della comprensione dei meccanismi che generano i terremoti. Buona lettura a tutti.

———————————————————————————————————————–

Sul numero di marzo di Le Scienze è stato pubblicato un sunto dello studio condotto da Carlo Doglioni, Salvatore Barba, Eugenio Carminati e Federica Riguzzi. (1) Gli autori hanno analizzato la relazione tra la sismicità e il tasso di deformazione, evidenziando come le aree con terremoti più intensi siano quelle in cui la velocità di deformazione delle rocce è più bassa rispetto alle aree circostanti. Sono partiti dal considerare la crosta terrestre suddivisa in due porzioni: crosta superiore e crosta inferiore. La prima, spessa mediamente 15 km, ha un comportamento fragile ed è influenzata dalla pressione: il carico litostatico, che aumenta con la profondità, esercita una forza di contenimento sulle rocce, rendendole più stabili e aumentandone la resistenza. La crosta inferiore, invece, ha un comportamento duttile ed è influenzata dalla temperatura: il gradiente termico, che diminuisce con la profondità, indebolisce i legami dei reticoli cristallini rendendo le rocce meno stabili. Che cosa significa questo? Significa che le rocce crostali non si deformano tutte allo stesso modo. Infatti, quelle della crosta superiore si deformano “a scatti” attraverso l’attivazione delle faglie, quelle della crosta inferiore, invece, si deformano costantemente nel tempo, senza perdita di coesione, attraverso la distorsione dei reticoli cristallini:

Diverso comportamento meccanico della crosta superiore e della crosta inferiore.

Diverso comportamento meccanico della crosta superiore e della crosta inferiore.

I terremoti sono associati alle deformazione fragili. La transizione tra le due porzioni crostali con diverso comportamento meccanico, detta “transizione fragile-duttile”, corrisponde alla massima resistenza delle rocce, cioè la profondità a cui è necessaria l’energia massima per romperle. Più è profonda questa transizione e più lunga è una faglia, maggiore è il volume di rocce coinvolte nel sisma, quindi maggiore sarà la magnitudo. Per descrivere un evento sismico si utilizzano diversi valori numerici, come la magnitudo momento, la magnitudo locale e l’intensità macrosismica (il fatto stesso che per descrivere un sisma si prendano in considerazione diversi parametri sta ad indicare la complessità del fenomeno).

La legge di Gutenberg-Richter è l’espressione analitica della forza che agisce contemporaneamente sul guscio terrestre e che è responsabile della distribuzione sismica sul pianeta. L’origine di questa forza è ancora nel campo delle ipotesi, tra le quali sono contemplati i moti convettivi nel mantello e gli effetti della rotazione terrestre che spiegherebbero l’attuale deriva verso ovest delle placche litosferiche. La diversa velocità di queste ultime dipende dal grado di disaccoppiamento mantello-litosfera che è funzione della variazione di viscosità nel mantello: maggiore è la viscosità, minore è la velocità della placca.

Funzionamento delle faglie in funzione della transizione “fragile-duttile”.

Funzionamento delle faglie in funzione della transizione “fragile-duttile”.

In figura è illustrato il funzionamento delle faglie in relazione alla transizione fragile-duttile. Nel caso di faglia distensiva la transizione si configura come una zona dilatata in cui si formano delle fratture e dei vuoti che si riempiono di fluidi, in conseguenza all’accomodamento della crosta inferiore in lento ma costante movimento rispetto alla crosta superiore bloccata. Questa zona si espanderà fino a quando non sarà più in grado di sorreggere la parte alta (“tetto” della faglia), a quel punto le rocce si romperanno, il blocco cadrà sotto il suo stesso peso e l’energia potenziale gravitazionale accumulata sarà liberata attraverso le onde sismiche del terremoto. I fluidi presenti saranno espulsi come quando si strizza una spugna e migreranno verso l’alto: ecco perché un evento sismico è accompagnato da una risalita delle falde e da un aumento della portata delle sorgenti. Dopo la scossa principale, il tetto della faglia deve raggiungere una nuova condizione di equilibrio e questo avviene mediante le scosse di assestamento. Nel caso di faglia inversa, invece, la transizione si configura come una fascia in sovrapressione . Le rocce accumulano energia elastica fino al punto di rottura, quando le forze di deformazione superano la resistenza delle rocce e il tetto della faglia viene scagliato verso l’alto, originando il terremoto (possiamo assimilare questo meccanismo ad una molla prima totalmente compressa e poi espansa). Generalmente i terremoti associati a faglie compressive sono più violenti perché occorre più energia per vincere le forze di compressione e perché in questo contesto geodinamico occorre vincere anche la forza di gravità.

Relazione tra tasso di deformazione e magnitudo dei terremoti.

Relazione tra tasso di deformazione e magnitudo dei terremoti.

In figura sono riportati i risultati di osservazioni effettuate sulla sismicità in Italia in un intervallo temporale che va dal 1° gennaio 2007 al 31 dicembre 2011.

In particolare, sono stati messi in relazione i terremoti di magnitudo superiore a 3 con i tassi di deformazione ottenuti in corrispondenza di ciascuno degli epicentri. Il dato più importante è rappresentato dal fatto che i terremoti di magnitudo superiore a 4 sono avvenuti tutti in aree in cui il tasso di deformazione è inferiore a 40 nanostrain per anno (1 nanostrain= 1 mm ogni 1000 chilometri). Cosa significa questo? Significa che le aree che si deformano più lentamente rispetto alle aree circostanti sono le aree crostali “bloccate” che stanno accumulando energia . Anche se l’intervallo di osservazione ha dei limiti temporali, il valore stabilito può essere preso in considerazione come un parametro utile ad individuare aree a sismicità significativa. Sulla mappa della velocità di deformazione si possono sovrapporre le faglie attive note. E’ interessante notare come il terremoto de L’Aquila (2009) e quello in Emilia (2012) siano avvenuti in aree a basso tasso di deformazione. Lo studio condotto si è basato sui dati forniti dalla rete GPS e su modelli numerici. In conclusione: questa nuova idea sui terremoti non serve a sapere con esattezza quando e dove si registrerà un sisma ma può indirizzare gli studi verso aree con maggiore “urgenza” sismica, in cui fare prevenzione attraverso l’adeguamento antisismico degli edifici non a norma e l’educazione al rischio sismico. Vorrei sottolineare ancora una volta come lo studio dei terremoti sia reso complicato dall’impossibilità di investigare il sottosuolo alle profondità di interesse e quella di riprodurre perfettamente in laboratorio le condizioni di stress a cui sono sottoposte le rocce in profondità. Di certo un approccio multidisciplinare può migliorare i metodi di previsione.

Ad ogni modo, diffidate da tutte le previsioni “ad capocchiam” di cui è piena la rete!!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ascoltate finalmente le onde gravitazionali?

19 Mar

Sicuramente, io non posso attaccare o denigrare la divulgazione della scienza e il voler diffondere la conoscenza, sempre troppo scarsa, e le ultime scoperte alle, cosiddette, persone di strada. Per poter fare questo pero’, mia opinione personale, si deve fare un lavoro immenso di modellamento delle informazioni e si deve essere in grado di immedesimarsi in colui che legge quello che scriviamo. Questo non significa assolutamente dire cose false ma solo fare in modo che le informazioni che passano possano appassionare ed essere comprese da coloro che non hanno una base scientifica di supporto. Credetemi, a volte questo lavoro non e’ semplice. Senza voler essere presuntuosi, molte volte un ricercatore abituato a lavorare su delle tematiche, tende a dare per scontate molte cose quando si interfaccia con qualcuno. Il risultato di questo e’, ovviamente, una impossibilita’ di comprensione da chi non ha la stessa base di chi parla.

Perche’ faccio questo preambolo?

La notizia di questi giorni, che sicuramente avrete letto su siti, blog, forum e giornali, e’ quella della conferenza stampa fatta dall’universita’ di Harvard per mostrare i dati raccolti dall’esperimento americano Bicep-2 che si trova in Antartide.

Bene, sulla maggior parte dei giornali che ho letto, e ci metto dentro anche i siti internet, ho visto una quantita’ di cavolate tali da far rabbrividire. Ovviamente, non faccio di tutte l’erba un fascio, ma, da una mia stima, circa il 10% delle notizie aveva senso, il restante era pieno di una quantita’ di idiozie che mai avrei pensato di leggere. Questa volta abbiamo superato di gran lunga gli articoli sulla scoperta del bosone di Higgs. L’unica cosa vera letta e’ che la notizia era attesa ed ha avuto un grandissimo risalto nella comunita’ scientifica, il resto lo potete buttare nel secchio.

Apro e chiudo parentesi: perche’ dobbiamo procedere in tal senso? Cari giornalisti che vi cimentate a scrivere di scienza, chiedete lumi, intervistate addetti ai lavori, non scrivete assurdita’ che non fanno altro che creare confusione su confusione in chi legge.

Detto questo, cerchiamo di capire di cosa si sta parlando.

Dunque, di Big Bang, nascita dell’universo, radiazione di fondo, ecc., abbiamo parlato in questi articoli:

E parliamo diquesto Big Bang

Il primo vagito dell’universo

Universo: foto da piccolo

La materia oscura

Materia oscura intorno alla Terra?

Due parole sull’antimateria

Flusso oscuro e grandi attrattori

Ipotizziamo che l’universo sia nato da un Big Bang, che ad un certo punto materia e antimateria si siano separate, poi, circa 380000 anni dopo il botto, si sono separate materia e radiazione ed e’ nata la Radiazione Cosmica di Fondo, o CMB. Proprio questa radiazione, di cui abbiamo parlato, e’ la prova sperimentale a supporto del Big Bang. Come scritto altre volte, possiamo vedere la CMB come una radiazione fossile di un preciso momento dell’universo. Prima di questo istante, c’e’ il buio perche’ la radiazione non riusciva a “scappare” e rimaneva intrappolata con la materia.

Primo punto fondamentale, la Radiazione Cosmica di Fondo esiste e l’abbiamo gia’ trovata. La prima osservazione della CMB risale al 1964 ad opera di Arno Penzias e Robert Wilson che vinsero poi il nobel nel 1978. Questo per rispondere alle notizie false che girano secondo le quali Bicep-2 avrebbe “scoperto” l’essitenza della radiazione di fondo.

Bene, l’esperimento Bicep-2 serve invece per “rilevare” con altissima precisione la CMB. Perche’ allora si parla di onde gravitazionali?

Non voglio neanche commentare le notizie i cui autori si lanciano a parlare di tensori e modi B perche’ il mio punto di vista e’ stato espresso all’inizio dell’articolo parlando di come, a mio avviso, si deve fare divuilgazione.

Cosa sono le onde gravitazionali?

Come giustamente detto da alcune fonti, questa tipologia di onde e’ stata predetta da Einstein nella sua relativita’ generale anche se queste non sono mai state osservate in maniera “diretta”. Dunque, ad Harvard hanno osservato le onde gravitazionali? Assolutamente no. Le hanno “scoperte” come qualcuno sostiene? Assolutamente no, anche in questo caso.

Per cercare di capire cosa sono le onde gravitazionali, proviamo a fare un esempio molto semplice. Immaginate lo spazio-tempo, concetto di per se molto vago ma supponete, sempre per semplicita’ , che si tratti dell’universo, come un materasso. Si, avete capito bene, un materasso come quello che avete in casa e su cui andate a dormire. Non sono impazzito, vorrei solo farvi capire questo importante concetto in modo semi-intuitivo. Dunque, ora immaginate di mettere un corpo molto pesante, ad esempio una palla da bowling, sul materasso. Cosa succede? Semplice, il materasso si “curva” in prossimita’ del corpo pesante. Bene, il materasso e’ lo spazio tempo, la palla da bowling e’ un pianeta, una galassia, ecc.. Parlando scientificamente, lo spazio tempo quadri-dimensionale e’ curvato dalla massa.

Ora, immaginate di far rotolore o togliere la vostra massa. Cosa succede? La curvatura si sposta insieme alla massa oppure, nel secondo caso, lo spazio tempo torna al suo posto. Le “piegature” dello spazio-tempo che fine fanno? Semplice, succede esattamente quello che avviene se tirate un sassolino dentro uno stagno. Queste “increspature” si propagano partendo dalla sorgente, nel nostro caso la massa, verso l’esterno.

Finalmente ci siamo. Il movimento delle masse, l’esplosione delle Supermovae, lo scontro tra Galassie, sono tutti fenomeni che deformano lo spazio tempo. Effetto di queste deformazioni, cosi’ come avviene per il sasso nello stagno, e’ la formazione di onde che si propagano liberamente nello spazio. Come potete immaginare, queste sono le cosiddette onde gravitazionali.

Ora, la teoria e’ compresa. Le abbiamo viste sperimentalmente? Purtroppo ancora no. Rimanendo ad un approccio divulgativo, lo spazio tempo e’ molto rigido e dunque le onde che si creano hanno intensita’ molto molto piccole. Questo rende le onde gravitazionali estremamente difficili da essere “ascoltate”. In termini di ricerca scientifica, a partire dagli anni ’50 del secolo scorso, diversi esperimenti sono stati realizzati per cercare di captare queste onde. Dapprima, e sono ancora in funzione, si costruivano antenne risonanti, cioe’ una sorta di elemento in grado di vibrare al passaggio dell’onda, ora si procede con interferometri, strumenti che segnano il passaggio dell’onda osservando le minime variazioni meccaniche su strutture molto lunghe in cui vengono fatti passare dei laser. In un modo o nell’altro pero’, queste onde non sono mai state osservate in modo “diretto”.

Perche’ continuo a scrivere insistentemente “in modo diretto”? Semplice, perche’ sappiamo, con buona certezza, che queste onde esistono dal momento che sono state osservate in vari casi in modo “indiretto” cioe’ attraverso gli effetti che queste onde producono. La prima osservazione indiretta, fatta mediante l’osservazione di una pulsar binaria con il radio-telescopio di Arecibo, e’ valsa agli astronomi Taylor e Hulse il premio nobel nel 1993.

Bene, la CMB esiste e dimostra qualcosa, le onde gravitazionali sono state predette da Einstein e sono state osservate in modo indiretto, Bicep-2, come detto prima, non le ha osservate in modo diretto, ma, allora, di cosa stiamo parlando? Perche’ si parla di scoperta cosi’ importante?

Torniamo un attimo alla nascita del nostro universo. Abbiamo detto che c’e’ stato il Big Bang e abbiamo parlato di quando, 380000 anni dopo, materia e radiazione si sono separate. Secondo i modelli cosmologici accettati, c’e’ stato un momento nei primi istanti di vista dell’universo, precisamente 10^(-34) secondi dopo il Big Bang, in cui l’universo ha subito una rapidissima accelerazione dell’espansione a cui si da il nome di “inflazione”. Questo e’ un momento del tutto particolare in cui si e’ registrata un’espansione violentissima al punto, come dicono i cosmologi, da andare oltre l’orizzonte degli eventi. Proprio grazie a questo movimento cosi’ brusco si ha un universo cosi’ uniforme ed e’ tanto difficile registrare fluttuazioni nella distribuzione della radiazione di fondo.

Ora, per l’inflazione abbiamo dei modelli che la includono e la spiegano ma manca una prova, anche indiretta, dell’esistenza di questo momento. Come detto, studiando la CMB arriviamo fino ad un preciso istante prima del quale non possiamo andare perche’ materia e radiazione non erano separate. Attenzione, non erano separate ma, ovviamente, erano presenti. Se ripensiamo a quanto detto in precedenza per le onde gravitazionali, sicuramente un’espansione cosi’ violenta come quella dell’inflazione ne ha generate moltissime. Bene, queste onde avrebbero a loro volta interagito con la CMB lasciando una inconfondibile firma del loro pasaggio. Trovare evidenza di questa segnatura sarebbe molto importante e utile per la comprensione del modelli dell’universo che abbiamo sviluppato.

Detto questo, cosa avrebbe trovato Bicep-2?

Ovviamente quello a cui state pensando, l’effetto primordiale lasciato sulla CMB dalle onde gravitazionali dell’inflazione, dunque una misura indiretta dell’esistenza di questo periodo. Capite la portata di una misura di questo tipo? Questa evidenza ci fa capire che i modelli che prevedono un periodo inflazionario durante i primi istanti di vita del nostro universo potrebbero essere corretti. Inoltre, la tipologia dei segnali trovati riesce gia’ ad escludere alcuni dei modelli formulati in questi anni.

Come avrete letto sulle varie fonti, gia’ molti parlano di nobel per questa misura. In realta’, anche in questo caso, si sta esagerando, non per l’importanza di una misura del genere ma, semplicemente, perche’ parliamo di “evidenza”. Dopo tutte le varie storie sentite sul bosone di Higgs, come sapete bene, prima di poter parlare scientificamente di scoperta e’ necessario che il segnale atteso abbia una certa “significanza statistica” che ci faccia affermare che quanto visto corrisponde al vero. In questo caso, statisticamente ripeto, parliamo ancora di “evidenza” non di “scoperta”. Ovviamente, una misura del genere non puo’ che spingere a migliorare e perfezionare una ricerca di questo tipo, anche da parte di altri esperimenti in grado di captare e raccogliere i dati relativi alla radiazione di fondo a microonde.

Concludendo, l’annuncio fatto dall’universita’ di Harvard e’ importantissimo dal punto di vista della fisica. Purtroppo, come spesso avviene, nel raccontare cose di questo tipo si fa molta confusione e si finisce col dire cose non veritiere e che non permettono ai non addetti ai lavori di comprendere la rilevanza di notizie del genere. Come detto, quanto osservato e’ una prova indiretta dell’esistenza dell’inflazione per il nostro universo. Questo e’ un momento assolutamente unico previsto nella teoria dell’esansione dell’universo, in cui quest’ultimo si e’ stirato in modo impensabile anche solo da immaginare. Come spesso avviene, per ogni piccolo passo avanti fatto nella comprensione, si aprono ogni volta decine di nuove domande in cerca di una risposta. Non resta che andare avanti e continuare ad osservare il cosmo consapevoli di quanti misteri ancora ci siano da scoprire.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Triangolo delle Bermuda, risolto il “mistero”?

14 Mar

Un nostro caro lettore mi ha contatto privatamente per chiedere lumi circa una teoria in grado di spiegare gli incidenti avvenuti nel cosiddetto “Triangolo delle Bermuda”. Vi premetto subito che non si tratta di una di quelle teorie pseudoscientifiche che compaiono nei vari siti spazzatura di cui di sovente dobbiamo occuparci, ma di una teoria assolutamente scientifica e molto interessante.

Mappa del Triangolo delle Bermuda

Mappa del Triangolo delle Bermuda

Dal momento che non ne abbiamo mai parlato, credo sia necessario, prima di passare alla possibile spiegazione, dire qualcosa in piu’ di questo misterioso e molto citato fazzoletto di mare. Come sapete, il triangolo delle Bermuda e’ una zona di mare molto estesa, circa 1100000 Km^2, che si trova nell’Atlantico Settentrionale a largo delle coste di Porto Rico.

Cosa ha di famoso questo punto dell’oceano?

Non vi diro’ certo qualcosa di nuovo raccontando di come, negli anni, il Triangolo delle Bermude e’ divenuto famoso a causa della sparizione improvvisa di molte navi e aerei che, improvvisamente, mentre sorvolavano o si trovavano a passare sulla zona, sono misteriosamente scomparsi senza lasciare alcuna traccia. Di storie e racconti di questo tipo, tutti ne abbiamo sentito parlare, creando un’aura di mistero intorno a questo tratto di mare.

Le spiegazioni date per giustificare in qualche modo queste sparizioni sono davvero molto diversificate e, ovviamente, non possono mancare le ipotesi fantascientifiche. Per fare qualche esempio, si parla di area di volo per gli extraterrestri che non gradirebbero la presenza di esseri umani, di costruzioni risalenti ad Atlantide sul fondo dell’oceano ed in grado di creare forze sconosciute e invisibili, di fenomeno fisico naturale non compreso in grado di attirare qualsiasi cosa passi sopra la zona, di anomalie dello spazio tempo che creerebbero tunnel quantistici in grado di collegare diverse parti dell’universo e cosi’ via con una lunga serie di ipotesi piu’ o meno assurde che di volta in volta vengono riproposte da giornali, siti e, soprattutto, trasmissioni televisive che andrebbero lasciate in onda solo sovrapponendo, come si faceva una volta per i telefilm americani, le risate delle persone quando vengono mandati servizi del genere.

Ora pero’, prima di parlare di ipotesi concrete di spiegazione, credo sia utile fare il punto della situazione su questa storia per capire fino in fondo l’entita’ e il numero di questi incidenti.

Cercando in rete, trovate molto facilmente la lista degli incidenti misteriosi che sono avvenuti nel Triangolo nel corso degli anni. Quello che pero’ molti dimenticano di dire e’ che questa lista non e’ stata redatta da nessun organo ufficiale per il controllo dei mari. Cosa significa? Il mito del Triangolo delle Bermuda inizia intorno al 1950 con un articolo in cui si parlava della prima volta di misteriose sparizioni in questa zona di mare. Il boom mediatico arrivo’ poi nel 1974 con l’uscita di quello che diventera’ poi un bestseller della letteratura pseudo-scientifica, il libro “Bermuda, il triangolo maledetto”, scritto da Charles Berlitz. Per chi non lo conoscesse, Berlitz e’ proprio il fondatore della famosa scuola di lingue diffusa in tutto il mondo ed e’ autore di diversi libri sul tema della archeologia misteriosa e del complottismo piu’ spinto. Bene, l’uscita del libro di Berlitz segna l’inizio del vero e proprio mito del Triangolo delle Bermuda, libro che ha dato poi inizio a tutta una sequela di opere piu’ o meno romanzate che sono arrivate fino ai giorni nostri.

Cosa dire sul libro di Berlitz? Semplice, quella che doveva essere un’inchiesta storica con il resoconto dettagliato di tutti gli incidenti registrarti nel corso degli anni, si e’ rivelata un’enorme montatura gonfiata veramente a dismisura. Come dimostrato per la prima volta da Lawrence Kusche con il suo libro “The Bermuda Triangle Mystery: Solved” del 1975, molti degli episodi riportati nel libro di Berlitz sono inventati, gonfiati o riguardano incidenti non avvenuti nel triangolo. In particolare, Kusche che era un aviatore e istruttore di volo, parti’ con le sue ricerche dalla scomparsa di un volo commerciale ripreso da Berlitz come caso inspiegabile. Come spesso sentiamo dire, tutti gli incidenti accaduti nel Triangolo sono avvenuti in condizioni meteo perfette e senza lasciare traccia. Bene, i dati mostrati da Kusche dimostrano invece il contrario, potendo imputare la maggior parte degli incidenti, tra quelli realmente avvenuti nel Triangolo, alle avverse condizioni meteo e alle tempeste tropicali che di certo non mancano in quella zona.

Cosa significa questo?

Come potete capire, l’alone di mistero che da sempre circonda questo tratto di mare e’ solo frutto di una montatura, principalmente letteraria, avvenuta nel corso degli anni. Facendo una scrematura molto profonda, di tutti gli incidenti che trovate nei racconti, solo 3 o 4 non trovano una spiegazione immediata perche’ veramente avvenuti nella zona, in condizioni di meteo ottime ma, ovviamente, potrebbero essere dovuti a guasti improvvisi.

E’ possibile questo?

Assolutamente si. Per darvi un’idea, dalle statistiche elaborate sia dalla guardia costiera americana che dalla societa’ Lloyd’s di Londra, il numero di incidenti registrati nella zona e’ perfettamente in linea con le statistiche mondiali rapportando i numeri all’alto traffico aereo e navale che avviene nella zona. Ecco il link della USGC americana che ne parla:

USGC, Bermuda

mentre, per quanto riguarda i Lloyd’s, dal momento che questa e’ la compagnia che si occupa proprio del calcolo dei rischi assicurativi, se ci fosse un reale e misterioso pericolo nella zona, secondo voi continuerebbe a far assicurare i mezzi che transitano nel Triangolo?

Altra considerazione, anche se gli incidenti sono dovuti a guasti o avverse condizioni meteo, e’ vero che in moltissimi casi non sono stati rinvenuti i resti dei mezzi incidentati?

Questo e’ assolutamente vero, ma anche qui possiamo dare una spiegazione razionale senza doverci nascondere. Il fondale del Triangolo delle Bermuda e’ caratterizzato dalla presenza di fosse oceaniche molto profonde ed e’ interessato da correnti molto forti. La combinazione di questi due fattori fa si che, in caso di incidente, il mezzo possa essere risucchiato a fondo molto velocemente, e magari trasportato altrove, nel giro di pochissimi minuti.

Detto questo, esiste un mistero sul Triangolo delle Bermuda? Da quanto detto, possiamo escludere questa ipotesi dal momento che il tutto e’ frutto di una montatura prettamente letteraria basata su argomentazioni esagerate, falsificate e, ovviamente, atte solo a creare un business per chi le mette in piedi. Prima pero’ di chiudere, vorrei fare qualche altra considerazione. Come detto, ci sono ancora 3 o 4 incidenti la cui spiegazione non e’ nota e che possono essere imputati ad improvvisi guasti dei mezzi interessati.

E se non fossero guasti dovuti al mezzo?

Perche’ dico questo?

Semplice, non limitandoci al caso del Triangolo, nel corso della storia si sono verificati incidenti in mare apparentemente non spiegabili e che hanno fatto scomparire improvvisamente mezzi dai radar non lasciando assolutamente traccia. Una possibile spiegazione di questi incidenti, che e’ poi l’argomento della domanda iniziale da cui siamo partiti, potrebbe essere imputata ai cosiddetti “idrati di metano”. Fate attenzione, ora stiamo passando dallo smascherare storie fantascientifiche ad ipotesi scientifiche.

Cosa sono gli idrati di metano?

Si tratta di una struttura cristallina solida formata da acqua ghiacciata e metano. Per poter formare strutture di questo tipo e’ necessaria una combinazione di basse temperature e pressioni molto elevate. Queste condizioni sono ovviamente possibili sui profondi fondali oceanici dove l’acqua scende facilmente ad una temperatura prossima allo zero e la colonna di liquido sovrastante produce un’elevata pressione. Strutture di questo tipo sono molto frequenti a profondita’ tra i 500 e i 4000 metri e possono estendersi anche su superfici molto vaste.

Ora, immaginate la seguente situazione: qualcosa, ad esempio una scossa sismica, rompe lo strato di ghiaccio e metano. In queste condizioni, una grossa bolla di gas puo’ fuoriuscire e risalire verso la superficie. Se una nave si trova a passare sopra il punto in cui la bolla esce verso l’atmosfera, cosa succede? Semplice, le navi galleggiano grazie alla spinta di Archimede, dipendente dalla densita’ dell’acqua, che bilancia il peso stesso della nave. Poiche’ il metano ha una densita’ minore dell’acqua, nel momento della fuoriuscita, il peso della nave non sarebbe piu’ bilanciato e il mezzo verrebbe risucchiato verso il basso. E’ possibile questo? Assolutamente si e proprio nel corso degli ultimi anni, esempi di questo tipo sono stati anche documentati. Dal momento che, come anticipato, il Triangolo delle Bermuda presenta fondali molto profondi, correnti fredde e giacimenti di combustibili fossili, e’ assolutamente lecito pensare che la zona possa essere interessata da fenomeni di questo tipo. Ovviamente, in caso di un incidente del genere, la sparizione sarebbe improvvisa e senza lasciare traccia alcuna del mezzo.

Dal mio punto di vista, e’ assolutamente lecito pensare che, forse, alcuni degli incidenti rimasti senza spiegazione, il cui numero ripeto e’ perfettamente compatibile con le statistiche di ogni altra zona, potrebbero essere stati causati dalla rottura di strati di idrati di metano.

Eventi di questo tipo potrebbero anche spiegare, non solo per il Triangolo, incidenti aerei avvenuti a bassa quota sopra gli oceani. La bolla di metano uscita in atmosfera infatti, potrebbe rimanere densa e arrivare agli ugelli ad alta temperatura degli aerei. In questo caso, si svilupperebbe immediatamente un incendio che interesserebbe l’intero apparecchio facendolo precipitare.

Se credete che la spiegazione sia esagerata, pensate che da un metro cubo di idrati di metano ad alta pressione si formano, a pressione e temperatura normali, ben 168 metri cubi di gas e solo 0,87 metri cubi di acqua.

Attenzione, 168 metri cubi di gas da un solo metro cubo di idrati dal fondo dell’oceano. Perche’ allora non sfruttare questa enorme risorsa per estrarre gas? Questa idea e’ ovviamente venuta anche alle maggiori compagnie di estrazione e al momento ci sono diversi gruppi di ricerca, soprattutto americani e giapponesi, che stanno studiando il modo migliore, se possibile, di mettere le mani su questa enorme risorsa. Dalle stime fatte, la quantita’ di gas contenuta negli idrati sarebbe molto maggiore di quella contenuta in tutti i giacimenti tradizionali conosciuti al mondo. Al momento pero’, l’estrazione di questo gas sarebbe ancora troppo rischiosa e con efficienza troppo bassa. Come sapete, il metano e’ uno dei piu’ pericolosi gas serra, con effetti 30 volte maggiori di quelli dell’anidride carbonica. Una fuoriuscita incontrollata di questo gas provocherebbe effetti disastrosi per la nostra atmosfera. Inoltre, sulla base della spiegazione degli idrati per gli incidenti in mare, un’operazione di questo tipo sarebbe molto rischiosa per le piattaforme e le navi che si troverebbero in prossimita’ del punto di raccolta.

Concludendo, per quanto riguarda il Triangolo delle Bermuda, abbiamo visto come il mito creato nel corso degli anni sulla pericolosita’ della zona sia solo una montatura ad hoc. Molti degli incidenti considerati misteriosi sono in realta’ perfettamente spiegabili o avvenuti in zone diverse. Ci sono ancora un numero esiguo di casi non spiegabili in modo certo ma che comunque rientrano nelle statistiche calcolate su scala mondiale. Non pensando al semplice guasto, alcuni di questi avvenimenti potrebbero essere stati causati dalla liberazione di metano da idrati sul fondale. Queste strutture solide, conosciute e presenti sui freddi fondali di alcuni oceani, racchiudono enormi quantita’ di metano che puo’ essere liberato da fratture naturali o indotte dello strato solido. La quantita’ di metano liberata in questi casi e’ notevole al punto che diversi studi sono in corso per cercare di sfruttare questa risorsa.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Un futuro … robotico

13 Mar

Nell’immaginario collettivo dettato dai film e racconti di fantascienza, il nostro futuro dovrebbe essere popolato da robot umanoidi dotati di intelligenza propria ed in grado di comunicare, interagire e, perche’ no, contrapporsi agli stessi esseri umani che li hanno creati. Da decenni questi scenari futuristici vengono richiamati e su tematiche del genere si sono inventate tantissime storie e racconti. Il nostro livello tecnologico, per quanto, punto di vista personale, debba sempre essere migliorato ed e’ sempre un passo indietro a quello che vorremmo fare, non e’ assolutamente scarso eppure questi tanto citati scenari non si sono ancora visti.

Nonostante questo, e anche se molti lo ignorano, la tecnologia robotica ha fatto enormi passi avanti negli ultimi anni e molte operazioni, sia di routine che di elevata complessita’, sono gia’ eseguite dagli uomini coadiuvati da sistemi elettromeccanici. Spesso, questa simbiosi tecnologica e’ necessaria e utile per migliorare la precisione di determinate operazioni, altre volte invece e’ una vera e propria necessita’ fondamentale per supplire all’impossibilita’ di un intervento diretto dell’uomo.

Proprio da questo ultimo scenario vorrei partire per commentare una notizia apparsa sui giornali qualche giorno fa. Provate ad immaginare uno scenario di questo tipo: siamo su un’astronave lontana migliaia di kilometri da Terra. Un membro del nostro equipaggio ha un problema di salute importante che impone un intervento chirurgico di urgenza. Per quanto gli altri membri dell’equipaggio possono essere addestrati a situazioni di questo tipo, non e’ assolutamente possibile immaginare che tutti siano in grado di fare tutto in modo eccellente. Cosa fare per salvare la vita dell’uomo? In casi come questo, potrebbe intervenire un robot in grado di compiere operazioni chirurgiche anche delicate perche’ programmato ed istruito per farle oppure perche’ telecontrollato da un esperto sulla Terra o su un’altra navicella nello spazio.

Pensate sia fantascienza?

Proviamo a sostituire qualche soggetto della nostra storia. La navicella lontana dalla Terra e’ la Stazione Spaziale Internazionale, i membri dell’equipaggio sono gli astronauti provenienti da diversi paesi e che devono restare in orbita anche per periodi relativamente lunghi. Come vengono gestiti casi come quello raccontato sulla ISS? Per il momento, non c’e’ stato mai bisogno di operare d’urgenza un membro della stazione spaziale ma, come potete capire, e’ necessario predisporre piani di emergenza anche per far fronte a problemi come questo. Dal punto di vista medico, gli astronauti della stazione hanno in dotazione strumentazione di monitoraggio e controllo che possono usare autonomamente o aiutandosi in coppie.

Sicuramente un robot appositamente creato per questi scopi potrebbe coadiuvare gli astronauti sia nelle operazioni di routine che in casi di emergenza.

Questo e’ il pensiero che i tecnici NASA hanno avuto quando, qualche anno fa, hanno mandato sulla Stazione Spaziale il Robonaut 2, un robot umanoide che ancora oggi e’ in orbita intorno alla Terra. Inizialmente, il robot e’ stato inviato per aiutare gli astronauti nelle operazioni piu’ difficili ma anche per sostituirli in quelle piu’ banali e ripetitive che sottraggono inutilmente tempo al lavoro del team.

Il Robonaut 2 all'interno della Stazione Spaziale Internazionale

Il Robonaut 2 all’interno della Stazione Spaziale Internazionale

La storia del progetto inizia gia’ dal 1997 quando venne sviluppato un primo prototipo di Robonaut. Questo sistema era pensato per aiutare gli astronauti o sostituirli durante le attivita’ extraveicolari piu’ pericolose. Inoltre, poteva essere montato su un piccolo carro a 6 ruote trasformandolo in un piccolo rover intelligente per l’esplorazione in superficie della Luna o di altri corpi celesti.

Il progetto, come potete immaginare, risulto’ valido e dal 2006 e’ iniziata una stretta collaborazione tra la NASA e la General Motors per la costruzione di un sistema piu’ affidabile e da testare in orbita, appunto il Robonaut 2. Una volta arrivato sulla stazione, il robot venne lasciato imballato per diversi mesi a causa dell’elevato carico di lavoro degli astronauti, fino a quando venne messo in funzione quando nella stazione era presente anche il nostro Paolo Nespoli.

Ecco un video delle prime fasi di collaudo del Robonaut-2:

Come detto, il Robonaut 2 e’ un robot umanoide dotato di due braccia a 5 dita per un peso complessivo di 150Kg, escluse le gambe non previste in questa versione. Il costo di produzione e’ stato di circa 2.5 milioni di dollari per produrre un vero e proprio gioiello di elettronica. Il robot e’ dotato di 350 sensori, una telecamera 3D ad alta definizione, il tutto comandato da 38 processori Power PC. Il complesso sistema di snodi consente di avere 42 gradi di movimento indipendenti.

Addestramento del Robonaut 2 con un manichino

Addestramento del Robonaut 2 con un manichino

La notizia di questi giorni e’ relativa allo speciale addestramento che il Robonaut 2 sta seguendo per diventare un vero e proprio medico di bordo pronto a far fronte, autonomamente o su controllo da Terra, ad ogni intervento medico richiesto, da quelli di routine a, eventualmente, vere e proprie operazioni. Questo addestramento e’ seguito passo passo sia da medici che da tecnici NASA esperti di telecontrollo, dal momento che tutto verra’ poi seguito da Terra verso la Stazione Spaziale. Stando a quanto riportato anche dalla NASA, il Robonaut sarebbe gia’ in grado di eseguire piccoli interventi di routine e di fare prelievi e punture ad esseri umani. Ovviamente, per il momento la sperimentazione e’ fatta su manichini anche se il robot ha mostrato una straordinaria capacita’ di apprendimento e, ovviamente, una precisione e ripetivita’, difficilmente raggiungibili da una mano umana.

Come vedete, forse gli scenari fantascientifici da cui siamo partiti non sono poi cosi’ lontani. In questo caso, l’utilizzo di tecnologia robotica e’ necessario proprio per supplire all’impossibilita’ di intervento diretto da parte dell’uomo e sicuramente potrebbe essere in grado in un futuro molto prossimo di far fronte a situazioni altrimenti non gestibili.

Prima di chiudere vorrei pero’ aprire un ulteriore parentesi robotica. Se pensate che l’utilizzo di un sistema elettromeccanico in medicina sia una novita’ assoluta o se credete che sistemi di questo tipo siano appannaggio soltanto della Stazione Spaziale o di centri di ricerca futuristici, state sbagliando di grosso.

Vi mostro una foto di un altro robot, assolutamente non umanoide, ma con funzioni molto interessanti:

Il sistema robotico Da Vinci

Il sistema robotico Da Vinci

Questo e’ il Robot Da Vinci, proprio in onore del nostro Leonardo, utilizzato in moltissime sale operatorie di tutto il mondo.

Da Vinci e’ prodotto dalla ditta americana Intuitive Surgical e gia’ nel 2000 e’ stato approvato per l’uso in sala operatoria dalla Food and Drugs Administration. Questo sistema e’ dotato di diversi bracci elettromeccanici che consentono una liberta’ di movimento molto maggiore, e assai piu’ precisa, di quella di un polso umano. Il sistema e’ teleguidato da un medico lontano dalla sala operatoria al cui interno ci sono solo infermieri che di volta in volta posizionano lo strumento giusto nelle pinze del robot. Stando a quanto dichiarato, questo robot consente ovviamente di avere una affidabilita’ di ripetizione e precisione molto maggiore di quelle di un normale medico riuscendo ad operare limitando fino ad 1/3 il normale sangiunamento degli interventi piu’ complicati.

Dal sito della Intuitive Surgical si legge che ad oggi sono stati venduti piu’ di 700 di questi robot e pensate che in Italia quasi 70 sale operatorie sono attrezzate con questo sistema. Il numero di operazioni effettuate con questo robot e’ dell’ordine delle decine di migliaia.

E’ tutto oro quello che luccica?

Per completezza, e come siamo abituati a procedere, vi mostro anche il rovescio della medaglia. Rimanendo nel caso Da Vinci, anche in Italia, si sono formati tra i medici due schieramenti: quelli favorevoli al suo uso e quelli fortemente contrari. Perche’ questo? Se parliamo dei vantaggi del sistema, sicuramente una mano robotica consente di effetturare operazioni di routine con una precisione assoluta, d’altro canto pero’, ci sono molti medici che mettono in discussione il rapporto investimento/beneficio di un sistema del genere. Come potete facilmente immaginare, l’investimento richiesto per l’acquisto del robot e’ molto elevato con grossi guadagni dell’azienda e, soprattutto, delle banche che offrono finanziamenti agli ospedali. Inizialmente, il Da Vinci e’ stato sviluppato per le operazioni piu’ complesse o in cui il medico non riuscirebbe a lavorare facilmente. Si tratta ovviamente di operazioni in laparoscopia che tradizionalmente potrebbero essere eseguite con un investimento molto inferiore. Inoltre, visto lo sforzo economico per l’acquisto, molti degli ospedali che dispongono del robot tendono ad utilizzarlo anche per gli interventi piu’ facili al fine di sfruttare a pieno l’investimento fatto. Altro aspetto non da poco, il Da Vinci e’, ovviamente, coperto da decine di brevetti che creano un monopolio per la ditta costruttrice. Questo non fa altro che bloccare eventuali piccole startup che potrebbero migliorare notevolmente un sistema che, come detto, risale al 2000. Come discusso all’inizio dell’articolo, anno per anno la tecnologia cresce notevolmente ed un apparato del genere, per quanto complesso, potrebbe sempre essere migliorato con l’aggiunta di nuovi sistemi. Come vedete, al solito, le discussioni sono piu’ di natura economica che di utilizzo. Nonostante questo, il Da Vinci e’ un ottimo esempio di chirurgia robotica gia’ disponibile alla societa’.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Noi dormiamo ma lo smartphone NO!

12 Mar

Torniamo ora a parlare un po’ di tecnologia. Come sapete, ormai, nel bene o nel male, la maggior parte delle persone possiede uno smartphone. Questi piccoli strumenti nascondono al loro interno una capacita’ di calcolo impressionante se paragonata con le ridotte dimensioni, ma soprattutto, per quelli non proprio giovanissimi, se paragonata con quella dei personal computer piu’ costosi che si potevano acquistare anche solo 10 anni fa. Da un lato, questo e’ impressionante ma anche completamente comprensibile. Come sapete, l’elettronica e le capacita’ di calcolo seguono leggi esponenziali di crescita, di riduzione del prezzo e delle dimensioni dei dispositivi e l’insieme di questi parametri fa si che, di volta in volta, esca un prodotto nuovo che faccia impallidire i suoi predecessori.

Ora pero’, quanti di quelli che utilizzano uno smartphone lo utilizzano a pieno delle sue capacita’? In verita’, credo io, davvero un numero esiguo di persone riesce a sfruttare a pieno le capacita’ del proprio telefono se non facendo andare in contemporanea diversi programmi richiedenti la rete internet.

Oltre a questo poi, c’e’ un altro aspetto da considerare. Mediamente, questi piccoli oggetti sono molto energivori e le loro batterie difficilmente durano anche solo una giornata se sfruttati a pieno. Conseguenza di questo e’ che tutte le notti dobbiamo ricaricare la batteria lasciando, come spesso accade, il telefono acceso con la connessione dati o wireless accesa. Durante questa fase di standby, anche se non del tutto, il nostro dispositivo e’ fermo e la sua enorme capacita’ di calcolo non viene sfruttata.

Perche’ faccio questo preambolo iniziale?

Molto semplice, in questi giorni, su diversi giornali, e’ stata lanciata una notizia che ha suscitato il mio interesse se non altro perche’ rilancia le problematiche appena discusse. Come avrete sicuramente letto, un team di ricercatori austriaci ha trovato, almeno da come raccontano i giornali, il modo di sfruttare questa potenza di calcolo per un nobile scopo. Questo gruppo di ricerca e’ coinvolto nello studio dei dati del database Simap, un enorme catalogo contenente al suo interno la struttura di tutte le proteine conosciute. Scopo di questa ricerca e’ quello di studiare le somiglianze tra le proteine con il fine ultimo, tra i tanti altri, di poter trovare cure per alcune delle malattie piu’ critiche che riguardano il genere umano. Gestire una mole di dati cosi’ impressionante non e’ affatto semplice e richiede una capacita’ di calcolo molto elevata. Ovviamente, una capacita’ di calcolo elevata significa un costo altrettanto elevato. Per farvi capire questa relazione, pensate che il costo computazionale aumenta con il quadrato del numero di proteine contenute nel database.

Come gestire una mole cosi’ elevata di dati con costi che non siano insostenibili?

Semplice, stando a quanto riporta la notizia sui giornali, e’ stata programmata una App, uno dei piccoli programmini che girano sui nostri smartphone, che consente di sfruttare lo smartphone per analizzare questi dati. Il nome della App e’ Power Sleep appunto perche’ si tratta di una normale sveglia che puo’ essere impostata all’ora in cui desideriamo alzarci. Al contrario di una normale sveglia, Power Sleep ha pero’ una funzione aggiuntiva. Prima di andare a dormire, mettete il vostro smartphone sotto carica lasciando la connessione WiFi accesa. Non appena la batteria avra’ raggiunto la carica completa, il telefono comunichera’ con un server centrale dando inizio al vero scopo del software. Il server invia paccheti da 1Mb che vengono analizzati dal processore dello smartphone. Il tempo richiesto per questa analisi e’ compreso tra 30 e 60 minuti a seconda della potenza di calcolo. Quando il processo e’ completato, il telefono invia il risultato al server e scarica un altro pacchetto da analizzare. Questa comunicazione dura fino a quando non arriva l’ora impostata per la sveglia e il telefono e’ di nuovo disponibile completamente per l’utente.

Detta in questo modo, sembra una scoperta rivoluzionaria che ci permettera’ di contribuire senza spendere un soldo alla ricerca scientifica.

Perche’ dico “sembra”?

Molto semplice, ovviamente si tratta di un’applicazione utilissima per lo scopo della ricerca scientifica in se, ma questo genere di applicazioni non sono assolutamente una novita’. Questo processo di analisi dei dati e’ quello che viene comunemente definito “calcolo distribuito”. Si tratta di un procedimento molto semplice in cui un processo principale viene diviso in tante parti assegnate a processori diversi che poi comunicheranno il loro singolo risultato ad un server centrale. Grazie al calcolo distribuito e’ possibile sfruttare una rete di computer, o smartphone come in questo caso, invece di investire cifre spropositate in una singola macchina in cui far girare l’intera analisi. Di esempi di questo tipo ce ne sono a bizzeffe anche indietro negli anni. Sicuramente tutti avrete sentito parlare del programma SETI@Home per la ricerca di vita extraterrestre nell’universo. In questo caso, si utilizzavano radiotelescopi per cercare segnali non naturali. L’enorme mole di dati veniva analizzata da chiunque decidesse di installare un piccolo software sul proprio computer per contribuire a questa ricerca.

Nel caso di Power Sleep, i ricercatori austriaci si sono affidati ad una societa’ che si occupa proprio di calcolo distribuito e si chiama BOINC. Vi riporto anche il link alla loro pagina italiana in cui compare, proprio in prima pagina, una descrizione sul funzionamento e sull’importanza del calcolo distribuito:

BOINC Italia

Come potete leggere, esistono decine di applicazioni per il calcolo distribuito gestite da BOINC e molte di queste riguardano proprio analisi scientifiche dei dati. Il perche’ di questo e’ facilmente comprensibile, le applicazioni scientifiche sono quelle che producono la maggior mole di dati e che richiederebbero super-computer sempre piu’ potenti per la loro analisi. Grazie a BOINC e al calcolo distribuito, e’ possibile sfruttare a titolo gratuito computer, smartphone e tablet privati per velocizzare il calcolo e risparmiare notevoli capitali che incidono fortemente sul costo della ricerca. Visto che lo abbiamo citato, BOINC nacque qualche anno fa proprio per gestire il progetto SETI@Home. Tra i programmi disponibili ora trovate ad esempio: LHC@Home per l’analisi dei dati del collisore LHC del CERN, Orbit@Home per l’analisi delle traiettorie degli asteroidi vicini alla Terra, Einstein@Home per la ricerca di onde gravitazionali e cosi’ via. Per una lista piu’ completa dei programmi scientifici di calcolo distribuito potete far riferimento alla pagina di Wikipedia che ne parla:

Wiki, esempi calcolo distribuito

Concludendo, al solito la notizia e’ stata data sui maggiori giornali con toni enfatici volti piu’ a impressionare che non ha mostrare l’importanza scientifica di applicazioni di questo tipo. Esempi di calcolo distribuito ce ne sono tantissimi e molti di questi sfruttano il servizio BOINC per dialogare con gli utenti che volontariamente decidono di sostenere un programma piuttosto che un altro. Power Sleep ha sicuramente un nobile scopo se pensiamo all’importanza del mantenimento del database Simap e per i risultati che ricerche di questo tipo dovrebbero portare per l’intero genere umano.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Flusso oscuro e grandi attrattori

28 Feb

Nella ormai celebre sezione:

Hai domande o dubbi?

in cui sono usciti fuori davvero gli argomenti piu’ disparati ma sempre contraddistinti da curiosita’ e voglia di discutere, una nostra cara lettrice ci ha chiesto maggiori lumi sul cosiddetto “dark flow” o flusso oscuro. Una richiesta del genere non puo’ che farci piacere, dal momento che ci permette di parlare nuovamente di scienza e, in particolare, di universo.

Prima di poterci addentrare in questo argomento scientifico ma, anche a livello di ricerca, poco conosciuto, e’ necessario fare una piccolissima premessa iniziale che serve per riprendere in mano concetti sicuramente conosciuti ma su cui spesso non si riflette abbastanza.

Per iniziare la discussione, voglio mostrarvi una foto:

sir-isaac-newtons-philosophic3a6-naturalis-principia-mathematica

Quello che vedete non e’ un semplice libro, ma uno dei tre volumi che compongono il Philosophiae Naturalis Principia Mathematica o, tradotto in italiano, “I principi naturali della filosofia naturale”. Quest’opera e’ stata pubblicata il 5 luglio 1687 da Isaac Newton.

Perche’ e’ cosi’ importante questa opera?

Questi tre volumi sono considerati l trattato piu’ importante del pensiero scientifico. Prima di tutto, contengono la dinamica formulata da Newton che per primo ha posto le basi per lo studio delle cause del moto ma, soprattutto, perche’ contengono quella che oggi e’ nota come “Teoria della Gravitazione Universale”.

Sicuramente, tutti avrete sentito parlare della gravitazione di Newton riferita al famoso episodio della mela che si stacco’ dall’albero e cadde sulla testa del celebre scienziato. Come racconta la leggenda, da questo insignificante episodio, Newton capi’ l’esistenza della forza di gravita’ e da qui la sua estensione all’universo. Se vogliamo pero’ essere precisi, Newton non venne folgorato sulla via di Damasco dalla mela che cadeva, ma questo episodio fu quello che fece scattare la molla nella testa di un Newton che gia’ da tempo studiava questo tipo di interazioni.

Volendo essere brevi, la teoria della gravitazione di Newton afferma che nello spazio ogni punto materiale attrae ogni altro punto materiale con una forza che e’ proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza. In soldoni, esiste una forza solo attrattiva che si esercita tra ogni coppia di corpi dotati di massa e questa interazione e’ tanto maggiore quanto piu’ grandi sono le masse e diminuisce con il quadrato della loro distanza.

Semplice? Direi proprio di si, sia dal punto di vista fisico che matematico. Perche’ allora chiamare questa legge addirittura con l’aggettivo “universale”?

Se prendete la male di Newton che cade dall’albero, la Luna che ruota intorno alla Terra, la Terra che ruota intorno al Sole, il sistema solare che ruota intorno al centro della Galassia, tutti questi fenomeni, che avvengono su scale completamente diverse, avvengono proprio grazie unicamente alla forza di gravita’. Credo che questo assunto sia sufficiente a far capire l’universalita’ di questa legge.

Bene, sulla base di questo, l’interazione che regola l’equilibrio delle masse nell’universo e’ dunque la forza di gravita’. Tutto quello che vediamo e’ solo una conseguenza della sovrapposizione delle singole forze che avvengono su ciascuna coppia di masse.

Detto questo, torniamo all’argomento principale del post. Cosa sarebbe il “flusso oscuro”? Detto molto semplicemente, si tratta del movimento a grande velocita’ di alcune galassie in una direzione ben precisa, situata tra le costellazioni del Centauro e della Vela. Questo movimento direzionale avviene con velocita’ dell’ordine di 900 Km al secondo e sembrerebbe tirare le galassie in un punto ben preciso al di fuori di quello che definiamo universo osservabile.

Aspettate, che significa che qualcosa tira le galassie fuori dall’universo osservabile?

Per prima cosa, dobbiamo definire cosa significa “universo osservabile”. Come sappiamo, l’universo si sta espandendo e se lo osserviamo da Terra siamo in grado di vedere le immagini che arrivano a noi grazie al moto dei fotoni che, anche se si muovono alla velocita’ della luce, si spostano impiegando un certo tempo per percorrere delle distanze precise. Se sommiamo questi due effetti, dalla nostra posizione di osservazione, cioe’ la Terra, possiamo vedere solo quello che e’ contenuto entro una sfera con un raggio di 93 miliardi anni luce. Come potete capire, l’effetto dell’espansione provoca un aumento di quello che possiamo osservare. Se l’universo ha 14.7 miliardi di anni, ci si potrebbe aspettare di poter vedere dalla terra la luce partita 14.7 miliardi di anni fa, cioe’ fino ad una distanza di 14.7 miliardi di anni luce. In realta’, come detto, il fatto che l’universo sia in continua espansione fa si che quello che vediamo oggi non si trova piu’ in quella posizione, ma si e’ spostato a causa dell’espansione. Altro aspetto importante, la definizione di sfera osservabile e’ vera per ogni punto dell’universo, non solo per quella sfera centrata sulla Terra che rappresenta cquello che noi possiamo vedere.

Bene, dunque si sarebbe osservato un flusso di alcune galassie verso un punto preciso fuori dall’universo osservabile. Proprio dal fatto che questo flusso e’ all’esterno del nostro universo osservabile, si e’ chiamato questo movimento con l’aggettivo oscuro.

Aspettate un attimo pero’, se le galassie sono tirate verso un punto ben preciso, cos’e’ che provoca questo movimento? Riprendendo l’introduzione sulla forza di gravitazione, se le galassie, che sono oggetti massivi, sono tirate verso un punto, significa che c’e’ una massa che sta esercitando una forza. Poiche’ la forza di gravitazione si esercita mutuamente tra i corpi, questo qualcosa deve anche essere molto massivo.

Prima di capire di cosa potrebbe trattarsi, e’ importante spiegare come questo flusso oscuro e’ stato individuato.

Secondo le teorie cosmologiche riconosciute, e come spesso si dice, l’universo sarebbe omogeneo e isotropo cioe’ sarebbe uguale in media in qualsiasi direzione lo guardiamo. Detto in altri termini, non esiste una direzione privilegiata, almeno su grandi scale, in cui ci sarebbero effetti diversi. Sempre su grandi scale, non esisterebbe neanche un movimento preciso verso una direzione ma l’isotropia produrrebbe moti casuali in tutte le direzioni.

Gia’ nel 1973 pero’, si osservo’ un movimento particolare di alcune galassie in una direzione precisa. In altri termini, un’anomalia nell’espansione uniforme dell’universo. In questo caso, il punto di attrazione e’ all’interno del nostro universo osservabile e localizzato in prossimita’ del cosiddetto “ammasso del Regolo”, una zona di spazio dominata da un’alta concentrazione di galassie vecchie e massive. Questa prima anomalia gravitazionale viene chiamata “Grande Attrattore”. In questa immagine si vede appunto una porzione di universo osservabile da Terra ed in basso a destra trovate l’indicazione del Grande Attrattore:

800px-2MASS_LSS_chart-NEW_Nasa

Questa prima anomalia dell’espansione venne osservata tramite quello che e’ definito lo spostamento verso il rosso. Cosa significa? Se osservate un oggetto che e’ in movimento, o meglio se esiste un movimento relativo tra l’osservatore e il bersaglio, la luce che arriva subisce uno spostamento della lunghezza d’onda dovuto al movimento stesso. Questo e’ dovuto all’effetto Doppler valido, ad esempio, anche per le onde sonore e di cui ci accorgiamo facilmente ascoltando il diverso suono di una sirena quando questa si avvicina o si allontana da noi.

220px-Redshift_blueshift.svg

Bene, tornando alle onde luminose, se la sorgente si allontana, si osserva uno spostamento verso lunghezze d’onda piu’ alte, redshift, se si avvicina la lunghezza d’onda diminuisce, blueshift. Mediate questo semplice effetto, si sono potuti osservare molti aspetti del nostro universo e soprattutto i movimenti che avvengono.

Tornando al grnde attrattore, questa zona massiva verso cui si osserva un moto coerente delle galassie del gruppo e’ localizzato a circa 250 milioni di anni luce da noi nella direzione delle costellazioni dell’Hydra e del Centauro e avrebbe una massa di circa 5×10^15 masse solari, cioe’ 5 milioni di miliardi di volte il nostro Sole. Questa, come anticipato, e’ soltanto una anomalia dell’espansione dell’universo che ha creato una zona piu’ massiva in cui c’e’ una concentrazione di galassie che, sempre grazie alla gravita’, attraggono quello che hanno intorno.

Discorso diverso e’ invece quello del Dark Flow. Perche’? Prima di tutto, come detto, questo centro di massa si trova talmente lontano da essere al di fuori del nostro universo osservabile. Visto da Terra poi, la zona di spazio che crea il flusso oscuro si trova piu’ o meno nella stessa direzione del Grande Attrattore, ma molto piu’ lontana. Se per il Grande Attrattore possiamo ipotizzare, detto in modo improprio, un grumo di massa nell’universo omogeneo, il flusso oscuro sembrerebbe generato da una massa molto piu’ grande ed in grado anche di attrarre a se lo stesso Grande Attrattore.

Il flusso oscuro venne osservato per la prima volta nel 2000 e descritto poi a partire dal 2008 mediante misure di precisione su galassie lontane. In questo caso, l’identificazione del flusso e’ stata possibile sfruttando il cosiddetto effetto Sunyaev-Zel’dovich cioe’ la modificazione della temperatura dei fotoni della radiazione cosmica di fondo provocata dai raggi X emessi dalle galassie che si spostano. Sembra complicato, ma non lo e’.

Di radiazione di fondo, o CMB, abbiamo parlato in questi articoli:

Il primo vagito dell’universo

E parliamo di questo Big Bang

Come visto, si tratta di una radiazione presente in tutto l’universo residuo del Big Bang iniziale. Bene, lo spostamento coerente delle galassie produce raggi X, questi raggi X disturbano i fotoni della radiazione di fondo e noi da terra osservando queste variazioni ricostruiamo mappe dei movimenti delle Galassie. Proprio grazie a queste misure, a partire dal 2000, e’ stato osservato per la prima volta questo movimento coerente verso un punto al di fuori dell’universo osservabile.

Cosa potrebbe provocare il Flusso Oscuro? Bella domanda, la risposta non la sappiamo proprio perche’ questo punto, se esiste, come discuteremo tra un po’, e’ al di fuori del nostro universo osservabile. Di ipotesi a riguardo ne sono ovviamente state fatte una miriade a partire gia’ dalle prime osservazioni.

Inizialmente si era ipotizzato che il movimento potrebbe essere causato da un ammasso di materia oscura o energia oscura. Concetti di cui abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Se il vuoto non e’ vuoto

Universo: foto da piccolo

Queste ipotesi sono pero’ state rigettate perche’ non si osserva la presenza di materia oscura nella direzione del Dark Flow e, come gia’ discusso, per l’energia oscura il modello prevede una distribuzione uniforme in tutto l’universo.

Cosi’ come per il Grande Attrattore, si potrebbe trattare di un qualche ammasso molto massivo in una zona non osservabile da Terra. Sulla base di questo, qualcuno, non tra gli scienziati, aveva ipotizzato che questo effetto fosse dovuto ad un altro universo confinante con il nostro e che provoca l’attrazione. Questa ipotesi non e’ realistica perche’ prima di tutto, la gravitazione e’ frutto dello spazio tempo proprio del nostro universo. Se anche prendessimo in considerazione la teoria dei Multiversi, cioe’ universi confinanti, l’evoluzione di questi sarebbe completamente diversa. Il flusso oscuro provoca effetti gravitazionali propri del nostro universo e dovuti all’attrazione gravitazionale. Il fatto che sia fuori dalla nostra sfera osservabile e’ solo dovuto ai concetti citati in precedenza figli dell’accelerazione dell’espansione.

Prima di tutto pero’, siamo cosi’ sicuri che questo Flusso Oscuro esista veramente?

Come anticipato, non c’e’ assolutamente la certezza e gli scienziati sono ancora fortemente divisi non solo sulle ipotesi, ma sull’esistenza stessa del Flusso Oscuro.

Per farvi capire la diatriba in corso, questo e’ il link all’articolo originale con cui si ipotizzava l’esistenza del Flusso Oscuro:

Dark Flow

Subito dopo pero’, e’ stato pubblicato un altro articolo che criticava questo sostenendo che i metodi di misura applicati non erano corretti:

Wright risposta al Dark Flow

Dopo di che, una lunga serie di articoli, conferme e smentite, sono stati pubblicati da tantissimi cosmologi. Questo per mostrare quanto controversa sia l’esistenza o meno di questo flusso oscuro di Galassie verso un determinato punto dell’universo.

Venendo ai giorni nostri, nel 2013 e’ stato pubblicato un articolo di analisi degli ultimi dati raccolti dal telescopio Planck. In questo paper viene nuovamente smentita l’esistenza del dark flow sulla base delle misure delle velocita’ effettuate nella regione di spazio in esame:

Planck, 2013

Dunque? Dark Flow definitivamente archiviato? Neanche per sogno. Un altro gruppo di cosmologi ha pubblicato questo ulteriore articolo:

Smentita alla smentita

in cui attacca i metodi statistici utilizzati nel primo articolo e propone un’analisi diversa dei dati da cui si mostra l’assoluta compatibilita’ di questi dati con quelli di un altro satellite, WMAP, da cui venne evidenziata l’esistenza del dark flow.

Credo che a questo punto, sia chiaro a tutti la forte discussione ancora in corso sull’esistenza o meno di questo Dark Flow. Come potete capire, e’ importante prima di tutto continuare le analisi dei dati e determinare se questo flusso sia o meno una realta’ del nostro universo. Fatto questo, e se il movimento venisse confermato, allora potremmo fare delle ipotesi sulla natura di questo punto di attrazione molto massivo e cercare di capire di cosa potrebbe trattarsi. Ovviamente, sempre che venisse confermata la sua esistenza, stiamo ragionando su qualcosa talmente lontano da noi da essere al di fuori della nostra sfera osservabile. Trattare questo argomento ci ha permesso prima di tutto di aprire una finestra scientifica su un argomento di forte e continua attualita’ per la comunita’ scientifica. Come sappiamo, trattando argomenti di questo tipo, non troviamo risposte certe perche’ gli studi sono ancora in corso e, cosi’ come deve avvenire, ci sono discussioni tra gli scienziati che propongono ipotesi, le smentiscono, ne discutono, ecc, come la vera scienza deve essere. Qualora ci fossero ulteriori novita’ a riguardo, ne parleremo in un futuro articolo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.