Tag Archives: simulazione

Cosa c’e’ sotto i nostri piedi?

28 Apr

In questi giorni, molti giornali e siti internet hanno pubblicato la notizia di una nuova misura rigurdante la temperatura al centro della Terra. Come avrete letto, il nuovo risultato stabilisce una temperatura del centro della Terra a 6000 gradi centigradi, ben 1000 gradi maggiore rispetto al valore precedentemente conosciuto e misurato circa 20 anni fa. Tra l’altro, moltissime fonti enfatizzano il fatto che questi 6000 gradi, misurati al centro del nostro pianeta, sono paragonabili alla temperatura esterna del Sole.

Temperature della Terra dalla superficie al centro

Temperature della Terra dalla superficie al centro

E dunque? Purtroppo, come spesso accade, molti siti sono sempre pronti a pubblicare notizie di carattere scientifico, ma un po’ meno a dare spiegazioni. In realta’, questa misura e’ estremamente complessa ed e’ stata possibile solo grazie alla collaborazione di diversi centri di ricerca. Inoltre, la nuova determinazione della temperatura interna del pianeta, consente di verificare molti modelli riguardanti diversi settori della scienza.

Da quanto detto, credo che questa notizia meriti un piccolo approfondimento, anche solo per capire meglio questi concetti, che sempre affascinano le persone.

Per prima cosa: come e’ stata fatta questa misura?

Ad oggi, sappiamo che, scendendo verso il centro della Terra, ci sono zone ad alta pressione occupate da ferro e zolfo liquidi. Pian piano che ci avvicianiamo al centro pero’, e le pressioni continuano ad aumentare, si trova un blocco di ferro solido, che occupa la parte piu’ interna del nostro pianeta. Come sappiamo questo? L’evidenza di questa composizione, ma anche il volume occupato dalla parte solida e da quella liquida, vengono determinati studiando le onde sismiche dei terremoti di intensita’ maggiore. Cosa significa? Le onde emesse durante un forte sisma, si propagano all’interno della Terra e interagiscono in modo diverso incontrando un volume solido o liquido. Bene, misurando queste interferenze, se volete ascoltando il loro eco, e’ possibile determinare lo spessore del nucleo solido del nostro pianeta. Purtroppo, questi studi non ci danno nessuna informazione sulla temperatura interna della Terra. Per ricavare questi valori e’ necessario procedere in modo diverso.

Arriviamo dunque alla misura in questione. Come potete immaginare, sapendo che nel nucleo e’ presente sia ferro solido che liquido, basta determinare i punti di fusione di questo metallo per arrivare all’informazione cercata. Purtroppo, il discorso non e’ cosi’ semplice. In questo caso, oltre alla temperatura, gioca un ruolo essenziale anche la pressione a cui il ferro e’ sottoposto. Pressione e temepratura sono due variabili indipendenti di cui tenere conto per determinare il punto di fusione del ferro.

Per capire questo importante concetto, vi faccio un esempio noto a tutti. Quando si dice che la temperatura di ebollizione dell’acqua e’ 100 gradi, ci si riferisce alla pressione atmosferica. Come sicuramente avrete sentito dire, esistono delle differenze per questo valore a seconda che vi troviate al mare o in montagna. Questo e’ comprensibile proprio considerando i diversi valori di pressione. In questo caso, possiamo vedere la pressione come il peso della colonna d’aria sopra le nostre teste. Variando il valore della pressione, cambia dunque la temperatura di ebollizione dell’acqua. La stessa cosa avviene per il ferro al centro della terra, ma per valori di temperatura e pressioni molto diversi da quelli a cui siamo abituati.

Quando parliamo di pressioni al centro della Terra, stiamo pensando a valori che si aggirano intorno a qualche milione di atmosfere. Per poter studiare le traformazioni di fase del ferro con questi valori di pressione e temperatura, i ricercatori francesi hanno costruito uno strumento ad hoc, di cui vi mostro uno schema:

Schema dello strumento utilizzato per simulare le pressioni al centro della Terra

Schema dello strumento utilizzato per simulare le pressioni al centro della Terra

Come vedete, una lamina di ferro viene messa tra due diamanti, in modo tale che la punta tocchi la superficie. Spingendo i due diamanti su un punto molto piccolo, si riescono a creare le pressioni richieste per la misura. Per scaldare invece il ferro alle temperature richieste, vengono utilizzati potenti fasci laser in grado di far salire la temperatura fino a diverse migliaia di gradi.

A questo punto, appare evidente che tutto il sistema debba essere isolato termicamente e chimicamente dall’ambiente esterno per impedire perdite di calore ma anche che il ferro reagisca con l’ambiente viziando il risultato. In questo caso, per poter determinare lo stato solido o liquido del campione, si sono utilizzate le emissioni a raggi X del materiale, in modo da poter determinare lo stato fisico, senza perturbare in nessun modo la misura.

Dai modelli sismici utilizzati, nello strato in cui il ferro e’ liquido, si ha una temperatura di 4800 gradi con una pressione di 2.2 milioni di atmosfere, risultato confermato dalla misura. Se pero’ aumentiamo ancora la pressione, analogamente a quanto accade mentre scendiamo vicino la centro della Terra, e la portiamo ad un valore di 3.3 milioni di atmosfere, ci si accorge che per far solidificare il ferro, come osservato dallo studio delle onde sismiche, e’ necessaria una temperatura di 6000 gradi.

Cosa significa questo? Riassumendo, sappiamo dai modelli sismici che il centro della terra e’ di ferro solido circondato da ferro liquido. Con il dispositivo visto, e’ stato possibile determinare che alle pressioni del centro della Terra, affinche’ il ferro sia solido, e’ necessaria una temperatura di 6000 gradi. Bene, questo e’ proprio il valore della temperatura al centro del nostro pianeta e che e’ stato possibile misurare con precisione, solo 500 gradi di incertezza sperimentale, con questa importantissima ricerca.

Come vi avevo anticipato, queto nuovo valore e’ circa 1000 gradi superiore a quello precedente ottenuto 20 anni fa. Perche’ questa differenza? Il sistema usato in precedenza per ottenere le alte pressioni richieste era molto simile a quello odierno. La caratteristica che ha permesso di misurare con precisione la temperatura, e’ lo studio delle transizioni del ferro osservando il tutto ai raggi X. Nella precedente misura, venivano utilizzate onde visibili. Come evidenziato in questa nuova misura, arrivati a circa 5000 gradi, si presentano fenomeni di cristallizzazione superficiale del ferro, che molto probabilemnte sono stati interpretati in passato come l’inizio della transizione nella fase solida, mentre, come visto in questa misura, per arrivare in questo stato, e’ necessario aumentare ancora di 1000 gradi la temperatura.

Ultima importante considerazione: come visto, la temperatura del mantello intorno al nucleo e’ di circa 4800 gradi, cioe’ 1200 gradi inferiore a quella del blocco di ferro solido. Bene, questa differenza di temperatura e’ fondamentale per capire un altro importante parametro del nostro pianeta e di cui spesso abbiamo parlato, il campo magnetico. Come sapete, spesso abbiamo parlato di geomagnetismo per sfatare tutte quelle voci catastrofische che vorrebbero un’inversione dei poli in corso:

Inversione dei poli terrestri

L’anomalia del Sud Atlantico

Il battito naturale …. della Terra

Bene, la differenza di temperatura tra gli strati interni, insieme anche alla rotazione della terra intorno al suo asse, sono proprio i responsabili della generazione del nostro campo magnetico. Per dirlo in parole semplici, l’interno della Terra si comporta come una dinamo in cui le correnti sono correnti termiche spinte dalla differenza di temperatura.

Come vedete, alla luce di quanto detto, e’ abbastanza riduttivo quanto si puo’ leggere sui giornali. Questa misura e’ estremamente interessante dal punto di vista tecnico, ma soprattutto i risultati ottenuti sono di prim’ordine. Come anticipato, i nuovi valori trovati consentiranno di migliorare notevolmente i modelli anche dal punto di vista geologico, utili anche per studiare la propagazione dei terremoti sul nostro pianeta. Detto questo, la misura apre il campo anche a possibili studi per cercare di riprodurre in laboratorio le condizioni di pressione e temperatura presenti in ogni strato del nostro pianeta. Avere una mappa di questo tipo, potrebbe fornire dati estremamente importanti per capire al meglio anche l’origine e l’evoluzione della nostra Terra.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Nuovi candidati per l’impatto mortale?

18 Apr

Alcuni utenti mi hanno chiesto di commentare una notizia apparsa proprio in queste ore su molti siti intenet. Stando a quanto riportato, la NASA avrebbe dichiarato di aver scoperto un nuovo asteroide orbitante vicino alla Terra e che potrebbe rappresentare una notevole minaccia per il genere umano. Per essere precisi, trovate scritto che questo corpo sarebbe molto piu’ pericoloso di Apophis di cui abbiamo parlato, ad esempio, in questo post:

Attenzione, tra poche ore passa Apophis!

Come sapete bene, su Apophis si e’ speculato tantissimo per due motivi principali. Il primo e’ che questo NEO, oggetto vicino alla Terra, per lungo tempo ha avuto una probabilita’ di impatto dalle simulazioni diversa da zero, mentre la seconda ragione si deve a Margherita Hack che in alcune interviste, per smentire le fantasie sul 2012, ha espressamente detto che forse era meglio preoccuparsi di Apophis piuttosto che della fine del calendario Maya. Questa affermazione, fatta ovviamente per sminuire il 2012, ha avuto l’effetto contrario di creare uno stato d’allerta sui meteoriti.

Detto questo, sempre secondo la notizia che stiamo analizzando, il nuovo asteroide appena scoperto sarebbe “1999 RQ36”, che dovrebbe colpire la Terra nel 2182.

Premesso che il 2182 mi sembra abbastanza lontano per iniziare a preoccuparsi, le tante notizie che trovate in rete presentano alcuni punti fondamentali completamente falsi.

Cerchiamo di capire meglio.

Prima di tutto, come suggerisce il nome stesso, l’asteroide in questione e’ stato scoperto nel 1999. La prima osservazione e’ stata fatta nell’ambito del programma LINEAR e l’asteroide e’ costantemente monitorato e studiato dall’osservatorio di Arecibo.

1999 RQ36 ha una forma sferiodale con un diametro medio di 560 metri e una massa di 0.14 miliardi di tonnellate. A livello scientifico, si e’ parlato abbastanza di questo asteroide, soprattutto perche’ e’ stato possibile determinare la sua massa con estrema precisione. Questo risultato e’ stato raggiunto sfruttando le informazioni di 3 radiotelescopi nel mondo e calcolando in maniera molto precisa gli effetti gravitazionali subiti da 1999 RQ36. Come potete facilmente immaginare, questo e’ stato un compito molto arduo, dal momento che per calcoli di queto tipo, si devono considerare tutti i corpi in prossimita’ dell’asteroide, al fine di valutare precisamente le interazioni gravitazionali subite durante il moto.

Probabilmente, leggendo qualche notizia qua e la sui siti scientifici, i nostri amici catastrofisti non hanno capito bene quello di cui si stava parlando e perche’ cosi’ tanto interesse fosse concentrato su questo asteroide. Ovviamente, non dobbiamo dimenticarci il periodo storico che stiamo attraversando. Dopo il fatto russo dell’asteroide su Cheliabynsk, speculare su eventi di questo tipo e’ divenuta una moda molto proficua per tanti siti internet.

Detto questo, come possiamo verificare la reale pericolosita’ di 1999 RQ36?

Per prima cosa, per chi volesse divertirsi a simulare l’impatto di un corpo di questo tipo sulla Terra, abbiamo fatto esperimenti di questo tipo in un altro articolo:

Effetti di un impatto con Nibiru

Seguendo i link riportati, potete accedere ad un programma di simulazione molto carino e con cui potete valutare i reali rischi che un impatto di questo tipo avrebbe per la Terra e per il genere umano.

Detto questo, per poter capire la reale probabilita’ di impatto, non solo di questo asteroide, ma di qualsiasi corpo che volete controllare, basta al solito accedere al sito della NASA sui corpi potenzialmente pericolosi:

NASA, NEO program

In queste pagine trovate il database completo con le informazioni su tutti i NEO potenzialmente pericolosi, insieme anche ai parametri orbitali e ai dati fisici.

Cosa troviamo su 1999 RQ36?

Aprendo la pagina dedicata a questo corpo:

NASA, 1999 RQ36

Vedete che i passaggi ravvicinati alla Terra saranno tra il 2169 e il 2199. Sempre facendo riferimento a questa tabella:

Passaggi ravvicinati per RQ36

Passaggi ravvicinati per RQ36

vedete pero’ che la probabilita’ di impatto non e’ mai superiore allo 0,026%.

Molto probabilmente, un altro fattore che ha contribuito ad alimentare il sospetto su questo corpo e’ che, facendo sempre riferimento alla tabella, non compare la valutazione nella Scala Torino per questo corpo.

Come visto in questo articolo:

L’asteroide 2012 DA14

La scala Torino e’ una classificazione del pericolo di impatto dei NEO sulla Terra. Questa scala tiene conto sia della massa dell’asteroide che della sua energia cinetica. Come capite subito, in un eventuale impatto, anche l’energia cinetica posseduta dal proiettile rappresenta un parametro di notevole importanza.

Visto che per 1999RQ36 non compare la valutazione, proviamo a valutare da noi il pericolo di impatto facendo un confronto con un altro asteroide potenzialmente pericoloso: 2007 VK184. In questo caso abbiamo un proiettile un po’ piu’ piccolo, solo 130 metri di diametro, ma che viaggia ad una velocita’ superiore a 1999 RQ36: 19 m/s contro 13 m/s.

NASA, 2007 VK184

Perche’ abbiamo scelto questo corpo? Come vedete sempre consultantdo il sito NASA, VK184 e’ considerato l’osservato speciale per la probabilita’ di impatto sulla Terra. Con questo si intende che e’ il NEO con la probabilita’ di impatto maggiore per il futuro.

Facendo riferimento alla tabella che trovate sulla pagina riportata:

Passaggi ravvicinati per VK184

Passaggi ravvicinati per VK184

Vedete che in questo caso, la probabilita’ maggiore di impatto e’ dell’ordine di 0,055% con il valore 1 nella Scala Torino. Analogamente a quanto avvenne la prima volta con Apophis, anche questo corpo ha dunque un valore diverso da zero della Scala Torino. Proprio per questo motivo, trovate il corpo evidenziato sulla pagina NASA e VK184 viene costantemente monitorato.

Cosa significa 1 nella Scala Torino?

Definizione dei valori della Scala Torino

Definizione dei valori della Scala Torino

Se avete pensato che il valore 1 ci dia la certezza di impatto, siete fuori strada. Ovviamente 1 e’ maggiore di 0, cioe’ della probabilita’ completamente nulla di impatto con la Terra. Nnostante questo, come vedete dalla figura a lato, la scala Torino a valori che vanno da 0 a 10 e che corripondono ad un crescendo di probabilita’ di impatto.

Prendendo la definizione ufficiale della scala Torino, il valore 1 corrisponde a quanto segue:

Osservazioni occasionali possono scoprire il passaggio vicino alla Terra di oggetti che li pongono in un livello di pericolo di collisione. Calcoli e analisi mostrano che le probabilità di collisione sono estremamente basse da non meritare grande attenzione e preoccupazione nella gente comune. Nuove osservazioni molto probabilmente porteranno una riassegnazione al livello 0.

Dunque? Premesso, come visto, che stiamo parlando di passaggio ravvicinati tra piu’ di un secolo, il valore 1 non corrisponde assolutamente a nessun pericolo. Complice anche la lontananza temporale dell’evento considerato, l’orbita dell’asteroide e’ conosciuta con un’incertezza tale da non consentire una valutazione precisa della probabilita’ di impatto. Cosi’ come avvenuto per Apophis, a distanza di anni e grazie alle osservazioni continue ad opera dei tanti telescopi funzionanti a Terra, la probabilita’ di impatto, e duqnue anche il valore della Scala Torino, e’ divenuta completamente nulla.

Detto questo, siete ancora convinti che sia il caso di preoccuparsi di 1999 RQ36? Secondo me, assolutamente no. Ovviamente non vogliamo tranquillizzare per partito preso. Le nostre considerazioni nascono da un’analisi dei parametri attualmente disponibili, ma soprattutto dal tempo che ancora manca per questo passaggio ravvicinato. Molto probabilmente, tra piu’ di un secolo avremo sicuramente, anche se ne fosse richiesto l’utilizzo, un qualche sistema funzionante per poter deviare o distruggere i potenziali pericoli spaziali per la Terra. Di questi sistemi, attualmente in stato di studio, abbiamo parlato in questo post:

Asteroidi: sappiamo difenderci?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ora anche i profeti elettronici

11 Apr

Nell’era di internet 2.0 e nel periodo che stiamo vivendo, in cui tutti i giorni qualche simpatico burlone pubblica ipotesi catastrofiste per la fine del mondo, non poteva certo mancare un software profetico.

A cosa mi sto riferendo?

Come forse avrete intuito, sto parlando nuovamente di WebBot. Di questo programma abbiamo parlato in dettaglio in questo post:

La previsione informatica sul 2012

Come visto, si tratta di un software “profetico” basato sull’analisi asimmetrica dei Trend di linguaggio. Detto in parole semplici, questo programma usa degli “spider” per scandagliare la rete in cerca di tutte le informazioni su delle parole chiave inserite dall’utente. A ciascun risultato viene assegnato un valore numerico in base a dei complessi algoritmi di analisi e, al termine della scansione, il webbot fornisce una sorta di previsione futura basandosi sulla informazioni reperite in internet. Si parla di analisi del linguaggio proprio perche’ il software si basa sull’enorme mole di informazioni presenti in rete su siti, forum, blog, ecc.

Perche’ torniamo a parlare di webbot?

Se vi stavate preoccupando perche’ gia’ da qualche giorno non eravamo minacciati da un asteroide che dovrebbe arrivarci in testa, siete subito accontentati. Secondo una notizia che sta circolando in rete, il 14 aprile 2013, cioe’ tra una manciata di giorni, un asteroide di grandi dimensioni dovrebbe colpire la Terra causando enormi danni. Questa previsione sarebbe proprio stata fatta utilizzando il webbot.

Al solito, non per rompere le uova nel paniere, ma secondo voi, se ci fosse un asteroide di grandi dimensioni che impattera’ la Terra tra 3 giorni, non sarebbe visibile? A cosi’ breve distanza temporale, e dal momento che si parla di grandi dimensioni, sicuramente questo corpo sarebbe gia’ perfettamente visibile ad occhio nudo.

Dunque? Perche’ viene data questa notizia?

Come visto in questo articolo:

Lezione n.1: come cavalcare l’onda

a seguito dell’asteroide esploso in atmosfera sopra gli Urali a febbraio:

Pioggia di meteore in Russia

e’ scoppiata una vera e propria psicosi asteroide. Al solito, quello di Chelyabinsk e’ stato un evento reale e ci sono stati molti feriti, ma, da qui in poi, non passa giorno in cui non ci sia qualche sito che pubblica notizie di asteroidi precipitati in qualsiasi parte del mondo.

A cosa serve questo meccanismo?

In primis ad alimentare il sospetto ed il terrore, ma anche per continuare a propinare l’idea dell’esistenza di Nibiru. Come visto in questo articolo:

Nibiru: la prova del trattore gravitazionale

una delle principali ipotesi portate a sostegno dell’esistenza di Nibiru, sarebbe un aumento del numero di asteroidi lanciato verso la Terra. Come visto nell’articolo, questa ipotesi e’ completamente falsa. Nonostante questo, proprio il caso di Chelyabinsk ha riacceso gli animi ed offerto un’occasione da non perdere ai tanti siti catastrofisti che ormai conosciamo molto bene.

Da dove e’ uscita fuori la notiza del 14 Aprile?

Come detto, e questo e’ vero, si tratta di una previsione informatica fatta dal WebBot. E’ possibile che il sotware abbia sbagliato? No, non e’ possibile, e’ certo!

Capiamo il perche’.

Come visto anche nel precedente articolo, questo programma fu sviluppato per cercare di prevedere l’evoluzione della situazione di borsa. In questo caso, l’uso degli spider era fondamentale per cercare in rete, tra l’enorme mole di informazioni, notizie utili su una determinata societa’. In questo modo, si poteva valutare se comprare o meno quelle azioni. Ovviamente si tratta di un programma di analisi numerica, non certamente di un profeta infallibile. Se fosse vero il contrario, ognuno di noi saprebbe con anticipo cosa dovrebbe avvenire in borsa e saremmo tutti ricchi grazie ad investimenti certi.

Come potete capire, il webbot puo’ dare delle indicazioni, ma non e’ assolutamente detto che siano certe. Per come e’ costruito l’algoritmo di analisi, il tutto deve essere preso come una previsione accompagnata da un livello di incertezza notevole.

Ora, torniamo al nostro caso. Immaginate di far partire il webbot inserendo come chiave di ricerca la parola “asteroide”. E’ possibile che vi ritorni una previsione di impatto con la Terra? Assolutamente si. Come detto in precedenza, dopo il caso russo, tutti i giorni si pubblicano notizie di asteroidi caduti in diverse parti del mondo. Dunque, in questo senso, proprio il dilagante catastrofismo mediatico ha probabilmente portato fuori strada la previsione informatica.

Inoltre, sempre legato a questo, vorrei anche aprire una parentesi su quanto detto dal capo della NASA al Senato degli USA. Alla domanda: “cosa dovremmo fare se un asteroide puntasse verso la Terra e lo scoprissimo solo pochi giorni prima dell’impatto?”, Bolden ha risposto semplicemente “pregate”.

Questa risposta ha scatenato un putiferio sulla rete. Tantissimi siti parlano di un’agenzia spaziale degli Stati Uniti a conoscenza di un imminente impatto. Si e’ nuovamente tornati a parlare di ipotesi complottiste e di tutte quelle fantasie che abbiamo cominciato a vedere parlando di 2012.

Perche’ e’ stata data questa risposta? Prima di tutto, la domanda non lasciava spazio a nulla. Come riportato, si parlava di un asteroide in rotta certa verso la Terra e che verrebbe scoperto solo pochi giorni prima dell’impatto.Secondo voi, cosa avrebbe dovuto rispondere Bolden?

Inoltre, teniamo conto che la NASA, anche a seguito di quanto avvenuto in Russia, sta cercando di ottenere nuovi fondi per i programmi di difesa da asteroidi. Di queste soluzioni abbiamo parlato in questo post:

Asteroidi: sappiamo difenderci?

Dunque, capite bene che la risposta data dal capo della NASA e’ perfettamente lecita, anche se forse Bolden doveva immaginare l’eco che questa sua affermazione avrebbe avuto.

Concludendo, non c’e’ assolutamente nessun pericolo per il 14 Aprile 2013. In questo caso, si tratta solo di una previsione fatta mediante webbot che, con buona probabilita’, e’ stata proprio influenzata dalle tante notizie false pubblicate sulla rete circa asteroidi che cadono sulla Terra e improbabili avvistamenti di nuovi corpi orbitanti e potenzialmente pericolosi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Adesso e’ il turno di Marte

27 Feb

Negli ultimi giorni, oltre ovviamente ad ingovernabilita’, spread e premio di maggioranza, argomenti che comunque esulano dalle tematiche di questo blog, molto si e’ parlato di asteroidi e pericolo di impatto con i pianeti.

Come sapete bene, la psicosi su questi argomenti e’ nata dopo l’episodio avvenuto in Russia, in cui un meteorite si e’ frantumato ad alcuni Km da Terra ed i cui frammenti hanno causato un notevole numero di feriti. Di questo abbiamo parlato in diversi post:

Meteorite anche a Cuba e Dark Rift

Pioggia di meteore in Russia

Come anticipato sempre in queste discussioni, questo episodio ha riacceso i tanti complottisti che popolano la rete e di queste tematiche si parla in continuazione su diversi siti citando avvistamenti di nuovi oggetti nei nostri cieli o anche solo spaventando le persone circa il rischio di impatto con la Terra.

Inoltre, a partire dal 2012, molto si e’ parlato di comete citando appunto la ISON, la ELENIN, la PANSTARS. Comete di cui abbiamo parlato in questi post:

Che la ISON abbia pieta’ di noi!

2013 o ancora piu’ oltre?

E se ci salvassimo?

e che molto spesso sono state viste come ipotetiche cause di una prossima fine del mondo.

Sulla scia di questo, in queste ultime ore si e’ diffusa una nuova notizia riguardante una cometa ma sempre in pericolo di impatto con un pianeta del Sistema Solare. Per fortuna, si fa per dire, questa volta il bersaglio dell’oggetto non saremo noi, bensi’ Marte.

A cosa mi riferisco?

La cometa in questione e’ la C/2013 A1, anche detta “Siding Spring” dal nome del laboratorio dove e’ stata osservata per la prima volta. Secondo quanto riportato in rete, questa cometa presenterebbe un elevato rischio di impatto con il pianeta rosso il 19 Ottobre del 2014.

Perche’ questo impatto sta richiamando l’attenzione di molti siti internet? Prima di tutto, come detto in precedenza, questo genere di notizie serve a tenere alto il livello di attenzione delle persone. Proprio per questo motivo, non mancano assolutamente confronti tra Marte e la Terra. Pensate che in caso di impatto, la cometa potrebbe lasciare un cratere sulla superficie del diametro di 500 Km ed una profondita’ massima di 2 Km, causati dall’apparente nucleo della cometa stimato dell’ordine di 40 Km.

Prima di tutto occorre fare una precisazione. Qui stiamo parlando di valori massimi di diametro e profondita’. Come visto in diverse occasioni, il segno lasciato da un eventuale impatto dipende da altri parametri oltre ovviamente al diametro del corpo. Solo per darvi un’idea, l’angolo di impatto sul pianeta modifica in modo sostanziale il cratere risultante. I valori che trovate in rete sono ovviamente massimali solo per sparare numeri grandi ed alimentare le fobie. E’ ovvio che se un corpo di questo tipo impattasse sulla Terra causarebbe notevoli danni, ma ovviamente le informazioni vanno pesate nel verso giusto e comunque questa volta parliamo di Marte e non della Terra.

Dopo questo necessario preambolo sui segni eventuali lasciati dalla cometa, discutiamo invece di questa presunta probabilita’ di impatto con Marte.

La scoperta della C/2013 A1 e’ avvenuta il 3 Gennaio 2013. Subito dopo la sua identificazione, gli astronomi sono andati a ricercare le immagini della porzione di cielo scattate nei mesi precedenti. In questo modo, hanno ritrovato ulteriori immagini risalenti all’8 Dicembre 2012, in cui pero’ questa cometa non era stata notata. Faccio questa precisazione perche’ in realta’ e’ estremamente importante per capire meglio la probabilita’ di impatto con Marte.

Da dicembre 2012 ad oggi, ci sono circa 75 giorni di osservazione del corpo. Questo breve lasso temporale consente di disporre di pochi dati circa la C/2013 A1 e dunque di avere in mano solo poche informazioni circa i suoi parametri orbitali. Per essere piu’ precisi, la scarsita’ delle informazioni consente di avere un’incertezza ancora molto elevata sull’effettiva orbita della cometa.

Perche’ dico questo?

Ad oggi, ripeto con le informazioni ricavate da 75 giorni di osservazione, la distanza a cui ci si aspetta il passaggio della C/2013 A1 da Marte e’ di circa 100000 Km. Dato questo valore cosi’ elevato, perche’ allora si parla di collisione? Come anticipato, l’incertezza su questa misura e’ ancora molto elevata. Quando parliamo di incertezza, intendiamo non un singolo valore, bensi’ un intervallo di valori possibili centrati ovviamente intorno al valore medio. Detto in parole semplici, la distanza a cui la cometa dovrebbe passare da Marte e’ compresa tra 0, dunque impatto certo, e 1200000 Km, cioe’ assolutamente lontana. Capite bene che in questo caso ci sono piu’ di un milione di Km di incertezza di cui tenere conto. In queste condizioni, e’ assolutamente sbagliato parlare sia di impatto certo che di impatto scongiurato.

Ora, tenendo conto del fatto che il valore medio e’ comunque intorno ai 100000 Km, gran parte di questo intervallo previsto di distanze non prevede una collisione tra la cometa e Marte. Questo punto ci fa capire perche’, a livello scientifico, si parla comunque di probabilita’ piccola, anche se non nulla, di impatto.

Questa storia ci ricorda molto quella dell’ipotetico scontro tra la Terra e Apophis, di cui abbiamo parlato in questi post:

Attenzione, tra poche ore passa Apophis!

Asteroidi: sappiamo difenderci?

Anche in questo caso, alle prime osservazioni, la probabilita’ di scontro con la Terra presentava valori piccoli ma non nulli. Proprio da questo e’ nata poi una pesante speculazione parlando appunto di impatto certo. Come visto nei post precedenti, ad oggi, cioe’ disponendo di un campione di dati molto piu’ grande, la probabilita’ di impatto con il nostro pianeta e’ divenuta praticamente nulla.

Il paragone con Apophis ci deve insegnare, nel caso di C/2013 A1 cosi’ come di qualsiasi altro oggetto dello spazio, che le prime osservazioni presentano sempre delle incertezze osservative troppo grandi per poter giungere a qualsiasi conclusione. Per poter disporre di dati certi, occorre aspettare qualche tempo e continuare a monitorare il corpo in questione al fine di raffinare i dati in nostro possesso. Ovviamente, in base a quanto detto, non e’ possibile, al momento, stabilire se il 19 Ottobre 2014 ci sara’ questo impatto oppure no.

Colgo l’occasione anche per ricordarvi il programma NEO della NASA creato appunto per monitorare i corpi orbitanti intorno alla Terra e che possono rappresentare un eventuale pericolo per noi. In queste osservazioni vengono ovviamente inclusi anche gli altri oggetti che sono in giro per il Sistema Solare appunto per seguirne le orbite e misurare le probabilita’ eventuali di impatto con il nostro pianeta. In questo caso trovate anche tutte le informazioni su C/2013 A1, che potete leggere in questa pagina:

NASA NEO C/2013 A1

Nella stessa pagina trovate anche la simulazione dell’orbita della cometa di cui vi riporto un breve video costruito proprio a cavallo dei giorni del presunto impatto:

Come vedete, ad oggi i dati non sono affatto aggiornati. Il 19 Ottobre 2014 la simulazione presenta un valore della distanza da Marte ancora piu’ grande di quella riportata in precedenza. Questa discrepanza e’ dovuta al fatto che i numeri per costruire la simulazione sono basati non su tutto il campione dei 75 giorni di osservazione, ma solo su quelli compresi tra Dicembre 2012 (vecchie foto) e Gennaio 2013 (prima identificazione). Come ormai avrete capito, un campione ancora piu’ piccolo di dati implica ovviamente un’incertezza ancora piu’ grande di quella che abbiamo appena discusso.

Concludendo, esiste la probabilita’ di un impatto tra Marte e la cometa C/2013 A1 per Ottobre 2014. Ad oggi pero’ queste probabilita’ sono stimate usando un campione ancora troppo piccolo di dati il che implica un’incertezza sui valori troppo elevata e assolutamente non risolutiva. Detto questo, occorrera’ aspettare ancora qualche tempo per avere informazioni piu’ precise.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Garfagnana: ulteriore documentazione e considerazioni

2 Feb

Nel post precedente, abbiamo parlato dell’allarme lanciato la notte scorsa per un probabile nuovo forte terremoto nella zona della Garfagnana:

Garfagnana: cosa succede, cosa succedera’?

Come abbiamo visto, si e’ trattato di un falso allarme dovuto ad una comunicazione sbagliata tra INGV, protezione civile e sindaci dei comuni interessati.

A riprova di questo, vorrei anche mostrarvi il famoso comunicato che e’ stato inviato dall’INGV alla protezione civile:

Una foto del comunicato inviato dall'INGV alla protezione civile

Una foto del comunicato inviato dall’INGV alla protezione civile

Come vedete, il testo riporta esattamente quello che abbiamo detto nel post precedente. Si parla di ipotesi di una nuova faglia e dunque della possibilita’ che nuovi eventi potrebbero verificarsi nella zona in esame.

Come detto nel post precedente, questo comunicato e’ stato inviato dalla sala controllo sismologica dell’INGV ed, in particolare, e’ stato inviato dal Dr. Gianluca Valensise, funzionario di sala dell’INGV. Dopo il polverone scatenato da questo comunicato, l’INGV ha anche rilasciato delle dichiarazioni di Valensise che spiega per filo e per segno quello che e’ accaduto in quella giornata.

Vi invito ad ascoltare la registrazione dell’intervento di Valensise a questo indirizzo internet:

Valensise, mp3

Come vedete, tutto torna alla perfezione, anche se restano valide le considerazioni fatte nel post precedente circa l’allarme lanciato per la popolazione locale, ma soprattutto per la nuova psicosi terremoto in corso, ovviamente completamente giustificata e non biasimabile.

Prima di concludere, vorrei pero’ fare anche delle nuove considerazioni circa questo caso. In particolare, vorrei commentare la sentenza del tribunale dell’Aquila a seguito dei fatti del 2009. Come sicuramente saprete, nel processo sono stati accusati e condannati esponenti scientifici che non avrebbero comunicato la certezza del forte terremoto che poi ha distrutto l’Aquila e molti altri paesi del circondario.

Ora, come detto e ribadito molte volte, non si e’ in grado assolutamente a livello scientifico di prevedere un terrremoto. Con questo si intende che la scienza non ha in mano nessuno strumento infallibile ed in grado di prevedere esattamente luogo, data e intensita’ di un terremoto. Diverse volte abbiamo parlato di metodi proposti a questo scopo, ma anche di falsi profeti che spopolano su internet su queste questioni. Come visto piu’ volte, tutti i metodi proposti non assicurano la certezza della previsione, anzi, in alcuni casi, si tratta di vere e proprie lotterie della previsione senza nessun fondamento scientifico reale.

Potete leggere le motivazioni di questa famosa sentenza e il commento dell’INGV, a questo indirizzo:

Sentenza tribunale Aquila

Perche’ parlo della sentenza dell’Aquila? Semplice, il clima di caccia alle streghe creato da questa sentenza non fa altro che alimentare il terrore ed il sospetto nei confronti della scienza. Lungi da me mettere in discussione l’operato dei giudici, ma trovo assurdo parlare di mancata comunicazione di terremoti nel momento in cui un terremoto non puo’ essere predetto.

Ora, se pensiamo a quanto accaduto in Garfagnana, ci rendiamo conto che siamo in una situazione del tipo “me ne lavo le mani” e per qualsiasi cosa mando un comunicato e metto tutto nero su bianco. Premesso che, come detto, c’e’ stato un errore di comunicazione nel caso in questione, credo che, alla luce di quanto accaduto, sia assolutamente giustificabile il comportamento dell’INGV di comunicare tutto agli organi preposti.

Certo, si potrebbe pensare “meglio un falso allarme che molti morti”. Questo e’ un pensiero condivisibile e giusto, pero’ smentisce molte delle critiche che oggi vengono riportate sui giornali sul fatto che i sindaci della Garfagnana hanno sbagliato a far evacuare tutte le persone per un allarme che in realta’ non c’era. Addirittura c’e’ chi parla di denunciare i sindaci per procurato allarme.

A questo punto, non si capisce allora come procedere. Non si possono prevedere terremoti. Se c’e’ un rischio, tangibile o meno, di terremoto e si lancia un allerta, se il terremoto non ci sara’ ci si becca una denuncia per procurato allarme. Se non si lanciano allerte e c’e’ un terremoto, ci si becca una condanna da parte del tribunale.

Come si dovrebbe procedere?

Personalmente non credo ci sia una via di uscita da questa situazione creata probabilmente dal clima di sospetto e di odio creato sul fenomeno terremoti.

Vorrei anche aggiungere un pensiero. Molte volte in questo tiro alla corda tra enti di ricerca, protezione civile, sindaci, regioni e cittadini, entra anche la politica con molti esponenti pronti a giudicare o a commentare sentenze o dati scientifici. Sempre secondo il mio personale pensiero, i nostri governanti piuttosto che alimentare il clima di odio creato, dovrebbero pensare a mettere in sicurezza gli edifici e ad investire in questo senso i soldi della comunita’. Come detto in diverse occasioni, anche se non siamo in grado di prevedere i terremoti, la cosa migliore da fare e’ prevenire i morti ed i danni. E’ vero che molti dei nostri edifici sono antichi e costruiti senza criteri sismici, ma mettendoli in sicurezza, possiamo sicuramente ridurre i rischi di un terremoto. Questa sarebbe veramente una mossa intelligente da fare e forse l’unica allo stato attuale che permetterebbe di fare prevenzione sui terremoti!

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Garfagnana: cosa succede, cosa succedera’?

1 Feb

Quanto accaduto ieri sera in alcune zone della Garfagnana, in provincia di Lucca, ha quasi dell’incredibile. Come molti di voi sapranno, l’intera zona e’ stata teatro di diverse scosse di lieve intensita’, tranne una di magnitudo maggiore, che ormai perdurano di diversi giorni.

Proprio ieri sera, intorno alle 22, e’ scattato l’allarme da parte dei sindaci di 16 paesi della zona. Allarme lanciato inizialmente via twitter, e che poi, sempre attraverso i social network, ha raggiunto praticamente tutte le case. L’allerta parlava di possibili forti scosse per la notte e chiedeva ai cittadini, parliamo di circa 30000 persone interessate, di lasciare le proprie abitazioni e di recarsi nei punti di raccolta.

Perche’ e’ stato lanciato l’allarme? Leggendo quanto riportato dai giornali, i sindaci avrebbero ricevuto una comunicazione dalla protezione civile che parlava di questa allerta per nuove scosse in arrivo. A sua volta, la protezione civile aveva ricevuto questa comunicazione da parte dell’Istituto Nazionale di Geofisica e Vulcanologia. In particolare, l’allarme proveniva proprio dalla sala controllo sismica dell’INGV che ha ottenuto questa informazione dall’elaborazione dei dati misurati sul territorio sfruttando software di simulazione.

Bene, anche se il discorso di rimbalzo della notizia puo’ sembrare complicato, il succo della cosa e’ che l’INGV avrebbe analizzato i dati e ottenuto che nelle prossime ore ci sarebbe stato un forte terremoto e da qui ha subito lanciato un bollettino di allerta alla protezione civile.

In diversi post su questo blog abbiamo parlato di terremoti, solo per darvi un esempio:

Analisi statistica dei terremoti

Riassunto sui terremoti

Dati falsi sui terremoti

Terremoti, basta chiacchiere. Parliamo di numeri

e tutte le volte abbiamo detto che i terremoti, allo stato attuale, non possono essere predetti. In questo caso invece, troviamo l’INGV, cioe’ il massimo ente di controllo e monitoraggio dei terremoti, che predice un terremoto nelle prossime ore.

Cosa cambia ora? Abbiamo detto cose false su questo blog? E’ cambiato qualcosa a livello scientifico?

Partendo dall’utima domanda, purtroppo non e’ cambiato nulla, i terremoti non possono ancora essere predetti a livello scientifico e con precisione.

Quella che e’ cambiata e’ solo la nostra coscienza e la psicosi terremoto. Negli ultimi anni, abbiamo visto diversi terremoti distruttivi in Italia e il nostro ricordo dell’Aquila e dell’Emilia, ma anche del continuo sciame nel Pollino, e’ sempre vivo. Oggi, a differenza di ieri, abbiamo paura del terremoto.

Ovviamente la paura non puo’ far prevedere i prossimi terremoti quindi, chiusa la breve parentesi psicologica, cerchiamo di capire cosa e’ successo veramente ieri notte in Garfagnana.

Come sappiamo, verso la fine di gennaio c’e’ stato un terremoto di M4.8 nella zona e, come detto in precedenza, da questo si sono avute una lunga serie di scosse di assestamento che continuano ancora oggi. L’INGV monitora in continuazione la zona, e, due volte al giorno, rilascia dei comunicati per la protezione civile per informarla circa gli sviluppi, il numero di scosse registrate, l’andamento delle scosse di assestamento, ecc.

Eventi sismici in provincia di Lucca al 31/1

Eventi sismici in provincia di Lucca al 31/1

Fin qui tutto normale.

Ieri mattina, l’INGV ha rilasciato il suo solito comunicato, ma con un’informazione aggiuntiva. Dalla mappa delle scosse registrate, una cartina esattamente come quella mostrata in alto, si sono evidenziate delle scosse con epicentro leggermente spostato rispetto all’area circoscritta. Utilizzando un modello matematico per il calcolo delle probabilita’, l’INGV ha ottenuto come risultato che queste nuove scosse potevano essere dovute ad una nuova faglia e che questa, a causa del rilascio di energia in una zona diversa, avrebbe potuto causare nuove scosse.

Cosa e’ successo a questo punto?

Il comunicato e’ stato mandato alla protezione civile che, al contrario di quanto viene fatto di solito, cioe’ tenere le informazioni per lei dal momento che si tratta di comunicati non pubblici, ha girato l’informazione ai sindaci. Questi, leggendo della possibilita’ di nuove scosse, hanno dato l’allarme per la notte e deciso l’evacuazione delle case.

Analizziamo queste informazioni per chiarire meglio.

Perche’ il comunicato non e’ pubblico? Assolutamente non c’e’ nessuna intenzione di tenere nascoste informazioni vitali. si tratta di comunicati “tecnici” con terminologia “tecnica” che deve essere interpretata da “tecnici”. I sindaci fanno i sindaci, e non sono esperti di sismologia. Leggendo della possibilita’ di nuove scosse, hanno dato l’allarme e proceduto con l’evacuazione.

A questo punto dovrebbe essere chiaro lo scambio avvenuto e che ha portato all’allarme.

Analizziamo pero’ quanto contenuto nel comunicato per cercare di capire cosa potrebbe succedere nelle prossime ore e nei prossimi giorni.

L’analisi software ha mostrato la possibilita’ di una nuova faglia causa di alcune scosse di assestamento. Ovviamente parliamo di possibilita’. Ora, con una certa probabilita’ questa nuova faglia potrebbe non esistere e le scosse potrebbero quindi appartenere allo sciame ancora in corso.

Se cosi’ fosse, siamo di fronte a scosse di assestamento a seguito del sisma di M4.8 gia’ avvenuto. Se cosi’ non fosse, cioe’ se esistesse veramente una nuova faglia, non e’ detto che ci sia necessariamente un sisma di grande intensita’. Come visto nel post sul Pollino:

La sequenza del Pollino

in presenza di uno sciame sismico, l’evoluzione nel tempo non e’ assolutamente determinata e univoca. Possono esserci sciami che durano mesi e terminano come sono iniziati con scosse lievi, oppure si puo’ assistere ad un crescendo di scosse che portano ad un evento di alta magnitudo, come nel caso dell’Aquila per fare un esempio.

Detto questo, e’ ovvio che l’INGV comunichi tutte le informazioni agli organi preposti e che questi elaborino le informazioni e decidano se predisporre piani di sicurezza o meno. Ovviamente l’INGV, come ente di ricerca, si occupa di terremoti, assolutamente non di piani di evacuazione.

Come anticipato, i terremoti avuti negli ultimi anni, hanno creato una psicosi collettiva per cui al primo allarme si attuano tutte le soluzioni possibili. Se ci pensate, in Emilia e’ accaduto un fatto analogo. Dopo la prima violenta scossa, durante le scosse di assestamento, si e’ registrato un nuovo potente terremoto dovuto ad una faglia diversa. Avendo una situazione potenzialmente simile in Garfagnana, si e’ deciso di ricorrere ad una soluzione drastica.

Possiamo biasimare l’evacuazione? Non mi sento assolutamente di fare una cosa del genere. Stiamo pero’ molto attenti a non eccedere in senso opposto. Se si tratta dello stesso sciame di assestamento, e che magari puo’ durare mesi, teniamo 30000 persone nei palasport? Ora, dopo l’evacuazione, come spieghiamo alle persone che possono tornare a casa perche’ si trattava di un falso allarme mentre la terra ancora trema?

La situazione e’ molto delicata e va gestita con particolare premura da parte degli organi preposti.

Ultima cosa importante e che ci tengo a sottolineare. Come anticipato, allo stato attuale, non e’ possibile prevederere i terremoti. Di questo abbiamo parlato in diversi post:

Prossimi terremoti secondo la statistica

Allineamenti, terremoti e … Bendandi

Terremoti, Pollino, Giuliani, Radon, L’Aquila ….

Anche se in questo caso nessuno ha in realta’ parlato di prevedere un terremoto, fate molta attenzione alle notizie che leggete in rete e cercate di filtrare in modo opportuno. Come era prevedibile, non stanno tardando ad arrivare le immancabili speculazioni su questi fatti e sullo sciame della Garfagnana. Su diversi siti si comincia a parlare di prossimi terremoti attesi, dell’INGV che non comunica tutte le notizie in suo possesso o di organi paralleli in grado di prevedere l’evoluzione delle prossime ore. Tutte notizie false!

Concludendo, non c’e’ assolutamente nessun mistero su quanto avvenuto l’altra sera in Garfagnana, ma solo un non corretto scambio di informazioni e di interpretazione dei bollettini. L’evoluzione dei prossimi giorni non e’ assolutamente certa ma la cosa piu’ importante e’ che si continui a monitorare 24 ore su 24 tutta la zona e a dare l’allarme ad ogni variazione significativa registrata.

 

Per chi e’ interessato, leggete anche: “Garfagnana, ulteriore documentazione e considerazioni

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La danza degli storni

30 Gen

 

Questa volta, vorrei scrivere un post diverso rispetto ai soliti. Non fraintendete, parliamo sempre di scienza e di fenomeni naturali, ma per un momento vorrei mettere da parte tutte quelle teorie catastrofiste che tutti i giorni ci vengono proposte in rete.

Guardando dalla finestra, mi sono incantato qualche minuto a vedere uno dei piu’ belli spettacoli naturali che, soprattutto in questo periodo, abbiamo la possibilita’ di ammirare, il movimento in cielo di uno stormo di uccelli. In questo caso, tutti sanno a quale fenomeno mi sto riferendo. Migliaia di uccelli, in genere “storni”, volano insieme formando delle figure che cambiano rapidamente forma offrendo allo spettatore uno spettacolo come di ombre in movimento armonico.

Uno stormo di storni in movimento

Uno stormo di storni in movimento

Le domande interessanti che possiamo porci sono: perche’ avviene questo? Come fanno migliaia di storni a decidere quale movimento eseguire con un perfetto sincronismo?

Quello che forse non tutti sanno e’ che la scienza si e’ interrogata su queste questioni, organizzando dei veri e propri gruppi di studio comprendenti fisici, biologi, ornitologi e matematici.

Fino a qualche tempo fa, ad esempio, si pensava che lo stormo seguisse una singola traiettoria decisa da un leader del gruppo e che di conseguenza il movimento osservato fosse solo dovuto agli altri uccelli intenti a seguire il volo del capo. In realta’, questa ipotesi non e’ reale, ma la risposta scientifica e’ assai piu’ complessa e affascinante.

Il movimento collettivo che possiamo osservare per gli storni in volo, non e’ in realta’ l’unico di questo tipo. Discorso analogo puo’, ad esempio, essere fatto per i branchi di pesci nei mari, per gli erbivori che si spostano in branco o anche per alcuni tipi di insetti abituati a volare in gruppi numerosi. Capite dunque che comprendere queste dinamiche, permette di capire meglio e piu’ a fondo i meccanismi cognitivi seguiti nel mondo animale.

Il progetto europeo STARFLAG nasce appunto per trovare una risposta a questi comportamenti. Come anticipato, questo gruppo multidisciplinare nasce con lo scopo di modellizzare i movimenti complessi di alcuni animali, ma anche di capire il perche’ questi moti, apparentemente disordinati, vengano eseguiti.

La metodologia di ricerca seguita non e’ affatto semplice ed ha richiesto l’utilizzo di filmati ad alta definizione, immagini in sequenza ravvicinata per osservare i singoli spostamenti, ma anche l’utilizzo di potenti supercomputer per modellizzare e prevedere il comportamento nel tempo di un sistema complesso formato da migliaia di esemplari.

I risultati di questa ricerca sono stati estremamente positivi ed hanno trovato le risposte a molte delle domande che ci siamo posti all’inizio.

Per prima cosa, come anticipato, l’ipotesi del leader che segna la traiettoria e’ da scartare. Movimenti, comportamenti e decisioni non si basano su un singolo, bensi’ su un organizzazione locale basata su pochi elementi. Cosa significa questo? Ciascun animale cerca di imitare quello che fanno i suoi primi vicini, cioe’ gli altri animali presenti in un ristretto spazio tridimensionale. Detto in altri termini, uno storno si muove copiando i movimenti solo di 6 o 7 uccelli vicini a lui. Lo stesso fanno tutti gli animali, creando in questo modo un sistema di trasmissione a catena dei movimenti, capace di far viaggiare l’informazione ad una velocita’ abbastanza elevata.

Questa prima informazione e’ molto significativa e ci spiega perche’, osservando il movimento dello stormo, l’intero gruppo sembra muoversi in aria quasi disegnando un ombra in movimento. Se il sistema di trasmissione delle informazioni fosse diverso, ad esempio dei movimenti stabiliti e eseguiti in sequenza, vedremo un movimento piu’ rigido e molto piu’ simile a quello delle nuotatrici sincronizzate.

Perche’ vengono eseguiti questi movimenti?

Come spesso accade in natura, la spiegazione a determinati comportamenti e’ da ricercarsi nella lotta alla sopravvivenza. Anche nel caso degli storni, questo raggruppamento di elementi e’ una buona difesa contro l’attacco dei predatori.

In questo caso pero’, basterebbe formare un gruppo. Perche’ avviene il movimento di cui stiamo discutendo? Parlando sempre di leggi di natura, il piu’ delle volte un predatore, e questo e’ vero non solo per gli uccelli ma anche, ad esempio, per le battute di caccia dei leoni, il predatore non attacca l’intero gruppo, bensi’ concentra la sua caccia su un singolo elemento. Bene, il continuo movimemento degli elementi del gruppo, crea un rimescolamento in grado di confondere il predatore che dunque non riesce piu’ a seguire la sua preda.

Il progetto STARFLAG, di cui abbiamo parlato, ha concentrato la sua ricerca al caso degli storni nei cieli di Roma. In questo caso, il principale predatore per gli uccelli e’ il falco pellegrino. In particolare, nei giorni in cui la concentrazione di falchi era maggiore, si sono osservate forme degli stormi piu’ compatte e con movimenti piu’ rapidi. Questa evidenza conferma l’ipotesi di cui abbiamo parlato.

Inoltre, per aumentare ancora di piu’ la protezione degli individui, durante il movimento, avviene anche un continuo rimescolamento tra gli animali al centro e quelli al bordo della distribuzione. Questi ultimi infatti, sono quelli maggiormente esposti all’attacco dei predatori non godendo di una protezione a 360 gradi.

I modelli comportamentali ottenuti dal progetto STARFLAG sono stati esportati con ottimi risultati anche al caso delle sardine in acqua e degli gnu a terra. In questi casi, cambia l’ambiente, cambia il predatore, cambiano le prede, ma i meccanismi di difesa sono molto simili tra loro. Questo importante risultato ci dimostra come il movimento apparentemente disordinato di specie animali diverse, sia in realta’ una legge di natura studiata proprio per contrastare gli attacchi dei predatori.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

A-380 modificato per spargere scie chimiche

24 Gen

Di scie chimiche abbiamo gia’ parlato in diversi post:

Alcune considerazione sulle scie chimiche

Scie Chimiche: il prelievo in quota

Scie chimiche e cloud seeding

Come difendersi dalle scie chimiche

Il Dibromoetano e le scie chimiche

Ci tengo a sottolineare un aspetto molto importante. In questo blog, qualsiasi notizia viene analizzata, non partiamo mai da conclusioni gia’ scritte o di altri. Su ogni argomento cerchiamo sempre di analizzare i fatti concreti che abbiamo in mano e da questi tiriamo poi le nostre proprie conclusioni.

Come visto nei precedenti post, la teoria delle scie chimiche, per quanto molto seguita soprattutto in rete, non presenta nessun aspetto verificabile scientificamente. Ad oggi, non vi sono assolutamente evidenze delle fantomatiche emissioni che vengono raccontate. Molte volte, si fa riferimento a fatti o episodi, che poi ad un’attenta analisi, si rivelano assolutamente non credibili.

Sulla base di questo, vorrei ora raccontarvi di un documento che sta riscuotendo molto successo in rete proprio in questi giorni. Si tratta di un filmato di origine russa, in cui viene ripreso un Airbus A-380 apparentemente modificato ad hoc per creare le scie chimiche. Senza troppi giri di parole, vi riporto subito il video:

Anche se in russo, il senso del video e’ assolutamente chiaro. Come vedete, nelle immagini si vede questo velivolo senza sedili per i passeggeri, ma con molti serbatoi installati all’interno. Come indicato dal video, questi serbatoi sarebbero proprio quelli utilizzati per caricare i gas da immettere in atmosfera.

Capite subito che se il video fosse vero, si tratterebbe di una prova schiacciante a favore dell’esistenza delle scie chimiche.

Perche’ utilizzo il condizionale?

Presentazione dell'A380 nel 2005

Presentazione dell’A380 nel 2005

Questo video e’ ovviamente reale cosi’ come le immagini riprese all’interno dell’aereo. Su internet, in diversi siti e social network, si sta gridando allo scandalo o finalmente alla prova definitiva delle scie chimiche. Secondo alcuni, questo video andrebbe diffuso nei telegiornali nazionali per far aprire finalmente gli occhi alle persone che ancora non credono all’avvelenamento sistematico mediante aerosol.

Ora, lasciatemi aprire una parentesi. Perche’ invece di gridare allo scandalo, non si ragiona su questi documenti? Molte volte abbiamo fatto questa considerazione, ma ad oggi ancora non abbiamo trovato una risposta. Spesso, e’ il pensiero collettivo che guida le convinzioni di molte persone. Basta sbandierare un’idea, affinche’ molti la prendano per loro senza ragionarci sopra.

Ripeto, il video e’ reale, ma e’ il contesto in cui e’ stato girato che e’ completamente mistificato!

Cerchiamo di capire meglio.

Facciamo qualche osservazione. Notiamo prima di tutto, come si vede nelle immagini all’esterno, che il velivolo e’ completamente sprovvisto di loghi di compagnie aeree. Secondo voi, se dovessimo far volare un aereo senza attirare l’attenzione, partendo da un aereoporto civile, lo faremmo utilizzando velivoli senza loghi? Credo proprio di no. Il modo migliore sarebbe quello di utilizzare esattamente un aereo identico a tanti altri e dunque non riconoscibile.

Ma questo se vogliamo e’ ancora un dettaglio. In realta’, come vedremo a breve, non del tutto trascurabile.

Durante le immagini, si vede il cronista e l’intervistato che parlano normalmente e viene ripreso l’interno compresi anche questi misteriosi serbatoi. Il tono della chiacchierata non mi sembra assolutamente catastrofico, ne tantomeno allarmista. In alcuni siti si dice che l’inviato sia riuscito ad eludere i controlli di sicurezza intrufolandosi dentro l’aereo. Come? E poi, intervisterebbe normalmente qualcuno all’interno della carlinga?

Vedete come le tante ipotesi che circolano in rete, presentano in realta’ alcuni aspetti molto controversi.

A cosa servono quei serbatoi?

La risposta e’ molto piu’ semplice e meno misteriosa di quanto vogliono farci credere. L’aereo in questione e’ privo di loghi perche’ ancora non appartiene ad una compagnia. Si tratta infatti di un aereo-laboratorio, utilizzato fare test sperimentali sugli aerei.

Vi siete mai chiesti come viene testato un aereo?

In realta’, molti dei test vengono fatti mediante simulazioni al calcolatore. Ovviamente, tantissime prove devono necessariamente essere fatte sul campo proprio sull’aereo.

Facciamo un’altra considerazione. Durante il suo utilizzo reale, un aereo per il trasporto passeggeri, molto probabilmente “trasportera’ passeggeri”. A parte le cose ovvie, in base al numero di persone, possiamo avere diverse distribuzioni di peso, sbilanciamenti in una zona rispetto ad un’altra, movimenti in quota, ecc. Come facciamo a realizzare queste situazioni nei test? Non possiamo certo pensare di chiamare 800 comparse da mettere sull’aereo. Questa situazione viene simulata proprio mediante quei serbatoi che vedete. Mediante valvole di connessione, e’ possibile riempire diversamene i serbatoi o anche spostare la zavorra da un contenitore all’altro, simulando i diversi carichi che si possono verificare nel normale funzionamento.

Non siete ancora convinti?

A conferma di questo, vi voglio mostrare un altro video, guarda caso sempre girato in Russia, e molto probabilmente sullo stesso aereo del video incriminato:

Come vedete nella descrizione, si tratta di alcune riprese fatte durante il “Salone Internazionale dell’Aviazione” che si svolge ogni 2 anni in Russia. In particolare, il video mostrato, cosi’ come quello da cui siamo partiti, riguardano l’edizione 2011, in cui e’ stato messo in mostra proprio un Airbus A-380 utilizzato per fare le prove sul campo.

Per completezza, vi riporto anche l’indirizzo del Salone (MAKS) da cui potete scaricare altre informazioni, foto e video delle edizioni precedenti:

MAKS, Russia

Concludendo, anche in questo caso, le tanto acclamate prove delle scie chimche non sono arrivate. Nel momento in cui leggete di teorie di questo tipo, prima di gridare allo scandalo, fermatevi 2 minuti a riflettere ed analizzare le prove portate a sostegno. Molto spesso, dietro l’aura di sensazionalismo non si nasconde niente di piu’ che una fumosa montatura creata solo per alimentare il sospetto.

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le previsioni del tempo

20 Gen

Molto spesso mi viene chiesto come sono fatte le previsioni del tempo. In questi ultimi giorni poi, l’argomento e’ molto di moda anche grazie ai continui annunci di copiose nevicate, ad esempio su Roma, che pero’ ancora non si sono viste.

Cerchiamo di fare un po’ di ordine ma soprattutto di capire quale e quanto lavoro c’e’ dietro quelle previsioni fatte a 1, 2, 3 giorni o, a volte, anche a mesi di distanza.

Al giorno d’oggi, le previsioni del tempo si basano su equazioni numeriche in grado di descrivere i complessi movimenti delle masse d’aria nel mondo, ma soprattutto nell’evoluzione temporale di questi parametri. In soldoni, la fisica vi descrive il movimento di queste masse d’aria e, misurando i parametri in questo momento, viene costruita una simulazione che cerca di fornire la situazione che si avra’ a distanza di tempo.

Meteo

Fate subito attenzione ad una cosa. Come detto, vengono presi i parametri atmosferci ad un certo istante e da questi viene costruita la modellizzazione nel tempo del meteo. Capite subito che tanto piu’ vicina sara’ la previsione richiesta, tanto piu’ affidabile sara’ il risultato fornito.

Per capire questo fondamentale limite, vi faccio un esempio molto facile. Immaginate di vedere una persona che cammina per strada e di voler simulare come cambiera’ nel tempo la sua posizione. L’istante iniziale e’ quello in cui osservate la persona. Ora, immaginando di vedere la persona che sta camminando con una certa velocita’ in una direzione potete dire, senza continuare a guardarla, che dopo 10 secondi sara’ arrivata in quest’altra posizione, dopo 20 secondi in quest’altra, e cosi’ via. Dove sara’ la persona dopo 3 ore? Assolutamente non siete in grado di dare questa risposta perche’ il vostro modello, basato solo sull’osservazione della direzione della persona ad un certo istante, non riesce a rispondere a questa domanda (la persona potrebbe essersi fermata, essere arrivata ad un bivio, potrebbe essere tornata indietro, ecc).

Le previsioni del tempo funzionano piu’ o meno in questo modo. I modelli ovviamente sono molto complessi dal momento che devono descrivere il movimento nel tempo delle enormi masse d’aria circolanti sul nostro pianeta.

La raccolta dei dati per le previsioni atmosferiche viene fatta utilizzando stazioni a terra, palloni sonda e satelliti metereologici. Le informazioni raccolte vengono poi inviate ed analizzate mediante potenti supercomputer in grado non di risolvere le equazioni del modello, ma di dare la risposta piu’ probabile, cioe’ la situazione del tempo ad una certa data.

A questo punto la domanda e’: quali sono i parametri che vengono misurati e perche’ le previsioni a volte sbagliano?

Mentre la prima risposta e’ abbastanza semplice ed intuibile per tutti, la seconda e’ una domanda un po’ piu’ complessa e che merita qualche considerazione aggiuntiva.

Riguardo ai parametri, come potete facilmente immaginare, si tratta di osservare le nuvole, la quantita’ di precipitazioni nel mondo, i gradienti di temperatura e pressione lungo l’atmosfera, i venti ma soprattutto di modellizzare i fenomeni meteorologici dal punto di vista fisico. Se due masse d’aria di temperatura diversa si scontrano, con quale probabilita’ si formeranno nuvole cariche di pioggia? Come vedete, in questo senso, il comportamento in atmosfera, e dunque la fisica, deve essere coniugato con i parametri osservati sul campo.

Partiamo dunque proprio dalla misure sul campo per capire l’affidabilita’ delle previsioni.

Prima di tutto, le osservazioni si basano su una griglia di misura che non copre in maniera adeguata tutta la superficie terrestre. Mentre i satelliti possono osservare praticamente tutto il mondo, le sonde in atmosfera, che forniscono i parametri ambientali, lasciano ampie aree scoperte. Con questo si intende che alcune zone della Terra non sono affatto sfiorate dalle misure. Dovendo trattare un sistema complesso come l’atmosfera, avere delle aree scoperte rappresenta sicuramente un limite. Inolre, l’atmosfera cambia i suoi parametri molto rapidamente, mentre per le previsioni i dati vengono letti ad intervalli regolari e, quindi, non con continuita’.

Sempre sulla stessa scia della griglia dei parametri, ad oggi ancora non e’ del tutto chiaro come la temperatura superficiale delle acque, cioe’ degli oceani, possa influire sul meteo. Come e’ facile immaginare, negli oceani possono essere presenti correnti a temperatura diversa ma e’ impensabile misurare in ogni punto dell’oceano la temperatura superficiale. A riprova di questo, basti pensare, ad esempio, al fenomeno del Nino o della Nina.

Ad oggi, l’affidabilita’ di una previsione a 24 ore e’ circa del 90%, mentre diviene dell’80% a distanza di 3 giorni. Questa stima scende rapidamente al 50% calcolando invece le previsioni ad una settimana. Praticamente, e’ come lanciare una monetina. Visti questi numeri, capite immediatamente come sia assurdo dare previsioni a 2 settimane, oppure sentir parlare ora di come sara’ il tempo quest’estate. Previsioni di questo tipo sono per scopi puramente commerciali e niente hanno a che vedere con la scienza.

Molto spesso, mi viene fatto l’esempio delle previsioni in formula 1. In un gran premio, se dicono che dopo 5 minuti iniziera’ a piovere, potete essere sicuri che accadra’. Perche’? Prima di tutto, si tratta di previsioni a brevissima scadenza, massimo a 30 minuti. Inoltre, si tratta di previsioni fatte in una zona ben precisa e circoscritta che riguarda l’area del circuito. In questo senso, l’attendibilita’ delle previsioni date arriva quasi a sfiorare il 100%.

A questo punto pero’ vorrei spezzare una lancia in favore della meteorologia per farvi capire le difficolta’ reali nell’elaborazione dei dati.

Credo che quasi tutti conoscano il cosiddetto “Effetto Farfalla”: Il battito di ali di una farfalla in Europa puo’ provocare un uragano negli Stati Uniti. Spesso viene raccontato utilizzando luoghi diversi, ma il senso e’ sempre lo stesso: basta un avvenimento minimo per cambiare irreparabilmente il futuro di qualcosa.

Da dove nasce l’effetto farfalla? Forse non tutti sanno che venne formulato proprio parlando di meteorologia.

Il supercomputer ENIAC del 1947

Il supercomputer ENIAC del 1947

Il primo che provo’ a calcolare previsioni meteo in maniera scientifica fu John Von Neumann utilizzando il piu’ potente Super Computer disponibile nel 1950, l’ENIAC. Si tratto’ del quarto computer realizzato nella storia ed in grado di fare calcoli che farebbero ridere un’odierna calcolatrice tascabile. Pensate che durante la cerimonia di inaugurazione, l’ENIAC lascio’ tutti a bocca aperta perche’ calcolo’ in un secondo il risultato di 97367 elevato alla 5000 causando un blackout in una vasta zona di Filadelfia. L’utilizzo principale di questo computer era per il calcolo balistico nel lancio dei missili, ma venne poi utilizzato anche per altri scopi, tra cui per le previsioni del tempo da Von Neumann.

Per darvi un’idea, dati i valori in ingresso, l’ENIAC era in grado di fornire in 24 ore, la previsione per le prossime 24 ore. Capite dunque l’inutilita’ di queste previsioni, arrivato il risultato bastava aprire la finestra per verificarlo, ma servi’ per spianare la strada ai moderni calcoli.

Cosa c’entrano l’ENIAC, Von Naumann e l’effetto farfalla con l’affidabilita’ delle previsioni del tempo?

Dalle previsioni di Von Neumann con l’ENIAC si evidenzio’ come modificando i parametri in ingresso di una quantita’ piccola a piacere, il risultato a distanza di 24 ore, poteva essere radicalmente diverso. Questo risultato venne poi ripreso da Lorenz che fu il primo a formulare l’effetto farfalla cosi’ come lo conosciamo oggi.

Analizzando questi risultati, capite bene quali siano le difficolta’ delle previsioni del tempo. Abbiamo a disposizione dati spesso incompleti, i parametri atmosferici possono cambiare repentinamente modificando completamente la situazione, una minima variazione dei parametri atmosferici puo’ cambiare radicalmente il risultato della previsione anche a breve termine.

Concludendo, la meterologia e’ una scienza molto complessa e non facilmente parametrizzabile mediante funzioni matematiche. Questo limite delle simulazioni e’ esattamente lo stesso di cui abbiamo parlato analizzando il calcolo della rotta di un asteroide. Anche in questo caso, una minima variazione delle condizioni al contorno del nostro problema possono modificare completamente il risultato. Proprio per questo motivo, in astrofisica cosi’ come in meteorologia e’ importante misurare in continuazione i dati ambientali.

Detto questo, se le previsioni a 2 settimane risultano sbagliate, la colpa e’ anche nostra che pretendiamo di avere qualcosa di non calcolabile. Se le previsioni ad un giorno sono sbagliate, pensate che forse c’e’ stata qualche farfalla di troppo.

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Antimateria sulla nostra testa!

17 Gen

Proprio oggi, su diversi siti catastrofisti e pseudoscientifici, e’ apparsa la notizia che il telescopio della NASA Fermi avrebbe individuato la produzione di antimateria durante i temporali. Stando a quanto si legge in rete, durante un temporale, i forti campi elettrici che si possono creare, sono in grado di trasformare l’aria in un plasma e produrre, grazie alle alte energie in gioco, antimateria sotto forma di positroni.

Ovviamente, non mancano ipotesi catastrofiste che richiamano la pericolosita’ dell’antimateria, oltre a puntare il dito contro questa sorgente posta solo a pochi kilometri dalle nostre teste. Su alcuni siti si ipotizza anche che potrebbe trattarsi di una modifica indotta del clima attraverso l’antimateria prodotta in questo modo. Se ci pensate, il collegamento e’ sempre il solito, l’uomo modifica il clima creando tempeste di fortissima intensita’, e mediante queste tempesta innesca la produzione dell’antimateria in atmosfera che sicuramente qualche effetto potrebbe darlo anche a noi che siamo subito sotto.

Inutile dirvi che in tutto questo discorso, che ripeto potete trovare su molti siti, si fa una gran confusione su argomenti scientifici ben noti e gia’ oggetto di studi da diversi anni.

Cerchiamo di capire meglio.

Prima di tutto, mi dispiace deludere tutti i fan di “Angeli e Demoni”, ma in questo fenomeno non viene prodotta antimateria, nel senso di antiatomi, ma solo antiparticelle, ed in particolare positroni, cioe’ anti-elettroni. Molto spesso, nell’immaginario colletivo, colpa anche dei tanti film fantascientifici, l’antimateria e’ vista come un qualcosa di molto pericoloso e che potrebbe addirittura essere usata per far scomparire la Terra. Di questi concetti abbiamo gia’ parlato in questi post:

Piccolo approfondimento sulla materia strana

Lotteria profetica 2012

Due parole sull’antimateria

Come sappiamo, le antiparticelle vengono prodotte tutti i giorni nei nostri laboratori di fisica delle alte energie. Molti degli acceleratori presenti nel mondo lavorano facendo scontrare fasci di particelle con fasci di antiparticelle. Se prima non eravate a conoscenza di questa produzione artificiale, non penso che ora possiate credere che produrre antiparticelle possa distruggere la Terra.

Premesso questo, torniamo alla scoperta fatta dal telescopio Fermi e cerchiamo di capire di cosa si tratta.

Durante un temporale, i forti campi elettrici che si generano possono accelerare gli elettroni presenti nell’atmosfera portandoli a velocita’ prossima a quella della luce. Durante il loro percorso, gli elettroni possono interagire con gli atomi dell’aria e perdere una parte della loro energia emettendo un fotone. Fin qui e’ semplice, la causa di tutto e’ l’elettrone che viene accelerato dal campo elettrico ed emette fotoni. Bene, questi fotoni, interagendo anche loro con i nuclei presenti in atmosfera, possono scomparire producendo una coppia elettrone-antielettrone. Questi effetti sono del tutto noti in fisica e non rappresentano assolutamente una novita’.

Rivediamo tutto il processo, elettrone dell’atmosfera, accelerato dal campo elettrico dovuto al temporale, produce un fotone. Il fotone decade formando una coppia elettrone-antielettrone. Su internet trovate una confusione enorme su questi processi in cascata. Spesso si confondono le particelle o i meccanismi descritti tirando fuori ipotesi completamente impossibili dal punto di vista fisico.

Dunque, abbiamo una coppia elettrone-antielettrone, quindi particelle e antiparticelle. Quello che e’ successo in Fermi, e da cui siamo partiti con la notizia iniziale, e’ che il telescopio ha osservato questi antielettroni, anche detti positroni, prodotti attraverso il meccanismo descritto. Per essere precisi, Fermi ha osservato l’annichilamento dei positroni nel telescopio.

Questo processo e’ ben descritto in questa rappresentazione che altro non e’ che una simulazione condotta proprio dalla NASA per comprendere il fenomeno alla base:

Produzione di un TGF. Fonte: NASA

Produzione di un TGF. Fonte: NASA

Ora, quello che in realta’ molti “dimenticano” di dire e’ che questo fenomeno non e’ stato osservato oggi da Fermi con grande stupore degli scienziati, ma e’ un processo che si conosceva e che anche questo telescopio aveva osservato a partire dal 2011.

Cerchiamo di capire meglio.

Questo genere di produzione di antielettroni avviene normalmente nello spazio in prossimita’ di buchi neri o di fenomeni di altissima energia cosmica. Nel 1994, qualche anno fa dunque, questo processo venne osservato per la prima volta nell’atmosfera terrestre, ad un’altezza tra 20 e 50Km, dalla NASA utilizzando il telescopio Compton. Il processo in atmosfera viene anche detto “Terrestrial Gamma Ray Flash”, TGF o TGRF.

Compton osservo ben 78 eventi di produzione di TGF nella nostra atmosfera durante tempeste tropicali.

Fermi ha gia’ osservato diversi TGF ed in piu’ ha scoperto che questi fenomeni possono avvenire anche a quote fino a 10Km. Dal momento che queste altezze comprendono i voli di linea, gia’ dal 2010 e’ stato formato un gruppo di ricerca congiunto tra INAF, ASI e ENAC, l’ente per la sicurezza in volo, per determinare gli eventuali rischi, sempre che sussistano, per i passeggeri dei voli di linea. Al momento, non e’ emersa nessuna pericolosita’ dei TGF.

Prima di chiudere, spendiamo due parole sul protagonista di questa notizia, cioe’ il telescopio Fermi.

Il telescopio e’ stato lanciato l’11 giugno 2008 e chiamato inizialmente GLAST, Telescopio Spaziale a Grande Area per Raggi gamma, e successivamente, il 26 Agosto 2008, ribattezzato Fermi Gamma Ray Space Telescope, in onore del nostro Enrico Fermi.

Raffigurazione del telescopio Fermi-GLAST in orbita

Raffigurazione del telescopio Fermi-GLAST in orbita

Questo telescopio ha la particolarita’ di essere dedicato all’osservazione dei raggi gamma, cioe’ ai fotoni di alta energia. L’osservazione di queste particelle e’ molto importante per l’identificazione di sorgenti gamma nella nostra galassia e fuori di questa, per lo studio dei cosiddetti Nuclei Galattici Attivi, per l’individuazione di Pulsar e resti di Supernove e per lo studio dei Gamma Ray burst, cioe’ l’emissione di raggi gamma da sorgenti energetiche, come descritto in precedenza.

Inoltre, lo studio dei fotoni nello spazio, puo’ aiutare nell’identificazione della materia oscura e per cercare di capire la natura di questa importante componente del nostro universo. Anche di materia oscura abbiamo parlato nei post riportati in precedenza dal momento che molto spesso anche questa viene chiamata in causa con assurdita’ scientifiche.

L’oosservazione dei TGF in Fermi e’ avvenuta proprio mentre il telescopio era interno a studiare l’universo lontano. I raggi gamma emessi da questo meccanismo raggiungono comunque i sensibili strumenti di Fermi che dunque e’ in grado di rivelarli con estrema precisione.

Concludendo, non c’e’ assolutamente nulla di allarmante nella scoperta della produzione di antiparticelle nell’atmosfera. Come visto, si tratta di un meccanismo ben compreso e che era gia’ conosciuto nella fisica. Per essere precisi, Fermi non ha assolutamente scoperto in questi giorni il fenomeno dei TGF, ma la loro prima osservazione risale al 1994 grazie al telescopio Compton. Fermi ha il pregio di poter studiare questi eventi con una risoluzione ed una precisione mai raggiunta prima ed inoltre, grazie proprio ai suoi strumenti, e’ stato possibile individuare questi fenomeni in strati piu’ bassi della nostra atmosfera, dove non si pensava potessero avvenire.

Anche in questo caso, l’informazione sulla rete presenta molti tratti catastrofisti del tutto ingiustificati, oltre ovviamente ad una sana componente di imprecisioni scientifiche a cui ormai dovremmo essere abituati.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.