Tag Archives: 1999

Altra prova a sostegno delle scie chimiche

20 Ago

Putroppo, ad intervalli regolari, si alza forte la voce del popolo complottista che grida alla geoingegneria e all’avvelenamento globale perpetrato ad opera di governi deviati per lo sterminio di buona parte della popolazione mondiale. Non voglio essere ironico, questa è la verità. Di tanto in tanto, i nostri amici complottisti tornano con forza su questo argomento portando nuove analisi e nuove prove a sostegno.

Piccolo excursus, proprio per non ripeterci, di scie chimiche abbiamo abbondantemente, forse anche troppo, parlato in diversi post:

Alcune considerazione sulle scie chimiche

Scie Chimiche: il prelievo in quota

Scie chimiche e cloud seeding

Come difendersi dalle scie chimiche

Il Dibromoetano e le scie chimiche

A-380 modificato per spargere scie chimiche

L’accordo Italia-USA per spargere scie chimiche

Scie chimiche, la prova storica!

Scie chimiche con la scusa dei vaccini!

Scie chimiche: il silenzio non può durare oltre!

Leggendo queste informazioni potete reperire tutte le considerazioni fatte. Quindi, per carità, prima di commentare dicendo che non prendiamo in considerazione le notizie e le analisi reali, ma solo quelle che ci fanno comodo, leggete questi articoli, poi ne parliamo.

Oltre a questi articoli, ne abbiamo un altro molto interessante:

Scie chimiche, ora abbiamo la prova

in cui avevamo discusso quella che secondo molti complottisti è la prova regina per eccellenza, il prelievo in quota degli scarichi degli aerei. Come visto però, anche in questo caso si trattava di una bufala mal organizzata. Il prelievo in quota era un campione raccolto con un fazzoletto di carta nello spazio in mezzo ai sedili di un volo commerciale. Per intenderci, proprio quella zona dove nessuno mette mai le mani, nessuno la pulisce e, molto probabilmente, nessuno ha mai pulito da quando quell’aereo è stato realizzato. Come visto, questa prova regina era stata subito scartata per evidenti motivi tra cui, soprattutto, il prelievo fatto in modo assolutamente non attendibile ne affidabile.

Bene, ora ci risiamo. Negli ultimi giorni su diversi siti è apparsa una nuova analisi in grado di dimostrare in modo schiacciante l’esistenza delle scie chimiche. Anche questa volta, nessuno si è preso la briga, ma soprattutto l’onere economico, di analizzare una scia di condensa ma questo poco conta: il prelievo questa volta è di importanza indiscutibile.

Di cosa si tratta?

Come forse avrete letto, un gruppo, al solito, di ricercatori indipendenti, ha prelevato un campione di neve a 1200 metri di quota, nella zona di Piancavallo. Avete capito bene, 1200 metri di quota. Questa volta poi, avendo imparato dalla critiche, il campione è stato raccolto con provette sterili, immediatamente chiuso e portato, evitando ogni possibile contaminazione, in un affidabile laboratorio per analisi chimiche.

Cosa è emerso da questa analisi?

Metalli pesanti tra cui: piombo, alluminio, cadmio oltre a tanti altri inquinanti.

Ora come la mettiamo? Il prelievo è indiscutibile, l’analisi pure e i risultati sono chiari. Inoltre, ripeto, parliamo di un campione preso a 1200 metri di quota. Qui non ci sono industrie, automobili e altre diavolerie inquinanti. Quei metalli possono solo provenire dalle scie chimiche lasciate dagli aerei che passano in quella zona. Qualcuno offre anche la spiegazione del perchè ci siano quei metalli: le multinazionali OGM hanno sviluppato sementi in grado di resistere ai metalli pesanti mentre quelle tradizionali muoiono. A questo punto, grazie alle scie chimiche, dovremmo comprare i semi solo da queste industrie se non vogliamo morire di fame.

Bene, fino a questo punto abbiamo giocato, ora torniamo seri. Secondo voi questa analisi è attendibile? La risposta è NO e cerchiamo di capire il perchè. Ovviamente, almeno da quanto riportato, ma poco importa, non è attaccabile il prelievo in se ne tantomeno l’analisi condotta, quelle che sono sbagliate sono proprio le supposizioni iniziali.

Un ambiente a 1200 metri di quota è isolato dal resto del mondo al punto di non risentire della civiltà? Assolutamente no.

Quelli rivelati sono inquinanti provenienti, in larga parte, dai gas di scarico delle macchine che circolano in elevato numero lungo l’arco alpino con contributi che possono arrivare fino alla pianura padana. Cosa significa? Se leggete i dati del transito di veicoli attraverso le alpi, rimarrete sorpresi dalle decine di milioni di automobili che ogni anno vengono registrate. Ora, gli inquinanti prodotti dai gas di scarico restano in atmosfera e salgono verso l’alto. 1200 metri di quota non sono assolutamente tanti. Quando la neve cade, cattura queste particelle che restano intrappolate nei fiocchi e riscendono a terra. Risultato: anche ad alta, relativamente, quota, possiamo trovare metalli pesanti prodotti dall’uomo.

Se non siete convinti di quello che diciamo, facciamo qualche altro esempio. Rimanendo nell’ambito delle Alpi, vi riporto un articolo del Corriere del 1999, quando ancora pochi parlavano di scie chimiche:

Corriere, 1999

Come vedete, anche qui si parlava di metalli pesanti sull’arco alpino ed in particolare di Platino, Rodio, ecc.. Come se non bastasse, a riprova dell’altitudine relativa, gli stessi inquinanti, come riportato nell’articolo, sono stati rinvenuti nei ghiacci di Antartide e Groenlandia, quindi ecosistemi ancora più isolati. Da dove vengono questi e quelli oggi registrati nel campione di neve? Molto probabilmente dai gas emessi dalle marmitte catalitiche. Come noto, questi sistemi riescono a ridurre notevolmente il quantitativo di piombo emesso, ma presentano una concentrazione non nulla dei metalli pesanti utilizzati per la costruzione della marmitta stessa. Per completezza, l’alluminio è usato per il corpo della catalitica.

Se ancora non vi basta, qualora i metalli pesanti non siano sufficienti, vi riporto un’altra fonte, questa volta del 2003, autore addirittura Greenpeace:

Greenpeace 2003

Visto quanti inquinanti venivano trovati in un lago alpino ad alta quota? Al solito, queste sostanze sono prodotte da attività umane a distanza e trasportate fino a quel punto. La neve, cadendo, riporta gli inquinanti a terra alimentando anche i laghi e dunque avvelenando le specie ittiche.

Concludendo, anche questa volta un nulla di fatto. Ritenta, sarai più fortunato.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

Pubblicità

La prova regina per eccellenza

21 Giu

In questi giorni sta facendo molto discutere il caso di Yara Gambirasio e l’arresto di quello che sembrerebbe il presunto assassino. Mi rendo conto che la tematica non è delle più semplici ed in questa sede, come è la natura stessa del blog, non voglio entrare in discussioni riguardanti il caso in se ne tantomeno discutere giustizialismo o meno. Come sappiamo tutti, quello che ad oggi è identificato come l’assassino di Yara è stato identificato dopo una lunga e costosa inchiesta che si è basata notevolmente sul test del DNA e sulla comparazione di circa 18000 campioni prelevati da cittadini della zona con delle tracce biologiche rinvenute su un indumento della vittima.

L’identificazione del presunto assassino ha portato però una lunga coda di discussioni sulla certezza o meno della colpevolezza. Senza entrare nel merito della discussione sulle dichiarazioni rilasciate anche da esponenti di governo, il fulcro della questione è rappresentato dalla validità o meno, o meglio dalla precisione o meno, del test del DNA eseguito.

Per cercare di capire meglio la questione, proviamo a capire come vengono eseguiti questi test e se veramente ci sono margini di errore significativi tali da mettere in discussione l’impianto accusatorio per il sospetto.

Come anticipato, durante l’inchiesta sono stati prelevati circa 18000 campioni di DNA da altrettante persone che frequentavano luoghi di interesse per l’indagine e che potevano essere entrate in contatto in qualche modo con la vittima. Tra queste persone è stato identificato un notevole grado di somiglianza tra il campione rinvenuto ed un frequentatore di una nota discoteca della zona. Da qui si è poi risaliti a tre fratelli il cui DNA era ancora più somigliante alla prova e al loro padre, morto nel 1999, ma il cui DNA è stato estratto dalla saliva dietro un bollo della patente e confermato poi dalle ossa riesumate per le indagini. Come è noto, da qui si è passati ad identificare la madre dell’assassino che avrebbe avuto una coppia di gemelli illegittimi dal padre in questione. L’identificazione madre-figlio è sempre stata fatta mediante il test del DNA e nello specifico mediante la comparazione di quello che si chiama DNA mitocondriale, trasferito interamente da madre a figlio. A questo punto, proprio nel maschio della coppia di gemelli è stato identificato il presunto assassino di Yara.

Tutta questa storia sembra più la sceneggiatura di un film o di una serie poliziesca piuttosto che una normale indagine. Ovviamente, il costo di tutte queste procedure è stato elevatissimo. Ed ora? Dopo circa 4 anni, milioni di euro spesi, perché continuiamo ad avere dubbi? Questo è il tema che vorremmo affrontare per capire meglio il perché di tutta questa discussione dopo che il test del DNA viene da diverse fonti considerata la prova regina per la risoluzione di indagini rompicapo.

Come avrete letto e ascoltato, la certezza della corrispondenza tra la traccia rinvenuta sugli indumenti e il DNA del presunto assassino è del 99,99999987%, dunque la probabilità di errore è di uno su miliardi. Allora? Uno su miliardi sembrerebbe una certezza assoluta. In realtà, non è così. Cerchiamo di capire meglio.

Per rima cosa, come viene fatto il test del DNA? Come sappiamo, la molecola del DNA, la famosa doppia elica, è composta da catene lunghissime di basi che contengono tutte le informazioni necessarie a codificare l’essere umano. Se prediamo il DNA di due persone qualsiasi, non parenti, fratelli o altro, ma persone qualsiasi, questi sono identici tra loro per circa il 99.9%. Bene, questa quasi totalità identica è quella che si chiama “genoma umano”. La restante parte del DNA è composta da sequenze non codificate e che non entrano nella sintesi proteica. Proprio questa parte è formata da sequenze di coppie che si ripetono casualmente e la cui struttura è talmente arbitraria da potersi considerare un’evoluzione moderna delle classiche impronte digitali. Detto in altri termini, questa parte minore di DNA è diversa da individuo ad individuo ma è rappresentata non da sequenze a caso, ma da coppie che si ripetono un numero fisso di volte. Bene, analizzando questa parte del DNA, cioè contando quanti e quali coppie e quante volte si ripetono, è possibile effettuare il test del DNA per confrontare tra loro due campioni. Questa tipologia di analisi è la stessa che viene utilizzata anche per il test di paternità utilizzato per riconoscere o meno un figlio.

Detto questo, se consideriamo il numero elevatissimo di combinazioni possibili di queste sequenze, una volta confrontati due campioni e visto che questi hanno le stesse sequenza ripetute, arriviamo agilmente a probabilità di appartenenza che sfiorano il 100%. In altri termini, trovato un campione di DNA, la probabilità che questo appartenga ad una persona a caso piuttosto che a colui che viene identificato è una su miliardi di casi. Tra l’altro, si tratta di un test abbastanza semplice e che è possibile portare a termine nell’arco di un paio d’ore.

Detto questo, con le probabilità che abbiamo detto prima, dove sarebbe la possibilità di errore?

In realtà, è vero che la probabilità di errore è così bassa, ma si tratta solo della probabilità che due persone possano avere le stesse sequenze ripetute nella parte di DNA analizzato. Purtroppo, come la scienza ci insegna, si deve sempre tenere conto degli errori apportati nella misura.

Cosa significa?

Come detto, in questa tipologia di misura si contano, nel vero senso del termine, le sequenze ripetute. E se ci sbagliamo a contare? Questo in realtà potrebbe essere un problema. E’ vero che la sequenza del DNA in esame, per conoscenza i microsatelliti, sono una caratteristica quasi unica, ma alcuni laboratori dichiarano percentuali di errori anche fino al 2%, dunque infinitamente maggiore di quelle considerate, nell’identificazione delle sequenze. Ora, se confrontiamo il 2% con il zero virgola tanti zeri qualcosa visto prima, le cose cambiano decisamente verso.

Oltre a questo, c’è poi il problema della contaminazione dei campioni. Molti citato in questi giorni è il cosiddetto caso del fantasma di Heilbronn, un caso del 1993 in cui in numerosi omicidi in Germania venne rinvenuto lo stesso DNA appartenente ad una donna. Nei mesi successivi, lo stesso campione venne identificato anche in altri casi simili ma in paesi diversi. Da qui, come è ovvio, si pensò ad un caso di serial killer europeo autore di tantissimi omicidi. Il tutto si risolse poi nel nulla quando dopo qualche anno si capì che il DNA in questione apparteneva ad una operaia della ditta che forniva i campioni per i test a diversi paesi e che per errore era entrata in contatto con materiale dopo la sterilizzazione.

Ovviamente, quello del fantasma di Heilbronn è un caso limite, ma ci fa capire come le probabilità di errore sono sempre presenti e non si limitano alla sola precisione del test che, sbagliando, viene spesso citata da sola.

Detto questo, anche in termini giuridici, il test del DNA, in casi come questo, viene considerato come un forte indizio ma non come una prova schiacciante. Come potete capire, per poter chiudere definitivamente il caso è necessario ricostruire il tutto e inchiodare con certezza il soggetto identificato dal test con tutta una serie di altri indizi che rendono la cosa inattaccabile. Questa è la ricostruzione dell’impianto accusatorio a cui si sono appellati gli avvocati difensori di quello che, ad oggi, possiamo considerare il sospettato numero uno.

Solo per chiarire il tutto, insieme al test del DNA in questi giorni viene spesso citato il database dei cellulari che si sono agganciati alla cella telefonica del campo in cui è stato rinvenuto il corpo. Proprio nell’articolo precedente:

Tempeste solari e problemi ai telefoni?

abbiamo parlato di rete mobile parlando della zona coperta dalla cella intesa come stazione mobile. Anche su quest’altra prova a sostegno, gli avvocati difensori si sono appellati al fatto che la stessa cella copre sia il campo già citato, ma anche abitazioni in cui il sospetto poteva essere in quel momento perché di sua proprietà o di parenti stretti.

Dunque? Sicuramente la persona identificata ha un pesante e sospetto di colpevolezza ma, come visto, prima di poter dichiarare il caso chiuso, sarà necessario ricostruire molti altri dettagli che metteranno in correlazione l’assassino con la la vittima e, soprattutto, chiuderanno il caso con una perfetta ricostruzione di quanto accaduto. Divulgare notizie troppo velocemente, potrebbe solo complicare l’indagine e rallentare il lavoro degli inquirenti.

Restiamo dunque in attesa di seguire l’evolversi delle indagini anche se, per una accusa di colpevolezza, serve sempre il processo!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Nuovi candidati per l’impatto mortale?

18 Apr

Alcuni utenti mi hanno chiesto di commentare una notizia apparsa proprio in queste ore su molti siti intenet. Stando a quanto riportato, la NASA avrebbe dichiarato di aver scoperto un nuovo asteroide orbitante vicino alla Terra e che potrebbe rappresentare una notevole minaccia per il genere umano. Per essere precisi, trovate scritto che questo corpo sarebbe molto piu’ pericoloso di Apophis di cui abbiamo parlato, ad esempio, in questo post:

Attenzione, tra poche ore passa Apophis!

Come sapete bene, su Apophis si e’ speculato tantissimo per due motivi principali. Il primo e’ che questo NEO, oggetto vicino alla Terra, per lungo tempo ha avuto una probabilita’ di impatto dalle simulazioni diversa da zero, mentre la seconda ragione si deve a Margherita Hack che in alcune interviste, per smentire le fantasie sul 2012, ha espressamente detto che forse era meglio preoccuparsi di Apophis piuttosto che della fine del calendario Maya. Questa affermazione, fatta ovviamente per sminuire il 2012, ha avuto l’effetto contrario di creare uno stato d’allerta sui meteoriti.

Detto questo, sempre secondo la notizia che stiamo analizzando, il nuovo asteroide appena scoperto sarebbe “1999 RQ36”, che dovrebbe colpire la Terra nel 2182.

Premesso che il 2182 mi sembra abbastanza lontano per iniziare a preoccuparsi, le tante notizie che trovate in rete presentano alcuni punti fondamentali completamente falsi.

Cerchiamo di capire meglio.

Prima di tutto, come suggerisce il nome stesso, l’asteroide in questione e’ stato scoperto nel 1999. La prima osservazione e’ stata fatta nell’ambito del programma LINEAR e l’asteroide e’ costantemente monitorato e studiato dall’osservatorio di Arecibo.

1999 RQ36 ha una forma sferiodale con un diametro medio di 560 metri e una massa di 0.14 miliardi di tonnellate. A livello scientifico, si e’ parlato abbastanza di questo asteroide, soprattutto perche’ e’ stato possibile determinare la sua massa con estrema precisione. Questo risultato e’ stato raggiunto sfruttando le informazioni di 3 radiotelescopi nel mondo e calcolando in maniera molto precisa gli effetti gravitazionali subiti da 1999 RQ36. Come potete facilmente immaginare, questo e’ stato un compito molto arduo, dal momento che per calcoli di queto tipo, si devono considerare tutti i corpi in prossimita’ dell’asteroide, al fine di valutare precisamente le interazioni gravitazionali subite durante il moto.

Probabilmente, leggendo qualche notizia qua e la sui siti scientifici, i nostri amici catastrofisti non hanno capito bene quello di cui si stava parlando e perche’ cosi’ tanto interesse fosse concentrato su questo asteroide. Ovviamente, non dobbiamo dimenticarci il periodo storico che stiamo attraversando. Dopo il fatto russo dell’asteroide su Cheliabynsk, speculare su eventi di questo tipo e’ divenuta una moda molto proficua per tanti siti internet.

Detto questo, come possiamo verificare la reale pericolosita’ di 1999 RQ36?

Per prima cosa, per chi volesse divertirsi a simulare l’impatto di un corpo di questo tipo sulla Terra, abbiamo fatto esperimenti di questo tipo in un altro articolo:

Effetti di un impatto con Nibiru

Seguendo i link riportati, potete accedere ad un programma di simulazione molto carino e con cui potete valutare i reali rischi che un impatto di questo tipo avrebbe per la Terra e per il genere umano.

Detto questo, per poter capire la reale probabilita’ di impatto, non solo di questo asteroide, ma di qualsiasi corpo che volete controllare, basta al solito accedere al sito della NASA sui corpi potenzialmente pericolosi:

NASA, NEO program

In queste pagine trovate il database completo con le informazioni su tutti i NEO potenzialmente pericolosi, insieme anche ai parametri orbitali e ai dati fisici.

Cosa troviamo su 1999 RQ36?

Aprendo la pagina dedicata a questo corpo:

NASA, 1999 RQ36

Vedete che i passaggi ravvicinati alla Terra saranno tra il 2169 e il 2199. Sempre facendo riferimento a questa tabella:

Passaggi ravvicinati per RQ36

Passaggi ravvicinati per RQ36

vedete pero’ che la probabilita’ di impatto non e’ mai superiore allo 0,026%.

Molto probabilmente, un altro fattore che ha contribuito ad alimentare il sospetto su questo corpo e’ che, facendo sempre riferimento alla tabella, non compare la valutazione nella Scala Torino per questo corpo.

Come visto in questo articolo:

L’asteroide 2012 DA14

La scala Torino e’ una classificazione del pericolo di impatto dei NEO sulla Terra. Questa scala tiene conto sia della massa dell’asteroide che della sua energia cinetica. Come capite subito, in un eventuale impatto, anche l’energia cinetica posseduta dal proiettile rappresenta un parametro di notevole importanza.

Visto che per 1999RQ36 non compare la valutazione, proviamo a valutare da noi il pericolo di impatto facendo un confronto con un altro asteroide potenzialmente pericoloso: 2007 VK184. In questo caso abbiamo un proiettile un po’ piu’ piccolo, solo 130 metri di diametro, ma che viaggia ad una velocita’ superiore a 1999 RQ36: 19 m/s contro 13 m/s.

NASA, 2007 VK184

Perche’ abbiamo scelto questo corpo? Come vedete sempre consultantdo il sito NASA, VK184 e’ considerato l’osservato speciale per la probabilita’ di impatto sulla Terra. Con questo si intende che e’ il NEO con la probabilita’ di impatto maggiore per il futuro.

Facendo riferimento alla tabella che trovate sulla pagina riportata:

Passaggi ravvicinati per VK184

Passaggi ravvicinati per VK184

Vedete che in questo caso, la probabilita’ maggiore di impatto e’ dell’ordine di 0,055% con il valore 1 nella Scala Torino. Analogamente a quanto avvenne la prima volta con Apophis, anche questo corpo ha dunque un valore diverso da zero della Scala Torino. Proprio per questo motivo, trovate il corpo evidenziato sulla pagina NASA e VK184 viene costantemente monitorato.

Cosa significa 1 nella Scala Torino?

Definizione dei valori della Scala Torino

Definizione dei valori della Scala Torino

Se avete pensato che il valore 1 ci dia la certezza di impatto, siete fuori strada. Ovviamente 1 e’ maggiore di 0, cioe’ della probabilita’ completamente nulla di impatto con la Terra. Nnostante questo, come vedete dalla figura a lato, la scala Torino a valori che vanno da 0 a 10 e che corripondono ad un crescendo di probabilita’ di impatto.

Prendendo la definizione ufficiale della scala Torino, il valore 1 corrisponde a quanto segue:

Osservazioni occasionali possono scoprire il passaggio vicino alla Terra di oggetti che li pongono in un livello di pericolo di collisione. Calcoli e analisi mostrano che le probabilità di collisione sono estremamente basse da non meritare grande attenzione e preoccupazione nella gente comune. Nuove osservazioni molto probabilmente porteranno una riassegnazione al livello 0.

Dunque? Premesso, come visto, che stiamo parlando di passaggio ravvicinati tra piu’ di un secolo, il valore 1 non corrisponde assolutamente a nessun pericolo. Complice anche la lontananza temporale dell’evento considerato, l’orbita dell’asteroide e’ conosciuta con un’incertezza tale da non consentire una valutazione precisa della probabilita’ di impatto. Cosi’ come avvenuto per Apophis, a distanza di anni e grazie alle osservazioni continue ad opera dei tanti telescopi funzionanti a Terra, la probabilita’ di impatto, e duqnue anche il valore della Scala Torino, e’ divenuta completamente nulla.

Detto questo, siete ancora convinti che sia il caso di preoccuparsi di 1999 RQ36? Secondo me, assolutamente no. Ovviamente non vogliamo tranquillizzare per partito preso. Le nostre considerazioni nascono da un’analisi dei parametri attualmente disponibili, ma soprattutto dal tempo che ancora manca per questo passaggio ravvicinato. Molto probabilmente, tra piu’ di un secolo avremo sicuramente, anche se ne fosse richiesto l’utilizzo, un qualche sistema funzionante per poter deviare o distruggere i potenziali pericoli spaziali per la Terra. Di questi sistemi, attualmente in stato di studio, abbiamo parlato in questo post:

Asteroidi: sappiamo difenderci?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Terremoti, Pollino, Giuliani, Radon, L’Aquila …

27 Ott

In questi giorni, ho ricevuto diverse mail di lettori del blog, che chiedono maggiori informazioni sullo sciame del Pollino e sulla sua evoluzione. Alla luce dell’ultima scossa di M5 registrata a Mormanno, credo sia necessario fare un punto della situazione.

Epicentro della scossa del 26 Ottobre nel Pollino

Abbiamo parlato dello sciame del Pollino in questo post:

La sequenza del Pollino

A differenza di quanto affermato da qualcuno, le conclusioni non erano affatto una rassicurazione per gli abitanti della zona, dal momento che l’evoluzione di questi sciami, come riportato nel testo, non sono affatto univoche. Per completezza, vi riporto esattamente le conclusioni di questo post:

Storicamente, le evoluzioni di sciami di questo tipo non sono affatto univoche. Ci sono moltissimi esempi in cui lo sciame, dopo vari periodi di attivita’, ha smesso senza un evento di grande intensita’. In questo caso, l’energia accumulata nelle faglie e’ stata dissipata mediante piccole e medie scosse senza causare danni. Al contrario, vi sono esempi di sciami che sono culminati con eventi di grande intensita’, come nel caso dell’Abruzzo nel 2009.

Come potete leggere, uno sciame prolungato di questo tipo puo’ esaurirsi senza presentare scosse di magnitudo elevata o, come nel caso dell’Aquila del 2009, terminare con una scossa di grande intensita’.

Ovviamente non siamo qui a fare le bucce su chi ha detto cosa, ma vogliamo analizzare meglio la possibile evoluzione di questo sciame.

Proprio in queste ore, e’ arrivata la notizia che Giampaolo Giuliani avrebbe dichiarato che, dalle misurazioni del Radon nella zona, ci sara’ una nuova forte scosse nel Pollino nel giro di 24/48 ore da oggi.

L’annuncio e’ molto importante ed estremamente grave. Sulla rete si sta diffondendo nuovamente il panico e molti utenti si chiedono cosa aspetti il governo, la protezione civile o chi di dovere ad evacuare tutti i paesi interessati.

Prima di scendere nel catastrofismo, cerchiamo di analizzare in maniera scientifica non solo questo caso, ma la ricerca del radon come precursore sismico.

In questo blog, abbiamo gia’ parlato della possibilita’ di prevedere terremoti mediante lo studio di particolari eventi identificati come precursori sismici:

Allineamenti, terremoti e … Bendandi

Riassunto sui terremoti

Come abbiamo visto, ad oggi non esiste un precursore sismico sicuro, cioe’ che sia univocamente correlato con l’insorgenza di eventi sismici. Nonostante questo, molte analisi statistiche possono essere fatte per studiare l’evoluzione dei terremoti, ma non per prevedere esattamente la data, il luogo e l’intensita’ di nuovi eventi:

Analisi statistica dei terremoti

Dati falsi sui terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Terremoti: nuove analisi statistiche

Fatta questa doverosa premessa, torniamo al Radon. La prima cosa che dobbiamo chiederci e’: chi e’ Giampaolo Giuliani?

Giuliani e’ un tecnico del settore scientifico, che ha collaborato con diversi esperimenti, dapprima per l’Istituto Nazionale di Astrofisica (INAF) poi per l’Istituto Nazionale di Fisica Nucleare (INFN). E’ di origine aquilana e lavora attualmente presso i Laboratori Nazionali del Gran Sasso sempre dell’INFN.

Solo per completezza di informazione, come detto in precedenza si tratta di un tecnico diplomato, non di un ricercatore come spesso viene scritto sui giornali o su diversi siti internet. Faccio questa premessa non per un discorso classista, ma semplicemente per anticipare che le ricerche condotte da Giuliani sul Radon non vengono effettuate per conto dell’Istituto di Fisica, ma a puro titolo personale fuori dall’orario di lavoro.

Arrivando al Radon, prima ancora di Giuliani, e questa volta in ambito di ricerca INFN e universitaria, vennero condotti molti studi sulla correlazione tra emissione di Radon e deformazioni delle rocce del sottosuolo. Gia’ nel 1998, i ricercatori dell’Universita’ di Roma 3, raccolsero molti dati che sembravano evidenziare uan relazione tra il radon emesso e la sismicita’ locale. Ricerche continuate poi dall’ENI insieme all’Universita’ di Bologna, ma che non evidenziarono una correlazione sempre ripetibile tra gli eventi. Sempre in quegli anni, l’esperimento ERMES dell’INFN studiava la relazione del radon con la deformazione delle rocce, utile sempre in ambito geofisico ma anche per lo studio della spettrometria nucleare negli ambienti del laboratorio stesso che, come tutti sanno, e’ all’interno della montagna.

A seguito di queste ricerche a cui collaboro’, Giuliani si appassiono’ a questi studi continuando autonomamente la ricerca della relazione possibile tra Radon ed eventi sismici. I primi dati vennero raccolti in concomitanza del terremoto del 2000 in Turchia, senza pero’ mostrare evidenze tra emissioni di gas e terremoti.

Successivamente il gruppo di ricerca formato dallo stesso Giuliani creo’ una prima rete di monitoraggio del radon, studiando statisticamente anche l’insorgenza temporale di terremoti e, nel 2006, giunse ad una prima conclusione:

Abbiamo notato che la maggior parte dei terremoti si verificano durante i mesi invernali, o meglio, quando il sistema terra-luna è nel perielio, quindi più vicino al sole. In inverno, quando la terra subisce uno stress gravitazionale maggiore, si registrano più eventi sismici (60-70%) che in estate. La percentuale si mantiene ancora più alta quando c’è la luna nuova. Il magma che scorre sotto la crosta terrestre risente delle attrazioni gravitazionali, come accade per gli oceani.

Raccogliando i dati sul radon, Giuliani registro’ molti sismi e li analizzo’ statisticamente arrivando a questa conclusione. Questa pero’ e’ totalmente in contrasto con i dati che e’ possibile consultare liberamente dal sito del USGS. Analizzando infatti i dati di questo database, di cui abbiamo parlato anche nei precedenti post, non si evidenzia nessuna correlazione di questo tipo, ne’ tra terremoti e stagione dell’anno, ne’ tantomeno tra terremoti e fasi lunari.

Andando avanti nel tempo, Giuliani balzo’ nuovamente alle cronache nel marzo 2009 a seguito della previsione di Sulmona. Il 29 Marzo, Giuliani telefono’ al sindaco di Sulmona per avvertirlo che, da li a pochissime ore, un forte sisma sarebbe avvenuto in citta’. La notizia si sparse velocemente creando il panico ta le popolazioni del posto, ma il sisma non avvenne mai. A seguito di questo, Giuliani fu denunciato per procurato allarme ma poi assolto dal GIP per aver agito in buona fede, come vedremo meglio in seguito.

Facciamo il punto della situazione. Siamo a Marzo 2009, l’Aquila (e la zona circostante) e’ interessata da uno sciame sismico di cui, come oggi nel Pollino, non si conosce la possibile evoluzione. Il 29 Marzo, Giuliani annuncia un terremoto a Sulmona che non avviene. Come sappiamo, il 6 Aprile ci sara’ la forte scosse dell’Aquila. Ma torniamo indietro di qualche giorno rispetto al 29 Marzo e al caso di Sulmona e andiamo al 25 Marzo. In questa data, Giuliani rilascia un’intervista al giornale “Il capoluogo d’Abruzzo” in cui afferma, a proposito dello sciame in corso nella regione:

Quest’anno questo sciame sismico è stato più intenso e con delle scosse più forti, che sono state rilevate dalla popolazione. Lo sciame non è un fenomeno preparatorio ad un evento sismico più rilevante, né ha correlazione con grandi piogge o nevicate, come ho sentito dire da molti. È un fenomeno normale per una zona come quella aquilana.

e ancora:

Mi sento di poter tranquillizzare i miei concittadini, in quanto lo sciame sismico andrà scemando con la fine di marzo.

Vi ricordo che siamo al 25 Marzo 2012. A riprova di quanto affermato, vi riporto anche il link con il riassunto dell’intervista, riportato nel sito Abruzzo24ore e pubblicato proprio il 6 Aprile dopo la forte scossa dell’Aquila:

Abruzzo24ore intervista Giuliani

Al 25 Marzo, il signor Giuliani tranquillizzava i propri cittadini che lo sciame sarebbe terminato nel giro di una settimana, mentre, come sappiamo bene, nel giro di 2 settimane arrivo’ un terremoto di M6.3 e con le conseguenze che conosciamo bene.

Nei giorni successivi a questa scossa principale, Giuliani affermo’ di aver visto quella notte un forte aumento nell’emissione di Radon dal sottosuolo, ma di non aver avvertito nessuno per la paura a seguito della denuncia di Sulmona.

Cerchiamo dunque di fare il punto della situazione. Dal punto di vista scientifico, non vi e’ nessuna evidente correlazione tra aumento delle emissioni di radon nel sottosuolo e terremoti. Per meglio dire, possono esserci aumenti di emissioni prima, durante o dopo un terremoto, come possono avvenire forti terremoti senza aumenti significativi di questo gas. Inoltre, possono avvenire aumenti di emissione di radon dal sottosuolo, senza che poi ci sia un terremoto in quelle zone. In particolare, il caso di Sulmona rientra in quest’ultima categoria a dimostrazione del fatto che Giuliani abbia agito in buona fede il 29 Marzo.

Cosa significa questo?

Semplicemete, la sola analisi delle emissioni di radon non costituisce un precursore sismico. Non stiamo qui a giudicare Giuliani, ma e’ stato piu’ volte dimostrato dalla scienza ufficiale come queste correlazioni non permettano di prevedere terremoti.

Ora, cosa possiamo dire riguardo al Pollino? Alla luce di quanto affermato, non siamo a tutt’oggi in grado di poter prevedere con sicurezza un terremoto. Parlare con certezza di un evento distruttivo che avverra’ nelle prossime ore, serve solo ad incrementare la polemica su questi argomenti, come visto in questo post:

Terrorismo psicologico

Nessuno puo’ dirvi con certezza cosa potrebbe accadere nelle prossime ore nel Pollino. Non stiamo facendo una scommessa a chi indovina l’evoluzione. Dal nostro canto, alla luce di quanto detto, rimane valida la conclusione dell’articolo precedente. Sciami di questo tipo possono esaurirsi gradualmente nel tempo attraverso scosse di piccola intensita’ oppure dar luogo ad eventi di elevata magnitudo.

Siamo sempre convinti che la politica dovrebbe occuparsi di mettere in sicurezza gli edifici della nostra penisola. Siamo un paese sismico e su questo non possiamo farci nulla. Fare prevenzione, attuare norme sismiche, non solo per le nuove costruzioni, ma anche mettendo in sicurezza gli edifici piu’ vecchi e’ l’unico modo per arginare in modo sostanziale i terremoti che potrebbero esserci nel futuro.

Per continuare ad analizzare tutte le profezie sul 2012, ma soprattutto per affrontare in modo scientifico argomenti troppo spesso tralasciati dalla scienza ufficiale, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.