Tag Archives: bologna

Sperimentazione animale

2 Gen

Sul forum di Psicosi 2012:

Psicosi 2012 forum

e’ nata una discussione molto interessante sulle conseguenze che le campagne di disinformazione e coinvincimento da parte di alcuni siti possono avere sulle persone. In particolare, il dibattito era incentrato sull’emotivita’ e su quanto il voler creare odio e complottismo puo’ sfociare in reazioni esagerate e fuori controllo. All’interno di questa discussione, si e’ poi arrivati al caso, molto discusso in questi giorni, della ragazza di Bologna che ha riacceso il dibattito sulla sperimentazione animale.

Per chi non fosse informato sui fatti, credo pochi se non altro per l’enorme eco mediatica che la notizia ha avuto,  una ragazza, per la precisione Caterina Simonsen, ha inizialmente pubblicato sul suo profilo facebook questa foto:

La foto su facebook che ha acceso il dibattito sulla sperimentazione animale

La foto su facebook che ha acceso il dibattito sulla sperimentazione animale

Come vedete, si tratta di un messaggio in cui si difende la sperimentazione medica animale grazie alla quale la ragazza e’ ancora in vita. Testuali parole, ne riparleremo tra poco, recitano: “senza la ricerca sarei morta a 9 anni”.

Per essere precisi, tale Caterina e’ affetta da quattro malattie rare: immunodeficienza primaria, deficit di proteina C e proteina S, deficit di alfa-1 antitripsina, neuropatia dei nervi frenici, abbinate al prolattinoma, un tumore ipofisario, e a reflusso gastroesofageo, asma allergica e tiroidite autoimmune. Come potete ben capire, il quadro clinico in questione non e’ assolutamente semplice. Diverse volte la ragazza e’ stata sul punto di morire ricoverata in terapia intensiva e anche in questi giorni si trova ricoverata in ospedale a causa di un aggravamento della situazione. Ad oggi, Caterina e’ costretta a passare quasi 20 ore al giorno collegata ad un respiratore e ad assumere moltissimi medicinali che le consentono di rimanere stabile.

Veniamo prima ai fatti, come e’ noto, questa foto ha scatenato le ire di molti animalisti e persone facenti capo ad associazioni per la difesa degli animali. Purtroppo, le ire sono sfociate in insulti anche molto gravi. Non sono mancati, per la precisione se ne contano una trentina, auguri di morte per Caterina, moltissimi incernierati intorno al concetto “se morivi a 9 anni non importava niente a nessuno”.

Piccola parentesi iniziale necessaria e doverosa, come piu’ volte chiesto e preteso anche su questo blog, quando si vanno a discutere argomenti delicati e contestati come questo, e’ normale che ci siano opinioni anche completamente discordanti. Questo pero’ non deve prescinedere da una dialettica “educata” e veicolata dall’umanita’ e dal buon senso. Augurare la morte a qualcuno perche’ ha un’opinione diversa dalla nostra significa tornare indietro di centinaia di anni. In un dibattito costruttivo, ognuno ha le sue motivazioni che puo’ esternare e che possono essere costruttive per gli altri. Probabilmente, alla fine, ognuno rimarra’ della sua opinione ma tutti avranno imparato qualcosa, se non altro avendo un quadro completo del pensiero e delle tesi dell’altro fronte.

Ora, lungi da me discutere o sensibilizzare sulla situazione di salute della ragazza in questione. Umanamente, e’ normale sentirsi vicini a persone in questo stato e, magari, voler sensibilizzare l’opinione pubblica facendo leva sul quadro clinico di Caterina. Questo pero’, a mio avviso, e’ sbagliato e, sempre mia opinione personale, non era nelle intenzione della ragazza stessa. Quanto accaduto deve invece innescare una discussione costruttiva su un tema molto delicato e che spesso lascia spazio solo ad estremismi piuttosto che ad una discussione scientifica seria. Come sapete, e come normale, esistono diverse associazioni in difesa o contro la sperimentazione animale, molto spesso pero’, si creano su questi temi partitismi fondamentalisti che puntano piu’ all’emotivita’ e alla sensibilita’ delle persone piuttosto che ad una discussione scientifica e costruttiva.

Detto questo, cerchiamo di fare il punto sulla sperimentazione animale cercando di capire pro e contro, e soprattutto l’utilita’ o meno, di questa tecnica in ambito medico.

Per prima cosa, parlare di sperimentazione animale non e’ del tutto completo. Si deve infatti distinguere tra sperimentazione di base e applicata. Nel primo caso, ci si limita ad un’osservazione, ad esempio del comportamento, per comprendere determinati aspetti. Nella sperimentazione applicata invece, alcuni animali vengono utilizzati come modelli attivi per comprendere una determinata caratteristica biologica o genetica di un’altra specie, molto spesso quella umana. Ovviamente, ma la distinzione era obbligatoria, quando parliamo di “sperimentazione animale” ci riferiamo alla ricerca applicata.

Bene, a questo punto le domande fondamentali a cui dobbiamo provare a dare una risposta sono essenzialmente due: e’ veramente utile la sperimentazione sugli animali? Esistono metodi alternativi? Come potete facilmente immaginare, i due fronti, favorevoli e contrari, danno risposte completamente discordanti che sono, rispettivamente, SI-NO e NO-SI.

Vediamo prima di tutto le motivazioni alla base di queste risposte partendo proprio dal fronte contrario alla sperimentazione.

In soldoni, il punto fondamentale portato dal fronte contrario e’ che la sperimentazione animale non porta risultati certi dal momento che e’ fatta, come e’ ovvio, su esseri viventi simili ma non esattamente uguali all’uomo. Detto in altri termini, quando si utilizza una determinta specie per studiare la genetica, provare farmaci o osservare il decorso di una malattia, si utilizza un essere che potrebbe non avere esattamente lo stesso comportamente o la stessa reazione dell’uomo. Generalmente, dal punto di vista del DNA, si utilizzano specie che hanno mappature uguali fino al 95% a quelle dell’uomo. Cosa significa questo? Semplice, quel 5% di differenza, in media e ovviamente per dare qualche numero, puo’ essere determinante in quel preciso studio, portando risultati completamente sballati e che poi non saranno identici sull’uomo. E’ vero questo? Assolutamente si, ed e’ normale che sia cosi’. Prendendo specie diverse, non possiamo certo aspettarci di avere un comportamento speculare al 100% se cosi’ fosse, avremmo non specie simili ma identiche.

Fate pero’ attenzione, come anticipato, parliamo di verosimiglianza a percentuali molto alte. E’ ovvio che per una determinata sperimentazione si prendano animali che, da quel determinato punto di vista, possano essere paragonabili con un’alta percentuale all’uomo. Ovviamente, analisi diverse prendono in esame specie diverse ma simili all’essere umano per un determinato aspetto.

Qual e’ dunque la conclusione del fronte contrario alla sperimentazione? Testare un protocollo sugli animali e’ un’inutile violenza dal momento che il risultato ottenuto non e’ univoco. In altri termini, e’ sempre necessaria una sperimentazione sull’uomo per valutare aspetti specifici che non e’ possibile predeterminare sull’animale. Esempio classico portato a sostegno: farmaci che al termine della sperimentazione devono essere tolti dal mercato perche’ danno vita a reazioni non attese e non osservate nella fase sperimentativa.

Questa conclusione e’ assolutamente fuorviante frutto dell’ignoranza dei protocolli. Rimaniamo, per semplicita’, sul discorso farmaci. Un medicinale, prima di essere immesso sul mercato, affronta un lungo protocollo sperimentativo che parte, generalmente, sull’animale passando poi ad una fase preliminare su soggetti volontari e poi, se tutto va bene, arriva nelle farmacie. Ora, come normale, anche nella fase di somministrazione volontaria si parla di un numero limitato di soggetti. Quella che viene fatta e’ una valutazione statistica degli effetti. Persone diverse, possono avere reazioni diverse. Durante la fase volontaria si studiano eventuali effetti collaterali e viene redatto il bugiardino. Alcune volte, dopo l’immissione sul mercato, proprio perche’ di fronte ad una statistica maggiore di casi, si possono manifestare controindicazioni con probabilita’ minori. In questo caso, come e’ normale, viene aggiornato il bugiardino includendo questi nuovi casi. Detto in parole molto semplici per capire il concetto, una casa farmaceutica mette in commercio un farmaco che salva la vita a molte persone. In un solo caso, questo farmaco ha una reazione allergica che crea danni ad un individuo. Toglialmo il farmaco dal mercato? Assolutamente no, quel prodotto e’ utile per tante persone per cui si aggiorna il bugiardino solo includendo quel caso specifico.

Lasciamo ora questo esempio per tornare alla discussione iniziale. Seguendo questo ragionamento, il fronte contrario alla sperimentazione sostiene che esistano metodi alternativi per verificare l’efficacia e le controindicazioni di un determinato prodotto. Ripeto, parliamo genericamente di prodotto solo per semplificare, il ragionamento va bene per farmaci, terapie, analisi, ecc. Quali sono i metodi alternativi? Primo tra tutti, la simulazione della risposta dell’organismo. Cosa significa? Ad oggi, abbiamo una conoscenza abbastanza avanzata anche solo del genoma umano e del comportamento biololgico-genetico dell’uomo. Sfruttando queste conocenze, e la possibilita’ di utilizzare calcolatori molto potenti, possiamo sostituire la sperimentazione sugli animali con una simulazione informatica della risposta.

Analizziamo questo aspetto. Come visto, uno dei punti cardine del fronte contrario e’ che la risposta dell’animale non e’ determinante per il risultato, e’ sempre necessaria una sperimentazione sull’uomo. Perche’? Come detto, e come normale, la percentuale di somiglianza non e’ e non puo’ essere 100%. Bene, secondo voi, una simulazione al computer puo’ essere identica alla risposta dell’essere umano? Come potete facilmente capire, la risposta e’ no. Facciamo, al solito, un esempio riduttivo ma utile alla comprensione. Al computer possiamo simulare, ad esempio, l’interazione di un farmaco con un organo bersaglio specifico. Prima di tutto, questo non e’ assolutamente corretto. Che livello di precisione possiamo ottenere? Supponiamo di simulare l’interazione di una molecola con i succhi gatrici, simulazione che comunque implica un calcolo lungo e attento. Bene, noi non siamo solo “succhi gastrici”. Magari, quella molecola puo’ avere effetti collaterali gravi sullo stomaco, oppure interagire dannosamente con un altro organo collegato allo stomaco o, anche, influire sulla circolazione mediante l’interazione con il sangue. Cosa significa questo? Se da un lato un animale puo’ essere simile al 95% con l’uomo, una simulazione, in quanto tale, avra’ una somiglianza, supponiamo anche piu’ alta del 95%, per un determinato aspetto dell’uomo. Tornado all’esempio visto, possiamo pensare ad un programma che simula anche al 99% il comportamento dei succhi gastrici, ma in quella simulazione stiamo ignorando lo stomaco, la digestione, il sangue, la circolazione, insomma, l’essere umano. Come potete facilmente rendervi conto, non possiamo pensare di simulare il comportamento e le reazioni dell’uomo completamente al 100%. Se cosi’ fosse, avremmo ridotto l’essere umano ad una semplice macchina.

Detto questo, capite bene l’assurdita’ del pensare che una simulazione possa essere paragonata all’uomo. Prima di tutto, per quanto avanzata, la nostra conoscenza medica non e’ assolutamente completa. Inoltre, per sua stessa definizione uan simulazione prende in esame aspetti specifici e ristretti di un particolare fenomeno. Senza contare poi eventuali errori di software che potrebbero portare risultati completamente diversi.

La sperimentazione animale porta sicuramente delle incongruenze che devono essere testate preliminarmente sull’uomo, ma questi errori possono essere ben piu’ ampi parlando di “metodi alternativi”. Punto di arrivo di questo ragionamento, ripeto personale ma supportato da considerazioni numeriche, e’ che, ad oggi, la sperimentazione animale e’ ancora fondamentale in ambito di ricerca medica. Praticamente tutti i farmaci e tutti i protocolli che utilizziamo, dall’influenza fino alle patologie piu’ gravi, vengono testati su animali all’interno dei centri di ricerca. Tutti quei fondamentalisti, non comuni cittadini che hanno un pensiero ma, ad esempio, gli autori dei commenti visti prima sul caso della ragazza di Bologna, dovrebbero essere consapevoli del ruolo della sperimentazione e del fatto che molti dei farmaci che utilizzano sono sicuri anche per questo motivo.

Prima di concludere, vorrei fare delle ulteriori considerazioni personali. Come premesso, cosi’ come avviene su molti altri aspetti discussi anche in questo blog, la creazione di fazioni fondamentaliste preclude la sana discussione costruttiva. Insultare la ragazza di Bologna augurandole la morte, non serve certo a spiegare le motivazioni della propria contrarieta’ alla sperimentazione animale. Dal mio punto di vista, se vogliamo parlare di umanita’ e rispetto per specie viventi, allora di dovrebbe parlare di allevamenti intensivi di animali da pelliccia. Se proprio vogliamo essere franchi, quelli sono sacrifici che possono essere eliminati utili solo per un mero vezzo estetico. Allo stesso modo, non possiamo paragonare la sperimentazione di un farmaco con quella di prodotti cosmetici. Come potete capire, esistono molte sfumature di questo aspetto che non possono essere unificate nascondendosi dietro all’ormai famosa espressione “no, senza se e senza ma”.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tsunamometro: come “prevedere” gli Tsunami

3 Set

Alcuni lettori mi hanno contatto per chiedere il mio punto di vista su una notizia apparsa in questi giorni su alcuni giornali. La notizia in questione riguarda un sistema di allerta per gli Tsunami del mediterraneo che e’ stato sviluppato con la collaborazione di diverse universita’ e enti di ricerca italiani. Questo strumento, anche detto Tsunamometro, altro non e’ che un sistema di “early warning”, cioe’ una strumentazione in grado di identificare la formazione del maremoto e inviare un allarme a terra. Come sappiamo bene, in eventi di questo tipo, un avviso anche solo di qualche decina di minuti puo’ significare la differenza tra centinaia di morti oppure no.

Detto questo, vorrei aprire una piccola parentesi o, se volete, una critica ad alcuni giornali. Come abbiamo detto in diverse occasioni, in questo periodo estivo le notizie scarseggiano, la politica e’ ancora in ferie, il campionato sta ricominciando solo ora, ecc. Proprio questo e’ il periodo in cui i giornali per riempire le loro pagine tirano fuori notizie d’archivio o pseudo-assurde. Perche’ dico questo?

Questo e’ l’articolo, del 1 settembre 2013, che trovate su un noto giornale nazionale:

Tsunamometro, 1 settembre 2013

Bene, questo e’ un articolo dello stesso giornale sullo stesso argomento del 30 settembre 2009:

Tsunamometro, 30 settembre 2009

Stesso argomento, stessa intervista, stesse considerazioni solo che, nel 2009, il sistema era stato installato per la prima volta.

Animazione dello Tsunami in Indonesia del 2004

Animazione dello Tsunami in Indonesia del 2004

Non aggiungo altro, a voi le considerazioni sulla cosa.

Nonostante questo, credo sia interessante parlare dell’argomento in primis perche’ non lo abbiamo trattato sul blog ma soprattutto perche’ alcuni utenti mi hanno scritto facendo questo ragionamento: se e’ possibile inviare un segnale a terra studiando le onde, allora e’ possibile prevedere uno tsunami. Se lo tsunami e’ dovuto ad un terremoto, allora e’ in qualche modo possibile prevedere anche il sisma.

Come anticipato, questo ragionamento e’ sbagliato. Come detto, lo tsunamometro, noto come progetto Nearest, e’ costituito da una serie di strumenti che misurano parametri del mare. In caso di formazione anomala, il sistema invia l’allerta a terra. Dunque, non prevede lo tsunami ma lo identifica nelle prime fasi della sua formazione.

Come funziona Nearest?

Come potete immaginare, si tratta di un sistema di boe che misurano l’accelerazione e la pressione delle acque, le onde sismiche e le onde acustiche prodotte dallo tsunami in formazione. Oltre alla boa, c’e’ ovviamente un sistema sottomarino che serve a raccogliere i dati ed che viene posizionato in prossimita’ delle linee di faglia dove si potrebbe generare il sisma ed il conseguente maremoto.

Ad oggi, un sistema completo di monitoraggio e’ stato installato al largo di Cadice in Spagna. Come sappiamo, la zona del mediterraneo e’ stata in passato scenario di tsunami a causa sia dell’attivita’ sismica che di frane. Di questi eventi abbiamo parlato in dettaglio in questi post:

Ora anche gli Tsunami in Italia

I Marrobbi, piccoli Tsunami

Aggiornamento sulla Tsunami del Tirreno

Inoltre, come visto in questi articoli:

Due parole sull’Etna e sullo Stromboli

Marsili e terremoto siciliano

– Il vulcano Marsili

– Immagine ricostruita del Marsili

– Il risveglio del Marsili

la presenza di vulcani attivi nel Mediterraneo puo’ portare a sismi con conseguenti Tsunami.

Una delle boe del sistema Nearest

Una delle boe del sistema Nearest

Oltre all’importante funzione di “Early warning”, Nearest ha un compito scientifico di tutto rispetto. La ricerca e’ infatti considerata fondamentale per studiare a fondo la relazione tra evento sismico e maremoto. Come sapete, ci possono essere terremoti con epicentro in mare che non provocano fenomeni tsunamici. Questo e’ dovuto alla natura stessa del sisma, alla direzione di propagazione delle onde, alla profondita’, ecc. Avere un sistema di monitoraggio di questo tipo direttamente in mare consente di poter studiare queste relazioni ed avere un quadro piu’ chiaro. Al largo di Cadice, il sistema e’ posizionato ad una profondita’ di 3200 metri e invia segnali acustici alla boa.

Concludendo, quella dello tsunamometro e’ una notizia abbastanza vecchia. Nonostante questa riproposizione estiva, e’ interessante vedere come funziona questo sistema per analizzare quali sono gli attuali sistemi di prevenzione che si stanno studiando per far fronte a problemi di questo tipo. Come sappiamo bene, le onde di tsunami hanno periodi molto lunghi, non possono essere arginate mediante barriere se non in parte, ma, sapere con anticipo quando l’onda colpira’ la costa potrebbe essere sicuramente un ottimo salvavita.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E-Cat meraviglia o grande bufala?

30 Mag

Viste le numerose richieste di informazioni, chiarimenti e spiegazioni che ho ricevuto, ho deciso di scrivere questo articolo sull’E-Cat. Perche’ non l’ho fatto prima? Semplicemente perche’, a mio avviso, e ne riparleremo dopo, mancavano dei presupposti essenziali per parlare di questa presunta invenzione in termini scientifici.

Ora cosa e’ cambiato?

A parte le numerose richieste ricevute, la rete e’ letteralmente esplosa in questi giorni perche’ sembrerebbe che finalmente sia arrivata la dimostrazione indipendente del funzionamento di questo prodigio.

Bene, analizziamo i fatti e cerchiamo di capire meglio di cosa stiamo parlando.

Per chi non lo sapesse, l’E-Cat e’ una presunta invenzione di Andrea Rossi che produrrebbe energia in un modo non noto. Mi spiego meglio. Si tratta di una sorta di generatore, alimentato da corrente elettrica, che pero’ produce piu’ energia di quanta ne assorbe. E’ strano questo? Assolutamente no. Non pensate che si stia violando qualche principio fisico basilare, semplicemnte si potrebbe sfruttare una qualche reazione chimica, fisica o sconosciuta mediante la quale si innescano dei processi esoenergetici, cioe’ che producono energia.

Poiche’ questo punto e’ molto importante, cerchiamo di capirlo bene e in modo semplice. Prendiamo, ad esempio, la fissione nucleare. Mediante questo proceso, nuclei di elementi fissili vengono spaccati in elementi piu’ leggeri, mediante neutroni, producendo energia. Ora, per produrre i neutroni da sparare avete bisogno di energia, ma quella che otteete alla fine del processo e’ maggiore di quella che avete speso, perche’ siete riusciti ad estrarre un’energia dall’interno del nucleo. Avete creato qualcosa dal nulla? No, avete semplicemente sfruttato un processo per produrre questa energia traformandola in qualcosa di utilizzabile ai vostri scopi.

Bene, l’invenzione di Rossi dovrebbe fare un qualcosa di equivalente. L’invenzione promette infatti di produrre molta piu’ energia di quella che deve essere immessa, sfruttando un processo, almeno al mometo, sconosciuto.

Qual e’ il carburante dell’E-Cat? Piu’ o meno il sistema funziona in questo modo: mettendo insieme Nichel e Idrogeno e fornendo un’energia iniziale al sistema, si dovrebbe innescare una reazione fortemente esoenergetica, in cui viene prodotta 5 o 6 volte piu’ energia. Attenzione pero’, gli ingredienti non bastano. Per poter funzionare, c’e’ bisogno anche di un catalizzatore da aggiungere al miscuglio Ni-H, tenuto segreto per motivi di spionaggio industriale.

Perche’ spionaggio industriale? Semplice, parlando di E-Cat, non stiamo parlando di una ricerca scientifica, bensi’ di una invenzione che deve essere lanciata sul mercato. Detto in altri termini, che deve essere venduta.

Quasta cosa ci sconvolge? Assolutamente no. Chiunque di noi puo’ pensare ad un’invenzione commerciale fattta esclusivamente per guadagnare. Non c’e’ nulla di male in questo, purche’, come vedremo, ci siano tutti i presupposti di affidabilita’ dell’invenzione.

Per chi gia’ conoscesse l’E-Cat, notate che ho parlato di una misteriosa reazione. Su molti giornali e siti internet, vedete che si parla di “fusione fredda” o “reazione nucleare a bassa energia”, ho omesso appositamente di tirare in causa questi concetti. Perche’? La fusione nucleare e’ quel processo secondo il quale dei nuclei leggeri vengono fusi tra loro per produrne uno piu’ grande, producendo energia. Questa ‘e la reazione utilizzata dal sole e dalle stelle per produrre energia, ed e’ quella a cui si vorrebbe puntare per sostituire le centrali nucleari a fissione. Il motivo e’ molto semplice, favorevoli o meno al nucleare, il punto piu’ discusso su queste tematiche e’ quello della produzione di scorie, cioe’ elementi nucleari di scarto con vite medie lunghe, cioe’ che restano attivi per molto tempo.

Qual e’ il problema principale della fusione?

Come detto, si devono fondere tra loro due nuclei leggeri per formarne uno pesante. Bene, cosa c’e’ dentro il nucleo? Neutroni, particelle neutre, e protoni, particelle di carica positiva. Come sappiamo bene, se avviciniamo due cariche dello stesso segno, come i protoni dei due nuclei, questi si respingono tra loro a causa della repulsione coulombiana. Ora pero’, se riuscissimo ad avvicinare moltissimo i due nuclei, si arriverebbe ad un punto in cui la forza nucleare forte, che e’ attrattiva, sarebbe molto maggiore della repulsione dovuta alle cariche elettriche, e i due nuclei si attirerebbero tra loro. Niente di complicato. Mentre li avvicinate, i due nuclei si respingono, quindi dovete spingerli con forza per farli avvicinare. Quando poi riuscite ad arrivare oltre una certa distanza, nota come barriera di Coulomb, a questo punto i due nuclei si attirano da soli e si innesca la fusione. Il problema delle centrali a fusione e’ proprio quello di trovare il modo piu’ conveniente ed efficace per fornire l’energia necessaria al superamento della barriera di Coulomb.

E la fusione fredda?

Come detto, parlando di fusione si parla di processi ad altissima temperatura, come avviene nelle stelle. La fusione fredda invece avverrebbe a temperatura ambiente. Al contrario di quanto si legge spesso in rete, non esitono evidenze di reazioni di questo tipo. Storicamente, i primi a parlare di fusione fedda furono gli americani Fleischmann e Pons, cui seguirono altre prove. Per nessuna di queste pero’, esiste la certezza scientifica che si sia trattato realmente di una reazione nucleare di questo tipo e, ancora oggi, c’e una forte discussione a proposito.

Perche’ per l’E-Cat si parla di fusione fredda?

In diverse fonti si parla della reazione tra Nichel e Idrogeno che verrebbero fusi tra loro per produrre Rame. Questo sarebbe il processo che avverrebbe a bassa energia e che fornirebbe l’energia dell’E-Cat. Ripeto, non sono d’accordo su questo punto e a breve mostreremo anche il perche’.

Prima di tutto, rivediamo un po’ la storia di questo E-Cat. Nel 2011 si e’ iniziato a parlare di questo generatore quando Rossi ha condotto due test rendendo pubblici i risultati. In questi esperimenti, fornendo un’energia al macchinario intorno ai 35 KWh, si sarebbero prodotti in un caso 70 KWh, nell’altro 160 KWh. Stando ai numeri, la reazione sarebbe effettivamente esoenergetica e molto conveniente. Qual’era il problema di questi test? Semplicemente, non ci sono prove scientifiche della validita’ dei risultati perche’ il tutto e’ stato condotto in maniera autonoma e senza un confronto indipendente. Cosa significa? Ai test sono stati invitati giornalisti rigorosamente selezionati, in veste di spettatori. Mi spiego meglio. I giornalisti sono stati invitati in questo capannone e hanno potuto vedre e filmere il test di Rossi riportando solo ed esclusivamente quelllo che l’inventore del macchinario affermava.

Ora, vedetela in questo modo. Un signore vi invita ad una dimostrazione in cui vi mostra una scatola nera in cui mette 10 euro e dall’altra parte ne escono 20. Basta, non vi viene detto altro ne’ vi vengono forniti dettagli su cosa c’e’ dentro la scatola. Non parlo a caso di scatola nera, infatti, molte delle parti dell’apparecchiatura sono tenute coperte e chiuse alla vista. Ovviamente, si tratta dei componenti fondamentali del sistema, incluso anche il misterioso catalizzatore che darebbe il via alla reazione.

Cosa dice la scienza a proposito? Come e’ facile immaginare, questo risultato non e’ stato accettato dalla comunita’ scientifica. Per sostenere qualcosa di questo tipo, seguendo i canoni della scienza, si dovrebbe mostrare il macchinario, studiare la reazione che avviene e il tutto deve essere ripetibile ovunque nelle stesse condizioni. Se queste informazioni mancano, il test e’ del tutto simile a quello di un’illusionista che vi mostra l’assistente tagliata in due all’interno di una scatola.

Come forse sapete, a seguito di questi test, e del completo rifiuto della scienza su questi risultati, Rossi e’ divenuto un “mito telematico”, metafora di quel genio che trova l’invenzione del secolo per il bene dell’umanita’ e a cui la scienza mette i bastoni tra le ruote perche’ corrotta dalle grandi multinazionali.

Se invece di gridare allo scandalo, si ragionasse su quanto detto, tutti si renderebbero conto che affermazioni di questo tipo non possono essere credibili se non verificate sperimentalmente. Il problema energetico dell’umanita’ non si risolve con la fiducia sulla parola, ma con numeri chiari verificabili e indiscutibili.

Perche’ ora, come anticipato, si parla di verifica indipendente? Nei mesi scorsi sarebbero stati condotti altri test. Questa volta pero’, avrebbero partecipato anche scienziati di diverse parti del mondo che avrebbero assistito agli esperimenti. Anche in questo caso, i risultati avrebbero mostrato un guadagno energetico del processo, confermando dunque la correttezza del metodo su cui si basa l’E-Cat.

Attenzione, facciamo una considerazione. Come premesso, in ambito commerciale, e’ lecito parlare di segreto industriale. Le regole del commercio sono diverse da quelle della scienza. A mio avviso, se il tutto venisse mostrato ad un gruppo di scienziati affidabili ed in grado di fornire un’opinione scientifica, sicuramente il test acquisterebbe di credibilita’. Purtroppo, non e’ andata cosi’.

L’altro punto fondamentale su cui si e’ dibattuo a lungo e’ la mancanza di una “peer review” sull’esperimento. Cosa significa? Quando si pubblica un articolo su una qualche rivista internazionale, si passa attraverso il processo di “referaggio”. Prima di pubblicare il lavoro, la rivista nomina un altro ricercatore internazionale di chiara fama ed esperto del settore che ha il compito di analizzare in dettaglio il contenuto dell’articolo. Se ci sono punti poco chiari, l’esperto puo’ chiedere maggiori spiegazioni al fine di chiarire il tutto ed evitare, nella migliore delle ipotesi, errori sfuggiti agli autori. Solo al termine di questo processo il vostro lavoro, se accettato, viene pubblicato.

Partendo proprio da questo punto, gli ultimi test seguiti dal gruppo di scienziati avrebbero risolto anche questo problema.

Perche’?

Solo pochi giorni fa, e’ stato pubblicato un articolo sull’archivio della Cornell University, che trovate a questo link:

ArXiv E-Cat

A questo punto, tutti i dubbi iniziali dovrebbero essere risolti: il test e’ stato eseguito indipendentemente da un gruppo di ricercatori e questi hanno anche pubblicato un articolo, ovviamente confermando i risultati dei primi test.

Cosa c’e’ che non va?

Prima di tutto, quello di cui vi ho dato il link, non e’ un articolo su rivista internazionale che ha subito un processo di peer review. Il database in questione e’ semplicemente un archivio di articoli in cui i ricercatori possono mettere i loro lavori. Non c’e’ nessun controllo sul contenuto degli articoli, a parte la buona fede dei ricercatori stessi. Generalmente, almeno nel campo della fisica, i lavori vengono caricati su arXiv prima che questi vengano pubblicati sulle riviste, cioe’ mentre e’ in corso il processo di review. Detto questo, non e’ assolutamente risolto il problema del peer review per l’E-Cat.

Purtroppo, neanche la prima critica e’ stata risolta. Come potete leggere nel testo dell’articolo, non si e’ trattato assolutamente di una verifica indipendente, ma solo di uno spettacolino riservato a persone esperte del settore. Cosa significa? Nei primi test erano stati invitati dei giornalisti, ora dei ricercatori, ma lo svolgimento e’ stato esattamente lo stesso. I ricercatori non hanno potuto toccare nulla, ma si sono limitati a guardare il test condotto da Rossi nei suoi laboratori. Inoltre, molte delle parti del sistema su cui si era discusso, sono rimaste chiuse all’interno di scatole nere in cui era impossibile guardare dentro e, come e’ facile pensare, tra queste vi era anche il misterioso catalizzatore. L’articolo di cui stiamo parlando e’ dunque un insieme di osservazioni e considerazioni fatte dai ricercatori.

Cosa e’ cambiato rispetto al passato? Ovviamente, i ricercatori intervenuti hanno potuto misurare il calore in uscita mediante una termocamera, valutando in questo modo sia la potenza in uscita che quella in ingresso utilizzando sistemi elettrici. A parte al correttezza o meno di questo processo indiretto e della valutazione dell’incertezza ottenuta misurando la potenza con una termocamera, non  si e’ assolutamente trattato di una prova “indipendente”.

C’e’ anche qualche altra considerazione importante da fare. Come detto in precedenza, a mio avviso non si e’ trattato di fusione fredda. Un processo di questo tipo necessariamente producce radiazione in uscita. Effetto non riportato in nessun caso e impossibile da schermare in sistemi di questo tipo. Tra l’altro, conosco personalmente uno dei ricercatori intervenuti ed e’ un esperto di radioprotezione dell’Universita’ di Uppsala in Svezia.

Oltre a questo, la quantita’ d rame che si sarebbe prodotta corrisponderebbe ad un rendimento del sistema molto piu’ alto di quello che ci si aspetta e soprattutto il rame in questione sarebbe non eterogeneo, cioe’ mancano isotopi diversi dalla forma piu’ commerciale e abbondamente in natura.

Ulima considerazione scientifica, dal punto di vista energetico, la fusione di nichel e idrogeno sarebbe possibile e verrebbe prodotto rame, ma la barriera coulombiana per questi nuclei e’ elevatissima. Questo solo per dire che un processo del genere a bassa energia e’ scientificamente molto difficile da digerire. Teoricamente si potrebbe citare l’effetto tunnel, ma questo non spiegherebbe neanche la certezza della reazione di fusione cosi’ come altri processi quantistici non deterministici.

Concludendo, alla luce delle considerazioni fatte e degli ultimi aggiornamenti, non pssiamo assolutamente affermare che l’E-Cat sia un sistema reale e che possa essere accettato dalla scienza. Questo non significa che potrebbe esistere questo generatore in grado di fare quello che Rossi promette. Semplicemente, se anche esistesse, non e’ comprensibile la reazione su cui sarebbe basato e soprattutto mancano dati certi su cui ragionare e da cui estrarre certezze scientifiche. Al momento, almeno secondo me, siamo ancora al livello dll’illusionista che taglia l’assistente con la sega.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tromba d’aria in Emilia

4 Mag

Partiamo dall’inizio: venerdi, intorno alle 17, una tromba d’aria si e’ formata nell’Emilia, e ha interessato diversi comuni compresi tra Bologna e Modena. Il fenomeno e’ stato abbastanza violento, ha scoperchiato diverse case lasciando molte persone senza un tetto e ci sono stati circa una decina di feriti.

Ecco una foto di quanto accaduto:

Tromba d'aria in Emilia

Tromba d’aria in Emilia

sul web trovate moltissime foto simili a questa, e anche video girati durante quei momenti da testimoni:

Dunque? Perche’ parlo di questo avvenimento? Semplicemente lo faccio per cercare di rispondere all’enorme speculazione che si e’ gia’ creata sul web, e mi dispiace dirlo anche su molti giornali e telegiornali, riguardo a questo fenomeno. Se provate a cercare informazioni in rete, troverete tanti siti che parlano della straordinarieta’ di questo fenomeno, dell’origine sconosciuta di un tornado di queste dimensioni in Italia. Ovviamente, non possono certo mancare tutti quelli che puntano il dito contro HAARP, la geoingegneria, i complotti del Nuovo Ordine Mondiale, ecc.

Dal momento che questo fenomeno ha interessato nuovamente alcuni comuni gia’ colpiti nel 2012 dal terremoto, ci tengo a discutere questi effetti per non aumentare il panico in persone gia’ scosse da fenomeni naturali. Del terremoto emiliano e di tutti quei fattori di volta in volta additati come cause, abbiamo parlato in questi post:

Terremoto del 20 Maggio in Emilia

Ancora terremoti in Emilia

Emilia 13-16 luglio: un po’ di statistica

Fratturazione idraulica

Riassunto sui terremoti

Una prova del fracking in Emilia?

Innalzamento dei pozzi in Emilia prima del sisma

Al solito, chi frequenta questo blog spesso sa che e’ cosi’, non voglio tranquillizzare per partito preso, ma voglio prima di tutto analizzare quanto accaduto e cercare di fare qualche considerazione storica su fenomeni di questo tipo.

Tornando al discorso tromba d’aria, come potete leggere sui giornali, i venti erano compresi tra 200 e 230 Km/h, il fenomeno si e’ formato subito dopo un violento temporale e le temperature si erano abbassate di diversi gradi prima dell’evento.

Bene, per chi non lo sapesse, queste sono le condizioni ottimali per la formazione di una tromba d’aria. Inoltre, la fine o l’inizio della stagione estiva, sono i momenti piu’ propizi per la formazione di questi fenomeni, grazie anche allo scontro di masse d’aria a diversa temperatura. Sicuramente, tutti quanti vi sarete accorti delle temperature estive registrate nei giorni scorsi su tutto il territorio italiano. Bene, proprio in questi giorni, si sono invece avuti violenti temporali, come nel caso dell’Emilia, causati dallo scontro di correnti fredde. Queste condizioni di instabilita’ creano il terreno ideale per la formazione di trombe d’aria. Il forte temporale registrato ha causato la formazione di celle di accrescimento con il vento che, a causa dei gradienti verticali di temperatura, ha innescato il moto rotatorio.

Cosa c’e’ di strano? Assolutamente nulla. Le condizioni climatiche erano ideali, cosi’ come il periodo dell’anno. Ora pero’, prima che qualcuno salti sulla sedia, facciamo un’altra considerazione: e’ normale che fenomeni di questo tipo si formino in Italia?

Rispondere a questa domanda e’ importante per capire le affermazioni circa la geoingegneria che, secondo alcuni, provocherebbe la formazione di tornado nel mondo oltre ovviamente a significative variazioni climatiche.

Qualche tempo fa, avevamo fatto lo stesso discorso, analizzando il fenomeno avvenuto a novembre a Taranto:

Tromba d’aria a Taranto

Come visto in quest’articolo, l’Italia non e’ affatto esente da fenomeni di questo tipo. A dimostrazione, vi riporto nuovamente la mappa del NOAA che mostra i paesi a piu’ alta probabilita’ di formazione si trombe d’aria:

Paesi a rischio tornado nel mondo

Paesi a rischio tornado nel mondo

Come si vede, tutta l’area mediterranea presenta le condizioni per la formazione dei tornado. Infatti, oltre ai parametri atmosferici, importante contributo viene dalle caratteristiche morfologiche del terreno. Zone ampie e pianeggiati, possono consentire una formazione di fenomeni piu’ violenti e duraturi. Se poi, intorno a queste zone, ci sono catene montuose da cui possono arrivare correnti piu’ fredde, la probabilita’ di formazione di tornado cresce velocemente.

Queste condizioni sono infatti quelle che si trovano nella cosidetta Tornado Alley negli Stati Uniti e che comprende Illinois, Texas, Kansas, Arkansas, Missouri e Nebraska. Questa e’ la zona del pianeta con la probabilita’ maggiore di formazione di tornado.

E in Italia? La mappa del NOAA ci ha mostrato come il paese sia classificato a potenziale rischio tornado. Cosa dire sulle singole regioni? Analizzando il territorio nello specifico, le regioni con la massima probabilita’ di trombe d’aria sono: Lazio, Toscana, Liguria, Lombardia, Piemonte Veneto e ovviamente Puglia, come nel caso di novembre, e la pianura padana, come in questo caso. Anche sotto questo punto di vista, il fatto di aver avuto una tromba d’aria in Emilia non ci sorprende affatto.

Rimane solo da analizzare la potenza del fenomeno. C’e’ qualcosa di sorprendente in questo? Come detto all’inizio, i venti registrati erano compresi tra 200 e 230 Km/h. Come visto nell’articolo su Taranto, la potenza, o meglio la distruttivita’, di un tornado viene classificata usando una scala simile a quella Mercalli per i terremoti e chiamata Scala Fujita. Questa divisione prevede 6 livelli di intensita’, tra F0 e F5, con velocita’ dei venti crescente, come mostrto in questa tabella:

Grado Classificazione Velocità del vento
F0 DEBOLE 64–116 km/h
F1 MODERATO 117–180 km/h
F2 SIGNIFICATIVO 180–250 km/h
F3 FORTE 254–332 km/h
F4 DEVASTANTE 333–419 km/h
F5 CATASTROFICO 420–512 km/h

Bene, dai venti misurati, la tromba d’aria in Emilia puo’ essere classificata come un F2. Se vediamo la descrizione di questi fenomeni troviamo:

Danni considerevoli. Scoperchiamento di tetti; distruzione di case prefabbricate; ribaltamento di camion; sradicamento di grossi alberi; sollevamento di auto da terra

Esattamente corrispondente con quanto avvenuto.

E’ anomala una tromba d’aria F2 in Italia? Per prima cosa, quella registrata a Taranto in Novembre era una F3, dunque molto piu’ potente (come nella scala Mercalli, il passaggio da un livello all’altro e’ esponenziale). Notate come parli indistintamente di tromba d’aria o tornado, il fenomeno e’ esattamente lo stesso solo che ci si riferisce al primo caso quando si hanno i livelli piu’ bassi della scala Fujita.

Come detto nell’articolo precedente, in passato si sono registrati in Italia fenomeni anche molto piu’ intensi di questi di cui stiamo parlando. Per darvi qualche esempio: 1957: F4 nell’Oltrepo’ Pavese, 1970: F4 nel Padovano, 2001: F3 in Brianza, 2009: F3 a Treviso e, ovviamente, 2012: F3 a Taranto. Senza dubbio, il fenomeno piu’ distruttivo avvenuto in Italia, questo si piu’ unico che raro, e’ quello che colpi’ Treviso nel 1930. Si tratto’ dell’unico caso di tornado F5 in Italia e costo’ la vita a 23 persone.

Ricapitolando, la tromba d’aria che ha colpito l’Emilia e’ classificata come F2 nella scala Fujita. La potenza, il luogo, il periodo e le condizioni meteo sono del tutto compatibili con il fenomeno avvenuto e non presentano nessun aspetto di eccezionalita’. Non vorrei sembrare cinico in questo discorso, dal momento che ci sono stati dei feriti, oltre ovviamente a notevoli danni economici. E’ importante pero’ analizzare in dettaglio quanto avvenuto senza lasciarsi trasportare dalle emozioni o, peggio ancora, cercare di speculare su quanto avvenuto.

La zona colpita e’ nuovamente quella in cui e’ avvenuto il terremoto. E’ importante capire che fenomeni di questo tipo possono avvenire, sono stati registrati in passato e, probabilmente, ci saranno anche in futuro, speriamo ovviamente senza danni. Su molti articoli, si parla anche dell’importante grandinata registrata sempre in quelle ore. Anche qui, il periodo, prima o dopo l’aestate, e’ propizio per fenomeni di questo tipo, esattamente per lo stesso motivo visto parlando di trombe d’aria, scontro di correnti a temperatura molto diversa.

Come se non bastasse, su molti siti si enfatizza il fatto che il giorno successivo e’ stato registrato un terremoto M3 vicino a quelle zone. Questi sono fenomeni del tutto scorrelati tra loro. Tra l’altro, nei giorni scorsi, sono state registrate diverse scosse nella zona e, proprio per questo motivo, i geologi pensano ad una fratturazione della linea di faglia che non risce ad accumulare energia elastica. Se questo fosse vero, come si pensa, la nuova conformazione del terreno, creata a seguito degli eventi di maggio, ha dato luogo a faglie molto frastagliate che dunque scaricano sempre poca energia senza accumularla. Detto in parole semplici, il terreno scarica l’energia di volta in volta, senza accumularla e dunque evitando il ripetersi di fenomeni di alta magnitudo. Messa in questi termini, la notizia e’ molto positiva, meglio tanti piccoli sismi che un teremoto distruttivo.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Se fosse stato il meteorite di Roma ….

28 Feb

Negli ultimi articoli, molto spesso abbiamo parlato del meteorite caduto in Russia, mostrando in particolar modo le speculazioni che non accennano assolutamente a finire:

Pioggia di meteore in Russia

Meteorite anche a Cuba e Dark Rift

Alla luce di quanto accaduto, avevamo in qualche modo predetto quanto sarebbe avvenuto sui siti catastrofisti, che ovviamente non potevano certo farsi sfuggire un’occasione cosi’ ghiotta caduta dal cielo:

Lezione n.1: come cavalcare l’onda

Ora, premesso che, come sapete, questo evento ha causato il ferimento di circa 1200 persone e danni stimati per circa 22 milioni di euro, mi sembra alquanto meschino speculare sulle fobie create da questo meteorite. Ma, come ormai sappiamo, la speculazione non si ferma certamente di fronte ai feriti, ai morti o ai danni.

Premesso questo, in questo post vorrei invece mostrarvi le ultime considerazioni scientifiche fatte sul meteorite russo, a distanza di giorni, e dopo aver raccolto i dati catturati dai molti satelliti in orbita intorno alla Terra e che hanno potuto osservare l’avvicinarsi del corpo nell’atmosfera terrestre.

Prima di tutto, c’e’ un importante studio condotto dal Prof. Longo dell’universita’ di Bologna, da sempre interessato allo studio dei meteoriti ed, in particolare, dei loro effetti sgli ecosistemi naturali. Longo e’ ancora autore di diversi studi condotti per cercare di ricostruire quanto accaduto a Tunguska nel 1908, evento di cui abbiamo parlato in questo post:

Il raggio della morte

Per prima cosa, in questo studio e’ stata ricostruita la traiettoria di avvicinamento del meteorite a Chelyabinsk, che vi mostro in questa immagine:

L'orbita seguita dal meteorite russo

L’orbita seguita dal meteorite russo

Osservate una cosa, nella mappa il meteorite arriva da sinistra, passa sopra Roma e poi prosegue fino alla parte centrale della Russia dove sappiamo che fine ha fatto.

Il meteorite passa sopra Roma?

Ebbene si. ricostruendo la traiettoria percorsa dal meteorite, e’ stato evidenziato come questo corpo sia passato praticamente sopra la citta’ di Roma. Cosa significa questo? Se il corpo avesse avuto una traiettoria di avvicinamento leggermente diversa dal punto di vista angolare, in particolare piu’ inclinato rispetto alla linea di terra, quello che e’ successo in russia sarebbe potuto accadere in Italia, ed in particolare nella zona romana. Analogamente, mentre il meteorite passava, la Terra stava ovviamente ruotando su se stessa. Se ci fosse stata un differenza temporale anche solo di un paio d’ore, nel punto in cui e’ avvenuto l’impatto poteva esserci l’Italia o comunque l’Europa al posto di Chelyabinsk.

Il mio non e’ ovviamente un discorso del tipo “mors tua vita mea”, ma semplicemente una considerazione oggettiva su quanto accaduto. Come visto anche nei post precedenti, il meteorite e’ caduto in una regione della Russia popolata, ma non densamente come potrebbe essere Roma o una qualsiasi altra zona dell’Europa. Questo solo per dire che le conseguenze dell’impatto potevano essere molto piu’ dannosse di quelle che in realta’ sono state.

Con il senno di poi, possiamo certamente dire che nella sfortuna di avere un meteorite impattante sulla Terra, siamo stati molto fortunati. I danni, ma soprattutto i feriti, potevano essere molti di piu’.

Detto questo, ci tengo a sottolineare un altro punto di cui abbiamo gia’ parlato. Il caso russo e’ completamente scorrelato dal passaggio di 2012 DA14 di cui abbiamo parlato in passato. Come anticipato, questo meteorite aveva un orbita e tempi di passaggio completamente differenti rispetto al meteorite russo. Anche se questi concetti dovrebbero gia’ essere chiari a tutti, in rete ancora oggi si trovano ipotesi assurde che vorrebbero far credere che quanto accaduto in Russia e’ stato causato da un pezzo di 2012 DA14, o ancora peggio che gli scienziati avessero calcolato male la traiettoria di 2012 DA14 che in realta’ e’ caduto su Chelyabinsk. Queste considerazioni assurde lasciano ovviamente il tempo che trovano. Come detto tante volte, anche solo dal punto di vista del diametro, il meteorite russo era un sassolino rispetto a 2012 DA14. Se quest’ultimo avesse impattato la Terra, le conseguenze non sarebbero certo state qualche vetro frantumato o 1200 feriti da schegge.

Per fugare ogni dubbio, vi mostro un’immagine molto interessante in cui si vedono sia la traiettoria di avvicinamento del meteorite russo, sia quella del passaggio di 2012 DA14:

Il meteorite russo confrontato con 2012 DA14

Il meteorite russo confrontato con 2012 DA14

Come potete vedere, i due corpi prima di tutto arrivano da parti opposte rispetto alla Terra. Inoltre, se vi soffermate sugli orari indicati nel disegno, vedete bene che quando e’ accaduto il fatto russo, DA14 era ancora troppo lontano dalla Terra.

Facciamo anche un’altra considerazione aggiuntiva su questo disegno. Come vedere, il meteorite russo si e’ avvicinato alla Terra dala direzione del Sole. Questo rende il corpo meno visibile e giustifica in parte la non osservazione preventiva dalla Terra. Dico “in parte” perche’ ovviamente le dimensioni di questo meteorite erano troppo piccole rispetto a quelle generalmente cercate dal programma NEO della NASA. Stiamo infatti parlando di un corpo di soli, si fa per dire, 10-15 metri di diametro. Come sappiamo, gli oggetti orbitanti e catalogati come potenzialmente pericolosi per la Terra, hanno diametro sensibilmente maggiore. Di questi aspetti abbiamo parlato in dettaglio in questo post:

Asteroidi: sappiamo difenderci?

Solo per completezza, visto che in questi giorni mi e’ stato chiesto in diverse occasioni, vi riporto anche una foto molto interessante di un frammento rcuperato in Russia:

Composizione chimica di un frammento trovato in Russia

Composizione chimica di un frammento trovato in Russia

Questa immagine e’ importante per due aspetti. Prima di tutto, dimostra che sono stati trovati frammenti nella zona. Non ci crederete, ma in rete c’e’ anche chi cerca di convincere che non esistono frammenti del meteorite perche’ in realta’ non si e’ trattato di un evento di questo tipo, bensi’ della caduta di un astronave aliena. Sembra assurdo, ma purtroppo c’e’ anche chi, anche sulla TV pubblica, cerca di convincere adducendo motivazioni di questo tipo.

L’altro aspetto, questa volta scientifico, che rende la foto molto interessnate e’ invece la percentuale di elementi trovati dall’analisi del frammento. Dai valori riportati si evince che il corpo fosse una condrite ordinaria, cioe’ una roccia dotata delle stessa composizione dei corpi freddi che si sono formati nelle prime fasi del sistema solare primordiale.

Le condriti sono dunque molto antiche, ma anche molto frequenti nel sistema solare. Si stima che circa l’85% dei corpi che cadono sulla Terra siano delle condriti ordinarie.

Se ci limitiamo al punto di vista economico, il fatto di avere frammenti cosi’ ordinari fa anche diminuire il valore commerciale di questi ritrovamenti. Come infatti abbiamo visto in questo post:

Primi segnali della fine del mondo?

Esiste addirittura un mercato online di compra-vendita di frammenti di metoriti. In alcuni casi, i prezzi possono raggiungere cifre davvero esorbitanti.

Questo ultimo punto risponde ache alla curiosita’ di molti lettori che mi hanno chiesto di cosa fosse composto il meteorite russo.

Concludendo, lo studio visto mostra come le conseguenze della caduta del meteorite potevano essere molto piu’ dannose di quanto in realta’ sono state. In condizioni solo di poco diverse, il corpo avrebbe potuto impattare, invece che in una regione degli Urali, in Europa o peggio ancora sulla citta’ di Roma. In questo caso, i danni provocati sarebbero stati senza dubbio molto piu’ gravi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il raggio della morte

29 Dic

Nel post precedente:

Haarp, la causa di tutti i mali!

siamo tornati a parlare di Haarp e, come vi avevo anticipato, questa discussione sara’ da tenere a mente per la prossima notizia di cui vorrei parlarvi.

Come anticipato, in rete in questi ultimi giorni si sta tornando a parlare molto insistentemente di onde ELF anche in relazione con il cosiddetto “raggio della morte”. Con questo termine, si indica un ipotetico raggio di onde elettromagnetiche che sarebbe in grado di provocare effetti molto catastrofici sul bersaglio mirato. Stando a quanto trovate in rete, l’applicazione di questo raggio sarebbe in grado di distruggere intere zone del pianeta, di spostare in dimensioni parallele corpi ed oggetti, di spegnere i motori a combustione e chi piu’ ne ha, piu’ ne metta.

Prima di lanciarci nell’analisi di queste cose, vorrei aprire una parentesi che mi sta molto a cuore. Su internet leggete che gli studi su questa tipologia di segnali risalgono al noto fisico Nikola Tesla. Proprio di Tesla vorrei parlare un attimo.

Tesla e’ divenuto un personaggio molto citato e a cui molti siti complottisti sono affezionati. Il mio personale punto di vista e’ che Tesla deve essere considerato un genio per i suoi studi pioneristici nella trasmissione dei segnali wireless. Molti degli studi di Tesla trovano oggi larga applicazione proprio nelle tecnologie senza fili. Gli studi fatti da questo grande fisico sono un punto di riferimento nello studio sia delle antenne che dei ricevitori.

Perche’ dico questo? Semplicemente perche’ in rete gli studi di Tesla hanno assunto connotati quasi stregoneschi e magici. Speculare sulle invenzioni di questo scienziato non fa altro che sporcare la sua memoria. In tutto questo, un ruolo molto importante lo hanno certamente i media ed i vari governi. Non e’ un mistero che gli studi di Tesla siano stati visti con molto sospetto proprio per le possibili applicazioni belliche. Come vedete, non sto assolutamente nascondendo il mio punto di vista ne’ sto disegnando tutto con rose e fiori. Parlare pero’ di possibili invenzioni che avrebbero rivoluzionato le nostre vite e che, per questo governo o per quest’altro complotto, sono tenute nascoste, serve solo a mitizzare in modo sbagliato Nikola Tesla.

Fatta questa premessa, torniamo a parlare di questo raggio della morte.

Anche in questo caso, i primi studi a riguardo sono effettivamente di Tesla e, anche in questo contesto, in rete si e’ creata un’aura di mistero del tutto fuori luogo.

Abbiamo gia’ detto di cosa sarebbe capace questo raggio della morte, cerchiamo di capire quali sono le prove scientifiche portate dai vari siti complottisti a riguardo e se veramente queste conseguenze sono possibili.

Come potete facilmente immaginare, secondo questa concezione, il sistema Haarp sarebbe proprio la pistola in grado di sparare questo raggio della morte. Cerchiamo dunque di capire quali sono le verita’ scientifiche portate come prova dai tanti siti che parlano di queste applicazioni.

In questo articolo:

Haarp e terremoti indotti?

abbiamo gia’ smentito la possibilita’ che il sistema Haarp possa essere utilizzato per innescare terremoti o per cambiare i valori del campo magnetico terrestre.

Accanto a queste bufale, trovate altre due ipotesi di utilizzo del raggio della morte alquanto curiose: l’episodio di Tunguska e la scomparsa dell’isola di Bermeja.

Andiamo con ordine e cerchiamo di capire.

Alberi abbattuti a Tunguska

Alberi abbattuti a Tunguska

Il 30 giugno 1908 a Tunguska, localita’ della Siberia, una violenta esplosione si verifico’ intorno alle 7 del mattino. L’onda d’urto fu talmente grande da abbattere 60 milioni di alberi su una superficie di 2000 Km quadrati di Tundra. Il rumore dell’esplosione venne avvertito fino a 1000 km di distanza.

Bene, secondo le fonti internet, questa esplosione venne provocata proprio da Tesla che stava conducendo un esperimento sul raggio della morte e lo invio’ in direzione della Siberia.

Ovviamente capite bene l’assurdita’ di questa affermazione. Non vi e’ assolutamente nessuna prova scientifica a sostegno di questa ipotesi. Come forse molti di voi gia’ sanno, l’ipotesi piu’ probabile per l’evento di Tunguska e’ quella di un asteroide caduto sulla Terra. Nel corso del XX secolo, diverse spedizioni sono state fatte in Siberia per cercare di determinare il punto preciso dell’impatto e il cratere formato dall’asteroide. In particolare, l’ultima spedizione, organizzata dall’universita’ di Bologna e che comprende esperti in diverse discipline, ha fatto uno studio molto dettagliato della zona vedendo in particolare la distribuzione della ricrescita degli alberi e gli anelli di accrescimento dei tronchi. Da questo studio si e’ determinato, con buona esattezza, che il punto preciso dello scontro con l’asteroide dovrebbe essere nel lago Cheko. In particolare, il fondo del lago e’ conico e si sarebbe formato proprio in seguito all’impatto con questo corpo. A riprova di questo, le carte dei primi del ‘900 non riporterebbero nessun lago in quella zona, proprio a dimostrare la formazione dello specchio d’acqua a seguito dello scontro.

L’altro esempio molto citato in rete per l’applicazione del raggio della morte, sarebbe invece la scomparsa dell’isola di Bermeja nel golfo del Messico. Cosa significa “scomparsa di un isola”?

Una mappa del 1846 con l'isola di Bermeja

Una mappa del 1846 con l’isola di Bermeja

Diverse mappe, fino al XIX secolo, riportano la presenza di questa isola nel golfo del Messico vicino al famoso triangolo delle Bermude. Oggi pero’ di questa isola non si ha traccia. Con questo intendo che molte spedizioni sono andate nella zona indicata dalle carte senza trovare assolutamente nessuna traccia dell’isolotto. Che fine ha fatto quest’isola? In questo contesto, vi viene detto che proprio un esperimento di Haarp sarebbe stato condotto in quella zona sparando questo famoso raggio della morte. L’effetto di questo fascio sarebbe talmente potente da aver disintegrato l’isolotto o anche, secondo ipotesi ancora piu’ fantasiose, averlo spedito in una dimensione parallela.

E’ possibile che sia colpa di Haarp? Assolutamente no! Vi spiego anche il perche’ facendo una rapida considerazione. Gia’ nel 1997 una spedizione fatta dall’Universita’ Autonoma del Messico aveva invano cercato questa isola. Bene, nel 1997 Haarp non era ancora in funzione dal momento che l’installazione completa a piena potenza e’ stata finita solo nel 2007. Come e’ possibile che una cosa che ancora non esisteva abbia fatto scomparire un’isola? Per rispondere subito ad eventuali accuse, i primi prototipi di Haarp, risalenti al 1994, avevano a disposizione solo un numero molto limitato di antenne con la possibilita’ di dimostrare la fattibilita’ del progetto.

Capite bene l’assurdita’ anche di queste affermazioni. Per completezza, vi dico anche che la storia di Bermeja e’ un classico nella teoria del complotto. Come detto sopra, questo isolotto dovrebbe trovarsi molto vicino alla zona del famoso triangolo delle Bermude. La scomparsa dell’isola viene molto spesso utilizzata anche come prova che qualcosa di misterioso ci sia sotto questo fazzoletto di mare. Come vedete, e’ una storia per tutte le stagioni e per tutte le teorie che volete confermare.

Il motivo vero per cui l’isola di Bermeja non esiste piu’, in realta’ non e’ ancora noto. Ci sono diverse ipotesi che vengono fatte a riguardo. La prima e’ che ci sia un errore sulle mappe fatte fino al XIX secolo. Personalmente trovo questa ipotesi assurda, dal momento che diverse mappe, fatte in periodi differenti, da cartografi diversi, riportano la presenza di questa isola piu’ o meno sempre nella stessa posizione. Altra ipotesi e’ che l’isola sia stata sommersa a causa dell’innalzamento del livello del mare. Questa ipotesi potrebbe essere verosimile, ma sarebbe interessante capire l’altitudine massima dell’isola per capire di quanto si sarebbe innalzato il livello delle acque. Ulteriore ipotesi, forse piu’ probabile, vedrebbe invece uno sprofondamento dell’isola a causa di un cedimento strutturale o comunque un inabissamento dovuto a fenomeni tellurici nella zona.

Esiste anche un’ultima ipotesi che vi accenno, ma solo per rimanere in ambito complottista. Secondo alcune fonti, l’isola sarebbe stata distrutta dalla CIA per ampliare la zona di mare degli Stati Uniti. Il motivo di questo sarebbe proprio il fatto che l’isola segnerebbe il confine tra lo spazio di mare messicano e quello statunitense. In questo caso, la distruzione dell’isola sarebbe stata necessaria solo per spostare il confine territoriale tra i due paesi. Capite bene che su questa ipotesi non ci sono assolutamente prove ne’ scientifiche ne’ tantomeno politiche, ma solo fantasiose teorie complottiste.

Concludendo, le presunte prove portate a sostegno dell’utilizzo del raggio della morte, sono del tutto costruite a tavolino e assolutamente senza alcun riscontro scientifico. In particolare, la scomparsa dell’isola di Bermeja la trovate in diverse teorie del complotto utilizzata per sostenere l’ipotesi che fa piu’ comodo in base al contesto. Non fatevi confondere da tante notizie buttate li’ solo per aggiungere carne al fuoco o mistero al racconto. Sfruttate la rete internet nel migliore dei modi, confrontando diverse notizie e cercando sempre di informarvi autonomamente.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

 

 

Terremoti, Pollino, Giuliani, Radon, L’Aquila …

27 Ott

In questi giorni, ho ricevuto diverse mail di lettori del blog, che chiedono maggiori informazioni sullo sciame del Pollino e sulla sua evoluzione. Alla luce dell’ultima scossa di M5 registrata a Mormanno, credo sia necessario fare un punto della situazione.

Epicentro della scossa del 26 Ottobre nel Pollino

Abbiamo parlato dello sciame del Pollino in questo post:

La sequenza del Pollino

A differenza di quanto affermato da qualcuno, le conclusioni non erano affatto una rassicurazione per gli abitanti della zona, dal momento che l’evoluzione di questi sciami, come riportato nel testo, non sono affatto univoche. Per completezza, vi riporto esattamente le conclusioni di questo post:

Storicamente, le evoluzioni di sciami di questo tipo non sono affatto univoche. Ci sono moltissimi esempi in cui lo sciame, dopo vari periodi di attivita’, ha smesso senza un evento di grande intensita’. In questo caso, l’energia accumulata nelle faglie e’ stata dissipata mediante piccole e medie scosse senza causare danni. Al contrario, vi sono esempi di sciami che sono culminati con eventi di grande intensita’, come nel caso dell’Abruzzo nel 2009.

Come potete leggere, uno sciame prolungato di questo tipo puo’ esaurirsi senza presentare scosse di magnitudo elevata o, come nel caso dell’Aquila del 2009, terminare con una scossa di grande intensita’.

Ovviamente non siamo qui a fare le bucce su chi ha detto cosa, ma vogliamo analizzare meglio la possibile evoluzione di questo sciame.

Proprio in queste ore, e’ arrivata la notizia che Giampaolo Giuliani avrebbe dichiarato che, dalle misurazioni del Radon nella zona, ci sara’ una nuova forte scosse nel Pollino nel giro di 24/48 ore da oggi.

L’annuncio e’ molto importante ed estremamente grave. Sulla rete si sta diffondendo nuovamente il panico e molti utenti si chiedono cosa aspetti il governo, la protezione civile o chi di dovere ad evacuare tutti i paesi interessati.

Prima di scendere nel catastrofismo, cerchiamo di analizzare in maniera scientifica non solo questo caso, ma la ricerca del radon come precursore sismico.

In questo blog, abbiamo gia’ parlato della possibilita’ di prevedere terremoti mediante lo studio di particolari eventi identificati come precursori sismici:

Allineamenti, terremoti e … Bendandi

Riassunto sui terremoti

Come abbiamo visto, ad oggi non esiste un precursore sismico sicuro, cioe’ che sia univocamente correlato con l’insorgenza di eventi sismici. Nonostante questo, molte analisi statistiche possono essere fatte per studiare l’evoluzione dei terremoti, ma non per prevedere esattamente la data, il luogo e l’intensita’ di nuovi eventi:

Analisi statistica dei terremoti

Dati falsi sui terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Terremoti: nuove analisi statistiche

Fatta questa doverosa premessa, torniamo al Radon. La prima cosa che dobbiamo chiederci e’: chi e’ Giampaolo Giuliani?

Giuliani e’ un tecnico del settore scientifico, che ha collaborato con diversi esperimenti, dapprima per l’Istituto Nazionale di Astrofisica (INAF) poi per l’Istituto Nazionale di Fisica Nucleare (INFN). E’ di origine aquilana e lavora attualmente presso i Laboratori Nazionali del Gran Sasso sempre dell’INFN.

Solo per completezza di informazione, come detto in precedenza si tratta di un tecnico diplomato, non di un ricercatore come spesso viene scritto sui giornali o su diversi siti internet. Faccio questa premessa non per un discorso classista, ma semplicemente per anticipare che le ricerche condotte da Giuliani sul Radon non vengono effettuate per conto dell’Istituto di Fisica, ma a puro titolo personale fuori dall’orario di lavoro.

Arrivando al Radon, prima ancora di Giuliani, e questa volta in ambito di ricerca INFN e universitaria, vennero condotti molti studi sulla correlazione tra emissione di Radon e deformazioni delle rocce del sottosuolo. Gia’ nel 1998, i ricercatori dell’Universita’ di Roma 3, raccolsero molti dati che sembravano evidenziare uan relazione tra il radon emesso e la sismicita’ locale. Ricerche continuate poi dall’ENI insieme all’Universita’ di Bologna, ma che non evidenziarono una correlazione sempre ripetibile tra gli eventi. Sempre in quegli anni, l’esperimento ERMES dell’INFN studiava la relazione del radon con la deformazione delle rocce, utile sempre in ambito geofisico ma anche per lo studio della spettrometria nucleare negli ambienti del laboratorio stesso che, come tutti sanno, e’ all’interno della montagna.

A seguito di queste ricerche a cui collaboro’, Giuliani si appassiono’ a questi studi continuando autonomamente la ricerca della relazione possibile tra Radon ed eventi sismici. I primi dati vennero raccolti in concomitanza del terremoto del 2000 in Turchia, senza pero’ mostrare evidenze tra emissioni di gas e terremoti.

Successivamente il gruppo di ricerca formato dallo stesso Giuliani creo’ una prima rete di monitoraggio del radon, studiando statisticamente anche l’insorgenza temporale di terremoti e, nel 2006, giunse ad una prima conclusione:

Abbiamo notato che la maggior parte dei terremoti si verificano durante i mesi invernali, o meglio, quando il sistema terra-luna è nel perielio, quindi più vicino al sole. In inverno, quando la terra subisce uno stress gravitazionale maggiore, si registrano più eventi sismici (60-70%) che in estate. La percentuale si mantiene ancora più alta quando c’è la luna nuova. Il magma che scorre sotto la crosta terrestre risente delle attrazioni gravitazionali, come accade per gli oceani.

Raccogliando i dati sul radon, Giuliani registro’ molti sismi e li analizzo’ statisticamente arrivando a questa conclusione. Questa pero’ e’ totalmente in contrasto con i dati che e’ possibile consultare liberamente dal sito del USGS. Analizzando infatti i dati di questo database, di cui abbiamo parlato anche nei precedenti post, non si evidenzia nessuna correlazione di questo tipo, ne’ tra terremoti e stagione dell’anno, ne’ tantomeno tra terremoti e fasi lunari.

Andando avanti nel tempo, Giuliani balzo’ nuovamente alle cronache nel marzo 2009 a seguito della previsione di Sulmona. Il 29 Marzo, Giuliani telefono’ al sindaco di Sulmona per avvertirlo che, da li a pochissime ore, un forte sisma sarebbe avvenuto in citta’. La notizia si sparse velocemente creando il panico ta le popolazioni del posto, ma il sisma non avvenne mai. A seguito di questo, Giuliani fu denunciato per procurato allarme ma poi assolto dal GIP per aver agito in buona fede, come vedremo meglio in seguito.

Facciamo il punto della situazione. Siamo a Marzo 2009, l’Aquila (e la zona circostante) e’ interessata da uno sciame sismico di cui, come oggi nel Pollino, non si conosce la possibile evoluzione. Il 29 Marzo, Giuliani annuncia un terremoto a Sulmona che non avviene. Come sappiamo, il 6 Aprile ci sara’ la forte scosse dell’Aquila. Ma torniamo indietro di qualche giorno rispetto al 29 Marzo e al caso di Sulmona e andiamo al 25 Marzo. In questa data, Giuliani rilascia un’intervista al giornale “Il capoluogo d’Abruzzo” in cui afferma, a proposito dello sciame in corso nella regione:

Quest’anno questo sciame sismico è stato più intenso e con delle scosse più forti, che sono state rilevate dalla popolazione. Lo sciame non è un fenomeno preparatorio ad un evento sismico più rilevante, né ha correlazione con grandi piogge o nevicate, come ho sentito dire da molti. È un fenomeno normale per una zona come quella aquilana.

e ancora:

Mi sento di poter tranquillizzare i miei concittadini, in quanto lo sciame sismico andrà scemando con la fine di marzo.

Vi ricordo che siamo al 25 Marzo 2012. A riprova di quanto affermato, vi riporto anche il link con il riassunto dell’intervista, riportato nel sito Abruzzo24ore e pubblicato proprio il 6 Aprile dopo la forte scossa dell’Aquila:

Abruzzo24ore intervista Giuliani

Al 25 Marzo, il signor Giuliani tranquillizzava i propri cittadini che lo sciame sarebbe terminato nel giro di una settimana, mentre, come sappiamo bene, nel giro di 2 settimane arrivo’ un terremoto di M6.3 e con le conseguenze che conosciamo bene.

Nei giorni successivi a questa scossa principale, Giuliani affermo’ di aver visto quella notte un forte aumento nell’emissione di Radon dal sottosuolo, ma di non aver avvertito nessuno per la paura a seguito della denuncia di Sulmona.

Cerchiamo dunque di fare il punto della situazione. Dal punto di vista scientifico, non vi e’ nessuna evidente correlazione tra aumento delle emissioni di radon nel sottosuolo e terremoti. Per meglio dire, possono esserci aumenti di emissioni prima, durante o dopo un terremoto, come possono avvenire forti terremoti senza aumenti significativi di questo gas. Inoltre, possono avvenire aumenti di emissione di radon dal sottosuolo, senza che poi ci sia un terremoto in quelle zone. In particolare, il caso di Sulmona rientra in quest’ultima categoria a dimostrazione del fatto che Giuliani abbia agito in buona fede il 29 Marzo.

Cosa significa questo?

Semplicemete, la sola analisi delle emissioni di radon non costituisce un precursore sismico. Non stiamo qui a giudicare Giuliani, ma e’ stato piu’ volte dimostrato dalla scienza ufficiale come queste correlazioni non permettano di prevedere terremoti.

Ora, cosa possiamo dire riguardo al Pollino? Alla luce di quanto affermato, non siamo a tutt’oggi in grado di poter prevedere con sicurezza un terremoto. Parlare con certezza di un evento distruttivo che avverra’ nelle prossime ore, serve solo ad incrementare la polemica su questi argomenti, come visto in questo post:

Terrorismo psicologico

Nessuno puo’ dirvi con certezza cosa potrebbe accadere nelle prossime ore nel Pollino. Non stiamo facendo una scommessa a chi indovina l’evoluzione. Dal nostro canto, alla luce di quanto detto, rimane valida la conclusione dell’articolo precedente. Sciami di questo tipo possono esaurirsi gradualmente nel tempo attraverso scosse di piccola intensita’ oppure dar luogo ad eventi di elevata magnitudo.

Siamo sempre convinti che la politica dovrebbe occuparsi di mettere in sicurezza gli edifici della nostra penisola. Siamo un paese sismico e su questo non possiamo farci nulla. Fare prevenzione, attuare norme sismiche, non solo per le nuove costruzioni, ma anche mettendo in sicurezza gli edifici piu’ vecchi e’ l’unico modo per arginare in modo sostanziale i terremoti che potrebbero esserci nel futuro.

Per continuare ad analizzare tutte le profezie sul 2012, ma soprattutto per affrontare in modo scientifico argomenti troppo spesso tralasciati dalla scienza ufficiale, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.