Tag Archives: neutrini

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Materia oscura intorno alla Terra?

7 Gen

Come sapete, e’ sempre interessante leggere le notizie nelle sezioni di scienze di alcuni giornali, si trovano sempre delle chicche di tutto rispetto. Negli ultimi giorni, sono apparsi tantissimi articoli che parlano di una nuova sensazionale scoperta. Un ricercatore dell’universita’ del Texas, tale Ben Harris, avrebbe condotto una serie di misure utilizzando i satelliti delle costellazioni gps di Galileo e Glonass.

Se volete maggiori info sul gps, su come funziona e della scienza che c’e’ sotto, abbiamo pubblicato un articolo anche su questo:

Il sistema di posizionamento Galileo

Tornando alla notizia principale, cosa si sarebbe scoperto da queste misure: utilizzando i dati inviati dai satelliti negli ultimi 6 mesi, si sarebbe evidenziata un’anomalia del valore della massa della Terra rispetto a quella comunemente conosciuta. L’entita’ di questa differenza e’ tra lo 0,005 e lo 0,008% del valore noto.

Come si spiega questa differenza?

Dal momento che il moto dei satelliti e’ determinato dall’attrazione gravitazionale che il nostro pianeta esercita, in realta’ che anche i satelliti esercitano sulla Terra, questa differenza deve essere dovuta ad un’anomalia gravitazionale. Una delle spiegazioni date da Harris e’ che sia presente un disco di materia oscura intorno al nostro pianeta, tale da influenzare l’attrazione gravitazionale.

Di materia oscura abbiamo parlato in questo articolo:

La materia oscura

Poiche’, secondo le ipotesi, questa forma non convenzionale di energia esercitrebbe attrazione gravitazionale, la sua presenza influenzerebbe il moto dei satelliti falsando appunto la massa della Terra rispetto al valore conosciuto. Per essere precisi, dalle misure condotte, questo anello, posizionato intorno all’equatore terrestre, avrebbe uno spessore di 191 Km e una larghezza di ben 70000 Km.

Piccola parentesi, oltre ai tanti giornali, anche i siti catastrofisti hanno riportato la notizia, ovviamente a modo loro e aggiungendo dettagli inutili quanto inventati. Non manca certo chi sostiene che l’anello sia stato messo li da scienziati compiacenti o da extraterrestri che stanno iniziando la fase di conquista del nostro pianeta. Non credo sia il caso di ragionare su queste osservazioni che lasciano davvero il tempo che trovano.

Detto questo, ragioniamo un attimo sulla notizia, cercando di fare qualche considerazione aggiuntiva.

Come avrete notato, ho riportato, al contrario di molti giornali, tutta la notizia al condizionale. Non e’ assolutamente una licenza di stile, ma l’ho fatto perche’ quanto riportato non e’ assolutamente certo.

Vi spiego il perche’.

Come trovate in rete, le misure in questione sono state presentate da Harris nel corso del meeting annuale dell’unione geofisica americana, anche detta AGU. Ovviamente si tratta di misure reali e scientifiche, che pero’ vanno considerate come “preliminari”.

Permettetemi una considerazione statistica. Come detto, la differenza rispetto alla massa conosciuta e’ tra lo 0,005 e lo 0,008%. Ora, tra 0,005 e 0,008, la differenza non e’ assolutamente poca. In realta’, l’ampiezza di questo intervallo ci fa capire la precisione delle misure fatte. Per essere precisi, i due valori sono ottenuti utilizzando una volta la costellazione Glonass e un’altra quella Galileo. Il fatto che due misure indipendenti diano valori cosi’ diversi, non e’ assolutamente un dettaglio trascurabile.

Detto questo, durante la stessa riunione, dopo la presentazione dei risultati da parte di Harris, e’ stato evidenziato come le misure siano in realta’ falsate perche’ mancanti di correzioni molto importanti. Quali? Nella modellizzazione del moto dei satelliti, non sono state incluse le attrazioni da parte del Sole e della Luna. Inoltre, mancano da includere le correzioni dovute alla relativita’, assolutamente necessarie, come potete leggere nell’articolo sul sistema Galileo, per ottenere risultati veritieri.

La mancanza di queste correzioni, che potrebbero modificare sostanzialmente il risultato preliminare, fa si che i dati ottenuti siano del tutto preliminari. In questo stato, e’ assolutamente fuorviante e frettoloso fare conclusioni come quelle riportate in precedenza del disco di materia oscura.

Perche’ si e’ fatto questo?

Esistono varie risposte possibili. La prima, un po’ cattiva, e’ che si e’ voluto presentare un lavoro incompleto solo per attirare un po’ di attenzione. L’altra possibilita’ e’ che si sia voluta mostrare questa differenza rispetto al valore della massa conosciuta solo per ricevere commenti utili con cui correggere il tiro. Entrambe le risposte sono possibili. Molto spesso alle conferenze si presentano risultati preliminari solo per valutare la risposta della comunita’ scientifica di riferimento. Ultimamente pero’, si puo’ avere una fuga di notizie che porta ad articoli, come quelli sui nostri giornali, che puntano ala scoperta del secolo.

Concludendo, i dati ottenuti mostrano ovviamente una differenza della massa della Terra rispetto a quella nota. Questa discrepanza potrebbe essere dovuta ad un errore di calcolo, a correzioni molto importanti non ancora conteggiate o, anche, alla presenza di materia oscura intorno alla Terra. Personalmente, credo sia presto per parlare di quest’ultima ipotesi. Questa storia, e lo dico a malincuore, mi ricorda molto quella della velocita’ dei neutrini misurata ad Opera, poi smentita con la testa tra le gambe.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La collaborazione scientifica

8 Ago

Cosa c’entra un neutrino, una delle particelle piu’ sfuggenti conosciute, con un capodoglio, uno dei mammiferi piu’ grossi del pianeta? Assolutamente niente direte voi, e invece sbagliate.

Senza giocare agli indovinelli, vi vorrei raccontare di una ricerca, a mio avviso molto importante, nata con uno scopo e che in corso d’opera ne ha trovato uno ulteriore altrettanto interessante.

Come sapete, lo studio dei neutrini cosmici e’ molto importante perche’ attraverso la misura del numero di queste particelle, e’ possibile individuare e studiare sorgenti astronomiche come stelle di neutroni, buchi neri, pulsar, ecc. Il problema di queste particelle e’ che, come si dice in fisica, hanno una “sezione d’urto” molto piccola, cioe’ hanno una probabilita’ di interagire con la materia estremamente bassa. Per poter osservare i neutrini e’ prima di tutto necessario eliminare le altre tantissime particelle che arrivano dal cosmo e che rendono la loro osservazione impossibile dal momento che questi segnali sarebbero completamente sommersi in mezzo a tanti altri. A questo punto, per contare i neutrini si devono sfruttare le reazioni poco probabili che queste particelle hanno con alcuni mezzi. Una delle tecniche maggiormente utilizzate e’ quella del rivelatore Cherenkov ad acqua. Passando attraverso questo liquido, i neutrini possono interagire producendo radiazione Cherenkov, cioe’ una piccolissima scia luminosa indicante appunto il loro passaggio. Vista la bassa probabilita’ di avere questi aventi, e’ necessario avere dei volumi di acqua molto grandi e, ovviamente, dei sensori in grado di captare l’eventuale luce.

Detto questo, molti osservatori per neutrini sono stati realizzati posizionando rivelatori sul fondo dei mari. Questa soluzione offre un ottimo schermo alle altre particelle e soprattutto un notevole volume di liquido gratuito e sempre disponibile.

Uno degli ultimi esperimenti in corso di realizzazione e’ chiamato Km3net dell’Istituto nazionale di fisica nucleare a cui collaborano molti ricercatori italiani e stranieri. Questo esperimento prevede il posizionamento di alcune torri sottomarine nel mediterraneo, su cio posizionare sfere di fotomoltiplicatori, cioe’ dispositivi in grado di traformare le tracce luminose lasciate dai neutrini in segnali elettrici leggibili.

Una delle sfere di Km3net con i fotomoltiplicatori

Una delle sfere di Km3net con i fotomoltiplicatori

Una delle stazioni di Km3net e’ stata posizionata in Sicilia, 80 Km a largo di Capo Passero. I fotomoltiplicatori sono stati posizionati su una torre di circa 400 metri, ancorata al fondo del mare che in quel punto ha una profondita’ di circa 2000 metri.

Sfruttando la particolare posizione della torre, in collaborazione con biologi marini di varie universita’, si e’ ben pensato di installare sulla struttura anche misuratori acustici. Questa soluzione e’ stata adottata perche’ consente di monitorare il passaggio di capodogli ma soprattutto consente di mappare l’inquinamento acustico sottomarino.

Perche’ si parla di inquinamento acustico sottomarino?

Come potete facilmente immaginare, il passaggio di navi nei mari, provoca rumori in profondita’. Proprio questi rumori possono disturbare i mammiferi acquatici che si trasmettono segnali acustici sottomarini. Secondo alcune teorie, questi disturbi possono notevolmente ridurre la distanza di comunicazione tra capodogli ma, soprattutto, potrebbero essere responsabili degli spiggiamenti che ogni tanto si verificano sulle coste.

Gia’ ai tempi del primo prototipo di Km3net in Sicilia nel 2005, lo strumento era riuscito ad ascoltare il passaggio di questi stupendi mammiferi. Ora, con il rivelatore finale, piu’ grande e performante, oltre ad individuare il loro passaggio, i sensori sono in grado di determinare anche la grandezza dei mammiferi. Questa soluzione e’ fondamentale per fare un censimento della popolazione di capodogli nei nostri mari.

Da quando e’ stato installato, questo rivelatore non solo e’ riuscito ad osservare il passaggio di diversi animali, ma soprattutto si e’ scoperto che la popolazione e’ maggiore di quanto ci si aspettasse e che i capodogli si trovano anche in zone che prima si pensavano poco battute da questi animali.

Come potete vedere, si tratta di uno splendido esempio di ricerche congiunte, in cui con una sola spesa si riesce a mettere insieme diversi campi di studio, con analisi diverse ma tutte molto importanti. Sicuramente, dal punto di vista biologico, i rivelatori installati consentiranno di avere una stima molto precisa del numero di cetacei presenti nei nostri mari, della loro grandezza ma, soprattutto, consentiranno di studiare con precisione l’effetto che l’inquinamento acustico sottomarino puo’ avere su questi animali. A questo punto non resta altro da fare che aspettare di raccogliere tanti dati per avere una buona statistica sia di capodogli che di neutrini.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

IceCube e l’esplorazione del cosmo con i neutrini

22 Mag

Nell’articolo precedente, abbiamo parlato di neutrini:

EniGma con Nadir Mura

come visto nell’intervista, e come sicuramente ricorderete, queste particelle sono balzate agli onori delle cronache soprattutto a seguito della misura, poi trovata affetta da errori strumentali, che voleva i neutrini viaggiare ad una velocita’ superiore a quella della luce.

Ora, vorrei tornare nuovamente a parlare di queste particelle, a causa di una nuova misura fisica che sta facendo molto discutere.

Come sappiamo bene, i neutrini sono particelle molto particolari soprattutto a cusa della loro bassa probabilita’ di interazione con la materia, che li rende difficilmente rivelabili. Fino a pochi ani fa, si pensava addirittura che i neutrini non avessero massa, cosa smentita poi grazie alla ricerca e all’osservazione dell’oscillazione dei neutrini, cioe’ della proprieta’ di queste particelle di trasformarsi durante il cammino da una famiglia all’altra.

Proprio a causa di queste proprieta’ cosi’ particolari, i neutrini vengono studiati in diversi esperimenti e, molto spesso, in condizioni quasi estreme. Come detto, la bassa probabilita’ di osservazione, impone agli esperimenti di eliminare all’origine tutto il “rumore” da altre fonti, cioe’ quanto piu’ possibile, ogni altro evento prodotto da particelle diverse e che rischierebbe di coprire, a cuasa della maggiore probabilita’, i neutrini da rivelare.

Proprio per qusto motivo, si sente spesso parlare di rivelatori disposti in angoli remoti del mondo, all’interno delle miniere, sotto kilometri di roccia come nei laboratoridel Gran Sasso o anche immersi ad elevate profondita’ nel mare. Il motivo di questo e’, come anticipato, avere uno schermo naturale in grado di fermare le altre particelle lascinado passare i neutrini. Questi ultimi, a causa della bassa probabilita’ di interazione, passano con molta facilita’ kilometri di materiale senza interagire con la materia.

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Dopo questa doverosa introduzione, vorrei parlarvi di IceCube, uno dei maggiori rivelatori di neutrini, costruito addirittura sotto i ghiacci dell’Antartide. IceCube e’ composto da un elevato numero di elementi sensibili, sepolti ad ua profondita’ variabile tra 1500 e 2500 metri di ghiaccio. La matrice cosi’ ottenuta consente di avere una superficie da rivelare dell’odine di 1 kilometro cubo.

Perche’ sto parlando di neutrini ed in particolare di IceCube?

Scopo di questi esperimenti e’ quello di studiare i neutrini provenienti dal sole o dai raggi cosmici, anche per rivelare nuove sorgenti astrofisiche. Il motivo di questo e’ molto semplice: studire le emissioni di neutrini da parte di oggetti nell’universo, consente di ottenere una sorta di telescopio con queste particelle e dunnque poter analizzare, anche in questo modo, lo spazio che ci circonda.

Bene, l’anno scorso, quasi per caso, IceCube ha individuato due neutrini con l’energia piu’ alta mai registrata sulla Terra, dell’ordine del petaelettronvolt. Per capire quanto sia elevata questa energia, basti pensare che LHC, il grande collisore del CERN, fa scontrare particelle con energia di 3.5 teraelettronvolt, cioe’ circa 300 volte inferiore a quella osservata da ICeCube. Durante l’analisi dei dati condotta per studiare questi eventi particolari, ci si e’ accorti che tra il 2010 e il 2012, il rivelatore avrebbe visto 26 eventi di alta energia, circa 10 volte quella di LHC.

Perche’ sono importanti questi eventi? Nel nostro sistema solare, l’unica sorgente di neutrini presente e’ il Sole. Questi pero, avendo energia molto piu’ bassa, non possono aver generato quanto osservato dai fisici di IceCube. Come potete capire, si tratta, con ottima probabilita’, di una sorgente extragalattica, non ancora identificata.

Dai modelli elaborati, le sorgenti di neutrini nello spazio potrebbero essere le esplosioni di Supernovae, i gamma ray burst o i quasar. Nell’idea, come anticipato, di realizzare un telescopio a neutrini dell’universo, molto interessante sarebbe individuare questa sorgente. Purtroppo, ad oggi, questo non e’ stato ancora possibile, soprattutto a causa dei pochi eventi raccolti all’esperimento.

Anche se manca la spiegazione ufficiale, possaimo provare a formulare ipotesi circa l’origine di questi eventi, soprattutto per capire l’importanza di questo risultato.

Dei gamma ray burst abbiamo parlato in questo post:

WR104: un fucile puntato verso la Terra?

Ccome visto, la conoscenza di questi eventi, ma soprattutto, eventualmente, il poter studiare il loro comportamento diretto, ci permetterebbe di aumentare la nostra conoscenza dell’universo e, perche’ no, magari in futuro farci confermare o smentire idee catastrofiste.

In passato, precisamente nel 1987, sulla Terra arrivarono, ad esempio, i neutrini prodotti da una supernova molto distante nella Nube di Magellano. Anche in questo caso, eventi come quelli delle esplosioni di supernovae ci consentono di comprendere meglio importanti meccanismi alla base dell’universo.

Altre ipotesi formulate riguardano invece la materia oscura, di cui abbiamo parlato in questi post:

La materia oscura

Troppa antimateria nello spazio

Come visto, ad oggi, ci accorgiamo della presenza di materia oscura mediante considerazioni indirette. Purtroppo, non e’ stato ancora possibile individuare questa curiosa forma di materia, anche se molte ipotesi sono state formulate. Proprio l’astrofisica a neutrini potrebbe aiutare a sciogliere qualche riserva. Secondo alcune ipotesi infatti, i neutrini potrebbero essere stati prodotti dallo scontro di materia oscura nel centro della nostra Galassia. In questo caso, studiare in dettaglio i parametri dei candidati, aiuterebbe molto ad individuare la sorgente di produzione dei neutrini ma anche, e soprattutto, di ottenere maggiori informazioni sull’origine della Via Lattea e sulla natura della meteria oscura.

Concludendo, IceCube ha individuato 26 neutrini di alta energia che hanno attraversato i suoi rivelatori. Statisticamente, la probabilita’ che si tratti di un errore e’ inferiore  allo 0,004% per cui sara’ interessante analizzare i dati e capire meglio quali test organizzare nel futuro per cercare di risolvere importanti dubbi che ormai da troppo tempo sono in attesa di una spiegazione ufficiale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

EniGma con Nadir Mura

21 Mag

Dopo l’intervista per “Catastrofi nel Mondo” su Rai 2, in cui avevamo parlato di Nibiru:

Catastrofi nel mondo

Nella trasmissione EniGma, in onda in Albania sul canale Digitalb, e’ andata in onda un’intervista che avevo rilasciato qualche tempo fa.

Nell’intervista si parlava dei viaggi nel tempo. In particolare, veniva affrontato il discorso della misura sui neutrini del Gran Sasso e di John Titor. Come potete ascoltare, i miei condizionali si sono poi rivelati giusti. La misura del Gran Sasso e’ stata poi smentita perche’ causata da un errore sperimentale, difficile da prevedere e che ha falsato completamente il risultato.

Ecco il video dell’intervista con Nadir Mura, conosciuto anche in Italia perche’ ha lavorato per diverso tempo in Rai:

Se non conoscete l’albanese, potete andare direttamente al minuto 35:40 per ascoltare il mio pezzo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Sole: quanta confusione!

31 Dic

Come sappiamo bene, il Sole rappresenta da sempre uno degli argomenti piu’ citati e piu’ inflazionati dai siti catastrofisti. Se ci pensiamo e’ naturale. Questa stella consente la vita sulla nostra Terra. Molti di noi sono abituati a vederlo sempre li e a pensarlo immutabile nel corso del tempo. Annunciare teorie allarmanti sul Sole e’ molto semplice. Stiamo parlando di un reattore a fusione estremamente potente e che praticamente si trova dietro l’angolo, solo 8 minuti luce di distanza dalla Terra.

Parlare di emissioni anomale e pericolose da parte del Sole e’ molto semplice e fa facilmente leva sulle persone.

Della nostra stella abbiamo gia’ parlato tante volte, ottimi esempi sono questi post:

Nuova minaccia il 22 Settembre?

– Come seguire il ciclo solare

Ora, come detto piu’ e piu’ volte, per il 2012 era atteso un massimo solare. In realta’ questo e’ quello che molti volevano farci credere dal momento che il massimo del XXIV ciclo e’ in realta’ atteso per la primavera del 2013. Come visto, questo massimo non avra’, almeno dalle previsioni e dal comportamente attuale, nessun carattere di eccezionalita’, anzi si presentera’ come un massimo molto soft e notevolmente meno intenso di altri occorsi in passato.

Bene, questo e’ quello che ci e’ stato detto e ridetto. Ora, come per magia, su molti siti si lancia un allarme completamente opposto: “fate attenzione, il Sole sta diventando sempre meno intenso”. Questo potrebbe comportare un abbassamento drastico delle temperature sulla Terra, una nuova era glaciale potrebbe arrivare, questo e’ sicuramente un anuncio di nuove catastrofi in arrivo.

Ma come? Fino a ieri dovevamo aspettare un massimo di attivita’ e cuocerci sotto le radiazioni solari, oggi dobbiamo congelarci perche’ il Sole si spegne?

Capite bene il titolo scelto per il post. Forse e’ il caso di fare un po’ di chiarezza.

Come visto nei post precedenti, l’attivita’ del nostro Sole non e’ affatto costante nel tempo. Per attivita’ intendiamo l’emissione di radiazione e particelle in tutte le direzioni dello spazio, compresa quella che investe la nostra Terra. Dalle osservazioni solari, si e’ capito che il Sole segue un ciclo di 11 anni tra un massimo e un minimo di attivita’. Questo e’ appunto quello che chiamiamo ciclo solare. Al contrario della Terra, il campo magnetico del Sole si inverte, cioe’ scambia la posizione dei suoi poli nord e sud, ogni 11 anni. Serve dunque un periodo di 22 anni, due cicli, per tornare nella posizione originale del campo magnetico. Su questo punto non c’e’ assolutamente nulla di strano o di allarmante, e’ cosi’ da sempre ed e’ un comportamento implicito nel funzionamento del nostro Sole.

Molto spesso poi sentiamo parlare di macchie solari. Queste altro non sono che zone piu’ scure che compaiono sulla superficie del Sole ed indicano dei punti in cui ci sono anomalie di campo magnetico. Queste macchie appaiono piu’ scure a causa della temperatura relativamente piu’ bassa di queste zone rispetto al resto della superficie (6000 gradi contro 4000). Il numero di macchie solari e’ un indicatore dell’attivita’ del Sole. Maggiore e’ il numero di macchie, piu’ alta e’ l’attivita’ solare in quel momento.

Il numero di macchie solari, o sunspot, e’ un parametro osservato da moltissimo tempo e su cui abbiamo raccolto una statistica considerevole. Il primo che osservo’ ed annoto’ il numero di macchie fu lo stesso Galileo grazie al telescopio da lui stesso inventato.

Bene, fino a questo punto nulla di difficile o di allarmante.

Dunque, cosa dobbiamo aspettarci un massimo o un minimo? Come anticipato, stiamo andando verso il massimo di attivita’ solare del XXIV ciclo. Tra l’altro, solo per compeltezza, fino a questo punto il Sole sta avendo un comportamento leggermente piu’ basso rispetto a quello che ci si aspettava. Questo e’ preoccupante? Anche in questo caso, la risposta e’ NO. Quando si dice “quello che si aspettava” si intendono le simulazioni che vengono fatte a priori per capire, piu’ o meno, quello che ci si deve aspettare nei mesi successivi. Queste simulazioni si basano sulla conoscenza attuale del comportamento del Sole, ma soprattutto sui dati che giorno per giorno vengono raccolti. Detto questo, capite bene che all’aumentare dei dati raccolti, e’ necessario ricorreggere le simulazioni per aggiornare lo stato attuale del Sole e modificare quanto ci si deve aspettare per il futuro.

Detto in parole povere, le simulazioni del comportamento del Sole, sono un po’ come le previsioni del tempo. Non a caso spesso si parla di Meteo-Solare. In quest’ultimo caso come funziona? Si vede la condizione attuale e si utilizzano modelli matematici per dare dei pronostici futuri. Se oggi vedreste le previsioni ad una settimana avreste dei risultati, se li rivedreste tra 3 giorni il risultato potrebbe cambiare e sicuramente essere piu’ preciso.

Spero che quanto detto sia sufficiente a farvi capire come vengono fatte queste simulazioni su cui tanta speculazione viene fatta.

Ora, nel post precedente riportato, abbiamo gia’ visto come seguire il ciclo solare. A distanza di qualche mese da quel post, vi riporto nuovamente il grafico dell’attivita’ solare, per mostrarvi gli ultimi aggiornamenti:

Numero di macchie Solari aggiornato a Dicembre 2012

Numero di macchie Solari aggiornato a Dicembre 2012

Vi ricordo che questi dati sono in rete e sono liberamente accessibili a tutti visitando questo indirizzo:

NOAA sun cycle

Alcune considerazioni. Come vedete dalla linea rossa, che rappresenta la simulazione, stiamo andando verso il massimo di attivita’ solare. Il picco piu’ alto e’ atteso per Maggio-Giugno 2013. Notate anche un’altra cosa che conferma quanto detto: i punti sperimentali, cioe’ quelli ossservati, nel 2012 sono piu’ bassi della sinusoide rossa. Questa e’ la conferma che l’attivita’ del Sole e’ leggermente piu’ bassa di quanto atteso. Assolutamente questo non significa che il Sole si sta spegnendo!

Vorrei anche darvi un’altra informazione aggiuntiva, utile a capire meglio il comportamento del Sole e le simulazioni fatte. Come detto sopra, uno dei parametri importanti per capire il Sole e’ dato dal numero di macchie solari sulla superificie. Sempre utilizzando il sito del NOAA, possiamo andare a vedere il numero di macchie osservate sul sole e confrontarlo anche con i dati ottenuti dalle simulazioni.

Ecco, in particolare, le previsioni:

SunSpot Estimation

Guardate una cosa, per ogni mese viene dato il numero di macchie atteso, ma anche un massimo ed un minimo. Questi valori indicano proprio l’incertezza della predizione. Dalle simulazioni non ottenete un valore preciso, ma una banda entro cui vi aspettate sia contenuto il numero di macchie solari. Notate anche come il numero di macchie atteso sale fino a Maggio-Giugno e poi ridiminuisce. Questo e’ proprio il massimo atteso e di cui parlavamo prima.

Dunque? Come vedete non c’e’ assolutamente nulla di strano o di misterioso riguardo al Sole. E’ assolutamente falso parlare di un massimo di forte intensita’ atteso tra pochi mesi, cosi’ come e’ assolutamente falso parlare di Sole al minimo o anche vicino allo spegnimento.

Al solito, la raccomandazione e’ sempre la stessa: non credete a tutte le teorie bislacche e assolutamente antiscientifiche che trovate in rete. Questi parametri sono noti alla scienza e pubblici su internet. La cosa principale e’ imparare ad utilizzare internet per quello che in realta’ e’: un potente strumento di informazione.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

 

 

E se domani sorgessero due soli?

18 Dic

Il titolo la dice lunga, una delle ipotesi catastrofiste, molto proposta in rete in queste ultime ore, e’ proprio il sorgere di due Soli il 21 Dicembre 2012.

Al contrario di molte altre profezie di cui abbiamo parlato, questa non e’ un’ipotesi del tutto campata in aria, ma che merita un approfondimento attento.

Anche se molti di voi avranno subito pensato a Nibiru, non ci stiamo affatto riferendo a questo fantomatico decimo pianeta del Sistema Solare, di cui abbiamo parlato, smentendo la sua esistenza, in diversi post:

Asteroide Nibiru: considerazioni scientifiche

Finalmente le foto di Nibiru

La NASA torna a parlare di Nibiru

Evidenze di un decimo pianeta?

Nibiru e la deviazione delle Pioneer

Nibiru e’ monitorato dall’osservatorio di Arecibo?

Storia astronomica di Nibiru

Secondo le ipotesi, il secondo Sole in cielo sarebbe invece la stella Betelgeuse.

Cerchiamo di andare con ordine.

Betelgeuse e’ la seconda stella piu’ luminosa nella costellazione di Orione e distante, secondo gli ultimi calcoli, circa 640 anni luce dalla Terra. Per i non esperti vi ricordo che l’anno luce e’ soltanto un modo astronomico di misurare le distanze e che corrisponde alla distanza percorsa dalla luce in un anno. Dunque, sapendo che la luce si muove nel vuoto ad una velocita’ di 300000 Km/s, l’anno luce corrisponde ad una distanza di circa 10^13 Km, cioe’ 10000 miliardi di kilometri. Perche’ si usa l’anno luce? Semplicemente perche’ e’ piu’ pratico parlare di qualche anno luce, piuttosto che dire ogni volta milioni di miliardi di kilometri.

Betelgeuse e’ facilmente identificabile nel cielo stellato, cosi’ come l’intera costellazione di Orione, che, essendo posizionata vicino all’equatore celeste, risulta visibile da quasi ogni parte del mondo.

Ecco una foto delle costellazione di Orione, in cui la luce delle stelle formanti la figura e’ stata amplificata per renderla meglio visibile:

Foto di Orione amplificata con l'indicazione di Betelgeuse

Foto di Orione amplificata con l’indicazione di Betelgeuse

La stella indicata dalla freccia e’ proprio Betelgeuse.

Ora, veniamo alla profezia del 21 Dicembre. Betelgeuse e’ da sempre in quella posizione, perche’ mai il 21 Dicembre dovrebbe cambiare qualcosa e quella stella dovrebbe apparire come un secondo Sole?

La risposta che trovate online e’ molto semplice, perche’ Betelgeuse potrebbe esplodere in una supernova espandendo nell’universo la maggior parte della materia che la costituisce e apparire dunque come un oggetto molto luminoso.

La spiegazione sembra molto semplice, ma in realta’ per poterla comprendere a pieno e per capire se realmente esiste questa possibilita’, si devono introdurre dei concetti di scienza, e di astronomia in particolare, non troppo difficili ma che devono essere seguiti attentamente.

Cerchiamo di analizzare queste ipotesi, mantenendo sempre un approccio molto divulgativo e accessibile a tutti.

Come forse molti di voi gia’ sanno, le stelle non sono sempre costanti nel tempo, ma hanno un loro ciclo vitale. A cosa e’ dovuto il loro ciclo? Una stella funziona come una centrale a fusione nucleare. Al suo interno, gli elementi vengono fusi per formare atomi piu’ pesanti e in questo processo viene emessa energia. Questo e’ anche il processo grazie al quale viene prodotta luce, che poi altro non e’ che l’emissione verso l’esterno di questa energia.

Ora, immaginiamo la stella come un serbatoio di atomi. Man mano che li fondiamo, ne avremo sempre di meno a disposizione. Il paragone piu’ semplice e’ quello di una qualsiasi automobile. Quando la benzina finisce, la macchina si ferma. Analogamente, quando il combustibile nucleare si esaursisce, la stella si trasforma evolvendosi in qualcos’altro.

In realta’, il processo e’ solo leggermente piu’ complicato, dal momento che il combustibile primario e’ l’idrogeno che viene fuso per formare elio che a sua volta viene fuso per formare atomi piu’ pesanti, via via fino ad arrivare al Ferro che e’ un elemento stabile che non puo’ essere bruciato per fusione nucleare. Ma non preoccupiamoci di questo. Quello che ci interessa in questo contesto e’ capire di che morte muore una stella.

Dunque, siamo arrivati a capire che una stella avra’ un tempo di vita limitato dal combustibile a disposizione. Al termine di questo ciclo vitale, l’evoluzione allo stadio successivo non e’ univoca, ma dipende da alcuni parametri, primo tra tutti la massa della stella stessa. In astronomia, le stelle vengono ad esempio catalogate in base alla loro massa rispetto al nostro Sole. In questo contesto, a volte trovate scritto “e’ una stella di 10 masse solari”, o “di 0.1 masse solari” e cosi’ via.

Come anticipato, in base alla massa della stella, l’evoluzione naturale del ciclo vitale puo’ essere diverso da caso a caso. Betelgeuse e’ una stella di massa pari a circa 15-20 volte quella del nostro Sole ed e’ in uno stadio della sua evoluzione chiamato di “supergigante rossa”. Si tratta di uno stadio abbastanza avanzato del suo ciclo vitale, e presenta fluttuzioni di luminosita’ che fanno pensare che sia prossima a passare al gradino successivo della sua evoluzione.

Fin qui tutto bene. Betelgeuse e’ una supergigante rossa e potrebbe passare allo stadio successivo.

Qual’e’ questo stadio?

Le stelle di massa come Betelgeuse, al termine del loro ciclo vitale esplodono formando una brillantissima Supernova di tipo II. Anche qui andiamo con ordine. Una supernova e’ un’esplosione stellare, estremamente energetica, che costituisce uno stadio finale per stelle molto massive.

Cosa significa invece di tipo II? Semplicemente che l’esplosione si genera dal collasso interno di una stella con massa superiore a 9-10 volte quella del nostro Sole, come nel caso dunque di Betelgeuse. Durante il collasso in supernova, quasi tutta la materia contenuta all’interno della stella viene letteralmente “sparata” nello spazio circostante con emissione elevata di energia e dunque con luminosita’ molto elevate.

Come apparirebbe Betelgeuse se esplodesse in una supernova di tipo II? Come potete capire facilmente, la sua luminosita’ sarebbe molto elevata il che la renderebbe visibile tranquillamente anche ad occhio nudo ed anche in pieno giorno. Vi riporto una immagine ricostruita che mostra come apparirebbe Betelgeuse, all’interno di Orione, dopo il collasso:

Betelgeuse_supernova

Questo ci fa capire molto bene perche’ si parla di un secondo Sole.

Ora, la cosa piu’ importante da capire e’: ci sono possibilita’ che Betelgeuse esploda proprio il 21 Dicembre?

Ovviamente, in astronomia e’ impossibile fare previsioni precise per il giorno, ma sull’evoluzione di Betelgeuse non vi e’ un parere univoco degli astronomi. Secondo alcuni, per essere precisi i piu’, Betelgeuse sarebbe ancora in una fase poco avanzata dello stadio di supergigante rossa. Questo comporterebbe ancora un periodo, fino anche ad 1 milione di anni, prima di poter assistere a questo spettacolo naturale. Secondo altri, le fluttuazioni della luminosita’ indicherebbero uno stadio molto avanzato della vita della stella e dunque la possibilita’ di esplosione in tempi brevi. Fate attenzione, quando in astronomia si parla di tempi brevi, come in questo caso, ci si riferisce in un lasso di tempo di qualche secolo.

Esiste anche una terza ipotesi, dibattutta scientificamente, che vorrebbe la stella gia’ esplosa. In questo contesto, vediamo ancora Betelgeuse cosi’ com’e’ solo perche’, dopo l’esplosione, ci vogliono 640 anni prima di vedere l’evoluzione da Terra. Questo periodo e’ proprio dovuto alla distanza della stella da noi.

E’ necessario premettere prima di tutto che, scientificamente, questa terza ipotesi e’ quella meno probabile secondo la scienza, ma comunque presa in considerazione. Nonostante questo, capite bene che e’ del tutto impossibile stabilire esattamente il giorno in cui vedremo Betelgeuse esplodere in una supernova. Dunque, l’ipotesi di vedere l’evoluzione esattamente per il 21 Dicembre e’ del tutto campata in aria.

Nonostante questa conclusione, vorrei aprire una brevissima parentesi. Se anche vedessimo l’esplosione di una supernova in cielo, cosa comporterebbe questo per noi? Sarebbe la fine del mondo?

Anche in questo caso, potete dormire sonni tranquilli. Supernove che esplodono a centinaia di anni luce da noi, espellono verso lo spazio enormi quantita’ di materia, ma questa non arriva assolutamente fino a Terra. L’unico effetto reale a Terra, e’ un aumento del flusso di neutrini che attraversano il nostro pianeta e che vengono prodotti dalle reazioni nucleari durante l’esplosione. Solo per curiosita’, vi dico che queste particelle hanno una probabilita’ di interagire con la materia estremamente bassa e sono in grado di attraversare l’intera Terra senza interagire con nulla. Pensate che anche il nostro Sole produce un enorme flusso di neutrini che attraversano il nostro pianeta, senza nessuna conseguenza per gli esseri umani. Ovviamente il nostro Sole e’ dietro l’angolo se paragonato ad una supernova in una qualche parte della Via Lattea.

Questo ci fa capire bene che comunque non vi e’ nessun pericolo di “fine del mondo” in caso di un’esplosione di supernova.

Per darvi ancora un’altra prova, le cronache storiche sono piene di esplosioni di supernove nella nostra galassia, e osservate da Terra. La piu’ famosa e’ forse l’esplosione del 1054 che porto’ alla formazione della Nebulosa del Granchio e che venne opportunamente riportata nelle cronache cinesi. In ordine temporale, l’ultima supernova osservata nella Via Lattea e’ del 1604 osservata anche da Keplero. Vi sono poi altri casi piu’ recenti ma che non sono stati direttamente osservabili da Terra. Per darvi l’idea, di esplosioni di supernove nella nostra galassia, se ne contano piu’ o meno una ogni 50 anni, ovviamente senza nessuan conseguenza diretta per noi.

Concludendo, abbiamo capito il perche’ si parla di questa esplosione di Betelgeuse. Abbiamo visto come l’ipotesi di una supernova sia in realta’ possibile, ma assolutamente non aspettabile per  il 21 Dicembre. La cosa piu’ importante che abbiamo capito e’ che le esplosioni di Supernove nella nostra Galassia non sono un evento cosi’ raro, ma che comunque non comportano nessun problema a Terra e soprattutto sul genere umano.

Analizzare le profezie del 2012, significa affrontare temi sempre attuali della scienza e che spesso vengono poco divulgati ai non addetti ai lavori. Per un’analisi scientifica del 2012, ma soprattutto per leggere un libro di divulgazione chiaro ed accessibile a tutti, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.

Terremoti, basta chiacchiere. Parliamo di numeri.

9 Set

Molte volte su questo blog abbiamo parlato di Terremoti. Ovviamente, come ormai sappiamo bene, queste fenomeni, al momento, non possono essere predetti con precisione. La scienza e’ alla ricerca dei cosidetti “precursori sismici”, cioe’ di quel o quei fenomeni o avvenimenti che possano dare un segnale di avvertimento per un prossimo terremoto. Radon e geo-neutrini sono esempi di precursori ipotizzati, ma mai dimostrati scientificamente o su cui sono ancora in corso studi.

Questi sono alcuni dei post in cui abbiamo parlato di terremoti:

Riassunto sui terremoti

Cattiva informazione sui terremoti

In particolare, abbiamo visto come molto spesso, e soprattutto negli ultimi tempi, sia in corso una speculazione mediatica su questi fenomeni cercando di sfruttare il momento generalizzato di paura per scopi tutt’altro che nobili:

Dati falsi sui Terremoti

In particolare, in molti casi, si continua a dire che il numero di terremoti a livello mondiale stia subendo un rapido aumento pian piano che ci avviciniamo alla fatidica data del 21 dicembre 2012. L’informazione che si vuole far passare e’ appunto che qualcosa di misterioso e pericoloso stia accadendo alla nostra Terra.

Alla luce di quanto detto prima, non siamo attualmente in grado di prevenire e predirre un terremoto. La natura stocastica di questi eventi pero’, ci consente di analizzare statisticamente, cioe’ in media, il numero di sismi che si verificano nel corso degli anni, per carcare di capire se veramente ci sia un aumento sostanziale in corso.

In un precedente post:

Analisi statistica dei terremoti

abbiamo visto come in realta’ non ci sia nessuna evidenza di un aumento dei terremoti a livello mondiale. A differenza di tutti quei siti e giornali che vogliono farvi credere il contrario, i dati su cui abbiamo basato le nostre considerazioni sono pubblici e liberamente consultabili da chiunque. Uno degli archivi migliori per questo genere di analisi e’ quello del USGS che potete raggiungere a questa pagina:

Database USGS

Molto spesso pero’, continuo a ricevere domande sull’effettivo numero dei terremoti. L’insistenza delle voci su web, tende a creare il dubbio nelle persone.

Proprio per questo motivo, ho deciso di fare un’analisi aggiuntiva, mostrandovi graficamente le affermazioni che stiamo facendo. La stessa analisi puo’ essere fatta da chiunque utilizzando i dati dell’archivio e un programma semplice come Excel che tutti abbiamo sul nostro pc.

Per prima cosa, dobbiamo costruire una tabella che contenga, nel corso degli anni, il numero di terremoti avvenuti nel mondo dividendoli anche per magnitudo. Per facilitare l’analisi, sempre sul sito USGS, potete trovare una tabella gia’ fatta con i sismi tra il 2000 ed il 2012 divisi per intensita’. Questo e’ il link alla pagina:

Tabella precompilata

Potete comunque utilizzare il link precedente del database completo per verificare i numeri che compaiono nella tabella.

A questo punto, basta graficare il numero di terremoti in funzione degli anni e vedere cosa otteniamo.

Se prendiamo il numero totale di eventi con magnitudo maggiore di 2, otteniamo questo grafico:

Numero di terremoti >M2 tra 2000 e 2012

Guardando il grafico non mi sembra assolutamente che ci sia questo aumento tanto pubblicizzato su internet. Anzi, per essere precisi, dopo il 2008 il numero di eventi e’ sensibilmente sceso. Forse la fine del mondo e’ avvenuta nel 2008 ma non ce ne siamo accorti. In realta’, come detto in precedenza, vista la natura stocastica del fenomeno analizzato, fluttuazioni piu’ o meno grandi dei singoli numeri sono del tutto normali. Inoltre, dobbiamo tener conto che il 2012 non e’ ancora finito, quindi, rispetto agli anni precedenti, questo numero e’ ancora in via di aggiornamento.

La cosa ovvia e’ che non esiste un aumento sistematico del numero di terremoti.

Per fare un’analisi piu’ precisa, possiamo anche pensare di raggruppare il numero di terremoti in funzione della lora intensita’. In questo modo potremmo ad esempio vedere se vi e’ un aumento di terremoti di grande magnitudo, fenomeno a volte chiamato in causa in diverse fonti.

Raggruppando il numero di eventi per magnitudo, cambiando di volta in volta la minima intensita’ che prendiamo, e costruendo nuovamente il grafico, otteniamo:

Numero di terremoti con magnitudo crescente tra 2000 e 2012

Anche in questo caso non mi sembra assolutamente che ci sia un aumento sostanziale in nessuna fascia di intensita’. Vista la grande differenza numerica tra una categoria e l’altra, abbiamo utilizzato un asse verticale logaritmico e, per questo motivo, anche l’andamento riportato in precedenza appare piu’ schiacciato.

Concludendo, non vi sono assolutamente evidenze che il numero di terremoti sulla Terra abbia subito un’impennata negli ultimi tempi. I dati utilizzati in questo articolo sono pubblici e liberamente consultabili da chiunque. Ognuno puo’, utilizzando i link forniti e semplici programmi disponibili a tutti, verificare quanto affermato.

Diffidate da chi vuole convincervi di qualcosa facendo solo giri di parole. Nell’era di internet, ognuno di noi puo’ avere accesso a tutte le informazioni che cerca e ragionare autonomamente su quello che vogliono farvi credere. Per un’analisi critica, scientifica ma facilmente accessibili e comprensibile a chiunque, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.