Tag Archives: probabilita’

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La prova regina per eccellenza

21 Giu

In questi giorni sta facendo molto discutere il caso di Yara Gambirasio e l’arresto di quello che sembrerebbe il presunto assassino. Mi rendo conto che la tematica non è delle più semplici ed in questa sede, come è la natura stessa del blog, non voglio entrare in discussioni riguardanti il caso in se ne tantomeno discutere giustizialismo o meno. Come sappiamo tutti, quello che ad oggi è identificato come l’assassino di Yara è stato identificato dopo una lunga e costosa inchiesta che si è basata notevolmente sul test del DNA e sulla comparazione di circa 18000 campioni prelevati da cittadini della zona con delle tracce biologiche rinvenute su un indumento della vittima.

L’identificazione del presunto assassino ha portato però una lunga coda di discussioni sulla certezza o meno della colpevolezza. Senza entrare nel merito della discussione sulle dichiarazioni rilasciate anche da esponenti di governo, il fulcro della questione è rappresentato dalla validità o meno, o meglio dalla precisione o meno, del test del DNA eseguito.

Per cercare di capire meglio la questione, proviamo a capire come vengono eseguiti questi test e se veramente ci sono margini di errore significativi tali da mettere in discussione l’impianto accusatorio per il sospetto.

Come anticipato, durante l’inchiesta sono stati prelevati circa 18000 campioni di DNA da altrettante persone che frequentavano luoghi di interesse per l’indagine e che potevano essere entrate in contatto in qualche modo con la vittima. Tra queste persone è stato identificato un notevole grado di somiglianza tra il campione rinvenuto ed un frequentatore di una nota discoteca della zona. Da qui si è poi risaliti a tre fratelli il cui DNA era ancora più somigliante alla prova e al loro padre, morto nel 1999, ma il cui DNA è stato estratto dalla saliva dietro un bollo della patente e confermato poi dalle ossa riesumate per le indagini. Come è noto, da qui si è passati ad identificare la madre dell’assassino che avrebbe avuto una coppia di gemelli illegittimi dal padre in questione. L’identificazione madre-figlio è sempre stata fatta mediante il test del DNA e nello specifico mediante la comparazione di quello che si chiama DNA mitocondriale, trasferito interamente da madre a figlio. A questo punto, proprio nel maschio della coppia di gemelli è stato identificato il presunto assassino di Yara.

Tutta questa storia sembra più la sceneggiatura di un film o di una serie poliziesca piuttosto che una normale indagine. Ovviamente, il costo di tutte queste procedure è stato elevatissimo. Ed ora? Dopo circa 4 anni, milioni di euro spesi, perché continuiamo ad avere dubbi? Questo è il tema che vorremmo affrontare per capire meglio il perché di tutta questa discussione dopo che il test del DNA viene da diverse fonti considerata la prova regina per la risoluzione di indagini rompicapo.

Come avrete letto e ascoltato, la certezza della corrispondenza tra la traccia rinvenuta sugli indumenti e il DNA del presunto assassino è del 99,99999987%, dunque la probabilità di errore è di uno su miliardi. Allora? Uno su miliardi sembrerebbe una certezza assoluta. In realtà, non è così. Cerchiamo di capire meglio.

Per rima cosa, come viene fatto il test del DNA? Come sappiamo, la molecola del DNA, la famosa doppia elica, è composta da catene lunghissime di basi che contengono tutte le informazioni necessarie a codificare l’essere umano. Se prediamo il DNA di due persone qualsiasi, non parenti, fratelli o altro, ma persone qualsiasi, questi sono identici tra loro per circa il 99.9%. Bene, questa quasi totalità identica è quella che si chiama “genoma umano”. La restante parte del DNA è composta da sequenze non codificate e che non entrano nella sintesi proteica. Proprio questa parte è formata da sequenze di coppie che si ripetono casualmente e la cui struttura è talmente arbitraria da potersi considerare un’evoluzione moderna delle classiche impronte digitali. Detto in altri termini, questa parte minore di DNA è diversa da individuo ad individuo ma è rappresentata non da sequenze a caso, ma da coppie che si ripetono un numero fisso di volte. Bene, analizzando questa parte del DNA, cioè contando quanti e quali coppie e quante volte si ripetono, è possibile effettuare il test del DNA per confrontare tra loro due campioni. Questa tipologia di analisi è la stessa che viene utilizzata anche per il test di paternità utilizzato per riconoscere o meno un figlio.

Detto questo, se consideriamo il numero elevatissimo di combinazioni possibili di queste sequenze, una volta confrontati due campioni e visto che questi hanno le stesse sequenza ripetute, arriviamo agilmente a probabilità di appartenenza che sfiorano il 100%. In altri termini, trovato un campione di DNA, la probabilità che questo appartenga ad una persona a caso piuttosto che a colui che viene identificato è una su miliardi di casi. Tra l’altro, si tratta di un test abbastanza semplice e che è possibile portare a termine nell’arco di un paio d’ore.

Detto questo, con le probabilità che abbiamo detto prima, dove sarebbe la possibilità di errore?

In realtà, è vero che la probabilità di errore è così bassa, ma si tratta solo della probabilità che due persone possano avere le stesse sequenze ripetute nella parte di DNA analizzato. Purtroppo, come la scienza ci insegna, si deve sempre tenere conto degli errori apportati nella misura.

Cosa significa?

Come detto, in questa tipologia di misura si contano, nel vero senso del termine, le sequenze ripetute. E se ci sbagliamo a contare? Questo in realtà potrebbe essere un problema. E’ vero che la sequenza del DNA in esame, per conoscenza i microsatelliti, sono una caratteristica quasi unica, ma alcuni laboratori dichiarano percentuali di errori anche fino al 2%, dunque infinitamente maggiore di quelle considerate, nell’identificazione delle sequenze. Ora, se confrontiamo il 2% con il zero virgola tanti zeri qualcosa visto prima, le cose cambiano decisamente verso.

Oltre a questo, c’è poi il problema della contaminazione dei campioni. Molti citato in questi giorni è il cosiddetto caso del fantasma di Heilbronn, un caso del 1993 in cui in numerosi omicidi in Germania venne rinvenuto lo stesso DNA appartenente ad una donna. Nei mesi successivi, lo stesso campione venne identificato anche in altri casi simili ma in paesi diversi. Da qui, come è ovvio, si pensò ad un caso di serial killer europeo autore di tantissimi omicidi. Il tutto si risolse poi nel nulla quando dopo qualche anno si capì che il DNA in questione apparteneva ad una operaia della ditta che forniva i campioni per i test a diversi paesi e che per errore era entrata in contatto con materiale dopo la sterilizzazione.

Ovviamente, quello del fantasma di Heilbronn è un caso limite, ma ci fa capire come le probabilità di errore sono sempre presenti e non si limitano alla sola precisione del test che, sbagliando, viene spesso citata da sola.

Detto questo, anche in termini giuridici, il test del DNA, in casi come questo, viene considerato come un forte indizio ma non come una prova schiacciante. Come potete capire, per poter chiudere definitivamente il caso è necessario ricostruire il tutto e inchiodare con certezza il soggetto identificato dal test con tutta una serie di altri indizi che rendono la cosa inattaccabile. Questa è la ricostruzione dell’impianto accusatorio a cui si sono appellati gli avvocati difensori di quello che, ad oggi, possiamo considerare il sospettato numero uno.

Solo per chiarire il tutto, insieme al test del DNA in questi giorni viene spesso citato il database dei cellulari che si sono agganciati alla cella telefonica del campo in cui è stato rinvenuto il corpo. Proprio nell’articolo precedente:

Tempeste solari e problemi ai telefoni?

abbiamo parlato di rete mobile parlando della zona coperta dalla cella intesa come stazione mobile. Anche su quest’altra prova a sostegno, gli avvocati difensori si sono appellati al fatto che la stessa cella copre sia il campo già citato, ma anche abitazioni in cui il sospetto poteva essere in quel momento perché di sua proprietà o di parenti stretti.

Dunque? Sicuramente la persona identificata ha un pesante e sospetto di colpevolezza ma, come visto, prima di poter dichiarare il caso chiuso, sarà necessario ricostruire molti altri dettagli che metteranno in correlazione l’assassino con la la vittima e, soprattutto, chiuderanno il caso con una perfetta ricostruzione di quanto accaduto. Divulgare notizie troppo velocemente, potrebbe solo complicare l’indagine e rallentare il lavoro degli inquirenti.

Restiamo dunque in attesa di seguire l’evolversi delle indagini anche se, per una accusa di colpevolezza, serve sempre il processo!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Obbligatorio dire due parole su GOCE

11 Nov

Era il 15 settembre, ben due mesi fa, quando il sottoscritto, che a forza di documentarsi su siti complottisti ha acquisito doni di preveggenza, gia’ parlava di GOCE e della fine annunciata della missione.

In questo articolo:

GOCE: quando il satelliste finisce la benzina

abbiamo gia’ parlato della missione, della sua importanza scientifica ma, soprattutto, del suo rientro a Terra. Come potete leggere, gia’ al tempo si diceva che la cosa avrebbe rappresentato un rischio, ma con probabilita’ bassissima. Ripeto, trovate tutti i dettagli leggendo l’articolo precedente.

Poi cosa e’ successo?

Semplice, e’ finita la benzina e sulla rete si sono scatenati gli animi catastrofisti di tutti: siti, blog, forum ma, purtroppo, anche giornali, protezione civile, ecc. Nelle ultime ore, la scena mediatica e’ stata completamente catturata dalla caduta di questo satellite con una gara a chi la spara piu’ grossa sul punto di impatto, sull’ora o sui possibili rischi dell’operazione.

In tutto questo poi, ci si e’ messa anche la polemica, alquanto sterile, tra protezione civile, ASI e ESA che non si riscono a mettere d’accordo su cu dice cosa.

Lasciamo perdere questi discorsi e parliamo di cose serie.

Non spendero’ piu’ di qualche parola su questo evento, dal momento che e’ stata gia’ sviscerato a sufficienza.

Unico particolare degno di nota, al momento GOCE e’ ancora in funzione e non ha cominciato a cadere verso la Terra. Perche’ dico questo? Lasciando da parte i mezzi di informazione assolutamente poco credibili in ambito scientifico o in situazioni di questo tipo, l’unico modo per reperire informazioni reali e’ consultare il sito dell’ESA, in cui potete trovare una pagina aggiornata in real time stabilendo comunicazioni direttamente con il satellite.

Trovate la pagina a questo indirizzo:

ESA, GOCE info

Le informazioni contenute vengono trasmesse da una base in Antartide che stabilisce connessioni con GOCE ogni qual volta il satellite passa sulla zona.

Leggete cosa scrivono il 10 novembre alle 23.50, cioe’ meno di un’ora fa:

Contact with GOCE was made once again from the Troll station in Antarctica at 23:42 CET. The central computer temperature is at 80ºC and the battery is at 84ºC. At an altitude of less than 120 km, the spacecraft is – against expectations – still functional.

Capito? Il satellite non e’ ancora in fase di caduta. Detto questo, e’ inutile stare li ad arrovelarsi e tentare di indovinare dove cadra’ GOCE. Fino a quando non iniziera’ la caduta, e’ come provare ad indovinare i numeri del lotto!

Concludendo, i rischi di caduta su zone abitate sono estremamente bassi. Se pensate di restare a casa perche’ avete paura che qualche pezzo possa arrivarvi in testa, allora chiudetevi per sempre nelle vostre mura senza uscire. Praticamente, la probabilita’ e’ simile a quella di essere colpiti da una tegola che si stacca da un tetto. Piuttosto che credere a storielle inventate dai giornali, documentatevi sui siti giusti e seguite in tempo reale la fine di questa gloriosa e importante missione.

Ultimissima cosa, in queste ore sta per ricadere a Terra qualcosa di veramente grosso e aspettato ma di cui i giornali non parlano. Sta infatti per rientrare una Soyuz dalla Stazione Spaziale Internazionale con a bordo il nostro astronauta Luca Parmitano. Sarebbe meglio parlare di questo piu’ che di satelliti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pesce remo: come distorcere una notizia

22 Ott

Su questo blog in genere partiamo da notizie fantasiose per poi mostrare come queste debbano essere correttamente interpretate senza lasciare spazio a fantasie. Questo tipo di approccio e’ utile, non perche’ noi dobbiamo insegnare qualcosa a qualcuno, ma solo perche’ in questo modo si riescono ad evidenziare le varie bufale che compaiono sul web e che, purtroppo, negli ultimi tempi, o meglio a partire dal 21/12/2012, spuntano come funghi ogni giorno.

Questa volta pero’, vorrei utilizzare un approccio diverso. Questo non per fare un qualche esperimento sociale, bensi’ perche’ proprio oggi leggevo una notizia molto interessante e poi, cercando approfondimenti su web, sono incappato in una serie di articoli fantastici sullo stesso argomento. Attenzione, onde evitare fraintendimenti, fantastici non e’ un complimento ma e’ utilizzato proprio letteralmente per indicare il frutto della fantasia di chi ha pubblicato queste notizie.

Cominciamo dai fatti.

Come ricorderete, qualche tempo fa avevamo parlato del ritrovamento di un “re di aringhe”, anche detto “pesce remo”, sulle spiaggie di Almeria:

Incredibile mostro marino ritrovato in Spagna!

Come potete leggere nell’articolo, anche se diverse fonti parlavano di misterioso e spaventoso mostro marino, i resti trovati appartenevano ad una specie marina perfettamente conosciuta, appunto quella del pesce remo o “regaleco”.

Premesso questo, qual e’ la notizia?

Circa una settimana fa, un esemplare di pesce remo e’ stato rinvenuto a Catalina Island in California. Si tratta di un bell’esemplare di 5.5 metri di lunghezza che e’ stato avvistato da una ragazza poco al largo, gia’ morto, e, grazie all’aiuto di una quindicina di persone, il corpo e’ stato portato a riva.

Pesce remo ritrovato in California

Pesce remo ritrovato in California

Qui, come e’ ovvio vista la scarsa conoscenza della specie e l’importanza del ritrovamento, il pesce e’ stato sezionato e portato in laboratorio. Analisi specifiche hanno mostrato come il pesce sia morto di morte naturale.

Bene, poi cosa e’ successo?

Oggi invece i giornali hanno battuto la notizia del ritrovamento di un secondo pesce remo, sempre in California, ma questa volta a Oceanside. Il secondo regaleco trovato ha una lunghezza leggermente inferiore al primo e non supera i 4.5 metri. Piccola nota, come visto nell’articolo precedente, queste specie possono raggiungere anche gli 11 metri di lunghezza, per cui i due esemplari trovati, per quanto impressionanti, non costituiscono certo qualcosa fuori scala o che non si conosceva.

Ovviamente, e’ un evento molto raro trovare due esemplari morti vicini alla costa dal momento che i ritrovamenti di questi pesci non sono cosi’ frequenti. Perche’ questo? Come potete immaginare, anche i pesci remo muoiono, ma, vista la struttura gelatinosa della carne, e’ molto difficile che i corpi arrivino a terra interi. Su questo avevamo riflettuto anche nel precedente articolo riguardo il ritrovamento in spagna.

Non c’e’ che dire, notizia interessante e davvero curiosa.

Cosa succede invece dal lato catastrofista/complottista?

Al solito, qui raggiungiamo livelli di fantasia da far impallidire chiunque.

Non vorrei specificare singolarmente i siti, anche solo per non fare pubblicita’ a fonti di questo tipo, ma basta cercare su web per verificare che quello che dico e’ reale.

Prima cosa, scontata se vogliamo, trovati ben 2 mostri in California, con tanto di foto, di cui la scienza e la biologia non riescono a dare una spiegazione. Ovviamente, si parla di misteriose creature mai viste prima, ignorate o che forse vengono da un passato molto lontano.

Questa ovviamente e’ l’ipotesi piu’ scontata che si potrebbe fare, ma andiamo avanti.

Da altre fonti, i pesci ritrovati sono diventati 3, mentre secondo altri sono 2 pesci e un’altra specie misteriosa. Ma qui si sa, sui numeri anche i giornalisti di professione fanno a gara a chi la spara piu’ grossa.

Altri siti affermano invece che si tratta di pesci remo. A detta loro pero’, e’ impossibile trovare questi pesci a riva perche’ normalmente vivono a piu’ di 3000 metri di profondita’.

Affermazione ignorante e assurda. Per smentirla basta fare un giretto si wikipedia, la quale riporta:

Senza dubbio è una specie abissale (300-1000 m di profondità), ma è possibile individuarlo presso la superficie e vicino alle coste.

300-1000 metri e’ molto diverso da 3000 e inoltre, come si legge, e’ possibile trovarlo anche in superficie e vicino alle coste. Sempre su wikipedia troviamo anche:

Qualche volta il regaleco si trova spiaggiato ma, a causa della sua fragilità, raramente integro.

Che curiosa coincidenza, proprio quello che abbiamo affermato poco piu’ sopra.

Capite bene che anche queste affermazioni sono una balla.

Ci sono poi dei siti che davvero si superano. Sapete cosa sarebbero i misteriosi mostri ritrovati? Specie non conosciute? No, troppo poco. Specie antiche? No, di piu’. Cosa sono? Mutazioni genetiche di altri pesci. Come sarebbero avvenute queste mutazioni? Semplice, siamo in California, siamo sull’oceano Pacifico, dunque le mutazioni sarebbero avvenute a causa di acqua contaminata proveniente dalla centrale di Fukushima!

Ora, non voglio entrare nella discussione dell’incidente nucleare giapponese, dal momento che, fuori dal Giappone, forse pochi sanno la reale situazione. Vi faccio pero’ riflettere su una cosa, secondo voi, arriva un po’ di acqua contaminata dal Giappone, con che concentrazione arriva? Praticamente zero. Ma se anche arrivasse, e’ assurdo pensare che un pesce nuota in un po’ di acqua contaminata e a causa di questa muta all’istante trasformandosi in una specie di serpente marino. Non ci siamo proprio, eppure siti internet provano a farci digerire questa informazione.

Pensate sia finita qua? Assolutamente no. Altri siti hanno trovato uan diversa spiegazione ai due ritrovamenti. Si tratta di pesci remo e questo e’ ok. Perche’ si sono spiaggiati? Premesso, come visto, che non sono spiaggiati ma, il primo sicuramente, era gia’ morto, i due pesci sarebbero morti a causa di un violento terremoto che dovrebbe colpire la California nei prossimi giorni.

Aspettate un attimo, sta per arrivare un forte terremoto in California e quindi muiono i pesci? Come e’ possibile? Forse, i pesci possono avvertire prima il terremoto in arrivo e sono morti di paura?

L’assurdita’ di certe notizie mi lascia davvero perplesso.

Concludendo, e’ ovviamente un fatto molto raro quello di aver ritrovato due esemlari morti di pesci remo “interi” vicino alla riva in California. Nonostante si possa parlare di ritrovamento raro, la cosa puo’ essere compresa confrontandoci con quello che sappiamo circa la specie. Ora, pero’, tutta la speculazione in atto su questi fatti e’ davvero assurda e priva di fondamento. Con un approccio diverso rispetto al solito, abbiamo visto quanta distorsione, o meglio, in alcuni casi, proprio invenzione, c’e’ dietro una notizia che leggete sulla rete. Fate sempre attenzione a quello che leggete. Prendete tutto con le pinze e cercate sempre di analizzare i fatti in modo autonomo e confrontando sempre diverse fonti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Messina: come prevedere i terremoti?

17 Ago

Qualche giorno fa, sulla rete si era cominciato a parlare di una nuova previsione su eventi sismici che avrebbero interessato il nostro paese. Per essere precisi, la previsione era stata fatta il 10 agosto da tale Luke Thomas che avrebbe predetto tra il 16 e il 17 agosto, con maggiore probabilita’ il 16, una scossa di magnitudo M5.4 in Sicilia.

Come sapete, di previsioni di questo tipo la rete ne e’ stracolma. Ogni giorno c’e’ qualcuno che si sveglia e, guardando le stelle, le nubi, i fondi del caffe’ o l’umore della vicina di casa, prevede che un terremoto piu’ o meno forte potrebbe esserci da qualche parte. Sistematicamente, queste previsioni vengono disattese.

Perche’ ora vi parlo di questo argomento?

La risposta e’ molto semplice, personalmente non ho nemmeno preso in considerazione la previsione fatta da Luke Thomas, dal momento che ne avevamo gia’ parlato in abbondanza. Proprio ieri pero’, 16 agosto, due scosse ravvicinate di M41.1 e M4.2 hanno colpito il messinese.

E ora come la mettiamo?

Come potete facilmente immaginare la rete sta letteralmente esplodendo di notizie che parlano di Luke Thomas e della sua previsione esatta. In molti casi, come sempre, si parla di previsione con metodi scientifici che la scienza ufficiale non vuole adottare o che si rifiuta di ammettere perche’ non provenienti da un vero scienziato.

Prima di lasciarci sopraffare da queste farneticazioni, facciamo un po’ di chiarezza su questa faccenda.

Partiamo dalle basi. Chi e’ Luke Thomas? Questo tizio sarebbe un “ricercatore”, nel senso catastrofista del termine che ormai conosciamo, inglese sedicente “esperto” di terremoti. Sul suo sito web, pubblica ogni giorno delle tabelle di previsione dei terremoti, rapresentate come probabilita’ di evento. Mi spiego meglio, guardando al suo sito, trovate, ad esempio, per l’Italia, diverse zone del paese con una probabilita’ giornaliera che possa verificarsi un terremoto piu’ o meno intenso.

Bene, come vengono stimate queste probabilita’?

Thomas studierebbe l’andamento di molti parametri che lui avrebbe identificato come precursori sismici. Piccola parentesi, di previsione dei terremoti ne abbiamo parlato a volonta’, questi sono solo alcuni esempi di articoli:

Terremoti, Pollino, Radon, Giuliani, L’Aquila …

Riassunto sui terremoti

– Analisi statistica dei terremoti

Dati falsi sui terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Terremoti: nuove analisi statistiche

Tutte le volte, siamo qui a raccontare che, al momento, non e’ ancora possibile prevedere i terremoti, che non e’ stato possibile identificare uno o un set di parametri che potrebbero indicare l’arrivo di un terremoto, ecc. Poi invece arriva Luke Thomas e ha i precursori in mano. Le cose sono due, o racconta fandonie, o veramente la scienza fa finta di chiudere gli occhi di fronte ad evidenze del genere.

Quali sono i precursori usati da Thomas?

Variazione di temperatura della zona, piccole scosse nei giorni precedenti, comportamento degli animali, comportamento degli esseri umani, fasi lunari, assenza prolungata di sismicita’, variazione di temperatura dell’acqua e nubi sismiche.

Cerchiamo di capirci qualcosa.

Riguardo alle nuvole sismiche, abbiamo gia’ smentito questo parametro come precursore in questo articolo:

Nuvole sismiche

ed in quelli direttamente richiamati.

Anche sul comportamento degli animali che sarebbero in grado di prevedere i terremoti, ne abbiamo parlato in questo post:

Animali e terremoti

mostrando come questa relazione nasca soltanto dalla leggenda popolare e non ha nessuna veridicita’ scientifica.

Anche parlare di fasi lunari, e’ come parlare di allineamenti planetari in grado di causare il fenomeno delle maree solide. Come detto tante volte, secondo questo assunto, il movimento dei pianeti sarebbe in grado di influenzare l’attrazione gravitazionale verso il nostro pianeta e quindi di innescare il movimento delle placche che galleggiano su un mare di magma. Di questo abbiamo parlato in questo post:

Allineamenti, terremoti e … Bendandi

mostrando come queste variazioni siano minime e del tutto non sufficienti a creare effetti del genere.

Non mi e’ chiaro come venga preso in considerazione il comportamento degli esseri umani. Se mi permettete, questo mi sembra piu’ un parametro per fare colore e dare un tocco di misticismo alla previsione.

Anche parlare di temperatura delle acque o superficiale, non e’ del tutto chiaro. Ovviamente, rilasci di gas potrebbero modificare localmente la temperatura di una zona o dell’acqua, ma non e’ assolutamente una relazione 1 a 1, cioe’ se si verifica vuol dire che sta arrivando il terremoto. Se poi pensiamo a scosse molto profonde, la connessione con la temperatura superficiale diviene del tutto assurda.

Detto questo, possiamo dunque dire che non c’e’ nulla di vero?

Certo che si, ma vorrei analizzare ancora piu’ a fondo la notizia per mostrarvi in verita’ come viene fatta la previsione e come considerare questo Luke Thomas.

Premetto che Luke Thomas ha gia’ fatto innumerevoli previsioni in passato, tutte sistematicamente disattese. Famosa e’ quella di qualche anno fa in cui il “ricercatore” aveva previsto n terremoto di magnitudo 7 in California. Terremoto mai avvenuto ma a causa della previsione l’USGS americano era stato subissato di lettere e mail per avere informazioni. Piccolo appunto, sul web leggete che Thomas sarebbe un ricercatore e lavorerebbe proprio per l’USGS. Cosa completamente falsa, non esiste nessun rapporto tra l’istituto americano e Thomas.

Premesso questo, vi mostro la tabella da cui e’ stata presa la previsione per la Sicilia:

Previsioni della settimana per l'Italia

Previsioni della settimana per l’Italia

Come vedete vengono riportate diverse zone e giorno per giorno viene mostrata una probabilita’ che possa avvenire un terremoto. Ora, per il 16 agosto, la probabilita’ era del 100% a Catania, a Messina e a Napoli. Mentre abbiamo una probabilita’ del 99% a Pescara e del 93% a Firenze.

Parlare di Firenze, Pescara, Napoli e Sicilia, significa indicare una probabilita’ altissima in mezza Italia. Capite bene come questo significhi sparare numeri a caso.

In altri termini, la previsioni di Thomas funzionano cosi’: si prende una zona sismica e si danno probabilita’ piu’ o meno alte per vastissime zone. Non diciamo certo un’assurdita’ affermando che l’Italia e’ una zona sismica. Dare un raggio pari a meta’ della nazione e’ equivalente a sparare numeri a caso. E’ come se io scrivessi sul blog ogni giorno che ci sara’ un terremoto in California, o in Giappone o in qualche altro paese sismico. Prima o poi, la mia previsione verra’ azzeccata.

Tra l’altro, vi faccio notare che la previsione di Thomas era relativa ad un terremoto M5.2. Quello avvenuto era M4.2, cioe’ piu’ di 30 volte inferiore in termini energetici rispetto a quello atteso.

Concludendo, non c’e’ assolutamente nulla di scientifico ne tantomeno di vero nelle previsioni di Luke Thomas. Si tratta di previsioni fatte utilizzando presunti parametri sui quali la scienza si e’ gia’ interrogata non trovando correlazioni dirette con i sismi. Le tabelle mostrate sul sito internet di Thomas, sono relative a probabilita’ stimate in ampissime zone di paesi noti come sismici da sempre. Tra l’altro, tutte le previsioni fatte in passato sono state sistematicamente disattese. Detto questo, la previsione azzeccata che leggete su internet e’ solo frutto di “fortuna”. A forza di sparare previsioni, alla fine una viene presa, ma senza nessun criterio scientifico ne riproducibile.

Purtroppo, c’e’ ancora chi crede a questi pseudo-stregoni che utilizzano metodi mistici e senza senso per far credere di saper prevedere i terremoti. La scienza e’ alla continua ricerca di precursori sismici per permetterci di prevedere, anche solo di qualche ora, i terremoti. Purtroppo, al momento, nessuno e’ in grado di prevedere i terremoti. L’unico strumento che abbiamo in mano per difenderci da questi eventi naturali e’ fare prevenzione e mettere in sicurezza i nostri edifici.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Facciamoci trovare dagli alieni

14 Giu

Ogni tanto si leggono delle notizie scientifiche quanto mai curiose. Su questo blog, diverse volte abbiamo parlato di extraterrestri, ma non analizzando i tantissimi video di presunti avvistamenti che ogni giorno compaiono in rete, bensi’ cercando di affrontare il discorso in modo prettamente scientifico. Anche se a molti potrebbe apparire strano, la scienza da sempre si e’ interrogata circa la possibile esistenza di forme di vita aliene, valutando, o almeno cercando di farlo, la reale probabilita’, non solo che una forma di vita intelligente possa esistere, ma anche che questa possa entrare in contatto con noi.

Come visto in questi post:

Messaggio alieno nelle Aurore

Il segnale WOW!

poter valutare questa probabilita’ e’ molto difficile e richiede una stima di parametri anche non direttamente legati tra loro. L’equazione di Drake, cerca appunto di considerare ogni singolo aspetto che potrebbe consentire questo incontro, fornendo come risultato una stima di probabilita’. Se ci pensiamo, per prima cosa dovremmo avere un pianeta in grado di ospitare la vita, poi questa vita si dovrebbe essere sviluppata nel tempo creando appunto una societa’ evoluta. Che significa evoluta? Con un grado di tecnologia che gli permetta di inviare e ricevere segnali dallo spazio o, al limite, di poter esplorare lo spazio.

Ogni qual volta si parla di alieni, scatta automaticamente la molla secondo la quale queste forme di vita sarebbero infinitamente piu’ sviluppate di noi e con mezzi incredibili. Perche’ avviene questo? Proviamo a fare un ragionamento al contrario: se fossimo noi gli alieni dello stereotipo collettivo? Magari, una forma di vita aliena esiste, ma e’ ancora troppo poco sviluppata. Immaginate la nostra societa’ anche solo 200 anni fa. Eravamo in grado di esplorare l’universo? Assolutamente no. Se una societa’ con uno sviluppo tecnologico pari al nostro di 200 anni fa avesse pensato a forme di vita aliene, magari avrebbe pensato al nostro attuale sviluppo.

Sempre pensando alle probabilita’ di incontro, proviamo a fare un passo aggiuntivo. Supponiamo che la societa’ aliena esista e che si sia sviluppata ad un livello paragonabile al nostro. Bene, tutto risolto? Assolutamente no. L’universo e’ molto grande, se gli alieni sono distanti migliaia di anni luce da noi, con buona probabilita’ non riusciremo mai ad incontrarci. Se state pensando ai viaggi con la velocita’ del pensiero o cose di questo tipo, torniamo al discorso precedente sullo sviluppo tecnologico. Noi con migliaia di anni di sviluppo siamo arrivati ad oggi. Se volessimo considerare alieni fantascientifici, dovremmo valutare anche la probabilita’ che questo sviluppo sia avvenuto.

Attenzione, proprio da questo punto, vorrei partire con una nuova considerazione. Gli alieni esistono, sono evoluti, hanno la possibilita’ di incontrarci, vuoi perche’ sono vicini o perche’ hanno lo sviluppo tale per farlo, non resta che prendere appuntamento. Sicuri? No, manca un’altra valutazione. Tutte queste belle probabilita’ devono essere vere “adesso”. Immaginate una societa’ aliena che si sia sviluppata e abbia soddisfatto tutti i criteri visti, ma questo sia avvenuto, ad esempio, 1 miliardo di anni fa. Magari sono stati in grado di visitare l’universo ma noi ancora non c’eravamo. Dunque, tutte queste condizioni devono essere vere allo stesso tempo, altrimenti l’incontro non e’ possibile. Bene, proprio queste considerazioni chiamano in causa un discorso diverso da quello prettamente scientifico. Per poter valutare queste proprieta’ si devono considerare sviluppi antropologici, societari, evoluzionistici, ecc. Immaginate una bella societa’ aliena che si e’ sviluppata, ha raggiunto un’immensa tecnologia ma che si e’ autodistrutta. Il discorso e’ assurdo? Non credo proprio, basta guardare la nostra societa’.

Capite dunque che valutare la probabilita’ di un incontro con forme di vita aliene, implica un ragionamento molto vasto. Nonostante questo, l’equazione di Drake ha portato importanti risultati in questo senso, non escludendo assolutamente questa possibilita’. Ovviamente, non resta che aspettare e vedere quello che succede.

Perche’ ho fatto questo lungo preambolo? Prima di tutto per poter riprendere concetti molto importanti visti in passato ma che possono essere considerati degli evergreen. Inoltre, vorrei parlarvi di un’iniziativa curiosa che sta spopolando sulla rete in questi ultimi giorni; si tratta del progetto “Lone Signal”.

In cosa consiste?

Il progetto consiste nell’inviare nello spazio un messaggio e sperare che qualche societa’ aliena possa riceverlo. Scopo? Far capire che ci siamo e dove si trova la terra. Il messaggio conterra’ infatti informazioni circa la posizione della Terra e sul nostro attuale sviluppo: come e’ fatto l’atomo di idrogeno, gli elementi della tavola periodica, ecc. Oltre a queste informazioni, anche gli utenti della rete potranno contribuire ed inviare il loro messaggio agli alieni, semplicemente collegandosi con il sito internet del progetto:

Lone Signal

Se volete partecipare a questa iniziativa, dovete sbrigarvi, il primo invio e’ infatti atteso per il 18 Giugno.

o-LONE-SIGNAL-SPACE-MESSAGE-570

Il messaggio verra’ poi inviato sotto forma di onda elettromagnetica verso Gliese 526 utilizzando la Jamesburg Earth Station della California. Gliese 526 e’ una nana rossa con un piccolo sistema planetario orbitante a 17,6 anni luce da noi. Alcuni di questi pianeti sono considerati adatti ad ospitare forme di vita. Di questo e soprattutto della cosiddetta fascia di abitabilita’, abbiamo parlato diverse volte affrontando il discorso esopianeti:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Cosa ne penso? Se devo essere sincero, iniziative come questa lasciano veramente il tempo che trovano. Su molti siti si parla di iniziativa simile al programma SETI, di cui sicuramente avete sentito parlare. Su questo non sono assolutamente d’accordo. Nel caso di SETI, si cercava di “ascoltare” segnali provenienti dallo spazio esplorando zone considerate piu’ probabili per la vita. Anche per questo programma sono state mosse critiche per la non ripetibilita’ di un eventuale segnale, vedi proprio il WOW!, ma anche per la casualita’ della zona da esplorare.

Nel caso del Lone Signal, si andra’ a sparare un segnale verso qualcosa molto distante da noi. E’ la prima volta? Assolutamente no, sempre nell’articolo sul WOW! abbiamo parlato del messaggio di Arecibo. In quel caso, il messaggio era stato inviato verso Ercole e l’iniziativa piu’ che un programma scientifico, era stata vista come uno spot pubblicitario successivo all’ammodernamento del radiotelescopio.

Gia’ cercare forme di vita aliene e’ concettualmente difficile, immaginate di voler urlare in una direzione e sperare che qualche vi ascolti. Inoltre, tutto questo discorso implica che le forme di vita siano sufficientemente evolute e che siano in grado di ricevere onde elettromagnetiche, cosa tutt’altro che scontata.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Se arrivasse il “Big One”?

7 Giu

In quella che ormai e’ divenuta un laboratorio di creativita’, a mio avviso molto ben riuscito, cioe’ la sezione:

Hai domande o dubbi?

e’ stato lasciato un commento molto interessante e che ben si sposa anche con le tematiche trattate in questi giorni, sia negli articoli che nei commenti. La richiesta riguarda direttamente il cosiddetto Big One, cioe’ il grande terremoto che dovrebbe avvenire in California e che, secondo molte fonti, sarebbe atteso nel giro di poco tempo.

Di terremoti ne abbiamo parlato in tantissimi articoli e, come visto, questi fenomeni sono da sempre molto seguiti dai tanti catastrofisti che popolano la rete, soprattutto in relazione alle cause che determinerebbero un aumento del loro numero. Come ormai sapete bene, l’idea di fondo, nata a partire dal 21 Dicembre 2012, vorrebbe l’aumento dei terremoti dovuto all’avvicinamento di Nibiru al pianeta Terra. Secondo queste ipotesi, la variazione dell’equilibrio gravitazionale apportato da questo nuovo corpo, provocherebbe il fenomeno delle “maree solide”, cioe’ sarebbe in grado di modificare gli equilibri delle faglie e generare dunque terremoti di notevole intensita’. Cercando sul blog, potete trovare molti articoli che parlano, ma soprattutto rigettano, queste ipotesi, semplicemente mostrando l’impossibiita’ in termini fisici di variazioni di questo tipo:

Allineamento con le Pleiadi

Allineamenti, Terrremoti e … Bendandi

Allineamenti e Terremoti

3 Gennaio 2013 …

Ora, nonostante questo, la zona della California e’ da sempre molto attiva dal punto di vista sismico, e da diversi anni si parla di quello che gli americani definiscono il Big One, cioe’ “quello grosso”, intendendo il terremoto piu’ internso mai registrato, in grado praticamente di demolire tuto lo stato.

Faglia di Sant'Andrea in California

Faglia di Sant’Andrea in California

Come noto, le cause della notevole attivita’ della California possono essere ricercate nella Faglia di Sant’Andrea, che si trova tra la placca Nord Americana e quella Pacifica, attraversando per circa 1300 Km la regione. Questa faglia ha dato luogo a diversi fenomeni sismici nel corso dei secoli, grazie anche alle ottime proprieta’ di accumulare energia elastica. Come noto, quando questa energia supera, ad esempio, la fratturazione degli strati rocciosi, si generano i terremoti.

Dal punto di vista morfologico, l’arrivo del Big One, con un sisma superiore a M8 della scala Richter, e’ atteso nella zona meridionale della California, dal momento che questa e’ quella in cui da maggior tempo non si verificano eventi sismici di notevole intensita’.

Quando dovrebbe avvenire questo Big One?

Sulla rete trovate tantissime ipotesi. Vi invito pero’ a fare una riflessione: come detto innumerevoli volte, allo stato attuale della nostra conoscenza, non siamo in grado di prevedere i terremoti. Di questi argomenti abbiamo parlato tante volte e, come visto, la ricerca dei precursori sismici, cioe’ di quegli eventi che potrebbero precedere l’avvento di un sisma, e’ un filone molto attivo e sicuramente rilevante per la nostra societa’. Purtroppo, al giorno d’oggi, non siamo ancora stati in grado di definire un precursore certo, cioe’ la cui manifestazione indichi certamente un sisma in arrivo.

Premesso questo, si possono leggere tante previsioni sul Big One, alcune piu’ precise, altre un po’ meno. In generale, la piu’ quotata e’ che il terremoto dovrebbe avvenire nei prossimi 20 anni. Si parlava di 30 anni nel 2005.

Come vengono fatte queste previsioni?

Ovviamente, una buona parte delle informazioni viene dalle osservazioni scientifiche della Faglia di Sant’Andrea. Misure interessanti vengono fatte misurando i movimenti della crosta terrestre mediante osservazioni satellitari. Come anticipato, queste osservazioni possono fornire una stima della quantita’ di energia accumulata nella Faglia e dunque far intendere l’inizio di una fase piu’ critica. Oltre a questa osservazione, c’e’ ovviamente un intenso sistema di monitoraggio delal zona che serve per raccogliere moltissimi dati in continuo, utili per determinare variazioni repentine di parametri fisici e geologici, anche questi utili per capire modificazioni intense del sottosuolo.

Altre previsioni vengono invece fatte utilizzando la statistica. Di questo ambito, abbiamo parlato in diverse occasioni. Anche se parlo da appassionato di statistica, si deve capire che queste previsioni lasciano il tempo che trovano, essendo basate solo sulla storicita’ degli eventi. Come visto in questi articoli:

Prossimi terremoti secondo la statistica

Analisi statistica dei terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Terremoti: nuove analisi statistiche

utilizzando i dati raccolti, e’ possibile studiare una ciclicita’ degli eventi e determinare una certa probabilita’ di avere un terremoto in un periodo futuro. Purtroppo, molto spesso, queste informazioni vengono interpretate in malo modo da chi la statistica non la conosce affatto. Esempio di questo tipo e’ l’articolo:

Non ne bastava uno ….

Anche per il Big One, trovate fonti che parlano di probabilita’ praticamente del 100% che il terremoto avvenga, ad esempio, tra il 2015 e il 2020. Come deve essere interpretato il dato? La chiave giusta per leggere queste informazioni e’ quella di trattarle un po’ come i numeri ritardatari del lotto. Mi spiego meglio. Se entrate in una ricevitoria, trovate molti cartelli con i “numeri ritardatari”, cioe’ quei numeri che da molte estrazioni non vengono pescati in un determinata ruota. Se un numero manca da tanto tempo, deve uscire necessariamente? Assolutamente no, pero’, se ci fidiamo che i numeri abbiano tutti la stessa probabilita’ di venire pescati, allora statisticamente devono uscire tutti. Dunque, un numero ritardatario prima o poi deve uscire. Questo prima o poi, e’ la chiave dell’interpretazione. Prima o poi, non significa domani, cosi’ come non significa che un “terremoto ritardatario” rispetto alla norma debba necessariamente avvenire. Se volete, il discorso sismi e’ molto piu’ complesso del gioco del lotto, anche perche’ non parliamo di eventi casuali, ma determinati da movimenti del nostro pianeta.

Detto questo, capite dunque come vanno interpretati questi numeri, utilissimi per fare studi e, ad esempio, dimostrare che non c’e’ nessun aumento di terremoti negli ultimi anni, ma assolutamente da prendere con le pinze quando parliamo di previsioni future.

In ambito prevenzione, ci sono anche molte osservazioni interessanti che vengono fatte per capire se e’ possibile arginare i movimenti della Faglia e dunque limitare i danni dei futuri terremoti. In tale ambito, sono stati riportati dati molto interessanti ottenuti direttamente dall’osservazione in profondita’ della faglia. Come osservato, lunga la frattura si trova la citta’ di Parkfield in cui pero’, storicamente, non avvengono terremoti di forte intensita’, anche se questa si trova lungo la stessa “linea di fuoco” di citta’ bersagliate dai sismi. Le osservazioni fatte hanno permesso di individuare una zona della frattura in cui sono presenti materiali diversi ed in grado di limitare l’attrito tra le placche in scorrimento. Cosa significa? Se, per qualche motivo, diminuisce l’attrito tra le due zone che scorrono tra loro, ovviamente si limita l’accumulo di energia elastica e, dunque, detto in parole semplici, il caricamento del terremoto. Le osservazione fatte hanno mostrato la presenza, tra le altre cose, di silicati gelatinosi e acqua, in grado di ridurre gli attriti. Molti studi sono in corso proprio per cercare di capire la possibilita’ di limitare la potenza dei terremoti andando ad agire direttamente nella zona dove questi si generano. Ovviamente si tratta di studi scientifici, ma che vanno sicuramente sostenuti vista l’utilita’ che potrebbero avere. Magari, un giorno, potremo risolvere il problema terremoti “oliando” i cigolii della Terra.

Concludendo, la zona della California e’ da sempre una delle piu’ attive dal punto di vista dei sismi. Per Big One si intende il piu’ grande terremoto atteso, in grado di distruggere l’intera regione. Purtroppo, questo terremoto potrebbe avvenire e c’e’ la possibilita’, come evidenziato da molti studi, che questo possa avvenire da un momento all’altro nei prossimi 20 anni. La ricerca e’ sempre al lavoro per cercare di trovare precursori sismici e, come visto, anche possibili soluzioni in grado di limitare la potenza dei terremoti agendo direttamente sulla faglia. Speriamo solo che soluzioni percorribili arrivino magari prima dell’atteso Big One.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

IceCube e l’esplorazione del cosmo con i neutrini

22 Mag

Nell’articolo precedente, abbiamo parlato di neutrini:

EniGma con Nadir Mura

come visto nell’intervista, e come sicuramente ricorderete, queste particelle sono balzate agli onori delle cronache soprattutto a seguito della misura, poi trovata affetta da errori strumentali, che voleva i neutrini viaggiare ad una velocita’ superiore a quella della luce.

Ora, vorrei tornare nuovamente a parlare di queste particelle, a causa di una nuova misura fisica che sta facendo molto discutere.

Come sappiamo bene, i neutrini sono particelle molto particolari soprattutto a cusa della loro bassa probabilita’ di interazione con la materia, che li rende difficilmente rivelabili. Fino a pochi ani fa, si pensava addirittura che i neutrini non avessero massa, cosa smentita poi grazie alla ricerca e all’osservazione dell’oscillazione dei neutrini, cioe’ della proprieta’ di queste particelle di trasformarsi durante il cammino da una famiglia all’altra.

Proprio a causa di queste proprieta’ cosi’ particolari, i neutrini vengono studiati in diversi esperimenti e, molto spesso, in condizioni quasi estreme. Come detto, la bassa probabilita’ di osservazione, impone agli esperimenti di eliminare all’origine tutto il “rumore” da altre fonti, cioe’ quanto piu’ possibile, ogni altro evento prodotto da particelle diverse e che rischierebbe di coprire, a cuasa della maggiore probabilita’, i neutrini da rivelare.

Proprio per qusto motivo, si sente spesso parlare di rivelatori disposti in angoli remoti del mondo, all’interno delle miniere, sotto kilometri di roccia come nei laboratoridel Gran Sasso o anche immersi ad elevate profondita’ nel mare. Il motivo di questo e’, come anticipato, avere uno schermo naturale in grado di fermare le altre particelle lascinado passare i neutrini. Questi ultimi, a causa della bassa probabilita’ di interazione, passano con molta facilita’ kilometri di materiale senza interagire con la materia.

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Dopo questa doverosa introduzione, vorrei parlarvi di IceCube, uno dei maggiori rivelatori di neutrini, costruito addirittura sotto i ghiacci dell’Antartide. IceCube e’ composto da un elevato numero di elementi sensibili, sepolti ad ua profondita’ variabile tra 1500 e 2500 metri di ghiaccio. La matrice cosi’ ottenuta consente di avere una superficie da rivelare dell’odine di 1 kilometro cubo.

Perche’ sto parlando di neutrini ed in particolare di IceCube?

Scopo di questi esperimenti e’ quello di studiare i neutrini provenienti dal sole o dai raggi cosmici, anche per rivelare nuove sorgenti astrofisiche. Il motivo di questo e’ molto semplice: studire le emissioni di neutrini da parte di oggetti nell’universo, consente di ottenere una sorta di telescopio con queste particelle e dunnque poter analizzare, anche in questo modo, lo spazio che ci circonda.

Bene, l’anno scorso, quasi per caso, IceCube ha individuato due neutrini con l’energia piu’ alta mai registrata sulla Terra, dell’ordine del petaelettronvolt. Per capire quanto sia elevata questa energia, basti pensare che LHC, il grande collisore del CERN, fa scontrare particelle con energia di 3.5 teraelettronvolt, cioe’ circa 300 volte inferiore a quella osservata da ICeCube. Durante l’analisi dei dati condotta per studiare questi eventi particolari, ci si e’ accorti che tra il 2010 e il 2012, il rivelatore avrebbe visto 26 eventi di alta energia, circa 10 volte quella di LHC.

Perche’ sono importanti questi eventi? Nel nostro sistema solare, l’unica sorgente di neutrini presente e’ il Sole. Questi pero, avendo energia molto piu’ bassa, non possono aver generato quanto osservato dai fisici di IceCube. Come potete capire, si tratta, con ottima probabilita’, di una sorgente extragalattica, non ancora identificata.

Dai modelli elaborati, le sorgenti di neutrini nello spazio potrebbero essere le esplosioni di Supernovae, i gamma ray burst o i quasar. Nell’idea, come anticipato, di realizzare un telescopio a neutrini dell’universo, molto interessante sarebbe individuare questa sorgente. Purtroppo, ad oggi, questo non e’ stato ancora possibile, soprattutto a causa dei pochi eventi raccolti all’esperimento.

Anche se manca la spiegazione ufficiale, possaimo provare a formulare ipotesi circa l’origine di questi eventi, soprattutto per capire l’importanza di questo risultato.

Dei gamma ray burst abbiamo parlato in questo post:

WR104: un fucile puntato verso la Terra?

Ccome visto, la conoscenza di questi eventi, ma soprattutto, eventualmente, il poter studiare il loro comportamento diretto, ci permetterebbe di aumentare la nostra conoscenza dell’universo e, perche’ no, magari in futuro farci confermare o smentire idee catastrofiste.

In passato, precisamente nel 1987, sulla Terra arrivarono, ad esempio, i neutrini prodotti da una supernova molto distante nella Nube di Magellano. Anche in questo caso, eventi come quelli delle esplosioni di supernovae ci consentono di comprendere meglio importanti meccanismi alla base dell’universo.

Altre ipotesi formulate riguardano invece la materia oscura, di cui abbiamo parlato in questi post:

La materia oscura

Troppa antimateria nello spazio

Come visto, ad oggi, ci accorgiamo della presenza di materia oscura mediante considerazioni indirette. Purtroppo, non e’ stato ancora possibile individuare questa curiosa forma di materia, anche se molte ipotesi sono state formulate. Proprio l’astrofisica a neutrini potrebbe aiutare a sciogliere qualche riserva. Secondo alcune ipotesi infatti, i neutrini potrebbero essere stati prodotti dallo scontro di materia oscura nel centro della nostra Galassia. In questo caso, studiare in dettaglio i parametri dei candidati, aiuterebbe molto ad individuare la sorgente di produzione dei neutrini ma anche, e soprattutto, di ottenere maggiori informazioni sull’origine della Via Lattea e sulla natura della meteria oscura.

Concludendo, IceCube ha individuato 26 neutrini di alta energia che hanno attraversato i suoi rivelatori. Statisticamente, la probabilita’ che si tratti di un errore e’ inferiore  allo 0,004% per cui sara’ interessante analizzare i dati e capire meglio quali test organizzare nel futuro per cercare di risolvere importanti dubbi che ormai da troppo tempo sono in attesa di una spiegazione ufficiale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.