Tag Archives: scala

Terremoti, gravita’ e …. bufale

9 Dic

Qualche settimana fa, tutta l’opinione pubblica e’ impazzita parlando di GOCE e della sua possibile caduta a terra al termine della missione. Molto prima che questo accadesse, avevamo gia’ parlato di questa missione in questo post:

GOCE: quando il satelliste finisce la benzina

Quando poi non solo il web ma anche i giornali si sono interessati all’avvenimento, in questo articolo:

Obbligatorio dire due parole su GOCE

siamo tornati sull’argomento per valutare le reali probabilita’ di impatto non tanto sulla terra, quanto in un’area popolata del nostro pianeta.

Ora pero’, vorrei tornare su questo argomento perche’ in questi giorni si e’ di nuovo tornati a parlare di GOCE, mettendolo in relazione, questa volta per quanto riguarda i suoi dati, con un altro fatto tragico avvenuto in passato: il terribile terremoto che ha colpito il Giappone nel 2011.

Cosa si e’ scoperto?

Come visto nel primo articolo, il compito scientifico del satellite era quello di mappare il campo gravitazionale terrestre con lo scopo di studiare in dettaglio le sue caratteristiche. Misure di questo tipo sono estremamente importanti per studiare il nostro pianeta ma soprattutto per comprendere i meccanismi di circolazione delle correnti oceaniche.

Bene, dall’analisi dei dati di GOCE si e’ evidenziato come il terremoto del marzo 2011 in Giappone abbia modificato localmente la gravita’. In realta’, questo effetto era ipotizzato ed atteso ma i dati del satellite, che hanno portato una sensibilita’ mai avuta prima, hanno permesso di trovare la conferma di questa ipotesi.

Cerchiamo di ragionare sulla cosa.

Come sappiamo bene, la gravita’ che sperimentiamo tutti i giorni, e che, tra le altre cose, ci tiene attaccati alla Terra, e’ frutto della forza di attrazione che si esercita tra noi e il pianeta. Questa interazione si manifesta tra due qualsiasi masse poste ad una certa distanza. Se proprio vogliamo essere scientifici, l’intensita’ dell’interazione e’ direttamente proporzionale alle masse in gioco e inversamente proporzionale al quadrato della distanza. Detto in questi termini, noi siamo attratti dalla terra ma, allo stesso tempo, anche il nostro pianeta e’ attratto da noi.

Ora, facciamo un piccolo sforzo aggiuntivo. La nostra terra e’ un corpo molto grande e con una forma tutt’altro che regolare. Ogni variazione di densita’, o di altezza, contribuisce a variare di qualche percento l’interazione gravitazionale. Bene, come e’ noto, in caso di terremoti, abbiamo movimenti di grandi masse sotterranee che possono propagarsi anche per kilometri rispetto all’epicentro del sisma.

Detto questo, e’ facilmente comprensibile come un terremoto, specialmente se di grande intensita’, possa provocare variazioni locali della gravita’ a causa delle modificazione apportate.

Questa immagine, ricostruita proprio dai dati di GOCE, ci mostra la zona intorno all’epicentro giapponese del 2011 e le variazioni del campo gravitazionale registrate:

Variazioni locali del campo gravitazionale nella zona del terremoto del 2011 in Giappone.

Variazioni locali del campo gravitazionale nella zona del terremoto del 2011 in Giappone.

Fin qui credo sia tutto chiaro e assolutamente non sconvolgente. Come e’ nostra abitudine, andiamo pero’ a sbirciare come i siti catastrofisti stanno raccontando questa notizia.

Tenete a mente quanto detto fino a questo punto, soprattutto pensando a come si determina la gravitazione. Cosa troviamo scritto su uno di questi, tristemente noti, siti?

Analizzando i dati misurati dal GOCE in Giappone, il team ha scoperto che il terremoto aveva chiaramente influenzato negativamente, con conseguente rottura del campo gravitazionale della zona.

Leggete con attenzione questa frase. Ci sono due aspetti molto significativi da analizzare. Prima di tutto, vorrei tanto sapere cosa significa “rottura del campo gravitazionale”.Come visto nella spiegazione, questa frase non ha assolutamente senso. Si parla in questi termini solo per cercare di amplificare la notizia e spaventare le persone. Il campo gravitazionale puo’ si modificarsi, ma certamente non puo’ “spezzarsi” ne, tantomeno, interrompersi.

Oltre a questo piccolo “particolare”, ne abbiamo anche un altro molto importante. Il terremoto aveva influenzato “negativamente” . Che significa influenzato negativamente? Ovviamente niente. I terremoti sono fenomeni naturali, cosi’ come la gravita’. Grandi sismi possono provocare variazioni locali del campo gravitazionale. Non esistono influenze positive o negative, esistono solo i fatti di cui abbiamo discusso in precedenza. Mi sembra assolutamente evidente capire il perche’ di questo aggettivo in una notizia del genere.

Concludendo, siamo di fronte alla solita notizia scientifica vera, amplificata e distorta sul web. Il motivo di questo e’ ormai chiaro a tutti. Purtroppo, dobbiamo sempre prestare la massima attenzione nel leggere notizie di questo tipo e valutare sempre al meglio la fonte da cui ci stiamo informando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Inquinamento e disturbi dell’uomo

31 Ott

Attraverso la sezione:

Hai domande o dubbi

un nostro caro lettore ci ha fatto una domanda molto complessa, ma estremamente affascinante. In sintesi la richiesta e’: esistono delle correlazioni certe tra inquinamento o modificazioni dei mangimi degli animali e disturbi nell’uomo? Con disturbi intendiamo patologie che vanno dall’aumento dell’insorgenza delle allergie fino ai tumori.

Come potete facilmente capire, questa domanda e’ molto complessa, soprattutto perche’ tocca moltissimi argomenti, non sempre chiari. Con questo intendo dire che, come di sovente accade, li dove ci sono interessi economici, non sempre la quantita’ di dati disponibili e’ cosi’ vasta. In questo poi ci dobbiamo mettere anche la cattiva informazione dilagante in rete, sia da un lato che dall”altro. Chi deve guadagnare da queste attivita’, dice che e’ tutto nella norma, chi invece le vuole combattere vede nero ovunque. In questo scenario, non e’ semplice trovre la giusta via che, il piu’ delle volte, e’ nel mezzo.

Fatta questa breve introduzione, cerchiamo di trovare noi il nostro equilibrio e le nostre risposte cercando il piu’ possibile di rimanere oggettivi.

Cominciamo dunque dal discorso inquinamento, sicuramente molto sentito e da cui nessuno di noi e’ esente. Se proviamo a cercare una correlazione con le allergie, troviamo, come anticipato, una giungla mediatica di opinioni in completo contrasto tra loro. Per prima cosa, vi siete mai chiesti cosa sono le allergie? Sappiamo che una grossa percentuale della popolazione soffre di qualche forma allergica. Senza andare a toccare le intolleranze alimentari, anche queste molto diffuse ma diverse di principio, quasi una persona su 3 soffre di reazioni allergiche a qualche agente che puo essere polvere, pollini di varia natura o altro.

Detto in maniera molto semplice, le allergie possono essere viste come un errore genetico del nostro sistema immunitario. In tal senso, in presenza di un allergene, quasi sempre del tutto innocuo per la salute, il nostro sistema immunitario ha una reazione eccessiva che provoca disturbi.

Come sapete bene, soprattutto se siete allergici a qualcosa, le reazioni che un individuo allergico ha vanno da un’eccessiva lacrimazione ad un gocciolmento del naso, fino anche a febbre. Detto in altri termini, e’ come se il nostro organismo provasse in modo eccessivo ad eliminare quella che viene riconosciuta come una minaccia.

Le allergie hanno origini diverse, molto spesso da ricercarsi in cause ereditarie. Questo discorso e’ facilmente comprensibile se pensiamo al discorso genetico del sistema immunitario. Fate pero’ attenzione, se uno dei genitori e’ allergico a qualcosa, puo’ nascere un figlio a sua volta allergico, ma non necessariamente allo stesso allergene.

La speculazione tra allergie ed inquinamento nasce anche vedendo i dati sulla popolazione. Negli ultimi 10 anni infatti, il numero di individui allergici, ad esempio in Italia, e’ passato dal 20 al 25%, con un incremento assolutamente non trascurabile. Proprio questo repentino aumento porta a considerare l’origine delle allergie nell’inquinamento.

Mi dispiace deludervi, ma studi clinici condotti hanno dimostrato come l’inquinamento non possa essere imputato come una causa delle allergie. Attenzione pero’, questo non lo toglie assolutamente dalla scena. Come anticipato, la reazione allergica di un soggetto puo’ essere piu’ o meno acuta. In tal senso, e’ come se ci fosse una scala di allergie intesa come sensibilita’ stessa all’allergene. Molte persone possono essere allergiche ad una sostanza e non accorgersene fino a quando non si trovano in presenza di una concentrazione elevata o in determinati stati sensibili. Proprio quest’ultimo caso ricade in realta’ sull’inquinamento.

La presenza di inquinanti nell’aria, dovuti agli scarichi delle automobili o alle industrie, provocano delle infiammazioni all’apparato respiratorio crescenti all’aumentare della concentrazione degli inquinanti. In queste condizioni, il nostro sistema respiratorio e’ piu’ sensibile alle sostanze contenute nell’aria dal momento che questa viene filtrata di meno. Capite dunque dove e’ da cercare la relazione tra inquinamento e allergie. Se una persona e’ poco allergica ad una sostanza, respirando aria inquinata crea la condizione affinche’ l’allergia si manifesti.

Sempre secondo gli studi condotti, ed in rete ne trovate a bizzeffe, l’aumento delle allergie e’ da ricercarsi in buona parte anche all’inquinamento, ma non come causa iniziale, piuttosto come fattore scatenante di una situazione pregressa.

Altra considerazione importante e spesso non conosciuta. I soggetti maggiormente esposti agli inquinanti dell’aria sono proprio i bambini. Poiche’ molte sostanze inquinanti hanno pesi specifici elevati, ad esempio le catene di benzene e i residui di combustione, tendono a depositarsi negli strati bassi piu’ vicini all’asfalto e alle marmitte. I bambini dunque, a causa della minor altezza da terra, risultano piu’ esposti a questi inquinanti. Oltre al pericolo oggettivo di questa esposizione, si registra negli ultimi anno un vero e proprio boom di allergie manifestate in eta’ infantile.

Sempre in questa ottica, l’inquinamento provocato da gas di scarico ha subito un notevole incremento a causa dell’aumento dei veicoli alimentati a gasolio. Motori di questo tipo emettono infatti molte piu’ molecole inquinanti rispetto ai motori a benzina, soprattutto come residui incombusti.

Detto questo, passiamo invece alla parte alimentare. Come richiesto nella domanda, in questo caso e’ doveroso fare un discorso piu’ ampio parlando di patologie in generale.

Come sapete bene, in questo contesto quello che negli ultimi anni ha fatto maggiormente discutere e’ l’utilizzo dei cibi geneticamente modificati sia negli alimenti direttamente consumati dall’uomo che nei mangimi degli animali.

Anche qui, purtroppo, il discorso non e’ semplice per via dei soliti interessi economici sempre presenti.

Forse faro’ saltare qualcuno dalla sedia ma, parere di ricercatore, non trovo assolutamente nulla di sbagliato nello studio e nell’utilizzo dei cibi OGM. Fate pero’ attenzione, per poter inserire nella nostra dieta cibi di questo tipo, e’ necessario fare una serie di studi approfonditi che spesso viene saltata o ridotta per entrare subito nel mercato.

Facciamo un esempio semplice, sappiamo che i pomodori sono commestibili e fanno anche bene. Perche’ lo sappiamo? Perche’ per secoli abbiamo mangiato i pomodori e li abbiamo anche studiati in dettaglio. Se ora prendo un pomodoro OGM in cui, sempre per fare un esempio, sono state eliminate delle proteine per vari motivi, quel pomodoro e’ uguale a quello naturale? Forse lo sara’ come sapore, ammettendo che i pomodori che compriamo ancora lo abbiano, ma dal punto di vista biologico, devo valutare bene quali conseguenze puo’ avere quella modifica genetica che abbiamo apportato.

L’esempio del pomodoro non e’ assolutamente casuale. Quando parliamo di cibi OGM abbiamo due casi separati. Alcune volte vengono inseriti nella catena genetica nuovi gruppi di aminoacidi per modificare o incrementare delle caratteristiche: crescita, sapore, dimensione, ecc. Altre volte invece, vengono eliminati dei pezzi di codice genetico per cambiare alcuni parametri. In tal senso, esistono dei pomodori OGM in cui un enzima viene sottratto per rallentare la maturazione e cambiare quindi il mese in cui questi frutti sono disponibili.

Capite bene che, in un caso o nell’altro, il cambiamento fatto a livello genetico deve essere controllato nei minimi dettagli soprattutto per quanto concerne l’influenza che questa modificazione puo’ avere sul consumatore, molto spesso l’uomo.

Come viene fatta la sperimentazione?

Si prende un alimento OGM e si fa la solita procedura. Si inizia, dove possibile, vedendo gli effetti che questo cibo ha su vari animali e poi si passa ad una sperimentazione sull’uomo. Dal punto di vista formale, la procedura e’ simile a quella che subisono i medicinali prima di essere inseriti sul mercato. Capite anche come questa procedura sia molto lunga, se non altro per la necessita’ di condurre un’analisi statistica con un campione sufficiente di casi.

A volte, in presenza di effetti di lieve entita’ o molto poco probabili, si procede comunque alla messa in commercio. Purtroppo, questo sistema, cosi’ come e’ strutturato, puo’ alimetare delle falle che portano a decisioni affrettate.

Come forse ricorderete, in passato si sono avuti diversi casi di alimenti OGM che presentavano delle conseguenze non banali anche nell’uomo. Per fare un esempio, ci sono almeno un paio di casi di soia o grano OGM prodotto dalla Monsanto che, in almeno due casi, provocavano ingrossamento del volume dei reni. Questo effetto era stato visto durante la sperimentazione, ma era stato ritenuto non statisticamente importante.

Mia considerazione personale. Quando si parla di cibo che deve essere consumato dall’uomo, lo “statisticamente importante” e’ un qualcosa non facilmente gestibile ma, soprattutto, non quantificabile. Dal momento che parliamo di cosa che vanno mangiate, forse la sperimentazione e la gestione dei risultati andrebbe fatta in modo piu’ scientifico basandosi su campioni sufficientemente grandi, e magari da espandere in caso di evidenza di qualche disturbo, e da piu’ di un organismo indipendente.

Ovviamente, a posteriori, i prodotti in questione sono stati ritirati dal mercato. Per tornare in tema, in questi casi si parlava di alimenti sia destinati al consumo da parte dell’uomo, sia per la produzione di mangimi per animali.

Come visto per l’inquinamento, anche in questa parte alimentare dobbiamo stare attenti alle considerazioni che facciamo. Cosi’ come visto in precedenza, non possiamo parlare di allergie provocate dalla presenza di qualche sostanza nel cibo. Piuttosto, dobbiamo considerare se ci sono inquinanti in grado di creare condizioni anomale in cui le allargie possono manifestarsi piu’ violentemente.

Ora pero’ fate attenzione, se dal un lato questo chiude il discorso allergie, lascia del tutto aperto quello di altre patologie. Cosi’ come visto, se ci sono sostanze in grado di creare un ambiente in cui le allergie possono manifestarsi, ci possono essere altre sostanze in grado di attaccare il nostro organismo in qualche forma.

Ovviamente, e’ impossibile fare degli studi mettendo in correlazione tutte le patologie con qualsiasi tipologia di cibo possiamo mangiare. Vero e’ pero’ che molti dei cibi che oggi mangiamo vengono trattati con prodotti chimici di qualche forma e questi possono poi essere direttamente ingeriti dall’uomo.

Da ricercatore, non posso che essere a favore di una sperimentazione e di una continua evoluzione anche in questo settore. Quello che pero’ maggiormente mi spaventa e’ il solito interesse economico che troppo spesso porta a fare considerazioni non oggettive.

Questo non significa demonizzare i prodotti chimici per l’agricoltura, i pesticidi, gli OGM o altre tecniche atte a migliorare la produzione di qualcosa. Questa affermazione e’ anche giustificabile se pensiamo al continuo incremento della popolazione ma soprattutto all’aumentato benessere, e quindi richiesta di cibo, da parte di paesi ormai emersi e con economie forti nel mondo.

Detto questo, ci sono correlazione forti tra quello che magiamo e respiriamo e l’aumento di patologie nell’uomo. Come visto pero’, alcune volte gli inquinanti non sono le cause ma i veicoli di creazione di ambienti affinche’ queste patologie possano manifestarsi. Non dobbiamo guardare alla ricerca in questi settori come alchimia o qualcosa di negativo, la cosa importante e’ sempre utilizzare la testa e ragionare piu’ con la scienza che con il portafoglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pesce remo: come distorcere una notizia

22 Ott

Su questo blog in genere partiamo da notizie fantasiose per poi mostrare come queste debbano essere correttamente interpretate senza lasciare spazio a fantasie. Questo tipo di approccio e’ utile, non perche’ noi dobbiamo insegnare qualcosa a qualcuno, ma solo perche’ in questo modo si riescono ad evidenziare le varie bufale che compaiono sul web e che, purtroppo, negli ultimi tempi, o meglio a partire dal 21/12/2012, spuntano come funghi ogni giorno.

Questa volta pero’, vorrei utilizzare un approccio diverso. Questo non per fare un qualche esperimento sociale, bensi’ perche’ proprio oggi leggevo una notizia molto interessante e poi, cercando approfondimenti su web, sono incappato in una serie di articoli fantastici sullo stesso argomento. Attenzione, onde evitare fraintendimenti, fantastici non e’ un complimento ma e’ utilizzato proprio letteralmente per indicare il frutto della fantasia di chi ha pubblicato queste notizie.

Cominciamo dai fatti.

Come ricorderete, qualche tempo fa avevamo parlato del ritrovamento di un “re di aringhe”, anche detto “pesce remo”, sulle spiaggie di Almeria:

Incredibile mostro marino ritrovato in Spagna!

Come potete leggere nell’articolo, anche se diverse fonti parlavano di misterioso e spaventoso mostro marino, i resti trovati appartenevano ad una specie marina perfettamente conosciuta, appunto quella del pesce remo o “regaleco”.

Premesso questo, qual e’ la notizia?

Circa una settimana fa, un esemplare di pesce remo e’ stato rinvenuto a Catalina Island in California. Si tratta di un bell’esemplare di 5.5 metri di lunghezza che e’ stato avvistato da una ragazza poco al largo, gia’ morto, e, grazie all’aiuto di una quindicina di persone, il corpo e’ stato portato a riva.

Pesce remo ritrovato in California

Pesce remo ritrovato in California

Qui, come e’ ovvio vista la scarsa conoscenza della specie e l’importanza del ritrovamento, il pesce e’ stato sezionato e portato in laboratorio. Analisi specifiche hanno mostrato come il pesce sia morto di morte naturale.

Bene, poi cosa e’ successo?

Oggi invece i giornali hanno battuto la notizia del ritrovamento di un secondo pesce remo, sempre in California, ma questa volta a Oceanside. Il secondo regaleco trovato ha una lunghezza leggermente inferiore al primo e non supera i 4.5 metri. Piccola nota, come visto nell’articolo precedente, queste specie possono raggiungere anche gli 11 metri di lunghezza, per cui i due esemplari trovati, per quanto impressionanti, non costituiscono certo qualcosa fuori scala o che non si conosceva.

Ovviamente, e’ un evento molto raro trovare due esemplari morti vicini alla costa dal momento che i ritrovamenti di questi pesci non sono cosi’ frequenti. Perche’ questo? Come potete immaginare, anche i pesci remo muoiono, ma, vista la struttura gelatinosa della carne, e’ molto difficile che i corpi arrivino a terra interi. Su questo avevamo riflettuto anche nel precedente articolo riguardo il ritrovamento in spagna.

Non c’e’ che dire, notizia interessante e davvero curiosa.

Cosa succede invece dal lato catastrofista/complottista?

Al solito, qui raggiungiamo livelli di fantasia da far impallidire chiunque.

Non vorrei specificare singolarmente i siti, anche solo per non fare pubblicita’ a fonti di questo tipo, ma basta cercare su web per verificare che quello che dico e’ reale.

Prima cosa, scontata se vogliamo, trovati ben 2 mostri in California, con tanto di foto, di cui la scienza e la biologia non riescono a dare una spiegazione. Ovviamente, si parla di misteriose creature mai viste prima, ignorate o che forse vengono da un passato molto lontano.

Questa ovviamente e’ l’ipotesi piu’ scontata che si potrebbe fare, ma andiamo avanti.

Da altre fonti, i pesci ritrovati sono diventati 3, mentre secondo altri sono 2 pesci e un’altra specie misteriosa. Ma qui si sa, sui numeri anche i giornalisti di professione fanno a gara a chi la spara piu’ grossa.

Altri siti affermano invece che si tratta di pesci remo. A detta loro pero’, e’ impossibile trovare questi pesci a riva perche’ normalmente vivono a piu’ di 3000 metri di profondita’.

Affermazione ignorante e assurda. Per smentirla basta fare un giretto si wikipedia, la quale riporta:

Senza dubbio è una specie abissale (300-1000 m di profondità), ma è possibile individuarlo presso la superficie e vicino alle coste.

300-1000 metri e’ molto diverso da 3000 e inoltre, come si legge, e’ possibile trovarlo anche in superficie e vicino alle coste. Sempre su wikipedia troviamo anche:

Qualche volta il regaleco si trova spiaggiato ma, a causa della sua fragilità, raramente integro.

Che curiosa coincidenza, proprio quello che abbiamo affermato poco piu’ sopra.

Capite bene che anche queste affermazioni sono una balla.

Ci sono poi dei siti che davvero si superano. Sapete cosa sarebbero i misteriosi mostri ritrovati? Specie non conosciute? No, troppo poco. Specie antiche? No, di piu’. Cosa sono? Mutazioni genetiche di altri pesci. Come sarebbero avvenute queste mutazioni? Semplice, siamo in California, siamo sull’oceano Pacifico, dunque le mutazioni sarebbero avvenute a causa di acqua contaminata proveniente dalla centrale di Fukushima!

Ora, non voglio entrare nella discussione dell’incidente nucleare giapponese, dal momento che, fuori dal Giappone, forse pochi sanno la reale situazione. Vi faccio pero’ riflettere su una cosa, secondo voi, arriva un po’ di acqua contaminata dal Giappone, con che concentrazione arriva? Praticamente zero. Ma se anche arrivasse, e’ assurdo pensare che un pesce nuota in un po’ di acqua contaminata e a causa di questa muta all’istante trasformandosi in una specie di serpente marino. Non ci siamo proprio, eppure siti internet provano a farci digerire questa informazione.

Pensate sia finita qua? Assolutamente no. Altri siti hanno trovato uan diversa spiegazione ai due ritrovamenti. Si tratta di pesci remo e questo e’ ok. Perche’ si sono spiaggiati? Premesso, come visto, che non sono spiaggiati ma, il primo sicuramente, era gia’ morto, i due pesci sarebbero morti a causa di un violento terremoto che dovrebbe colpire la California nei prossimi giorni.

Aspettate un attimo, sta per arrivare un forte terremoto in California e quindi muiono i pesci? Come e’ possibile? Forse, i pesci possono avvertire prima il terremoto in arrivo e sono morti di paura?

L’assurdita’ di certe notizie mi lascia davvero perplesso.

Concludendo, e’ ovviamente un fatto molto raro quello di aver ritrovato due esemlari morti di pesci remo “interi” vicino alla riva in California. Nonostante si possa parlare di ritrovamento raro, la cosa puo’ essere compresa confrontandoci con quello che sappiamo circa la specie. Ora, pero’, tutta la speculazione in atto su questi fatti e’ davvero assurda e priva di fondamento. Con un approccio diverso rispetto al solito, abbiamo visto quanta distorsione, o meglio, in alcuni casi, proprio invenzione, c’e’ dietro una notizia che leggete sulla rete. Fate sempre attenzione a quello che leggete. Prendete tutto con le pinze e cercate sempre di analizzare i fatti in modo autonomo e confrontando sempre diverse fonti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Una batteria … vivente

19 Set

Come sapete bene, diverse volte ci siamo soffermati a riflettere sulle cosiddette energie alternative. Il punto attualmente raggiunto non puo’ certo essere considerato l’arrivo per il nostro futuro energetico. I sistemi alternativi utilizzati su larga scala, principalmente solare e eolico, sono, allo stato attuale, sistemi a bassa efficienza. Fate attenzione, non voglio certo dire che lo sfruttamento di queste risorse sia inutile, tutt’altro. Quello che sto cercando di dire e’ che queste fonti non sono sfruttate al massimo e, vista la crescita esponenziale della richiesta di energia nel mondo, non potranno certo essere considerate, allo stato attuale, alternative al petrolio o ad altre fonti.

In questa ottica, di tanto in tanto, gettiamo uno sguardo alle ricerche in corso, per mostrare lo stato dell’arte ma soprattutto per vedere possibili fonti alternative in corso di studio.

Proprio in virtu’ di questo, vorrei parlarvi di un’invenzione pubblicata solo pochi giorni fa da un gruppo di ingegneri dell’Universita’ di Stanford. Come forse avrete letto sui giornali, e’ stata prodotta la prima pila a microbi.

Di cosa si tratta?

I microbi in questione appartengono alla famiglia degli elettrogenici, cioe’ microorganismi in grado di produrre elettroni durante la digestione. Detto in altri termini, durante il processo digestivo, questi microbi strappano un elettrone che rimane libero. Questa tipologia di batteri e’ conosciuta gia’ da diverso tempo, quello che pero’ sono riusciti a fare gli autori di questa ricerca e’ trovare il modo efficace di produrre energia da questo processo.

Prima di parlarvi dell’applicazione, vi mostro una foto del dispositivo in questione:

Batteria a microbi

Batteria a microbi

Guardando la foto, vi rendete subito conto che si tratta ancora di un prototipo non industrializzato. Per darvi un’idea, le dimensioni della provetta a cui sono attaccati i fili e’ paragonabile a quella di una batteria per cellulare.

Come funziona la pila?

Come detto, questi batteri producono elettroni liberi durante la digestione. La provetta che vedete contiene due elettrodi. Il primo e’ in carbonio e proprio su questo sono presenti i nostri microbi. Come vedete anche dalla foto, il liquido all’interno della provetta appare molto torbido. Non si tratta assolutamente di un effetto ottico, sono dei liquami veri e propri che offrono il nutrimento per la colonia di microbi presenti all’interno.

Uno dei microbi osservato al microscopio

Uno dei microbi osservato al microscopio

A questo punto, il discorso comincia ad essere piu;’ chiaro. Vengono messi i microbi su un elettrodo in carbonio. Il liquido offre il nutrimento per gli organismi che dunque mangiano felici e per digerire, invece dell’infantile ruttino, producono elettroni.

Sempre all’interno e’ presente un secondo elettrodo, questa volta in ossido di argento. Questo funge da collettore per la raccolta degli elettroni. Ora, per definizione, se avete un moto ordinato di cariche elettriche da un elettrodo all’altro, avete una normalissima corrente elettrica. Dunque, avete la vostra pila.

Come potete immaginare, per sua stessa definizione, questo genere di pile si “scarica” quando la concentrazione batterica e’ cresciuta troppo, scarseggia il nutrimento o quando l’elettrodo in lega di argento e’ saturo di elettroni sulla superficie. In questo ultimo caso, che poi rappresenta il collo di bottiglia della produzione di energia elettrica, basta sostituire l’elettrodo esausto con uno nuovo affinche’ il processo riparta.

Quali sono i vantaggi di questa pila?

Anche se il funzionamento puo’ sembrare molto semplice, questa invenzione apre scenari molto importanti non solo in campo energetico, ma anche ambientale. Come potete facilmente immaginare, questo processo potrebbe essere utilizzato per produrre energia dai liquami, utilizzando questi prodotti di scarto fortemente inquinanti in modo molto intelligente.

Dal punto di vista energetico, si pensa che il sistema possa essere in grado di estrarre circa il 30% del potenziale contenuto nei liquami. Detto in altri termini, la bateria avrebbe un rendimento intorno a questo valore. Pensate sia poco? Assolutamente no. Le normali celle solari attualmente utilizzate hanno efficienze medie intorno al 25%. Solo con celle di ultima generazione si riesce a superare di poco il 30%. Questo significa che il processo microbico ha un rendimento del tutto paragonabile a quello delle celle utilizzate nei pannelli solari.

Come anticipato, e come evidente, lo studio e’ ancora in fase prototipale. In particolare, il problema attuale e’ nel costo dell’elettrodo in ossido di argento che serve da collettore per gli elettroni. Il prezzo troppo alto, rende questo sistema ancora anti-economico e non adatto all’utilizzo su larga scala.

Detto questo, capite bene come questa ricerca sia tutt’altro che terminata. Gli sviluppi futuri sono proprio volti a trovare materiali economici adatti a chiudere il circuito. Il fatto di aver usato all’inizio un materiale piu’ costoso e’ del tutto normale se consideriamo che per prima cosa si doveva dimostrare la correttezza dell’intuizione.

Concludendo, proprio in questi giorni e’ stata pubblicata la ricerca che racconta la costruzione della prima pila a batteri. Questo sistema sfrutta i processi digestivi di alcune tipologie di microbi in grado di liberare elettroni. La batteria realizzata ha un’efficienza paragonabile a quella delle celle solari e la ricerca e’ attualmente impegnata per trovare materiali economici da utilizzare per la raccolta degli elettroni al posto del costoso ossido di argento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le scale sismologiche

6 Giu

Nella sezione:

Hai domade o dubbi

e’ stata fatta una richiesta molto interessante che riguarda le scala sismologiche. In particolare, si chiedeva di illustrare nel blog la scala ESI 2007, ma credo che sia molto interessante parlare in generale di quali scale vengono utilizzate per classificare un sisma e quali sono le differenze tra queste.

Di principio, tutti conoscono la scala Mercalli e la scala Richter, che sono quelle apparentemente piu’ utilizzate e che sentiamo nominare in occasione di qualche sisma che avviene nel mondo. Ho detto “apparentemente” perche’ prima di tutto ci sono molte altre scale utilizzate soprattutto dai sismologi ed inoltre molte di queste riescono a classificare i terremoti in modo piu’ scientifico, basandosi proprio sulla natura fisica del fenomeno, piuttosto che, ad esempio, sui danni creati da un sisma.

Dal punto di vista storico, la prima scala basata su presupposti scientifici fu la Rossi-Forel a dieci gradi. Proprio da questa, il sismologo e vulcanologo Mercalli derivo’ una scala a 12 gradi basata sull’intensita’ di un sisma. Fate attenzione, per prima cosa, parlando di terremoti, e’ molto importante distinguere tra intensita’ e magnitudo, termini spesso confusi tra loro dai non addetti ai lavori. Per far capire questa differenza, su cui torneremo in seguito descrivendo i processi fisici, basti pensare che due terremoti di uguale magnitudo possono avere intensita’ diversa se, ad esempio, avvengono con ipocentri a profondita’ diversa tra loro.

Detto questo, la scala Mercalli e’ basata sugli effetti che un terremoto puo’ avere su persone, cose e manufatti. Alla luce di quanto detto, appare evidente che un terremoto di altissima magnitudo che avviene in una zona desertica non popolata, avra’ un grado Mercalli inferiore proprio per la mancanza di danni a cose e persone.

Per essere precisi, l’attuale scala utilizzata e’ detta Mercalli-Cancani-Siedberg ed e’ a 12 gradi. In origine, la scala Mercalli, cosi’come la Rossi-Forel, aveva solo 10 gradi. Fu proprio il sismologo Cancani ad esternderla a 12 gradi. Generalmente, i gradi piu’ bassi della scala vengono attribuiti in base alla percezione delle persone, mentre per i gradi piu’ alti ci si basa sugli effetti agli edifici e ai manufatti in generale.

Da quanto detto, appare evidente che la scala Mercalli non e’ basata su nessuna quantita’ fisica legata al terremoto, ma solo agli effetti del sisma. Se vogliamo, questo inizialmente potrebbe essere un vantaggio di questa scala dal momento che per l’attribuzione dell grado non e’ necessaria alcuna strumentazione specifica.

Proprio queste considerazioni hanno poi portato alla formulazione della scala Richter. Piccola premessa, il termine scala Richter, non e’ in realta’ molto utilizzato dalla comunita’ sismologica in quanto la scala viene detta “Magnitudo Locale”. Come e’ definita? Come anticipato, questa scala misura la magnitudo del sisma ed e’ direttamente legata all’energia rilasciata nel sottosuolo. Questo parametro viene stimato per il terremoto all’ipocentro ed e’ dunque non dipendente, come e’ evidente, dalle tecniche costruttive utilizzate in una determinata zona. A parte il particolare sismografo utilizzato per determinare il grado Richter, questa e’ una scala logaritmica in cui vengono definiti i decimi di magnitudo (M X.Y) ed in cui, ad esempio, una determinata magnitudo e’ circa 32 volte maggiore della successiva: M6=32M5, ecc.

Ora, date queste due scale, perche’ avremmo bisogno di altro? Come detto, la scala Mercalli e’ relativa ai danni del terremoto, la acala Richter invece e’ direttamente legata all’energia rilasciata dal sisma e dunque descrive la meccanica del fenomeno. In realta’, quest’ultima scala presenta dei problemi di saturazione per i gradi maggiori, dovuti al fatto che, sopra M8.5, terremoti di magnitudo diversa possono risultare nello stesso valore della scala.

Per risolvere questo problema, e’ stata poi introdotta la scala del “momento sismico”. Analogamente alla Richter, anche questa scala e’ di tipo logaritmico e si basa sulla stima dell’energia rilasciata nell’ipocentro. A differenza pero’ della prima, non presenta i problemi di saturazione.

Da quanto detto, appare evidente come queste scale siano completamente scorrelate tra loro, trattando un sisma sotto aspetti diversi. Se ci pensiamo bene, entrambi i parametri utilizzati potrebbero essere utili per una valutazione e per una comparazione, ad esempio, per sismi successivi avvenuti nello stesso luogo. Sulla base di questo, e’ stata sviluppata la “Scala Macrosismica Europea”, o EMS-98. In questa definizione, si distingue un sisma in base alla forza degli effetti di un terremoto in un luogo specifico. In questo senso, entra ovviamente l’energia del sisma, ma anche i danni provocati dal fenomeno in un determinato luogo, caratterizzato da specifiche tecniche costruttive e densita’ abitative. Anche la EMS-98 presenta 12 gradi e, passando dai livelli piu’ bassi a quelli piu’ alti, di volta in volta la percezione umana del sisma lascia spazio ai danni agli oggetti provocati dal fenomeno. Per quanto piu’ precisa e meglio utilizzabile, anche questa scala presenta delle limitazioni simili a quelle dei suoi predecessori: confusione nell’attribuzione di un livello alto, influenze soggettive nella valutazione dei danni agli edifici.

Per evitare queste problematiche, nel 2007 e’ stata sviluppata una nuova scala detta “Environmental Seismic Intensity Scale”, o ESI-2007. Come suggerisce il nome stesso, questa scala si basa sugli effetti ambientali che un sisma puo’ avere in un determinato luogo. Fate attenzione, stiamo parlando di ambiente in generale, non solo di antropizzazione. In tal senso, questa scala va proprio a valutare la fagliazione provocata nel terreno, fenomeni di subsidenza, liquefazione, frattura, ecc. Come visto in diversi articoli, questi sono tutti effetti seguenti ad un sisma e che possono essere utilizzati per descrivere il fenomeno partendo proprio dalle sue conseguenze sull’ambiente.

Qual e’ il vantaggio di questa tecnica? Come sappiamo, molto spesso un terremoto tende a ripetersi in zone in cui e’ gia’ avvenuto. Valutare, e dunque raccontare, il sisma basandosi proprio sui suoi effetti sull’ambiente, puo’ aiutarci a prevenire i danni del terremoto. In che modo? Parlare di case distrutte, non e’ di per se un parametro utilie, ad esempio, per confrontarci con fenomeni avvenuti decenni prima. Questo e’ evidente se si pensa alle diverse tecniche costruttive, ma anche al grado di antropizzazione di un determinato luogo. Parlando invece di conseguenze sull’ambiente, e’ possibile prima di tutto confrontarci con gli eventi passati, ma soprattutto ci permette di predisporre piani di emergenza mirati, conoscendo le eventuali problematiche che potrebbero verificarsi in concomitanza con un sisma di alta intensita’.

Ultima considerazione che vi sara’ venuta in mente: perche’ parliamo di nuova scala se il nome e’ qualcosa-2007? Semplicemente perche’ nel 2007 e’ stta presentata questa divisione, ma prima di poter essere utilizzata, sono richiesti 5 anni di sperimentazione, cosi’ come avvenuto.

Concludendo, esistono diverse scale sismologiche per poter valutare e distinguere tra loro i diversi terremoti. Cme visto pero’, queste presentano alcune limitazioni specifiche dovute alla stima dei danni o alla caratteristica fisica presa in considerazione. Distinzione molto importante e’ quella tra magnitudo e intensita’ che, come visto, sono due termini spesso confusi ma che in realta’ caratterizzano cose completamente diverse tra loro. La nuova scala ESI-2007, consente di valutare gli effetti provocati da un sisma sull’ambiente, determiando cosi’ un confronto diretto e sempre possibile in un luogo specifico. Come potete facilmente immaginare, per poter definire esattamente il grado ESI di un sisma, i sismologi devono recarsi sul luogo per poter stimare al meglio gli effetti ambientali lasciati. Oltre a quelle viste, vi sono poi altre scale, spesso simili alle altre, ma il cui utilizzo e’, ad esempio, specifico di un determinato luogo per motivi storici o culturali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Superstizioni e scaramanzie

7 Mag

In un commento lasciato nell’apposita sezione:

Hai domande o dubbi?

una nostra cara lettrice, mi ha chiesto di scrivere un articolo riguardante le superstizioni. Come tutti sapete, in questo caso parliamo di usanze e modi di fare che, in modo o nell’altro, porterebbero sfortuna a chi non li compie. Credo che questo discorso sia estremamente interessante anche nell’ambito delle profezie che siamo soliti trattare su questo blog. Vi faccio un esempio, formulare o credere a delle profezie, corrisponde quasi sempre ad attendere un evento nefasto scatenato da qualcosa di poco controllabile. Allo stesso modo, i gesti scaramantici servono per allontanare le disgrazie che potrebbero accadere qualora un particolare gesto non venisse compiuto. Ognuno di noi ha i suoi gesti scaramantici che compie, magari inconsciamente, ripetutamente prima di qualcosa. Fate attenzione, nel momento in cui un gesto viene compiuto sistematicamente prima di qualcosa e, qualora non venisse fatto questo potesse portare uno stato di ansia eccessiva, non parliamo piu’ di scaramanzia ma di manie ossesivo compulsive. Al solito, c’e’ sempre un limite che deve essere rispettato per non cadere in vere e proprie fobie.

Diverso e’ invece il discorso delle superstizioni. Qui parliamo proprio di particolari eventi che potrebbero portare fortuna o sfortuna qualora venissero fatti, ma sono gesti comuni, molto spesso tramandati dalla storia o dalle usanze popolari. Come sappiamo bene, molto spesso cio’ che viene dall’antichita’ e’ visto con una sorta di rispetto che tende a mitizzare queste leggende e a renderle necessariamente vere.

Ora, ovviamente sarebbe impossibile parlare di tutte le superstizioni esistenti, dal momento che il loro numero diverge molto facilmente e soprattutto quando ci si appella alla cultura popolare di alcune zone, si rischia veramente di scrivere una enciclopedia sull’argomento. Documentandomi su queste tematiche, ho potuto constatare come molto spesso diverse superstizioni siano in contrapposizione tra loro. Magari, secondo la cultura di una regione, un gesto puo’ portare fortuna, secondo altre invece e’ portatore di gravi sventure.

Prima di tutto, cerchiamo di fare una considerazione oggettiva. Come anticipato, molte superstizioni vengono tramandate dalla storia. Tolto il rispetto per le culture antiche, molto spesso si tratta di credenze legate all’ignoranza delle persone su argomenti specifici. Oggi, la nostra aumentata consapevolezza, ci dovrebbe far ragionare e farci capire come tanti gesti che nel passato assumevano un’aura quasi magica, sono facilmente spiegabili attraverso la conoscenza.

Da sempre sono stato incuriosito da queste tematiche. Molto spesso, mi sono trovato a chiedere a delle persone come mai credessero in certe superstizioni e moltissime volte, mi sono sentito rispondere: “non ci credo, ma, nel dubbio, rispettarle non mi costa nulla”. Bene, credo che una risposta di questo tipo ci faccia capire come il dubbio sia sempre presente nell’animo umano ma soprattutto come la fiducia nella nostra conoscenza possa essere definita “quanto basta”, cioe’, lasciamo sempre un velo di mistero che non fa mai male.

Alal luce di queste considerazioni, vorrei passare in esame le superstizioni piu’ popolari appunto per mostrare la loro origine storica ma soprattutto il contesto storico da cui ci sono state tramandate.

Sicuramente tutti conoscono la fama negativa del numero 17. Come sapete, in Italia ed in altri paesi, questo numero e’ sinonimo di malaugurio mentre in tantissimi altri paesi e’ considerato un portafortuna mentre il 13 e’ visto di cattivo occhio. Perche’ questa differenza? Come anticipato, questo avviene per molte superstizioni. Quello che puo’ essere vero per una cultura, puo’ avere un significato oppposto per un ‘altra.

Riguardo al 17, la sua fama e’ talmente nota che si parla di “Eptacaidecafobia” per indicare la paura in questo numero. Il primo ad indicare il 17 come numero negativo fu addirittura Pitagora. Il 17 si trova infatti tra il 16 ed il 18, considerati numeri molto positivi in quanto rappresentanti le aree dei quadrilateri 4×4 e 6×3. Al contrario, il 17, essendo un numero primo, non puo’ essere visto in nessun caso come l’area di un poligono dai lati interi. Diversa spiegazione viene invece dalla cultura romana, sicuramente a noi piu’ vicina. Nell’antica Roma, si usava scrivere sulle lapidi dei defunti la parola “VIXI” per indicare “ho vissuto”. Bene, l’anagramma di VIXI e’ XVII, che in numerazione romana indica il 17. Proprio da questo fatto nasce la cultura italica del vedere il 17 come numero sfortunato.

Discorso diverso avviene invece per il 13, considerato sfortunato in molte culture anglosassoni. In questo caso, l’origine e’ da ricercarsi nella storia dell’ultima cena. Come e’ noto, il tredicesimo “ospite” tra i 12 apostoli era proprio Gesu’ Cristo, che poco dopo venne ucciso in croce.

Sempre di origine biblica e’ la concezione che il venerdi sia un numero sfortunato. Come e’ noto, di venerdi mori’ Gesu’ Cristo (venerdi santo) e dunque, in base alla cultura, si indica come giorno sfortunato il venerdi 13 o il venerdi 17.

Cambiando argomento, ma sempre restando in tema di superstizioni, una delle piu’ note e’ quella che riguarda la caduta di sale o di olio in terra. In questo caso, l’origine e’ molto semplice e, al solito, viene tramandata dal passato quando il sale e l’olio rappresentavano dei beni molto costosi. Proprio per questo motivo, la perdita di questi beni era vista come un cattivo auspicio, economico in questo caso, per gli abitanti della casa. Sempre legato al costo elevato nel passato di alcuni beni, e’ la superstizione di 7 anni di sventura facendo cadere uno specchio. In  questo caso pero’, oltre al danno economico, che nel passato era determinante, e’ interessante capire l’origine proprio dei 7 anni di sventura. Anche in questo caso, dobbiamo appellarci all’antica Roma. Secondo la tradizione dell’impero, la vita era solita rinnovarsi ogni 7 anni mentre lo specchio era, grazie alle sue proprieta’ riflettenti, in grado di imprigionare una parte dell’anima di chi ci si specchiava. In questo senso, rompere lo specchio significava intrappolare l’anima dello sfortunato fino a che la vita non si sarebbe rinnovata dopo 7 anni.

Visto che nel commento mi e’ stato anche chiesto esplicitamente, parlero’ anche della superstizione del non passare sotto una scala aperta. In questo caso, troviamo una duplice origine per questa credenza. In primis, come in molti altri casi, abbiamo un’origine biblica della cosa. La scala appoggiata al muro, sarebbe un simbolo della trinita’ divina espressa attraverso il triangolo. Passare sotto la scala sarebbe equivalente ad interrompere il triangolo e quindi a mettere in discussione la trinita’. Storicamente invece, questa superstizione nasce da ovvi motivi di sicurezza. In passato, le scale utilizzate per riparare i tetti, non erano provviste di gommini antiscivolo, per cui era molto frequente che la scala scivolasse lungo il muro con il rischio di cadere sulla testa dello sfortunato passante. Da qui, l’origine della profezia che vedrebbe come segno nefasto quello di passare sotto la scala aperta.

Sempre legata alla cultura popolare e’, ad esempio, la superstizione del non aprire un ombrello dentro casa. In questo caso infatti, aprire un ombrello all’interno della propria abitazione sarebbe equivalente a dire che il tetto non ci protegge abbastanza o che , purtroppo, non abbiamo un tetto sotto cui stare.

Come capite bene, soprattutto per le profezie che vengono dalla cultura popolare, l’origine delle superstizioni e’ da ricercarsi nei gesti fatti in passato e che potevano indicare uno stato di indigenza delle persone. Ripetere quei gesti era dunque visto come simbolo di malaugurio per chi li compiva.

Superstizioni invece legate alla salute sono quelle che riguardano il non poggiare il cappello sul letto e non rifare mai un letto in tre persone. Nel primo caso, sempre nel passato, quando un dottore faceva visita domestica ad un malato grave, era solito sedersi vicino al letto del paziente e poggiare il proprio cappello sul materasso. Compiere questo gesto significherebbe dunque attirare un medico per persone malate nell’abitazione. La stessa cosa vale per il detto di non rifare il letto in tre. Per rifare un letto bastano due persone. In pasato, quando ne servivano tre? Sempre quando c’era un malato grave che non poteva alzarsi. In questo caso, mentre due rifacevano il letto, una terza persona era incaricata di sollevare il malato.

Solo per concludere, vi parlo di un’ultima superstizione invece piu’ recente: quella secondo cui se si accendono piu’ sigarette con lo stesso fiammifero, il piu’ giovane del gruppo morira’ presto. In questo caso, l’origine viene dalla prima guerra mondiale, quando, per risparmiare beni preziosi, si era soliti accendere con un fiammifero le sigarette di piu’ soldati. In questo caso, un cecchino appostato, vedendo la fiamma, aveva tutto il tempo di prendere la mira e fare fuoco. Per motivi gerarchici, chi era l’ultimo ad accendere la propria sigaretta? Ovviamente il piu’ giovane del gruppo, che dunque rappresentava un facile bersaglio per il cecchino.

Ovviamente ci sarebbero tantissime altre superstizioni da trattare, ma, almeno secondo me, queste sono quelle piu’ popolari e la cui origine e’ piu o meno nota. Come detto all’inizio, molte di queste storie provengono dal passato e dalla cultura popolare. Capire l’origine di questi gesti, ci fa ricordare lo stato di indigenza in cui magari vivevano i nostri antenati. Oggi, ripetere questi gesti e’ solo una tradizione tramandata da generazioni, ma che non offre nessun vantaggio. Come anticipato pero’, per molti, fare questi gesti non costa nulla per cui continueranno a farli senza problemi e anche a tramandarli alle generazioni future.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tromba d’aria in Emilia

4 Mag

Partiamo dall’inizio: venerdi, intorno alle 17, una tromba d’aria si e’ formata nell’Emilia, e ha interessato diversi comuni compresi tra Bologna e Modena. Il fenomeno e’ stato abbastanza violento, ha scoperchiato diverse case lasciando molte persone senza un tetto e ci sono stati circa una decina di feriti.

Ecco una foto di quanto accaduto:

Tromba d'aria in Emilia

Tromba d’aria in Emilia

sul web trovate moltissime foto simili a questa, e anche video girati durante quei momenti da testimoni:

Dunque? Perche’ parlo di questo avvenimento? Semplicemente lo faccio per cercare di rispondere all’enorme speculazione che si e’ gia’ creata sul web, e mi dispiace dirlo anche su molti giornali e telegiornali, riguardo a questo fenomeno. Se provate a cercare informazioni in rete, troverete tanti siti che parlano della straordinarieta’ di questo fenomeno, dell’origine sconosciuta di un tornado di queste dimensioni in Italia. Ovviamente, non possono certo mancare tutti quelli che puntano il dito contro HAARP, la geoingegneria, i complotti del Nuovo Ordine Mondiale, ecc.

Dal momento che questo fenomeno ha interessato nuovamente alcuni comuni gia’ colpiti nel 2012 dal terremoto, ci tengo a discutere questi effetti per non aumentare il panico in persone gia’ scosse da fenomeni naturali. Del terremoto emiliano e di tutti quei fattori di volta in volta additati come cause, abbiamo parlato in questi post:

Terremoto del 20 Maggio in Emilia

Ancora terremoti in Emilia

Emilia 13-16 luglio: un po’ di statistica

Fratturazione idraulica

Riassunto sui terremoti

Una prova del fracking in Emilia?

Innalzamento dei pozzi in Emilia prima del sisma

Al solito, chi frequenta questo blog spesso sa che e’ cosi’, non voglio tranquillizzare per partito preso, ma voglio prima di tutto analizzare quanto accaduto e cercare di fare qualche considerazione storica su fenomeni di questo tipo.

Tornando al discorso tromba d’aria, come potete leggere sui giornali, i venti erano compresi tra 200 e 230 Km/h, il fenomeno si e’ formato subito dopo un violento temporale e le temperature si erano abbassate di diversi gradi prima dell’evento.

Bene, per chi non lo sapesse, queste sono le condizioni ottimali per la formazione di una tromba d’aria. Inoltre, la fine o l’inizio della stagione estiva, sono i momenti piu’ propizi per la formazione di questi fenomeni, grazie anche allo scontro di masse d’aria a diversa temperatura. Sicuramente, tutti quanti vi sarete accorti delle temperature estive registrate nei giorni scorsi su tutto il territorio italiano. Bene, proprio in questi giorni, si sono invece avuti violenti temporali, come nel caso dell’Emilia, causati dallo scontro di correnti fredde. Queste condizioni di instabilita’ creano il terreno ideale per la formazione di trombe d’aria. Il forte temporale registrato ha causato la formazione di celle di accrescimento con il vento che, a causa dei gradienti verticali di temperatura, ha innescato il moto rotatorio.

Cosa c’e’ di strano? Assolutamente nulla. Le condizioni climatiche erano ideali, cosi’ come il periodo dell’anno. Ora pero’, prima che qualcuno salti sulla sedia, facciamo un’altra considerazione: e’ normale che fenomeni di questo tipo si formino in Italia?

Rispondere a questa domanda e’ importante per capire le affermazioni circa la geoingegneria che, secondo alcuni, provocherebbe la formazione di tornado nel mondo oltre ovviamente a significative variazioni climatiche.

Qualche tempo fa, avevamo fatto lo stesso discorso, analizzando il fenomeno avvenuto a novembre a Taranto:

Tromba d’aria a Taranto

Come visto in quest’articolo, l’Italia non e’ affatto esente da fenomeni di questo tipo. A dimostrazione, vi riporto nuovamente la mappa del NOAA che mostra i paesi a piu’ alta probabilita’ di formazione si trombe d’aria:

Paesi a rischio tornado nel mondo

Paesi a rischio tornado nel mondo

Come si vede, tutta l’area mediterranea presenta le condizioni per la formazione dei tornado. Infatti, oltre ai parametri atmosferici, importante contributo viene dalle caratteristiche morfologiche del terreno. Zone ampie e pianeggiati, possono consentire una formazione di fenomeni piu’ violenti e duraturi. Se poi, intorno a queste zone, ci sono catene montuose da cui possono arrivare correnti piu’ fredde, la probabilita’ di formazione di tornado cresce velocemente.

Queste condizioni sono infatti quelle che si trovano nella cosidetta Tornado Alley negli Stati Uniti e che comprende Illinois, Texas, Kansas, Arkansas, Missouri e Nebraska. Questa e’ la zona del pianeta con la probabilita’ maggiore di formazione di tornado.

E in Italia? La mappa del NOAA ci ha mostrato come il paese sia classificato a potenziale rischio tornado. Cosa dire sulle singole regioni? Analizzando il territorio nello specifico, le regioni con la massima probabilita’ di trombe d’aria sono: Lazio, Toscana, Liguria, Lombardia, Piemonte Veneto e ovviamente Puglia, come nel caso di novembre, e la pianura padana, come in questo caso. Anche sotto questo punto di vista, il fatto di aver avuto una tromba d’aria in Emilia non ci sorprende affatto.

Rimane solo da analizzare la potenza del fenomeno. C’e’ qualcosa di sorprendente in questo? Come detto all’inizio, i venti registrati erano compresi tra 200 e 230 Km/h. Come visto nell’articolo su Taranto, la potenza, o meglio la distruttivita’, di un tornado viene classificata usando una scala simile a quella Mercalli per i terremoti e chiamata Scala Fujita. Questa divisione prevede 6 livelli di intensita’, tra F0 e F5, con velocita’ dei venti crescente, come mostrto in questa tabella:

Grado Classificazione Velocità del vento
F0 DEBOLE 64–116 km/h
F1 MODERATO 117–180 km/h
F2 SIGNIFICATIVO 180–250 km/h
F3 FORTE 254–332 km/h
F4 DEVASTANTE 333–419 km/h
F5 CATASTROFICO 420–512 km/h

Bene, dai venti misurati, la tromba d’aria in Emilia puo’ essere classificata come un F2. Se vediamo la descrizione di questi fenomeni troviamo:

Danni considerevoli. Scoperchiamento di tetti; distruzione di case prefabbricate; ribaltamento di camion; sradicamento di grossi alberi; sollevamento di auto da terra

Esattamente corrispondente con quanto avvenuto.

E’ anomala una tromba d’aria F2 in Italia? Per prima cosa, quella registrata a Taranto in Novembre era una F3, dunque molto piu’ potente (come nella scala Mercalli, il passaggio da un livello all’altro e’ esponenziale). Notate come parli indistintamente di tromba d’aria o tornado, il fenomeno e’ esattamente lo stesso solo che ci si riferisce al primo caso quando si hanno i livelli piu’ bassi della scala Fujita.

Come detto nell’articolo precedente, in passato si sono registrati in Italia fenomeni anche molto piu’ intensi di questi di cui stiamo parlando. Per darvi qualche esempio: 1957: F4 nell’Oltrepo’ Pavese, 1970: F4 nel Padovano, 2001: F3 in Brianza, 2009: F3 a Treviso e, ovviamente, 2012: F3 a Taranto. Senza dubbio, il fenomeno piu’ distruttivo avvenuto in Italia, questo si piu’ unico che raro, e’ quello che colpi’ Treviso nel 1930. Si tratto’ dell’unico caso di tornado F5 in Italia e costo’ la vita a 23 persone.

Ricapitolando, la tromba d’aria che ha colpito l’Emilia e’ classificata come F2 nella scala Fujita. La potenza, il luogo, il periodo e le condizioni meteo sono del tutto compatibili con il fenomeno avvenuto e non presentano nessun aspetto di eccezionalita’. Non vorrei sembrare cinico in questo discorso, dal momento che ci sono stati dei feriti, oltre ovviamente a notevoli danni economici. E’ importante pero’ analizzare in dettaglio quanto avvenuto senza lasciarsi trasportare dalle emozioni o, peggio ancora, cercare di speculare su quanto avvenuto.

La zona colpita e’ nuovamente quella in cui e’ avvenuto il terremoto. E’ importante capire che fenomeni di questo tipo possono avvenire, sono stati registrati in passato e, probabilmente, ci saranno anche in futuro, speriamo ovviamente senza danni. Su molti articoli, si parla anche dell’importante grandinata registrata sempre in quelle ore. Anche qui, il periodo, prima o dopo l’aestate, e’ propizio per fenomeni di questo tipo, esattamente per lo stesso motivo visto parlando di trombe d’aria, scontro di correnti a temperatura molto diversa.

Come se non bastasse, su molti siti si enfatizza il fatto che il giorno successivo e’ stato registrato un terremoto M3 vicino a quelle zone. Questi sono fenomeni del tutto scorrelati tra loro. Tra l’altro, nei giorni scorsi, sono state registrate diverse scosse nella zona e, proprio per questo motivo, i geologi pensano ad una fratturazione della linea di faglia che non risce ad accumulare energia elastica. Se questo fosse vero, come si pensa, la nuova conformazione del terreno, creata a seguito degli eventi di maggio, ha dato luogo a faglie molto frastagliate che dunque scaricano sempre poca energia senza accumularla. Detto in parole semplici, il terreno scarica l’energia di volta in volta, senza accumularla e dunque evitando il ripetersi di fenomeni di alta magnitudo. Messa in questi termini, la notizia e’ molto positiva, meglio tanti piccoli sismi che un teremoto distruttivo.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Yellowstone, il supervulcano

30 Apr

Nel nostro precedente articolo:

Cosa c’e’ sotto i nostri piedi?

abbiamo parlato di una nuova interessantissima misura riguardante la temperatura nel centro della Terra. Come visto, attraverso un complicato sistema di simulazione delle condizioni, e’ stato possibile correggere il valore precedentemente noto, portando a ben 6000 gradi la temperatura del nucleo di ferro solido del nostro pianeta.

Rimanendo sulla scia di questi argomenti, vorrei adesso parlarvi di un altro aspetto del nostro pianeta, che molto spesso ha richiamato anche l’attenzione di tanti catastrofisti: la caldera dello Yellowstone. Diversi mesi fa, ci siamo gia’ occupati dei fenomeni vulcanici in questa zona, analizzando le tante voci che volevano questo vulcano pronto ad eruttare, come dimostrato da alcuni valori dei sismografi:

Yellowstone, cosa succede?

Yellowstone, aggiornamento

Come visto, i presunti movimenti citati su internet erano solo dovuti ad un sismografo rotto che dunque forniva valori completamente fuori scala. Ma questo era facilmente intuibile a meno di voler fare una becera speculazione.

Come avvenuto per la temperatura del centro della terra, torniamo a parlare di questo argomento a seguito di una nuova interessante misura condotta dai geologi e che ci permette di affrontare argomenti non ancora discussi su questo blog.

Ricostruzione della caldera dello Yellowstone

Ricostruzione della caldera dello Yellowstone

Come annunciato solo pochi giorni fa nel corso della riunione annuale della Societa’ Sismologica Americana, una nuova misurazione di precisione ha permesso di modificare notevolmente le dimensioni conosciute della caldera sotto lo Yellowstone. Mentre prima si pensava a diverse caldere non connesse tra loro, la nuova ricerca condotta dai ricercatori dell’universita’ dello Utah, ha mostrato come sotto l’omonimo parco, sia presente un’enorme caldera dotata di numerose diramazioni, come se fosse una singola camera magmatica. Inoltre, studiando i nuovi dati raccolti, e’ stato possibile aumentare di ben il 50% le precedenti dimensioni ipotizzate, portando la caldera ad una lunghezza di 60Km, una larghezza di 30Km ed una profondita’ tra i 5 e i 12Km rispetto alla superficie.

Date queste dimensioni, capite bene perche’ la notizia di questa nuova misura ha nuovamente riacceso gli animi catastrofisti mai sedati dal 21 Dicembre 2012. Inutile dire che lo Yellowstone e’ uno dei vulcani piu’ pericolosi del mondo, ma questo non ci deve assolutamente lasciar prendere dal panico. Cerchiamo dunque di comprendere a fondo la struttura della caldera e di capire la reale pericolosita’, al momento, di questo vulcano.

La zona sopra la caldera nel parco di Yellowstone

La zona sopra la caldera nel parco di Yellowstone

Come anticipato, la caldera si trova per gran parte sotto lo stato del Wyoming, proprio sotto il parco nazionale. Al contrario dei vulcani classici che possiamo immaginare, lo Yellowstone si trova sopra quello che in geologia viene chiamato un “punto caldo”. Con questo termine si indica una zona precisa in cui la roccia fusa, generalmente sotto la crosta terrestre, tende a salire in superficie. Questo meccanismo e’ esattamente lo stesso che conferisce attivita’ ai vulcani, ma nel caso dello Yellowstone il punto caldo si trova sotto l’area pianeggiante del parco e si manifesta attraveso determinati fenomeni geologici.

Come e’ stata fatta la nuova misura?

Analogamente a quanto visto nell’articolo precedente, la nuova misurazione e’ stata possibile, anche in questo caso, analizzando la propagazione delle onde sismiche. A seguito di terremoti avvenuti in zona, e’ stato possibile studiare le interferenze delle onde attraverso il terreno, determinando in questo modo l’esatta percentuale di volume solido e fluido. Come visto nell’articolo precedente, questo stesso principio era stato sfruttato per quantificare la parte di ferrro fuso da quello solido che occupa il centro della Terra.

Come anticipato, lo studio delle onde sismiche ha dunque permesso di modificare al rialzo il volume della caldera dello Yellowstone, incrementando il precedente valore di circa il 50%.

A questo punto, cerchiamo di rispondere a domande lecite che spesso vengono fatte: e’ pericoloso lo Yellowstone? Ci potrebbe essere un’eruzione in tempi brevi?

Riguardo alla pericolosita’, abbiamo gia’ risposto affermando il reale pericolo derivante da questo vulcano. Molto spesso, sentite parlare dello Yellowstone come un supervulcano. In realta’, questa definizione non rientra nella geologia classica, ma questo termine venne attribuito alla caldera in un documentario girato dalla BBC.

Quanto sono frequenti le eruzioni dello Yellowstone?

Studiando la morfologia della zona, e’ stato possibile determinare e distinguere le diverse eruzioni che si sono succedute nel corso dei secoli. Tra queste, sono state individuate tre supereruzioni avvenute rispettivamente 2.1 milioni, 1.3 milioni e 640000 anni fa. Oltre a questi eventi che hanno modificato fortemente il paesaggio della zona, ve ne sono state di minori e che sono risultate in una fuoriuscita di magma in punti specifici. L’ultima eruzione della caldera e’ avvenuta ben 70000 anni fa.

Se paragoniamo questi numeri con quelli di altri vulcani nostrani di cui abbiamo parlato:

Cosa succede in Campania?

Due parole sull’Etna e sullo Stromboli

vi rendete conto che parliamo di fenomeni davvero poco frequenti.

Perche’ dunque si parla tanto di un’eruzione dello Yellowstone?

Premesso che al solito il catastrofismo e la speculazione su questi argomenti hanno sempre una certa eco mediatica, a partire dagli anni 2000, delle modificazioni alla caldera sono state evidenziate dai geologi. In particolare, a partire dal 2004, si e’ notato un innalzamento molto piu’ veloce del terreno in prossimita’ della caldera, che e’ avvenuto negli ultmi 3 anni con una velocita’ tripla rispetto a quella degli anni precedenti. Cosa significa questo? In linea di principio assolutamente nulla. Come abbiamo visto, i fenomeni vulcanici della zona sono dovuti alla presenza di un punto caldo. Quello che avviene e’ che la camera magmatica si sta riempiendo di roccia fusa e questo provoca un aumento nell’innalzamento del terreno. Questo potrebbe portare ad un’eruzione? Anche in questo caso, non e’ assolutamente detto. Il flusso di roccia fusa potrebbe interrompersi da un momento all’altro determinando un repentino abbassamento del terreno. Movimenti di questo tipo, sia verso l’alto che verso il basso, vengono continuamente registrati anche in altri vulcani e non necessariamente possono portare ad eruzioni. Inoltre, proprio l’incremento misurato nel volume della camera magmatica, ci fa pensare che, anche mantenendo un flusso costante da sotto la crosta, ci vorranno ancora molti anni prima che la camera si riempia e possa portare, come detto non necesariamente, ad una nuova eruzione.

Secondo il parere di molti geologi, non e’ possibile determinare quando ci sara’ una nuova eruzione. Alcuni parlano di centinaia di anni, altri si spingono fino a migliaia di anni. Tutti pero’, con buona pace dei catastrofisti, concordano che non ci si aspettano nuove eruzioni prima di almeno 150 anni.

Se ancora non vi fidate o siete preoccupati, facciamo un’altra riflessione: se lo Yellowstone dovesse eruttare, quanto tempo prima ce ne accorgeremmo? Anche qui, non e’ possibile fare una stima precisa, ma tutti gli esperti concordano che una nuova eruzione sarebbe sicuramente preceduta da importanti fenomeni geologici. In primis un notevole innalzamento del terreno, sicuramente maggiore di quello registrato fino ad oggi, ma poi ci sarebbero importanti eventi sismici, oltre ad un aumento dell’attivita’ dei geyser. Tutti fenomeni assolutamnete non registrati al momento.

Inoltre, anche in presenza di fenomeni di questo tipo, i geologi concordano sul fatto che queste avvisaglie inizierebbero almeno qualche mese prima della nuova eruzione. Per completezza, vi dico anche che c’e’ chi parla di anni di preavviso. Come capite, anche se dovesse accadere, la nuova eruzione non sarebbe sicuramente un fenomeno improvviso e quindi avremmo tutto il tempo di capire quello che sta per accadere.

Detto questo, al momento non c’e’ assolutamente nulla di pericoloso nello Yellowstone. Come visto, la speculazione su questo supervulcano e’ facilmente smentibile analizzando i dati in nostro possesso e che chiunque puo’ verificare consultando database e report ufficiali. Ovviamente, vista anche la pericolosita ‘di questo sistema, tutta la zona e’ costantemente monitorata e tunuta sotto controllo attraverso un esteso sistema di misurazione. Nei post precedenti sullo Yellowstone, abbiamo in particolare parlato della rete di simografi presenti su tutta l’area e che sono liberamente consultabili seguendo i link che trovate negli articoli.

Concludendo, la nuova misurazione condotta sulla caldera dello Yellowstone ha mostrato, attraverso un’analisi delle onde sismiche, una camera magmatica molto piu’ estesa di quanto si pensasse e formata da un insieme di volumi connessi tra loro. Come detto, lo Yellowstone e’ un vulcano molto pericoloso, che ha dato luogo nel corso dei secoli, ad importanti fenomeni eruttivi e, proprio per questo motivo, e’ costantemente monitorato. Alla luce delle attuali misurazioni, non c’e’ assolutamente da temere una nuova eruzione in tempi brevi e comunque avremmo tutto il tempo per capire in anticipo quanto starebbe per accadere.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Nuovi candidati per l’impatto mortale?

18 Apr

Alcuni utenti mi hanno chiesto di commentare una notizia apparsa proprio in queste ore su molti siti intenet. Stando a quanto riportato, la NASA avrebbe dichiarato di aver scoperto un nuovo asteroide orbitante vicino alla Terra e che potrebbe rappresentare una notevole minaccia per il genere umano. Per essere precisi, trovate scritto che questo corpo sarebbe molto piu’ pericoloso di Apophis di cui abbiamo parlato, ad esempio, in questo post:

Attenzione, tra poche ore passa Apophis!

Come sapete bene, su Apophis si e’ speculato tantissimo per due motivi principali. Il primo e’ che questo NEO, oggetto vicino alla Terra, per lungo tempo ha avuto una probabilita’ di impatto dalle simulazioni diversa da zero, mentre la seconda ragione si deve a Margherita Hack che in alcune interviste, per smentire le fantasie sul 2012, ha espressamente detto che forse era meglio preoccuparsi di Apophis piuttosto che della fine del calendario Maya. Questa affermazione, fatta ovviamente per sminuire il 2012, ha avuto l’effetto contrario di creare uno stato d’allerta sui meteoriti.

Detto questo, sempre secondo la notizia che stiamo analizzando, il nuovo asteroide appena scoperto sarebbe “1999 RQ36”, che dovrebbe colpire la Terra nel 2182.

Premesso che il 2182 mi sembra abbastanza lontano per iniziare a preoccuparsi, le tante notizie che trovate in rete presentano alcuni punti fondamentali completamente falsi.

Cerchiamo di capire meglio.

Prima di tutto, come suggerisce il nome stesso, l’asteroide in questione e’ stato scoperto nel 1999. La prima osservazione e’ stata fatta nell’ambito del programma LINEAR e l’asteroide e’ costantemente monitorato e studiato dall’osservatorio di Arecibo.

1999 RQ36 ha una forma sferiodale con un diametro medio di 560 metri e una massa di 0.14 miliardi di tonnellate. A livello scientifico, si e’ parlato abbastanza di questo asteroide, soprattutto perche’ e’ stato possibile determinare la sua massa con estrema precisione. Questo risultato e’ stato raggiunto sfruttando le informazioni di 3 radiotelescopi nel mondo e calcolando in maniera molto precisa gli effetti gravitazionali subiti da 1999 RQ36. Come potete facilmente immaginare, questo e’ stato un compito molto arduo, dal momento che per calcoli di queto tipo, si devono considerare tutti i corpi in prossimita’ dell’asteroide, al fine di valutare precisamente le interazioni gravitazionali subite durante il moto.

Probabilmente, leggendo qualche notizia qua e la sui siti scientifici, i nostri amici catastrofisti non hanno capito bene quello di cui si stava parlando e perche’ cosi’ tanto interesse fosse concentrato su questo asteroide. Ovviamente, non dobbiamo dimenticarci il periodo storico che stiamo attraversando. Dopo il fatto russo dell’asteroide su Cheliabynsk, speculare su eventi di questo tipo e’ divenuta una moda molto proficua per tanti siti internet.

Detto questo, come possiamo verificare la reale pericolosita’ di 1999 RQ36?

Per prima cosa, per chi volesse divertirsi a simulare l’impatto di un corpo di questo tipo sulla Terra, abbiamo fatto esperimenti di questo tipo in un altro articolo:

Effetti di un impatto con Nibiru

Seguendo i link riportati, potete accedere ad un programma di simulazione molto carino e con cui potete valutare i reali rischi che un impatto di questo tipo avrebbe per la Terra e per il genere umano.

Detto questo, per poter capire la reale probabilita’ di impatto, non solo di questo asteroide, ma di qualsiasi corpo che volete controllare, basta al solito accedere al sito della NASA sui corpi potenzialmente pericolosi:

NASA, NEO program

In queste pagine trovate il database completo con le informazioni su tutti i NEO potenzialmente pericolosi, insieme anche ai parametri orbitali e ai dati fisici.

Cosa troviamo su 1999 RQ36?

Aprendo la pagina dedicata a questo corpo:

NASA, 1999 RQ36

Vedete che i passaggi ravvicinati alla Terra saranno tra il 2169 e il 2199. Sempre facendo riferimento a questa tabella:

Passaggi ravvicinati per RQ36

Passaggi ravvicinati per RQ36

vedete pero’ che la probabilita’ di impatto non e’ mai superiore allo 0,026%.

Molto probabilmente, un altro fattore che ha contribuito ad alimentare il sospetto su questo corpo e’ che, facendo sempre riferimento alla tabella, non compare la valutazione nella Scala Torino per questo corpo.

Come visto in questo articolo:

L’asteroide 2012 DA14

La scala Torino e’ una classificazione del pericolo di impatto dei NEO sulla Terra. Questa scala tiene conto sia della massa dell’asteroide che della sua energia cinetica. Come capite subito, in un eventuale impatto, anche l’energia cinetica posseduta dal proiettile rappresenta un parametro di notevole importanza.

Visto che per 1999RQ36 non compare la valutazione, proviamo a valutare da noi il pericolo di impatto facendo un confronto con un altro asteroide potenzialmente pericoloso: 2007 VK184. In questo caso abbiamo un proiettile un po’ piu’ piccolo, solo 130 metri di diametro, ma che viaggia ad una velocita’ superiore a 1999 RQ36: 19 m/s contro 13 m/s.

NASA, 2007 VK184

Perche’ abbiamo scelto questo corpo? Come vedete sempre consultantdo il sito NASA, VK184 e’ considerato l’osservato speciale per la probabilita’ di impatto sulla Terra. Con questo si intende che e’ il NEO con la probabilita’ di impatto maggiore per il futuro.

Facendo riferimento alla tabella che trovate sulla pagina riportata:

Passaggi ravvicinati per VK184

Passaggi ravvicinati per VK184

Vedete che in questo caso, la probabilita’ maggiore di impatto e’ dell’ordine di 0,055% con il valore 1 nella Scala Torino. Analogamente a quanto avvenne la prima volta con Apophis, anche questo corpo ha dunque un valore diverso da zero della Scala Torino. Proprio per questo motivo, trovate il corpo evidenziato sulla pagina NASA e VK184 viene costantemente monitorato.

Cosa significa 1 nella Scala Torino?

Definizione dei valori della Scala Torino

Definizione dei valori della Scala Torino

Se avete pensato che il valore 1 ci dia la certezza di impatto, siete fuori strada. Ovviamente 1 e’ maggiore di 0, cioe’ della probabilita’ completamente nulla di impatto con la Terra. Nnostante questo, come vedete dalla figura a lato, la scala Torino a valori che vanno da 0 a 10 e che corripondono ad un crescendo di probabilita’ di impatto.

Prendendo la definizione ufficiale della scala Torino, il valore 1 corrisponde a quanto segue:

Osservazioni occasionali possono scoprire il passaggio vicino alla Terra di oggetti che li pongono in un livello di pericolo di collisione. Calcoli e analisi mostrano che le probabilità di collisione sono estremamente basse da non meritare grande attenzione e preoccupazione nella gente comune. Nuove osservazioni molto probabilmente porteranno una riassegnazione al livello 0.

Dunque? Premesso, come visto, che stiamo parlando di passaggio ravvicinati tra piu’ di un secolo, il valore 1 non corrisponde assolutamente a nessun pericolo. Complice anche la lontananza temporale dell’evento considerato, l’orbita dell’asteroide e’ conosciuta con un’incertezza tale da non consentire una valutazione precisa della probabilita’ di impatto. Cosi’ come avvenuto per Apophis, a distanza di anni e grazie alle osservazioni continue ad opera dei tanti telescopi funzionanti a Terra, la probabilita’ di impatto, e duqnue anche il valore della Scala Torino, e’ divenuta completamente nulla.

Detto questo, siete ancora convinti che sia il caso di preoccuparsi di 1999 RQ36? Secondo me, assolutamente no. Ovviamente non vogliamo tranquillizzare per partito preso. Le nostre considerazioni nascono da un’analisi dei parametri attualmente disponibili, ma soprattutto dal tempo che ancora manca per questo passaggio ravvicinato. Molto probabilmente, tra piu’ di un secolo avremo sicuramente, anche se ne fosse richiesto l’utilizzo, un qualche sistema funzionante per poter deviare o distruggere i potenziali pericoli spaziali per la Terra. Di questi sistemi, attualmente in stato di studio, abbiamo parlato in questo post:

Asteroidi: sappiamo difenderci?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.