Tag Archives: grado

Ma questa crema solare …. come dobbiamo sceglierla?

30 Giu

Sempre alla nostra sezione:

– Hai domande o dubbi?

va il merito, ma ovviamente tutto il merito va a voi che rendete questo blog vivo ed interessante, di aver richiamato da una nostra cara lettrice una nuova interessantissima domanda. Questa volta però, vi preannuncio che l’argomento scelto è molto complesso nella sua apparente semplicità, oltre ad essere assolutamente in linea con il periodo dell’anno. Come potete leggere, la domanda riguarda le creme solari e tutte le leggende che girano, non solo in rete, e che da sempre abbiamo ascoltato.

Come anticipato, non è semplice cercare di trovare la giusta strada nella giungla di informazioni disponibili. Se provate a confrontare dieci fonti, troverete dieci versioni diverse: le creme solari devono essere usate. No, non devo essere usate. Il sole è malato. Il sole provoca il cancro. No, sono le creme che creano il cancro alla pelle. Insomma, di tutto di più, e non pensate di rifuggire nella frase: “mi metto sotto l’ombrellone”, perché, come vedremo, anche questo lascia filtrare alcune componenti dei raggi solari e, sempre scimmiottando quello che trovate in rete, vi può venire il cancro. Allora sapete che c’è? Me ne sto chiuso dentro casa fino a settembre! Va bene così? No, sicuramente non prendi il sole (e quindi non ti viene il cancro), ma non ti si fissa la vitamina D e quindi potresti soffrire di rachitismo.

Insomma, come la mettete la mettete, sbagliate sempre. Cosa fare allora? Sicuramente, in linea con il nostro stile, quello che possiamo fare è “andare con ordine” e provare a verificare quali e quante di queste affermazioni corrispondono al vero. Solo in questo modo potremo capire quale crema solare scegliere, come applicarla e quali sono i rischi che possiamo correre con l’esposizione al Sole.

Prima di tutto, non dobbiamo considerare i raggi solari come un’unica cosa, ma è necessario distinguere la radiazione che ci arriva. Questa suddivisione è essenziale perché l’interazione della nostra pelle con i fotoni emessi dal sole non è sempre uguale, ma dipende dalla lunghezza d’onda. Bene, in tal senso, possiamo distinguere la parte dei raggi solari che ci interessa in tre grandi famiglie, in particolare, per i nostri scopi, ci concentreremo sulla parte ultravioletta dello spettro, che è quella di interesse in questo campo.

La parte cosiddetta ultravioletta è quella con lunghezza d’onda immediatamente inferiore alla parte visibile. Normalmente, questa parte dello spettro viene divisa in UVA, con lunghezza d’onda tra 400 e 315 nanometri, UVB, tra 315 e 280 nanometri e UVC, tra 280 e 100 nanometri. Quando parliamo di tintarella o di danni provocati dalla radiazione solare, dobbiamo riferirci alla parte UV ed in particolare a queste 3 famiglie.

Bene, la componente più pericolosa della radiazione solare è quella degli UVC cioè con lunghezza d’onda minore. Perché? Sono radiazioni utilizzate come germicidi, ad esempio nella potabilizzazione dell’acqua, a causa del loro potere nel modificare il DNA e l’RNA delle cellule. Per nostra fortuna, questa componente della radiazione è completamente bloccata dallo strato di ozono che circonda la Terra. Di questo, e soprattutto dello stato di salute dello strato di ozono, abbiamo parlato in un post specifico:

– Che fine ha fatto il buco dell’ozono?

Per la parte più pericolosa dello spettro, quella degli UVC, possiamo dunque tirare un respiro di sollievo. Vediamo le altre due componenti.

Gli UVA, a causa della lunghezza d’onda maggiore, penetrano più a fondo nella pelle, promuovendo il rilascio di melanina e dunque l’abbronzatura. Che significa? Molto semplice, quando prendiamo il sole, la nostra pelle reagisce cercando di proteggersi autonomamente appunto rilasciando melanina. Questa sostanza serve a far scurire gli strati più superficiali della pelle appunto come protezione dai raggi. Riguardo ala dannosità? Su questo punto, purtroppo, non si ha ancora chiarezza. Per prima cosa, dobbiamo dire che l’esposizione crea meno danni a tempi brevi rispetto, come vedremo, a quella agli UVB. Questa componente però è una delle maggiori sospettate per i danni a lungo termine, connessi anche con l’insorgere di tumori alla pelle, e provoca un invecchiamento veloce della pelle. Gli UVA sono molto conosciuti da coloro che frequentano i centri estetici per sottoporsi alle “lampade”. Questi sistemi infatti hanno sistemi di illuminazione concentrati negli UVA appunto per promuovere un’abbronzatura rapida.

Per quanto riguarda gli UVB invece, si tratta della radiazione più pericolosa nell’immediato. Questa componente dello spettro solare infatti, è responsabile della classica “scottatura”, in alcuni casi vera e propria ustione, provocata da un’esposizione prolungata al Sole. Anche se potenzialmente dannosa, la radiazione UVB è comunque importante per il nostro organismo perché promuove la sintesi della vitamina D. Come è noto, in assenza di questo fondamentale processo possono insorgere casi di rachitismo, soprattutto in soggetti non ancora adulti.

Bene, abbiamo capito come è divisa la radiazione ultravioletta del sole e abbiamo finalmente capito a cosa si riferiscono tutti questi nomi che siamo soliti ascoltare o leggere riguardo la tintarella.

Passiamo dunque a parlare di creme solari. Cosa dobbiamo cercare? Perché? Quali sono i prodotti più indicati?

Ripensando a quanto scritto, viene evidente pensare che una buona crema debba proteggerci dagli UVA e UVB poiché per gli UVC ci pensa lo strato di ozono. Primo pensiero sbagliato! Quando acquistiamo una crema solare, che, come vedremo, offre una certa protezione, questo valore si riferisce alla sola componente B della radiazione. Perché? Semplice, come visto, gli UVB sono responsabili delle scottature immediate. Se ci proteggiamo da questa componente salviamo la pelle garantendo la tintarella. Questo è assolutamente falso, soprattutto pensando ai danni a lungo termine dati da un’esposizione troppo prolungata agli UVA.

Solo negli ultimi anni, sono comparse sul mercato creme con protezioni ad alto spettro. Fate bene attenzione a questa caratteristica prima di acquistare un qualsiasi prodotto. Una buona crema deve avere un fattore di protezione per gli UVA non inferiore ad 1/3 di quello garantito per gli UVB.

Ora però, anche seguendo quanto affermato, parliamo appunto di queste protezioni. Fino a qualche anno fa, ricordo benissimo gli scaffali dei negozi strapieni di creme solari con fattori di protezione, SPF cioè fattore di protezione solare, che andavano da 0 a qualcosa come 100. Già allora mi chiedevo, ma che significa zero? A che cosa serve una crema con protezione 0 e, allo stesso modo, protezione 100 o, come qualcuno scriveva “protezione totale”, significa che è come mettersi all’ombra?

Capite già l’assurdità di queste definizioni create solo ed esclusivamente a scopo commerciale. Fortunatamente, da qualche anno, è stata creata una normativa apposita per questo tipo di cosmetici aiutando il consumatore a comprendere meglio il prodotto in questione. Oggi, per legge, esistono solo 4 intervalli di protezione che sono: basso, medio, alto e molto alto. Questi intervalli, in termini numerici, possono essere compresi utilizzando la seguente tabella:

 

Protezione SPF

Bassa 6 – 10

Media 15 – 20 – 25

Alta 30 – 50

Molto alta 50+

Notiamo subito che sono scomparse quelle orribili, e insensate, definizioni “protezione zero” e “protezione totale”. Ma, in soldoni, cosa significa un certo valore di protezione? Se prendo una crema con SPF 30 è il doppio più efficace di una con SPF 15? In che termini?

Detto molto semplicemente, il valore numerico del fattore di protezione indica il tempo necessario affinché si creino scottature rispetto ad una pelle non protetta. Detto in questo modo, una SPF 15 significa che la vostra pelle si brucerà in un tempo 15 volte maggiore rispetto a quello che impiegherebbe senza quella crema. Dunque, anche con una crema protettiva posso scottarmi? Assolutamente si. In termini di schermo alla radiazione, il potere schermante non è assolutamente proporzionale allo SPF ma, come visto, solo ai tempi necessari per l’insorgere di scottature.

A questo punto, abbiamo capito cosa significa quel numerello che corrisponde al fattore di protezione, ma come fanno le creme a schermare effettivamente dai raggi solari?

Per rispondere a questa domanda, dobbiamo in realtà dividere la protezione in due tipi: fisico e chimico. La protezione fisica avviene in modo pressoché meccanico aumentando il potere riflettente della pelle. Per questo scopo, nelle creme solari sono presenti composti come il biossido di titanio e l’ossido di zinco, sostanze opache che non fanno altro che far riflettere verso l’esterno la radiazione solare che incide sul nostro corpo.

Primo appunto, secondo alcuni l’ossido di zinco potrebbe essere cancerogeno! Ma come, mi metto la crema per proteggermi dai raggi solari ed evitare tumori alla pelle e la crema crea tumori alla pelle? In realtà, come al solito, su questo punto si è fatta molta confusione, tanto terrorismo e si è corsi, per convenienza, a conclusioni affrettate. Alcune ricerche hanno mostrato come tessuti cosparsi di molecole di ossido di zinco e sottoposti ad irraggiamento UV possano sviluppare radicali liberi che a loro volta reagiscono con le cellule modificandone il DNA. Questo processo può portare alla formazione di melanomi, per la pelle, e di altri tumori, per le altre cellule. Ora, si tratta di studi preliminari basati su valori di irraggiamento più alti rispetto a quelli che normalmente possono derivare da un’esposizione, anche prolungata, anche nelle ore centrali della giornata, al Sole. Detto molto semplicemente, questi studi necessitano di ulteriori ricerche per poter definire margini di errore e valori corretti. Gli stessi autori di queste analisi preliminari si sono raccomandati di non male interpretare il risultato dicendo che le creme solari provocano il cancro alla pelle. In altre parole, si corrono più rischi non proteggendosi dal sole piuttosto che proteggendosi con una crema contenente ossido di zinco. Tra le altre cose, questa molecola è molto nota tra le mamme che utilizzano prodotti all’ossido di zinco per alleviare le ustioni da pannolino nei loro bambini.

Detto questo, abbiamo poi la protezione chimica. Come potete facilmente immaginare, in questo caso si tratta di una serie di molecole (oxibenzone, fenilbenzilimidazolo, acido sulfonico, butil metoxidibenzoilmetano, etilexil metoxicinnamato, ecc.) che hanno il compito di assorbire la radiazione solare e di cedere parte di questa energia sotto forma di calore. Perché possiamo trovare così tante molecole in una crema solare? Semplice, ognuna di queste è specifica per una piccola parte dello spettro di radiazione, sia UVA che UVB. Anche su queste singole molecole, ogni tanto qualcuno inventa storie nuove atte solo a fare terrorismo, molto spesso verso case farmaceutiche. Singolarmente, come nel caso dell’ossido di titanio, ci possono essere studi più o meno avanzati, più o meno veritieri, sulla pericolosità delle molecole. Anche qui però, molto spesso si tratta di effetti amplificati, ben oltre la normale assunzione attraverso la cute e, ripeto per l’ennesima volta, si rischia molto di più esponendosi al sole piuttosto che utilizzando creme solari.

Ennesima cavolata in voga fino a qualche anno fa e ora vietata: creme solari “water proof”, cioè creme resistenti completamente all’acqua. Ve le mettete una volta, fate quanti bagni volete e siete a posto. Ma secondo voi, è possibile qualcosa del genere? Pensate di spalmarvi una crema o di farvi un tatuaggio indelebile? Oggi, per legge, la dicitura water proof è illegale e ha lasciato spazio, al massimo, a “water resistant”, cioè resistente all’acqua. Una qualsiasi crema solare, a causa del bagno, del sudore, del contatto con il telo, tende a rimuoversi e, proprio per questo motivo, si consiglia di riapplicare la crema ogni 2-3 ore circa per garantire la massima protezione possibile.

Riassumendo, abbiamo capito che conviene, sempre ed in tutti i casi, utilizzare una crema solare protettiva, ma quale scegliere?

Molto brevemente, in questo caso, si deve valutare quello che è definito il proprio fenotipo. Come potete immaginare, si tratta di una serie di caratteristiche fisiche che determinano, in linea di principio, l’effetto dell’esposizione la Sole. Per poter determinare il proprio fenotipo, possiamo fare riferimento a questa tabella:

fenotipo

Ovviamente, per i valori più bassi (I e II) è consigliabile utilizzare una crema ad alto SPF, valore che può diminuire qualora fossimo meno soggetti a scottature ed ustioni.

Credo che a questo punto abbiamo un quadro molto più chiaro riguardo alla creme solari ed alla loro utilità. Ripeto, per l’ennesima volta, in ogni caso, proteggersi è sempre meglio che esporsi al sole senza nessuna protezione. Ultimo appunto, che vuole sfatare un mito molto diffuso, sotto l’ombrellone siamo comunque esposti alla radiazione solare. In primis, il tessuto di molti ombrelloni lascia passare buona parte dello spettro solare ma, soprattutto, la riflessione dei raggi solari, ad esempio ad opera della sabbia, raggiunge comunque un soggetto tranquillo e (falsamente) riparato sotto l’ombrellone. In genere, la riflessione dei raggi solari può incrementare, e anche molto, la quantità di radiazione a cui siamo esposti. Stando nell’acqua, ad esempio, abbiamo sia un’esposizione diretta ai raggi solari sia una indiretta dovuta ai raggi riflessi dalla superficie. Come potete immaginare questo amplifica molto l’esposizione.

Concludendo, utilizzate le creme solari ma, soprattutto, leggete bene le etichette prima di acquistare o, peggio ancora utilizzare, un qualsiasi prodotto. Ovviamente, qualsiasi prodotto diventa non efficace se unito alla nostra incoscienza. Se pensate di potervi spalmare una crema e stare come lucertole sotto il Sole dalle 10 del mattino al tramonto … forse questa spiegazione è stata inutile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Terremoti, gravita’ e …. bufale

9 Dic

Qualche settimana fa, tutta l’opinione pubblica e’ impazzita parlando di GOCE e della sua possibile caduta a terra al termine della missione. Molto prima che questo accadesse, avevamo gia’ parlato di questa missione in questo post:

GOCE: quando il satelliste finisce la benzina

Quando poi non solo il web ma anche i giornali si sono interessati all’avvenimento, in questo articolo:

Obbligatorio dire due parole su GOCE

siamo tornati sull’argomento per valutare le reali probabilita’ di impatto non tanto sulla terra, quanto in un’area popolata del nostro pianeta.

Ora pero’, vorrei tornare su questo argomento perche’ in questi giorni si e’ di nuovo tornati a parlare di GOCE, mettendolo in relazione, questa volta per quanto riguarda i suoi dati, con un altro fatto tragico avvenuto in passato: il terribile terremoto che ha colpito il Giappone nel 2011.

Cosa si e’ scoperto?

Come visto nel primo articolo, il compito scientifico del satellite era quello di mappare il campo gravitazionale terrestre con lo scopo di studiare in dettaglio le sue caratteristiche. Misure di questo tipo sono estremamente importanti per studiare il nostro pianeta ma soprattutto per comprendere i meccanismi di circolazione delle correnti oceaniche.

Bene, dall’analisi dei dati di GOCE si e’ evidenziato come il terremoto del marzo 2011 in Giappone abbia modificato localmente la gravita’. In realta’, questo effetto era ipotizzato ed atteso ma i dati del satellite, che hanno portato una sensibilita’ mai avuta prima, hanno permesso di trovare la conferma di questa ipotesi.

Cerchiamo di ragionare sulla cosa.

Come sappiamo bene, la gravita’ che sperimentiamo tutti i giorni, e che, tra le altre cose, ci tiene attaccati alla Terra, e’ frutto della forza di attrazione che si esercita tra noi e il pianeta. Questa interazione si manifesta tra due qualsiasi masse poste ad una certa distanza. Se proprio vogliamo essere scientifici, l’intensita’ dell’interazione e’ direttamente proporzionale alle masse in gioco e inversamente proporzionale al quadrato della distanza. Detto in questi termini, noi siamo attratti dalla terra ma, allo stesso tempo, anche il nostro pianeta e’ attratto da noi.

Ora, facciamo un piccolo sforzo aggiuntivo. La nostra terra e’ un corpo molto grande e con una forma tutt’altro che regolare. Ogni variazione di densita’, o di altezza, contribuisce a variare di qualche percento l’interazione gravitazionale. Bene, come e’ noto, in caso di terremoti, abbiamo movimenti di grandi masse sotterranee che possono propagarsi anche per kilometri rispetto all’epicentro del sisma.

Detto questo, e’ facilmente comprensibile come un terremoto, specialmente se di grande intensita’, possa provocare variazioni locali della gravita’ a causa delle modificazione apportate.

Questa immagine, ricostruita proprio dai dati di GOCE, ci mostra la zona intorno all’epicentro giapponese del 2011 e le variazioni del campo gravitazionale registrate:

Variazioni locali del campo gravitazionale nella zona del terremoto del 2011 in Giappone.

Variazioni locali del campo gravitazionale nella zona del terremoto del 2011 in Giappone.

Fin qui credo sia tutto chiaro e assolutamente non sconvolgente. Come e’ nostra abitudine, andiamo pero’ a sbirciare come i siti catastrofisti stanno raccontando questa notizia.

Tenete a mente quanto detto fino a questo punto, soprattutto pensando a come si determina la gravitazione. Cosa troviamo scritto su uno di questi, tristemente noti, siti?

Analizzando i dati misurati dal GOCE in Giappone, il team ha scoperto che il terremoto aveva chiaramente influenzato negativamente, con conseguente rottura del campo gravitazionale della zona.

Leggete con attenzione questa frase. Ci sono due aspetti molto significativi da analizzare. Prima di tutto, vorrei tanto sapere cosa significa “rottura del campo gravitazionale”.Come visto nella spiegazione, questa frase non ha assolutamente senso. Si parla in questi termini solo per cercare di amplificare la notizia e spaventare le persone. Il campo gravitazionale puo’ si modificarsi, ma certamente non puo’ “spezzarsi” ne, tantomeno, interrompersi.

Oltre a questo piccolo “particolare”, ne abbiamo anche un altro molto importante. Il terremoto aveva influenzato “negativamente” . Che significa influenzato negativamente? Ovviamente niente. I terremoti sono fenomeni naturali, cosi’ come la gravita’. Grandi sismi possono provocare variazioni locali del campo gravitazionale. Non esistono influenze positive o negative, esistono solo i fatti di cui abbiamo discusso in precedenza. Mi sembra assolutamente evidente capire il perche’ di questo aggettivo in una notizia del genere.

Concludendo, siamo di fronte alla solita notizia scientifica vera, amplificata e distorta sul web. Il motivo di questo e’ ormai chiaro a tutti. Purtroppo, dobbiamo sempre prestare la massima attenzione nel leggere notizie di questo tipo e valutare sempre al meglio la fonte da cui ci stiamo informando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Facciamoci trovare dagli alieni

14 Giu

Ogni tanto si leggono delle notizie scientifiche quanto mai curiose. Su questo blog, diverse volte abbiamo parlato di extraterrestri, ma non analizzando i tantissimi video di presunti avvistamenti che ogni giorno compaiono in rete, bensi’ cercando di affrontare il discorso in modo prettamente scientifico. Anche se a molti potrebbe apparire strano, la scienza da sempre si e’ interrogata circa la possibile esistenza di forme di vita aliene, valutando, o almeno cercando di farlo, la reale probabilita’, non solo che una forma di vita intelligente possa esistere, ma anche che questa possa entrare in contatto con noi.

Come visto in questi post:

Messaggio alieno nelle Aurore

Il segnale WOW!

poter valutare questa probabilita’ e’ molto difficile e richiede una stima di parametri anche non direttamente legati tra loro. L’equazione di Drake, cerca appunto di considerare ogni singolo aspetto che potrebbe consentire questo incontro, fornendo come risultato una stima di probabilita’. Se ci pensiamo, per prima cosa dovremmo avere un pianeta in grado di ospitare la vita, poi questa vita si dovrebbe essere sviluppata nel tempo creando appunto una societa’ evoluta. Che significa evoluta? Con un grado di tecnologia che gli permetta di inviare e ricevere segnali dallo spazio o, al limite, di poter esplorare lo spazio.

Ogni qual volta si parla di alieni, scatta automaticamente la molla secondo la quale queste forme di vita sarebbero infinitamente piu’ sviluppate di noi e con mezzi incredibili. Perche’ avviene questo? Proviamo a fare un ragionamento al contrario: se fossimo noi gli alieni dello stereotipo collettivo? Magari, una forma di vita aliena esiste, ma e’ ancora troppo poco sviluppata. Immaginate la nostra societa’ anche solo 200 anni fa. Eravamo in grado di esplorare l’universo? Assolutamente no. Se una societa’ con uno sviluppo tecnologico pari al nostro di 200 anni fa avesse pensato a forme di vita aliene, magari avrebbe pensato al nostro attuale sviluppo.

Sempre pensando alle probabilita’ di incontro, proviamo a fare un passo aggiuntivo. Supponiamo che la societa’ aliena esista e che si sia sviluppata ad un livello paragonabile al nostro. Bene, tutto risolto? Assolutamente no. L’universo e’ molto grande, se gli alieni sono distanti migliaia di anni luce da noi, con buona probabilita’ non riusciremo mai ad incontrarci. Se state pensando ai viaggi con la velocita’ del pensiero o cose di questo tipo, torniamo al discorso precedente sullo sviluppo tecnologico. Noi con migliaia di anni di sviluppo siamo arrivati ad oggi. Se volessimo considerare alieni fantascientifici, dovremmo valutare anche la probabilita’ che questo sviluppo sia avvenuto.

Attenzione, proprio da questo punto, vorrei partire con una nuova considerazione. Gli alieni esistono, sono evoluti, hanno la possibilita’ di incontrarci, vuoi perche’ sono vicini o perche’ hanno lo sviluppo tale per farlo, non resta che prendere appuntamento. Sicuri? No, manca un’altra valutazione. Tutte queste belle probabilita’ devono essere vere “adesso”. Immaginate una societa’ aliena che si sia sviluppata e abbia soddisfatto tutti i criteri visti, ma questo sia avvenuto, ad esempio, 1 miliardo di anni fa. Magari sono stati in grado di visitare l’universo ma noi ancora non c’eravamo. Dunque, tutte queste condizioni devono essere vere allo stesso tempo, altrimenti l’incontro non e’ possibile. Bene, proprio queste considerazioni chiamano in causa un discorso diverso da quello prettamente scientifico. Per poter valutare queste proprieta’ si devono considerare sviluppi antropologici, societari, evoluzionistici, ecc. Immaginate una bella societa’ aliena che si e’ sviluppata, ha raggiunto un’immensa tecnologia ma che si e’ autodistrutta. Il discorso e’ assurdo? Non credo proprio, basta guardare la nostra societa’.

Capite dunque che valutare la probabilita’ di un incontro con forme di vita aliene, implica un ragionamento molto vasto. Nonostante questo, l’equazione di Drake ha portato importanti risultati in questo senso, non escludendo assolutamente questa possibilita’. Ovviamente, non resta che aspettare e vedere quello che succede.

Perche’ ho fatto questo lungo preambolo? Prima di tutto per poter riprendere concetti molto importanti visti in passato ma che possono essere considerati degli evergreen. Inoltre, vorrei parlarvi di un’iniziativa curiosa che sta spopolando sulla rete in questi ultimi giorni; si tratta del progetto “Lone Signal”.

In cosa consiste?

Il progetto consiste nell’inviare nello spazio un messaggio e sperare che qualche societa’ aliena possa riceverlo. Scopo? Far capire che ci siamo e dove si trova la terra. Il messaggio conterra’ infatti informazioni circa la posizione della Terra e sul nostro attuale sviluppo: come e’ fatto l’atomo di idrogeno, gli elementi della tavola periodica, ecc. Oltre a queste informazioni, anche gli utenti della rete potranno contribuire ed inviare il loro messaggio agli alieni, semplicemente collegandosi con il sito internet del progetto:

Lone Signal

Se volete partecipare a questa iniziativa, dovete sbrigarvi, il primo invio e’ infatti atteso per il 18 Giugno.

o-LONE-SIGNAL-SPACE-MESSAGE-570

Il messaggio verra’ poi inviato sotto forma di onda elettromagnetica verso Gliese 526 utilizzando la Jamesburg Earth Station della California. Gliese 526 e’ una nana rossa con un piccolo sistema planetario orbitante a 17,6 anni luce da noi. Alcuni di questi pianeti sono considerati adatti ad ospitare forme di vita. Di questo e soprattutto della cosiddetta fascia di abitabilita’, abbiamo parlato diverse volte affrontando il discorso esopianeti:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Cosa ne penso? Se devo essere sincero, iniziative come questa lasciano veramente il tempo che trovano. Su molti siti si parla di iniziativa simile al programma SETI, di cui sicuramente avete sentito parlare. Su questo non sono assolutamente d’accordo. Nel caso di SETI, si cercava di “ascoltare” segnali provenienti dallo spazio esplorando zone considerate piu’ probabili per la vita. Anche per questo programma sono state mosse critiche per la non ripetibilita’ di un eventuale segnale, vedi proprio il WOW!, ma anche per la casualita’ della zona da esplorare.

Nel caso del Lone Signal, si andra’ a sparare un segnale verso qualcosa molto distante da noi. E’ la prima volta? Assolutamente no, sempre nell’articolo sul WOW! abbiamo parlato del messaggio di Arecibo. In quel caso, il messaggio era stato inviato verso Ercole e l’iniziativa piu’ che un programma scientifico, era stata vista come uno spot pubblicitario successivo all’ammodernamento del radiotelescopio.

Gia’ cercare forme di vita aliene e’ concettualmente difficile, immaginate di voler urlare in una direzione e sperare che qualche vi ascolti. Inoltre, tutto questo discorso implica che le forme di vita siano sufficientemente evolute e che siano in grado di ricevere onde elettromagnetiche, cosa tutt’altro che scontata.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le scale sismologiche

6 Giu

Nella sezione:

Hai domade o dubbi

e’ stata fatta una richiesta molto interessante che riguarda le scala sismologiche. In particolare, si chiedeva di illustrare nel blog la scala ESI 2007, ma credo che sia molto interessante parlare in generale di quali scale vengono utilizzate per classificare un sisma e quali sono le differenze tra queste.

Di principio, tutti conoscono la scala Mercalli e la scala Richter, che sono quelle apparentemente piu’ utilizzate e che sentiamo nominare in occasione di qualche sisma che avviene nel mondo. Ho detto “apparentemente” perche’ prima di tutto ci sono molte altre scale utilizzate soprattutto dai sismologi ed inoltre molte di queste riescono a classificare i terremoti in modo piu’ scientifico, basandosi proprio sulla natura fisica del fenomeno, piuttosto che, ad esempio, sui danni creati da un sisma.

Dal punto di vista storico, la prima scala basata su presupposti scientifici fu la Rossi-Forel a dieci gradi. Proprio da questa, il sismologo e vulcanologo Mercalli derivo’ una scala a 12 gradi basata sull’intensita’ di un sisma. Fate attenzione, per prima cosa, parlando di terremoti, e’ molto importante distinguere tra intensita’ e magnitudo, termini spesso confusi tra loro dai non addetti ai lavori. Per far capire questa differenza, su cui torneremo in seguito descrivendo i processi fisici, basti pensare che due terremoti di uguale magnitudo possono avere intensita’ diversa se, ad esempio, avvengono con ipocentri a profondita’ diversa tra loro.

Detto questo, la scala Mercalli e’ basata sugli effetti che un terremoto puo’ avere su persone, cose e manufatti. Alla luce di quanto detto, appare evidente che un terremoto di altissima magnitudo che avviene in una zona desertica non popolata, avra’ un grado Mercalli inferiore proprio per la mancanza di danni a cose e persone.

Per essere precisi, l’attuale scala utilizzata e’ detta Mercalli-Cancani-Siedberg ed e’ a 12 gradi. In origine, la scala Mercalli, cosi’come la Rossi-Forel, aveva solo 10 gradi. Fu proprio il sismologo Cancani ad esternderla a 12 gradi. Generalmente, i gradi piu’ bassi della scala vengono attribuiti in base alla percezione delle persone, mentre per i gradi piu’ alti ci si basa sugli effetti agli edifici e ai manufatti in generale.

Da quanto detto, appare evidente che la scala Mercalli non e’ basata su nessuna quantita’ fisica legata al terremoto, ma solo agli effetti del sisma. Se vogliamo, questo inizialmente potrebbe essere un vantaggio di questa scala dal momento che per l’attribuzione dell grado non e’ necessaria alcuna strumentazione specifica.

Proprio queste considerazioni hanno poi portato alla formulazione della scala Richter. Piccola premessa, il termine scala Richter, non e’ in realta’ molto utilizzato dalla comunita’ sismologica in quanto la scala viene detta “Magnitudo Locale”. Come e’ definita? Come anticipato, questa scala misura la magnitudo del sisma ed e’ direttamente legata all’energia rilasciata nel sottosuolo. Questo parametro viene stimato per il terremoto all’ipocentro ed e’ dunque non dipendente, come e’ evidente, dalle tecniche costruttive utilizzate in una determinata zona. A parte il particolare sismografo utilizzato per determinare il grado Richter, questa e’ una scala logaritmica in cui vengono definiti i decimi di magnitudo (M X.Y) ed in cui, ad esempio, una determinata magnitudo e’ circa 32 volte maggiore della successiva: M6=32M5, ecc.

Ora, date queste due scale, perche’ avremmo bisogno di altro? Come detto, la scala Mercalli e’ relativa ai danni del terremoto, la acala Richter invece e’ direttamente legata all’energia rilasciata dal sisma e dunque descrive la meccanica del fenomeno. In realta’, quest’ultima scala presenta dei problemi di saturazione per i gradi maggiori, dovuti al fatto che, sopra M8.5, terremoti di magnitudo diversa possono risultare nello stesso valore della scala.

Per risolvere questo problema, e’ stata poi introdotta la scala del “momento sismico”. Analogamente alla Richter, anche questa scala e’ di tipo logaritmico e si basa sulla stima dell’energia rilasciata nell’ipocentro. A differenza pero’ della prima, non presenta i problemi di saturazione.

Da quanto detto, appare evidente come queste scale siano completamente scorrelate tra loro, trattando un sisma sotto aspetti diversi. Se ci pensiamo bene, entrambi i parametri utilizzati potrebbero essere utili per una valutazione e per una comparazione, ad esempio, per sismi successivi avvenuti nello stesso luogo. Sulla base di questo, e’ stata sviluppata la “Scala Macrosismica Europea”, o EMS-98. In questa definizione, si distingue un sisma in base alla forza degli effetti di un terremoto in un luogo specifico. In questo senso, entra ovviamente l’energia del sisma, ma anche i danni provocati dal fenomeno in un determinato luogo, caratterizzato da specifiche tecniche costruttive e densita’ abitative. Anche la EMS-98 presenta 12 gradi e, passando dai livelli piu’ bassi a quelli piu’ alti, di volta in volta la percezione umana del sisma lascia spazio ai danni agli oggetti provocati dal fenomeno. Per quanto piu’ precisa e meglio utilizzabile, anche questa scala presenta delle limitazioni simili a quelle dei suoi predecessori: confusione nell’attribuzione di un livello alto, influenze soggettive nella valutazione dei danni agli edifici.

Per evitare queste problematiche, nel 2007 e’ stata sviluppata una nuova scala detta “Environmental Seismic Intensity Scale”, o ESI-2007. Come suggerisce il nome stesso, questa scala si basa sugli effetti ambientali che un sisma puo’ avere in un determinato luogo. Fate attenzione, stiamo parlando di ambiente in generale, non solo di antropizzazione. In tal senso, questa scala va proprio a valutare la fagliazione provocata nel terreno, fenomeni di subsidenza, liquefazione, frattura, ecc. Come visto in diversi articoli, questi sono tutti effetti seguenti ad un sisma e che possono essere utilizzati per descrivere il fenomeno partendo proprio dalle sue conseguenze sull’ambiente.

Qual e’ il vantaggio di questa tecnica? Come sappiamo, molto spesso un terremoto tende a ripetersi in zone in cui e’ gia’ avvenuto. Valutare, e dunque raccontare, il sisma basandosi proprio sui suoi effetti sull’ambiente, puo’ aiutarci a prevenire i danni del terremoto. In che modo? Parlare di case distrutte, non e’ di per se un parametro utilie, ad esempio, per confrontarci con fenomeni avvenuti decenni prima. Questo e’ evidente se si pensa alle diverse tecniche costruttive, ma anche al grado di antropizzazione di un determinato luogo. Parlando invece di conseguenze sull’ambiente, e’ possibile prima di tutto confrontarci con gli eventi passati, ma soprattutto ci permette di predisporre piani di emergenza mirati, conoscendo le eventuali problematiche che potrebbero verificarsi in concomitanza con un sisma di alta intensita’.

Ultima considerazione che vi sara’ venuta in mente: perche’ parliamo di nuova scala se il nome e’ qualcosa-2007? Semplicemente perche’ nel 2007 e’ stta presentata questa divisione, ma prima di poter essere utilizzata, sono richiesti 5 anni di sperimentazione, cosi’ come avvenuto.

Concludendo, esistono diverse scale sismologiche per poter valutare e distinguere tra loro i diversi terremoti. Cme visto pero’, queste presentano alcune limitazioni specifiche dovute alla stima dei danni o alla caratteristica fisica presa in considerazione. Distinzione molto importante e’ quella tra magnitudo e intensita’ che, come visto, sono due termini spesso confusi ma che in realta’ caratterizzano cose completamente diverse tra loro. La nuova scala ESI-2007, consente di valutare gli effetti provocati da un sisma sull’ambiente, determiando cosi’ un confronto diretto e sempre possibile in un luogo specifico. Come potete facilmente immaginare, per poter definire esattamente il grado ESI di un sisma, i sismologi devono recarsi sul luogo per poter stimare al meglio gli effetti ambientali lasciati. Oltre a quelle viste, vi sono poi altre scale, spesso simili alle altre, ma il cui utilizzo e’, ad esempio, specifico di un determinato luogo per motivi storici o culturali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Non ne bastava uno …

8 Dic

In questo blog, molte volte abbiamo parlato di terremoti. In particolare, piu’ volte abbiamo discusso circa la previsione di questo genere di fenomeni, mostrando come la scienza allo stato attuale non sia in grado di prevedere quando, ma soprattutto dove, si verifichera’ un sisma:

Allineamenti, terremoti e … Bendandi

Riassunto sui terremoti

Analisi statistica dei terremoti

Dati falsi sui terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Terremoti: nuove analisi statistiche

Molte volte, ci siamo soffermati su previsioni azzardate ad opera di siti internet o quasi-veggenti, che altro non fanno che creare panico nelle persone annunciando terremoti piu’ o meno violenti in diverse parti del globo.

In particolare, abbiamo visto come la scienza sia ancora alla ricerca dei cosiddetti “precursori sismici”, cioe’ di quel o quegli eventi che possono annunciare o far presagire in un determinato luogo un prossimo terremoto. Uno dei precursori sismici maggiormente discussi negli ultimi tempi e’ ovviamente il radon. Il maggior sostenitore di questa strada e’, come tutti sapete, Giampaolo Giuliani.

Come discusso in questo post:

Terremoti, Pollino, Giuliani, Radon, L’Aquila …

Il radon non puo’ essere considerato un precursore sismico, dal momento che non e’ stata verificata una correlazione sistematica tra emissioni di radon dal sottosuolo e manifestazione di terremoti. Con questo si intende, come abbiamo visto, che possono esserci emissioni di radon con terremoti, emissioni di radon senza terremoti, ma soprattutto terremoti senza emissioni di radon. Questo fa si che questo gas non possa essere utilizzato come una prova certa antecedente all’insorgere di fenomeni sismici.

Nei post precedenti, molto spesso ci siamo rivolti alla statistica per cercare di togliere un po’ di nebbia su questi fenomeni, ma soprattutto per smentire tutti quelli che vorrebbero un aumento sistematico dei terremoti nel mondo in vista del 21/12.

Come abbiamo visto, una possibile analisi di questi fenomeni puo’ essere fatta in termini statistici studiando proprio la frequenza annuale dei fenomeni di diverse magnitudo.

terremoto

Se partiamo dal presupposto che in media all’anno ci sono tanti fenomeni di una certa magnitudo, possiamo capire piu’ o meno un andamento medio dei fenomeni. Ovviamente questo prescinde da qualsiasi tipo di previsione reale. Il discorso e’ relativo alla media globale dei fenomeni, assolutamente non possiamo prevedere nessun fenomeno di una certa intensita’, ma soprattutto non esiste nessuna correlazione sul luogo dei sismi.

Perche’ sto facendo questo discorso?

Su internet, ma soprattutto su facebook, sta facendo molto discutere un’analisi statistica fatta proprio da uno stretto collaboratore di Giuliani. Stiamo parlando di Leonardo Nicoli’, portavoce della “fondazione Giuliani”, che negli ultimi tempi sta rubando la scena al padrone di casa.

Proprio attraverso la sua pagina facebook, Nicoli’ sta pubblicando una serie di analisi statistiche, basate proprio su quanto abbiamo mostrato nei post precedenti.

Cerco di farvi capire meglio.

Se in media ci sono 10 eventi all’anno di magnitudo tra 6 e 7 nel mondo, ovviamente sto mettendo numeri a caso, possiamo calcolare statisticamente la probabilita’ che nei prossimi mesi ci sara’ uno di questi eventi da qualche parte.

Proviamo a fare un esempio semplice. Immaginate di lanciare un dado da gioco dieci volte e di voler contare il numero di volte in cui esce un numero pari o un numero dispari. Come sappiamo bene, “in media” ci si aspetta che esca 5 volte un numero pari e 5 volte un numero dispari. Ora, sempre pensado che il dado non sia truccato, puo’ accadere che con dieci lanci escano sempre numeri pari. La statistica e’ in grado di prevedere questa probabilita’.

Sempre tenendo a mente l’esempio del dado, se dopo 3 lanci e’ uscito un numero pari, potete calcolare la probabilita’ che al prossimo lancio esca un numero dispari.

Questa e’ la statistica. Ovviamente stiamo parlando di probabilita’ medie. Se vi aspettate 10 terremoti di intensita’ tra magnitudo 6 e 7  all’anno, e a Dicembre ne avete avuti solo 5, ci sara’ una probabilita’ alta che nei prossimi giorni avvenga uno di questi eventi.

Come capite bene pero’, c’e’ anche la probabilita’ che questo evento non accada perche’ la natura decide che non deve accadere.

Di calcoli di questo tipo, abbiamo parlato in questo post:

Terremoti: nuove analisi statistiche

dicendo espressamente che la statistica non puo’ essere utilizzata per prevedere un terremoto.

Cosa sta invece accadendo sulle pagine di Nicoli’? Semplice, si stanno proponendo questi calcoli statistici e molte persone stanno accogliendo questi calcoli come una previsione di terremoti futuri. Questo perche’ alcune probabilita’ sono state rispettate.

Per farvi capire, i commenti che trovate sono del tipo: “allora i terremoti si possono prevedere”, “la scienza ufficiale sta facendo una copertura a riguardo” e “finalmente una voce indipendente e lontana dalla copertura scientifica”.

Questo e’ il link alla pagina di facebook, intitolata “la matematica dei terremoti”:

La matematica dei terremoti

Come vedete nella parte iniziale, si parla di probabilita’ vicina al 100% che nei prossimi giorni ci possa essere un fenomeno di magnitudo tra 7 e 7.9, cosi’ come di uno tra 6 e 6.9.

Da quanto detto, e’ d’obbligo sottolineare una cosa: si tratta di calcoli statistici fini a se stessi. La statistica ci puo’ dare un’idea di massima dell’andamento del numero di fenomeni nel mondo, ma assolutamente non ci consente di prevedere terremoti.

Personalmente credo che in una pagina del genere, ma soprattutto vedendo commenti di questo tipo, si dovrebbe scrivere esplicitamente che non si tratta di previsioni certe. Parlare in questi termini di probabilita’ del 100%, significa convincere la gente che i terremoti possano essere predetti.

Come potete verificare da soli, non si hanno assolutamente indicazioni riguardo al luogo in cui avverra’ il sisma, ma soprattutto non si avra’ mai la certezza.

Secondo voi, se la statistica ci dicesse che da oggi al 21/12 c’e’ una probabilita’ vicina al 100% che ci sara’ un terremoto di magnitudo M8, cosa dovremmo fare? Come detto sono calcoli statistici, senza nessuna indicazione del luogo. La probilita’ vicina al 100% non va assolutamente letta come una certezza.

Come potete capire bene da soli, si sta facendo speculazione su questi calcoli, cercando di convincere le persone che esistano leggi statistiche in grado di prevedere i terremoti.

Vi faccio un ultimo esempio che spesso viene utilizzato per spiegare come funziona la statistica. Se due persone hanno due mele per sopravvivere, la prima persona magia due mele e vive, la seconda non mangia niente e muore, secondo la statistica hanno mangiato in media una mela ciascuno e sono entrambe vive. Credo che questo esempio sia molto utile per capire i limiti della statistica nelle applicazioni reali.

Concludendo, diffidate dei numerosi link che trovate in rete circa la previsione dei terremoti. Come detto, ad oggi la scienza non e’ in grado di prevedere con certezza quando, dove e con che intensita’ avverra’ un terremoto. Qualsiasi previsione vi venga proposta e’ senza ombra di dubbio campata in aria o inventata di sana pianta.

Per analizzare tutte le profezie sul 2012, ma soprattutto per parlare scientificamente di eventi sempre attuali e molto spesso poco divulgati, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.

 

Nexus 2012: bomba a orologeria

23 Nov

Oggi vorrei parlarvi di una nuova ipotesi, o meglio profezia, fatta per giustificare la fine del mondo attesa per il 21 Dicembre.

Torniamo nuovamente in ambito astronomico, per parlare di un presunto allineamento tra corpi celesti che dovrebbe, a detta di molti catastrofisti, portare gravi conseguenze sulla Terra.

Per il 21 Dicembre 2012 sembrerebbe essere atteso un allineamento perfetto tra la Terra, il Sole e il centro della nostra Galassia.

Di questo, come di molti altri allineamenti, abbiamo parlato abbondantemente nel libro “Psicosi 2012. Le risposte della scienza”. Nonostante questo, vorrei riproporvi anche su questo blog una discussione attenta di questo presunto avvenimento.

Prima di tutto, perche’ il 21 Dicembre dovrebbe esserci questo allineamento?

Su molti siti si parla di questo allineamento, ma pochi spiegano perche’ dovrebbe esserci proprio il giorno del solstizio d’inverno. Dunque, prima di parlare della presunta congiunzione, credo sia necessario spiegare di cosa si tratta.

Partiamo dalle basi. Sappiamo che la Terra si muove su un’orbita ellittica intorno al Sole. Dalla Terra, a causa del moto relativo, e’ come se vedessimo il Sole muoversi intorno a noi che siamo fermi. La particolare traiettoria percorsa dal Sole, che ripeto e’ relativa al nostro punto di osservazione, e’ quella che chiamiamo eclittica.

Eclittica, traiettoria del Sole vista da Terra

Fin qui ci siamo.

Se vedete una qualsiasi mappa stellare, vedete che ci sono tantissime costellazioni. Vi siete mai chiesti perche’ tra queste ne prendiamo 12 e le consideriamo costellazioni dello zodiaco? Astronomicamente, queste costellazioni non hanno nulla di speciale. L’unica particolarita’ e’ che sono posizionate a cavallo dell’eclittica.

Bene, ora passiamo a qualcosa solo un po’ piu’ difficile.

Tutti sappiamo che la Terra ruota intorno al Sole con un periodo di 365.25 giorni. Questo intervallo e’ quello che chiamiamo “anno”. Lo 0.25 in piu’ e’ il responsabile dell’aggiunta dell’anno bisestile ogni 4 anni. Oltre a questo movimento, la Terra ruota su se stessa compiendo un giro completo in 24 ore. Questo intervallo e’ il nostro giorno, responsabile dell’alternarsi del giorno e della notte.

Oltre a questi visti, la Terra compie anche altri movimenti. Prima di tutto, l’asse di rotazione della Terra non e’ dritto, ma e’ inclinato di 23.5 gradi. Nel corso del tempo, l’asse non rimane fermo, ma ruota in verso contrario alla rotazione. Al contrario degli altri, questo moto e’ estremamente lento e viene detto “precessione degli equinozi”. Il tempo necessario per compiere un giro completo e’ di circa 26000 anni.

Il moto di precessione dell’asse terrestre

A causa della precessione, in un dato giorno, il Sole non sorge sempre nella stessa costellazione dello zodiaco, ma ogni 2160 anni si cambia segno. Oggi, ad esempio, il giorno del solstizio d’inverno, il Sole sorge nella costellazione del Sagittario.

Bene, capiti questi semplici concetti, possiamo tornare a parlare di allineamenti.

Se il giorno del solstizio, dunque il 21 Dicembre, dalla Terra vediamo il Sole sorgere nella costellazione del Sagittario, significa che in quel giorno i tre oggetti sono allineati tra loro.

Qual’e’ il collegamento tra il Sagittario e il centro galattico?

Visto da Terra, il centro della nostra Galassia, cioe’ il punto attorno al quale ruotano tutti i corpi che la compongono, si trova all’interno della costellazione del sagittario. Di questo particolare punto, abbiamo ad esempio parlato in questo post:

Nuova sconvolgente teoria?

Inoltre, dal punto di vista prettamente astronomico, al centro della nostra Galassia c’e’ un buco nero super massivo detto Sagitarius A. Questa informazione non deve affatto sconvolgervi. Moltissime galassie osservate hanno un centro di rotazione in corrispondenza di un buco nero super massivo.

A questo punto, abbiamo tutti gli ingredienti che servono. Il 21 Dicembre, dalla Terra, vediamo il Sole sorgere nella costellazione del Sagittario e in questa si trova il centro della nostra galassia occupato da un buco nero.

Dunque?

La profezia vorrebbe per il 21 Dicembre 2012, un perfetto allineamento tra questi tre corpi. Questa configurazione, che a causa del moto di precessione avviene soltanto ogni 26000 anni, scatenerebbe una potente emissione di energia dal centro della Galassia in direzione della Terra. Su internet ci si riferisce a questa emissione come “Nexus 2012”. Come se non bastasse, e come riportato da alcune fonti, questa energia sarebbe in grado di scatenare catastrofi sulla Terra o addirittura riprogrammare il nostro DNA.

Prima di lasciarci andare agli effetti, e’ il caso di verificare se le cause sono reali o meno.

Prima di tutto, per il prossimo solstizio d’inverno ci sara’ veramente un allineamento perfetto? Come detto in precedenza, a causa del moto di precessione, ogni anno la Terra arriva in questo giorno leggermente spostata rispetto all’anno precedente. Dal dato sul periodo, lo spostamento e’ di circa 1 grado ogni 72 anni.

In questo contesto, parlare di allineamento perfetto, non ha molto senso. Stiamo parlando di tre corpi con una certa estensione spaziale che vediamo in prospettiva dalla Terra. Premesso questo, il miglior allineamento non sara’ assolutamente il 21/12/2012, ma in realta’ e’ avvenuto il 21/12/1998.

Vi siete accorti di una fine del mondo nel 1998? Dopo questa data, sempre a causa della precessione, ogni anno la Terra si presenta il giorno del solstizio sempre piu’ spostata rispetto al miglior allineamento.

Gia’ qui potremmo chiudere il discorso e’ catalogare la profezia come una bufala, ma e’ importante fare qualche altra considerazione.

Supponiamo per assurdo (avendo dimostrato il contrario) che ci sia questo allineamento perfetto. Perche’ il buco nero aspetterebbe questo momento per emettere un grande flusso energetico? Come potete immaginare, questa affermazione rappresenta un’assurdita’ scientifica. Non puo’ esistere assolutamente nessuna correlazione tra corpi cosi’ distanti.

Facciamo anche un ultima considerazione. Come visto nel precedente post, il nostro Sistema Solare si trova in una regione abbastanza periferica della Galassia. La distanza stimata tra il Sole e il centro galattico e’ di circa 26000 anni luce. Questo significa che, se anche l’emissione di radiazione venisse effettivamente fatta dal buco nero, e se questa si muovesse alla velocita’ della luce, la radiazione impiegherebbe 26000 anni per raggiungere la Terra. Dove sarebbe dunque la correlazione tra 21/12/2012 e allineamento con il centro galattico?

Riassumendo, prima di tutto non e’ assolutamente vero che il giorno del solstizio d’inverno di sara’ un allineamento perfetto tra Terra, Sole e centro galattico. Il miglior allineamento prospettico e’ in realta’ avvenuto nel 1998, senza nessuna conseguenza per la Terra e per il genere umano. Le considerazioni fatte ci fanno dunque capire che siamo di fronte ad una bufala senza nessun fondamento scientifico.

Parlare di 2012 e profezie per la fine del calendario ci consente di ragionare su argomenti spesso molto ostici della scienza moderna, ma sicuramente sempre attuali indipendentemente dal 2012. Per un’analisi attenta di tutti gli avvenimenti profetizzati, e per approfondire e scoprire altri allineamenti ipotizzati per il 21 dicembre, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.

 

 

 

Ferragosto col Terremoto

23 Ago

Eccoci tornati dalle vacanze. Spero abbiate passato tutti un ottimo ferragosto. C’e’ chi e’ andato al mare, chi in montagna, chi si e’ rilassato in casa e nel frattempo c’e’ stato un forte terremoto tra Russia e Giappone.

Aprendo i soliti siti catastrofisti sul 2012 si legge testualmente: il 15 agosto (ora italiana) c’e’ stato un fortissimo terremoto nel Mare di Okhotsk tra Russia e Giappone. Questo e’ stato solo il maggiore di una serie di terremoti avvenuti quasi in contemporanea in diverse parti del mondo. Gli studiosi non riescono a spiegare il forte terremoto russo che apparentemente non avrebbe una spiegazione logica.

Andiamo con ordine e analizziamo questa frase.

Il 15 Agosto c’e’ stato un forte terremoto nel Mare di Okhotsk. Questo e’ vero! E’ stato registrato un terremoto di magnitudo 7.7, come riportato dal sito dell’USGS, proprio nello spazio di mare a sud-est della costa Russa verso il Giappone. Fortunatamente non c’e’ stato nessun allarme Tsunami nella zona. La scossa e’ stata avvertita anche nel distretto di Fukushima ma assolutamente senza conseguenze. Il sisma e’ avvenuto ad una profondita’ maggiore di 600 Km e, nonostante la forte intensita’, non ci sono stati danni.

Sono avvenuti una serie di terremoti di forte intensita’ quasi in contemporanea. Questo e’ assolutamente falso! Come ognuno puo’ controllare sul sito dell’USGS, l’unico evento di forte intensita’ e’ stato quello russo.

Gli studiosi non riescono assolutamente a spiegare questo fenomeno. Anche questo e’ falso. Per motivare questa affermazione, vi voglio mostrare un’immagine presa sempre dal sito USGS:

Mappa del sisma del 15 Agosto. Fonte: USGS

Il pallino riportato sulla mappa rappresenta proprio l’evento russo del 15 agosto (in realta’ 14 agosto in Russia). Vedete quella linea rossa che passa proprio in prossimita’ del pallino? Come si vede dalla legenda riportata, la linea rappresenta il confine tra 2 grandi faglie. Ora cosa ci sarebbe di tanto sorprendente in un terremoto che avviene lungo una linea di separazione tra faglie? Assolutamente nulla.

L’evento russo non ha assolutamente nulla di sorprendente. E’ un terremoto avvenuto nel punto di separazione tra faglie. E’ un fenomeno del tutto comprensibile. In diversi articoli abbiamo analizzato statisticamente il fenomeno dei terremoti, mostrando dati e facendo considerazioni:

Emilia 13-16 Luglio: un po’ di statistica

Riassunto sui terremoti

La cosa piu’ importante di cui rallegrarsi e’ che non ci sono state conseguenze per nessuno a causa di questo sisma.

Al solito, non lasciatevi convincere da parole campate in aria e riportate senza uno straccio di prova scientifica. Il web rappresenta una importante fonte di notizie dove tutti possono attingere. L’importante e’ utilizzare queste fonti in maniera corretta senza lasciarsi convincere da questo o quell’altro sito. Per continuare ad analizzare in modo scientifico gli eventi e le profezie sul 2012, non perdete in libreria, tra pochi giorni, Psicosi 2012. Le risposte della scienza.