Tag Archives: variazione

Triangolo delle Bermuda, risolto il “mistero”?

14 Mar

Un nostro caro lettore mi ha contatto privatamente per chiedere lumi circa una teoria in grado di spiegare gli incidenti avvenuti nel cosiddetto “Triangolo delle Bermuda”. Vi premetto subito che non si tratta di una di quelle teorie pseudoscientifiche che compaiono nei vari siti spazzatura di cui di sovente dobbiamo occuparci, ma di una teoria assolutamente scientifica e molto interessante.

Mappa del Triangolo delle Bermuda

Mappa del Triangolo delle Bermuda

Dal momento che non ne abbiamo mai parlato, credo sia necessario, prima di passare alla possibile spiegazione, dire qualcosa in piu’ di questo misterioso e molto citato fazzoletto di mare. Come sapete, il triangolo delle Bermuda e’ una zona di mare molto estesa, circa 1100000 Km^2, che si trova nell’Atlantico Settentrionale a largo delle coste di Porto Rico.

Cosa ha di famoso questo punto dell’oceano?

Non vi diro’ certo qualcosa di nuovo raccontando di come, negli anni, il Triangolo delle Bermude e’ divenuto famoso a causa della sparizione improvvisa di molte navi e aerei che, improvvisamente, mentre sorvolavano o si trovavano a passare sulla zona, sono misteriosamente scomparsi senza lasciare alcuna traccia. Di storie e racconti di questo tipo, tutti ne abbiamo sentito parlare, creando un’aura di mistero intorno a questo tratto di mare.

Le spiegazioni date per giustificare in qualche modo queste sparizioni sono davvero molto diversificate e, ovviamente, non possono mancare le ipotesi fantascientifiche. Per fare qualche esempio, si parla di area di volo per gli extraterrestri che non gradirebbero la presenza di esseri umani, di costruzioni risalenti ad Atlantide sul fondo dell’oceano ed in grado di creare forze sconosciute e invisibili, di fenomeno fisico naturale non compreso in grado di attirare qualsiasi cosa passi sopra la zona, di anomalie dello spazio tempo che creerebbero tunnel quantistici in grado di collegare diverse parti dell’universo e cosi’ via con una lunga serie di ipotesi piu’ o meno assurde che di volta in volta vengono riproposte da giornali, siti e, soprattutto, trasmissioni televisive che andrebbero lasciate in onda solo sovrapponendo, come si faceva una volta per i telefilm americani, le risate delle persone quando vengono mandati servizi del genere.

Ora pero’, prima di parlare di ipotesi concrete di spiegazione, credo sia utile fare il punto della situazione su questa storia per capire fino in fondo l’entita’ e il numero di questi incidenti.

Cercando in rete, trovate molto facilmente la lista degli incidenti misteriosi che sono avvenuti nel Triangolo nel corso degli anni. Quello che pero’ molti dimenticano di dire e’ che questa lista non e’ stata redatta da nessun organo ufficiale per il controllo dei mari. Cosa significa? Il mito del Triangolo delle Bermuda inizia intorno al 1950 con un articolo in cui si parlava della prima volta di misteriose sparizioni in questa zona di mare. Il boom mediatico arrivo’ poi nel 1974 con l’uscita di quello che diventera’ poi un bestseller della letteratura pseudo-scientifica, il libro “Bermuda, il triangolo maledetto”, scritto da Charles Berlitz. Per chi non lo conoscesse, Berlitz e’ proprio il fondatore della famosa scuola di lingue diffusa in tutto il mondo ed e’ autore di diversi libri sul tema della archeologia misteriosa e del complottismo piu’ spinto. Bene, l’uscita del libro di Berlitz segna l’inizio del vero e proprio mito del Triangolo delle Bermuda, libro che ha dato poi inizio a tutta una sequela di opere piu’ o meno romanzate che sono arrivate fino ai giorni nostri.

Cosa dire sul libro di Berlitz? Semplice, quella che doveva essere un’inchiesta storica con il resoconto dettagliato di tutti gli incidenti registrarti nel corso degli anni, si e’ rivelata un’enorme montatura gonfiata veramente a dismisura. Come dimostrato per la prima volta da Lawrence Kusche con il suo libro “The Bermuda Triangle Mystery: Solved” del 1975, molti degli episodi riportati nel libro di Berlitz sono inventati, gonfiati o riguardano incidenti non avvenuti nel triangolo. In particolare, Kusche che era un aviatore e istruttore di volo, parti’ con le sue ricerche dalla scomparsa di un volo commerciale ripreso da Berlitz come caso inspiegabile. Come spesso sentiamo dire, tutti gli incidenti accaduti nel Triangolo sono avvenuti in condizioni meteo perfette e senza lasciare traccia. Bene, i dati mostrati da Kusche dimostrano invece il contrario, potendo imputare la maggior parte degli incidenti, tra quelli realmente avvenuti nel Triangolo, alle avverse condizioni meteo e alle tempeste tropicali che di certo non mancano in quella zona.

Cosa significa questo?

Come potete capire, l’alone di mistero che da sempre circonda questo tratto di mare e’ solo frutto di una montatura, principalmente letteraria, avvenuta nel corso degli anni. Facendo una scrematura molto profonda, di tutti gli incidenti che trovate nei racconti, solo 3 o 4 non trovano una spiegazione immediata perche’ veramente avvenuti nella zona, in condizioni di meteo ottime ma, ovviamente, potrebbero essere dovuti a guasti improvvisi.

E’ possibile questo?

Assolutamente si. Per darvi un’idea, dalle statistiche elaborate sia dalla guardia costiera americana che dalla societa’ Lloyd’s di Londra, il numero di incidenti registrati nella zona e’ perfettamente in linea con le statistiche mondiali rapportando i numeri all’alto traffico aereo e navale che avviene nella zona. Ecco il link della USGC americana che ne parla:

USGC, Bermuda

mentre, per quanto riguarda i Lloyd’s, dal momento che questa e’ la compagnia che si occupa proprio del calcolo dei rischi assicurativi, se ci fosse un reale e misterioso pericolo nella zona, secondo voi continuerebbe a far assicurare i mezzi che transitano nel Triangolo?

Altra considerazione, anche se gli incidenti sono dovuti a guasti o avverse condizioni meteo, e’ vero che in moltissimi casi non sono stati rinvenuti i resti dei mezzi incidentati?

Questo e’ assolutamente vero, ma anche qui possiamo dare una spiegazione razionale senza doverci nascondere. Il fondale del Triangolo delle Bermuda e’ caratterizzato dalla presenza di fosse oceaniche molto profonde ed e’ interessato da correnti molto forti. La combinazione di questi due fattori fa si che, in caso di incidente, il mezzo possa essere risucchiato a fondo molto velocemente, e magari trasportato altrove, nel giro di pochissimi minuti.

Detto questo, esiste un mistero sul Triangolo delle Bermuda? Da quanto detto, possiamo escludere questa ipotesi dal momento che il tutto e’ frutto di una montatura prettamente letteraria basata su argomentazioni esagerate, falsificate e, ovviamente, atte solo a creare un business per chi le mette in piedi. Prima pero’ di chiudere, vorrei fare qualche altra considerazione. Come detto, ci sono ancora 3 o 4 incidenti la cui spiegazione non e’ nota e che possono essere imputati ad improvvisi guasti dei mezzi interessati.

E se non fossero guasti dovuti al mezzo?

Perche’ dico questo?

Semplice, non limitandoci al caso del Triangolo, nel corso della storia si sono verificati incidenti in mare apparentemente non spiegabili e che hanno fatto scomparire improvvisamente mezzi dai radar non lasciando assolutamente traccia. Una possibile spiegazione di questi incidenti, che e’ poi l’argomento della domanda iniziale da cui siamo partiti, potrebbe essere imputata ai cosiddetti “idrati di metano”. Fate attenzione, ora stiamo passando dallo smascherare storie fantascientifiche ad ipotesi scientifiche.

Cosa sono gli idrati di metano?

Si tratta di una struttura cristallina solida formata da acqua ghiacciata e metano. Per poter formare strutture di questo tipo e’ necessaria una combinazione di basse temperature e pressioni molto elevate. Queste condizioni sono ovviamente possibili sui profondi fondali oceanici dove l’acqua scende facilmente ad una temperatura prossima allo zero e la colonna di liquido sovrastante produce un’elevata pressione. Strutture di questo tipo sono molto frequenti a profondita’ tra i 500 e i 4000 metri e possono estendersi anche su superfici molto vaste.

Ora, immaginate la seguente situazione: qualcosa, ad esempio una scossa sismica, rompe lo strato di ghiaccio e metano. In queste condizioni, una grossa bolla di gas puo’ fuoriuscire e risalire verso la superficie. Se una nave si trova a passare sopra il punto in cui la bolla esce verso l’atmosfera, cosa succede? Semplice, le navi galleggiano grazie alla spinta di Archimede, dipendente dalla densita’ dell’acqua, che bilancia il peso stesso della nave. Poiche’ il metano ha una densita’ minore dell’acqua, nel momento della fuoriuscita, il peso della nave non sarebbe piu’ bilanciato e il mezzo verrebbe risucchiato verso il basso. E’ possibile questo? Assolutamente si e proprio nel corso degli ultimi anni, esempi di questo tipo sono stati anche documentati. Dal momento che, come anticipato, il Triangolo delle Bermuda presenta fondali molto profondi, correnti fredde e giacimenti di combustibili fossili, e’ assolutamente lecito pensare che la zona possa essere interessata da fenomeni di questo tipo. Ovviamente, in caso di un incidente del genere, la sparizione sarebbe improvvisa e senza lasciare traccia alcuna del mezzo.

Dal mio punto di vista, e’ assolutamente lecito pensare che, forse, alcuni degli incidenti rimasti senza spiegazione, il cui numero ripeto e’ perfettamente compatibile con le statistiche di ogni altra zona, potrebbero essere stati causati dalla rottura di strati di idrati di metano.

Eventi di questo tipo potrebbero anche spiegare, non solo per il Triangolo, incidenti aerei avvenuti a bassa quota sopra gli oceani. La bolla di metano uscita in atmosfera infatti, potrebbe rimanere densa e arrivare agli ugelli ad alta temperatura degli aerei. In questo caso, si svilupperebbe immediatamente un incendio che interesserebbe l’intero apparecchio facendolo precipitare.

Se credete che la spiegazione sia esagerata, pensate che da un metro cubo di idrati di metano ad alta pressione si formano, a pressione e temperatura normali, ben 168 metri cubi di gas e solo 0,87 metri cubi di acqua.

Attenzione, 168 metri cubi di gas da un solo metro cubo di idrati dal fondo dell’oceano. Perche’ allora non sfruttare questa enorme risorsa per estrarre gas? Questa idea e’ ovviamente venuta anche alle maggiori compagnie di estrazione e al momento ci sono diversi gruppi di ricerca, soprattutto americani e giapponesi, che stanno studiando il modo migliore, se possibile, di mettere le mani su questa enorme risorsa. Dalle stime fatte, la quantita’ di gas contenuta negli idrati sarebbe molto maggiore di quella contenuta in tutti i giacimenti tradizionali conosciuti al mondo. Al momento pero’, l’estrazione di questo gas sarebbe ancora troppo rischiosa e con efficienza troppo bassa. Come sapete, il metano e’ uno dei piu’ pericolosi gas serra, con effetti 30 volte maggiori di quelli dell’anidride carbonica. Una fuoriuscita incontrollata di questo gas provocherebbe effetti disastrosi per la nostra atmosfera. Inoltre, sulla base della spiegazione degli idrati per gli incidenti in mare, un’operazione di questo tipo sarebbe molto rischiosa per le piattaforme e le navi che si troverebbero in prossimita’ del punto di raccolta.

Concludendo, per quanto riguarda il Triangolo delle Bermuda, abbiamo visto come il mito creato nel corso degli anni sulla pericolosita’ della zona sia solo una montatura ad hoc. Molti degli incidenti considerati misteriosi sono in realta’ perfettamente spiegabili o avvenuti in zone diverse. Ci sono ancora un numero esiguo di casi non spiegabili in modo certo ma che comunque rientrano nelle statistiche calcolate su scala mondiale. Non pensando al semplice guasto, alcuni di questi avvenimenti potrebbero essere stati causati dalla liberazione di metano da idrati sul fondale. Queste strutture solide, conosciute e presenti sui freddi fondali di alcuni oceani, racchiudono enormi quantita’ di metano che puo’ essere liberato da fratture naturali o indotte dello strato solido. La quantita’ di metano liberata in questi casi e’ notevole al punto che diversi studi sono in corso per cercare di sfruttare questa risorsa.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Terremoti, gravita’ e …. bufale

9 Dic

Qualche settimana fa, tutta l’opinione pubblica e’ impazzita parlando di GOCE e della sua possibile caduta a terra al termine della missione. Molto prima che questo accadesse, avevamo gia’ parlato di questa missione in questo post:

GOCE: quando il satelliste finisce la benzina

Quando poi non solo il web ma anche i giornali si sono interessati all’avvenimento, in questo articolo:

Obbligatorio dire due parole su GOCE

siamo tornati sull’argomento per valutare le reali probabilita’ di impatto non tanto sulla terra, quanto in un’area popolata del nostro pianeta.

Ora pero’, vorrei tornare su questo argomento perche’ in questi giorni si e’ di nuovo tornati a parlare di GOCE, mettendolo in relazione, questa volta per quanto riguarda i suoi dati, con un altro fatto tragico avvenuto in passato: il terribile terremoto che ha colpito il Giappone nel 2011.

Cosa si e’ scoperto?

Come visto nel primo articolo, il compito scientifico del satellite era quello di mappare il campo gravitazionale terrestre con lo scopo di studiare in dettaglio le sue caratteristiche. Misure di questo tipo sono estremamente importanti per studiare il nostro pianeta ma soprattutto per comprendere i meccanismi di circolazione delle correnti oceaniche.

Bene, dall’analisi dei dati di GOCE si e’ evidenziato come il terremoto del marzo 2011 in Giappone abbia modificato localmente la gravita’. In realta’, questo effetto era ipotizzato ed atteso ma i dati del satellite, che hanno portato una sensibilita’ mai avuta prima, hanno permesso di trovare la conferma di questa ipotesi.

Cerchiamo di ragionare sulla cosa.

Come sappiamo bene, la gravita’ che sperimentiamo tutti i giorni, e che, tra le altre cose, ci tiene attaccati alla Terra, e’ frutto della forza di attrazione che si esercita tra noi e il pianeta. Questa interazione si manifesta tra due qualsiasi masse poste ad una certa distanza. Se proprio vogliamo essere scientifici, l’intensita’ dell’interazione e’ direttamente proporzionale alle masse in gioco e inversamente proporzionale al quadrato della distanza. Detto in questi termini, noi siamo attratti dalla terra ma, allo stesso tempo, anche il nostro pianeta e’ attratto da noi.

Ora, facciamo un piccolo sforzo aggiuntivo. La nostra terra e’ un corpo molto grande e con una forma tutt’altro che regolare. Ogni variazione di densita’, o di altezza, contribuisce a variare di qualche percento l’interazione gravitazionale. Bene, come e’ noto, in caso di terremoti, abbiamo movimenti di grandi masse sotterranee che possono propagarsi anche per kilometri rispetto all’epicentro del sisma.

Detto questo, e’ facilmente comprensibile come un terremoto, specialmente se di grande intensita’, possa provocare variazioni locali della gravita’ a causa delle modificazione apportate.

Questa immagine, ricostruita proprio dai dati di GOCE, ci mostra la zona intorno all’epicentro giapponese del 2011 e le variazioni del campo gravitazionale registrate:

Variazioni locali del campo gravitazionale nella zona del terremoto del 2011 in Giappone.

Variazioni locali del campo gravitazionale nella zona del terremoto del 2011 in Giappone.

Fin qui credo sia tutto chiaro e assolutamente non sconvolgente. Come e’ nostra abitudine, andiamo pero’ a sbirciare come i siti catastrofisti stanno raccontando questa notizia.

Tenete a mente quanto detto fino a questo punto, soprattutto pensando a come si determina la gravitazione. Cosa troviamo scritto su uno di questi, tristemente noti, siti?

Analizzando i dati misurati dal GOCE in Giappone, il team ha scoperto che il terremoto aveva chiaramente influenzato negativamente, con conseguente rottura del campo gravitazionale della zona.

Leggete con attenzione questa frase. Ci sono due aspetti molto significativi da analizzare. Prima di tutto, vorrei tanto sapere cosa significa “rottura del campo gravitazionale”.Come visto nella spiegazione, questa frase non ha assolutamente senso. Si parla in questi termini solo per cercare di amplificare la notizia e spaventare le persone. Il campo gravitazionale puo’ si modificarsi, ma certamente non puo’ “spezzarsi” ne, tantomeno, interrompersi.

Oltre a questo piccolo “particolare”, ne abbiamo anche un altro molto importante. Il terremoto aveva influenzato “negativamente” . Che significa influenzato negativamente? Ovviamente niente. I terremoti sono fenomeni naturali, cosi’ come la gravita’. Grandi sismi possono provocare variazioni locali del campo gravitazionale. Non esistono influenze positive o negative, esistono solo i fatti di cui abbiamo discusso in precedenza. Mi sembra assolutamente evidente capire il perche’ di questo aggettivo in una notizia del genere.

Concludendo, siamo di fronte alla solita notizia scientifica vera, amplificata e distorta sul web. Il motivo di questo e’ ormai chiaro a tutti. Purtroppo, dobbiamo sempre prestare la massima attenzione nel leggere notizie di questo tipo e valutare sempre al meglio la fonte da cui ci stiamo informando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La portatrice di sventura e’ arrivata!

19 Nov

Per mesi siamo stati qui a discutere della cometa ISON, di quali sventure avrebbe portato e, a suon di articoli, a smentire di volta in volta tutte quelle voci che volevano far credere a particolari segnali inviati da questa cometa. Questi sono solo alcuni degli articoli scritti su questa cometa:

Rapido aggiornamento sulla ISON

2013 o ancora piu’ oltre?

E se ci salvassimo?

Che la ISON abbia pieta’ di noi!

– Se la Ison non e’ cometa, allora e’ …

Ison: cometa in technicolor

Poi? Mentre la rete e’ ancora indaffarata ad interrogarsi su ipotetiche variazioni di luminosita’, cambi di colore o accelerazioni sospette, zitta zitta, la nostra bella cometa si e’ avvicinata al Sole al punto di diventare visibile.

Nella sezione:

Hai domande o dubbi?

un nostro caro lettore ci ha appunto chiesto di fare chiarezza sulla visibilta’ della ISON e di cercare di capire come poterla osservare ad occhio nudo.

Come discusso piu’ volte, man mano che la ISON si avvicinava al Sole e mostrava meglio la sua struttura e composizione, ci si e’ resi conto che le potenzialita’ di questo oggetto celeste dovevano notevolmente essere corrette al ribasso. Quando venne scoperta, molti iniziarono a parlare di “cometa del secolo”, in grado non solo di essere visibile ad occhio nudo, ma chiaramente osservabile anche in pieno giorno. Si parlava addirittura di luminosita’ piu’ alte di quelle della Luna.

Purtroppo, osservato meglio il suo diametro e la scia, ci si e’ accorti che queste anticipazioni erano molto esagerate. Anche se non sara’ la cometa del secolo, ogni passaggio di cometa visibile da Terra e’ sempre uno spettacolo molto bello da vedere.

Inoltre, negli ultimi giorni, avvicinandosi al Sole, la ISON ha aumentato in parte la sua luminosita’ ricorreggendo nuovamente, questa volta al rialzo se pur di poco, le attese:

Aumento della luminosita' della ISON negli ultimi giorni

Aumento della luminosita’ della ISON negli ultimi giorni

Al contrario di quanto si pensava fino a pochi giorni fa, la cometa e’ divenuta visibile anche ad occhio nudo, anche se ancora molto debolmente.

Bene, cerchiamo dunque di rispondere alla domanda iniziale da cui siamo partiti: come vedere questa cometa?

Piccola premessa, durante queste mattine di novembre, ci sono, come annunciato in altri articoli, ben quattro comete visibili nei nostri cieli e, per nostra fortuna, tutte visibili dall’emisfero boreale e tutte nella stessa direzione. Per poterle osservare bene, e’ consigliabile munirsi anche solo di un semplice binocolo con sufficiente ingrandimento, in modo da poter distinguere molto bene chioma e coda, ad esempio, per la ISON.

Per poter osservare le comete, e’ necessario guardare verso EST poco prima delle 5 del mattino, cioe’ prima dell’alba. Ecco una mappa che vi mostra il cielo e la posizione della cometa:

Punti di visibilita' della ISON a novembre. Fonte: Coelum Astronomia

Punti di visibilita’ della ISON a novembre. Fonte: Coelum Astronomia

Ecco invece il cielo di Novembre con le quattro comete visibili:

Comete visibili nel cielo di Novembre. Fonte: Astroperinaldo.

Comete visibili nel cielo di Novembre. Fonte: Astroperinaldo.

Ricapitolando, per osservare la ISON, dobbiamo guardare veso EST prima dell’alba ed in direzione della stella SPICA. Fate attenzione, poiche’ la luminosita’ della ISON e’ ancora molto bassa, +5.5, dovete trovarvi un un luogo abbastanza scuro e quindi privo di fonti di inquinamento luminoso.

Verso la fine di novembre, la ISON non sara’ piu’ facilmente visibile perche’ la sua posizione sara’ bassa all’orizzonte e sara’ investita dalla luce del Sole che sorge.

Dai primi giorni di Dicembre pero’, la cometa tornera’ di nuovo visibile ad occhio nudo al tramonto del Sole.

In questi giorni, il tempo soprattutto in Italia non ci sta consentendo di vedere molto facilmente la cometa, ma visto il fitto calendario di giorni in cui questa sara’ visibile ad occhio nudo, sicuramente non manchera’ occasione di poter gustare questo fantastico spettacolo naturale.

Certo, se diamo retta ai tanti catastrofisti della domenica, chissa’ anche quali sventure portera’ questa cometa!

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

ISON: cometa in technicolor

15 Nov

Della ISON abbiamo parlato in tantissimi articoli:

Rapido aggiornamento sulla ISON

2013 o ancora piu’ oltre?

E se ci salvassimo?

Che la ISON abbia pieta’ di noi!

– Se la Ison non e’ cometa, allora e’ …

Riassumendo, si diceva che questa sarebbe stata la cometa del secolo con un passaggio talmente luminoso da essere perfettamente visibile ad occhio nudo in pieno giorno. Come visto pero’, queste stime sono state notevolmente ridimensionate quando si e’ potuto stimare il diametro del nucleo di questa cometa che, come visto, e’ inferiore ad un paio di kilometri. Nonostante questo, gia’ da mesi, i siti catastrofisti si sono scatenati nel lanciare previsioni e profezie legate a questa cometa: la Ison e’ Nibiru, la Ison arrivera’ sulla Terra, no, anzi, e’ un’astronave aliena, nemmeno e’ un pianeta, una costellazione, un mini sistema solare, ecc. Come visto negli articoli precedenti, tutte assurdita’ facilmente smentibili con un minimo di ricerca su internet ma, soprattutto, con un minimo di ragionamento.

Una particolarita’ pero’, almeno a mio avviso, questa cometa sicuramente la avra’: sara’ ricordata come l’oggetto celeste che maggiormente ha dato spunto per annunciare catastrofi.

L’ultima sparata che sta facendo riaccendere la discussione su internet e’ legata al colore di questa cometa. Come forse avrete letto, al passaggio vicino a Marte la Ison appariva di un bel colore verde. Continuando la sua corsa verso il perielio pero’, la cometa ha improvvisamente cambiato colore divenendo blu.

Cosa significa questo?

Inutile dire che si tratta, sempre secondo gli amici catastrofisti, di un fatto eclatante e misterioso, ovviamente non compreso dalla scienza. Inoltre, il nuovo colore della cometa sarebbe l’indicatore che la Ison e’ in realta’ la tanto temuta Blue Kachina della profezia Hopi. Di questa profezia abbiamo gia’ parlato abbondantemente in questo articolo:

Il 2012 e la profezia Hopi

Dunque, ci risiamo, una nuova fine del mondo ci attende tra pochi giorni. Meno male! Era gia’ qualche giorno che non veniva annunciata una nuova fine per la nostra amata Terra al punto che cominciavo a preoccuparmi.

Premessa, come visto nell’articolo riportato, la profezia Hopi riguarda qualcosa completamente diverso e, comunque, si tratta di un racconto di questo popolo indiano.

Detto questo, cerchiamo di capire se veramente c’e’ qualcosa di anomalo in questo cambio di colore.

In realta’, cambiamenti di colore lungo la traiettoria non sono affatto straordinari e vengono mostrati da diverse comete. Come potete facilmente immaginare, man mano che questi corpi si avvicinano al Sole vengono investiti da una radiazione sempre crescente ed inoltre aumenta anche la loro temperatura. Come visto in questo articolo:

Cos’e’ una cometa

questi corpi sono caratterizzati dalla sublimazione degli elementi che li compongono e, dunque, anche il colore caratteristico sara’ legato alla chimica dell’oggetto.

Bene, questa e’ una spiegazione semplice e comprensibile per tutti.

Pensateci, se ci sono diversi elementi questi possono “bruciare” in momenti diversi. Inoltre, un elemento puo’ essere piu’ dominante e rendere visibili gli altri solo in un secondo momento. Tutte cose perfettamente chiare e che possono spiegare in primis il colore delle comete e anche, come nel caso della Ison, cambi di colore lungo la traiettoria.

Ora pero’, e’ interessante capire da cosa siano determinati i colori verde e blu di cui stiamo parlando.

Su questo punto devo aprire una parentesi su molti siti di informazione scientifica o che pretendono di essere considerati tali. Se provate a cercare informazioni su internet, trovate che il colore verde e’ dovuto al cianogeno ma anche il colore blu e’ dovuto al cianogeno. Forse, e dico forse, si fa un po’ di confusione.

Per capire bene, vi mostro una tabella con gli elementi che possono essere presenti nella coda di una cometa e che emettono nello spettro del visibile:

Particelle a maggiore emissione
nel campo visibile
Molecole nm Ioni nm
CN 399 CO+ 426
C3 406 H3O+ 700
CH 435
C2 514

Vedete che il cianogeno,CN, emette a 399 nanometri. Cosa significa? Piccola digressione. Il cosiddetto spettro del visibile e’ quella banda di frequenze, o lunghezze d’onda, che i nostri occhi sono in grado di vedere. In questo spettro possiamo inserire appunto i diversi colori ognuno con una lunghezza d’onda diversa. Senza tanti giri di parole, vi mostro una seconda tabella:

Colore Frequenza Lunghezza d’onda
Violetto 668-789 THz 380–450 nm
Blu 631-668 THz 450–475 nm
Ciano 606-631 THz 476-495 nm
Verde 526-606 THz 495–570 nm
Giallo 508-526 THz 570–590 nm
Arancione 484-508 THz 590–620 nm
Rosso 400-484 THz 620–750 nm

Come vedete, partendo dal violetto si arriva fino al rosso aumentando la frequenza. Prima di questi valori abbiamo gli ultravioletti dopo gli infrarossi, bande di frequenze non osservabili ai nostri occhi.

Ora, il cianogeno, cosi’ come visto nella prima tabella, emette a 399 nanometri. Detto in altri termini, quando l’emissione di luce da parte di questo elemento e’ presente, la cometa apparira’ di un colore blu/violetto, come comprensibile utilizzando la seconda tabella. Notate inoltre come il colore verde abbia una lunghezzad’onda piu’ grande tra 495 e 570 nanometri. Capite dunque che il cianogeno non puo’ essere responsabile del colore verde che si osservava quando la Ison era in prossimita’ di Marte.

Sempre facendo riferimento alla prima tabella, e’ evidente che il colore verde era invece dovuto all’emissione di luce da parte di molecole di C2 che emettono luce intorno ai 514 nanometri.

Questo ci fa capire come, a volte, anche siti scientifici facciano confusione o forniscano informazioni non reali.

Ultima considerazione, ora che la cometa e’ divenuta blu, mostrando quindi la presenza di cianogeno, alcuni siti si sono lanciati nella speculazione su questo gas. Come e’ noto, si tratta di un composto tossico per l’essere umano se viene respirato. Ragioniamo, e’ contenuto in una cometa che, se anche superasse il perielio, si troverebbe a 60 milioni di kilometri da noi. Secondo voi c’e’ pericolo?

Nonostante questo, si stanno creando le condizioni per riproporre la truffa del 1910 quando al passaggio della cometa di Halley venne proposta la presenza di questo gas nelle code della comete, poi risultato reale. In quell’occasione molti buontemponi, leggasi truffatori, vendevano maschere antigas e pillole miracolose per difendersi dal pericolo del cianogeno che poteva arrivare sulla Terra.

Non mi meraviglierei se questa cosa venisse riproposta ora.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aumento di uragani per il 2013

2 Giu

In questi giorni, diversi giornali e siti internet hanno pubblicato le previsioni per la stagione degli uragani 2013. Per chi non lo sapesse, il periodo piu’ propizio per la formazione di questi eventi atmosferici va dal 1 Giugno al 30 Novembre e, come e’ noto, interessa principalmente la parte centrale degli Stati Uniti oltre ovviamente ai paesi caraibici.

Purtroppo, come spesso avviene, ho letto tantissime inesattezze su questi articoli, a volte per confusione fatta nell’interpretazione delle previsioni, altre volte, purtroppo, per il solito catastrofismo che, soprattutto sulla rete, imperversa.

Cosa trovate scritto? Semplicemente che il numero di uragani aumentera’ del 70% rispetto alla norma e che in particolar modo ci sara’ un aumento sostanziale del numero di uragani maggiori che dunque potrebbero arrecare forti danni nelle zone interessate. Senza aggiungere altro, vi lascio immaginare la feroce speculazione che si e’ creata sulla rete parlando ovviamente di geoingegneria, modificazioni del clima, HAARP, Nibiru, e compagnia bella, che tanto ormai sono la cuase di tutto quello che avviene nel mondo.

Cerchiamo di andare con ordine e di capire meglio la cosa.

Prima di tutto, qui trovate il bollettino ufficiale rilasciato dal NOAA, l’ente americano che, tra le altre cose, si occupa anche di eseguire previsioni e simulazioni per il fenomeno degli uragani:

NOAA, Uragani 2013

Cosa troviamo? Prima di tutto leggiamo molto attentamente i numeri che vengono riportati, perche’ proprio su questi c’e’ la maggior confusione in assoluto. Partiamo dalle medie registrate. Normalmente, dove “normalmente” significa “in media”, ci sono 12 “named storms” all’anno, cioe’ tempeste con venti che superano i 63 Km/h e a cui viene attribuito un nome. Tra queste, e attenzione “tra queste” non significa “oltre a queste”, ci sono, sempre in media, 6 uragani, cioe’ tempeste i cui venti superano i 118 Km/h. Bene, ora non perdete il filo, tra questi 6 uragani ce ne sono, sempre in media, 3 che vengono classificati come “uragani maggiori”, cioe’ con venti oltre i 180 Km/h.

Cerchiamo di riassumere. Ogni anno in media ci sono 12 tempeste con venti che superano i 63 Km/h e a cui viene assegnato un nome. Tra tutte queste che superano questo limite, ce ne sono, sempre in media, 6 che superano i 118 Km/h e che quindi vengono chiamati uragani e di questi 6 ce ne sono 3 che superano i 180 Km/h e che quindi vengono chiamati “uragani maggiori”.

Bene, quanti sono in tutto gli eventi? Ovviamente la risposta e’ sempre 12, e questo numero comprende tempeste, uragani e uragani maggiori.

Cosa ci si aspetta per il 2013?

Come potete leggere nel bollettino del NOAA, dai calcoli statistici effettuati, si e’ evidenziata una probabilita’ del 70% che il numero di tempeste possa essere superiore alla media, in particolare, compreso tra 13 e 20. Cosa significa? Prima di tutto che vi e’ una probabilita’ di questo aumento, non una certezza come vorrebbero farvi credere. Inoltre, viene fornito un intervallo piuttosto largo di ipotesi. Le 12 tempeste sono il numero medio registrato negli anni, dare un intervallo tra 13 e 20, significa andare da un valore praticamente in media, 13, ad uno superiore ai trascorsi, 20.

Questo solo per smentire subito tutte quelle fonti che parlano di aumento certo.

Ora, in questo numero compreso tra 13 e 20, viene fornito anche un quadro della composizione. Come visto, questo e’ il numero totale di eventi con venti superiori ai 63 Km/h. Come riportato dal NOAA, le previsioni sulla composizione sono: un numero compreso tra 7 e 11 di tempeste che potrebbero arrivare ad uragani e un numero compreso tra 3 e 6 che potrebbero sfociare in uragani maggiori.

Analizziamo questi numeri. Nel caso piu’ favorevole, si avrebbero 13 tempeste, di cui 7 uragani e 3 uragani maggiori. Praticamente questi numeri sono nelle medie riportate all’inizio. Nel caso piu’ sfavorevole invece, si avrebbero 20 tempeste di cui 11 uragani e 6 uragani maggiori. In questo caso invece tutte le categorie subirebbero un forte aumento rispetto ai valori medi.

Come vedete, questi numeri occupano un intervallo molto largo in cui e’ difficile fare previsioni precise. Ovviamente, il NOAA diffonde questi dati come indicazione per la stagione che sta inziando. Data la larghezza degli intervalli considerati, non e’ possibile fare previsioni esatte ne’ tantomeno fare analisi dettagliate.

Perche’ allora vengono fornite queste previsioni?

In realta’, il compito di questi calcoli e’ molto importante e serve per analizzare in termini statistici il comportamento di alcuni rilevanti parametri ambientali e climatici. Come riportato nel bollettino del NOAA, queto risultato superiore alla media viene spinto da alcune evidenze molto importanti:

– il forte monsone sull’Africa occidentale responsabile dell’aumento degli uragani nell’Atlantico iniziato a partire dal 2005

– le temperature leggermente piu’ alte nell’Atlantico tropicale e nel Mar dei Caraibi

– il ritardo nello sviluppo de “El Niño” che potrebbe non incrementarsi quest’anno

Attenzione, anche su questo ultimo punto, potete leggere notizie inesatte su diverse fonti. Non e’ che El Niño e’ scomparso o non si forma, semplicemente, al solito a causa di molti fattori correlati tra loro, quest’anno questo fenomeno atmosferico, che mitiga notevolmente gli uragani, potrebbe non aumentare. Questo non significa che e’ scomparso. Nella figura riportata vedete proprio l’andamento di El Niño negli ultmi mesi ottenuto monitorando la temperatura del Pacifico.

Temperature del Pacifico delle ultime settimane. Fonte: ENSO

Temperature del Pacifico delle ultime settimane. Fonte: ENSO

Concludendo, cosa abbiamo ottenuto? I risultati delle simulazioni condotte dal NOAA mostrano una probabilita’ del 70% che ci sia quest’anno un aumento del numero di tempeste. Questo aumento comporta un numero di fenomeni compreso tra 13 e 20 rispetto ad una media degli anni di 12. Il largo intervallo utilizzato non e’ utilizzabile per fare previsioni specifiche, ma l’indicazione dei modelli e’ importante per valutare diversi aspetti climatici di interesse mondiale. Proprio per concludere, ricordiamo che si tratta di calcoli statistici, forniti sulla base di modelli. Il numero medio utilizzato per il confronto viene da un database comprendente decine di anni di osservazione. Condizione per cui, sul singolo anno, variazioni rispetto a questa media sono del tutto normali e statisticamente possibili.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il futuro dell’eolico?

22 Apr

In questo articolo, vorrei tornare nuovamente a parlare di energie rinnovabili. Come sappiamo bene, il continuo aumento della richiesta di energia unita ovviamente al mantenimento e alla conservazione del nostro pianeta, impongono l’utilizzo anche di sorgenti rinnovabili. Quello che pero’ non dobbiamo mai dimenticare e’ che il nostro attuale stato dell’arte non rappresenta assolutamente un punto di arrivo. Le soluzioni disponibili oggi per lo sfruttamento delle sorgenti verdi, non sono ancora sufficienti e non consentono l’autosostentamento che sarebbe richiesto.

Di energie rinnovabili abbiamo parlato, ad esempio, in questi post:

Elezioni, promesse verdi e protocollo di Kyoto

Il futuro verde comincia da Masdar

Energia solare nel deserto

Pannelli, pannelli e pannelli

Mentre negli articoli precedenti ci siamo occupati principalmente di energia solare, in questo post vorrei parlare della seconda fonte per disponibilita’ che siamo in grado di sfruttare, l’energia eolica.

Come tutti sanno, lo sfruttamento dell’energia eolica avviene mediante delle enormi pale che vengono messe in moto dal vento e questa energia meccanica viene poi convertita in energia elettrica. Anche in Italia, abbiamo diverse installazioni di pale eoliche, soprattutto in quelle regioni dove la forza del vento e’ maggiore.

Quali sono i problemi principali delle pale eoliche?

Prima di tutto, come detto, si tratta di turbine molto grandi e che vengono installate su piloni molto alti. Come sostenuto anche da molti esperti, l’impatto ambientale di queste soluzioni e’ molto elevato. Detto in altri termini, le pale eoliche, secondo molti, “sono brutte”. Se ci pensate bene, molto spesso, infatti, queste pale rovinano il paesaggio, soprattutto perche’ vengono installate in vallate o comunque in zone isolate dove la natura e’ ancora dominante. Sapete perche’ vengono installate in questi punti e non all’interno dei centri abitati? Perche’ le pale, durante il normale funzionamento, hanno dei livelli di rumorosita’ molto elevati. Qualsiasi mezzo meccanico messo in movimento, produce necessariamente un rumore di fondo che, nel caso delle pale, e’ anche molto elevato. Proprio questo problema, rende inutilizzabili le pale all’interno dei centri abitati.

Dunque? Esiste una soluzione alternativa?

In questi ultimi tempi, e’ in fase di studio una soluzione alternativa che prevede lo sfruttamento dell’energia eolica senza apparentemente nessuna parte meccanica in movimento. Questa soluzione, chiamata Ewicon, sfrutta infatti una variazione del campo elettrico indotto dal vento per creare energia elettrica. Se volete, invece di convertire energia meccanica in elettrica, il nuovo sistema e’ direttamente basato su una vairazione di energia in forma elettrica per produrre corrente.

Come funziona Ewicon?

Anche se il discorso non e’ semplicissimo, cerchero’ di essere divulgativo mostrando il concetto di base sfruttato in questa soluzione.

Immaginate di avere due conduttori elettrici posti ad una certa distanza e caricati con segno opposto. In altre parole, potete vedere il sistema come le armature di un condensatore. Ora, nella regione di spazio tra i due conduttori si crea un campo elettrico. Se adesso mettete una carica singola all’interno del volume, dove si spostera’ questa? Se la carica e’ positiva, questa ovviamente si muovera’ verso l’elettrodo negativo, spinta dal campo elettrico. Bene, fin qui tutto normale. Se adesso pero’, la forza del vento spinge la carica in verso opposto, cioe’ porta la carica verso l’elettrodo dello stesso segno. L’accumulo di cariche sull’elettrodo provochera’ dunque una variazione della tensione che puo’ essere convertita in energia elettrica.

Questo e’ proprio il principio sfruttato da Ewicon.

Il sistema eolico, prevede due file di elettrodi di segno opposto distanti circa 40 cm tra loro. Nel sistema sono presenti una serie di ugelli che vaporizzano goccioline d’acqua caricate positivamente. Il vento spinge le goccioline di carica positiva verso l’elettrodo dello stesso segno, creando la variazione di campo elettrico. Questa tecnica e’ anche nota come Electrospraying ed in realta’ e’ stata proposta gia’ nel 1975. Ewicon, che sta per Electrostatic Wind Energy Converter, sfrutta proprio questo principio fisico per creare energia dal vento, ma senza mezzi meccanici in movimento.

Per meglio comprendere il principio di base, vi riporto anche un video del sistema:

come vedete, il tutto si basa sulla forza del vento in grado di spingere le gocce d’acqua  in verso opposto a quello determinato dal campo elettrico degli elettrodi.

Il primo prototipo di Ewicon e’ stato realizzato e posto di fronte alla facolta di ingegneria della Delft University:

Prototipo del sistema eolico davanti alla Delft University of Technology

Prototipo del sistema eolico davanti alla Delft University of Technology

Quali sono i vantaggi di questa soluzione? Prima di tutto, come visto, eliminando le parti in movimento, il sistema non soffre piu’ della rumorosita’ delle pale eoliche. In questo modo, il sistema Ewicon puo’ anche essere installato, come nel caso del prototipo, all’interno dei centri abitati. Inoltre, le diverse forme realizzabili consentono di integrare il sistema anche nelle architetture dei piu’ moderni centri urbani. Ad oggi, gia’ diverse soluzioni di design sono state proposte e pensate per adattarsi a molte capitali europee.

Quali sono gli svantaggi? Come potete capire, si tratta ancora di un sistema in forma di prototipo. Prima di tutto, per elettrizzare le goccioline d’acqua e’ necessaria un’energia di partenza. Al momento, questo problema e’ risolto integrando delle batteria all’interno di Ewicon. Se pero’ vogliamo pensare questi sistemi utilizzabili anche “off shore”, cioe’ in mare aperto, e’ impensabile andare di volta in volta a cambiare le batterie dei generatori.

Inoltre, l’acqua necessaria per il funzionamento, viene prelevata dall’umidita’ dell’aria. Questo rende il sistema non utilizzabile in luoghi dove l’umidita’ e’ troppo bassa. Come visto in uno degli articoli precedentemente riportati, uno degli sviluppi futuri, non solo per il solare ma anche per l’eolico, e’ la costruzione di impianti di grandi dimensioni in zone desertiche. In questo caso, il sistema non sarebbe utilizzabile a meno di collegare Ewicon ad una fonte idrica, cosa ugualmente non realizzabile in zone desertiche.

Altro problema non da poco e’ la miscela utilizzata. Nel prototipo visto, non viene utilizzata soltanto acqua, ma una miscela al 70% di acqua demineralizzata e 30% di etanolo.

Ovviamente, si tratta di problemi normali in un sistema in fase di prototipo. Per poter risolvere questi punti, sara’ ovviamente necessario lavorare ancora molto sul progetto e altresi’ investire capitali in questo genere di studi. Come detto all’inizio, ad oggi gia’ disponiamo di metodi per lo sfruttamento delle sorgenti rinnovabili, e proprio per questo dobbiamo utilizzarli. Questo pero’ non preclude lo studio di soluzioni alternative, come Ewicon o come il solare termodinamico, che in un futuro non troppo lontano potranno migliorare notevolmente l’efficienza di produzione energetica e risolvere anche gli altri problemi che ancora affliggono le attuali soluzioni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Nuovi esopianeti. Questa volta ci siamo?

20 Apr

Solo qualche giorno fa, molti giornali e telegiornali hanno parlato di una nuova importantissima scoperta fatta dal telescopio Keplero della NASA. Come forse avrete sentito dai media, questo portentoso telescopio e’ riuscito ad individuare due nuovi esopianeti molto simili alla Terra. La caratteristica di questi pianeti, che tanto clamore ha suscitato, e’ che esiste una buona probabilita’ che su questi pianeti sia presente acqua allo stato liquido. Senza tanti giri di parole, questa e’ una delle condizioni piu’ semplici che possiamo immaginare affinche’ si sia formata la vita su un pianeta.

Questa notizia ha pero’ ridato aria a tanti siti che ovviamente hanno cominciato a speculare su questa scoperta. Leggendo in rete ne trovate veramente di tutti i colori. Solo per dirvi le principali, uno dei due esopianeti potrebbe essere l’ormai tristemente noto Nibiru, la NASA non solo avrebbe scoperto che c’e’ acqua, ma anche che i pianeti sono abitati da forme di vita. In quest’ultimo caso, alcuni azzardano anche che nei prossimi giorni ci sara’ l’annuncio ufficiale del governo americano per chiarire finalmente l’esistenza degli alieni. Altri siti ancora parlano di pianeti abitabili per gli esseri umani e su cui presto una ristretta elite di persone si rifuggeranno per scappare da qualcosa di estremamente grave che sta per capitare alla Terra.

Schermata-2013-04-18-a-16.41.31

Queste speculazioni dette in questo modo sembrano, ma in realta’ lo sono, delle barzellette. La cosa che da sempre mi lascia interdetto e’ la grande quantita’ di persone che seguono questi siti e che spesso credono anche alle innumerevoli fandonie pubblicate.

Cerchiamo dunque di raccontare in senso scientifico la notizia e anche di fare qualche consdierazione per smentire queste ingloriose affermazioni che trovate in rete.

Della missione Keplero, ma soprattutto dei numerevoli esopianeti scoperti abbiamo parlato in questo post:

A caccia di vita sugli Esopianeti

In quell’occasione, avevamo parlato di esopianeti a seguito della scoperta di Kepler-37B, il piu’ piccolo pianeta mai osservato fuori dal Sistema Solare. In particolare, come visto nell’articolo riportato, Keplero monitora lo spazio osservando in continuo la luminosita’ degli oggetti visibili attraverso un esposimetro. Senza entrare troppo nello specifico, queste telescopio individua i pianeti osservando le minime variazioni di luminosita’ della stella centrale quando questi pianeti transitano tra la lente di Keplero e la stella centrale.

Il metodo della variazione di luminosita’ funziona molto bene e Keplero e’ gia’ riuscito ad individuare diversi pianeti fuori dal sistema solare.

Questa volta Keplero ha scoperto due nuovi pianeti orbitanti intorno ad una stella centrale chiamata Kepler-62. Nell’articolo precedente invece avevamo parlato del sistema orbitante intorno a Kepler-37. Anche se sembra un po’ confusionario, il sistema di nomenclatura degli esopianeti e’ molto semplice. Le stelle centrali individuate prendono nomi del tipo Kepler-1, Kepler-2, ecc. I pianeti orbitanti intorno alla stella Kepler-X, vengono invece chiamati Kepler-Xa, Kepler-Xb, ecc, in base all’ordine in cui vengono scoperti. Ammetto, come gia’ fatto la volta scorsa, che la fantasia nel dare nomi non e’ la dote principale degli scienziati della NASA.

Torniamo dunque alla nuova scoperta. Intorno a Kepler-62 sono stati individuati Kepler-62e e Kepler-62f. Dopo quanto detto, capite subito che sono il quarto e il quinto pianeta individuato intorno a questa stella.

Perche’ questi pianeti sono interessanti?

Quando si studia un sistema stellare come quello di cui stiamo parlando, o analogamente potete pensare il ragionamento applicato anche al nostro sistema solare, prima di tutto si studia la stella centrale. Cosi’ come avviene per il Sole, questa oltre a determinare il moto dei pianeti attraverso la sua attrazione gravitazionale, e’ in grado di influire pesantemente sulle condizioni climatiche di ciascun pianeta. Detto questo, si determina una cosiddetta “fascia di abitabilita’”, intesa come la zona del sistema planetario in cui potrebbero innescarsi le condizioni per la vita. Come detto in precedenza, la condizione piu’ semplice ottenuta dalla zona di abitabilita’ e’ quella di trovare acqua allo stato liquido, cosa impossibile se troppo vicini o troppo lontani dalla stella centrale.

Bene, i due nuovi pianeti si trovano all’interno della fascia di abitabilita’ determinata da Kepler-62. Per essere precisi, Kepler-62e si trova ai limiti della zona, mentre Kepler-62f e’ proprio al centro della zona abitabile.

Per darvi qualche dettaglio, la stella centrale Kepler-62 e’ circa il 70% del nostro Sole, sia in termini di massa che di diametro, mentre Kepler-62f e’ circa 1,4 volta la nostra Terra.

Dalle osservazioni fatte, Kepler-62e appare roccioso come la Terra e “probabilmente” potrebbe ospitare fiumi, laghi, mari e anche un’atmosfera simile a quella della nostra Terra.

Dunque, c’e’ vita su Kepler-62f? Come potete capire, esiste una probabilita’ che ci sia acqua allo stato liquido, ma non e’ assolutamente scontato che ci sia vita. Prima di tutto, il fatto di avere un pianeta in fascia abitabile e’ una condizione necessaria ma tutt’altro che sufficiente.

Per rispondere alle tante ipotesi complottiste citate prima, facciamo un ragionamento. Abbiamo scoperto questo pianeta, probabilmente c’e’ acqua allo stato liquido, ora? Andiamo a colonizzarlo o tentiamo di fare amicizia con gli alieni?

La risposta a tutte queste domande e’ sempre no!

Kepler-62f si trova ad una distanza di circa 1200 anni luce da noi. Capite dunque come sia impossibile raggiungere questo pianeta ma soprattutto come sia impossibile studiare a questa distanza l’atmosfera di Kepler-62f. Inoltre, il telescopio Keplero non e’ stato neanche pensato per questo. La missione di Keplero e’ quella di scoprire esopianeti lontani dalla Terra per capire come e’ fatto l’universo lontano da noi e, perche’ no, anche per raccogliare informazioni aggiuntive su come si e’ formato il nostro Sistema Solare.

Inoltre, lo scopo di Keplero era quello di capire quanti esopianeti lontani ci fossero. Come detto, il telescopio e’ in grado di studiare la struttura dei pianeti ma non la loro atmosfera. Questo e’ ancora impossibile a queste distanze. Ovviamente, le importanti scoperte fatte da Keplero danno una spinta in avanti per cercare di migliorare le nostre tecnologie e magari, procedendo per passi intermedi, essere in grado, nel giro di qualche anno, di studiare anche l’atmosfera degli esopianeti. Sicuramente, parlando in termini molto terreni e poco scientifici, scoperte come queste possono influenzare e giustificare i notevoli investimenti che serviranno per arrivare a questi futuri studi.

Ultima punto rimasto scoperto: uno dei due esopianeti e’ Nibiru? Assolutamente no. Premesso che ad oggi non c’e’ nessuna evidenza di questo corpo, secondo le tante voci, da internet a Sitchin fino al 2012, Nibiru dovrebbe passare con un certo periodo (3600) anni all’interno del nostro sistema solare. Il sistema stellare Kepler-62 si trova nella sua posizione a 1200 anni luce da noi e assolutamente mai passera’ all’interno del sistema solare. Se volete, possiamo pensare di organizzare una petizione, chiediamo alla NASA di chiamare il prossimo esopianeta Nibiru, magari in questo modo faremo finalmente contenti i catastrofisti. Vista pero’ la speculazione in corso sul pianeta X, non credo assolutamente che questo servira’ a zittire i piu’.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Troppo caldo …. aumenta il ghiaccio?

7 Apr

L’aumento delle temperature globali e’ certamente un fenomeno risaputo e noto a tutti. Ora, per quanto riguarda le cause di questo aumento, non esiste una spiegazione unica e condivisa da tutti. Si puo’ parlare di inquinamento ad opera dell’uomo, di naturale ciclo del nostro pianeta, di aumento delle temperature osservato anche su altri pianeti del sistema solare. Insomma, tante ipotesi, tutte con basi scientifiche alle spalle, ma tra cui, ad oggi, non si e’ potuta individuare la reale causa di questo aumento. Solo per chiarezza, quando si parla di aumento globale delle temperature, non dobbiamo certamente pensare che di inverno, ad esempio in Italia, troveremo 30 gradi. L’aumento globale delle temperature consiste in un incremento al massimo di 1-2 gradi a livello mondiale, che comunque rappresenta una notevole variazione ai complicati e delicati equilibri dell’ecosistema Terra. Mia personale opinione e’ che ovviamente l’inquinamento umano contribuisce a questo incremento, ma non e’ possibile individuare una sola causa per l’aumento delle temperature. Secondo il mio punto di vista, tutte le cause viste in precedenza contribuiscono singolarmente ed in parti anche diverse a questo aumento.

Detto questo, vorrei ora parlarvi di un articolo apparso sulla rivista Nature Geoscience solo qualche giorno fa e che parla dei ghiacci dell’Antartide, cioe’ del Polo Sud.

paradosso-polo-sud

Per prima cosa vi riporto il link in cui e’ possibile leggere l’abstract dell’articolo:

NatureGeo Antartic Ice

Partiamo dai fatti. Come anticipato, e’ cosa nota un aumento delle temperature a livello mondiale. Ora, al polo Nord e al polo Sud del nostro pianeta, cioe’ nell’Artico e in Antartide, sono presenti enormi calotte di ghiaccio. La quantita’ di ghiaccio presente non e’ costante nel tempo, ma presenta delle variazioni stagionali e sul lungo periodo da sempre studiate e tenute sotto controllo. In presenza di un aumento delle temperature, istintivamente quello che si potrebbe pensare e’ che i ghiacci di entrambi i poli si stiano ritirando.

In realta’ questo non e’ vero in entrambi i poli.

Cerchiamo di capire meglio.

Dalle osservazioni su lungo periodo, si evidenzia come i ghiacci del polo nord stiamo diminuendo sempre piu’ velocemente, mentre in realta’, soprattutto durante gli inverni, quelli del polo sud siano in aumento.

Come e’ possibile tutto questo?

Anche se puo’ sembrare assurdo, la spiegazione e’ proprio da ricercarsi nell’aumento delle temperature globali. Fa caldo, quindi aumenta il ghiaccio!

Andiamo con ordine.

L’aumento delle temperature provoca ovviamente lo scioglimento superficiale dei ghiacci. Questo processo riversa nei mari dell’Antartide grosse quantita’ di acqua dolce molto fredda. Dunque? Queste acque formano uno strato superficiale negli oceani che di fatto isola i ghiacchi del pack degli strati piu’ profondi dei mari che si trovano a temperatura piu’ alta. In questo modo, avremo una sorta di mantello protettivo del pack che quindi aumentera’ trovandosi isolato dagli effetti del riscaldamento globale.

Questo processo, come anticipato, e’ stato studiato e ipotizzato basandosi sui dati raccolti su circa 20 anni di osservazione dei ghiacci in Antartide.

Come spesso avviene in questi casi, quella mostrata non e’ l’unica spiegazione data al fatto certo che e’ l’aumento dei ghiacci in Antartide. Secondo un altro studio, condotto da un team di scienziati inglesi, l’apparente paradosso dell’Antartide puo’ essere spiegato prendendo in esame i dati delle correnti di aria. Secondo quest’altro studio, la circolazione diversa dei venti in Antartide innescherebbe un flusso di aria piu’ fredda responsabile dunque dell’aumento di ghiaccio.

Come vedete, e come anticipato, ci sono due ipotesi molto affascinanti, ognuna basata su dati scientifici reali, per spiegare questo apparente paradosso. Sia l’andamento dei venti che lo scioglimento superificiale dei ghiacci sono documentati e osservati su lungo periodo. Ora, non resta che attendere per capire quale di queste due possibili cause sia responsabile dell’aumento del ghiaccio dell’Antartide. Magari, anche in questo caso, entrambe le soluzioni proposte si dimostreranno valide, e gli effetti osservati potrebbero essere dovuti ad una concausa di queste due ipotesi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Yellowstone, aggiornamento

10 Dic

Qualche giorno fa, avevamo pubblicato un articolo riguardante uno strano fenomeno registrato nel parco naturale di Yellowstone negli Stati Uniti. Come sappiamo bene, e come abbiamo visto, sotto questo parco c’e’ uno dei vulcani piu’ grandi e piu’ pericolosi della Terra.

Proprio in virtu’ di questa caratteristica, la zona e’ continuamente monitorata da una fitta rete di sismografi pronti a registrare qualsiasi variazione del terreno.

Come indicato da un nostro lettore, uno di questi sismografi in data 28/11 aveva mostrato segnali a dir poco preoccupanti, registrando continuamente eventi fuori scala.

Di questo abbiamo parlato in dettaglio in questo post:

Yellowstone, cosa succede?

Andando a vedere i sismografi intorno alla zona di Norris Junction, cioe’ la stazione che mostrava segnali anomali, avevamo verificato che tutto era nella norma.

A nostro avviso, i valori anomali registrati erano semplicemente dovuti ad una rottura del sismografo, che infatti non mostrava alcuna modulazione temporale, ma solo valori costantemente fuori scala.

Stiamo tornando sull’argomento, solo per dare un aggiornamento su questo episodio e per avere la conferma di quanto affermato nei giorni scorsi.

Dopo diversi giorni di valori “sballati”, finalmente il sismografo della zona e’ stato rimesso in funzione, o forse sostituito.

Possiamo anche affermare con certezza che qualsiasi intervento sia stato fatto sulla strumentazione, questo e’ avvenuto in data 5 Dicembre 2012.

Ecco a voi il grafico del sismografo di Norris Junction del 5/12:

Norris Junction, 5/12/12

Norris Junction, 5/12/12

Come vedete, intorno alle 15.30 tutto e’ tornato alla normalita’. Ovviamente non ci sono stati eventi significativi nei giorni precedenti in nessun altro sismografo della zona.

Potete verificare questo andamento, guardando al link fornito anche nel precedente articolo:

Universita’ Utah simosgrafi

Dunque? Assolutamente nulla da riportare. La nostra ipotesi e’ risultata corretta. Nel momento in cui la strumentazione e’ stata risistemata, tutto e’ tornato nella norma.

Vi ricordo inoltre, che mentre era in corso il malfunzionamento, o presunto tale, nessun altro sismografo della zona segnava valori fuori dalla norma o indicanti una forte attivita’ in corso. In particolare, avevamo preso come riferimento la stazione di Upper Falls, distante solo 5 Km da quella incriminata di Norris Junction.

Concludendo, prima di lasciarvi convincere da qualsiasi teoria, indipendentemente dal 2012, cercate sempre di ragionare in modo autonomo con la vostra testa. Purtroppo la rete e’ una risorsa senza limiti, ma che nasconde anche molte informazioni false o fuorvianti.

Per un’analisi scientifica completa di tutte le profezie sul 21 Dicembre, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.

 

Ora anche gli Tsunami in Italia?

14 Lug

Sulla scia di questo post:

Terrorismo psicologico

in questi giorni e’ quasi divertente leggere i giornali. Non fraintendete, non mi sto assolutamente riferendo ad eventi gravi che hanno causato vittime e danni, ma ai continui titoloni dei giornali volti solo ad aumentare la paura delle persone.

In questo blog abbiamo parlato a lungo di terremoti, spaziando tra cause astronomiche, falsi proclami o eventi fuori dal comune in zone non sismiche che hanno raggiunto addirittura una magnitudo 3, per fortuna senza causare danni (e’ un miracolo che un evento di magitudo 3 non abbia causato danni …). Ovviamente sto facendo della facile ironia sulle notizie di questi ultimi giorni. Per riprendere i post su questi argomenti basta leggere:

Riassunto sui terremoti

Ancora terremoti in Emilia?

Emilia 13-16 luglio: un po’ di statistica

Abbiamo fatto questa introduzione perche’ dopo la serie di terremoti pubblicizzati, ora arrivano anche le notizie sugli Tsunami.

Anche questa e’ una notizia con una forte eco. Non siamo abituati a parlare di tsunami in Italia, anche solo pensare ad un evento del genere, avendo ancora negli occhi le scene ad esempio dell’onda giapponese, crea non poca paura in molte persone.

La mattina del 13 Luglio 2012, si e’ verificato un piccolo tsunami sulle coste del basso Tirreno, durato dalle 10 alle 12. Il fenomeno era molto esteso ed e’ stato osservato con intensita’ e frequenza diversa tra La Spezia e Palermo. A Gaeta, ad esempio, il fenomeno e’ durato 3 ore. Il mare si ritirava di 20-30 metri e tornava con onde alte circa 1 metro e con una frequenza di circa 3 minuti.

La notizia e’ ovviamente vera. Data la frequenza delle onde, ma l’altezza non troppo grande, ci si riferisce a questi eventi come “Tsunami like”, per ditinguerli dagli Tsunami con onde maggiori, o dalle tempeste marine con frequenza molto piu’ alta (in caso di tempesta le onde arrivano una di seguito all’altra).

Su molti siti il fenomeno e’ catalogato come estremamente raro e inspiegabile. Questo ovviamente aumenta ancora di piu’ il timore. In Italia non siamo abituati a parlare di Tsunami e inoltre non sappiamo neanche perche’ questo e’ avvenuto. Alcuni hanno messo in relazione l’ultimo terremoto di Ischia con lo Tsunami:

–  “Terremoto” anche ad Ischia

ma la bassa intensita’ del sisma non spiega le onde. Altri hanno pensato ad una perturbazione ad alta quota, ma l’aeronautica militare ha smentito la presenza di vere e proprio tempeste. Qual’e’ dunque la causa dello Tsunami?

Cerchiamo al solito di fare un po’ di chiarezza anche su questo argomento.

Prima di tutto dobbiamo dire che le nostre coste sono state negli anni teatro di diversi eventi di questo tipo. Parliamo sempre di eventi di bassa intensita’, ma comunque che sono accaduti in diverse zone del Mediterraneo. Per farvi degli esempi (basta cercare su web per avere conferma) si sono registrati Tsunami in Calabria nei primi anni del 1900 (1905-1908), nelle Eolie nel 1916 e nel 1919, e cosi’ via a Palermo, Ancona, Alassio e anche sulle coste Croate sempre affacciate sull’Adriatico.

Le cause di questi Tsunami storici in realta’ non sono le stesse. Passiamo da terremoti con epicentro in mare a frane in determinate zone che possono provocare movimenti ondulatori. Come abbiamo gia’ detto pero’, l’evento di qualche giorno fa non e’ spiegabile in questi termini.

Per capire l’origine dell’ultimo Tsunami tirrenico, possiamo riferirci ad un altro evento del genere registrato nel 1978. In quest’anno si registro’ uno Tsunami tra Giulianova e Bari anche se gli effetti maggiori si ebbero sulle coste dell’allora Jugoslavia. Alle 5.15 del 21 giugno 1978, la popolazione viene svegliata da onde di Tsunami alte fino a 2.5 metri che arrivano sulla costa. A seguito di questo, il mare si ritira nuovamente e, alle ore 8 circa, arriva una seconda ondata con onde alte fino a 6 metri. Le onde non provocano vittime ma i danni al porto e alle abitazioni sono ingenti.

Questo evento, anche piu’ violento di quello di ieri, e’ rimasto inspiegabile per anni portando anche accese discussioni nella comunita’ scientifica.

La spiegazione definitiva dello tsunami del ’78 e’ arrivata dopo 30 anni, nel 2008, classificando questo evento come “meteotsunami”.

I meteotsunami sono fenomeni rari generati in particolari condizioni meteorologiche e del bacino in cui si sviluppano. Grazie all’introduzione di questa categoria e’ stato possibile spiegare le cause di diversi eventi registrati nel mondo anche in Australia, Nuove Zelanda e Giappone.

Per la formazione di un meteotsunami e’ necessario un bacino di dimensioni ridotte e allungato (come un porto o una baia) e rapide variazioni della pressione atmosferica dovute, ad esempio, ad una tempesta o ad una rapida variazione del vento. Se la direzione del vento e’ simile alla direzione di massimo sviluppo del bacino si possono avere fenomeni di risonanza con trasmissione di energia dal vento al mare e da quest’ultimo alla costa. Ovviamente, piu’ la direzione del vento e’ vicina, al limite coincidente, con lo sviluppo dello specchio d’acqua, maggiore e’ il trasferimento di energia.

Da quanto detto, i diversi mari che compongono il Mediterraneo hanno le caratteristiche morfologiche adatte. Si pensi ad esempio alla forma allungata dell’Adriatico teatro dell’evento del 1978. Il meteotsunami e’ dovuto dunque a cause atmosferiche e morfologiche e questo lo distingue dagli Tsunami nel senso stretto del termine, anche se l’effetto e’ comparabile ma di dimensioni minori.

Alla luce di questa classificazione possiamo spiegare anche lo Tsunami del 13 Luglio. Ieri infatti, si sono registrati abbassamenti di temperatura sull’Italia, dopo giorni di caldo afoso, con i primi temporali sul basso Tirreno. A causa dell’alta temperatura delle acque, le variazioni meteo hanno portato forti correnti ascensionali con incremento del gradiente termico verticale. Queste condizioni, che potete verificare guardando un qualsiasi bollettino meteo di ieri, hanno causato l’instabilita’ necessaria per la formazione del meteotsunami. Le condizioni morfologiche sono invece naturalmente offerte dai nostri mari.

Al solito, si tirano fuori titoli sensazionali con un velo di mistero solo ed esclusivamente per far credere che qualcosa di strano sta accadendo. Non lasciatevi trasportare o convincere subito. Ragionate e cercate di informarvi autonomamente, e’ l’unico modo per non cadere nelle continue trappole che vengono messe da fonti poco affidabili. Se volete continuare ad analizzare eventi legati al 2012, ma non solo legati alla profezia Maya bensi’ fenomeni sempre attuali, non perdete in libreria Psicosi 2012. Le risposte della scienza.