Tag Archives: modelli

Tutti i movimenti della Terra

27 Giu

Proprio ieri, una nostra cara lettrice ci ha fatto una domanda molto interessante nella sezione:

Hai domande o dubbi?

Come potete leggere, si chiede se esiste una correlazione tra i moti della Terra e l’insorgere di ere di glaciazione sul nostro pianeta. Rispondendo a questa domanda, mi sono reso conto come, molto spesso, e non è certamente il caso della nostra lettrice, le persone conoscano solo i moti principali di rotazione e rivoluzione. A questo punto, credo sia interessante capire meglio tutti i movimenti che il nostro pianeta compie nel tempo anche per avere un quadro più completo del moto dei pianeti nel Sistema Solare. Questa risposta, ovviamente, ci permetterà di rispondere, anche in questa sede, alla domanda iniziale che è stata posta.

Dunque, andiamo con ordine, come è noto la Terra si muove intorno al Sole su un’orbita ellittica in cui il Sole occupa uno dei due fuochi. Questo non sono io a dirlo, bensì questa frase rappresenta quella che è nota come I legge di Keplero. Non starò qui ad annoiarvi con tutte le leggi, ma ci basta sapere che Keplero fu il primo a descrivere cinematicamente il moto dei pianeti intorno ad un corpo più massivo. Cosa significa “cinematicamente”? Semplice, si tratta di una descrizione completa del moto senza prendere in considerazione il perché il moto avviene. Come sapete, l’orbita è ellittica perché è la legge di Gravitazione Universale a spiegare la tipologia e l’intensità delle forze che avvengono. Bene, detto molto semplicemente, Keplero ci spiega l’orbita e come il moto si evolverà nel tempo, Newton attraverso la sua legge di gravitazione ci dice il perché il fenomeno avviene in questo modo (spiegazione dinamica).

Detto questo, se nel nostro Sistema Solare ci fossero soltanto il Sole e la Terra, quest’ultima si limiterebbe a percorrere la sua orbita ellittica intorno al Sole, moto di rivoluzione, mentre gira contemporaneamente intorno al suo asse, moto di rotazione. Come sappiamo bene, il primo moto è responsabile dell’alternanza delle stagioni, mentre la rotazione è responsabile del ciclo giorno-notte.

Purtroppo, ed è un eufemismo, la Terra non è l’unico pianeta a ruotare intorno al Sole ma ce ne sono altri, vicini, lontani e più o meno massivi, oltre ovviamente alla Luna, che per quanto piccola è molto vicina alla Terra, che “disturbano” questo moto molto ordinato.

Perche questo? Semplice, come anticipato, e come noto, due masse poste ad una certa distanza, esercitano mutamente una forza di attrazione, detta appunto gravitazionale, direttamente proporzionale al prodotto delle masse dei corpi e inversamente proporzionale al quadrato della loro distanza. In altri termini, più i corpi sono massivi, maggiore è la loro attrazione. Più i corpi sono distanti, minore sarà la forza che tende ad avvicinarli. Ora, questo è vero ovviamente per il sistema Terra-Sole ma è altresì vero per ogni coppia di corpi nel nostro Sistema Solare. Se Terra e Sole si attraggono, lo stesso fanno la Terra con la Luna, Marte con Giove, Giove con il Sole, e via dicendo. Come è facile capire, la componente principale delle forze è quella offerta dal Sole sul pianeta, ma tutte queste altre “spintarelle” danno dei contributi minori che influenzano “in qualche modo” il moto di qualsiasi corpo. Bene, questo “in qualche modo” è proprio l’argomento che stiamo affrontando ora, cioè i moti minori, ad esempio, della Terra nel tempo.

Dunque, abbiamo già parlato dei notissimi moti di rotazione e di rivoluzione. Uno dei moti che invece è divenuto famoso grazie, o forse purtroppo, al 2012 è quello di precessione degli equinozi, di cui abbiamo già parlato in questo articolo:

Nexus 2012: bomba a orologeria

Come sapete, l’asse della Terra, cioè la linea immaginaria che congiunge i poli geografici ed intorno al quale avviene il moto di rotazione, è inclinato rispetto al piano dell’orbita. Nel tempo, questo asse non rimane fisso, ma descrive un doppio cono come mostrato in questa figura:

Moto di precessione degli equinozi e di nutazione

Moto di precessione degli equinozi e di nutazione

Il moto dell’asse è appunto detto di “precessione degli equinozi”. Si tratta di un moto a più lungo periodo dal momento che per compiere un intero giro occorrono circa 25800 anni. A cosa è dovuto il moto di precessione? In realtà, si tratta del risultato di un duplice effetto: l’attrazione gravitazionale da parte della Luna e il fatto che il nostro pianeta non è perfettamente sferico. Perché si chiama moto di precessione degli equinozi? Se prendiamo la linea degli equinozi, cioè quella linea immaginaria che congiunge i punti dell’orbita in cui avvengono i due equinozi, a causa di questo moto questa linea si sposterà in senso orario appunto facendo “precedere” anno dopo anno gli equinozi. Sempre a causa di questo moto, cambia la costellazione visibile il giorno degli equinozi e questo effetto ha portato alla speculazione delle “ere new age” e al famoso “inizio dell’era dell’acquario” di cui, sempre in ambito 2012, abbiamo già sentito parlare.

Sempre prendendo come riferimento la figura precedente, notiamo che c’è un altro moto visibile. Percorrendo il cono infatti, l’asse della Terra oscilla su e giù come in un moto sinusoidale. Questo è noto come moto di “nutazione”. Perché avviene questo moto? Oltre all’interazione della Luna, molto vicina alla Terra, anche il Sole gioca un ruolo importante in questo moto che proprio grazie alla variazione di posizione relativa del sistema Terra-Luna-Sole determina un moto di precessione non regolare nel tempo. In questo caso, il periodo della nutazione, cioè il tempo impiegato per per compiere un periodo di sinusoide, è di circa 18,6 anni.

Andando avanti, come accennato in precedenza, la presenza degli altri pianeti nel Sistema Solare apporta dei disturbi alla Terra, così come per gli altri pianeti, durante la sua orbita. Un altro moto da prendere in considerazione è la cosiddetta “precessione anomalistica”. Di cosa si tratta? Abbiamo detto che la Terra compie un’orbita ellittica intorno al Sole che occupa uno dei fuochi. In astronomia, si chiama “apside” il punto di massima o minima distanza del corpo che ruota da quello intorno al quale sta ruotando, nel nostro caso il Sole. Se ora immaginiamo di metterci nello spazio e di osservare nel tempo il moto della Terra, vedremo che la linea che congiunge gli apsidi non rimane ferma nel tempo ma a sua volta ruota. La figura seguente ci può aiutare meglio a visualizzare questo effetto:

Moto di precessione anomalistica

Moto di precessione anomalistica

Nel caso specifico di pianeti che ruotano intorno al Sole, questo moto è anche chiamato di “precessione del perielio”. Poiché il perielio rappresenta il punto di massimo avvicinamento di un corpo dal Sole, il perché di questo nome è evidente. A cosa è dovuta la precessioni anomalistica? Come anticipato, questo moto è proprio causato dalle interazioni gravitazionali, sempre presenti anche se con minore intensità rispetto a quelle del Sole, dovute agli altri pianeti. Nel caso della Terra, ed in particolare del nostro Sistema Solare, la componente principale che da luogo alla precessione degli apsidi è l’attrazione gravitazionale provocata da Giove.

Detto questo, per affrontare il prossimo moto millenario, torniamo a parlare di asse terrestre. Come visto studiando la precessione e la nutazione, l’asse terrestre descrive un cono nel tempo (precessione) oscillando (nutazione). A questo livello però, rispetto al piano dell’orbita, l’inclinazione dell’asse rimane costante nel tempo. Secondo voi, con tutte queste interazioni e questi effetti, l’inclinazione dell’asse potrebbe rimanere costante? Assolutamente no. Sempre a causa dell’interazione gravitazionale, Sole e Luna principalmente nel nostro caso, l’asse della Terra presenta una sorta di oscillazione variando da un massimo di 24.5 gradi ad un minimo di 22.1 gradi. Anche questo movimento avviene molto lentamente e ha un periodo di circa 41000 anni. Cosa comporta questo moto? Se ci pensiamo, proprio a causa dell’inclinazione dell’asse, durante il suo moto, uno degli emisferi della Terra sarà più vicino al Sole in un punto e più lontano nel punto opposto dell’orbita. Questo contribuisce notevolmente alle stagioni. L’emisfero più vicino avrà più ore di luce e meno di buio oltre ad avere un’inclinazione diversa per i raggi solari che lo colpiscono. Come è evidente, insieme alla distanza relativa della Terra dal Sole, la variazione dell’asse contribuisce in modo determinante all’alternanza estate-inverno. La variazione dell’angolo di inclinazione dell’asse può dunque, con periodi lunghi, influire sull’intensità delle stagioni.

Finito qui? Non ancora. Come detto e ridetto, la Terra si muove su un orbita ellittica intorno al Sole. Uno dei parametri matematici che si usa per descrivere un’ellisse è l’eccentricità, cioè una stima, detto molto semplicemente, dello schiacciamento dell’ellisse rispetto alla circonferenza. Che significa? Senza richiamare formule, e per non appesantire il discorso, immaginate di avere una circonferenza. Se adesso “stirate” la circonferenza prendendo due punti simmetrici ottenete un’ellisse. Bene, l’eccentricità rappresenta proprio una stima di quanto avete tirato la circonferenza. Ovviamente, eccentricità zero significa avere una circonferenza. Più è alta l’eccentricità, maggiore sarà l’allungamento dell’ellisse.

Tornando alla Terra, poiché l’orbita è un’ellisse, possiamo descrivere la sua forma utilizzando l’eccentricità. Questo valore però non è costante nel tempo, ma oscilla tra un massimo e un minimo che, per essere precisi, valgono 0,0018 e 0,06. Semplificando molto il discorso, nel tempo l’orbita della Terra oscilla tra qualcosa più o meno simile ad una circonferenza. Anche in questo caso, si tratta di moti millenari a lungo periodo ed infatti il moto di variazione dell’eccentricità (massimo-minimo-massimo) avviene in circa 92000 anni. Cosa comporta questo? Beh, se teniamo conto che il Sole occupa uno dei fuochi e questi coincidono nella circonferenza con il centro, ci rendiamo subito conto che a causa di questa variazione, la distanza Terra-Sole, e dunque l’irraggiamento, varia nel tempo seguendo questo movimento.

A questo punto, abbiamo analizzato tutti i movimenti principali che la Terra compie nel tempo. Per affrontare questo discorso, siamo partiti dalla domanda iniziale che riguardava l’ipotetica connessione tra periodi di glaciazione sulla Terra e i moti a lungo periodo. Come sappiamo, nel corso delle ere geologiche si sono susseguiti diversi periodi di glaciazione sul nostro pianeta, che hanno portato allo scioglimento dei ghiacci perenni e all’innalzamento del livello dei mari. Studiando i reperti e la quantità di CO2 negli strati di ghiaccio, si può notare una certa regolarità dei periodi di glaciazione, indicati anche nella pagina specifica di wikipedia:

Wiki, cronologia delle glaciazioni

Come è facile pensare, molto probabilmente ci sarà una correlazione tra i diversi movimenti della Terra e l’arrivo di periodi di glaciazione più o meno intensi, effetto noto come “Cicli di Milanković”. Perché dico “probabilmente”? Come visto nell’articolo, i movimenti in questione sono diversi e con periodi più o meno lunghi. In questo contesto, è difficile identificare con precisione il singolo contributo ma quello che si osserva è una sovrapposizione degli effetti che producono eventi più o meno intensi.

Se confrontiamo i moti appena studiati con l’alternanza delle glaciazioni, otteniamo un grafico di questo tipo:

Relazione tra i periodi dei movimenti della Terra e le glaciazioni conosciute

Relazione tra i periodi dei movimenti della Terra e le glaciazioni conosciute

Come si vede, è possibile identificare una certa regolarità negli eventi ma, quando sovrapponiamo effetti con periodi molto lunghi e diversi, otteniamo sistematicamente qualcosa con periodo ancora più lungo. Effetto dovuto proprio alle diverse configurazioni temporali che si possono ottenere. Ora, cercare di trovare un modello matematico che prenda nell’insieme tutti i moti e li correli con le variazioni climatiche non è cosa banale e, anche se sembra strano da pensare, gli eventi che abbiamo non rappresentano un campione significativo sul quale ragionare statisticamente. Detto questo, e per rispondere alla domanda iniziale, c’è una relazione tra i movimenti della Terra e le variazioni climatiche ma un modello preciso che tenga conto di ogni causa e la pesi in modo adeguato in relazione alle altre, non è ancora stato definito. Questo ovviamente non esclude in futuro di poter avere una teoria formalizzata basata anche su future osservazioni e sull’incremento della precisione di quello che già conosciamo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Cosa posso vedere con il mio telescopio?

10 Feb

Diverse volte sono stato contattato da persone che vorrebbero affacciarsi al mondo dell’astronomia. Molti hanno una passione del genere e un desiderio innato di poter osservare il cielo ingrandendo via via dettagli sempre piu’ piccoli. Inutile dire quanti di noi restano a bocca aperta guardando una foto spaziale scattata in giro per il cosmo e desiderano a loro volta osservare con i loro occhi la bellezza della natura.

Ora pero’, queste passioni spesso si scontrano un po’ con il problema economico ma, soprattutto, con la grande confusione che la scelta di un telescopio “domestico” puo’ portare. Siete mai entrati in un negozio dove si vendono telescopi? Avete visto quante tipologie di strumenti ci sono? Molto spesso, le persone restano spaventate da una tale scelta e non sanno cosa prendere.

Per superare questo blocco, dovete prima di tutto capire “cosa volete guardare”!

Ovviamente, si potrebbe fare il pensiero facile e dire quello che costa di piu’ e’ il piu’ “potente” o quello piu’ grande e’ sicuramente migliore. Purtroppo, non sempre e’ cosi’.

Visto che molte persone mi hanno contattato per chiedermi cosa distingue un telescopio da un altro, ho deciso di scrivere un breve articolo per spiegare non le diverse tipologie di telescopio, bensi’ la cosiddetta “risoluzione angolare” di questi strumenti.

Immaginiamo di avere un telescopio con lenti circolari. Quello che vogliamo capire e’ “qual e’ la minima distanza che posso osservare?”. Per rispondere dobbiamo introdurre la cosiddetta “risoluzione angolare”, cioe’ la minima distanza angolare tra due oggetti che possono essere distinti con il vostro telescopio:

R=1,22 L/D

Quando siete di fronte a sistemi ottici, quella che comanda e’ la diffrazione che, senza entrare in troppi tecnicismi, fa si che sotto un certo valore, due oggetti vengano confusi come uno solo perche’ assolutamnete indistinguibili tra loro. Nella formula della risoluzione angolare, compare ovviamente il diametro della lente, D, e la lunghezza d’onda, L, che dobbiamo osservare.

Detto tra noi, questa formula e’ poco manegevole per cui possiamo prima di tutto dimenticarci della dipendenza dalla lunghezza d’onda e prendere un valore medio per lo spettro visibile che, in fondo, e’ quello che vogliamo osservare. Inoltre, la risoluzione angolare che abbiamo introdotto e’ misurata in radianti, unita’ abbastanza scomoda in questo contesto. Per semplicita’, possiamo utilizzare una misura in arcosecondi dove 3600 arcsec equivalgono ad un grado. Facendo queste considerazioni, possiamo riscrivere la formula come:

R = 11.6 / D

Supponiamo dunque di acquistare un bel telescopio con lente da 30 cm, la nostra risoluzione angolare sara’:

R = 11.6/30 = 0,39 arcsec

Se ora con questo oggetto volessi guardare la luna, quale sarebbe la minima distanza che riuscirei a distinguere?

Per rispondere a questa domanda, e’ necessario introdurre un’ulteriore formula. Come potete immaginare, in questo caso dobbiamo convertire, in base alla distanza, l’apertura angolare con una distanza in metri. Tralasciando dipendenze di questa formula da parametri di poco interesse per il nostro caso, possiamo scrivere la distanza distinguibile come:

Dm = (R/206265) x Dl

Dove Dm e’ ovviamente la distanza minima osservabile e Dl e’, nel nostro caso, la distanza Terra-Luna. Supponendo una distanza media di 400000 Km, da portare in metri per inserirla nella formula, abbiamo, riprendendo la risoluzione del telescopio da 30 cm dell’esempio:

Dm = (0.39/206265) x 400000000 = 750 metri

Cioe’ la minima distanza che possiamo percepire e’ di 750 metri. Detto in altre parole, riuscite a distinguere dettagli separati tra loro da una distanza di almeno 750 metri. Anche se questo numero puo’ sembrare enorme vi permette di poter osservare dettagli impressonanti della Luna. Vi ricordo che un telescopio da 30 cm, e’ un bellissimo strumento che necessita di attenzioni particolari. Non abbiamo preso uno strumento completamente amatoriale o entry level per questo calcolo esemplificativo.

Altro aspetto interessante che spesso viene citato dai complottisti: se siamo veramente stati sulla Luna, perche’, ad esempio, il telescopio Hubble non e’ in grado di osservare il punto di atterraggio con tutta le cose lasciate dall’equipaggio? La domanda e’ di principio ben posta, pensate che addirittura il modulo di discesa e’ rimasto sul punto perche’ impossibile da riportare indietro.

Cerchiamo di analizzare, sulla base dei calcoli gia’ fatti, se fosse possibile osservare questo modulo sfruttando la lente di Hubble. In questo caso, abbiamo una lente di 2.4 metri che vuole osservare la superficie lunare. Quale sarebbe la minima distanza che potrebbe essere osservata?

Ripetendo il calcolo trovate una minima distanza di circa 100 metri. Considerando che il modulo di discesa ha un diametro intorno ai 10 metri, capite bene come sia impossibile distinguere dall’orbita di Hubble questo reperto storico sulla superifcie della Luna. Spero che questo ragionamento, a prescindere dalle altre dimostrazioni di cui abbiamo gia’ parlato, sia sufficiente a capire, per chi ancora oggi crede che non siamo stati sulla Luna, come sia impossibile osservare dalla Terra il punto di atterraggio.

Concludendo, per comprendere il potere risolutivo di uno strumento ottico, e questo ragionamento vale sia per un telescopio che per un microscopio, e’ sufficiente conoscere un po’ di ottica e calcolare agevolmente la minima distanza osservabile Come visto, la grandezza della lente e’ uno dei parametri piu’ importanti da considerare. Tenete a mente questi risultati qualora decideste di acquistare un telescopio per dilettarvi in osservazioni spaziali. Ovviamente, come detto, prima di decidere la tipologia di telescopio, pensate sempre prima a cosa volete andare ad osservare e, dunque, a che distanza vi state approcciando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Esopianeti che non dovrebbero esserci

17 Giu

Nell’ambito della ricerca della vita fuori dal sistema solare, diverse volte abbiamo parlato di esopianeti:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Come visto, questi corpi, orbitanti intorno ad una stella centrale, cosi’ come avviene nel nostro Sistema Solare, sono molto studiati perche’ consentono di aprire una finestra nell’universo a noi vicino. Lo studio di questi corpi e la loro posizione, consente dunque di determinare quali e quanti pianeti potrebbero esserci in grado di ospitare la vita. Come sottolineato diverse volte, dire che un pianeta e’ in grado di ospitare la vita, non significa assolutamente affermare che questa si sia veramente formata. In questi casi, parliamo di “fascia di abitabilita’”, appunto per indicare la presenza di pianeti ad una distanza tale dalla loro stella, adatta a creare le condzioni minime per lo sviluppo della vita. Molto lavoro e’ in corso su questi esopianeti, prima di tutto per studiare la tipologia dei corpi, ma soprattutto perche’ questi sistemi planetari offrono un laboratorio eccezionale per capire l’origine del nostro stesso sistema Solare.

Immagine pittorica del sistema Hydrae

Immagine pittorica del sistema Hydrae

In tal senso, il sistema TW Hydrae, e’ uno dei principali, trovandosi ad appena 180 anni luce da noi ma soprattutto perche’ e’ un sistema molto giovane. Il sistema planetario e’ costituito da una nana rossa centrale, con una massa solo di poco inferiore a quella del nostro sole (circa il 70%). Come detto, si tratta di un sistema molto giovane che si e’ formato “appena” 8 milioni di anni fa e proprio per questo motivo, i processi di formazione e aggregazione di materia sono ancora in corso.

Solo pochi giorni fa, e’ stato pubblicato un importante articolo che riguarda l’osservazione di un piccolo pianeta nel sistema TW Hydrae con una massa compresa tra le 6 e le 28 masse terrestri. Cosa ha di tanto speciale questo pianeta? La particolarita’ e’ che questo pianeta orbita ad una distanza di circa 12 milioni di kilometri dalla stella centrale, cioe’ in una zona dove, secondo gli attuali modelli, questo pianeta non dovrebbe esistere.

Da dove nasce questa affermazione?

Prima di tutto, come discusso in altri articoli, i pianeti vengono formati per aggregazione di materia dal disco orbitante intorno alla stella centrale. Per circa 3 milioni di kilometri prima del piccolo pianeta, non c’e’ materiale utile per l’accrescimento del corpo. Inoltre, dai modelli conosciuti, un corpo del genere avrebbe impiegato un tempo lunghissimo, molto piu’ lungo dell’intera vita del sistema planetario, per formarsi.

Per fare un esempio, Giove si e’ formato in un tempo di circa 10 milioni di anni. Il piccolo pianeta avrebbe richiesto un periodo circa 200 volte piu’ lungo per aggregare il materiale, contro una stima dell’eta’ del sistema planetario di soli 8 milioni di anni.

Capite dunque l’importanza di questa osservazione. Ovviamente, il tutto dovra’ poi essere verificato con ulteriori misurazioni. Ad oggi, l’osservazione in questione e’ stata possibile grazie all’uso della camera sensibile al vicino infrarosso e allo spettrometro presenti sul telescopio Hubble.

Per farvi capire l’importanza delle successive misurazioni, ad oggi, gli strumenti utilizzati non consentono, ad esempio, di visualizzare il disco di materiale intorno alla stella centrale. Il motivo di questo e’ di facile comprensione, le emissioni da parte dell’idrogeno vengono automatiamente riassorbite all’interno del disco non apparendo visibili all’esterno.

Esistono ovviamente teorie alternative gia’ formulate e che potrebbero in qualche modo spiegare la presenza del pianeta in quella posizione. Una delle piu’ discusse e’ quella che vorrebbe la possibilita’ che il disco di accrescimento diventi instabile in alcuni casi, portando dunque materiale in zone piu’ lontane dalla stella centrale e consentendo la formazione di pianeti molto periferici.

Concludendo, la presenza di questo piccolo esopianeta orbitante a distanza cosi’ elevata dalla stella centrale, non sarebbe spiegabile con i modelli attualmente accettati. Questa scoperta implica dunque una ridiscussione di alcuni meccanismi di formazione, appunto per capire come sia possibile formare oggetti massivi a distanza cosi’ elevata dal corpo centrale. Ovviamente, questo non significa assolutamente che i precedenti modelli siano da buttare. Cosi’ come avviene nelle scienze, l’osservazione di un fenomeno non aspettato, spinge ad una ridefinizione di alcuni modelli, dal momento che si potrebbero essere raggiunti i limiti di validita’ di quelli attualmente utilizzati. Sicuramente, per la sua piccola distanza e la giovane eta’, il sistema TW Hydrae ci offre un laboratorio senza eguali per comprendere e studiare i meccanismi di formazione dei pianeti del nostro universo, e, duqnue, anche del nostro sistema solare. Come vedete, il bello della scienza e’ anche questo; trovare qualcosa che non ci si aspettava e spingersi oltre per aumentare la conoscenza e la comprensione della natura.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aumento di uragani per il 2013

2 Giu

In questi giorni, diversi giornali e siti internet hanno pubblicato le previsioni per la stagione degli uragani 2013. Per chi non lo sapesse, il periodo piu’ propizio per la formazione di questi eventi atmosferici va dal 1 Giugno al 30 Novembre e, come e’ noto, interessa principalmente la parte centrale degli Stati Uniti oltre ovviamente ai paesi caraibici.

Purtroppo, come spesso avviene, ho letto tantissime inesattezze su questi articoli, a volte per confusione fatta nell’interpretazione delle previsioni, altre volte, purtroppo, per il solito catastrofismo che, soprattutto sulla rete, imperversa.

Cosa trovate scritto? Semplicemente che il numero di uragani aumentera’ del 70% rispetto alla norma e che in particolar modo ci sara’ un aumento sostanziale del numero di uragani maggiori che dunque potrebbero arrecare forti danni nelle zone interessate. Senza aggiungere altro, vi lascio immaginare la feroce speculazione che si e’ creata sulla rete parlando ovviamente di geoingegneria, modificazioni del clima, HAARP, Nibiru, e compagnia bella, che tanto ormai sono la cuase di tutto quello che avviene nel mondo.

Cerchiamo di andare con ordine e di capire meglio la cosa.

Prima di tutto, qui trovate il bollettino ufficiale rilasciato dal NOAA, l’ente americano che, tra le altre cose, si occupa anche di eseguire previsioni e simulazioni per il fenomeno degli uragani:

NOAA, Uragani 2013

Cosa troviamo? Prima di tutto leggiamo molto attentamente i numeri che vengono riportati, perche’ proprio su questi c’e’ la maggior confusione in assoluto. Partiamo dalle medie registrate. Normalmente, dove “normalmente” significa “in media”, ci sono 12 “named storms” all’anno, cioe’ tempeste con venti che superano i 63 Km/h e a cui viene attribuito un nome. Tra queste, e attenzione “tra queste” non significa “oltre a queste”, ci sono, sempre in media, 6 uragani, cioe’ tempeste i cui venti superano i 118 Km/h. Bene, ora non perdete il filo, tra questi 6 uragani ce ne sono, sempre in media, 3 che vengono classificati come “uragani maggiori”, cioe’ con venti oltre i 180 Km/h.

Cerchiamo di riassumere. Ogni anno in media ci sono 12 tempeste con venti che superano i 63 Km/h e a cui viene assegnato un nome. Tra tutte queste che superano questo limite, ce ne sono, sempre in media, 6 che superano i 118 Km/h e che quindi vengono chiamati uragani e di questi 6 ce ne sono 3 che superano i 180 Km/h e che quindi vengono chiamati “uragani maggiori”.

Bene, quanti sono in tutto gli eventi? Ovviamente la risposta e’ sempre 12, e questo numero comprende tempeste, uragani e uragani maggiori.

Cosa ci si aspetta per il 2013?

Come potete leggere nel bollettino del NOAA, dai calcoli statistici effettuati, si e’ evidenziata una probabilita’ del 70% che il numero di tempeste possa essere superiore alla media, in particolare, compreso tra 13 e 20. Cosa significa? Prima di tutto che vi e’ una probabilita’ di questo aumento, non una certezza come vorrebbero farvi credere. Inoltre, viene fornito un intervallo piuttosto largo di ipotesi. Le 12 tempeste sono il numero medio registrato negli anni, dare un intervallo tra 13 e 20, significa andare da un valore praticamente in media, 13, ad uno superiore ai trascorsi, 20.

Questo solo per smentire subito tutte quelle fonti che parlano di aumento certo.

Ora, in questo numero compreso tra 13 e 20, viene fornito anche un quadro della composizione. Come visto, questo e’ il numero totale di eventi con venti superiori ai 63 Km/h. Come riportato dal NOAA, le previsioni sulla composizione sono: un numero compreso tra 7 e 11 di tempeste che potrebbero arrivare ad uragani e un numero compreso tra 3 e 6 che potrebbero sfociare in uragani maggiori.

Analizziamo questi numeri. Nel caso piu’ favorevole, si avrebbero 13 tempeste, di cui 7 uragani e 3 uragani maggiori. Praticamente questi numeri sono nelle medie riportate all’inizio. Nel caso piu’ sfavorevole invece, si avrebbero 20 tempeste di cui 11 uragani e 6 uragani maggiori. In questo caso invece tutte le categorie subirebbero un forte aumento rispetto ai valori medi.

Come vedete, questi numeri occupano un intervallo molto largo in cui e’ difficile fare previsioni precise. Ovviamente, il NOAA diffonde questi dati come indicazione per la stagione che sta inziando. Data la larghezza degli intervalli considerati, non e’ possibile fare previsioni esatte ne’ tantomeno fare analisi dettagliate.

Perche’ allora vengono fornite queste previsioni?

In realta’, il compito di questi calcoli e’ molto importante e serve per analizzare in termini statistici il comportamento di alcuni rilevanti parametri ambientali e climatici. Come riportato nel bollettino del NOAA, queto risultato superiore alla media viene spinto da alcune evidenze molto importanti:

– il forte monsone sull’Africa occidentale responsabile dell’aumento degli uragani nell’Atlantico iniziato a partire dal 2005

– le temperature leggermente piu’ alte nell’Atlantico tropicale e nel Mar dei Caraibi

– il ritardo nello sviluppo de “El Niño” che potrebbe non incrementarsi quest’anno

Attenzione, anche su questo ultimo punto, potete leggere notizie inesatte su diverse fonti. Non e’ che El Niño e’ scomparso o non si forma, semplicemente, al solito a causa di molti fattori correlati tra loro, quest’anno questo fenomeno atmosferico, che mitiga notevolmente gli uragani, potrebbe non aumentare. Questo non significa che e’ scomparso. Nella figura riportata vedete proprio l’andamento di El Niño negli ultmi mesi ottenuto monitorando la temperatura del Pacifico.

Temperature del Pacifico delle ultime settimane. Fonte: ENSO

Temperature del Pacifico delle ultime settimane. Fonte: ENSO

Concludendo, cosa abbiamo ottenuto? I risultati delle simulazioni condotte dal NOAA mostrano una probabilita’ del 70% che ci sia quest’anno un aumento del numero di tempeste. Questo aumento comporta un numero di fenomeni compreso tra 13 e 20 rispetto ad una media degli anni di 12. Il largo intervallo utilizzato non e’ utilizzabile per fare previsioni specifiche, ma l’indicazione dei modelli e’ importante per valutare diversi aspetti climatici di interesse mondiale. Proprio per concludere, ricordiamo che si tratta di calcoli statistici, forniti sulla base di modelli. Il numero medio utilizzato per il confronto viene da un database comprendente decine di anni di osservazione. Condizione per cui, sul singolo anno, variazioni rispetto a questa media sono del tutto normali e statisticamente possibili.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Possiamo scegliere tra era glaciale o desertificazione

28 Mag

Diversi lettori mi hanno chiesto di fare un aggiornamento sull’attuale ciclo solare, di cui molto si sta discutendo in rete. Come sappiamo, stiamo attualmente attraversando il massimo del 24mo ciclo, un picco che pero’, almeno attualmente, si sta rivelando molto meno intenso di quanto ci si aspettava.

Fate attenzione, proprio la frase “meno intenso di quanto ci si aspettava” e’ il nucleo della discussione che dobbiamo fare e su cui ho letto davvero di tutto e di piu’, un po’ per ignoranza, molto spesso solo per il gusto di voler speculare su argomenti scientifici poco noti.

Di cili solari abbiamo parlato, ad esempio, in questi post:

Evidenze dal Sole?

Le macchie solari AR1504

Gli effetti di AR1504

Sole: quanta confusione!

Come visto, il nostro Sole ha un comportamento che non e’ costante nel tempo ma che oscilla tra massimi e minimi. La durata “media” di questi cicli solari e’ di 11 anni e, in concomitanza, si registra, come visto in questo post:

Inversione dei poli terrestri

un’inversione del campo magnetico solare che dunque ritorna alla condizione originale ogni 22 anni, cioe’ ogni 2 cicli. Detto in altri termini, partite da una condizione, dopo 11 anni invertite i poli, per tornare alla condizione iniziale servono altri 11 anni e quindi un’altra inversione dei poli.

Come sottolineato diverse volte, si tratta di meccanismi statisticametne noti ma che, in quanto tali, sono parametrizzabili da numeri medi. Il nostro Sole e’ una stella “viva”, passatemi questo termine, condizione per cui riusciamo a parametrizzarlo mediante modelli veri sempre “in media”.

Detto questo, quando parliamo di ciclo di 11 anni, non ci deve affatto sorprendere se gli anni sono 10 o 12.

Inoltre, massimi e minimi solari non sono tutti uguali tra loro, ma possono avere intensita’ variabili nel tempo. Detto questo, ci possono essere massimi piu’ o meno intensi, cosi’ come minimi piu’ o meno deboli.

Bene, alla luce di quanto detto, passiamo ad analizzare il ciclo attuale.

Prima affermazione che trovate in rete, il massimo era previsto per la fine del 2012, secondo alcuni proprio il 21 Dicembre 2012, e dunque c’e’ un “forte” ritardo da parte del Sole. Queste affermazioni sono del tutto false. Come visto in questo articolo:

Nuova minaccia il 22 Settembre?

non e’ assolutamente vero che il massimo era atteso per la fine del 2012, ne’ tantomeno per il 21 Dicembre. Questa affermazione nasce da una simulazione condotta diversi anni fa dalla NASA mirata a valutare gli effetti di un eventuale massimo di alta intensita’ sulla nostra attuale societa’, fortemente legata alla trasmissione dei segnali a lunga distanza.

Quando e’ atteso il massimo?

Dalle simulazioni fatte, il massimo sarebbe atteso per la fine del 2013. Di questo abbiamo parlato in questo post:

Come seguire il ciclo solare

In particolare, in questo articolo abbiamo fornito anche tutti i link per poter seguire il ciclo solare e valutare giorno per giorno i diversi parametri che consentono di valutare la reale attivita’ del Sole insieme anche a modelli previsionali.

Se invece della fine del 2013, fosse maggio 2013 o maggio 2014, la cosa ci sorprenderebbe? Alla luce di quanto detto circa la modellizzazione dei fenomeni, assolutamente no.

Perche’ si parla ora di massimo solare?

A partire dai primi di maggio, dopo un periodo relativamente calmo, il nostro sole ha iniziato a riprendere vigore con diverse emissioni di classe X. Per chi non lo avesse letto, delle diverse classi di emissioni abbiamo parlato sempre nel post:

Le macchie solari AR1504

E’ giusto dire che e’ iniziato il massimo vero e proprio? In linea di principio no. Se volete e’ come il detto “una rondine non fa primavera”. Con questo intendo dire che per capire l’andamento del ciclo solare, si dovranno attendere, se ci saranno, nuove emissioni per poter affermare che il Sole sta attraversado il punto piu’ alto del suo massimo.

Ora, come fatto nell’articolo precedentemente citato, vi riporto anche il grafico aggiornato dello stato del nostro Sole:

Il numero di macchie solari osservate sul sole nel corso degli anni

Il numero di macchie solari osservate sul sole nel corso degli anni

Come spiegato in passato, in questo grafico viene riportato il numero di macchie solari contate sulla superficie del sole e che rappresentano un parametro direttamente legato all’attivita’ solare.

Notiamo prima di tutto una cosa molto importante: la linea rossa indica l’attivita’ solare prevista dalle simulazioni. Come potete vedere, il numero di macchie finora osservate e’ sensibilmente piu’ basso rispetto al valore atteso. E’ sconvolgente questo? Neanche per idea. Come visto, si tratta dei modelli, per cui sempre affetti da fluttuazioni statistiche e da incertezze.

Attenzione pero’, su questo punto molto si sta parlando in rete. Secondo molte fonti, questa differenza tra aspettato e osservato, come visto assolutamente non sconvolgente, indicherebbe niente poco di meno che “una nuova era glaciale”! Perche’ si parla di questo? Come visto in questo post:

Curiosita’ sui cicli solari

e come e’ facilmente immaginabile, l’attivita’ del nostro Sole influisce sulle condizioni ambientali della Terra, e non potrebbe essere diversamente. Ora, sempre per la solita rondine che non fa primavera, e’ assurdo parlare di era glaciale perche’ c’e’ un massimo meno intenso del previsto. Come visto nell’articolo riportato, nel caso del Maunder Minimum, si registro’ una totale assenza di macchie solari per un periodo compreso tra il 1645 e il 1700, macchie che poi inizarono lentamente a ricomparire fino a tornare alla normalita’ solo nel 1715. Alcune fonti parlano di diversi massimi poco intensi e dunque di un andamento che punterebbe ad una mini era glaciale. Anche in questo caso, si tratta di una esagerazione speculativa, atta solo a cercare di insinuare evidenze dove queste non ci sono.

Inoltre, facciamo una considerazione aggiuntiva molto importante. Come detto in precedenza, i famosi 11 anni di ciclo solare, non vanno visti come un dictat inviolabile, ma come una stima media della durata del ciclo. Perche’ dico questo? Come avvenuto in diverse occasioni, e anche nel precedente massimo, e’ possibile che il sole presenti due picchi all’interno dello stesso massimo. Riguardiamo per un attimo il grafico di prima, e concentriamoci sul massimo precedente. Come potete vedere, ci sono due picchi facilmente distinguibili, uno a meta’ el 2000 e l’altro alla fine del 2002. Anche questo comportamento rientra nelle normali fluttuazioni che il nostro Sole puo’ avere nel corso degli anni.

Perche’ abbiamo fatto questa considerazione?

Alla luce di questa, e’ lecito pensare che, anche in questo caso, quello che stiamo attraversando sia solo un primo picco di intensita’, seguito poi, anche a distanza di uno o due anni, da un secondo massimo piu’ intenso. Non ci sarebbe assolutamente nulla di sconvolgente in un comportamento del genere e soprattutto, non e’ preventivabile ne’ facilmente modellizzabile.

Riassumendo, stiamo sicuramente attraversando il massimo atteso del 24mo ciclo solare. Non e’ facilmente comprensibile capire se stiamo andando verso il picco, lo abbiamo gia’ passato e se ci sara’ un ulteriore picco a distanza di qualche mese. Quello che e’ evidente dai dati riportati e’ che, fino ad oggi, l’intensita’ di questo massimo e’ relativamente bassa e inferiore alle stime fatte. Questo pero’ rientra nelle normali fluttuazioni statistiche della fisica del sistema, non facilmente prevedibili ne’ tantomeno modellizzabili. E’ assolutamente fuori luogo parlare dell’inizio di una prossima era glaciale, soprattutto se citata da quelle fonti che fino a ieri parlavano di desertificazione a causa di un misterioso e incompreso riscaldamento globale.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

WR104: un fucile puntato verso la Terra

12 Mag

Un nostro affezionato lettore ha lasciato un commento molto interessante nella sezione:

Hai domande o dubbi?

La richiesta riguardava un approfondimento sulla stella WR104 e sull’eventuale pericolo che l’evoluzione naturale di questo corpo potrebbe rappresentare per la Terra.

Se provate a cercare informazioni in rete, trovate una vasta bibliografia catastrofista su questo corpo. Senza mezzi termini, in molte occasioni, la WR104 e’ anche chiamata la “stella della morte” proprio per indicare il potenziale pericolo per la vita sulla Terra rappresentato dall’esplosione di questo oggetto celeste.

Cosa c’e’ di vero in tutto questo?

Cerchiamo al solito di andare con ordine, inquadrando prima di tutto di cosa stiamo parlando e poi cercando di valutare se c’e’ veramente un pericolo prossimo per la Terra.

La WR104 e’ una stella che, come indica il nome stesso, appartiene alla categoria Wolf-Rayet. Si tratta di stelle molto calde, tra 25000 e 50000 gradi, con masse superiori a 20 volte quelle del nostro sole e caratterizzate da una forte emissione di vento stellare. Dalle osservazioni, i corpi di questa categoria arrivano ad emettere fino ad un miliardo di volte la quantita’ di materia emessa dal sole ogni anno. Questo solo per far capire quanto siano attive le stelle di questa categoria. Si tratta di corpi abbastanza rari nell’universo rispetto ad altre tipologie. Fino ad oggi, sono state osservate soltanto 230 Wolf-Rayet nella nostra Galassia di cui 100 nella Grande Nube di Magellano.

Come visto in altri post, ciascuna categoria stellare presenta un processo evolutivo che parte dalla sua formazione fino alla sua morte, intesa come trasformazione in qualcosa non piu’ mutevole. Le stelle di Wolf-Rayet terminano il loro ciclo vitale esplodendo come supernovae di tipo Ib o Ic. Di questi fenomeni abbiamo parlato gia’ in quest’articolo:

E se domani sorgessero due soli?

Animazione di un lampo gamma

Animazione di un lampo gamma

Data la  loro grande massa, si prevede che le WR, durante il collasso, si traformino in buchi neri emettendo moltissima energia sotto forma di Gamma Ray Burst, o GRB.

Cos’e’ un GRB?

Si tratta di un’emissione molto potente di raggi gamma, evento tra i piu’ potenti osservati nel nostro universo. Per darvi una stima, la quantita’ di energia emessa durante un GRB, tipicamente inferiore a qualche secondo, e’ maggiore di quella che il nostro Sole emette in tutto il suo ciclo vitale.

Piu’ o meno, nel nostro universo, si osserva circa 1 GRB al giorno molto distante da noi e questi eventi sono continuamente registrati dai nostri telescopi.

Bene, ora che abbiamo un quadro piu’ completo, torniamo a parlare di WR104.

Come detto, si tratta di una stella Wolf-Rayet, quindi caratterizzata dal ciclo vitale di cui abbiamo parlato. La WR104 appartiene ad un sistema binario con una stella detta di classe O. La continua emissione di vento stellare di questi corpi, rende il sistema doppio molto affascinante dal momento che le due emissioni si scontrano nello spazio di separazione formando una bellissima spirale in movimento. L’animazione a fianco puo’ far capire meglio come questo sistema appare ai nostri telescopi.

Dinamica del sistema binario con WR104

Dinamica del sistema binario con WR104

ll sistema doppio a cui appartiene la WR104 si trova nella costellazione del Sagittario, e dista da noi circa 8000 anni luce.

Dunque? Cosa c’e’ di pericoloso nella WR104?

Dalle osservazioni fatte, questa stella si troverebbe molto vicina alla conclusione del suo ciclo evolutivo per cui, come detto, potrebbe esplodere in una supernova con una potente emissione di raggi gamma. Data la tipologia di rilascio, si considerano pericolosi i GRB che avvengono a distanze inferiori a circa 7000 anni luce da noi. Come visto, la WR104 si trova a 8000 anni luce, distanza paragonabile con questo limite di sicurezza.

A questo punto, le domande importanti a cui dobbiamo rispondere sono: quali effetti avrebbe sulla Terra? Esiste la possibilita’ che il GRB ci colpisca? Quando dovrebe avvenire?

Cominciamo dagli effetti. Come detto, nel Gamma Ray Burst viene emesso un flusso elevato di fotoni con energie comprese tra 0.3 e  2 MeV. Se questo fascio di particelle dovesse investire la Terra, l’interazione dei fotoni con la troposfera causerebbe una dissociazione dell’azoto molecolare con formazione di ossidi di azoto. Questo comporterebbe una drastica riduzione dello strato di ozono che, come visto in questo post:

Che fine ha fatto il buco dell’ozono?

e’ fondamentale per il matenimento della vita sulla Terra. Da stime preliminari, si e’ evidenziato come l’emissione di un GRB che colpisse completamente la Terra, porterebbe ad una riduzione fino al 30% dell’ozono. In questo caso, la diminuita protezione dai raggi solari dannosi, comporterebbe seri problemi per la vita sulla Terra, portando, secondo alcune stime, all’estinzione di diverse specie e alla modificazione del DNA di altre. Diciamo che come scenario, non e’ del piu’ rassicuranti.

Prima di farci prendere dal panico, cerchiamo pero’ di rispondere alla seconda domanda: il GRB della WR104 potrebbe veramente colpirci?

Durante un lampo gamma, la radiazione non viene esplusa in tutte le direzioni, ma viene emessa in due stretti coni coincidenti con l’asse di rotazione della Stella. Detto in parole semplici, il pericoloso fascio non arriva ovunque, ma l’asse di rotazione indica proprio la direzione di questo “sparo” di particelle:

Emissione di gamma di un GRB

Emissione di gamma di un GRB

 

Dunque, per poter essere colpita, la Terra si dovrebbe proprio trovare allineata con l’asse di rotazione della WR104. In rete trovate che dalle misure scientifiche, questa e’ proprio la condizione misurata. Fortunatamente, questo e’ vero solo in parte. Mi spiego meglio. Dalle misure effettuate, l’asse di rotazione del sistema binario, sembra puntare in direzione del sistema solare. Ora pero’, stiamo prima di tutto parlando di un qualcosa distante da noi 8000 anni luce. Per questo motivo, esiste sempre un’incertezza sperimentale su misure angolari di questo tipo. Dire che si trovano perfettamente allineati, non e’ corretto. La misura angolare del sistema doppio, con una incertezza sperimentale piu’ o meno grande, copre anche il nostro sistema solare, ed in particolare la Terra.

Anche se la mia potrebbe sembrare una sottigliezza per distrarre l’attenzione, queste valutazioni sono molto importanti in questo caso. L’emissione di gamma in un GRB avviene in un cono molto stretto, con un’apertura dell’ordine di pochi gradi. Per fare un esempio facile, immaginate di sparare una freccia a grande distanza. Piu’ siete lontani, maggiore e’ la precisione che dovete usare per colpire un corpo esteso. Per il GRB vale esattamente la stessa cosa. Il piccolo cono di emissione rende l’aalineamento richiesto molto preciso e difficilmente si possono fare stime a questo livello per distanze di quest’ordine.

Inoltre, quello che viene misurato e’ l’asse di rotazione del sistema binario, non quello di WR104. Secondo i modelli, le stelle di un sistema binario vengono formate dall’aggregazione della stessa polvere cosmica. Questo significa che l’asse di rotazione di ciascun corpo e’ in relazione con quello del sistema nel suo complesso, ma possono esserci degli spostamenti dovuti alla dinamica del sistema. In un discorso di allineamenti cosi’ precisi come quelli richiesti, capite bene che e’ estremamente difficile valutare tutti questi fattori.

Come potete capire, non sono attendibili tutte quelle voci che dicono che la WR104 punti “esattamente” verso di noi. In tutto questo poi, ho omesso di parlare di lente gravitazionale e di altri effetti che potrebbero in qualche modo complicare ancora di piu’ la precisione richiesta per l’allineamento. Ovviamente questo non significa nulla neanche in verso opposto, cioe’, allo stesso modo, non sono attendibili tutte quelle fonti che parlano di allineamento impossibile. Tenendo a mente la legge di Murphy, o se volete in termini meno scientifici “la fortuna e’ cieca ma la sfortuna ci vede bene”, cerchiamo invece di capire quando dovrebbe avvenire questo pericoloso GRB.

Poiche’ la distanza tra noi e WR104 e’ di 8000 anni luce, la radiazione del lampo gamma impiegherebbe proprio 8000 anni per arrivare fino alla Terra. Da questa considerazione, secondo alcune fonti, il GRB potrebbe gia’ essere avvenuto e sarebbe in viaggio verso di noi.

Su questo punto, esistono opinioni scientifiche del tutto contrastanti. Vista la complessita’ del sistema, non e’ assolutamente facile fare una stima precisa. Secondo le teorie piu’ accreditate, i modelli di evoluzione di una stella di tipo WR prevedono, prima del suo collasso, un aumento significativo della velocita’ di rotazione accompagnato anche da un aumento del vento stellare. Queste caratteristiche sono in contrasto con quanto osservato oggi mediante i telescopi in orbita.

Cosa significa questo?

Secondo questi modelli, come detto maggiormente accreditati, la WR104 sarebbe ovviamente vicina al collasso, ma non ancora prossima a questo evento. In questo caso, si parla di periodi prima del GRB che arrivano anche a centinaia, se non migliaia di anni. Di contro pero’, esistono modelli che parlano di tempi molto piu’ stretti. Ovviamente, gli 8000 anni si separazione tra noi e la stella sono gia’ conteggiati. E’ come se osservassimo un qualcosa avvenuto 8000 anni prima.

Concludendo, la WR104 “potrebbe” realmente rappresentare un pericolo per la vita sulla Terra. Il condizionale e’ pero’ d’obbligo. Come visto, prima di tutto, e’ impossibile parlare di allineamento cosi’ preciso tra noi e l’asse di emissione del fascio. In questa stima entrano tantissimi parametri, difficilmente quantificabili, e che, vista la distanza, potrebbero rappresentare la differenza tra essere colpiti in pieno o completamente mancati. Per quanto riguarda l’istante in cui verra’ emesso il GRB, anche qui le opinioni sono molto contrastanti. Secondo alcuni, il collasso potrebbe gia’ essere avvenuto, mentre secondo altre fonti, mancherebbero ancora moltissimi anni.

Visti i tanti condizionali utilizzati, non resta che attendere. L’unica cosa positiva e’ che, se dovesse avvenire un evento del genere, difficilmente potremmo farci qualcosa, almeno allo stato attuale. Sicuramente, come evidenziato piu’ volte, affinche’ il pericolo si manifesti, sarebbero necessarie condizioni ben precise la cui probabilita’ di avvenire tutte allo stesso tempo e’ estremamente bassa. Detto questo, credo sia inutile preoccuparsi. Sarebbe come non uscire di casa perche’ esiste la remota probabilita’ che una tegola ci cada in testa.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Come non aspettarselo ….

7 Mar

Stamattina, sfogliando i giornali, mi sono imbattutto nella notizia, presente su tutti i quotidiani, di un aereo alitalia che in fase di atterraggio verso New York ha avvistato un drone. Per essere precisi, l’aeroporto in questione era il JFK e il velivolo della nostra compagnia era un Boeing 777 in volo da Roma a New York.

Questa e’ la registrazione della comunicazione alla torre di controllo, in cui il pilota riporta quanto visto:

Torre Controllo

Come potete sentire, il pilota dice chiaramente: “we saw a drone, a drone aircraft”, cioe’ “abbiamo visto un drone, un velivolo drone”.

Per chi non lo sapesse, “drone” e’ il nome comune dato ai velivoli che viaggiano senza pilota. Questo speciale tipo di aerei viene pilotato a distanza, in gergo tecnico “da remoto”, per via informatica da un pilota a terra o su un altro velivolo. I droni sono stati sviluppati principalmente per le missioni di ricognizione, di telemetria, di controllo incendi, tutte operazioni che vengono spesso definite “dull, dirty and dangerous”, cioe’ noiose, sporche e pericolose. Questo genere di velivoli consente di compiere queste missioni senza mettere in pericolo il pilota ma anche, in alcuni casi, abbattendo i costi della missione stessa.

Un drone in volo

Un drone in volo

Non appena atterrato, il pilota del volo Alitalia ha rilasciato un’intervista alla ABC news, nel quale ha dichiarato di aver visto il drone a circa cinque miglia a sud dell’aeroporto, mentre era in fase di atterraggio ad una quota di circa 450 metri. Stando a quanto riportato, il drone era in volo ad un’altezza di 1500 piedi.

Vista la distanza dall’aereo, il pilota non ha dovuto compiere nessuna manovra eversiva, ma si e’ limitato a riportare il fatto alla torre di controllo. Questa segnalazione ha ovviamente fatto scattare un’indagine delle autorita’ americane per cercare di capire di che drone si trattasse e perche’ era in volo in quella zona. Per la legge infatti, lo spazio aereo vicino all’aeroporto e’, per ovvi motivi di sicurezza, riservato solamente ai velivoli in fase di atterraggio e decollo.

Cosa c’e’ di strano in tutto questo? A parte il fatto che ci fosse un drone sul JFK e che ora si dovra’ capire a chi appartenesse e perche’ era in volo, assolutamente nulla.

Stamattina pero’, mentre leggevo queste informazioni mi dicevo: sicuramente questa notizia, nel giro di qualche ora, comparira’ sui siti catastrofisti, sicuramente con dettagli gonfiati e non veritieri.

In parte mi sbagliavo, nel senso che sono stato troppo ottimista.

Vi invito a fare una ricerca su internet e confrontare come la notizia viene pubblicata su diversi giornali online.

Su alcuni potete leggere: “sfiorato scontro tra aereo Alitalia e drone”. Ma come? Sfiorato lo scontro con un velivolo a distanza di 5 miglia? Mi sembra un po’ esagerato.

Ma ovviamente c’e’ di peggio. Su altri giornali leggete: “Paura ad alta quota”, “drone sfiora aereo Alitalia”, “strage mancata per un soffio”, “Aereo si salva solo dopo pericolosa manovra del pilota”.

Cosa? Ma stiamo scherzando?

Come gia’ detto, il drone era a 5 miglia dall’aeroporto ed il pilota non ha fatto assolutamente correzioni rispetto alla manovra standard di atterraggio. I passeggeri non si sono nemmeno accorti di quanto accaduto.

Questo piccolo esempio, vi fa capire come viene fatto il giornalismo su internet. Ovviamente, ci sono tantissimi siti seri che pubblicano notizie senza modificarle e pompando i dettagli. Ma, oltre a questi, ci sono tantissimi giornali pronti solo a sparare notizie sensazionali, inventate o meno, l’importante e’ fare scalpore.

Pensate sia finita qui? Assolutamente no, ci sono poi i nostri tanto cari siti catastrofisti. Cosa trovate in questo caso? “Pilota Alitalia avvista un UFO sull’aeroporto di New York”.

Eccoci qui, da un drone che era, e’ diventato un UFO!

Ovviamente, anche in questo caso, l’UFO ha sfiorato l’aereo o, secondo alcuni, lo avrebbe addirittura seguito. Per condire il tutto, ci sarebbe l’intervista del pilota all’ABC. Secondo queste fonti, il pilota avrebbe comunicato alla torre di controllo di aver avvistato un “oggetto volante non identificato” in rotta di collisione con l’aereo.

Come abbiamo sentito nella registrazione, il pilota Alitalia parla chiaramente di drone. Sui tanti siti catastrofisti che vi raccontano del pilota che avrebbe dichiarato un oggetto volante non identificato, non trovate certo l’audio con la torre di controllo. Questa purtroppo e’ usanza comune. Nel momento in cui leggete una notizia, specialmente se all’apparenza sensazionale, pretendete di avere le fonti originali.

Concludendo, il pilota Alitalia ha avvistato, almeno da quanto riportato dal pilota, un drone. Ora, sara’ compito delle agenzie governative capire di cosa realmente si tratta e se sono stati violati codici di sicurezza. Questa notizia ci insegna pero’ una cosa molto importante: come visto, la stessa notizia puo’ assumere toni diversi su diversi siti. Questo ovviamente senza tenere conto dei particolari spesso inventati o comunque manipolati per portare il vostro pensiero in una direzione. Non confrontando fonti diverse o non facendovi domande, si rischia di prendere per buone informazioni spudoratamente false.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La terza fascia di Van Allen

4 Mar

Anche se, come spesso avviene, dobbiamo partire dal catastrofismo, questa volta parliamo di scienza vera ed in particolare della scoperta, pubblicata proprio in questi ultimi giorni, di una terza fascia di Van Allen intorno alla Terra.

Di cosa si tratta?

Andiamo con ordine, delle fasce di Van Allen abbiamo gia’ parlato in questo post:

L’anomalia del Sud Atlantico

Come abbiamo visto, queste altro non sono che delle strutture intorno alla Terra formate da particelle cariche. In particolare, fino a pochi giorni fa, erano conosciute due fasce, una formata da elettroni ed una da protoni. Dal momento che queste particelle vengono intrappolate mediante la forza di Lorentz per opera del campo magnetico terrestre, nella fascia piu’ interna troviamo protoni, mentre in quella piu’ esterna elettroni.

Fasce di Van Allen intorno alla Terra

Fasce di Van Allen intorno alla Terra

In particolare, quando le particelle delle fasce di Van Allen vengono eccitate a causa dell’attivita’ solare, si ha il fenomeno delle aurore, di cui abbiamo discusso gia’ diverse volte.

Facciamo un piccolo passo indietro. Perche’ queste strutture sono tanto care ai catastrofisti? Come ricorderete, uno degli argomenti maggiormente citati per il 21 Dicembre 2012, era l’ipotizzata inversione dei poli magnetici terrestri. Dal momento che, come visto, l’esistenza stessa delle fasce di Van Allen e’ dovuta al campo magnetico terrestre, molto si e’ speculato in questa direzione, cercando presunte prove dell’imminente inversione. Di questi aspetti abbiamo parlato, ad esempio, in questo post:

Inversione dei poli terrestri

Come visto, niente di tutto questo e’ reale. Sappiamo che il polo nord magnetico e’ in lento e continuo movimento, cosi’ come sappiamo che in passato e’ avvenuta un’inversione dei poli terrestri, ma questo non comporterebbe certamente la fine del mondo e assolutamente questo non e’ un processo che avviene dall’oggi al domani ma esistono modelli matematici, basati sulle informazioni provenienti dal Sole, che periodicamente inverte i suoi poli, che ci mostrano come questo fenomeno dovrebbe avvenire.

Bene, detto questo, proprio in questi giorni si e’ tornati a parlare delle fasce di Van Allen, dopo che e’ stato pubblicato un articolo sulla rivista Science di un’importante scoperta fatta da ricercatori NASA nell’ambito della missione Radiation Belt Storm Probes. Questa missione consiste in due sonde gemelle lanciate nello spazio la scorsa estate proprio per studiare ed osservare le cinture di particelle che circondano la Terra.

Cosa hanno osservato le due sonde?

Subito dopo il lancio, le sonde hanno potuto osservare le due fasce come normalmente avviene e come abbiamo detto anche nel precedente post. Ai primi di settembre pero’, i ricercatori hanno osservato la fascia esterna spostarsi verso il basso ed e’ apparsa una terza fascia, molto meno compatta, ancora piu’ lontana dalla prima e sempre popolata di elettroni.

Questo e’ un modello che mostra appunto il confronto tra la struttura a due (nota) e a tre (innovativa) fasce di Van Allen intorno alla Terra:

Modello a 2 e 3 fasce di Van Allen

Modello a 2 e 3 fasce di Van Allen

LA cosa che ha sorpreso ancora di piu’ e’ che dopo circa  3 settimane, la fascia piu’ esterna ha iniziato lentamente a dissolversi fino a quando, dopo circa un mese dalla prima osservazione, una potente emissione di vento solare ha letteralmente spazzato via la fascia esterna riformando la solita struttura a due cinture che tutti conoscono.

Ora, cerchiamo di analizzare quanto riportato.

Prima di tutto, c’e’ da dire che l’osservazione di questa struttura e’ stato un gran bel colpo di fortuna per i ricercatori della NASA. Secondo il programma infatti, gli strumenti delle sonde avrebbero dovuto cominciare a raccogliere dati solo dopo un mese dal lancio. Questa procedura e’ del tutto normale e viene utilizzata per far stabilizzare la strumentazione dopo il lancio. In questo caso pero’, si e’ insistito affinche’ gli strumenti fossero accesi subito. Se vogliamo, dato questo particolare, non si e’ trattato solo di fortuna. Proprio l’accensione anticipata degli strumenti ha consentito di osservare questo nuovo effetto. Se fosse stato rispettato il programma, al momento dell’accensione la terza fascia era gia’ scomparsa.

Al momento, non esiste ancora una teoria per siegare quanto osservato o meglio, i dati raccolti sono completamente in disaccordo con quanto sapevamo e con quanto osservato in passato. Questo significa che adesso ci vorra’ tempo affinche’ vengano formulati nuovo modelli per tenere conto di questo effetto.

Allo stato attuale, non si conosce neanche quanto frequentemente avviene la divisione in tre fasce. Probabilmente questo fenomeno avviene regolarmente a causa dell’attivita’ solare, ma fino ad oggi non eravamo stati in grado di osservarlo.

Perche’ parlo di attivita’ solare? Come detto, il vento solare modifica la struttura delle fasce di Van Allen e quindi, con buona probabilita’, anche questo effetto puo’ essere ricondotto alla stessa causa. Inoltre, come osservato, proprio il vento solare ha ripristinato la struttura a due fasce.

Da quanto sappiamo, le due fasce sono separate da una zona non popolata di particelle detta “zona di sicurezza”. Dai dati raccolti, sembrerebbe che la pressione esercitata dalla radiazione solare abbia spostato gran parte degli elettroni in questa zona formando cosi’ la struttura a tre fasce osservata. Sempre un’emissione di vento solare ha poi spazzato via la terza fascia meno densa e di conseguenza gli elettroni sono risaltati nella posizione originale.

Ovviamente, si tratta ancora di ipotesi. Come detto, i dati raccolti verranno ora analizzati per cercare di formulare un modello in grado di spiegare quanto osservato.

Solo per concludere, non c’e’ niente di misterioso in questa scoperta. Su alcuni siti si e’ tornati a parlare di inversione del campo magnetico terrestre, speculando circa la modificazione delle fasce di Van Allen. Niente di tutto questo e’ reale. Come visto, si tratta di una scoperta nuova e del tutto inaspettata. In quanto tale, e’ ovvio che non si ha ancora un’idea precisa o una spiegazione uniformemente accettata. A questo punto non resta che aspettare l’analisi dei dati per capire la spiegazione di questo nuovo fenomeno.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le previsioni del tempo

20 Gen

Molto spesso mi viene chiesto come sono fatte le previsioni del tempo. In questi ultimi giorni poi, l’argomento e’ molto di moda anche grazie ai continui annunci di copiose nevicate, ad esempio su Roma, che pero’ ancora non si sono viste.

Cerchiamo di fare un po’ di ordine ma soprattutto di capire quale e quanto lavoro c’e’ dietro quelle previsioni fatte a 1, 2, 3 giorni o, a volte, anche a mesi di distanza.

Al giorno d’oggi, le previsioni del tempo si basano su equazioni numeriche in grado di descrivere i complessi movimenti delle masse d’aria nel mondo, ma soprattutto nell’evoluzione temporale di questi parametri. In soldoni, la fisica vi descrive il movimento di queste masse d’aria e, misurando i parametri in questo momento, viene costruita una simulazione che cerca di fornire la situazione che si avra’ a distanza di tempo.

Meteo

Fate subito attenzione ad una cosa. Come detto, vengono presi i parametri atmosferci ad un certo istante e da questi viene costruita la modellizzazione nel tempo del meteo. Capite subito che tanto piu’ vicina sara’ la previsione richiesta, tanto piu’ affidabile sara’ il risultato fornito.

Per capire questo fondamentale limite, vi faccio un esempio molto facile. Immaginate di vedere una persona che cammina per strada e di voler simulare come cambiera’ nel tempo la sua posizione. L’istante iniziale e’ quello in cui osservate la persona. Ora, immaginando di vedere la persona che sta camminando con una certa velocita’ in una direzione potete dire, senza continuare a guardarla, che dopo 10 secondi sara’ arrivata in quest’altra posizione, dopo 20 secondi in quest’altra, e cosi’ via. Dove sara’ la persona dopo 3 ore? Assolutamente non siete in grado di dare questa risposta perche’ il vostro modello, basato solo sull’osservazione della direzione della persona ad un certo istante, non riesce a rispondere a questa domanda (la persona potrebbe essersi fermata, essere arrivata ad un bivio, potrebbe essere tornata indietro, ecc).

Le previsioni del tempo funzionano piu’ o meno in questo modo. I modelli ovviamente sono molto complessi dal momento che devono descrivere il movimento nel tempo delle enormi masse d’aria circolanti sul nostro pianeta.

La raccolta dei dati per le previsioni atmosferiche viene fatta utilizzando stazioni a terra, palloni sonda e satelliti metereologici. Le informazioni raccolte vengono poi inviate ed analizzate mediante potenti supercomputer in grado non di risolvere le equazioni del modello, ma di dare la risposta piu’ probabile, cioe’ la situazione del tempo ad una certa data.

A questo punto la domanda e’: quali sono i parametri che vengono misurati e perche’ le previsioni a volte sbagliano?

Mentre la prima risposta e’ abbastanza semplice ed intuibile per tutti, la seconda e’ una domanda un po’ piu’ complessa e che merita qualche considerazione aggiuntiva.

Riguardo ai parametri, come potete facilmente immaginare, si tratta di osservare le nuvole, la quantita’ di precipitazioni nel mondo, i gradienti di temperatura e pressione lungo l’atmosfera, i venti ma soprattutto di modellizzare i fenomeni meteorologici dal punto di vista fisico. Se due masse d’aria di temperatura diversa si scontrano, con quale probabilita’ si formeranno nuvole cariche di pioggia? Come vedete, in questo senso, il comportamento in atmosfera, e dunque la fisica, deve essere coniugato con i parametri osservati sul campo.

Partiamo dunque proprio dalla misure sul campo per capire l’affidabilita’ delle previsioni.

Prima di tutto, le osservazioni si basano su una griglia di misura che non copre in maniera adeguata tutta la superficie terrestre. Mentre i satelliti possono osservare praticamente tutto il mondo, le sonde in atmosfera, che forniscono i parametri ambientali, lasciano ampie aree scoperte. Con questo si intende che alcune zone della Terra non sono affatto sfiorate dalle misure. Dovendo trattare un sistema complesso come l’atmosfera, avere delle aree scoperte rappresenta sicuramente un limite. Inolre, l’atmosfera cambia i suoi parametri molto rapidamente, mentre per le previsioni i dati vengono letti ad intervalli regolari e, quindi, non con continuita’.

Sempre sulla stessa scia della griglia dei parametri, ad oggi ancora non e’ del tutto chiaro come la temperatura superficiale delle acque, cioe’ degli oceani, possa influire sul meteo. Come e’ facile immaginare, negli oceani possono essere presenti correnti a temperatura diversa ma e’ impensabile misurare in ogni punto dell’oceano la temperatura superficiale. A riprova di questo, basti pensare, ad esempio, al fenomeno del Nino o della Nina.

Ad oggi, l’affidabilita’ di una previsione a 24 ore e’ circa del 90%, mentre diviene dell’80% a distanza di 3 giorni. Questa stima scende rapidamente al 50% calcolando invece le previsioni ad una settimana. Praticamente, e’ come lanciare una monetina. Visti questi numeri, capite immediatamente come sia assurdo dare previsioni a 2 settimane, oppure sentir parlare ora di come sara’ il tempo quest’estate. Previsioni di questo tipo sono per scopi puramente commerciali e niente hanno a che vedere con la scienza.

Molto spesso, mi viene fatto l’esempio delle previsioni in formula 1. In un gran premio, se dicono che dopo 5 minuti iniziera’ a piovere, potete essere sicuri che accadra’. Perche’? Prima di tutto, si tratta di previsioni a brevissima scadenza, massimo a 30 minuti. Inoltre, si tratta di previsioni fatte in una zona ben precisa e circoscritta che riguarda l’area del circuito. In questo senso, l’attendibilita’ delle previsioni date arriva quasi a sfiorare il 100%.

A questo punto pero’ vorrei spezzare una lancia in favore della meteorologia per farvi capire le difficolta’ reali nell’elaborazione dei dati.

Credo che quasi tutti conoscano il cosiddetto “Effetto Farfalla”: Il battito di ali di una farfalla in Europa puo’ provocare un uragano negli Stati Uniti. Spesso viene raccontato utilizzando luoghi diversi, ma il senso e’ sempre lo stesso: basta un avvenimento minimo per cambiare irreparabilmente il futuro di qualcosa.

Da dove nasce l’effetto farfalla? Forse non tutti sanno che venne formulato proprio parlando di meteorologia.

Il supercomputer ENIAC del 1947

Il supercomputer ENIAC del 1947

Il primo che provo’ a calcolare previsioni meteo in maniera scientifica fu John Von Neumann utilizzando il piu’ potente Super Computer disponibile nel 1950, l’ENIAC. Si tratto’ del quarto computer realizzato nella storia ed in grado di fare calcoli che farebbero ridere un’odierna calcolatrice tascabile. Pensate che durante la cerimonia di inaugurazione, l’ENIAC lascio’ tutti a bocca aperta perche’ calcolo’ in un secondo il risultato di 97367 elevato alla 5000 causando un blackout in una vasta zona di Filadelfia. L’utilizzo principale di questo computer era per il calcolo balistico nel lancio dei missili, ma venne poi utilizzato anche per altri scopi, tra cui per le previsioni del tempo da Von Neumann.

Per darvi un’idea, dati i valori in ingresso, l’ENIAC era in grado di fornire in 24 ore, la previsione per le prossime 24 ore. Capite dunque l’inutilita’ di queste previsioni, arrivato il risultato bastava aprire la finestra per verificarlo, ma servi’ per spianare la strada ai moderni calcoli.

Cosa c’entrano l’ENIAC, Von Naumann e l’effetto farfalla con l’affidabilita’ delle previsioni del tempo?

Dalle previsioni di Von Neumann con l’ENIAC si evidenzio’ come modificando i parametri in ingresso di una quantita’ piccola a piacere, il risultato a distanza di 24 ore, poteva essere radicalmente diverso. Questo risultato venne poi ripreso da Lorenz che fu il primo a formulare l’effetto farfalla cosi’ come lo conosciamo oggi.

Analizzando questi risultati, capite bene quali siano le difficolta’ delle previsioni del tempo. Abbiamo a disposizione dati spesso incompleti, i parametri atmosferici possono cambiare repentinamente modificando completamente la situazione, una minima variazione dei parametri atmosferici puo’ cambiare radicalmente il risultato della previsione anche a breve termine.

Concludendo, la meterologia e’ una scienza molto complessa e non facilmente parametrizzabile mediante funzioni matematiche. Questo limite delle simulazioni e’ esattamente lo stesso di cui abbiamo parlato analizzando il calcolo della rotta di un asteroide. Anche in questo caso, una minima variazione delle condizioni al contorno del nostro problema possono modificare completamente il risultato. Proprio per questo motivo, in astrofisica cosi’ come in meteorologia e’ importante misurare in continuazione i dati ambientali.

Detto questo, se le previsioni a 2 settimane risultano sbagliate, la colpa e’ anche nostra che pretendiamo di avere qualcosa di non calcolabile. Se le previsioni ad un giorno sono sbagliate, pensate che forse c’e’ stata qualche farfalla di troppo.

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.