Tag Archives: gps

Presunte previsioni di Terremoti

22 Apr

Di Patrizia Esposito

———————————————————————————————————————–

Torno ad “approfittare” dello spazio che Matteo mi ha concesso sul blog per parlare nuovamente di terremoti. Il titolo dell’articolo che vi presento oggi è il nome di una sezione del forum Psicosi 2012, dedicata alle previsioni “ad capocchiam” dei terremoti, cioè quelle che indicano il giorno e il luogo esatti di un sisma (preferibilmente catastrofico) sulla base dei parametri più bislacchi (apparizioni, profezie, ecc.). L’ultimissima della serie- segnalata da un nostro caro utente- è quella di un tizio che aveva previsto per il 17 aprile scorso niente poco di meno che il Big One in California. Ma magari bastasse la lettura dei tarocchi per prevedere eventi catastrofici e salvare vite umane! La previsione dei terremoti è una materia spinosa e complessa alla quale si dedicano anima e corpo ricercatori scientifici seri. A tal proposito, vorrei illustrarvi qui di seguito uno studio tutto italiano che, a mio avviso, aggiunge un tassello interessante al mosaico della comprensione dei meccanismi che generano i terremoti. Buona lettura a tutti.

———————————————————————————————————————–

Sul numero di marzo di Le Scienze è stato pubblicato un sunto dello studio condotto da Carlo Doglioni, Salvatore Barba, Eugenio Carminati e Federica Riguzzi. (1) Gli autori hanno analizzato la relazione tra la sismicità e il tasso di deformazione, evidenziando come le aree con terremoti più intensi siano quelle in cui la velocità di deformazione delle rocce è più bassa rispetto alle aree circostanti. Sono partiti dal considerare la crosta terrestre suddivisa in due porzioni: crosta superiore e crosta inferiore. La prima, spessa mediamente 15 km, ha un comportamento fragile ed è influenzata dalla pressione: il carico litostatico, che aumenta con la profondità, esercita una forza di contenimento sulle rocce, rendendole più stabili e aumentandone la resistenza. La crosta inferiore, invece, ha un comportamento duttile ed è influenzata dalla temperatura: il gradiente termico, che diminuisce con la profondità, indebolisce i legami dei reticoli cristallini rendendo le rocce meno stabili. Che cosa significa questo? Significa che le rocce crostali non si deformano tutte allo stesso modo. Infatti, quelle della crosta superiore si deformano “a scatti” attraverso l’attivazione delle faglie, quelle della crosta inferiore, invece, si deformano costantemente nel tempo, senza perdita di coesione, attraverso la distorsione dei reticoli cristallini:

Diverso comportamento meccanico della crosta superiore e della crosta inferiore.

Diverso comportamento meccanico della crosta superiore e della crosta inferiore.

I terremoti sono associati alle deformazione fragili. La transizione tra le due porzioni crostali con diverso comportamento meccanico, detta “transizione fragile-duttile”, corrisponde alla massima resistenza delle rocce, cioè la profondità a cui è necessaria l’energia massima per romperle. Più è profonda questa transizione e più lunga è una faglia, maggiore è il volume di rocce coinvolte nel sisma, quindi maggiore sarà la magnitudo. Per descrivere un evento sismico si utilizzano diversi valori numerici, come la magnitudo momento, la magnitudo locale e l’intensità macrosismica (il fatto stesso che per descrivere un sisma si prendano in considerazione diversi parametri sta ad indicare la complessità del fenomeno).

La legge di Gutenberg-Richter è l’espressione analitica della forza che agisce contemporaneamente sul guscio terrestre e che è responsabile della distribuzione sismica sul pianeta. L’origine di questa forza è ancora nel campo delle ipotesi, tra le quali sono contemplati i moti convettivi nel mantello e gli effetti della rotazione terrestre che spiegherebbero l’attuale deriva verso ovest delle placche litosferiche. La diversa velocità di queste ultime dipende dal grado di disaccoppiamento mantello-litosfera che è funzione della variazione di viscosità nel mantello: maggiore è la viscosità, minore è la velocità della placca.

Funzionamento delle faglie in funzione della transizione “fragile-duttile”.

Funzionamento delle faglie in funzione della transizione “fragile-duttile”.

In figura è illustrato il funzionamento delle faglie in relazione alla transizione fragile-duttile. Nel caso di faglia distensiva la transizione si configura come una zona dilatata in cui si formano delle fratture e dei vuoti che si riempiono di fluidi, in conseguenza all’accomodamento della crosta inferiore in lento ma costante movimento rispetto alla crosta superiore bloccata. Questa zona si espanderà fino a quando non sarà più in grado di sorreggere la parte alta (“tetto” della faglia), a quel punto le rocce si romperanno, il blocco cadrà sotto il suo stesso peso e l’energia potenziale gravitazionale accumulata sarà liberata attraverso le onde sismiche del terremoto. I fluidi presenti saranno espulsi come quando si strizza una spugna e migreranno verso l’alto: ecco perché un evento sismico è accompagnato da una risalita delle falde e da un aumento della portata delle sorgenti. Dopo la scossa principale, il tetto della faglia deve raggiungere una nuova condizione di equilibrio e questo avviene mediante le scosse di assestamento. Nel caso di faglia inversa, invece, la transizione si configura come una fascia in sovrapressione . Le rocce accumulano energia elastica fino al punto di rottura, quando le forze di deformazione superano la resistenza delle rocce e il tetto della faglia viene scagliato verso l’alto, originando il terremoto (possiamo assimilare questo meccanismo ad una molla prima totalmente compressa e poi espansa). Generalmente i terremoti associati a faglie compressive sono più violenti perché occorre più energia per vincere le forze di compressione e perché in questo contesto geodinamico occorre vincere anche la forza di gravità.

Relazione tra tasso di deformazione e magnitudo dei terremoti.

Relazione tra tasso di deformazione e magnitudo dei terremoti.

In figura sono riportati i risultati di osservazioni effettuate sulla sismicità in Italia in un intervallo temporale che va dal 1° gennaio 2007 al 31 dicembre 2011.

In particolare, sono stati messi in relazione i terremoti di magnitudo superiore a 3 con i tassi di deformazione ottenuti in corrispondenza di ciascuno degli epicentri. Il dato più importante è rappresentato dal fatto che i terremoti di magnitudo superiore a 4 sono avvenuti tutti in aree in cui il tasso di deformazione è inferiore a 40 nanostrain per anno (1 nanostrain= 1 mm ogni 1000 chilometri). Cosa significa questo? Significa che le aree che si deformano più lentamente rispetto alle aree circostanti sono le aree crostali “bloccate” che stanno accumulando energia . Anche se l’intervallo di osservazione ha dei limiti temporali, il valore stabilito può essere preso in considerazione come un parametro utile ad individuare aree a sismicità significativa. Sulla mappa della velocità di deformazione si possono sovrapporre le faglie attive note. E’ interessante notare come il terremoto de L’Aquila (2009) e quello in Emilia (2012) siano avvenuti in aree a basso tasso di deformazione. Lo studio condotto si è basato sui dati forniti dalla rete GPS e su modelli numerici. In conclusione: questa nuova idea sui terremoti non serve a sapere con esattezza quando e dove si registrerà un sisma ma può indirizzare gli studi verso aree con maggiore “urgenza” sismica, in cui fare prevenzione attraverso l’adeguamento antisismico degli edifici non a norma e l’educazione al rischio sismico. Vorrei sottolineare ancora una volta come lo studio dei terremoti sia reso complicato dall’impossibilità di investigare il sottosuolo alle profondità di interesse e quella di riprodurre perfettamente in laboratorio le condizioni di stress a cui sono sottoposte le rocce in profondità. Di certo un approccio multidisciplinare può migliorare i metodi di previsione.

Ad ogni modo, diffidate da tutte le previsioni “ad capocchiam” di cui è piena la rete!!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Materia oscura intorno alla Terra?

7 Gen

Come sapete, e’ sempre interessante leggere le notizie nelle sezioni di scienze di alcuni giornali, si trovano sempre delle chicche di tutto rispetto. Negli ultimi giorni, sono apparsi tantissimi articoli che parlano di una nuova sensazionale scoperta. Un ricercatore dell’universita’ del Texas, tale Ben Harris, avrebbe condotto una serie di misure utilizzando i satelliti delle costellazioni gps di Galileo e Glonass.

Se volete maggiori info sul gps, su come funziona e della scienza che c’e’ sotto, abbiamo pubblicato un articolo anche su questo:

Il sistema di posizionamento Galileo

Tornando alla notizia principale, cosa si sarebbe scoperto da queste misure: utilizzando i dati inviati dai satelliti negli ultimi 6 mesi, si sarebbe evidenziata un’anomalia del valore della massa della Terra rispetto a quella comunemente conosciuta. L’entita’ di questa differenza e’ tra lo 0,005 e lo 0,008% del valore noto.

Come si spiega questa differenza?

Dal momento che il moto dei satelliti e’ determinato dall’attrazione gravitazionale che il nostro pianeta esercita, in realta’ che anche i satelliti esercitano sulla Terra, questa differenza deve essere dovuta ad un’anomalia gravitazionale. Una delle spiegazioni date da Harris e’ che sia presente un disco di materia oscura intorno al nostro pianeta, tale da influenzare l’attrazione gravitazionale.

Di materia oscura abbiamo parlato in questo articolo:

La materia oscura

Poiche’, secondo le ipotesi, questa forma non convenzionale di energia esercitrebbe attrazione gravitazionale, la sua presenza influenzerebbe il moto dei satelliti falsando appunto la massa della Terra rispetto al valore conosciuto. Per essere precisi, dalle misure condotte, questo anello, posizionato intorno all’equatore terrestre, avrebbe uno spessore di 191 Km e una larghezza di ben 70000 Km.

Piccola parentesi, oltre ai tanti giornali, anche i siti catastrofisti hanno riportato la notizia, ovviamente a modo loro e aggiungendo dettagli inutili quanto inventati. Non manca certo chi sostiene che l’anello sia stato messo li da scienziati compiacenti o da extraterrestri che stanno iniziando la fase di conquista del nostro pianeta. Non credo sia il caso di ragionare su queste osservazioni che lasciano davvero il tempo che trovano.

Detto questo, ragioniamo un attimo sulla notizia, cercando di fare qualche considerazione aggiuntiva.

Come avrete notato, ho riportato, al contrario di molti giornali, tutta la notizia al condizionale. Non e’ assolutamente una licenza di stile, ma l’ho fatto perche’ quanto riportato non e’ assolutamente certo.

Vi spiego il perche’.

Come trovate in rete, le misure in questione sono state presentate da Harris nel corso del meeting annuale dell’unione geofisica americana, anche detta AGU. Ovviamente si tratta di misure reali e scientifiche, che pero’ vanno considerate come “preliminari”.

Permettetemi una considerazione statistica. Come detto, la differenza rispetto alla massa conosciuta e’ tra lo 0,005 e lo 0,008%. Ora, tra 0,005 e 0,008, la differenza non e’ assolutamente poca. In realta’, l’ampiezza di questo intervallo ci fa capire la precisione delle misure fatte. Per essere precisi, i due valori sono ottenuti utilizzando una volta la costellazione Glonass e un’altra quella Galileo. Il fatto che due misure indipendenti diano valori cosi’ diversi, non e’ assolutamente un dettaglio trascurabile.

Detto questo, durante la stessa riunione, dopo la presentazione dei risultati da parte di Harris, e’ stato evidenziato come le misure siano in realta’ falsate perche’ mancanti di correzioni molto importanti. Quali? Nella modellizzazione del moto dei satelliti, non sono state incluse le attrazioni da parte del Sole e della Luna. Inoltre, mancano da includere le correzioni dovute alla relativita’, assolutamente necessarie, come potete leggere nell’articolo sul sistema Galileo, per ottenere risultati veritieri.

La mancanza di queste correzioni, che potrebbero modificare sostanzialmente il risultato preliminare, fa si che i dati ottenuti siano del tutto preliminari. In questo stato, e’ assolutamente fuorviante e frettoloso fare conclusioni come quelle riportate in precedenza del disco di materia oscura.

Perche’ si e’ fatto questo?

Esistono varie risposte possibili. La prima, un po’ cattiva, e’ che si e’ voluto presentare un lavoro incompleto solo per attirare un po’ di attenzione. L’altra possibilita’ e’ che si sia voluta mostrare questa differenza rispetto al valore della massa conosciuta solo per ricevere commenti utili con cui correggere il tiro. Entrambe le risposte sono possibili. Molto spesso alle conferenze si presentano risultati preliminari solo per valutare la risposta della comunita’ scientifica di riferimento. Ultimamente pero’, si puo’ avere una fuga di notizie che porta ad articoli, come quelli sui nostri giornali, che puntano ala scoperta del secolo.

Concludendo, i dati ottenuti mostrano ovviamente una differenza della massa della Terra rispetto a quella nota. Questa discrepanza potrebbe essere dovuta ad un errore di calcolo, a correzioni molto importanti non ancora conteggiate o, anche, alla presenza di materia oscura intorno alla Terra. Personalmente, credo sia presto per parlare di quest’ultima ipotesi. Questa storia, e lo dico a malincuore, mi ricorda molto quella della velocita’ dei neutrini misurata ad Opera, poi smentita con la testa tra le gambe.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Orologi atomici e precisione del tempo

25 Ago

Qualche giorno fa, le pagine scientifiche di molti giornali hanno ospitato una notizia che e’ passata un po’ in sordina ma che, a mio avviso, merita di essere commentata se non altro per le interessanti discussioni a corollario. La notizia in questione, che molto sicuramente avrete letto, parlava di una nuova serie di orologi atomici costruiti dai ricercatori del NIST, National Institute of Standards and Technology, e che sono in grado di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo.

Leggendo questa notizia, credo che le domande classiche che possono venire in mente siano: come funziona un orologio atomico? Come si definisce il secondo? Ma soprattutto, a cosa serve avere un orologio tanto preciso?

In realta’, rispondere a queste domande, non e’ cosa facile ma cercheremo di farlo sempre in modo divulgativo spiegando passo passo tutti i concetti richiamati.

Prima di tutto, cos’e’ il tempo? Come potete immaginare, in questo caso la risposta non e’ semplice, ma richiama tantissime discipline, non solo scientifiche, che da secoli si sono interrogate sulla migliore definizione di tempo. Tutti noi sappiamo che il tempo passa. Come ce ne accorgiamo? Proprio osservando il trascorrere del tempo, cioe’ degli avvenimenti che osserviamo intorno a noi. In tal senso, scientificamente, possiamo definire il tempo come quella dimensione nella quale si misura il trascorrere degli eventi. Questa definizione ci permette dunque di parlare di passato, presente e futuro, dividendo gli eventi in senso temporale. Ovviamente, non e’ l’unica definizione che potete dare di tempo e forse neanche la piu’ affascinante ma, sicuramente, e’ la piu’ pratica per l’utilizzo che se ne vuole fare nelle scienze.

salvador_dali

Detto questo, se parliamo di tempo come una dimensione, dobbiamo saper quantificare in qualche modo il suo scorrere. Detto in altri termini, abbiamo bisogno di un’unita’ di misura. Nel “Sistema Internazionale di unita’ di misura”, che e’ quello accettato in molti paesi e considerato la standard a cui riferirsi, l’unita’ di misura del tempo e’ il secondo.

Come viene definito un secondo?

Storicamente, la definizione di secondo e’ cambiata molte volte. Nella prima versione, il secondo era definito come 1/86400 del giorno solare medio. Questa definizione non e’ pero’ corretta a causa del lento e continuo, per noi impercettibile, allungamento delle giornate dovuto all’attrazione Terra-Luna e alle forze mareali, di cui abbiamo parlato in questo post:

Le forze di marea

Utilizzando pero’ questa definizione, non avremmo avuto a disposizione qualcosa di immutabile nel tempo. Per ovviare a questo problema, si decise dunque di riferire il secondo non piu’ in base alla rotazione della terra su se stessa, ma a quella intorno al Sole. Anche questo movimento pero’ e’ non uniforme, per cui fu necessario riferire il tutto ad un preciso anno. Per questo motivo, il secondo venne definito nel 1954 come: la frazione di 1/31 556 925,9747 dell’anno tropico per lo 0 gennaio 1900 alle ore 12 tempo effemeride. La durata della rotazione intorno al Sole era conosciuta da osservazioni molto precise. Qualche anno dopo, precisamente nel 1960, ci si rese conto che questa definizione presentava dei problemi. Se pensiamo il secondo come una frazione del giorno solare medio, chi ci assicura che il 1900 possa essere l’anno in cui il giorno aveva la durata media? Detto in altri termini, le definizioni date nei due casi possono differire tra loro di una quantita’ non facilmente quantificabile. Dovendo definire uno standard per la misura del tempo, conosciuto e replicabile da chiunque, abbiamo bisogno di un qualcosa che sia immutabile nel tempo e conosciuto con grande precisione.

Proprio queste considerazioni, portarono poi a prendere in esame le prorieta’ degli atomi. In particolare,  si penso’ di definire il secondo partendo dai tempi necessari alle transizioni atomiche che ovviamente, a parita’ di evento, sono sempre identiche tra loro. Proprio per questo motivo, il secondo venne definito come: la durata di 9 192 631 770 periodi della radiazione corrispondente alla transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello stato fondamentale dell’atomo di cesio-133. In questo modo si e’ ottenuta una definizione con tutte le proprieta’ che abbiamo visto.

A questo punto, la domanda e’: come misurare il tempo? Ovviamente, di sistemi di misurazione del tempo ne conosciamo moltissimi, sviluppati e modificati nel corso dei secoli e ognuno caratterizzato da una precisione piu’ o meno elevata. Cosa significa? Affinche’ un orologio sia preciso, e’ necessario che “non perda un colpo”, cioe’ che la durata del secondo misurata sia quanto piu’ vicina, al limite identica, a quella della definizione data. In caso contrario, ci ritroveremo un orologio che dopo un certo intervallo, giorni, mesi, anni, migliaia di anni, si trova avanti o indietro di un secondo rispetto allo standard. Ovviamente, piu’ e’ lungo il periodo in cui questo avviene, maggiore e’ la precisione dell’orologio.

Come tutti sanno, gli orologi piu’ precisi sono quelli atomici. Cosi’ come nella definizione di secondo, per la misura del tempo si utilizzano fenomeni microscopici ottenuti mediante “fontane di atomi”, eccitazioni laser, o semplici transizione tra livelli energetici. Al contrario, negli orologi al quarzo si utilizza la vibrazione, indotta elettricamente, degli atomi di quarzo per misurare il tempo. La bibliografia su questo argomento e’ molto vasta. Potete trovare orologi atomici costruiti nel corso degli anni sfruttando proprieta’ diverse e con precisioni sempre piu’ spinte. Negli ultimi anni. si e’ passati alla realizzazione di orologi atomici integrando anche fasci laser e raffreddando gli atomi a temperature sempre piu’ vicine allo zero assoluto.

Nel caso della notizia da cui siamo partiti, l’orologio atomico costruito sfrutta la transizione di atomi di itterbio raffreddati fino a 10 milionesimi di grado sopra lo zero assoluto indotta mediante fasci laser ad altissima concentrazione. Questo ha permesso di migliorare di ben 10 volte la precisione dell’orologio rispetto a quelli precedentemente costruiti.

A questo punto, non resta che rispondere all’ultima domanda che ci eravamo posti all’inizio: a cosa serve avere orologi cosi’ precisi? Molto spesso, leggndo in rete, sembrerebbe quasi che la costruzione dell’orologio piu’ preciso sia una sorta di gara tra laboratori di ricerca che si contendono, a suon di apparecchi che costano milioni, la palma della miglior precisione. In realta’ questo non e’ vero. Avere una misura sempre piu’ precisa di tempo, consente di ottenere risultati sempre piu’ affidabili in ambito diverso.

Per prima cosa, una misura precisa di tempo consente di poter sperimentare importanti caratteristiche della relativita’. Pensate, ad esempio, alla misura della distanza tra Terra e Luna. In questo caso, come visto in questo articolo:

Ecco perche’ Curiosity non trova gli alieni!

si spara un laser da Terra e si misura il tempo che questo impiega a tornare indietro. Maggiore e’ la precisione sulla misura del tempo impiegato, piu’ accurata sara’ la nostra distanza ottenuta. Molto spesso infatti, si suole misurare le distanze utilizzando tempi. Pensiamo, ad esempio, all’anno luce. Come viene definito? Come la distanza percorsa dalla luce in un anno. Tempi e distanze sono sempre correlati tra loro, condizione per cui una piu’ accurata misura di tempi  consente di ridurre l’incertezza in misure di distanza.

Anche quando abbiamo parlato del sistema GPS:

Il sistema di posizionamento Galileo

Abbiamo visto come il posizionamento viene fatto misurando le differenze temporali tra i satelliti della galassia GPS. Anche in questo caso, la sincronizzazione e’ fondamentale per avere precisioni maggiori nel posizionamento. Non pensate solo al navigatore che ormai quasi tutti abbiamo in macchina. Questi sistemi hanno notevole importanza in ambito civile, marittimo, militare. Tutti settori di fondamentale importanza per la nostra societa’.

Concludendo, abbiamo visto come viene definito oggi il secondo e quante modifiche sono state fatte nel corso degli anni cercando di avere una definizione che fosse immutabile nel tempo e riproducibile per tutti. Oggi, abbiamo a disposizione molti sistemi per la misura del tempo ma i piu’ precisi sono senza dubbio gli orologi atomici. Come visto, ottenere precisioni sempre piu’ spinte nella misura del tempo e’ di fondamentale importanza per tantissimi settori, molti dei quali anche strategici nella nostra soscieta’. Ad oggi, il miglior orologio atomico realizzato permette di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo, cioe’ circa 14 miliardi di anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Haarp chiude i battenti

19 Lug

Il titolo che avete letto e’ corretto, anzi, per dirla tutta, la chiusura di HAARP e’ gia’ avvenuta, precisamente nel maggio 2013. Come dichiarato dal governo americano e dalla Darpa, ad oggi il sito militare dell’Alaska per lo studio degli srati alti dell’atmosfera e della ionosfera e’ ufficialmente abbandonato.

Per chi sta pensando che questa scelta servira’, almeno, a fermare le tantissime teorie cospirazioniste degli ultimi anni si sbaglia di grosso. Anzi, la chiusura di HAARP non ha fatto altro che creare nuove teorie della cospirazione o alimentare voci e miti sulla sua chiusura.

Cerchiamo di andare con ordine. Per prima cosa, cosa dicono i catastrofisti della chiusura di HAARP?

Come potete immaginare, la prima reazione e’ stata: alla fine si sono accorti di aver creato un pericolo per la Terra intera. In alternativa, gli altri paesi sono riusciti ad imporre agli USA la chiusura della piu’ potente arma mai realizzata. C’e’ poi chi parla di sabotaggi, non si sa ad opera di chi, per fermare queste “pericolose attivita’ scientifiche”.

Ovviamente, come visto in questi articoli:

Haarp e terremoti indotti?

Haarp, la causa di tutti i mali!

Tutte queste teorie circa la pericolosita’ dell’installazione ma, soprattutto, circa l’utilizzo delle antenne per uno scopo diverso da quello dichiarato, erano del tutto assurde. Non ci sono prove scientifiche a sostegno di queste ipotesi e, soprattutto, le basi scientifiche su cui si fondano, vedete ad esempio il caso de Aquino negli articoli precedenti, sono addirittura piu’ scarse di quelle di un film fantascientifico di basso livello.

Vista la notizia, non possono certo mancare quei siti che affermano che in realta’ HAARP e’ ancora in funzione e questa e’ solo una notizia per depistare e far crollare l’attenzione sull’installazione.

Altri ancora, sono invece pronti a mostrare dossier, che ovviamente non vengono mai pubblicati ma solo citati, in cui si dimostrerebbe che ormai gli USA sono, grazie alle ricerche fatte in Alaska, in grado di provocare terremoti, cambiare il clima, creare uragani, ecc.

Lasciando da parte queste idiozie, che ho riportato per dovere di cronaca e per mostrare la situazione attuale in rete, cerchiamo di capire perche’ HAARP e’ stato chiuso.

Il motivo reale della chiusura e’ in realta’ il piu’ vecchio del mondo, la mancanza di fondi. Avete capito bene, gli USA hanno deciso di non finanziare piu’ l’esperimento e di interrompere da un giorno all’altro tutte le attivita’.

Anche sull’aspetto fiscale, su molti siti si dimostra l’assurdita’ di questa affermazione mostrando la divisione del budget HAARP per il 2014. Trovate la relazione a questa pagina:

Darpa FY2014

Visto il numero di pagine della relazione, conviene cercare direttamente Haarp e trovare il finanziamento per il 2014.

Come e’ possibile questo? Se ci sono soldi allocati per l’impianto nel 2014, come e’ possibile che sia chiuso?

La situazione e’ la seguente: quelle che vedete nel budget plan sono le spese ordinarie di funzionamento dell’impianto. Purtroppo, a causa di nuove leggi internazionali e alla rottura di alcune componenti, la richiesta economica per mantenere in vita il progetto era molto maggiore di quella allocata. A fronte di questa situazione, il governo degli Stati Uniti ha deciso di congelare il progetto. Cosa significa “congelare”? Semplice, tutte le attivita’ sono ferme a meno che non escano fuori finanziatori pronti ad investire soldi nel progetto. Detto in altri termini, e’ tutto fermo fino a quando non si trova qualcuno pronto a pagare.

Vi sorprende la cosa?

In diversi post, abbiamo parlato dei numerosi tagli fatti dal governo USA per la ricerca scientifica. Purtroppo, questo e’ un periodo di profonda crisi economica, per cui si pesano tutti i soldi da destinare alle attivita’. In passato, avevamo parlato anche dei problemi finanziari della NASA che ha ricevuto per il 2014 i soldi solo per mantenere le attivita’ gia’ in essere, senza poterne sviluppare di nuove da zero.

Personalmente, il discorso economico non mi sorprende per niente. Ricordo benissimo quando nel 2005, il dipartimento di Energia decise di interrompere, da un giorno all’altro, i finanziamenti per BTeV, un esperimento di fisica delle alte energie per lo studio della violazione di CP dai mesoni B. Come visto in questo articolo:

E parliamo di questo Big Bang

la violazione di CP e’ una delle condizioni ipotizzate per la scomparsa dell’antimateria dall’universo. Comprendere in dettaglio queste proprieta’ puo’ farci capire molto bene l’origine stessa del nostro universo. Cosa accadde per BTeV? Come detto, nel giro di due giorni, tutti i finanziamenti al progetto vennero tolti, con la solita dicitura “se si trova qualcuno che paga, allora continuate”. Nel caso di BTeV, parlavamo di una collaborazione di 170 scienziati di tutto il mondo. Anche l’Istituto Italiano di Fisica Nucleare era coinvolta nell’esperimento con finanziamenti gia’ spesi per l’acquisto e lo sviluppo di rivelatori. Nonostante questo, l’esperimento venne chiuso anche se, come nel caso di HAARP, i soldi per l’anno in corso e quello successivo erano gia’ indicati nelle relazioni del governo.

Data la storia di BTeV, capite duque perche’ non mi sorprende affatto la chiusura di HAARP.

Come indicato nel commento fatto nei suggerimenti:

Hai domande o dubbi?

HAARP aveva gia’ fatto importanti ricerche nel suo settore e altrettante misure erano ancora in corso.

Detto questo, torniamo un attimo ai complottisti. Oltre alle storielle viste, pensate che la chiusura di HAARP abbia messo la parola fine su queste ipotesi?

Anche in questo caso, la risposta e’ no!

In rete, comincia a girare una mappa molto interessante, che vi voglio mostrare:

Mappa delle installazioni HAARP nel mondo

Mappa delle installazioni HAARP nel mondo

Di cosa si tratta?

Quella che vedete e’ la mappa delle installazioni HAARP nel mondo. Cosa? Fino a ieri parlavamo solo dell’Alaska, ora escono fuori tutte queste installazioni?

Vi dico subito che non si tratta di un falso. I punti indicati rappresentano proprio delle installazioni che possiamo definire simil-HAARP, cioe’ formate da antenne che emettono a determinate potenze in qualche spettro elettromagnetico.

Queste installazioni, servono in realta’ per compiti anche diversi da quelli di HAARP. Alcune sono pensate per lo studio della magnetosfera, altre per la ionosfera ma a frequenze diverse, altre ancora studiano l’interazione del vento solare con le particelle che circondano la Terra. Insomma, anche in questo caso, analisi molto importanti e, in alcuni casi, diverse da quelle di HAARP.

Perche’ escono fuori solo ora queste installazioni?

La domanda e’ mal posta, nel senso che solo i complottisti si sono accorti oggi di queste installazioni. Come nel caso di HAARP, si tratta di laboratori conosciuti agli addetti ai lavori, che hanno un sito internet e su cui trovate una voce anche su Wikipedia. Pensate che anche solo leggendo la pagina relativa ad HAARP, sia sul sito italiano che inglese, trovate un paragrafetto con tutte le installazioni simili ad HAARP nel mondo, con tanto di collegamento a pagine di wikipedia.

Dunque, anche in questo caso non c’e’ nulla di segreto.

Detto questo, la spiegazione sul perche’ la notizia trapeli solo ora e’ semplice. Molti siti che parlano di scie chimiche, complotti, cospirazioni, ecc, hanno creato un notevole giro d’affari grazie ad HAARP. La chiusura dell’attivita’ poteva mettere a rischio interessi personali. Detto questo, si e’ subito trovata la soluzione alternativa al problema, “scoprendo” che esistono altre installazioni. Come potete leggere anche da Wikipedia:

HAARP, wikipedia ITA

che proprio all’inizio riporta alcune installazione nel mondo simili ad HAARP, in molti casi le potenze in gioco sono molto minori di quelle dell’Alaska, oppure a frequenze completamente diverse.

Concludendo, HAARP e’ stato realmente chiuso dal governo degli Stati Uniti. Al contrario di quanto potete leggere in rete, il motivo e’ di natura economica e questo ha portato ad un congelamento di tutto il laboratorio. Come visto, casi di questo tipo non sono affatto straordinari negli USA dove, tra l’altro, la crisi economica ha portato ad un sostanziale taglio della spesa per la ricerca. Purtroppo, la chiusura dell’attivita’ invece di fermare le ipotesi di complotto ne ha create di nuove. Oltre a queste, ora si puntera’ il dito contro le altre installazioni minori sparse per il mondo, solo per mantenere alta l’attenzione sulle tante teorie che sono state sviluppate da zero negli ultimi anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Se arrivasse il “Big One”?

7 Giu

In quella che ormai e’ divenuta un laboratorio di creativita’, a mio avviso molto ben riuscito, cioe’ la sezione:

Hai domande o dubbi?

e’ stato lasciato un commento molto interessante e che ben si sposa anche con le tematiche trattate in questi giorni, sia negli articoli che nei commenti. La richiesta riguarda direttamente il cosiddetto Big One, cioe’ il grande terremoto che dovrebbe avvenire in California e che, secondo molte fonti, sarebbe atteso nel giro di poco tempo.

Di terremoti ne abbiamo parlato in tantissimi articoli e, come visto, questi fenomeni sono da sempre molto seguiti dai tanti catastrofisti che popolano la rete, soprattutto in relazione alle cause che determinerebbero un aumento del loro numero. Come ormai sapete bene, l’idea di fondo, nata a partire dal 21 Dicembre 2012, vorrebbe l’aumento dei terremoti dovuto all’avvicinamento di Nibiru al pianeta Terra. Secondo queste ipotesi, la variazione dell’equilibrio gravitazionale apportato da questo nuovo corpo, provocherebbe il fenomeno delle “maree solide”, cioe’ sarebbe in grado di modificare gli equilibri delle faglie e generare dunque terremoti di notevole intensita’. Cercando sul blog, potete trovare molti articoli che parlano, ma soprattutto rigettano, queste ipotesi, semplicemente mostrando l’impossibiita’ in termini fisici di variazioni di questo tipo:

Allineamento con le Pleiadi

Allineamenti, Terrremoti e … Bendandi

Allineamenti e Terremoti

3 Gennaio 2013 …

Ora, nonostante questo, la zona della California e’ da sempre molto attiva dal punto di vista sismico, e da diversi anni si parla di quello che gli americani definiscono il Big One, cioe’ “quello grosso”, intendendo il terremoto piu’ internso mai registrato, in grado praticamente di demolire tuto lo stato.

Faglia di Sant'Andrea in California

Faglia di Sant’Andrea in California

Come noto, le cause della notevole attivita’ della California possono essere ricercate nella Faglia di Sant’Andrea, che si trova tra la placca Nord Americana e quella Pacifica, attraversando per circa 1300 Km la regione. Questa faglia ha dato luogo a diversi fenomeni sismici nel corso dei secoli, grazie anche alle ottime proprieta’ di accumulare energia elastica. Come noto, quando questa energia supera, ad esempio, la fratturazione degli strati rocciosi, si generano i terremoti.

Dal punto di vista morfologico, l’arrivo del Big One, con un sisma superiore a M8 della scala Richter, e’ atteso nella zona meridionale della California, dal momento che questa e’ quella in cui da maggior tempo non si verificano eventi sismici di notevole intensita’.

Quando dovrebbe avvenire questo Big One?

Sulla rete trovate tantissime ipotesi. Vi invito pero’ a fare una riflessione: come detto innumerevoli volte, allo stato attuale della nostra conoscenza, non siamo in grado di prevedere i terremoti. Di questi argomenti abbiamo parlato tante volte e, come visto, la ricerca dei precursori sismici, cioe’ di quegli eventi che potrebbero precedere l’avvento di un sisma, e’ un filone molto attivo e sicuramente rilevante per la nostra societa’. Purtroppo, al giorno d’oggi, non siamo ancora stati in grado di definire un precursore certo, cioe’ la cui manifestazione indichi certamente un sisma in arrivo.

Premesso questo, si possono leggere tante previsioni sul Big One, alcune piu’ precise, altre un po’ meno. In generale, la piu’ quotata e’ che il terremoto dovrebbe avvenire nei prossimi 20 anni. Si parlava di 30 anni nel 2005.

Come vengono fatte queste previsioni?

Ovviamente, una buona parte delle informazioni viene dalle osservazioni scientifiche della Faglia di Sant’Andrea. Misure interessanti vengono fatte misurando i movimenti della crosta terrestre mediante osservazioni satellitari. Come anticipato, queste osservazioni possono fornire una stima della quantita’ di energia accumulata nella Faglia e dunque far intendere l’inizio di una fase piu’ critica. Oltre a questa osservazione, c’e’ ovviamente un intenso sistema di monitoraggio delal zona che serve per raccogliere moltissimi dati in continuo, utili per determinare variazioni repentine di parametri fisici e geologici, anche questi utili per capire modificazioni intense del sottosuolo.

Altre previsioni vengono invece fatte utilizzando la statistica. Di questo ambito, abbiamo parlato in diverse occasioni. Anche se parlo da appassionato di statistica, si deve capire che queste previsioni lasciano il tempo che trovano, essendo basate solo sulla storicita’ degli eventi. Come visto in questi articoli:

Prossimi terremoti secondo la statistica

Analisi statistica dei terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Terremoti: nuove analisi statistiche

utilizzando i dati raccolti, e’ possibile studiare una ciclicita’ degli eventi e determinare una certa probabilita’ di avere un terremoto in un periodo futuro. Purtroppo, molto spesso, queste informazioni vengono interpretate in malo modo da chi la statistica non la conosce affatto. Esempio di questo tipo e’ l’articolo:

Non ne bastava uno ….

Anche per il Big One, trovate fonti che parlano di probabilita’ praticamente del 100% che il terremoto avvenga, ad esempio, tra il 2015 e il 2020. Come deve essere interpretato il dato? La chiave giusta per leggere queste informazioni e’ quella di trattarle un po’ come i numeri ritardatari del lotto. Mi spiego meglio. Se entrate in una ricevitoria, trovate molti cartelli con i “numeri ritardatari”, cioe’ quei numeri che da molte estrazioni non vengono pescati in un determinata ruota. Se un numero manca da tanto tempo, deve uscire necessariamente? Assolutamente no, pero’, se ci fidiamo che i numeri abbiano tutti la stessa probabilita’ di venire pescati, allora statisticamente devono uscire tutti. Dunque, un numero ritardatario prima o poi deve uscire. Questo prima o poi, e’ la chiave dell’interpretazione. Prima o poi, non significa domani, cosi’ come non significa che un “terremoto ritardatario” rispetto alla norma debba necessariamente avvenire. Se volete, il discorso sismi e’ molto piu’ complesso del gioco del lotto, anche perche’ non parliamo di eventi casuali, ma determinati da movimenti del nostro pianeta.

Detto questo, capite dunque come vanno interpretati questi numeri, utilissimi per fare studi e, ad esempio, dimostrare che non c’e’ nessun aumento di terremoti negli ultimi anni, ma assolutamente da prendere con le pinze quando parliamo di previsioni future.

In ambito prevenzione, ci sono anche molte osservazioni interessanti che vengono fatte per capire se e’ possibile arginare i movimenti della Faglia e dunque limitare i danni dei futuri terremoti. In tale ambito, sono stati riportati dati molto interessanti ottenuti direttamente dall’osservazione in profondita’ della faglia. Come osservato, lunga la frattura si trova la citta’ di Parkfield in cui pero’, storicamente, non avvengono terremoti di forte intensita’, anche se questa si trova lungo la stessa “linea di fuoco” di citta’ bersagliate dai sismi. Le osservazioni fatte hanno permesso di individuare una zona della frattura in cui sono presenti materiali diversi ed in grado di limitare l’attrito tra le placche in scorrimento. Cosa significa? Se, per qualche motivo, diminuisce l’attrito tra le due zone che scorrono tra loro, ovviamente si limita l’accumulo di energia elastica e, dunque, detto in parole semplici, il caricamento del terremoto. Le osservazione fatte hanno mostrato la presenza, tra le altre cose, di silicati gelatinosi e acqua, in grado di ridurre gli attriti. Molti studi sono in corso proprio per cercare di capire la possibilita’ di limitare la potenza dei terremoti andando ad agire direttamente nella zona dove questi si generano. Ovviamente si tratta di studi scientifici, ma che vanno sicuramente sostenuti vista l’utilita’ che potrebbero avere. Magari, un giorno, potremo risolvere il problema terremoti “oliando” i cigolii della Terra.

Concludendo, la zona della California e’ da sempre una delle piu’ attive dal punto di vista dei sismi. Per Big One si intende il piu’ grande terremoto atteso, in grado di distruggere l’intera regione. Purtroppo, questo terremoto potrebbe avvenire e c’e’ la possibilita’, come evidenziato da molti studi, che questo possa avvenire da un momento all’altro nei prossimi 20 anni. La ricerca e’ sempre al lavoro per cercare di trovare precursori sismici e, come visto, anche possibili soluzioni in grado di limitare la potenza dei terremoti agendo direttamente sulla faglia. Speriamo solo che soluzioni percorribili arrivino magari prima dell’atteso Big One.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E portiamo lo smartphone anche nello spazio!

10 Mag

Come spesso si dice: la necessita’ stimola l’ingegno. Forse proprio questo sta capitando in un periodo di crisi in cui molti settori della ricerca stano soffrendo a causa dei ripetuti tagli dei governi.

Come sappaimo bene, e come discusso in questi post:

I lanci Spaziali del Futuro

Dove andiamo in vacanza? Nello spazio!

Dal turismo al traferimento nello spazio

Londra-New York in un’ora?

una delle agenzie che piu’ soffre a cuasa del diminuito budget e’ proprio la NASA. Nei post precedenti, abbiamo in particolare visto come, dopo la chiusura del programma Shuttle, l’ente americano versi in gravi difficolta’ perche’ per la prima volta nella sua storia si ritrova senza un mezzo proprietario per andare nello spazio e con dei finanziamenti che difficilmente le consentiranno di sviluppare un nuovo programma in tempi rapidi.

In questa ottica, molto lavoro si sta facendo grazie a compagnie private, interessate in primis ad un programma di turismo spaziale che potrebbe fruttare molti soldi, ma che grazie alla loro diponibilita’ finanziaria stanno dando importanti contributi anche nella ricerca della miglior soluzione per andare in orbita.

Dunque, se il trend continuera’ ad essere questo, e’ meglio pensare subito a soluzioni alternative anche per le alre missioni spaziali, in modo da trovare il miglior rapporto qualita’/prezzo per tutto.

Pensiamoci un attimo, tolto il discorso lanci di cui abbiamo parlato, qual e’ l’altra attivita’ spaziale che impiega grossi finanziamenti? Sicuramente quella legata alle missioni in orbita, cioe’ su satellite.

Bene, questo e’ il punto. Se possibile, si deve risparmiare sui satelliti ma ovviamente senza perdere funzioni necessarie al corretto svolgimento della missione o della ricerca. Questo discorso, affrontato anche dai vertici della stessa NASA, e’ molto importante per fare in modo che tutte le linee scientifiche dell’agenzia siano mantenute, senza perdere terreno in nessun campo.

Ora, cambiamo apparentemente discorso: qual e’ lo strumento tecnologico che tutti abbiamo? Sicuramente il telefono cellulare. Ormai, una grossa percentuale dei nostri telefoni sono dei cosiddetti “smartphone”.

Cosa e’ in grado di fare uno smartphone? Indipendentemente dal modello, ormai tutti hanno una fotocamera con piu’ o meno risoluzione, collegamenti internet, bluetooth, gps, registratore di suoni e immagini, ecc.

Bene, ora uniamo i due discorsi fatti. Stiamo cercando satelliti low cost da utilizzare in orbita, la tecnologia degli smartphone e’ evoluta e ormai a buon mercato.

Perche’ non mettere insieme queste due cose?

Il satellite PhoneSat

Il satellite PhoneSat

A questo ci ha gia’ pensato la NASA che infatti ha iniziato il programma “Small Spaceraft Technology”. Proprio nell’ambito di questi studi, e’ nato il programma PhoneSat che prevede l’utiizzo di sistemi basati sulla tecnologia dei cellulari per studiare satelliti a basso costo, basso peso e alte prestazioni. Ovviamente, non dovete pensare che i ricercatori hanno preso dei modelli di telefonino e li hanno mandati in orbita, ma la tecnologia utilizzata per realizzare questi prototipi sfrutta esattamente l’elettronica dei nostri smartphone.

Lo scorso 21 aprile, con il lancio dell’ultimo razzo Antares, e’ stato portato in orbita un piccolo satellite, dal peso inferiore a 10 Kg, dotato proprio di 3 telefonini-equivalenti, chiamati Alexander, Graham e Bell. Questa piccola scatola cubica e’ stata messa in orbita e ha raccolto dati fino al 27 aprile quando poi e’ ricaduta incendiandosi a contatto con l’atmosfera.

Se pensate che stia scherzando, ecco il link della pagina NASA relativa la programma Small Spacecraft Technology:

NASA, SST

Sempre nell’ottica del risparmio, il programma PhoneSat ha utilizzato un’analisi dei dati davvero molto carina. Invece di raccogliere i dati a terra e analizzarli in un centro di calcolo specifico, i dati sono stati resi pubblici per gli utenti che quindi hanno potuto analizzare indipendentemente le informazioni inviate dai telefoni in orbita, mettendo poi in condivisione con gli altri i loro risultati. Si e’ dunque trattato di un bellissimo esempio di “citizens science”, in cui tutti potevano partecipare e condividere informazioni con gli altri.

Attraverso le immagini inviate dalle fotocamere, e’ stato possibile ricostruire una mappa completa della Terra, come mostra questo esempio:

Immagini a bassa risoluzione di PhoneSat. Media e alta risoluzione in acquisizione

Immagini a bassa risoluzione di PhoneSat. Media e alta risoluzione in acquisizione

ottenuta incollando tra loro le diverse foto scattate. Ovviamente, in questo caso l’informazione della posizione misurata attraverso il GPS e’ fondamentale.

Ecco il sito ufficiale di PhoneSat, in cui trovate oltre alle immagini anche la descrizione del programma e le modalita’ di condivisione dei dati raccolti:

PhoneSat

Qualora fosse interessati, anche se il satellite e’ andato perso, potete ancora iscrivervi al programma per avere libero accesso ai dati raccolti.

Solo per completezza, una domanda lecita che ci si potrebbe fare e’: come sono stati inviati i dati? Come detto, siamo partiti dall’elettronica ormai di consumo degli smartphone. Per poter inviare i dati a terra pero’, i sistemi sono stati costruiti per utilizzare la banda 437.425 MHz che e’ quella maggiormente utilizzata dai radioamatori. In questo modo, e’ possibile far arrivare le informazioni dagli smartphone fino alla stazione di terra dove poi vengono condivisi tra tutti gli utenti.

Concludendo, i risultati di questo studio sono senza dubbio incoraggianti. Sfruttare soluzioni low cost nella costruzione dei satelliti sicuramente consentirebbe di risparmiare molti fondi e deviarli da queste attivita’, ormai di servizio, verso tematiche piu’ complesse in cui e’ richiesto un maggior afflusso di finanziamenti. PhoneSat continua dunque il suo lavoro, e il programma a breve termine prevede il lancio di altri sistemi migliorati al fine di ottenere dati sempre piu’ precisi e che, nel giro di poco tempo, potrebbero sostituire del tutto i vecchi sistemi satellitari molto piu’ costosi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il sistema di posizionamento Galileo

21 Mar

Notizia fresca di questi giorni, che forse avrete letto anche sui  giornali, e’ stato lanciato il quarto satellite del sistema di navigazione e localizzazione Galileo. L’insieme dei quattro satelliti ha dato ufficialmente il via alla ricezione di questo sistema di localizzazione europeo.

Il principio di funzionamento, cosi’ potete leggere, e’ come quello del GPS americano, ma in questo caso si tratta di un sistema tutto europeo. Al momento sono in orbita 4 dei 30 satelliti previsiti che formerano la costellazione appunto del sistema Galileo.

Bello direte voi, ma questa notizia dovrebbe suscitare un po’ di curiosita’ e soprattutto una serie di domande lecite che vorrei condividere con voi: come funziona il GPS? Perche’ se c’era quello americano ne dobbiamo fare uno europeo? Che vantaggi comporta?

Tutte domande lecite a cui proveremo a dare una risposta semplice e accessibile a tutti.

Al solito, provate a fare un esperimento-intervista. Chiedete, anzi chiedetevi, come funziona il GPS che avete in macchina, sul cellulare, sul portatile, ecc. Molto spesso la risposta data e’ la seguente: semplice, si accende un antenna, questa comunica con un satellite che ci localizza e il gioco e’ fatto, otteniamo un puntino su una mappa che indica la nostra posizione “esatta”. Una risposta del genere e’ completamente sbagliata in diversi punti. Se questa e’ stata la vostra risposta, forse e’ il caso di continuare la lettura.

Partiamo dall’inizio. Abbiamo il problema di localizzare la nostra posizione in un punto qualsiasi della Terra. Come facciamo? Semplice, utilizziamo dei satelliti. Se non altro, l’utilizzo di satelliti ci permette, in linea di principio, di essere sempre localizzabili indipendentemente dalla posizione. In Europa, in Asia, nell’oceano, se alzate la testa vedete il cielo e quindi potenzialmente il satellite.

Satelliti visibili dal ricevitore nel tempo

Satelliti visibili dal ricevitore nel tempo

In realta’, non e’ proprio esattamente cosi’. Un solo satellite che gira intorno alla Terra non sarebbe sempre visibile. Per dirla tutta, un solo satellite non consentirebbe neanche di localizzarci, ma ne servono ben quattro visibili da dove siamo. Su questo torneremo tra poco. Dunque, un solo satellite non basta ne servono 4. Per questo motivo, la costellazione di satelliti GPS e’ formata da un numero grande di oggetti in orbita in modo da poter garantire sempre ed in ogni punto la visibilita’ di almeno 4 satelliti. L’immagine riportata permette di chiarire molto bene questo concetto. Come vedete, mentre i satelliti girano intorno alla Terra, viene riportato in ogni istante il numero di satelliti visibili. Affinche’ la vostra rete sia funzionale, questo numero non deve mai essere minore di quattro.

Fin qui ci siamo. Abbiamo bisogno di 4 satelliti. Non abbiamo ancora risposto alle domande iniziali, anzi ne abbiamo aggiunta un’altra: perche’ 4 satelliti?

Cerchiamo ora di capire come funziona il GPS. In realta’, l’antenna del vostro sistema non comunica affatto con i satelliti, ma e’ solo un “ricevitore” di segnali. In ogni istante, i satelliti inviano verso la terra dei segnali che l’antenna e’ in grado di ricevere. Questi segnali sono di tipo orario, cioe’ contengono l’informazione sull’ora del loro invio. Il metodo di localizzazione si basa appunto sulla differenza di tempo tra l’invio del segnale da parte del satellite e la sua ricezione dall’antenna. Conoscendo la velocita’di propagazione del segnale, dalla differenza di tempo possiamo ricavare la distanza del ricevitore dal satellite.

Ora, dovendo posizionare un punto sulla mappa corrispondente al ricevitore, avete bisogno di 3 informazioni: latitudine, longitudine e altitudine. Avete cioe’ 3 incognite da calcolare. Come ricorderete dalla matematica, per risolvere un sistema di 3 incognite c’e’ bisogno di 3 equazioni indipendenti. 3 equazioni significa dunque avere l’informazione contemporaneamente da 3 satelliti. Proprio per questo motivo si parla di “triangolazione” della posizione.

Ricapitoliamo: 3 incognite per la posizione esatta, 3 equazioni che sono i 3 satelliti, e fin qui ci siamo. Perche’ prima parlavamo di 4 satelliti?

Abbiamo detto che tutto il gioco si basa sulla misura del tempo impiegato dal segnale per andare dal satellite al ricevitore. Detto proprio semplicemente, il satellite manda un segnale dicendo sono le 12.00 il ricevitore ascolta il segnale, vede che sono le 12.01 e quindi capisce che e’ passato un minuto (in realta’ la differenza temporale e’ tipicamente dell’ordine dei millisecondi). Facile a dirsi ma non a farsi. Affinche’ questo gioco funzioni, i satelliti ed il ricevitore devono essere perfettamente sincronizzati.

I satelliti del GPS utilizzano degli orologi atomici al Cesio o al Rubidio, estremamente precisi, ma che costano piu’ o meno 200000 euro l’uno. Il nostro piccolo e economico ricevitore certamente non dispone di un sistema del genere. Dunque, per localizzare il punto non servono piu’ 3 incognite bensi’ 4, compreso il tempo. Il quarto satellite serve appunto per determinare anche l’informazione temporale.

images

Solo per completezza di informazione, la localizzazione GPS sarebbe impossibile senza le dovute correzioni date dalla relativita’ di Einstein. Il tempo sul satellite scorre ad un ritmo leggermente piu’ veloce rispetto alla Terra (dilatazione dei tempi). Se questo effetto non fosse incluso, le misure dei tempi di percorrenza sarebbero sistematicamente sbagliate. La funzionalita’ del GPS e’, se vogliamo, anche una conferma pratica dell’esistenza della relativita’.

Dunque, abbiamo capito come avviene la localizzazione. Torniamo ora al discorso satelliti. In ogni istante ed in ogni punto della Terra devo dunque poter vedere almeno 4 satelliti. Quello che oggi chiamiamo GPS sfrutta, come detto all’inizio, la costellazione di satelliti americani chiamata NAVSTAR GPS costituita in tutto da 31 satelliti. Questi sono disposti su sei piani orbitali con un’inclinazione di 55 gradi sul piano equatoriale. Maggiore e’ il numero di satelliti utilizzati simultaneamente, minore e’ l’incertezza con cui si possono ricavare le incognite, e dunque la posizione del ricevitore.

La precisione attuale del NAVSTAR e’ dell’ordine di qualche metro. Fino a prima del 2000, la qualita’ del sistema per uso civile era dell’ordine dei 200 metri a causa dela distorsione fatta appositamente sui segnali per uso civile, mentre per gli usi militari veniva data qualita’ massima. Questa distinzione, detta anche “disponibilita’ selettiva” e’ stata eliminata su volere del presidente Clinton e, di fatto, ha aperto la strada ai sistemi GPS portatili per scopi civili.

Abbiamo risposto gia’ a 2 domande su 3. Sappiamo ora come avviene la localizzazione e perche’ servono 4 satelliti. Torniamo ora a Galileo.

Galileo prevede una costellazione di 30 satelliti che diverra’ pienamente operativa a partire dal 2014. Ad oggi, e sappiamo ora anche il perche’, sono stati lanciati 4 satelliti e dunque e’ possibile fare i primi studi sui segnali e cominciare a testare la qualita’ del sistema.

Perche’ fare un nuovo sistema se c’e’ gia’ quello americano? In realta’, in orbita ci sono due sistemi di navigazioni indipendenti, il NAVSTAR americano e il GLONASS russo, quest’ultimo pero’ scarsamente manutenuto negli ultimi tempi. La motivazione del Galileo e’ piu’ politica che scientifica. Il NAVSTAR e il GLONASS per uso civile sono sempre subordinati all’effettivo utilizzo militare dei due paesi. In qualsiasi momento, uno dei due paesi potrebbe decidere di chiudere il servizio civile per un qualsiasi motivo. Non pensate soltanto al navigatore della vostra automobile, il GPS e’ utilizzato in tutti i sistemi di navigazione civili come aerei, navi, antifurti satellitari, ecc. Una, seppur improbabile (forse), decisione del genere causerebbe un danno irreparabile. La necessita’ dunque di interrompere un monopolio di localizzazione ha spinto i paesi europei ha dotarsi di un proprio sistema satellitare.

Inoltre, a differenza di quello made in USA, il Galileo gode dei finanziamenti di diversi paesi attraverso la comunita’ europea e non solo. Diversi paesi extraeuropei, come Israele, Cina e Russia (come integrazione del GLONASS), stanno contribuendo a Galileo appunto per assicurare un servizio civile costante.

Solo per completezza, esistono anche dei sistemi minori di tipo regionale attualmente in fase di studio. Sia l’India che la Cina stanno infatti portando avanti gli studi per dotarsi di sistemi proprietari esclusivi non globali. In questo caso, ma si tratta di una mia considerazione personale, programmi di questo tipo servono soltanto per prendere confidenza e dimostrare agli altri la possibilita’ di accedere allo spazio mediante satelliti. Come sappiamo, si tratta di economie definite “emergenti”, anche se ormai emerse del tutto, e proprio per questo interessate alla corsa allo spazio su tutti i fronti.

Concludendo, i primi 4 satelliti di Galileo sono in orbita. Nel giro di qualche anno la costellazione di satelliti dovrebbe essere completata e funzionante. Questo sistema, parallelo al NAVSTAR, consentira’ la localizzazione sulla Terra garantendo la funzionalita’ civile sempre e indipendentemente dalla situazione politica. Dal punto di vista economico, ci saranno vantaggi anche per le aziende europee che potranno produrre e commercializzare ricevitori per Galileo mentre prima con il NAVSTAR questo settore era riservato ad aziende americane.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

UFO esplode a Sacramento

8 Gen

Alla questione avvistamenti UFO abbiamo dedicato qualche post in passato:

Lens Flare e avvistamenti UFO

Palla di fuoco nei cieli del Sud Italia

Misteriose sfere di luce

Curiosity e gli UFO

Curiosity e gli UFO: dopo le foto, il video

Come sapete, tolti i video spudoratamente falsi che ogni giorno vengono caricati su youtube, a volte e’ interessante commentare queste testimonianze dal momento che ci permettono di esplorare concetti scientifici poco conosciuti.

Proprio per questo motivo, ha attirato la mia attenzione un video di pochi giorni fa, ripreso a Sacramento in California, in cui si vede un presunto UFO nell’alta atmosfera che improvvisamente esplode. Il video in questione sarebbe stato ripreso con un telescopio da un giovane astrofilo americano.

Attenzione, sicuramente il fatto che il testimone sia un astrofilo potrebbe essere un sigillo di garanzia. Un appassionato di stelle dovrebbe conoscere, piu’ o meno, gli oggetti che puo’ osservare in cielo e dunque escludere cose note che potrebbero trarre in inganno non esperti del settore.

Premesso questo, vi riporto il video:

La immagini iniziali sono riprese addirittura da un network americano e inizialmente viene anche intervistato l’astrofilo che per primo ha osservato l’oggetto. Il presunto UFO sarebbe formato da un oggetto centrale e da un altro puntino, molto piu’ piccolo, che, a detta anche dell’astrofilo, sembrerebbe ruotare intorno al corpo centrale. Improvvisamente, come si vede dalla immagini, l’oggetto centrale esplode.

Di cosa si tratta? E’ possibile che si tratti realmente di un UFO?

Ovviamente, ma questo gia’ lo sapevate, la risposta e’ NO.

Cerchiamo di capire il perche’.

Con ottima probabilita’, il corpo centrale che si vede nelle immagini e’ un pallone sonda. Di cosa si tratta? Un pallone sonda e’ uno speciale pallone aerostatico di dimensioni ridotte, che viene utilizzato per portare della strumentazione in quota con lo scopo di fornire dati utili. Una delle applicazioni principali di questi oggetti e’ per misure meteorologiche, permettendo infatti di misurare i parametri atmosferici direttamente in quota. L’elettronica con cui vengono equipaggiati e’ ovviamente corredata di un GPS per seguirne gli spostamenti e di un sistema di trasmissione dei dati,  in genere via sms o via onde radio.

Non ci credete? Su youtube, ma questo ovviamente i tanti siti che ne parlano non ve lo dicono, e’ stato caricato solo pochi giorni dopo, un altro video che mostra l’esplosione di un pallone sonda e viene fatto il confronto diretto proprio con il caso di Sacramento. Ecco il video, giudicate voi:

Cosa ne pensate? Dal mio punto di vista, le due esplosioni sono completamente paragonabili.

Schema di massima di un pallone sonda

Schema di massima di un pallone sonda

Non contenti, cerchiamo di capire meglio come funziona un pallone sonda per spiegare il comportamento di questi oggetti dopo il lancio.

Il pallone aerostatico viene costruito in genere con lattice o cloroprene, un particolare tipo di gomma sintetica, e riempito con Elio. Questo gas, piu’ leggero dell’aria, consente, grazie alla differenza di peso, al pallone di salire in quota.

Come vedete dal disegno riportato, al pallone viene collegato un generatore solare, un pacco batterie, l’elettronica di lettura e un riflettore radar. Quest’ultimo, in particolare, e’ formato da una serie di specchi collegati tra loro ed e’ utile per aumentare l’eco dei segnali. Ovviamente, gli specchi possono molto facilmente riflettere anche la luce solare o la luce di led o spie che sono poste sull’elettronica.

Molto spesso, visti da terra, i palloni sonda risultano molto luminosi proprio grazie alla presenza di questo riflettore.

Come funziona un pallone sonda? Detto in parole povere, anche se i materiali sono diversi, si comporta esattamente come un palloncino che lasciate libero di volare. Sicuramente, molte volte da bambini vi sarete chiesti che fine fanno i palloncini che lasciate volare. Il pallone sonda, cosi’ come i comuni palloncini, sono riempiti di elio. Man mano che aumenta la quota, la pressione dell’aria diminuisce e, per compensazione, aumenta quella interna del pallone. Arrivati ad una certa quota, il materiale che costituisce il pallone non e’ in grado di reggere la pressione e scoppia in volo.

Questa e’ generalmente la fine che fanno sia i palloni sonda che i palloncini, questi ultimi in particolare scoppieranno ad altezze nettamente inferiori a causa dei materiali meno resistenti.

Che altezza puo’ raggiungere un pallone sonda? Ovviamente questo valore dipende da molti parametri, oltre a quelli costruttivi, sara’ funzione anche della quantita’ di elio che pompate all’interno. Comunque, per darvi un’idea, l’esplosione, e dunque la fine della misura, arriva generalmente intorno ai 25000-30000 metri da Terra. Guarda caso, proprio piu’ o meno l’altezza a cui l’astrofilo americano dice di aver filmato l’esplosione dell’UFO.

A questo punto pero’, potrebbe sorgere una domanda lecita. Se la fine della missione e’ decretata dall’esplosione della sonda, e dunque dalla sua perdita, quanti palloni vengono lanciati in atmosfera? In realta’, questo genere di lanci vengono fatti tutti i giorni, anche per scopi diversi da quelli metereologici.

E’ vero che una volta lanciato, il pallone e’ destinato a perdersi, ma il costo di questo “vettore” atmosferico e’ veramente irrisorio. A riprova di questo, vi segnalo un sito molto interessante:

Vendita Palloni Sonda

Avete visto i prezzi? Come vedete il tipo di pallone da prendere dipende dal peso che volete trasportare. Parliamo comunque di cifre che vanno dai 5 euro per quelli meteo, fino ai 150 per quelli in grado di portare in quota fino a 2 Kg di carico. Possiamo definirli prezzi davvero popolari e sostenibili pensando di dover perdere il pallone dopo il lancio.

A questo punto, non mi sembra che ci sia assolutamente nulla da aggiungere sul video di Sacramento. Come anticipato, e’ stato utile discuterne dal momento che ci ha permesso di affrontare temi interessanti e legati alle misurazioni in atmosfera tramite palloni sonda.

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ecco i temuti effetti di AR1504

24 Giu

In questi post:

Le macchie solari AR1504

Gli effetti di AR1504

Abbiamo parlato del sistema di macchie solari, appunto denominato AR1504, che rimane ancora molto attivo e per cui esiste la probabilita’ di avere emissioni di massa coronale molto intense con brillamenti anche di classe X. Negli articoli riportati, si trovano tutte le spiegazioni necessarie a comprendere questi fenomeni.

Ad oggi, le emissioni maggiori sono state in classe M, e non hanno portato nessun disturbo nelle trasmissioni radio neanche a grandi latitudini. In questi punti, la radiazione emessa dal Sole riesce a penetrare lo schermo offerto dal campo magnetico terrestre, le cui linee di forza si chiudono in prossimita’ dei poli.

Per meglio comprendere questo punto, l’effetto delle linee di forza del campo terrestre sulle emissioni solari e’ visibile in questa immagine:

Gli effetti del campo magnetico terrestre sulle emissioni di particelle dal Sole

Al contrario di quanto affermano molti siti filo-catastrofisti, ad oggi nessun effetto pericoloso o straordinario e’ stato causato dall’impatto con le emissioni solari causate da AR1504.

Gli unici effetti osservati a Terra, sono state delle stupende Aurore che sono state visibili anche a latitudini inferiori a quelle standard. Questo proprio a causa delle intense emissioni dovute a questo sistema. Inoltre, l’interazione con le molecole dell’atmosfera, che nell’urto vengono eccitate ed emettono luce a causa della seguente diseccitazione, ha prodotto delle aurore con colori molto accesi e con sfumature davvero particolari. Per precisione e per non essere frainteso, “particolari” anche in questo caso indica qualcosa di diverso dal comune, non intendiamo assolutamente niente di straordinario, non conosciuto o non compreso scientificamente.

Ecco un’immagine di un’aurora osservata in Minnesota:

Una foto dell’aurora in Minnesota. Fonte National Geographic

Questa invece una foto scattata in Oregon:

Una foto dell’aurora in Oregon. Fonte National Geographic

Al momento, i temuti (da parte dei soliti noti) effetti di questo sistema di macchie sono state queste bellissime aurore che vi abbiamo mostrato. Nessun disturbo elettromagnetico ai sistemi satellitari o alla trasmissione di segnali si e’ verificato.

Non lasciatevi suggestionare o convincere da chi vuole farvi credere una teoria non supportandola con dati scientifici o dimostrandovela in modo formale. Per capire a fondo cosa c’e’ di vero nelle profezie del 2012 non perdete in libreria Psicosi 2012. Le risposte della scienza.