Tag Archives: oscillazione

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Tutti i movimenti della Terra

27 Giu

Proprio ieri, una nostra cara lettrice ci ha fatto una domanda molto interessante nella sezione:

Hai domande o dubbi?

Come potete leggere, si chiede se esiste una correlazione tra i moti della Terra e l’insorgere di ere di glaciazione sul nostro pianeta. Rispondendo a questa domanda, mi sono reso conto come, molto spesso, e non è certamente il caso della nostra lettrice, le persone conoscano solo i moti principali di rotazione e rivoluzione. A questo punto, credo sia interessante capire meglio tutti i movimenti che il nostro pianeta compie nel tempo anche per avere un quadro più completo del moto dei pianeti nel Sistema Solare. Questa risposta, ovviamente, ci permetterà di rispondere, anche in questa sede, alla domanda iniziale che è stata posta.

Dunque, andiamo con ordine, come è noto la Terra si muove intorno al Sole su un’orbita ellittica in cui il Sole occupa uno dei due fuochi. Questo non sono io a dirlo, bensì questa frase rappresenta quella che è nota come I legge di Keplero. Non starò qui ad annoiarvi con tutte le leggi, ma ci basta sapere che Keplero fu il primo a descrivere cinematicamente il moto dei pianeti intorno ad un corpo più massivo. Cosa significa “cinematicamente”? Semplice, si tratta di una descrizione completa del moto senza prendere in considerazione il perché il moto avviene. Come sapete, l’orbita è ellittica perché è la legge di Gravitazione Universale a spiegare la tipologia e l’intensità delle forze che avvengono. Bene, detto molto semplicemente, Keplero ci spiega l’orbita e come il moto si evolverà nel tempo, Newton attraverso la sua legge di gravitazione ci dice il perché il fenomeno avviene in questo modo (spiegazione dinamica).

Detto questo, se nel nostro Sistema Solare ci fossero soltanto il Sole e la Terra, quest’ultima si limiterebbe a percorrere la sua orbita ellittica intorno al Sole, moto di rivoluzione, mentre gira contemporaneamente intorno al suo asse, moto di rotazione. Come sappiamo bene, il primo moto è responsabile dell’alternanza delle stagioni, mentre la rotazione è responsabile del ciclo giorno-notte.

Purtroppo, ed è un eufemismo, la Terra non è l’unico pianeta a ruotare intorno al Sole ma ce ne sono altri, vicini, lontani e più o meno massivi, oltre ovviamente alla Luna, che per quanto piccola è molto vicina alla Terra, che “disturbano” questo moto molto ordinato.

Perche questo? Semplice, come anticipato, e come noto, due masse poste ad una certa distanza, esercitano mutamente una forza di attrazione, detta appunto gravitazionale, direttamente proporzionale al prodotto delle masse dei corpi e inversamente proporzionale al quadrato della loro distanza. In altri termini, più i corpi sono massivi, maggiore è la loro attrazione. Più i corpi sono distanti, minore sarà la forza che tende ad avvicinarli. Ora, questo è vero ovviamente per il sistema Terra-Sole ma è altresì vero per ogni coppia di corpi nel nostro Sistema Solare. Se Terra e Sole si attraggono, lo stesso fanno la Terra con la Luna, Marte con Giove, Giove con il Sole, e via dicendo. Come è facile capire, la componente principale delle forze è quella offerta dal Sole sul pianeta, ma tutte queste altre “spintarelle” danno dei contributi minori che influenzano “in qualche modo” il moto di qualsiasi corpo. Bene, questo “in qualche modo” è proprio l’argomento che stiamo affrontando ora, cioè i moti minori, ad esempio, della Terra nel tempo.

Dunque, abbiamo già parlato dei notissimi moti di rotazione e di rivoluzione. Uno dei moti che invece è divenuto famoso grazie, o forse purtroppo, al 2012 è quello di precessione degli equinozi, di cui abbiamo già parlato in questo articolo:

Nexus 2012: bomba a orologeria

Come sapete, l’asse della Terra, cioè la linea immaginaria che congiunge i poli geografici ed intorno al quale avviene il moto di rotazione, è inclinato rispetto al piano dell’orbita. Nel tempo, questo asse non rimane fisso, ma descrive un doppio cono come mostrato in questa figura:

Moto di precessione degli equinozi e di nutazione

Moto di precessione degli equinozi e di nutazione

Il moto dell’asse è appunto detto di “precessione degli equinozi”. Si tratta di un moto a più lungo periodo dal momento che per compiere un intero giro occorrono circa 25800 anni. A cosa è dovuto il moto di precessione? In realtà, si tratta del risultato di un duplice effetto: l’attrazione gravitazionale da parte della Luna e il fatto che il nostro pianeta non è perfettamente sferico. Perché si chiama moto di precessione degli equinozi? Se prendiamo la linea degli equinozi, cioè quella linea immaginaria che congiunge i punti dell’orbita in cui avvengono i due equinozi, a causa di questo moto questa linea si sposterà in senso orario appunto facendo “precedere” anno dopo anno gli equinozi. Sempre a causa di questo moto, cambia la costellazione visibile il giorno degli equinozi e questo effetto ha portato alla speculazione delle “ere new age” e al famoso “inizio dell’era dell’acquario” di cui, sempre in ambito 2012, abbiamo già sentito parlare.

Sempre prendendo come riferimento la figura precedente, notiamo che c’è un altro moto visibile. Percorrendo il cono infatti, l’asse della Terra oscilla su e giù come in un moto sinusoidale. Questo è noto come moto di “nutazione”. Perché avviene questo moto? Oltre all’interazione della Luna, molto vicina alla Terra, anche il Sole gioca un ruolo importante in questo moto che proprio grazie alla variazione di posizione relativa del sistema Terra-Luna-Sole determina un moto di precessione non regolare nel tempo. In questo caso, il periodo della nutazione, cioè il tempo impiegato per per compiere un periodo di sinusoide, è di circa 18,6 anni.

Andando avanti, come accennato in precedenza, la presenza degli altri pianeti nel Sistema Solare apporta dei disturbi alla Terra, così come per gli altri pianeti, durante la sua orbita. Un altro moto da prendere in considerazione è la cosiddetta “precessione anomalistica”. Di cosa si tratta? Abbiamo detto che la Terra compie un’orbita ellittica intorno al Sole che occupa uno dei fuochi. In astronomia, si chiama “apside” il punto di massima o minima distanza del corpo che ruota da quello intorno al quale sta ruotando, nel nostro caso il Sole. Se ora immaginiamo di metterci nello spazio e di osservare nel tempo il moto della Terra, vedremo che la linea che congiunge gli apsidi non rimane ferma nel tempo ma a sua volta ruota. La figura seguente ci può aiutare meglio a visualizzare questo effetto:

Moto di precessione anomalistica

Moto di precessione anomalistica

Nel caso specifico di pianeti che ruotano intorno al Sole, questo moto è anche chiamato di “precessione del perielio”. Poiché il perielio rappresenta il punto di massimo avvicinamento di un corpo dal Sole, il perché di questo nome è evidente. A cosa è dovuta la precessioni anomalistica? Come anticipato, questo moto è proprio causato dalle interazioni gravitazionali, sempre presenti anche se con minore intensità rispetto a quelle del Sole, dovute agli altri pianeti. Nel caso della Terra, ed in particolare del nostro Sistema Solare, la componente principale che da luogo alla precessione degli apsidi è l’attrazione gravitazionale provocata da Giove.

Detto questo, per affrontare il prossimo moto millenario, torniamo a parlare di asse terrestre. Come visto studiando la precessione e la nutazione, l’asse terrestre descrive un cono nel tempo (precessione) oscillando (nutazione). A questo livello però, rispetto al piano dell’orbita, l’inclinazione dell’asse rimane costante nel tempo. Secondo voi, con tutte queste interazioni e questi effetti, l’inclinazione dell’asse potrebbe rimanere costante? Assolutamente no. Sempre a causa dell’interazione gravitazionale, Sole e Luna principalmente nel nostro caso, l’asse della Terra presenta una sorta di oscillazione variando da un massimo di 24.5 gradi ad un minimo di 22.1 gradi. Anche questo movimento avviene molto lentamente e ha un periodo di circa 41000 anni. Cosa comporta questo moto? Se ci pensiamo, proprio a causa dell’inclinazione dell’asse, durante il suo moto, uno degli emisferi della Terra sarà più vicino al Sole in un punto e più lontano nel punto opposto dell’orbita. Questo contribuisce notevolmente alle stagioni. L’emisfero più vicino avrà più ore di luce e meno di buio oltre ad avere un’inclinazione diversa per i raggi solari che lo colpiscono. Come è evidente, insieme alla distanza relativa della Terra dal Sole, la variazione dell’asse contribuisce in modo determinante all’alternanza estate-inverno. La variazione dell’angolo di inclinazione dell’asse può dunque, con periodi lunghi, influire sull’intensità delle stagioni.

Finito qui? Non ancora. Come detto e ridetto, la Terra si muove su un orbita ellittica intorno al Sole. Uno dei parametri matematici che si usa per descrivere un’ellisse è l’eccentricità, cioè una stima, detto molto semplicemente, dello schiacciamento dell’ellisse rispetto alla circonferenza. Che significa? Senza richiamare formule, e per non appesantire il discorso, immaginate di avere una circonferenza. Se adesso “stirate” la circonferenza prendendo due punti simmetrici ottenete un’ellisse. Bene, l’eccentricità rappresenta proprio una stima di quanto avete tirato la circonferenza. Ovviamente, eccentricità zero significa avere una circonferenza. Più è alta l’eccentricità, maggiore sarà l’allungamento dell’ellisse.

Tornando alla Terra, poiché l’orbita è un’ellisse, possiamo descrivere la sua forma utilizzando l’eccentricità. Questo valore però non è costante nel tempo, ma oscilla tra un massimo e un minimo che, per essere precisi, valgono 0,0018 e 0,06. Semplificando molto il discorso, nel tempo l’orbita della Terra oscilla tra qualcosa più o meno simile ad una circonferenza. Anche in questo caso, si tratta di moti millenari a lungo periodo ed infatti il moto di variazione dell’eccentricità (massimo-minimo-massimo) avviene in circa 92000 anni. Cosa comporta questo? Beh, se teniamo conto che il Sole occupa uno dei fuochi e questi coincidono nella circonferenza con il centro, ci rendiamo subito conto che a causa di questa variazione, la distanza Terra-Sole, e dunque l’irraggiamento, varia nel tempo seguendo questo movimento.

A questo punto, abbiamo analizzato tutti i movimenti principali che la Terra compie nel tempo. Per affrontare questo discorso, siamo partiti dalla domanda iniziale che riguardava l’ipotetica connessione tra periodi di glaciazione sulla Terra e i moti a lungo periodo. Come sappiamo, nel corso delle ere geologiche si sono susseguiti diversi periodi di glaciazione sul nostro pianeta, che hanno portato allo scioglimento dei ghiacci perenni e all’innalzamento del livello dei mari. Studiando i reperti e la quantità di CO2 negli strati di ghiaccio, si può notare una certa regolarità dei periodi di glaciazione, indicati anche nella pagina specifica di wikipedia:

Wiki, cronologia delle glaciazioni

Come è facile pensare, molto probabilmente ci sarà una correlazione tra i diversi movimenti della Terra e l’arrivo di periodi di glaciazione più o meno intensi, effetto noto come “Cicli di Milanković”. Perché dico “probabilmente”? Come visto nell’articolo, i movimenti in questione sono diversi e con periodi più o meno lunghi. In questo contesto, è difficile identificare con precisione il singolo contributo ma quello che si osserva è una sovrapposizione degli effetti che producono eventi più o meno intensi.

Se confrontiamo i moti appena studiati con l’alternanza delle glaciazioni, otteniamo un grafico di questo tipo:

Relazione tra i periodi dei movimenti della Terra e le glaciazioni conosciute

Relazione tra i periodi dei movimenti della Terra e le glaciazioni conosciute

Come si vede, è possibile identificare una certa regolarità negli eventi ma, quando sovrapponiamo effetti con periodi molto lunghi e diversi, otteniamo sistematicamente qualcosa con periodo ancora più lungo. Effetto dovuto proprio alle diverse configurazioni temporali che si possono ottenere. Ora, cercare di trovare un modello matematico che prenda nell’insieme tutti i moti e li correli con le variazioni climatiche non è cosa banale e, anche se sembra strano da pensare, gli eventi che abbiamo non rappresentano un campione significativo sul quale ragionare statisticamente. Detto questo, e per rispondere alla domanda iniziale, c’è una relazione tra i movimenti della Terra e le variazioni climatiche ma un modello preciso che tenga conto di ogni causa e la pesi in modo adeguato in relazione alle altre, non è ancora stato definito. Questo ovviamente non esclude in futuro di poter avere una teoria formalizzata basata anche su future osservazioni e sull’incremento della precisione di quello che già conosciamo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Orologi atomici e precisione del tempo

25 Ago

Qualche giorno fa, le pagine scientifiche di molti giornali hanno ospitato una notizia che e’ passata un po’ in sordina ma che, a mio avviso, merita di essere commentata se non altro per le interessanti discussioni a corollario. La notizia in questione, che molto sicuramente avrete letto, parlava di una nuova serie di orologi atomici costruiti dai ricercatori del NIST, National Institute of Standards and Technology, e che sono in grado di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo.

Leggendo questa notizia, credo che le domande classiche che possono venire in mente siano: come funziona un orologio atomico? Come si definisce il secondo? Ma soprattutto, a cosa serve avere un orologio tanto preciso?

In realta’, rispondere a queste domande, non e’ cosa facile ma cercheremo di farlo sempre in modo divulgativo spiegando passo passo tutti i concetti richiamati.

Prima di tutto, cos’e’ il tempo? Come potete immaginare, in questo caso la risposta non e’ semplice, ma richiama tantissime discipline, non solo scientifiche, che da secoli si sono interrogate sulla migliore definizione di tempo. Tutti noi sappiamo che il tempo passa. Come ce ne accorgiamo? Proprio osservando il trascorrere del tempo, cioe’ degli avvenimenti che osserviamo intorno a noi. In tal senso, scientificamente, possiamo definire il tempo come quella dimensione nella quale si misura il trascorrere degli eventi. Questa definizione ci permette dunque di parlare di passato, presente e futuro, dividendo gli eventi in senso temporale. Ovviamente, non e’ l’unica definizione che potete dare di tempo e forse neanche la piu’ affascinante ma, sicuramente, e’ la piu’ pratica per l’utilizzo che se ne vuole fare nelle scienze.

salvador_dali

Detto questo, se parliamo di tempo come una dimensione, dobbiamo saper quantificare in qualche modo il suo scorrere. Detto in altri termini, abbiamo bisogno di un’unita’ di misura. Nel “Sistema Internazionale di unita’ di misura”, che e’ quello accettato in molti paesi e considerato la standard a cui riferirsi, l’unita’ di misura del tempo e’ il secondo.

Come viene definito un secondo?

Storicamente, la definizione di secondo e’ cambiata molte volte. Nella prima versione, il secondo era definito come 1/86400 del giorno solare medio. Questa definizione non e’ pero’ corretta a causa del lento e continuo, per noi impercettibile, allungamento delle giornate dovuto all’attrazione Terra-Luna e alle forze mareali, di cui abbiamo parlato in questo post:

Le forze di marea

Utilizzando pero’ questa definizione, non avremmo avuto a disposizione qualcosa di immutabile nel tempo. Per ovviare a questo problema, si decise dunque di riferire il secondo non piu’ in base alla rotazione della terra su se stessa, ma a quella intorno al Sole. Anche questo movimento pero’ e’ non uniforme, per cui fu necessario riferire il tutto ad un preciso anno. Per questo motivo, il secondo venne definito nel 1954 come: la frazione di 1/31 556 925,9747 dell’anno tropico per lo 0 gennaio 1900 alle ore 12 tempo effemeride. La durata della rotazione intorno al Sole era conosciuta da osservazioni molto precise. Qualche anno dopo, precisamente nel 1960, ci si rese conto che questa definizione presentava dei problemi. Se pensiamo il secondo come una frazione del giorno solare medio, chi ci assicura che il 1900 possa essere l’anno in cui il giorno aveva la durata media? Detto in altri termini, le definizioni date nei due casi possono differire tra loro di una quantita’ non facilmente quantificabile. Dovendo definire uno standard per la misura del tempo, conosciuto e replicabile da chiunque, abbiamo bisogno di un qualcosa che sia immutabile nel tempo e conosciuto con grande precisione.

Proprio queste considerazioni, portarono poi a prendere in esame le prorieta’ degli atomi. In particolare,  si penso’ di definire il secondo partendo dai tempi necessari alle transizioni atomiche che ovviamente, a parita’ di evento, sono sempre identiche tra loro. Proprio per questo motivo, il secondo venne definito come: la durata di 9 192 631 770 periodi della radiazione corrispondente alla transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello stato fondamentale dell’atomo di cesio-133. In questo modo si e’ ottenuta una definizione con tutte le proprieta’ che abbiamo visto.

A questo punto, la domanda e’: come misurare il tempo? Ovviamente, di sistemi di misurazione del tempo ne conosciamo moltissimi, sviluppati e modificati nel corso dei secoli e ognuno caratterizzato da una precisione piu’ o meno elevata. Cosa significa? Affinche’ un orologio sia preciso, e’ necessario che “non perda un colpo”, cioe’ che la durata del secondo misurata sia quanto piu’ vicina, al limite identica, a quella della definizione data. In caso contrario, ci ritroveremo un orologio che dopo un certo intervallo, giorni, mesi, anni, migliaia di anni, si trova avanti o indietro di un secondo rispetto allo standard. Ovviamente, piu’ e’ lungo il periodo in cui questo avviene, maggiore e’ la precisione dell’orologio.

Come tutti sanno, gli orologi piu’ precisi sono quelli atomici. Cosi’ come nella definizione di secondo, per la misura del tempo si utilizzano fenomeni microscopici ottenuti mediante “fontane di atomi”, eccitazioni laser, o semplici transizione tra livelli energetici. Al contrario, negli orologi al quarzo si utilizza la vibrazione, indotta elettricamente, degli atomi di quarzo per misurare il tempo. La bibliografia su questo argomento e’ molto vasta. Potete trovare orologi atomici costruiti nel corso degli anni sfruttando proprieta’ diverse e con precisioni sempre piu’ spinte. Negli ultimi anni. si e’ passati alla realizzazione di orologi atomici integrando anche fasci laser e raffreddando gli atomi a temperature sempre piu’ vicine allo zero assoluto.

Nel caso della notizia da cui siamo partiti, l’orologio atomico costruito sfrutta la transizione di atomi di itterbio raffreddati fino a 10 milionesimi di grado sopra lo zero assoluto indotta mediante fasci laser ad altissima concentrazione. Questo ha permesso di migliorare di ben 10 volte la precisione dell’orologio rispetto a quelli precedentemente costruiti.

A questo punto, non resta che rispondere all’ultima domanda che ci eravamo posti all’inizio: a cosa serve avere orologi cosi’ precisi? Molto spesso, leggndo in rete, sembrerebbe quasi che la costruzione dell’orologio piu’ preciso sia una sorta di gara tra laboratori di ricerca che si contendono, a suon di apparecchi che costano milioni, la palma della miglior precisione. In realta’ questo non e’ vero. Avere una misura sempre piu’ precisa di tempo, consente di ottenere risultati sempre piu’ affidabili in ambito diverso.

Per prima cosa, una misura precisa di tempo consente di poter sperimentare importanti caratteristiche della relativita’. Pensate, ad esempio, alla misura della distanza tra Terra e Luna. In questo caso, come visto in questo articolo:

Ecco perche’ Curiosity non trova gli alieni!

si spara un laser da Terra e si misura il tempo che questo impiega a tornare indietro. Maggiore e’ la precisione sulla misura del tempo impiegato, piu’ accurata sara’ la nostra distanza ottenuta. Molto spesso infatti, si suole misurare le distanze utilizzando tempi. Pensiamo, ad esempio, all’anno luce. Come viene definito? Come la distanza percorsa dalla luce in un anno. Tempi e distanze sono sempre correlati tra loro, condizione per cui una piu’ accurata misura di tempi  consente di ridurre l’incertezza in misure di distanza.

Anche quando abbiamo parlato del sistema GPS:

Il sistema di posizionamento Galileo

Abbiamo visto come il posizionamento viene fatto misurando le differenze temporali tra i satelliti della galassia GPS. Anche in questo caso, la sincronizzazione e’ fondamentale per avere precisioni maggiori nel posizionamento. Non pensate solo al navigatore che ormai quasi tutti abbiamo in macchina. Questi sistemi hanno notevole importanza in ambito civile, marittimo, militare. Tutti settori di fondamentale importanza per la nostra societa’.

Concludendo, abbiamo visto come viene definito oggi il secondo e quante modifiche sono state fatte nel corso degli anni cercando di avere una definizione che fosse immutabile nel tempo e riproducibile per tutti. Oggi, abbiamo a disposizione molti sistemi per la misura del tempo ma i piu’ precisi sono senza dubbio gli orologi atomici. Come visto, ottenere precisioni sempre piu’ spinte nella misura del tempo e’ di fondamentale importanza per tantissimi settori, molti dei quali anche strategici nella nostra soscieta’. Ad oggi, il miglior orologio atomico realizzato permette di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo, cioe’ circa 14 miliardi di anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

IceCube e l’esplorazione del cosmo con i neutrini

22 Mag

Nell’articolo precedente, abbiamo parlato di neutrini:

EniGma con Nadir Mura

come visto nell’intervista, e come sicuramente ricorderete, queste particelle sono balzate agli onori delle cronache soprattutto a seguito della misura, poi trovata affetta da errori strumentali, che voleva i neutrini viaggiare ad una velocita’ superiore a quella della luce.

Ora, vorrei tornare nuovamente a parlare di queste particelle, a causa di una nuova misura fisica che sta facendo molto discutere.

Come sappiamo bene, i neutrini sono particelle molto particolari soprattutto a cusa della loro bassa probabilita’ di interazione con la materia, che li rende difficilmente rivelabili. Fino a pochi ani fa, si pensava addirittura che i neutrini non avessero massa, cosa smentita poi grazie alla ricerca e all’osservazione dell’oscillazione dei neutrini, cioe’ della proprieta’ di queste particelle di trasformarsi durante il cammino da una famiglia all’altra.

Proprio a causa di queste proprieta’ cosi’ particolari, i neutrini vengono studiati in diversi esperimenti e, molto spesso, in condizioni quasi estreme. Come detto, la bassa probabilita’ di osservazione, impone agli esperimenti di eliminare all’origine tutto il “rumore” da altre fonti, cioe’ quanto piu’ possibile, ogni altro evento prodotto da particelle diverse e che rischierebbe di coprire, a cuasa della maggiore probabilita’, i neutrini da rivelare.

Proprio per qusto motivo, si sente spesso parlare di rivelatori disposti in angoli remoti del mondo, all’interno delle miniere, sotto kilometri di roccia come nei laboratoridel Gran Sasso o anche immersi ad elevate profondita’ nel mare. Il motivo di questo e’, come anticipato, avere uno schermo naturale in grado di fermare le altre particelle lascinado passare i neutrini. Questi ultimi, a causa della bassa probabilita’ di interazione, passano con molta facilita’ kilometri di materiale senza interagire con la materia.

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Dopo questa doverosa introduzione, vorrei parlarvi di IceCube, uno dei maggiori rivelatori di neutrini, costruito addirittura sotto i ghiacci dell’Antartide. IceCube e’ composto da un elevato numero di elementi sensibili, sepolti ad ua profondita’ variabile tra 1500 e 2500 metri di ghiaccio. La matrice cosi’ ottenuta consente di avere una superficie da rivelare dell’odine di 1 kilometro cubo.

Perche’ sto parlando di neutrini ed in particolare di IceCube?

Scopo di questi esperimenti e’ quello di studiare i neutrini provenienti dal sole o dai raggi cosmici, anche per rivelare nuove sorgenti astrofisiche. Il motivo di questo e’ molto semplice: studire le emissioni di neutrini da parte di oggetti nell’universo, consente di ottenere una sorta di telescopio con queste particelle e dunnque poter analizzare, anche in questo modo, lo spazio che ci circonda.

Bene, l’anno scorso, quasi per caso, IceCube ha individuato due neutrini con l’energia piu’ alta mai registrata sulla Terra, dell’ordine del petaelettronvolt. Per capire quanto sia elevata questa energia, basti pensare che LHC, il grande collisore del CERN, fa scontrare particelle con energia di 3.5 teraelettronvolt, cioe’ circa 300 volte inferiore a quella osservata da ICeCube. Durante l’analisi dei dati condotta per studiare questi eventi particolari, ci si e’ accorti che tra il 2010 e il 2012, il rivelatore avrebbe visto 26 eventi di alta energia, circa 10 volte quella di LHC.

Perche’ sono importanti questi eventi? Nel nostro sistema solare, l’unica sorgente di neutrini presente e’ il Sole. Questi pero, avendo energia molto piu’ bassa, non possono aver generato quanto osservato dai fisici di IceCube. Come potete capire, si tratta, con ottima probabilita’, di una sorgente extragalattica, non ancora identificata.

Dai modelli elaborati, le sorgenti di neutrini nello spazio potrebbero essere le esplosioni di Supernovae, i gamma ray burst o i quasar. Nell’idea, come anticipato, di realizzare un telescopio a neutrini dell’universo, molto interessante sarebbe individuare questa sorgente. Purtroppo, ad oggi, questo non e’ stato ancora possibile, soprattutto a causa dei pochi eventi raccolti all’esperimento.

Anche se manca la spiegazione ufficiale, possaimo provare a formulare ipotesi circa l’origine di questi eventi, soprattutto per capire l’importanza di questo risultato.

Dei gamma ray burst abbiamo parlato in questo post:

WR104: un fucile puntato verso la Terra?

Ccome visto, la conoscenza di questi eventi, ma soprattutto, eventualmente, il poter studiare il loro comportamento diretto, ci permetterebbe di aumentare la nostra conoscenza dell’universo e, perche’ no, magari in futuro farci confermare o smentire idee catastrofiste.

In passato, precisamente nel 1987, sulla Terra arrivarono, ad esempio, i neutrini prodotti da una supernova molto distante nella Nube di Magellano. Anche in questo caso, eventi come quelli delle esplosioni di supernovae ci consentono di comprendere meglio importanti meccanismi alla base dell’universo.

Altre ipotesi formulate riguardano invece la materia oscura, di cui abbiamo parlato in questi post:

La materia oscura

Troppa antimateria nello spazio

Come visto, ad oggi, ci accorgiamo della presenza di materia oscura mediante considerazioni indirette. Purtroppo, non e’ stato ancora possibile individuare questa curiosa forma di materia, anche se molte ipotesi sono state formulate. Proprio l’astrofisica a neutrini potrebbe aiutare a sciogliere qualche riserva. Secondo alcune ipotesi infatti, i neutrini potrebbero essere stati prodotti dallo scontro di materia oscura nel centro della nostra Galassia. In questo caso, studiare in dettaglio i parametri dei candidati, aiuterebbe molto ad individuare la sorgente di produzione dei neutrini ma anche, e soprattutto, di ottenere maggiori informazioni sull’origine della Via Lattea e sulla natura della meteria oscura.

Concludendo, IceCube ha individuato 26 neutrini di alta energia che hanno attraversato i suoi rivelatori. Statisticamente, la probabilita’ che si tratti di un errore e’ inferiore  allo 0,004% per cui sara’ interessante analizzare i dati e capire meglio quali test organizzare nel futuro per cercare di risolvere importanti dubbi che ormai da troppo tempo sono in attesa di una spiegazione ufficiale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il palo che vibra a Torino

3 Apr

A Torino, gia’ da diverso tempo, sta avvenendo un fenomeno che sta facendo molto discutere sul web ma che sta occupando anche le pagine di diversi quotidiani. Come forse avrete sentito, in prossimita’ del cantiere per la costruzione del grattacielo di Renzo Piano realizzato per conto di Intesa San Paolo, un paletto vibra in modo autonomo con oscillazioni molto pronunciate e quasi incredibili.

Andiamo con ordine.

Per prima cosa vi mostro un video di questo particolare fenomeno:

VIDEO Palo Torino

Come potete vedere, questo paletto, probabilmente un tempo utilizzato per sostenere un cartello stradale, oscilla in modo incredibile con ampiezza molto pronunciata senza un’apparente spiegazione.

Come potete immaginare, questo fenomeno ha acceso da subito la fantasia di molti siti internet e di utenti da sempre alla ricerca di fenomeni strani. Le spiegazioni date sono moltissime, ma le piu’ fantasiose vanno dal fenomeno UFO, il palo sarebbe un’antenna aliena, fino anche ad una nuova forma di terremoto non percepibile dalla popolazione e generata da esperimenti scientifici.

In qusti scenari fantascientifici, non mancano certo ipotesi catastrofiste. Secondo alcuni infatti, il palo vibrerebbe perche’ in realta’ la costruzione del grattacielo e’ solo una copertura per mascherare operazioni di fracking. Di queste attivita’ e del rischio associato di terremoti abbiamo parlato in questo post:

Fratturazione idraulica

Da cosa puo’ dipendere questa oscillazione? In realta’ le cause potrebbero essere diverse e tutte di natura scientifica. Le prime oscillazioni sono state osservate durante l’estate del 2012 e fino ad oggi, con numerose interuzioni e riprese, sono avvenute con intensita’ anche diversa.

Gia’ alle prime oscillazioni, molti hanno puntato il dito contro il cantiere del grattacielo distante solo 2 metri. Questo ovviamente ha scatenato la reazione della ditta costruttrice che a sua volta ha puntato il dito contro la societa’ che gestisce la metropolitana. Pensate sia finita qui? Assolutmente no. La societa’ della metro ha, a sua volta, dato la colpa ai tram circolanti nella zona. Come potete capire, tutti cercano di scaricare la colpa ad altri, dal momento che questa oscillazione rimane ancora un mistero e nessuno vorrebbe assumersi l’eventuale colpa di attivita’ rischiose per la popolazione.

Meccanismo del Vortex Shedding

Meccanismo del Vortex Shedding

Proprio in questi giorni, la Repubblica online ha riportato di nuovo la notizia dichiarando di aver finalmente risolto il mistero. Secondo il giornale, anzi secondo l’opinione di un lettore, la spiegazione dell’oscillazione e’ da ricercarsi nel “Vortex Shedding”. Di cosa si tratta? Questo e’ un fenomeno molto noto a livello scientifico ed in particolare nella fluidodinamica. Quando un flusso viscoso, aria, acqua o altro fluido, scorre con una certa velocita’ in prossimita’ di un oggetto cilindrico, questo movimento potrebbe innescare fenomeni di oscillazione che possono avere ampiezze fino anche a due volte il diametro del cilindro. La spiegazione e’ molto semplice, il flusso di fluido crea dei vortici lungo il corpo creando zoea di alta e bassa pressione. Se uno dgli estremi del cilindro e’ vincolato, allora l’oscillazione si avra’ sull’estremo libero che tendera’ a muoversi verso le zone a piu’ bassa pressione.

Anche se si riserva un piccolo margine di dubbio, il giornale afferma che con buona probabilita’ questa e’ la spiegazione scientifica per comprendere il fenomeno del palo che vibra.

Ora pero’, ovviamente, per avere Vortex Shedding e’ necessario aver un flusso di aria lungo il paletto. Questa, anche in base alla teoria citata, e’ una condizione necessaria per avere questo fenomeno. Ovviamente, non e’ necessario che ci sia un vento a velocita’ elevatissima, basta infatti una corrente nella direzione giusta affinche’ il paletto inizi a vibrare ortogonalmente alla direzione del fluido.

A mio avviso, questa potrebbe essere una spiegazione possibile, anche se non e’ ovviamente l’unica. In particolare, vorrei farvi notare un dettaglio. Questo e’ il link ad un altro articolo dello stesso giornale datato pero’ luglio 2012, cioe’ quando e’ iniziata l’oscillazione:

Articolo 07/2012

Leggete con attenzione questa frase: E non è colpa del vento, visto che ieri su Torino c’ era bonaccia e non si muoveva foglia.

Dunque?

Come detto, quella del Vortex Shedding potrebbe essere una chiave di lettura ma in diversi articoli su web si riportano testimonianze di oscillazioni in giornate completamente senza vento. Inoltre, se rivediamo con attenzione il video riportato all’inizio dell’articolo, i fili del tram sono assolutamente fermi. Quest situazione sarebbe incompatibile con l’ipotesi del Vortex Shedding.

Quindi? Da cosa dipende l’oscillazione?

Ad oggi, non esiste ancora una spiegazione accettata per questo fenomeno. A mio avviso, il vortex shedding potrebbe essere una spiegazione, ma lo stesso fenomeno potrebbe avvenire anche per oscillazioni propagate nel terreno magari a metri di distanza dal palo. La presenza del cantiere potrebbe essere una spiegazione possibile, ma per avere un’idea certa, sarebbe necessario conoscere anche la struttura morfologica del terreno. Per darvi un’idea, se sotto il manto stradale fosse presente una zona con ampi vuoti, questa potrebbe fungere da cassa di risonanza per le oscillazioni che dunque verrebbero trasmesse al paletto.

Ovviamente l’ipotesi piu’ probabile, forse perche’ la piu’ facile da capire, e’ quella del vortex shedding, ma allora il precedente articolo di lugio di cui abbiamo parlato magari e’ stato scritto con toni sensazionalistici solo per attirare maggiormente l’attenzione. In questa ipotesi, dire che “non si muoveva una foglia” serviva solo ad aumentare il mistero sul fenomeno, salvo poi tornare indietro a distanza di mesi per spiegare il tutto con il vento.

Concludendo, la spiegazione certa per il fenomeno del palo che vibra ancora manca, anche se l’ipotesi piu’ probabile sembra essere quella del Vortex Shedding. Anche ragionando su articoli di quotidfiani nazionali, non e’ facile avere notizie certe, perche’, come visto, molto spesso anche questi giornali tendono un po’ a pompare le notizie per far apparire il tutto piu’ misterioso e magico.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

Il sistema di posizionamento Galileo

21 Mar

Notizia fresca di questi giorni, che forse avrete letto anche sui  giornali, e’ stato lanciato il quarto satellite del sistema di navigazione e localizzazione Galileo. L’insieme dei quattro satelliti ha dato ufficialmente il via alla ricezione di questo sistema di localizzazione europeo.

Il principio di funzionamento, cosi’ potete leggere, e’ come quello del GPS americano, ma in questo caso si tratta di un sistema tutto europeo. Al momento sono in orbita 4 dei 30 satelliti previsiti che formerano la costellazione appunto del sistema Galileo.

Bello direte voi, ma questa notizia dovrebbe suscitare un po’ di curiosita’ e soprattutto una serie di domande lecite che vorrei condividere con voi: come funziona il GPS? Perche’ se c’era quello americano ne dobbiamo fare uno europeo? Che vantaggi comporta?

Tutte domande lecite a cui proveremo a dare una risposta semplice e accessibile a tutti.

Al solito, provate a fare un esperimento-intervista. Chiedete, anzi chiedetevi, come funziona il GPS che avete in macchina, sul cellulare, sul portatile, ecc. Molto spesso la risposta data e’ la seguente: semplice, si accende un antenna, questa comunica con un satellite che ci localizza e il gioco e’ fatto, otteniamo un puntino su una mappa che indica la nostra posizione “esatta”. Una risposta del genere e’ completamente sbagliata in diversi punti. Se questa e’ stata la vostra risposta, forse e’ il caso di continuare la lettura.

Partiamo dall’inizio. Abbiamo il problema di localizzare la nostra posizione in un punto qualsiasi della Terra. Come facciamo? Semplice, utilizziamo dei satelliti. Se non altro, l’utilizzo di satelliti ci permette, in linea di principio, di essere sempre localizzabili indipendentemente dalla posizione. In Europa, in Asia, nell’oceano, se alzate la testa vedete il cielo e quindi potenzialmente il satellite.

Satelliti visibili dal ricevitore nel tempo

Satelliti visibili dal ricevitore nel tempo

In realta’, non e’ proprio esattamente cosi’. Un solo satellite che gira intorno alla Terra non sarebbe sempre visibile. Per dirla tutta, un solo satellite non consentirebbe neanche di localizzarci, ma ne servono ben quattro visibili da dove siamo. Su questo torneremo tra poco. Dunque, un solo satellite non basta ne servono 4. Per questo motivo, la costellazione di satelliti GPS e’ formata da un numero grande di oggetti in orbita in modo da poter garantire sempre ed in ogni punto la visibilita’ di almeno 4 satelliti. L’immagine riportata permette di chiarire molto bene questo concetto. Come vedete, mentre i satelliti girano intorno alla Terra, viene riportato in ogni istante il numero di satelliti visibili. Affinche’ la vostra rete sia funzionale, questo numero non deve mai essere minore di quattro.

Fin qui ci siamo. Abbiamo bisogno di 4 satelliti. Non abbiamo ancora risposto alle domande iniziali, anzi ne abbiamo aggiunta un’altra: perche’ 4 satelliti?

Cerchiamo ora di capire come funziona il GPS. In realta’, l’antenna del vostro sistema non comunica affatto con i satelliti, ma e’ solo un “ricevitore” di segnali. In ogni istante, i satelliti inviano verso la terra dei segnali che l’antenna e’ in grado di ricevere. Questi segnali sono di tipo orario, cioe’ contengono l’informazione sull’ora del loro invio. Il metodo di localizzazione si basa appunto sulla differenza di tempo tra l’invio del segnale da parte del satellite e la sua ricezione dall’antenna. Conoscendo la velocita’di propagazione del segnale, dalla differenza di tempo possiamo ricavare la distanza del ricevitore dal satellite.

Ora, dovendo posizionare un punto sulla mappa corrispondente al ricevitore, avete bisogno di 3 informazioni: latitudine, longitudine e altitudine. Avete cioe’ 3 incognite da calcolare. Come ricorderete dalla matematica, per risolvere un sistema di 3 incognite c’e’ bisogno di 3 equazioni indipendenti. 3 equazioni significa dunque avere l’informazione contemporaneamente da 3 satelliti. Proprio per questo motivo si parla di “triangolazione” della posizione.

Ricapitoliamo: 3 incognite per la posizione esatta, 3 equazioni che sono i 3 satelliti, e fin qui ci siamo. Perche’ prima parlavamo di 4 satelliti?

Abbiamo detto che tutto il gioco si basa sulla misura del tempo impiegato dal segnale per andare dal satellite al ricevitore. Detto proprio semplicemente, il satellite manda un segnale dicendo sono le 12.00 il ricevitore ascolta il segnale, vede che sono le 12.01 e quindi capisce che e’ passato un minuto (in realta’ la differenza temporale e’ tipicamente dell’ordine dei millisecondi). Facile a dirsi ma non a farsi. Affinche’ questo gioco funzioni, i satelliti ed il ricevitore devono essere perfettamente sincronizzati.

I satelliti del GPS utilizzano degli orologi atomici al Cesio o al Rubidio, estremamente precisi, ma che costano piu’ o meno 200000 euro l’uno. Il nostro piccolo e economico ricevitore certamente non dispone di un sistema del genere. Dunque, per localizzare il punto non servono piu’ 3 incognite bensi’ 4, compreso il tempo. Il quarto satellite serve appunto per determinare anche l’informazione temporale.

images

Solo per completezza di informazione, la localizzazione GPS sarebbe impossibile senza le dovute correzioni date dalla relativita’ di Einstein. Il tempo sul satellite scorre ad un ritmo leggermente piu’ veloce rispetto alla Terra (dilatazione dei tempi). Se questo effetto non fosse incluso, le misure dei tempi di percorrenza sarebbero sistematicamente sbagliate. La funzionalita’ del GPS e’, se vogliamo, anche una conferma pratica dell’esistenza della relativita’.

Dunque, abbiamo capito come avviene la localizzazione. Torniamo ora al discorso satelliti. In ogni istante ed in ogni punto della Terra devo dunque poter vedere almeno 4 satelliti. Quello che oggi chiamiamo GPS sfrutta, come detto all’inizio, la costellazione di satelliti americani chiamata NAVSTAR GPS costituita in tutto da 31 satelliti. Questi sono disposti su sei piani orbitali con un’inclinazione di 55 gradi sul piano equatoriale. Maggiore e’ il numero di satelliti utilizzati simultaneamente, minore e’ l’incertezza con cui si possono ricavare le incognite, e dunque la posizione del ricevitore.

La precisione attuale del NAVSTAR e’ dell’ordine di qualche metro. Fino a prima del 2000, la qualita’ del sistema per uso civile era dell’ordine dei 200 metri a causa dela distorsione fatta appositamente sui segnali per uso civile, mentre per gli usi militari veniva data qualita’ massima. Questa distinzione, detta anche “disponibilita’ selettiva” e’ stata eliminata su volere del presidente Clinton e, di fatto, ha aperto la strada ai sistemi GPS portatili per scopi civili.

Abbiamo risposto gia’ a 2 domande su 3. Sappiamo ora come avviene la localizzazione e perche’ servono 4 satelliti. Torniamo ora a Galileo.

Galileo prevede una costellazione di 30 satelliti che diverra’ pienamente operativa a partire dal 2014. Ad oggi, e sappiamo ora anche il perche’, sono stati lanciati 4 satelliti e dunque e’ possibile fare i primi studi sui segnali e cominciare a testare la qualita’ del sistema.

Perche’ fare un nuovo sistema se c’e’ gia’ quello americano? In realta’, in orbita ci sono due sistemi di navigazioni indipendenti, il NAVSTAR americano e il GLONASS russo, quest’ultimo pero’ scarsamente manutenuto negli ultimi tempi. La motivazione del Galileo e’ piu’ politica che scientifica. Il NAVSTAR e il GLONASS per uso civile sono sempre subordinati all’effettivo utilizzo militare dei due paesi. In qualsiasi momento, uno dei due paesi potrebbe decidere di chiudere il servizio civile per un qualsiasi motivo. Non pensate soltanto al navigatore della vostra automobile, il GPS e’ utilizzato in tutti i sistemi di navigazione civili come aerei, navi, antifurti satellitari, ecc. Una, seppur improbabile (forse), decisione del genere causerebbe un danno irreparabile. La necessita’ dunque di interrompere un monopolio di localizzazione ha spinto i paesi europei ha dotarsi di un proprio sistema satellitare.

Inoltre, a differenza di quello made in USA, il Galileo gode dei finanziamenti di diversi paesi attraverso la comunita’ europea e non solo. Diversi paesi extraeuropei, come Israele, Cina e Russia (come integrazione del GLONASS), stanno contribuendo a Galileo appunto per assicurare un servizio civile costante.

Solo per completezza, esistono anche dei sistemi minori di tipo regionale attualmente in fase di studio. Sia l’India che la Cina stanno infatti portando avanti gli studi per dotarsi di sistemi proprietari esclusivi non globali. In questo caso, ma si tratta di una mia considerazione personale, programmi di questo tipo servono soltanto per prendere confidenza e dimostrare agli altri la possibilita’ di accedere allo spazio mediante satelliti. Come sappiamo, si tratta di economie definite “emergenti”, anche se ormai emerse del tutto, e proprio per questo interessate alla corsa allo spazio su tutti i fronti.

Concludendo, i primi 4 satelliti di Galileo sono in orbita. Nel giro di qualche anno la costellazione di satelliti dovrebbe essere completata e funzionante. Questo sistema, parallelo al NAVSTAR, consentira’ la localizzazione sulla Terra garantendo la funzionalita’ civile sempre e indipendentemente dalla situazione politica. Dal punto di vista economico, ci saranno vantaggi anche per le aziende europee che potranno produrre e commercializzare ricevitori per Galileo mentre prima con il NAVSTAR questo settore era riservato ad aziende americane.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le terribili armi scalari

31 Gen

Torniamo a parlare di catastrofismo con un argomento che da sempre viene molto discusso in rete. In diversi post, abbiamo parlato di ipotetici quanto falsi meccanismi in atto per modificare il clima, controllare le menti delle persone, provocare massicce morie di animali, causare terremoti ma anche eventi naturali di vasta portata. Le cause di questi sconvolgimenti, sempre secondo il dilangante complottismo mediatico, sarebbero da ricercarsi nelle scie chimiche, in HAARP o in altri metodi sviluppati per lo sfruttamento massimo delle risorse naturali:

Haarp e terremoti indotti?

Haarp, la causa di tutti i mali?

Alcune considerazione sulle scie chimiche

Scie Chimiche: il prelievo in quota

Scie chimiche e cloud seeding

Come difendersi dalle scie chimiche

Il Dibromoetano e le scie chimiche

A-380 modificato per spargere scie chimiche

Moria di uccelli nel mondo

Ad oggi, e come visto nei post precedenti, non vi e’ la minima prova a sostegno di queste ipotesi. In particolare, le presunte prove scientifiche, vengono sbriciolate con sempici ragionamenti o anche solo andando a cercare chi sarebbero questi scienziati che sostengono queste cause.

In questo post, vorrei tornare nuovamente su questi argomenti, per parlarvi delle cosiddette armi scalari, presunti sistemi da molti visti come l’unica causa di tutte queste problematiche.

Cosa sono le armi scalari?

Rispondere a questa domanda non e’ affatto semplice. Se provate a cercare in rete, anche solo nei siti italiani, trovate centinaia di risultati che ne parlano, ma nessuno di questi fa una descrizione semplice e corretta di questi armamenti. Con le stesse modalita’ di cui abbiamo piu’ volte parlato, tanti discutono di questi sistemi creando tantissima confusione e riempiendo pagine e pagine di termini scientifici di cui, come si evince provando a leggere, molto probabilmente si ignora anche il significato. In questo senso, trovate un enorme mescolamento di onde elettromagnetiche, campi vettoriali, monopolo magnetico, divergenze, rotazioni di operatori, termini scientifici relativi alla trattazione dell’elettromagnetismo, ma con un preciso significato molte volte stravolto su internet.

Cerchiamo di andare con ordine, mantenendo un profilo divulgativo e consentendo a tutti di potersi chiarire le idee.

Rappresentazione di un'onda elettromagnetica

Rappresentazione di un’onda elettromagnetica

Partiamo dalle basi, le onde elettromagnetiche. Senza utilizzare il formalismo scientifico, tutti sanno di cosa sto parlando, onde che si propagano nel vuoto o in un mezzo trasportando campi elettrici e magnetici. Nell’esempio classico, questi campi sono perpendicolari tra loro e alla direzione di propagazione dell’onda. Per la massima chiarezza, facciamo riferimento alla figura riportata, in cui viene mostrata una schematizzazione di onda elettromagnetica con i due campi e la direzione di propagazione, cioe’ quella verso cui si muove l’onda stessa. Cliccando sull’immagine potrete vedere l’animazione rappresentante il movimento stesso dell’onda.

Bene, questa e’ la descrizione dell’onda elettromagnetica. Come visto, i campi oscillano in direzioni ortogonali alla propagazione (fate sempre riferimento alla figura precedente) e proprio per questo motivo si parla di onda trasversale.

Rappresentazione di un'onda sonora

Rappresentazione di un’onda sonora

Diverso e’, ad esempio, il caso delle onde sonore. In questo caso, l’onda e’ costituita da una successione di compressioni e rarefazioni del mezzo, generalmente aria, che trasportano nello spazio le informazioni. Detto in termini semplici, le vibrazioni comprimono e rilasciano le molecole d’aria propagando il segnale. Immaginatelo come un serpente che si muove sul terreno e che si comprime e si allunga per spostarsi. Anche in questo caso, la figura riportata (cliccare per vedere l’animazione) puo’ aiutarci a comprendere meglio il fenomeno.

Se confrontate le figure, vi rendete conto che mentre per l’onda elettromagnetica le oscillazioni avvengono in direzione ortogonale al moto dell’onda, nel caso sonoro queste oscillazioni sono esattamente nella direzione di propagazione. In particolare, come ci dice la fisica, questo ultimo caso e’ riservato alle onde meccaniche, appunto come il suono.

Con il formalismo della scienza, ci si riferisce alle onde come quelle elettromagnetiche con il termine trasversali, mentre a quelle come il suono come onde longitudinali.

Bene, se siamo arrivati fino a questo punto senza cadere dalla sedia, siamo ormai in dirittura d’arrivo.

Cosa sono le armi scalari?

Questi sistemi sarebbero basati su onde scalari di natura elettromagnetica, cioe’ non piu’ con il comportamento visto prima, ma solo con un trasporto di energia nella direzione di propagazione, come nel caso delle onde sonore.

Se questo fosse possibile, la trattazione fatta fino a questo punto, non sarebbe completa. Come potete immaginare, la trattazione scientifica e’ completa, cioe’ che e’ sbagliato e’ il considerare onde elettromagnetiche scalari.

Stando a quanto si legge in rete, le onde scalari non solo esisterebbero, ma sarebbero gia’ impiegate per la realizzazione di armi di nuova concezione. Questi armamenti sarebbero talmente potenti da poter distruggere l’intero pianeta Terra, innescare i moti delle placche e dunque causare terremoti, modificare il clima a nostro piacimento ma anche controllare a distanza la mente delle persone. Alla luce dei post visti in precedenza, e’ inutile scomodare tante cause diverse, basta far fuoco con queste armi.

Cosa c’e’ di vero in tutto questo?

In rete ci sono persone pronte a fare di tutto per sostenere l’esistenza di queste armi. Se fate una ricerca su google, trovate anche molti filmati di esperimenti fatti in casa, o di sistemi testati in laboratori, in grado di generare o di misurare la presenza delle onde scalari. In tutti questi casi, vi vengono mostrati risultati incredibili con lampadine accese a distanza, correnti elevatissime che vengono fatte circolare nei circuiti o anche di campi elettromagnetici pazzeschi prodotti con piccole batterie.

Dunque, c’e’ la teoria delle onde scalari, ci sono gli esperimenti su internet che le dimostrano, non dovrebbe mancare niente. Quello che purtroppo manca e’ l’onesta’ di alcuni soggetti.

Il caso delle onde scalari, e in seguito delle armi basate su questa tecnologia, prende spunto, almeno da quanto si legge, da alcune ipotesi formulate da Nikola Tesla, si sempre lui. Tesla avrebbe scoperto l’esistenza delle onde scalari e avrebbe preparato degli esperimenti in grado di generare queste forme d’onda. I risultati sarebbero stati incredibili e avrebbero attirato da subito l’attenzione del governo americano. Dopo la morte di Tesla, i suoi appunti sarebbero stati sequestrati e catalogati come “top secret” dalla CIA. Il perche’ di questo e’ da ricercarsi nelle possibili applicazioni di queste nuove onde. Sempre leggendo in rete, oltre alle applicazioni belliche di cui abbiamo gia’ parlato, le onde scalari permetterebbero l’estrazione e l’utilizzo dell’energia del vuoto, praticamente gratis e illimitata, consentirebbero di viaggiare nel tempo deformando localmente l’universo grazie all’enorme energia in gioco e, non per ultimo, consentirebbero uno spostamento dalla nostra dimensione ad uno dei tanti universi a noi paralleli.

Sembra un film di fantascienza, perche’ infatti lo e’!

Di Tesla abbiamo gia’ parlato in altri post:

Il Raggio della Morte

Il Raggio del Dolore

Marconi, Tesla e l’evidenza aliena

Come detto, Tesla fu un grande scienziato, geniale e unico nella sua specie. Quello che pero’ avviene in rete e’ una mitizzazione della figura di Tesla che, in ultima analisi, piuttosto che rivalutare i suoi studi, lo rende quasi una figura pseudoscientifica.

Foto dello scienziato Nikola Tesla

Foto dello scienziato Nikola Tesla

Le applicazioni viste delle armi ad onde scalari, altro non sono che ipotesi speculative sul raggio del dolore. Gli studi di Tesla hanno dato una forte spinta in avanti alla conoscenza e alle applicazioni delle onde elettromagnetiche in diversi campi. Come visto nei post precedenti, l’utilizzo in particolare delle microonde ad alta potenza trova diversi impieghi nei settori piu’ disparati: armi ad energia diretta, ricostruzione del buco dell’ozono, trasporto di segnali a lunghissima distanza, ma anche radar, sistemi di controllo, datazione di opere artistiche, ecc. Tutte applicazioni gia’ utilizzate o futuribili in tempi brevi, ma da cui si passa facilmente alle ipotesi che abbiamo visto.

Per completezza, torniamo di nuovo alle onde. Come detto, ad oggi non vi sono assolutamente evidenze di onde elettromagnetiche scalari. Capite bene che se queste non esistono, non possono esistere armi basate su questa tecnologia. Come detto in precedenza, per arrivare a questa conclusione basterebbe che molte persone, convinte di questo complotto, prendessero in mano un qualsiasi libro di elettromagnetismo e capirebbero subito l’assurdita’ delle ipotesi.

Cosa dire allora dei tanti video che girano in rete e che utilizzano onde scalari?

Qui il discorso e’ molto semplice. I maggiori sostenitori di questa tecnologia, tra l’altro sono anche quelli che sostengono di poterla utilizzare, sono Bearden e Naudin. Questi avrebbero, in tempi diversi, realizzato apparecchiature in grado di creare onde scalari e di poterle utilizzare con gli scopi piu’ disparati.

Bene, sempre di video su internet si tratta. Mi spiego meglio. Ad oggi non esiste nessuna evidenza scientifica ne tantomeno brevetto a garanzia di quanto affermato. Questa storia e’ molto simile a quelle tanto discusse in rete sulla fusione fredda, sui fenomeni LENR o sulle invenzione di Keshe. In tutti questi casi, si parla di una teoria, si mostrano video rivoluzionari su internet, ma poi nessuno mostra nulla di concreto, propone brevetti e controprove scientifiche. Mi spiego meglio, se inventiamo qualcosa di rivoluzionario, lo rendiamo pubblico, ovviamente dopo averlo brevettato, e, consci del fatto che funzioni, chiediamo controprove a chiunque per dimostrare la correttezza dell’invenzione. Cosa avviene invece sempre piu’ spesso? La rete offre una vetrina per chiunque in cerca di un momento di gloria. Si parla di tante teorie in grado di rivoluzionare la nostra vita, generalmente in campo energetico che e’ uno dei problemi piu’ sentiti, e poi? Se ne continua a parlare e parlare e parlare. Nessuno mostra mai nulla di concreto o tangibile. Nel caso delle onde scalari avviene esattamente la stessa cosa.

Ripeto, ad oggi non vi e’ nessuna evidenza dell’esistenza di onde scalari, cosi’ come non vi e’ prova del monopolo magnetico, dell’utilizzo dell’energia del vuoto o di altri sistemi di questo tipo. Molto spesso, le ipotesi portate all’attenzione violano i principi primi della fisica stessa e sarebbero considerate assurde anche solo considerando la fisica classica. Su alcuni siti potete trovare affermazioni che sfiorano la “blasfemia scientifica” parlando di violazione del secondo principio della termodinamica, di moto perpetuo, di equazioni di Maxwell tenute nascoste o anche di propagazione di segnali nell’etere senza perdite di energia.

Solo per concludere, nelle ipotesi viste, soprattutto nelle pagine piu’ recenti, come conferma di queste teorie viene portata l’evidenza scientifica del neutrino che puo’ viaggiare piu’ velocemente della luce. Anche in questo caso, l’ignoranza dilaga. Nel 2012 si e’ molto parlato dei neutrini superluminali, cioe’ in grado di superare la velocita’ della luce, a seguito di una misura fatta presso l’esperimento OPERA ai Laboratori del Gran Sasso. Purtroppo pero’, molti dimenticano che dopo pochi mesi c’e’ stata la smentita ufficiale di questa misura il cui valore rivoluzionario era solo dovuto ad un errore sperimentale. In questo caso, oltre a riprendere i libri di fisica, si dovrebbero leggere anche i giornali.

Riassumendo, non vi sono evidenze scientifiche dell’esistenza delle onde scalari, ma l’unica trattazione fisica, e verificata in moltissimi studi, e’ quella di un’onda elettromagnetica che trasporta un campo elettrico e uno magnetico. In questa ottica, non ha dunque senso parlare di armi scalari dal momento che viene a mancare il “proiettile” da utilizzare. Come visto nei diversi post, molti dei fenomeni richiamati in questo contensto (moria di uccelli, modificazione climatica, scie chimiche, ecc) in molti casi sono falsi, mentre in altri e’ possibile trovare una spiegazione piu’ semplice e confermata da misure specifiche.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.