Tag Archives: antenna

E quindi uscimmo a riveder le stelle

10 Set

Nella sezione:

Hai domande o dubbi?

e’ stata fatta una richiesta davvero molto interessante. Come potete leggere, si chiede come vengano ricostruite le immagini astronomiche che spesso ci vengono mostrate e catturate dai tanti telescopi a terra e in orbita. Questa richiesta sembra apparentemente molto semplice, ma nasconde in realta’ una vera e propria professione. Oggi come oggi, molti astronomi dedicano il loro lavoro proprio alla visione e all’elaborazione di immagini astronomiche. Cerchiamo di capire meglio come funzionano queste tecniche per poter meglio apprezzare anche il lavoro che c’e’ dietro una bella immagine che troviamo sulla rete.

Come sapete bene, al giorno d’oggi, per esplorare l’universo non si utilizzano piu’ solo telescopi nel visibile. In questo caso, come facilmente immaginabile, questi sistemi catturano immagini esattamente come farebbe il nostro occhio. Oltre a questi, si utilizzano telescopi, sia a terra che in orbita, sensibili all’infrarosso, ai raggi X, all’ultravioletto, oltre ad enormi antenne pensate per catturare segnali radio provenienti dal cosmo.

Che differenza c’e’ tra queste radiazioni?

Per capire bene il concetto, vi mostro quello che normalmente si chiama lo spettro della radiazione elettromagnetica:

Spettro della radiazione elettromagnetica

Diverse lunghezze d’onda vengono accorpate in famiglie. Come vedete, la parte visibile, cioe’ quella a cui i nostri occhi sono sensibili, e’ in realta’ solo una strettra frazione dell’intero spettro. Per fare un esempio, tutti conosciamo le immagini infrarosse utilizzate per esempio per identificare le fonti di calore. Bene, questo e’ un esempio di immagine fuori dallo spettro visibile. Si tratta di particolari che i nostri occhi non sarebbero in grado di vedere, ma che riusciamo a visualizzare utilizzando tecnologie appositamente costruite. Non si tratta di immagini false o che non esistono, semplicemente, mediante l’ausilio di strumentazione, riusciamo a “vedere” quello che i nostri occhi non sono in grado di osservare.

Bene, il principio dietro l’astronomia nelle diverse lunghezze d’onda e’ proprio questo. Sfruttando parti dello spettro normalmente non visibili, si riesce ad osservare dettagli che altrimenti sarebbero invisibili.

Per dirla tutta, anche le normali immagini visibili, subiscono un’opera di elaborazione pensata per ricostruire i dettagli e per ottimizzare la visione. Cosa significa? Nella concezione comune, un telescopio nel visibile e’ paragonabile ad una normale macchina digitale. Questo non e’ esattamente vero. Molto spesso, le immagini catturate da questi sistemi sono ottenute mediante una sovrapposizione di dati raccolti utilizzando filtri diversi.

Cosa significa?

Prendiamo come esempio il telescopio Hubble. In questo caso, il sistema acquisisce immagini a diverse lunghezze d’onda, o isolando una particolare frequenza piuttosto che altre. Si tratta di immagini in bianco e nero che poi vengono colorate artificialmente e sovrapposte per formare l’immagine finale. Attenzione, non dovete pensare che la colorazione artificiale sia un trucco per far apparire piu’ belle le foto. Questa tecnica e’ di fondamentale importanza per far esaltare dei particolari che altrimenti verrebbero confusi con il resto. Questa tecnica si chiama dei “falsi colori”, proprio perche’ la colorazione non e’ quella originale ma e’ stata creata artificialmente.

Per capire meglio, proviamo a fare un esempio.

Prendiamo una delle foto piu’ famose di Hubble, quella della galassia ESO 510-G13:

ESO 510-G13 da Hubble

Questa immagine e’ ottenuta con la tecnica del “colore naturale”, cioe’ esattamente come la vedrebbero i nostri occhi se fossero potenti come quelli di Hubble. In questo caso dunque, la colorazione e’ quella che potremmo vedere anche noi ma anche questa immagine e’ stata ottenuta sovrapponendo singoli scatti ripresi dal telescopio.

In particolare, si sono sovrapposte tre immagini in bianco e nero, ognuna ottenuta selezionando solo la radiazione visibile blu, rossa e verde:

ESO 510-G13 immagini a colore singolo

Perche’ viene fatto questo?

Selezionando solo una piccola parte dello spettro visibile, cioe’ il singolo colore, e’ possibile sfruttare il sistema per catturare al meglio i singoli dettagli. In questo modo, come visibile nelle foto, ciascuna immagine e’ relativa ad un solo colore, ma al meglio della risoluzione. Sommando poi le singole parti, si ottiene il bellissimo risultato finale che abbiamo visto.

Analogamente, in alcuni casi, si amplificano determinate lunghezze d’onda rispetto ad altre, per rendere piu’ visibili alcuni dettagli. Anche in questo caso vi voglio fare un esempio. Questa e’ una bellissima immagine della Nebulosa dell’Aquila:

Nebulosa testa d'aquila

Cosa significa amplificare alcuni colori?

Nella foto riportata, oltre ad ammirarla, gli astronomi riescono a vedere le emissioni di luce da parte dei singoli gas costituenti la nebulosa. Questo studio e’ importante per determinare la concentrazione di singoli elementi, e dunque identificare particolari tipologie di corpi celesti. Per capire meglio, nella ricostruzione a posteriori dell’immagine, e’ stato assegnato il colore verde all’emissione degli atomi di idrogeno, il rosso agli ioni di zolfo e il blu alla luce emessa dall’ossigeno ionizzato. Perche’ questo artificio grafico? Se non venisse elaborata, nell’immagine la luce emessa dalla zolfo e dall’idrogeno sarebbero indistinguibili tra loro. Se ora rileggete l’assegnazione dei colori riportata e rivedete l’immagine della nebulosa, siete anche voi in grado di determinare quali gas sono piu’ presenti in una zona piuttosto che in un’altra. Ovviamente questi sono processi che devono essere fatti analiticamente, elaborando le informazioni di ogni singolo pixel.

Analogo discorso puo’ essere fatto per la radioastronomia. In questo caso, come sapete e come anticipato, quelli che vengono registrati sono dei segnali radio provenienti dai diversi settori in cui viene diviso l’universo. Non avendo delle immagini, nei radiotelescopi si hanno degli impulsi radio che devono essere interpretati per identificare il tipo di sorgente, ma soprattutto la zona da cui il segnale proviene.

Per farvi capire meglio questo concetto, vi racconto la storia dell’inizio della radioastronomia. Nel 1929 un radiotecnico americano che lavorava in una stazione di Manila, mentre era al lavoro per eliminare disturbi dalle trasmissioni, si accorse che vi era un particolare rumore di fondo che si intensifica in determinati momenti della giornata. Nello stesso anno, Jansky, un ingegnere della compagnia americana Bell, anche lui al lavoro per cercare di migliorare le comunicazioni transoceaniche, arrivo’ alla stessa conclusione del radiotecnico. L’ingegnere pero’ calcolo’ il momento preciso in cui questi disturbi aumentavano, trovando che il periodo che intercorreva tra i massimi corrispondeva esattamente alla durata del giorno sidereo, 23 ore e 56 minuti. Solo anni piu’ tardi, riprendendo in mano questi dati, ci si accorse che la fonte di questo disturbo era il centro della nostra galassia. I segnali radio captati erano massimi quando il ricevitore passava davanti al centro della galassia, emettitore molto importante di segnali radio.

Oggi, mediante i nostri radiotelescopi, riusciamo ad identificare moltissime sorgenti radio presenti nell’universo e, proprio studiando questi spettri, riusciamo a capire quali tipologie di sorgenti si osservano e da quale punto dell’universo e’ stato inviato il segnale. A titolo di esempio, vi mostro uno spettro corrispondente ai segnali radio captati nell’arco del giorno con un semplice radiotelescopio:

Spettro giornaliero di un radiotelescopio con antenna da 3.3 metri. Fonte: Univ. di Pisa

Come vedete, sono chiaramente distinguibili i momenti di alba e tramonto, il passaggio davanti al centro galattico e quello corrispondente al braccio di Perseo. Come potete facilmente capire, si tratta di misure, chiamiamole, indirette in cui i nostri occhi sono proprio le antenne dei telescopi.

Concludendo, ci sono diversi metodi per pulire, migliorare o amplificare le immagini raccolte dai telescopi sia a terra che in orbita. Quello che facciamo e’ amplificare la nostra vista o utilizzando sistemi molto potenti, oppure ampliando lo spettro delle radiazioni che altrimenti non sarebbero visibili. I telescopi divengono dunque degli occhi sull’universo molto piu’ potenti e precisi dei nostri. Metodi diversi, ottico, UV, IR, radio, ecc, possono aiutare a capire dettagli o strutture che altrimenti sarebbero invisibili in condizioni normali. Detto questo, capite quanto lavoro c’e’ dietro una bella immagine che trovate su internet e soprattutto perche’ la foto ha una specifica colorazione o particolari sfumature.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Lampi Radio dall’universo lontano

8 Lug

Come sapete bene, scopo principale di questo blog e’ quello di divulgare la scienza. A questo proposito, diverse volte ci siamo trovati a parlare di recentissime scoperte di cui, al momento, non si sa ancora nulla. Scopo della ricerca e’ anche questo. Molto spesso, i modelli teorici formulati danno indicazioni precise dove cercare cose nuove. Molte altre volte invece, magari per caso, ci si trava di fronte a scoperte del tutto inattese e che richiedono un notevole sforzo perche’ vanno a minare le conoscenze o le supposizioni fatte fino a quel momento.

Perche’ faccio questa introduzione?

Solo pochi giorni fa, e’ stato pubblicato un articolo su Science molto interessante, riguardante il nostro universo. Come sappiamo bene, le nostre attuali conoscenze sono ancora molto lontane dall’essere complete. Questo e’ del tutto normale se pensiamo che stiamo osservando l’universo principalmente dalla nostra Terra basandoci su osservazioni indirette o comunuque molto lontane dalle sorgenti.

La ricerca di cui sto parlando, a cui hanno partecipato anche diversi ricercatori italiani, riguarda l’osservazione, del tutto inattesa, di segnali radio provenienti da distanze cosmologiche. Questi eventi sono gia’ stati ribattezzati FRB, cioe’ “fast radio burst”, tradotto “lampi radio veloci”.

Di cosa si tratta?

Parlando come sempre di teorie catastrofiste, solo poche settimane fa avevamo parlato della WR104, sfruttando in realta’ questa notizia per parlare di Gamma Ray Burst, cioe’ Lampi di Raggi Gamma:

WR104, un fucile puntato verso di noi

Mentre in questo caso si parlava di lampi di radiazione gamma, gli FRB sono invece lampi a frequenza nelle onde radio. Come anticipato, si tratta di segnali la cui origine e’ stata approssimativamente indicata a distanze cosmologiche. Ad oggi, sono stati osservati solo 4 FRB la cui emissione e’ avvenuta tra 5.5 e 10 miliardi di anni luce da noi. Considerando che il nostro universo ha un’eta’ stiamata di circa 14 miliardi di anni, questi lampi sono stati emessi in media quando l’universo aveva all’incirca la meta’ della sua attuale eta’.

Come e’ avvenuta questa scoperta?

Come e’ facile immaginare, il primo FRB e’ stato osservato qualche anno fa e inizialmente si pensava fosse dovuto ad un errore strumentale. Successivamente poi, utilizzando il radiotelescopio australiano CSIRO Parkes da 64 metri, si e’ riusciti ad identificare altri tre eventi.

Perche’ e’ cosi’ difficile registrare gli FRB?

Il problema principale di questi eventi e’, come dice il nome stesso, il segnale molto corto, dell’ordine dei millisecondi. Si tratta dunque di eventi estremamente potenti ma che vengono emessi in tempi molto corti, proprio come un’esplosione che avviene ad onde radio. In realta’, come stimato da calcoli teorici, gli FRB dovrebbero essere tutt’altro che rari nel nostro universo. I 4 eventi osservati sono stati visti in una porzione estremamente ridotta di cielo. Facendo un calcolo statistico, si e’ visto che in realta’ ci dovrebbe essere un evento di questo tipo da qualche parte ogni 10 secondi. Dunque, con una frequenza molto elevata. Il fatto di averli osservati solo ora, se vogliamo, dipende da una questione di fortuna. Trattandosi di eventi cosi’ rapidi, e’ necessario che il radiotelescopio sia puntato proprio nella direzione della sorgente per poter osservare il segnale.

Come si e’ identificato il punto di origine?

In realta’, come anticipato, le distanze sono da considerarsi come una stima. Le onde radio, propagandosi nell’universo, subiscono modificazioni dovute al passaggio attraverso la materia. Detto questo, e’ possibile stimare una distanza di origine appunto osservando in dettaglio lo spettro dei segnali.

Per capire questo concetto, si deve pensare che quando queste onde si propagano verso la Terra dal punto in cui sono emesse, passano nel mezzo intergalattico, cioe’ in quelle regioni di gas e polveri che separano tra loro due Galassie. Bene, attrevarsando queste regioni, principalmente popolate di elettroni, le onde radio ne escono di volta in volta sparpagliate. Osservando lo spettro che arriva a Terra, in particolare proprio questo sparpagliamento, e’ possibile capire quanto mezzo intergalattico e’ stato attraversato e duqnue la distanza della Terra dall’origine del lampo radio. Perche’ diciamo che la distanza e’ solo una stima? Come intuibile, in questa tecnica si fa una stima delle particelle del mezzo intergalattico. Ovviamente non si tratta di supposizioni a caso, ma sono numeri basati su osservazioni dirette e indirette. In questo caso pero’, l’incertezza sulla distanza e’ proprio dovuta all’incertezza con cui si conosce il mezzo intergalattico. Molto piu’ preciso e’ invece il metodo per misurare distanza e velocita’ di una stella classica, come visto in questo post:

Come misurare distanza e velocita’ di una stella

Chi ha prodotto gli FRB?

Come anticpato, e come e’ facile immaginare, questa e’ la domanda a cui si dovra’ dare una risposta. Quando abbiamo parlato di GRB, lo abbiamo fatto partendo da una stella Wolf Rayet che sappiamo essere in grado di produrre questi eventi. Per quando riguarda invece gli FRB, essendo tra l’altro del tutto inaspettati, non e’ ancora stato possibile capire la loro origine. Ovviamente, esistono delle ipotesi fatte per spiegare questi eventi. Alcuni astronomi puntano il dito contro le magnetar, cioe’ stelle di neutroni con campi magnetici molto elevati, in grado di emettere violenti lampi elettromagnetici di raggi X e gamma. Solo pochi giorni fa, e’ stato pubblicato un altro articolo che tenta invece di spiegare gli FRB analizzando il comportamento teorico delle stelle di neutroni supermassive. Questo e’ il link all’articolo per chi volesse approfondire:

FRB, Super Massive Neutron Stars

Ovviamente, si tratta di tutte ipotesi che chiamano in causa corpi astronomici in cui la materia si trova in condizioni molto particolari, perche’ sottoposta a pressione gravitazionale intensa, rapida rotazione o campi magnetici molto elevati. In condizioni normali, non ci sarebbero emissioni di onde radio.

Ovviamente, non potevano certo mancare le ipotesi fantascientifiche circa l’origine di questi segnali. Sulla falsa riga del segnale WOW!:

Il segnale WOW!

c’e chi ha proposto che l’origine del segnale radio sia una lontana civilta’ intelligente che sta cercando di comunicare con noi o anche che siano segnali di avvertimento provenienti da altri mondi su qualcosa che potrebbe accadere. Senza commentare ulteriormente su queste ipotesi, lasciatemi solo fare un’osservazione. I 4 segnali evidenziati finora provengono da punti distanti ben 5 miliardi di anni luce tra loro. Detto questo, mi sembra assurdo pensare che ci sia un popolo che si diverte a spostarsi cosi’ tanto nel nostro universo. Ovviamente, queste ipotesi nascono sulla rete, sono divertenti da leggere, ma non apportano nessuna informazione utili ai fini della ricerca sugli FRB.

A questo punto, non resta dunque che continuare a studiare il fenomeno per cercare di accumulare maggiore statistica, cioe’ nuovi eventi. Questa e’ ovviamente una condizione necessaria per poter verificare le ipotesi fatte o anche per formularne di nuove. Come visto nelle teorie attuali, per alcuni casi, le onde radio dovrebbero essere accompagnate da emissioni di raggi X e gamma. In tal senso, lo studio congiunto dei segnali utilizzando radiotelescopi e strumenti sensibili a queste radiazioni consentirebbe proprio di poter osservare l’emissione congiunta di questi eventi. In questa nuova caccia che si e’ aperta, il radiotelescopio italiano Sardinia, dal punto di vista costruttivo gemello di quello australiano, e che sta entrando nella fase operativa in questo periodo, potra’ dare un notevole contributo.

Studiare eventi di questo tipo ci consente prima di tutto di capire meglio come e’ fatto il nostro universo, evidenziando fenomeni che prima si ignoravano o comportamenti anomali di oggetti celesti conosciuti. Inoltre, alla luce di quanto detto sull’interazione delle onde radio con lo spazio attraversato, l’analisi degli FRB potrebbe consentirci di ottenere nuove informazioni sulla composizione del nostro universo, fornendo nuovo materiale sulle componenti oscure o di antimateria di cui abbiamo parlato in questi post:

La materia oscura

Due parole sull’antimateria

Antimateria sulla notra testa!

Universo: foto da piccolo

Troppa antimateria nello spazio

Concludendo, l’articolo pubblicato solo pochi giorni fa ha evidenziato un fenomeno del tutto inatteso e nuovo nel cosmo. Lo studio degli FRB e’ appena iniziato e vedra’ come protagonista anche un telescopio nostrano gestito dall’INAF. Le informazioni ricavate in questa ricerca potrebbero essere molto utili anche per capire meglio l’origine e la composzione del nostro universo. Come diciamo sempre, ci sono ancora tantissime cose da scoprire. Evidenze come questa ci fanno capire quanto lavoro c’e’ ancora da fare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Internet dalla stratosfera

19 Giu

Se dovessimo pensare al piu’ grande sviluppo tecnologico degli ultimi 10 anni, probabilmente molti di noi potrebbero rispondere che la connessione internet ha pesantemente contribuito a cambiare il mondo ed il nostro modo di pensare.

Molto spesso, in questo blog, ci siamo fermati a riflettere proprio sulla rete internet. Nel nostro caso, abbiamo valutato i suoi apsetti negativi parlando del tamtam mediatico delle dicerie catastrofiste, ma abbiamo anche piu’ volte elogiato la potenza eccezionale di internet nel connettere le persone e nel darci accesso ad una quantita’ illimitata di informazioni.

Chiunque stia leggendo questo articolo, potra’ farlo grazie alla sua connessione dati, vuoi sul pc mediante la rete di casa o anche attraverso tablet e smartphone connessi alla rete mobile. Anche se a prima vista potrebbe sembrare assurdo, sulla terra 2,2 miliardi di persone sono connesse, ma ben 4,8 miliadi di persone non sono assolutamente raggiunte dal segnale. Ora, non pensiamo solo alle zone piu’ povere del pianeta in cui, permettetemi l’affermazione, la rete non e’ sicuramente il primo problema. In molte zone degli stati, cosiddetti ricchi, vi sono ancora molte persone non raggiunte da internet perche’ magari si trovano in zone desolate e isolate o perche’ i costi nel portare i cavi principali sarebbero troppo elevati.

Pallone del progetto Loon in orbita

Pallone del progetto Loon in orbita

Una possibile soluzione a questo problema, potrebbe essere stata formulata proprio da google, che ha sviluppato un importante progetto di ricerca per cercare di portare la connessione internet in tutte le parti del mondo. Dal momento che, come anticipato, i costi maggiori derivano dalla stesura dei cavi in terra, la soluzione pensata da google prevede di far arrivare il segnale dal cielo.

Il nome del progetto e’ “Project Loon” e prevede il lancio di speciali palloni in atmosfera in grado di trasmettere a terra la portante per la connessione internet.

Pensate sia fantascienza?

Siete completamente fuori strada. Non solo si tratta di un progetto reale, ma e’ gia’ partita la sperimentazione per valutare sul campo le potenzialita’ e i costi di questa soluzione.

Il project loon si basa su speciali palloni aerostatici senza pilota, che vengono inviati nella stratosfera. I palloni sono interconnessi tra loro mediante segnali radio e dispongono di un sistema di pannelli solari in grado di fornire la corrente indispensabile al funzionamento.

Ricevitore domestico del progetto Loon

Ricevitore domestico del progetto Loon

Una prima prova e’ sata fatta solo pochi giorni fa stabilendo la connessione tra un pallone aerotatico ed un singolo contadino della cittadina di Leston che vive in una zona molto isolata dove alleva pecore. L’esperimento e’ completamente riuscito e la connessione e’ stata stabilita per un tempo di 15 minuti. L’intervallo limitato e’ dovuto al passaggio del singolo pallone che dopo poco tempo e’ uscito fuori dalla portata del ricevitore domestico. Ovviamente, quando il sistema sara’ entrato a regime, ci saranno diersi palloni in orbita, in modo tale da assicurare sempre una minima copertura per la connessione.

Riguardo al ricevitore domestico a cui accennavamo, si tratta di una semplice antenna in grado di ricevere i segnali dal pallone e che puo’ essere installata fuori dall’abitazione in prossimita’ del tetto. Questo accorgimento serve solo per lasciare campo libero tra l’antenna e la sorgente.

Per curiosita’, sapete come ha sfruttato la connessione l’allevatore di Leston? E’ andato a vedere le previsioni del tempo per capire se era un buon momento per la tosatura delle sue pecore. Come vedete, se pensiamo alla specifica applicazione, la ricerca fatta ci dimostra l’utilita’ della connessione per tutti in base alle diverse esigenze che ognuno di noi puo’ avere.

I palloni lanciati da Google navigheranno ad una quota di 12 miglia sulla superficie terrestre e, ad oggi, circa 50 famiglie americane stanno sperimentando il sistema Loon per verificare la fattibilita’ del progetto.

Ovviamente, l’importanza e l’utilita’ di un sistema del genere sono evidenti a tutti. Pensate solo, ad esempio, alle tante persone che vivono isolate in Africa ed in Asia. Certamente, non converrebbe a nessuna compagnia tirare cavi fino alle abitazioni piu’ sperdute, solo per avere un abbonato in piu’. Il sistema Loon consentira’ invece, con una spesa sicuramente inferiore, di poter connettere gran parte della popolazione mondiale.

A questo punto, non resta che attendere gli sviluppi del progetto e sperare che la connessione sia possibile stabilmente e con una velocita’ adeguata.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il palo che vibra a Torino

3 Apr

A Torino, gia’ da diverso tempo, sta avvenendo un fenomeno che sta facendo molto discutere sul web ma che sta occupando anche le pagine di diversi quotidiani. Come forse avrete sentito, in prossimita’ del cantiere per la costruzione del grattacielo di Renzo Piano realizzato per conto di Intesa San Paolo, un paletto vibra in modo autonomo con oscillazioni molto pronunciate e quasi incredibili.

Andiamo con ordine.

Per prima cosa vi mostro un video di questo particolare fenomeno:

VIDEO Palo Torino

Come potete vedere, questo paletto, probabilmente un tempo utilizzato per sostenere un cartello stradale, oscilla in modo incredibile con ampiezza molto pronunciata senza un’apparente spiegazione.

Come potete immaginare, questo fenomeno ha acceso da subito la fantasia di molti siti internet e di utenti da sempre alla ricerca di fenomeni strani. Le spiegazioni date sono moltissime, ma le piu’ fantasiose vanno dal fenomeno UFO, il palo sarebbe un’antenna aliena, fino anche ad una nuova forma di terremoto non percepibile dalla popolazione e generata da esperimenti scientifici.

In qusti scenari fantascientifici, non mancano certo ipotesi catastrofiste. Secondo alcuni infatti, il palo vibrerebbe perche’ in realta’ la costruzione del grattacielo e’ solo una copertura per mascherare operazioni di fracking. Di queste attivita’ e del rischio associato di terremoti abbiamo parlato in questo post:

Fratturazione idraulica

Da cosa puo’ dipendere questa oscillazione? In realta’ le cause potrebbero essere diverse e tutte di natura scientifica. Le prime oscillazioni sono state osservate durante l’estate del 2012 e fino ad oggi, con numerose interuzioni e riprese, sono avvenute con intensita’ anche diversa.

Gia’ alle prime oscillazioni, molti hanno puntato il dito contro il cantiere del grattacielo distante solo 2 metri. Questo ovviamente ha scatenato la reazione della ditta costruttrice che a sua volta ha puntato il dito contro la societa’ che gestisce la metropolitana. Pensate sia finita qui? Assolutmente no. La societa’ della metro ha, a sua volta, dato la colpa ai tram circolanti nella zona. Come potete capire, tutti cercano di scaricare la colpa ad altri, dal momento che questa oscillazione rimane ancora un mistero e nessuno vorrebbe assumersi l’eventuale colpa di attivita’ rischiose per la popolazione.

Meccanismo del Vortex Shedding

Meccanismo del Vortex Shedding

Proprio in questi giorni, la Repubblica online ha riportato di nuovo la notizia dichiarando di aver finalmente risolto il mistero. Secondo il giornale, anzi secondo l’opinione di un lettore, la spiegazione dell’oscillazione e’ da ricercarsi nel “Vortex Shedding”. Di cosa si tratta? Questo e’ un fenomeno molto noto a livello scientifico ed in particolare nella fluidodinamica. Quando un flusso viscoso, aria, acqua o altro fluido, scorre con una certa velocita’ in prossimita’ di un oggetto cilindrico, questo movimento potrebbe innescare fenomeni di oscillazione che possono avere ampiezze fino anche a due volte il diametro del cilindro. La spiegazione e’ molto semplice, il flusso di fluido crea dei vortici lungo il corpo creando zoea di alta e bassa pressione. Se uno dgli estremi del cilindro e’ vincolato, allora l’oscillazione si avra’ sull’estremo libero che tendera’ a muoversi verso le zone a piu’ bassa pressione.

Anche se si riserva un piccolo margine di dubbio, il giornale afferma che con buona probabilita’ questa e’ la spiegazione scientifica per comprendere il fenomeno del palo che vibra.

Ora pero’, ovviamente, per avere Vortex Shedding e’ necessario aver un flusso di aria lungo il paletto. Questa, anche in base alla teoria citata, e’ una condizione necessaria per avere questo fenomeno. Ovviamente, non e’ necessario che ci sia un vento a velocita’ elevatissima, basta infatti una corrente nella direzione giusta affinche’ il paletto inizi a vibrare ortogonalmente alla direzione del fluido.

A mio avviso, questa potrebbe essere una spiegazione possibile, anche se non e’ ovviamente l’unica. In particolare, vorrei farvi notare un dettaglio. Questo e’ il link ad un altro articolo dello stesso giornale datato pero’ luglio 2012, cioe’ quando e’ iniziata l’oscillazione:

Articolo 07/2012

Leggete con attenzione questa frase: E non è colpa del vento, visto che ieri su Torino c’ era bonaccia e non si muoveva foglia.

Dunque?

Come detto, quella del Vortex Shedding potrebbe essere una chiave di lettura ma in diversi articoli su web si riportano testimonianze di oscillazioni in giornate completamente senza vento. Inoltre, se rivediamo con attenzione il video riportato all’inizio dell’articolo, i fili del tram sono assolutamente fermi. Quest situazione sarebbe incompatibile con l’ipotesi del Vortex Shedding.

Quindi? Da cosa dipende l’oscillazione?

Ad oggi, non esiste ancora una spiegazione accettata per questo fenomeno. A mio avviso, il vortex shedding potrebbe essere una spiegazione, ma lo stesso fenomeno potrebbe avvenire anche per oscillazioni propagate nel terreno magari a metri di distanza dal palo. La presenza del cantiere potrebbe essere una spiegazione possibile, ma per avere un’idea certa, sarebbe necessario conoscere anche la struttura morfologica del terreno. Per darvi un’idea, se sotto il manto stradale fosse presente una zona con ampi vuoti, questa potrebbe fungere da cassa di risonanza per le oscillazioni che dunque verrebbero trasmesse al paletto.

Ovviamente l’ipotesi piu’ probabile, forse perche’ la piu’ facile da capire, e’ quella del vortex shedding, ma allora il precedente articolo di lugio di cui abbiamo parlato magari e’ stato scritto con toni sensazionalistici solo per attirare maggiormente l’attenzione. In questa ipotesi, dire che “non si muoveva una foglia” serviva solo ad aumentare il mistero sul fenomeno, salvo poi tornare indietro a distanza di mesi per spiegare il tutto con il vento.

Concludendo, la spiegazione certa per il fenomeno del palo che vibra ancora manca, anche se l’ipotesi piu’ probabile sembra essere quella del Vortex Shedding. Anche ragionando su articoli di quotidfiani nazionali, non e’ facile avere notizie certe, perche’, come visto, molto spesso anche questi giornali tendono un po’ a pompare le notizie per far apparire il tutto piu’ misterioso e magico.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

Il Muos di Niscemi

2 Apr

Diversi lettori del blog mi hanno scritto per chiedere il mio punto di vista sul sistema MUOS la cui costruzione era prevista a Niscemi in Sicilia.

Per chi fosse completamente a digiuno, il MUOS e’ un sistema di comunicazione satellitare che prevede 4 satelliti in orbita e 4 stazioni di terra. Questo sistema e’ direttamente gestito e voluto dal Dipartimento della Difesa degli Stati Uniti e servira’ per gestire, comandare e controllare in ogni parte del globo, le unita’ marine, aeree e di terra. Il sistema prevede diversi servizi tra cui la comunicazione vocale, lo scambio dati e la connessione di rete, tutto ad accesso riservato per scopi militari e di coordinamento. Le stazioni di terra verranno utilizzate per comunicare direttamente con i satelliti in orbita e la costruzione era prevista nelle Hawaii, in Australia, in Virginia e, come anticipato, a Niscemi a circa 60 Km dalla base militare di Sigonella.

Le stazioni di terra prevedono la costruzione di antenne operanti ad altissima frequenza e a banda stretta. Ecco una foto dell’installazione nelle isole Hawaii:

MUOS: stazione di terra nelle Hawaii

MUOS: stazione di terra nelle Hawaii

Perche’ stiamo parlando di questo sistema? Per quanto riguarda la costruzione della stazione di Niscemi, per diverso tempo ci sono stati dibattiti e scontri circa l’eventuale pericolo che queste antenne avrebbero costituito per la popolazione del posto. Nel corso degli anni, si sono formati comitati cittadini creati per impedire la costruzione di questa stazione e il dibattito ha riempito le pagine di molti quotidiani anche a livello nazionale. Ovviamente non e’ mancata la discussione politica. Diverse volte l’aministrazione regionale ha tentato di bloccare i lavori causando una discussione tra Parlamento Italiano, regione Sicilia e governo degli Stati Uniti. Come forse avrete letto, solo pochi giorni fa, l’amministrazione Crocetta ha bloccato definitivamente la costruzione della stazione ma, almeno a mio avviso, la discussione durera’ ancora per molto tempo.

Detto questo, non voglio assolutamente entrare in discussioni politiche sul MUOS e sulla regione Sicilia. Quello che molti utenti mi hanno richiesto e’ solo un parere scientifico sull’inquinamento elettromagnetico della stazione MUOS. Ovviamente, non entrero’ nel merito della discussione politica, degli accordi bilaterali tra Italia e USA ne tantomeno sull’eventuale valutazione di impatto ambientale che una stazione del genere sicuramente comporta sul panorama della zona.

A questo punto, la domanda su cui vorrei aprire una discussione e’: il MUOS e’ dannoso per la salute della popolazione?

A livello scientifico, ci sono due voci principali che si sono mosse parlando del MUOS. Da un lato Antonino Zichichi sostiene che l’installazione non e’ assolutamente dannosa per la popolazione vista la bassa potenza in gioco, dall’altro il Prof. Massimo Zucchetti del politecnico di Torino afferma che questa installazione potrebbe comportare seri rischi per la salute dei cittadini.

Come vedete, l’inizio non e’ dei migliori. Siamo di fronte a due punti di vista completamente opposti.

Ora, mentre Zichichi si e’ limitato a rilasciare interviste a diversi quotidiani, Zucchetti ha preparato una relazione tecnica sull’installazione che potete leggere a questo indirizzo:

Zucchetti, relazione MUOS

Come vedete anche dalla pagina, la relazione di Zucchetti viene pubblicizzata proprio da uno dei comitati cittadini nati per impedire l’installazione del MUOS a Niscemi, il comitato NoMuos.

Detto questo, proviamo a commentare la relazione di Zucchetti per cercare di capire se e come il MUOS potrebbe rappresentare un pericolo per la popolazione.

Prima di tutto, ci tengo a sottolineare che Zucchetti e’ esperto di radioprotezione ma e’ importante ragionare su quanto scritto per capire le motivazioni che spingono questa relazione nella direzione di considerare il MUOS come pericoloso.

Per prima cosa, dove doveva sorgere il nuovo impianto e’ gia’ presente un sistema radar detto NRTF le cui antenne sono in funzione dal 1991. Le analisi quantitative presentate nella relazione di Zucchetti riguardano proprio questo esistente impianto e vengono fatte considerazioni circa l’eventuale aggiunta del MUOS alle emissioni del NRTF.

Nella relazione vengono mostrate misure di campo elettrico fatte in diverse zone dell’impianto e che possiamo riassumere in questa tabella:

5,9 ± 0,6 V/m in località Ulmo (centralina 3)
4,0 ± 0,4 V/m in località Ulmo (centralina 8)
2 ± 0,2 V/m in località Martelluzzo (centralina 1)
1 ± 0,1 V/m in località del fico (centralina 7)

Come potete leggere nella relazione, queste misure, fatte dall’ARPA della Sicilia, potrebbero essere affette da un’incertezza al livello del 10%. Ora, per chi non lo sapesse, i limiti per la legislazione italiana impongono un campo inferiore a 6 V/m. Come potete vedere, anche considerando un’incertezza del 10%, solo il primo valore, se l’incertezza tendesse ad amentare la misura, sarebbe leggermente superiore al limite.

Cosa comporterebbe superare i 6 V/m? In realta’ assolutamente nulla. Cerchiamo di capire bene questo punto. Ad oggi, vi sono molte voci anche molto discordi sui reali effetti dell’inquinamento elettromagnetico. Mentre ci sono particolari frequenze ed esposizioni per cui e’ stato accertato un reale rischio per la salute, in moltissimi altri casi il discorso e’ ancora aperto e non si e’ giunti ad una conclusione. Pensate solo un attimo al discorso cellulari: fanno male? Non fanno male? Causano problemi al cervello? Tutte domande su cui spesso viene posta l’attenzione e su cui non esistono ancora dati certi. Con questo non voglio assolutamente tranquillizzare nessuno, ma solo far capire l’enorme confusione ancora presente su queste tematiche.

Tornando al discorso limiti di legge, superare di poco i 6 V/m non comporta assolutamente nulla. Perche’? Come detto siamo di fronte a fenomeni non ancora capiti dal punto di vista medico. Proprio per questo motivo esiste il “principio di precauzione”, cioe’ in caso di fenomeni scientificamente controversi si deve puntare ad una precauzione maggiore. Detto in altri termini, se non sappiamo se una determinata cosa fa male o meno, meglio mettere limiti molto stringenti.

Nel caso dei campi elettrici, il limite dei 6 V/m e’ nettamente inferiore a quello di altre nazioni europee, anche se, ad esempio, nel Canton Ticino il limite e’ di 3 V/m, e circa 500 volte inferiore al valore in cui ci si dovrebbero aspettare effetti diretti. Detto questo, se invece di 6 V/m, ne abbiamo 6,5 V/m, non succede assolutamente nulla. Non siamo ovviamente in presenza di un effetto a soglia, sotto il limite non succede nulla, appena sopra ci sono effetti disastrosi. Fermo restando che stiamo pensando l’incertezza del 10% sulla misura tutta nel verso di aumentarne il valore.

Detto questo, nella relazione da cui siamo partiti, si afferma pero’ che queste misure potrebbero essere sottistimate perche’ la strumentazione utilizzata non era sensibile alle emissioni a bassa frequenza intorno ai 45 KHz. In realta’, su questo punto non possono essere assolutamente d’accordo. La legge italiana stabilisce i limiti di cui abbiamo parlato per frequenze sopra i 100 KHz. Sotto questo valore, le onde elettromagnetiche sono assorbite pochissimo dal corpo umano per cui la loro emissione non viene neanche regolamentata. Questo solo per dire come le misure riportate nella relazione e fatte dall’ARPA della Sicilia sono del tutto attendibili e assolutamente non sottostimate.

Fin qui dunque, i valori misurati per l’installazione gia’ in funzione non mostrano nessun superamento dei limiti di legge italiani e potrebbero dunque essere considerati sicuri.

Andiamo ora invece, sempre seguendo la relazione da cui siamo partiti, al MUOS vero e proprio.

Per come dovrebbero essere fatte le antenne, e se la fisica non e’ un’opinione, il campo prodotto da un’antenna parabolica ha una forma cilindrica con una divergenza molto bassa. Detto in altri termini, il campo e’ all’interno dell’area della parabola e tende molto poco ad allargarsi appunto per non disperdere potenza. Detto questo, al di fuori del cilindro prodotto delle antenne, il campo e’ praticamente nullo e non comporta nessun problema nelle vicinanze.

Proviamo a fare due calcoli. Alla potenza di 1600 W, cioe’ la massima prevista per le antenne, il campo all’interno del cilindro sarebbe di circa 50 W/m^2. Questo valore e’ abbondantemente al di sopra dei limiti di legge di 1 W/m^2, ma per l’esposizione delle persone. Come potete facilmente immaginare, le antenne devono essere puntate verso il cielo per poter funzionare e per comunicare con i satelliti. Da quanto detto per la dispersione angolare fuori-cilindro, lontano dalle antenne il campo e’ praticamente nullo, diminuendo molto rapidamente.

Da questi numeri, e’ ovvio che se le antenne venissero puntate verso l’abitato, l’inquinamento elettromagnetico sarebbe elevatissimo, ma antenne di questo tipo hanno dei ferma-corsa meccanici che impediscono l’avvicinarsi dell’antenna troppo vicino all’orizzonte, oltre ovviamente a limitazioni software pensate appositamente per impedire queste esposizioni.

Detto in questo senso, le antenne del MUOS non dovrebbero essere un pericolo per la popolazione.

Sempre secondo la relazione e secondo le voci del web, le antenne del MUOS entrerebbero in funzione insieme a quelle gia’ discusse del NRTF. Cosa comporta questo? Ovviamente i due contributi si sommano, ma non linearmente come qualcuno potrebbe erroneamente pensare. Premesso che il MUOS sarebbe in funzione simultaneamente al NRTF solo inizialmente per poi sostituirlo del tutto, i due sistemi, alla luce dei calcoli fatti, non dovrebbero superare il limite di legge neanche quando sono simultaneamente accesi.

Se proprio vogliamo essere pignoli, resta quella misura dell’ARPA quasi al limite di legge. Sicuramente quella zona dovrebbe essere monitorata per capire meglio se il limite viene sistematicamente superato oppure no, ma solo a scopo di precauzione. Inoltre, bisognerebbe valutare la presenza di altre installazioni minori e il loro contributo totale, anche se non possono che rappresentare una piccola aggiunta al totale, oltre ovviamente ad eventuali fluttuazioni fuori asse delle emissioni. Questo genere di problematiche necessiterebbero di un monitoraggio continuo e completo dell’intera zona al fine di costruire una mappa del campo e valutare eventuali zone di picchi anomali.

Detto questo, se ci limitiamo al puro aspetto scientifico, il MUOS non dovrebbe rappresentare un pericolo per la popolazione della zona. Ovviamente, siamo in un campo molto difficile e ancora poco noto sia della scienza ma soprattutto della medicina. Non voglio assolutamente schierarmi a favore o contro il MUOS anche perche’ restano da valutare, indipendentemente da questa installazione, eventuali danni alla salute derivanti da un’esposizione prolungata nel tempo anche a limiti inferiori a quelli di legge. Come anticipato, questa tematica e’ ancora molto discussa e non si e’ ancora giunti ad un quadro completo.

Nella discussione, ho appositamente non valutato problematiche di natura diversa da quella dei campi elettromagnetici. Perche’ dobbiamo costruire una stazione radar degli USA in Italia? E’ giusto? Non e’ giusto? Questa installazione rovina il paesaggio della zona? I valori dichiarati per il progetto saranno quelli veri di esercizio?

Concludendo, alla luce dei dati analizzati, per l’installazione MUOS i limiti di legge sarebbero ampiamente soddisfatti. L’unico problema potrebbe derivare, anche se impossibile tenendo conto dei limiti meccanici imposti, da un puntamento diretto verso le abitazioni. L’ingresso del MUOS sostituirebbe il pre-esistente NTRF sicuramente piu’ vecchio ed operante a potenze e frequenze diverse. Purtroppo, il discorso non puo’ limitarsi a queste considerazioni, ma deve necessariamente racchiudere tematiche ambientali, politiche e mediche a cui non e’ possibile dare una risposta univoca in questo momento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il progetto Blue Beam

29 Mar

Rieccoci di nuovo a parlare di teoria del complotto e di cospirazioni fatte da misteriosi governi ombra a danno della povera popolazione mondiale che, in un modo o nell’altro, prima o poi dovra’ essere sterminata, resa schiava, convertita, ecc.

Questa volta vorrei parlarvi del cosiddetto progetto “Blue Beam”. Questo argomento mi e’ stato richiesto da diversi lettori che hanno chiesto un mio punto di vista, anche se, come vedremo, diversi argomenti che verranno trattati sono in parte stati gia’ discussi su questo blog. In questo caso, potremmo definire questa teoria del complotto un po’ come un riassunto di tante teorie tutte insieme proprio, come ormai siamo abituati, per creare confusione nelle persone che provano a documentarsi.

Veniamo a noi, cosa sarebbe questo progetto “Blue Beam”?

Questo sarebbe un complotto creato appositamente per riunire tutte le popolazioni del mondo sotto una nuova religione New Age con a capo l’Anticristo. Tutto questo sarebbe ad opera, al solito, degli Illiuminati o del Nuovo Ordine Mondiale, di cui abbiamo parlato in questi post:

Il complotto del complottista

Come si alimenta il sospetto

Il fenomeno Adam Kadmon

Il primo a parlare del Blue Beam fu Serge Monast, un giornalista investigativo con particolari interessi alle teorie cospirazioniste. In particolare, nel 1994, Monast pubblico’ il libro “Project Blue Beam” in cui metteva nero su bianco questa teoria, ovviamente senza citare nessuna fonte ufficiale ne’ tantomeno evidenze scientifiche delle ipotesi utilizzate.

Senza perderci in inutili dettagli, veniamo subito al complotto.

Prima di tutto, come anticipato, Monast pubblico’ la sua idea nel 1994 e nel 1996 mori’ di infarto. Se provate a reperire informazioni sui siti che sostengono questa teoria, trovate che a poche settimane da Monast anche un altro giornalista che sosteneva questa teoria mori’ di infarto. Ecco il primo spunto complottista: evidentemente i due giornalisti sono stati eliminati per non far trapelare le informazioni.

Ora, a parte che da nessuna parte ho trovato riferimenti al secondo giornalista, nessun nome o altri dettagli, ragioniamo un secondo: in genere, le persone che muiono di infarto hanno problemi cardiaci? A mio avviso, non e’ assolutamente detto, per cui non capisco come uno che muore di infarto debba per forza essere stato assasinato.

Ma tralasciamo questi dettagli e andiamo a parlare proprio del progetto.

Come anticipato, a differenza delle altre teorie, il complotto Blue Beam andrebbe a far leva sulla fede religiosa delle popolazioni del mondo. In particolare, per arrivare allo scopo ultimo di istituire la nuova religione, il progetto si articolerebbe in quattro fasi distinte.

FASE 1: Crollo della conocenza archeologica

Nella prima fase, si punterebbe a far cadere tutte le convinzioni archeologiche che gli essere umani hanno acquisito nel corso dei secoli. Come avverrebbe questo? Prima di tutto verrebbero creati terremoti in diverse parti del mondo, con il solo scopo di portare alla luce nuovi reperti, in realta’ appositamente posizionati nel punto del sisma. La scoperta di questi reperti sarebbe in grado di mettere in dubbio le certezze umane sulle diverse dottrine religiose, mostrando come nel corso dei secoli ci sia stata una cattiva interpretazione dei ritrovamenti ed in particolare delle dottrine religiose del pianeta.

Come creare terremoti falsi? Ma che domanda, attraverso HAARP!

Senza ritornare su questo argomento, di HAARP, di come funziona e dell’impossibilita’ di creare terremoti indotti in questo modo, abbiamo parlato in questi post:

Haarp e terremoti indotti?

Haarp, la causa di tutti i mali?

Cari giornalisti … almeno voi!

Come visto, i diversi siti che cercano di convincere dell’utilizzo come arma del sistema HAARP, utilizzano dati falsi e vengono del tutto sconvolte teorie scientifiche basilari che chiunque potrebbe verificare.

Andiamo avanti con il progetto Blue Beam.

FASE 2: Lo spettacolo spaziale

Quando le conoscenze archeologiche saranno state spazzate via e le convinzioni religiose cominceranno a scricchiolare, ci sara’ un impressionante spettacolo spaziale con luci, suoni, laser, ecc visibile da tutte le parti del mondo. In particolare, durante lo spettacolo verranno proiettate immagini e suoni diversi nei diversi paesi appunto per fare leva sul culto religioso di quella particolare zona.

Stando sempre a quanto riportato da Monast, si tratterebbe di immagini olografiche create appunto nel cielo sfruttando imponenti sistemi tecnologicamente avanzati.

Come e’ possibile realizzare tutto questo?

Sempre secondo la teoria, la tecnologa per fare questo sarebbe gia’ disponibile e sarebbe ovviamente, rullo di tamburi, HAARP anche in questo caso. Come avviene questo? Semplice, Haarp sarebbe in grado di creare aurore boreali modellando la figura mostrata in base a quello che si vuole mostrare. Anche in questo caso, ma forse ancora piu’ di prima, siamo nel campo delle fantasie. E’ impossibile creare aurore boreali e dare la forma che vogliamo addirittura per creare ologrammi. In questo post:

Messaggio alieno nelle aurore

avevamo parlato del presunto alieno rappresentato da un’aurora, mostrando in realta’ l’assurdita di questa ipotesi.

Ma siamo solo alla fase 2. Andiamo avanti.

FASE 3: Comunicazione Bidirezionale Elettronica Telepatica

Comunicazione Bidirezionale Elettronica Telepatica? Ma che significa? Qui viene il bello, sempre mediante onde a bassa frequenza ma a potenza enorme (almeno questo viene detto), si potrebbe comandare la mente delle persone. In particolare, nel progetto blue beam, il controllo sarebbe esercitato per far cadere le convinzioni delle persone e per mettere del tutto in dubbio tutte le credenze religiose presenti fino a quel momento. A questo punto, dopo questa fase, e’ come se il cervello di tutti gli uomini venisse azzerato dal punto di vista della fede religiosa, lasciando terreno fertile per insinuare la nuova religione.

Come e’ possibile modificare il pensiero collettivo? Ovviamente sempre tramite l’immancabile HAARP, ma questa volta c’e’ bisogno di un aiuto per raggiungere uno scopo cosi’ difficile. Provate ad indovinare da chi potrebbe arrivare questo aiuto? Dalle scie chimiche!

Di questo argomento, molto spinoso, e permettetemi di dire anche in modo piu’ serio, abbiamo parlato in questi post:

Alcune considerazione sulle scie chimiche

Scie Chimiche: il prelievo in quota

Scie chimiche e cloud seeding

Come difendersi dalle scie chimiche

Il Dibromoetano e le scie chimiche

A-380 modificato per spargere scie chimiche

Premesso che, come potete leggere in tutti i post, non esiste nessuna prova scientifica, oggettiva ed insindacabile sulle scie chimiche, e’ ancora piu’ assurdo mettere in relazione questo argomento con il controllo della mente.

Detto questo, ormai tutto sarebbe pronto per la quarta fase.

FASE 4: manifestazione universale

Pensate sia ora della nuova religione? Non dobbiamo essere frettolosi. Nella quarta fase, sempre con tecnologie simili a quelle viste prima, in diverse parti del mondo, tramite ologrammi, si farebbe credere che e’ in corso un’invasione aliena. Secondo i sostenitori di questa teoria infatti, il recente aumento di avvistamenti alieni altro non sarebbero che le prove in corso per costruire ologrammi sempre piu’ perfetti.

Perche’ si dovrebbe simulare un’invasione aliena?

Visto il pericolo, le maggiori potenze mondiali tenterebbero di scacciare gli invasori utilizzando il loro arsenale nucleare. Quando pero’ si capira’ che l’invasione era falsa, l’ONU sanzionera’ tutti i paesi imponendo lo smantellamento degli arsenali atomici.

E adesso che c’entra l’ONU? Semplice, anche loro fanno parte del nuovo ordine mondiale, come avete fatto a non pensarci!

A questo punto, con i paesi senza armamenti e le religioni azzerate, si pensera’ ad instaurare la nuova religione condivisa per tutti gli esseri umani ma, soprattutto, il nuovo governo mondiale.

Questa e’ la teoria complottista del Blue Beam. Pensate sia assurda? Purtroppo ci sono molti siti che sostengono questa teoria e che tutti i giorni cercano evidenze negli avvenimenti mondiali per mostrare l’inizio di questo progetto.

Non credo sia necessario aggiungere altro. Come anticipato all’inizio, per tutte le fasi abbiamo risposto citando post gia’ trattati ma, soprattutto, riprendendo quanto gia’ scritto e le spiegazioni circa la non fondatezza di queste teorie. Sicuramente, parlare del progetto Blue Beam ci ha permesso di fare un ottimo riassunto delle principali teorie complottiste trattate e di rinfrescare alcuni punti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Universo: foto da piccolo

24 Mar

In questi ultimi giorni, tutti i giornali, i telegiornali, i siti internet specializzati, sono stati invasi da articoli scientifici riguardanti le ultime scoperte fatte con il telescopio Planck. I dati di questo telescopio, gestito interamente dalla nostra Agenzia Spaziale Europea, hanno mostrato una foto dell’universo quando aveva solo 380000 anni. Ecco la foto che sicuramente vi sara’ capitato di vedere:

L'universo alla tenera eta' di 380000 anni

L’universo alla tenera eta’ di 380000 anni

Si parla anche di risultati sconvolgenti: l’universo e’ piu’ vecchio di quello che si pensava fino ad oggi. Inoltre, la radiazione cosmica di fondo presenta delle differenze tra i due emisferi oltre a mostrare una regione fredda piu’ estesa di quella che si pensava.

Fantastico, direi io, questi risultati mi hanno veramente impressionato. Ora pero’, la domanda che mi sono posto e’ molto semplice, anche su giornali nazionali, ho visto articoli che commentavano questa foto parlando di CMB, anisotropie, fase inflazionistica. In pochissimi pero’, si sono degnati di spiegare in modo semplice il significato di questi termini. Purtroppo, spesso vedo molti articoli che ripetono a pappagallo le notizie senza neanche chiedersi cosa significano quei termini che stanno riportando.

Cerchiamo, per quanto possibile, di provare a fare un po’ chiarezza spiegando in maniera completamente divulgativa cosa significa: radiazione cosmica di fondo, periodo inflazionistitico, ecc.

Andiamo con ordine. La foto da cui siamo partiti ritrae l’universo quando aveva 380000 anni ed in particolare mostra la mappa della radiazione cosmica di fondo.

Prima cosa, come facciamo a fare una foto dell’universo del passato? In questo caso la risposta e’ molto semplice e tutti noi siamo in grado di sperimentarla facilmente. Quando alziamo lo sguardo e vediamo il cielo stellato, in realta’ e’ come se stessimo facendo un viaggio nel tempo. Se guardiamo una stella distante 100 anni luce da noi, significa che quell’immagine che osserviamo ha impiegato 100 anni per giungere fino a noi. Dunque, quella che vediamo non e’ la stella oggi, bensi’ com’era 100 anni fa. Piu’ le stelle sono lontane, maggiore e’ il salto indietro che facciamo.

Bene, questo e’ il principio che stiamo usando. Quando mandiamo un telescopio in orbita, migliore e’ la sua ottica, piu’ lontano possiamo vedere e dunque, equivalentemente, piu’ indietro nel tempo possiamo andare.

Facciamo dunque un altro piccolo passo avanti. Planck sta osservando l’universo quando aveva solo 380000 anni tramite la CMB o radiazione cosmica a microonde. Cosa sarebbe questa CMB?

Partiamo dall’origine. La teoria accettata sull’origine dell’universo e’ che questo si sia espanso inizialmente da un big bang. Un plasma probabilmente formato da materia e antimateria ad un certo punto e’ esploso, l’antimateria e’ scomparsa lasciando il posto alla materia che ha iniziato ad espandersi e, di conseguenza, si e’ raffreddata. Bene, la CMB sarebbe un po’ come l’eco del big bang e, proprio per questo, e’ considerata una delle prove a sostegno dell’esplosione iniziale.

Come si e’ formata la radiazione di fondo? Soltanto 10^(-37) secondi dopo il big bang ci sarebbe stata una fase detta di inflazione in cui l’espansione dell’universo ha subito una rapida accelerazione. Dopo 10^(-6) secondi, l’universo era ancora costituito da un plasma molto caldo di  fotoni, elettroni e protoni, l’alta energia delle particelle faceva continuamente scontrare i fotoni con gli elettroni che dunque non potevano espandersi liberamente. Quando poi la temperatura dell’universo e’ scesa intorno ai 3000 gradi, elettroni e protoni hanno cominciato a combianrsi formando atomi di idrogeno e i fotoni hanno potuto fuoriuscire formando una radiazione piu’ o meno uniforme. Bene, questo e’ avvenuto, piu’ o meno, quando l’universo aveva gia’ 380000 anni.

Capiamo subito due cose: la foto da cui siamo partiti e’ dunque relativa a questo periodo, cioe’ quando la materia (elettroni e protoni) hanno potuto separarsi dalla radiazione (fotoni). Stando a questo meccanismo, capite anche perche’ sui giornali trovate che questa e’ la piu’ vecchia foto che potrebbe essere scattata. Prima di questo momento infatti, la radiazione non poteva fuoriuscire e non esisteva questo fondo di fotoni.

Bene, dopo la separazione tra materia e radiazione, l’universo ha continuato ad espandersi, dunque a raffreddarsi e quindi la temperatura della CMB e’ diminuita. A 380000 anni di eta’ dell’universo, la CMB aveva una temperatura di circa 3000 gradi, oggi la CMB e’ nota come fondo cosmico di microonde con una temperatura media di 2,7 gradi Kelvin. Per completezza, e’ detta di microonde perche’ oggi la temperatura della radiazione sposta lo spettro appunto su queste lunghezze d’onda.

Capite bene come l’evidenza della CMB, osservata per la prima volta nel 1964, sia stata una conferma proprio del modello del big bang sull’origine del nostro universo.

E’ interessante spendere due parole proprio sulla scoperta della CMB. L’esistenza di questa radiazione di fondo venne predetta per la prima volta nel 1948 da Gamow, Alpher e Herman ipotizzando una CMB a 5 Kelvin. Successivamente, questo valore venne piu’ volte corretto a seconda dei modelli che venivano utilizzati e dai nuovi calcoli fatti. Dapprima, a questa ipotesi non venne dato molto peso tra la comunita’ astronomica, fino a quando a partire dal 1960 l’ipotesi della CMB venne riproposta e messa in relazione con la teoria del Big Bang. Da questo momento, inizio’ una vera e propria corsa tra vari gruppi per cercare di individuare per primi la CMB.

Penzias e Wilson davanti all'antenna dei Bell Laboratories

Penzias e Wilson davanti all’antenna dei Bell Laboratories

Con grande sorpresa pero’ la CMB non venne individuata da nessuno di questi gruppi, tra cui i principali concorrenti erano gli Stati Uniti e la Russia, bensi’ da due ingegneri, Penzias e Wilson, con un radiotelescopio pensato per tutt’altre applicazioni. Nel 1965 infatti Penzias e Wilson stavano lavorando al loro radiotelescopio ai Bell Laboratories per lo studio della trasmissione dei segnali attraverso il satellite. Osservando i dati, i due si accorsero di un rumore di fondo a circa 3 Kelvin che non comprendenvano. Diversi tentativi furono fatti per eliminare quello che pensavano essere un rumore elettronico del telescopio. Solo per darvi un’idea, pensarono che questo fondo potesse essere dovuto al guano dei piccioni sull’antenna e per questo motivo salirono sull’antenna per ripulirla a fondo. Nonostante questo, il rumore di fondo rimaneva nei dati. Il punto di svolta si ebbe quando l’astronomo Dicke venne a conoscenza di questo “problema” dell’antenna di Penzias e Wilson e capi’ che in realta’ erano riusciti ad osservare per la prima volta la CMB. Celebre divenne la frase di Dicke quando apprese la notizia: “Boys, we’ve been scooped”, cioe’ “Ragazzi ci hanno rubato lo scoop”. Penzias e Wilson ricevettero il premio Nobel nel 1978 lasciando a bocca asciutta tutti gli astronomi intenti a cercare la CMB.

Da quanto detto, capite bene l’importanza di questa scoperta. La CMB e’ considerata una delle conferme sperimentali al modello del Big Bang e quindi sull’origine del nostro universo. Proprio questa connessione, rende la radiazione di fondo un importante strumento per capire quanto avvenuto dopo il Big Bang, cioe’ il perche’, raffreddandosi, l’universo ha formato aggreggati di materia come stelle e pianeti, lasciando uno spazio quasi vuoto a separazione.

Le osservazioni del telescopio Planck, e dunque ancora la foto da cui siamo partiti, hanno permesso di scoprire nuove importanti dinamiche del nostro universo.

Prima di tutto, la mappa della radiazione trovata mostra delle differenze, o meglio delle anisotropie. In particolare, i due emisferi presentano delle piccole differenze ed inoltre e’ stata individuata una regione piu’ fredda delle altre, anche detta “cold region”. Queste differenze furono osservate anche con la precedente missione WMAP della NASA, ma in questo caso si penso’ ad un’incertezza strumentale del telescopio. Nel caso di Plack, la tecnologia e le performance del telescopio confermano invece l’esistenza di regioni “diverse” rispetto alle altre.

Anche se puo’ sembrare insignificante, l’evidenza di queste regioni mette in dubbio uno dei capisaldi dell’astronomia, cioe’ che l’universo sia isotropo a grande distanza. Secondo i modelli attualmente utilizzati, a seguito dell’espansione, l’universo dovrebbe apparire isotropo, cioe’ “uniforme”, in qualsiasi direzione. Le differenze mostrate da Planck aprono dunque lo scenario a nuovi modelli cosmologici da validare. Notate come si parli di “grande distanza”, questo perche’ su scale minori esistono anisotropie appunto dovute alla presenza di stelle e pianeti.

Ci sono anche altri importanti risultati che Planck ha permesso di ottenere ma di cui si e’ parlato poco sui giornali. In primis, i dati misurati da Planck hanno permesso di ritoccare il valore della costante di Hubble. Questo parametro indica la velocita’ con cui le galassie si allontanano tra loro e dunque e’ di nuovo collegato all’espansione dell’universo. In particolare, il nuovo valore di questa costante ha permesso di modificare leggermente l’eta’ dell’universo portandola a 13,82 miliardi di anni, circa 100 milioni di anni di piu’ di quanto si pensava. Capite dunque perche’ su alcuni articoli si dice che l’universo e’ piu’ vecchio di quanto si pensava.

Inoltre, sempre grazie ai risultati di Planck e’ stato possibile ritoccare le percentuali di materia, materia oscura e energia oscura che formano il nostro universo. Come saprete, la materia barionica, cioe’ quella di cui siamo composti anche noi, e’ in realta’ l’ingrediente meno abbondante nel nostro universo. Solo il 4,9% del nostro universo e’ formato da materia ordinaria che conosciamo. Il 26,8% dell’universo e’ invece formato da “Materia Oscura”, qualcosa che sappiamo che esiste dal momento che ne vediamo gli effetti gravitazionali, ma che non siamo ancora stati in grado di indentificare. In questo senso, un notevole passo avanti potra’ essere fatto con le future missioni ma anche con gli acceleratori di particelle qui sulla terra.

Una considerazione, 4,9% di materia barionica, 26,8% di materia oscura e il resto? Il 68,3% del nostro universo, proprio l’ingrediente piu’ abbondante, e’ formato da quella che viene detta “Energia Oscura”. Questo misterioso contributo di cui non sappiamo ancora nulla si ritiene essere il responsabile proprio dell’espansione e dell’accelerazione dell’universo.

Da questa ultima considerazione, capite bene quanto ancora abbiamo da imparare. Non possiamo certo pensare di aver carpito i segreti dell’universo conoscendo solo il 5% di quello che lo compone. In tal senso, la ricerca deve andare avanti e chissa’ quante altre cose strabilinati sara’ in grado di mostrarci in futuro.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il sistema di posizionamento Galileo

21 Mar

Notizia fresca di questi giorni, che forse avrete letto anche sui  giornali, e’ stato lanciato il quarto satellite del sistema di navigazione e localizzazione Galileo. L’insieme dei quattro satelliti ha dato ufficialmente il via alla ricezione di questo sistema di localizzazione europeo.

Il principio di funzionamento, cosi’ potete leggere, e’ come quello del GPS americano, ma in questo caso si tratta di un sistema tutto europeo. Al momento sono in orbita 4 dei 30 satelliti previsiti che formerano la costellazione appunto del sistema Galileo.

Bello direte voi, ma questa notizia dovrebbe suscitare un po’ di curiosita’ e soprattutto una serie di domande lecite che vorrei condividere con voi: come funziona il GPS? Perche’ se c’era quello americano ne dobbiamo fare uno europeo? Che vantaggi comporta?

Tutte domande lecite a cui proveremo a dare una risposta semplice e accessibile a tutti.

Al solito, provate a fare un esperimento-intervista. Chiedete, anzi chiedetevi, come funziona il GPS che avete in macchina, sul cellulare, sul portatile, ecc. Molto spesso la risposta data e’ la seguente: semplice, si accende un antenna, questa comunica con un satellite che ci localizza e il gioco e’ fatto, otteniamo un puntino su una mappa che indica la nostra posizione “esatta”. Una risposta del genere e’ completamente sbagliata in diversi punti. Se questa e’ stata la vostra risposta, forse e’ il caso di continuare la lettura.

Partiamo dall’inizio. Abbiamo il problema di localizzare la nostra posizione in un punto qualsiasi della Terra. Come facciamo? Semplice, utilizziamo dei satelliti. Se non altro, l’utilizzo di satelliti ci permette, in linea di principio, di essere sempre localizzabili indipendentemente dalla posizione. In Europa, in Asia, nell’oceano, se alzate la testa vedete il cielo e quindi potenzialmente il satellite.

Satelliti visibili dal ricevitore nel tempo

Satelliti visibili dal ricevitore nel tempo

In realta’, non e’ proprio esattamente cosi’. Un solo satellite che gira intorno alla Terra non sarebbe sempre visibile. Per dirla tutta, un solo satellite non consentirebbe neanche di localizzarci, ma ne servono ben quattro visibili da dove siamo. Su questo torneremo tra poco. Dunque, un solo satellite non basta ne servono 4. Per questo motivo, la costellazione di satelliti GPS e’ formata da un numero grande di oggetti in orbita in modo da poter garantire sempre ed in ogni punto la visibilita’ di almeno 4 satelliti. L’immagine riportata permette di chiarire molto bene questo concetto. Come vedete, mentre i satelliti girano intorno alla Terra, viene riportato in ogni istante il numero di satelliti visibili. Affinche’ la vostra rete sia funzionale, questo numero non deve mai essere minore di quattro.

Fin qui ci siamo. Abbiamo bisogno di 4 satelliti. Non abbiamo ancora risposto alle domande iniziali, anzi ne abbiamo aggiunta un’altra: perche’ 4 satelliti?

Cerchiamo ora di capire come funziona il GPS. In realta’, l’antenna del vostro sistema non comunica affatto con i satelliti, ma e’ solo un “ricevitore” di segnali. In ogni istante, i satelliti inviano verso la terra dei segnali che l’antenna e’ in grado di ricevere. Questi segnali sono di tipo orario, cioe’ contengono l’informazione sull’ora del loro invio. Il metodo di localizzazione si basa appunto sulla differenza di tempo tra l’invio del segnale da parte del satellite e la sua ricezione dall’antenna. Conoscendo la velocita’di propagazione del segnale, dalla differenza di tempo possiamo ricavare la distanza del ricevitore dal satellite.

Ora, dovendo posizionare un punto sulla mappa corrispondente al ricevitore, avete bisogno di 3 informazioni: latitudine, longitudine e altitudine. Avete cioe’ 3 incognite da calcolare. Come ricorderete dalla matematica, per risolvere un sistema di 3 incognite c’e’ bisogno di 3 equazioni indipendenti. 3 equazioni significa dunque avere l’informazione contemporaneamente da 3 satelliti. Proprio per questo motivo si parla di “triangolazione” della posizione.

Ricapitoliamo: 3 incognite per la posizione esatta, 3 equazioni che sono i 3 satelliti, e fin qui ci siamo. Perche’ prima parlavamo di 4 satelliti?

Abbiamo detto che tutto il gioco si basa sulla misura del tempo impiegato dal segnale per andare dal satellite al ricevitore. Detto proprio semplicemente, il satellite manda un segnale dicendo sono le 12.00 il ricevitore ascolta il segnale, vede che sono le 12.01 e quindi capisce che e’ passato un minuto (in realta’ la differenza temporale e’ tipicamente dell’ordine dei millisecondi). Facile a dirsi ma non a farsi. Affinche’ questo gioco funzioni, i satelliti ed il ricevitore devono essere perfettamente sincronizzati.

I satelliti del GPS utilizzano degli orologi atomici al Cesio o al Rubidio, estremamente precisi, ma che costano piu’ o meno 200000 euro l’uno. Il nostro piccolo e economico ricevitore certamente non dispone di un sistema del genere. Dunque, per localizzare il punto non servono piu’ 3 incognite bensi’ 4, compreso il tempo. Il quarto satellite serve appunto per determinare anche l’informazione temporale.

images

Solo per completezza di informazione, la localizzazione GPS sarebbe impossibile senza le dovute correzioni date dalla relativita’ di Einstein. Il tempo sul satellite scorre ad un ritmo leggermente piu’ veloce rispetto alla Terra (dilatazione dei tempi). Se questo effetto non fosse incluso, le misure dei tempi di percorrenza sarebbero sistematicamente sbagliate. La funzionalita’ del GPS e’, se vogliamo, anche una conferma pratica dell’esistenza della relativita’.

Dunque, abbiamo capito come avviene la localizzazione. Torniamo ora al discorso satelliti. In ogni istante ed in ogni punto della Terra devo dunque poter vedere almeno 4 satelliti. Quello che oggi chiamiamo GPS sfrutta, come detto all’inizio, la costellazione di satelliti americani chiamata NAVSTAR GPS costituita in tutto da 31 satelliti. Questi sono disposti su sei piani orbitali con un’inclinazione di 55 gradi sul piano equatoriale. Maggiore e’ il numero di satelliti utilizzati simultaneamente, minore e’ l’incertezza con cui si possono ricavare le incognite, e dunque la posizione del ricevitore.

La precisione attuale del NAVSTAR e’ dell’ordine di qualche metro. Fino a prima del 2000, la qualita’ del sistema per uso civile era dell’ordine dei 200 metri a causa dela distorsione fatta appositamente sui segnali per uso civile, mentre per gli usi militari veniva data qualita’ massima. Questa distinzione, detta anche “disponibilita’ selettiva” e’ stata eliminata su volere del presidente Clinton e, di fatto, ha aperto la strada ai sistemi GPS portatili per scopi civili.

Abbiamo risposto gia’ a 2 domande su 3. Sappiamo ora come avviene la localizzazione e perche’ servono 4 satelliti. Torniamo ora a Galileo.

Galileo prevede una costellazione di 30 satelliti che diverra’ pienamente operativa a partire dal 2014. Ad oggi, e sappiamo ora anche il perche’, sono stati lanciati 4 satelliti e dunque e’ possibile fare i primi studi sui segnali e cominciare a testare la qualita’ del sistema.

Perche’ fare un nuovo sistema se c’e’ gia’ quello americano? In realta’, in orbita ci sono due sistemi di navigazioni indipendenti, il NAVSTAR americano e il GLONASS russo, quest’ultimo pero’ scarsamente manutenuto negli ultimi tempi. La motivazione del Galileo e’ piu’ politica che scientifica. Il NAVSTAR e il GLONASS per uso civile sono sempre subordinati all’effettivo utilizzo militare dei due paesi. In qualsiasi momento, uno dei due paesi potrebbe decidere di chiudere il servizio civile per un qualsiasi motivo. Non pensate soltanto al navigatore della vostra automobile, il GPS e’ utilizzato in tutti i sistemi di navigazione civili come aerei, navi, antifurti satellitari, ecc. Una, seppur improbabile (forse), decisione del genere causerebbe un danno irreparabile. La necessita’ dunque di interrompere un monopolio di localizzazione ha spinto i paesi europei ha dotarsi di un proprio sistema satellitare.

Inoltre, a differenza di quello made in USA, il Galileo gode dei finanziamenti di diversi paesi attraverso la comunita’ europea e non solo. Diversi paesi extraeuropei, come Israele, Cina e Russia (come integrazione del GLONASS), stanno contribuendo a Galileo appunto per assicurare un servizio civile costante.

Solo per completezza, esistono anche dei sistemi minori di tipo regionale attualmente in fase di studio. Sia l’India che la Cina stanno infatti portando avanti gli studi per dotarsi di sistemi proprietari esclusivi non globali. In questo caso, ma si tratta di una mia considerazione personale, programmi di questo tipo servono soltanto per prendere confidenza e dimostrare agli altri la possibilita’ di accedere allo spazio mediante satelliti. Come sappiamo, si tratta di economie definite “emergenti”, anche se ormai emerse del tutto, e proprio per questo interessate alla corsa allo spazio su tutti i fronti.

Concludendo, i primi 4 satelliti di Galileo sono in orbita. Nel giro di qualche anno la costellazione di satelliti dovrebbe essere completata e funzionante. Questo sistema, parallelo al NAVSTAR, consentira’ la localizzazione sulla Terra garantendo la funzionalita’ civile sempre e indipendentemente dalla situazione politica. Dal punto di vista economico, ci saranno vantaggi anche per le aziende europee che potranno produrre e commercializzare ricevitori per Galileo mentre prima con il NAVSTAR questo settore era riservato ad aziende americane.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il raggio della morte

29 Dic

Nel post precedente:

Haarp, la causa di tutti i mali!

siamo tornati a parlare di Haarp e, come vi avevo anticipato, questa discussione sara’ da tenere a mente per la prossima notizia di cui vorrei parlarvi.

Come anticipato, in rete in questi ultimi giorni si sta tornando a parlare molto insistentemente di onde ELF anche in relazione con il cosiddetto “raggio della morte”. Con questo termine, si indica un ipotetico raggio di onde elettromagnetiche che sarebbe in grado di provocare effetti molto catastrofici sul bersaglio mirato. Stando a quanto trovate in rete, l’applicazione di questo raggio sarebbe in grado di distruggere intere zone del pianeta, di spostare in dimensioni parallele corpi ed oggetti, di spegnere i motori a combustione e chi piu’ ne ha, piu’ ne metta.

Prima di lanciarci nell’analisi di queste cose, vorrei aprire una parentesi che mi sta molto a cuore. Su internet leggete che gli studi su questa tipologia di segnali risalgono al noto fisico Nikola Tesla. Proprio di Tesla vorrei parlare un attimo.

Tesla e’ divenuto un personaggio molto citato e a cui molti siti complottisti sono affezionati. Il mio personale punto di vista e’ che Tesla deve essere considerato un genio per i suoi studi pioneristici nella trasmissione dei segnali wireless. Molti degli studi di Tesla trovano oggi larga applicazione proprio nelle tecnologie senza fili. Gli studi fatti da questo grande fisico sono un punto di riferimento nello studio sia delle antenne che dei ricevitori.

Perche’ dico questo? Semplicemente perche’ in rete gli studi di Tesla hanno assunto connotati quasi stregoneschi e magici. Speculare sulle invenzioni di questo scienziato non fa altro che sporcare la sua memoria. In tutto questo, un ruolo molto importante lo hanno certamente i media ed i vari governi. Non e’ un mistero che gli studi di Tesla siano stati visti con molto sospetto proprio per le possibili applicazioni belliche. Come vedete, non sto assolutamente nascondendo il mio punto di vista ne’ sto disegnando tutto con rose e fiori. Parlare pero’ di possibili invenzioni che avrebbero rivoluzionato le nostre vite e che, per questo governo o per quest’altro complotto, sono tenute nascoste, serve solo a mitizzare in modo sbagliato Nikola Tesla.

Fatta questa premessa, torniamo a parlare di questo raggio della morte.

Anche in questo caso, i primi studi a riguardo sono effettivamente di Tesla e, anche in questo contesto, in rete si e’ creata un’aura di mistero del tutto fuori luogo.

Abbiamo gia’ detto di cosa sarebbe capace questo raggio della morte, cerchiamo di capire quali sono le prove scientifiche portate dai vari siti complottisti a riguardo e se veramente queste conseguenze sono possibili.

Come potete facilmente immaginare, secondo questa concezione, il sistema Haarp sarebbe proprio la pistola in grado di sparare questo raggio della morte. Cerchiamo dunque di capire quali sono le verita’ scientifiche portate come prova dai tanti siti che parlano di queste applicazioni.

In questo articolo:

Haarp e terremoti indotti?

abbiamo gia’ smentito la possibilita’ che il sistema Haarp possa essere utilizzato per innescare terremoti o per cambiare i valori del campo magnetico terrestre.

Accanto a queste bufale, trovate altre due ipotesi di utilizzo del raggio della morte alquanto curiose: l’episodio di Tunguska e la scomparsa dell’isola di Bermeja.

Andiamo con ordine e cerchiamo di capire.

Alberi abbattuti a Tunguska

Alberi abbattuti a Tunguska

Il 30 giugno 1908 a Tunguska, localita’ della Siberia, una violenta esplosione si verifico’ intorno alle 7 del mattino. L’onda d’urto fu talmente grande da abbattere 60 milioni di alberi su una superficie di 2000 Km quadrati di Tundra. Il rumore dell’esplosione venne avvertito fino a 1000 km di distanza.

Bene, secondo le fonti internet, questa esplosione venne provocata proprio da Tesla che stava conducendo un esperimento sul raggio della morte e lo invio’ in direzione della Siberia.

Ovviamente capite bene l’assurdita’ di questa affermazione. Non vi e’ assolutamente nessuna prova scientifica a sostegno di questa ipotesi. Come forse molti di voi gia’ sanno, l’ipotesi piu’ probabile per l’evento di Tunguska e’ quella di un asteroide caduto sulla Terra. Nel corso del XX secolo, diverse spedizioni sono state fatte in Siberia per cercare di determinare il punto preciso dell’impatto e il cratere formato dall’asteroide. In particolare, l’ultima spedizione, organizzata dall’universita’ di Bologna e che comprende esperti in diverse discipline, ha fatto uno studio molto dettagliato della zona vedendo in particolare la distribuzione della ricrescita degli alberi e gli anelli di accrescimento dei tronchi. Da questo studio si e’ determinato, con buona esattezza, che il punto preciso dello scontro con l’asteroide dovrebbe essere nel lago Cheko. In particolare, il fondo del lago e’ conico e si sarebbe formato proprio in seguito all’impatto con questo corpo. A riprova di questo, le carte dei primi del ‘900 non riporterebbero nessun lago in quella zona, proprio a dimostrare la formazione dello specchio d’acqua a seguito dello scontro.

L’altro esempio molto citato in rete per l’applicazione del raggio della morte, sarebbe invece la scomparsa dell’isola di Bermeja nel golfo del Messico. Cosa significa “scomparsa di un isola”?

Una mappa del 1846 con l'isola di Bermeja

Una mappa del 1846 con l’isola di Bermeja

Diverse mappe, fino al XIX secolo, riportano la presenza di questa isola nel golfo del Messico vicino al famoso triangolo delle Bermude. Oggi pero’ di questa isola non si ha traccia. Con questo intendo che molte spedizioni sono andate nella zona indicata dalle carte senza trovare assolutamente nessuna traccia dell’isolotto. Che fine ha fatto quest’isola? In questo contesto, vi viene detto che proprio un esperimento di Haarp sarebbe stato condotto in quella zona sparando questo famoso raggio della morte. L’effetto di questo fascio sarebbe talmente potente da aver disintegrato l’isolotto o anche, secondo ipotesi ancora piu’ fantasiose, averlo spedito in una dimensione parallela.

E’ possibile che sia colpa di Haarp? Assolutamente no! Vi spiego anche il perche’ facendo una rapida considerazione. Gia’ nel 1997 una spedizione fatta dall’Universita’ Autonoma del Messico aveva invano cercato questa isola. Bene, nel 1997 Haarp non era ancora in funzione dal momento che l’installazione completa a piena potenza e’ stata finita solo nel 2007. Come e’ possibile che una cosa che ancora non esisteva abbia fatto scomparire un’isola? Per rispondere subito ad eventuali accuse, i primi prototipi di Haarp, risalenti al 1994, avevano a disposizione solo un numero molto limitato di antenne con la possibilita’ di dimostrare la fattibilita’ del progetto.

Capite bene l’assurdita’ anche di queste affermazioni. Per completezza, vi dico anche che la storia di Bermeja e’ un classico nella teoria del complotto. Come detto sopra, questo isolotto dovrebbe trovarsi molto vicino alla zona del famoso triangolo delle Bermude. La scomparsa dell’isola viene molto spesso utilizzata anche come prova che qualcosa di misterioso ci sia sotto questo fazzoletto di mare. Come vedete, e’ una storia per tutte le stagioni e per tutte le teorie che volete confermare.

Il motivo vero per cui l’isola di Bermeja non esiste piu’, in realta’ non e’ ancora noto. Ci sono diverse ipotesi che vengono fatte a riguardo. La prima e’ che ci sia un errore sulle mappe fatte fino al XIX secolo. Personalmente trovo questa ipotesi assurda, dal momento che diverse mappe, fatte in periodi differenti, da cartografi diversi, riportano la presenza di questa isola piu’ o meno sempre nella stessa posizione. Altra ipotesi e’ che l’isola sia stata sommersa a causa dell’innalzamento del livello del mare. Questa ipotesi potrebbe essere verosimile, ma sarebbe interessante capire l’altitudine massima dell’isola per capire di quanto si sarebbe innalzato il livello delle acque. Ulteriore ipotesi, forse piu’ probabile, vedrebbe invece uno sprofondamento dell’isola a causa di un cedimento strutturale o comunque un inabissamento dovuto a fenomeni tellurici nella zona.

Esiste anche un’ultima ipotesi che vi accenno, ma solo per rimanere in ambito complottista. Secondo alcune fonti, l’isola sarebbe stata distrutta dalla CIA per ampliare la zona di mare degli Stati Uniti. Il motivo di questo sarebbe proprio il fatto che l’isola segnerebbe il confine tra lo spazio di mare messicano e quello statunitense. In questo caso, la distruzione dell’isola sarebbe stata necessaria solo per spostare il confine territoriale tra i due paesi. Capite bene che su questa ipotesi non ci sono assolutamente prove ne’ scientifiche ne’ tantomeno politiche, ma solo fantasiose teorie complottiste.

Concludendo, le presunte prove portate a sostegno dell’utilizzo del raggio della morte, sono del tutto costruite a tavolino e assolutamente senza alcun riscontro scientifico. In particolare, la scomparsa dell’isola di Bermeja la trovate in diverse teorie del complotto utilizzata per sostenere l’ipotesi che fa piu’ comodo in base al contesto. Non fatevi confondere da tante notizie buttate li’ solo per aggiungere carne al fuoco o mistero al racconto. Sfruttate la rete internet nel migliore dei modi, confrontando diverse notizie e cercando sempre di informarvi autonomamente.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

 

 

Nibiru e la deviazione delle Pioneer

18 Set

Ho ricevuto via mail la richiesta di un utente interessato alla deviazione delle sonde Pioneer alla perifieria del Sistema Solare, e se questa rappresenta, come dichiarato su alcuni siti, una prova dell’esistenza di Nibiru.

Dell’esistenza o meno di Nibiru ne abbiamo gia’ parlato abbondantemente su questo blog. Trovate alcuni esempi in questi post:

Evidenze di un decimo pianeta?

La NASA torna a parlare di Nibiru

Nibiru e’ vicino, la prova delle orbite

Tornando al problema in questione, cerchiamo di andare con ordine e di mettere a fuoco prima di tutto il problema delle Pioneer.

Le sonde Pioneer 10 e 11 vennero lanciate nello spazio negli anni ’70. Le traiettorie delle due sonde sono opposte rispetto alla Terra e hanno seguito il percorso mostrato in figura:

Le traiettorie delle sonde Pioneer nel sistema solare.

Tralasciamo in questa trattazione l’importante contributo all’astronomia e all’astrofisica apportato da queste missioni, e concentriamoci sul problema in questione.

Come si vede dall’immagine, dopo un percorso molto lungo, le due sonde si trovano attualmente nella zona periferica del nostro Sistema Solare, oltre l’orbita di Plutone. Gia’ dal 1998, si e’ osservata una deviazione delle due sonde rispetto alla posizione calcolata mediante algoritmi di simulazione.

Cosa significa questo?

Per dirla in parole molto semplici, le due sonde non si trovano nel punto in cui dovrebbero essere o comunque dove ci aspettiamo che fossero. In particolare, la posizione delle sonde risulta piu’ arretrata di circa 400000 Km, come se una forza non considerata frenasse il loro movimento. Solo per darvi qualche numero, dai dati sperimentali si e’ calcolata una decelarazione di 8.74 x 10^(-10) m/s^2, cioe’ zero virgola, nove zeri, 874 metri su secondo al quadrato. Per i non esperti in questo campo, pensate che l’accelerazione impressa dall’attrazione terrestre su un corpo in caduta libera e’ di circa 9,8 m/s^2, cioe’ circa dieci miliardi di volte piu’ grande.

Il numero calcolato e’ dunque piccolissimo, ma il lungo percorso fatto dalle sonde, comporta la deviazione che abbiamo visto, che e’ tutt’altro che trascurabile (400000 Km).

Questa deviazione, nota anche come “effetto pioneer”, e’ rimasta inspiegabile per diversi anni e diverse ipotesi sono state fatte a riguardo. Dal punto di vista scientifico, si e’ pensato addirittura a delle variazioni della legge di gravitazione universale o ad un eccesso di materia oscura nelle zone periferiche. Tutte ipotesi che non hanno trovato conferma dai dati sperimentali.

Come potete facilmente immaginare, anche in questo caso e’ stato chiamato in causa il pianeta Nibiru. L’interazione gravitazionale di questo pianeta sarebbe in grado di deviare considerevolmente la traiettoria delle sonde e questo effetto implicherebbe la presenza del pianeta all’interno del nostro Sistema Solare. Quest’ultima considerazione nasce dal fatto che, affiche’ Nibiru possa rallentare le sonde, la sua posizione deve essere nella zona di spazio tra il Sole e la Pioneer, dunque gia’ all’interno del sistema solare.

Da dove nascono queste considerazioni? Quando si calcola la traiettoria di un oggetto come una sonda, si tiene conto delle interazioni di tutti i corpi circostanti. Se si evidenzia una differenza tra il percorso osservato e quello calcolato, significa che non abbiamo considerato un effetto nel nostro algoritmo. Capite dunque l’importanza di questo effetto e il perche’ la scienza si e’ interrogata cosi’ a lungo su questa deviazione. La comprensione dell’effetto pioneer avrebbe potuto aprire la strada a nuove conoscenze sul nostro universo e sulla sua struttura.

Una prima spiegazione di questo effetto, e’ stata data solo nel 2011 da un gruppo di ricercatori dell’Istituto del Plasma e della Fusione Nucleare di Lisbona. Secondo questa spiegazione, la decelerazione delle sonde pioneer sarebbe causata da effetti termici sull’antenna paraboloide. Cerchiamo di spiegare meglio.

Le pioneer viaggiano nello spazio in assetto giroscopico. Una grossa antenna di 2,7 metri di diametro consentiva alle sonde di inviare segnali a Terra. Questa antenna e’ sempre rivolta verso la Terra e dunque, considerando la posizione delle sonde, verso il Sole.

Disegno della Pioneer 10 con l’antenna paraboloide.

Durante il percorso, il calore dissipato dalla strumentazione elettronica di bordo, viene in parte riflesso dall’antenna posteriore delle sonde, fornendo una forza debole e costante nel verso opposto del moto. Il risultato di questa componente e’ dunque una decelerazione delle sonde.

Modello semplificato degli effetti termici

Questi effetti termici non erano stati calcolati nel modello originale del moto delle Pioneer e proprio per questo motivo si e’ evidenziata la discrepanza dalla traiettoria osservata.

Come si vede in figura, la dissipazione del calore avviene in parte attraverso l’antenna. La forma e la struttura di quest’ultima crea una sorta di propulsione sulla parte posteriore della parabola. Dalle considerazioni fatte sulla direzione dell’antenna, questa propulsione comporta una spinta nella direzione opposta del moto, dunque una decelarazione.

Per completezza di informazione, vi riporto anche il link dove trovate l’articolo originale del 2011:

Modelling the reflective thermal contribution to the acceleration of the Pioneer

Le conclusioni dell’articolo affermano che l’effetto apportato dalla dissipazione termica del calore e’ del tutto compatibile con i valori di decelarazione misurati.

Nonostante queste conclusioni, a causa della difficolta’ nel quantificare l’effetto termico, alcune fonti, soprattutto di stampo catastrofista, hanno continuato a negare questa ipotesi avvalorando l’ipotesi Nibiru per la deviazione delle Pioneer.

A sostegno dell’effetto termico pero’, e’ stato pubblicato un nuovo articolo nel 2012 sulla rivista scientifica Physical Review Letters. In questo caso, per dimostrare l’importanza della dissipazione del calore attraverso l’antenna e’ stata fatta una vera e propria simulazione ingegneristica della Pioneer. Nel calcolo le equazioni sui parametri termici sono state risolte utilizzando i dati delle posizioni delle sonde come condizioni al contorno.

In questo caso, si osserva come, inserendo la dissipazione anisotropa del calore attraverso l’antenna, il modello fornisce un risultato del tutto compatibile con le attuali posizioni delle sonde, dunque non vi sono piu’ le discrepanze da cui siamo partiti.

Concludendo, l’effetto Pioneer, cioe’ la discrepanza della posizione delle sonde rispetto al modello utilizzato, puo’ essere facilmente corretta tenendo conto della dissipazione del calore prodotto dalla strumentazione attraverso l’antenna paraboloide.

Non vi e’ dunque nessun effetto di nuova fisica o nessun contributo da parte di Nibiru di cui tener conto in questo calcolo. Anche in questo caso, possiamo smentire questa ipotesi come prova dell’esistenza di questo decimo pianeta.

Come vedete, partendo dalle ipotesi sul 2012, e’ possibile esplorare e discutere argomenti molto attuali e la cui divulgazione spesso e’ lasciata a siti dichiaratamente catastrofisti. Per continuare a ragionare su questi argomenti, cercando di fare chiarezza in modo semplice ed accessibile, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.