Tag Archives: europea

RadioScienza

28 Dic

Qualche volta, mi piace utilizzare il blog a scopo pubblicitario per promuovere iniziative o siti internet che ritengo interessanti. Cosa significa interessanti? Ovviamente, mi riferisco a materiale utile per divulgare la scienza ai non addetti ai lavori. Questo e’ anche lo scopo del nostro blog e molto spesso si possono trovare in rete utili strumenti a supporto di chi vuole informarsi e approfondire determinati concetti.

logoFS

Approfitto dunque di questo spazio, per parlarvi del sito RadioScienza, che trovate a questo link:

RadioScienza

Si tratta di uno spazio gestito direttamente dai miei colleghi di Frascati Scienza, associazione che, tra le altre cose, organizza anche la notte auropea dei ricercatori.

RadioScienza nasce come spazio internet per creare una web radio da affidare alla voce di ricercatori e professionisti con la voglia di divulgare le ultime scoperte. Attualmente e’ ancora uno spazio in lavorazione ma nella home potete trovare diversi articoli che vengono raccolti da altrettanti siti internet che si occupano di divulgazione. In tal senso, e’ una sorta di raccoglitore di articoli scritti da addetti ai lavori per tutti quelli che hanno la curiosita’ di informarsi sulla scienza.

Tra tutti gli articoli di prim’ordine che trovate, ci sono anche quelli di Psicosi 2012 …. in fondo anche Radio Scienza qualche difetto doveva pur averlo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Obbligatorio dire due parole su GOCE

11 Nov

Era il 15 settembre, ben due mesi fa, quando il sottoscritto, che a forza di documentarsi su siti complottisti ha acquisito doni di preveggenza, gia’ parlava di GOCE e della fine annunciata della missione.

In questo articolo:

GOCE: quando il satelliste finisce la benzina

abbiamo gia’ parlato della missione, della sua importanza scientifica ma, soprattutto, del suo rientro a Terra. Come potete leggere, gia’ al tempo si diceva che la cosa avrebbe rappresentato un rischio, ma con probabilita’ bassissima. Ripeto, trovate tutti i dettagli leggendo l’articolo precedente.

Poi cosa e’ successo?

Semplice, e’ finita la benzina e sulla rete si sono scatenati gli animi catastrofisti di tutti: siti, blog, forum ma, purtroppo, anche giornali, protezione civile, ecc. Nelle ultime ore, la scena mediatica e’ stata completamente catturata dalla caduta di questo satellite con una gara a chi la spara piu’ grossa sul punto di impatto, sull’ora o sui possibili rischi dell’operazione.

In tutto questo poi, ci si e’ messa anche la polemica, alquanto sterile, tra protezione civile, ASI e ESA che non si riscono a mettere d’accordo su cu dice cosa.

Lasciamo perdere questi discorsi e parliamo di cose serie.

Non spendero’ piu’ di qualche parola su questo evento, dal momento che e’ stata gia’ sviscerato a sufficienza.

Unico particolare degno di nota, al momento GOCE e’ ancora in funzione e non ha cominciato a cadere verso la Terra. Perche’ dico questo? Lasciando da parte i mezzi di informazione assolutamente poco credibili in ambito scientifico o in situazioni di questo tipo, l’unico modo per reperire informazioni reali e’ consultare il sito dell’ESA, in cui potete trovare una pagina aggiornata in real time stabilendo comunicazioni direttamente con il satellite.

Trovate la pagina a questo indirizzo:

ESA, GOCE info

Le informazioni contenute vengono trasmesse da una base in Antartide che stabilisce connessioni con GOCE ogni qual volta il satellite passa sulla zona.

Leggete cosa scrivono il 10 novembre alle 23.50, cioe’ meno di un’ora fa:

Contact with GOCE was made once again from the Troll station in Antarctica at 23:42 CET. The central computer temperature is at 80ºC and the battery is at 84ºC. At an altitude of less than 120 km, the spacecraft is – against expectations – still functional.

Capito? Il satellite non e’ ancora in fase di caduta. Detto questo, e’ inutile stare li ad arrovelarsi e tentare di indovinare dove cadra’ GOCE. Fino a quando non iniziera’ la caduta, e’ come provare ad indovinare i numeri del lotto!

Concludendo, i rischi di caduta su zone abitate sono estremamente bassi. Se pensate di restare a casa perche’ avete paura che qualche pezzo possa arrivarvi in testa, allora chiudetevi per sempre nelle vostre mura senza uscire. Praticamente, la probabilita’ e’ simile a quella di essere colpiti da una tegola che si stacca da un tetto. Piuttosto che credere a storielle inventate dai giornali, documentatevi sui siti giusti e seguite in tempo reale la fine di questa gloriosa e importante missione.

Ultimissima cosa, in queste ore sta per ricadere a Terra qualcosa di veramente grosso e aspettato ma di cui i giornali non parlano. Sta infatti per rientrare una Soyuz dalla Stazione Spaziale Internazionale con a bordo il nostro astronauta Luca Parmitano. Sarebbe meglio parlare di questo piu’ che di satelliti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

GOCE: quando il satellite finisce la benzina

15 Set

Qualche tempo fa, abbiamo preso in considerazione il problema dei detriti nello spazio. Come visto, la zona intorno alla nostra Terra e’ ormai piena di oggetti lanciati per scopi completamente diversi. Oltre a quelli funzionanti, ve ne sono un numero incredibile ormai dismessi, senza contare frammenti di satelliti distrutti o attrezzatura persa da cosmonauti durante le attivita’ extraveicolari. Ecco gli articoli in cui ne abbiamo parlato:

Un nuovo UFO nello spazio?

Black Knight e segnali dallo spazio

Chi va col profeta, impara a profetizzare

Perche’ torno su questo argomento?

Proprio in questi giorni, l’ESA, cioe’ l’Agenzia Spaziale Europea, ha annunciato che il satellite GOCE sta per terminare la sua missione e che dunque tornera’ verso terra, con una possibilita’ non nulla di caduta di detriti sul pianeta.

Cerchiamo prima di tutto di analizzare questa notizia.

Mappa del campo gravitazionale della Terra

Mappa del campo gravitazionale della Terra

Il satellite GOCE, il cui nome sta per Gravity field and steady-state Ocean Circulation Explorer, e’ un gioiello di tecnologia lanciato dall’ESA nel 2009. Lo scopo della missione era quello di mappare il campo gravitazionale della Terra e fornire cosi’ eventuali fluttuazioni. Questo parametro e’ importante non solo per la scienza di base, ma anche per applicazioni ambientali. Famose sono ad esempio le immagini e le ricostruzioni fatte da GOCE in occcasione dello Tsunami che ha colpito il Giappone.

Le variazioni del campo gravitazionale terrestre regolano infatti anche i movimenti delle correnti oceaniche. Capire in dettaglio questi parametri puo’ dunque aiutare nella comprensione di meccanismi molto importanti per il nostro pianeta e aprire uno sguardo da una prospettiva diversa di queste problematiche.

Come anticipato, GOCE e’ stato lanciato in orbita nel 2009 e si e’ andato a posizionare su un’orbita a 224 Km da Terra. Un’altezza cosi’ bassa e’ necessaria per avere un quadro completo e senza disturbi del campo gravitazionale. A queste quote pero’, esistono ancora molecole di atmosfera, per cui GOCE e’ dotato di un motore in grado di contrastare gli effetti dell’atmosfera e matenerlo sull’orbita prestabilita.

Per facilitare questo compito, il satellite ha una forma molto aerodinamica:

Ricostruzione artistica del satellite GOCE in orbita

Ricostruzione artistica del satellite GOCE in orbita

Proprio a causa di questa forma, e dell’elevato contributo italiano alla missione, GOCE e’ stato ribattezzato la ferrari dello spazio.

Al momento del lancio, GOCE aveva un serbatoio pieno di 40 Kg di Xenon, necessari a far funzionare il suo motore. Ad oggi, di questo carburante restano soltanto 2 Kg, per cui i tecnici dell’ESA hanno dichiarato che intorno alla meta’ di ottobre lo Xenon finira’ e dunque terminera’ anche la missione di GOCE.

Cosa succedera’ a questo punto?

Nel giro di 2-3 settimane, terminata la spinta, il satellite precipitera’ verso la Terra. Come e’ noto, durante il passaggio in atmosfera, gran parte dei materiali vengono bruciati a causa dell’attrito. Nel caso di GOCE, che ha un peso complessivo di circa 1100 Kg, sempre secondo i calcoli, il 25% del peso sopravvivera’ all’attrito, dunque circa 250 Kg di materiale.

Questi detriti, sempre a causa del passaggio in atmosfera, si divideranno in circa una cinquantina di pezzi, dunque con peso medio di 5 Kg. Come potete capire, si tratta ovviamente di stime fatte simulando il passaggio in atmosfera.

Dunque, cosa succedera’ a questi frammenti?

Molti giornali hanno dato enfasi a questa notizia, parlando di riunioni d’urgenza tra le varia agenzie per studiare il problema. Questo e’ vero solo in parte. Ogni giorno, cadono sulla Terra detriti di qualche missione, senza che ce ne sia notizia. Se ricordate, circa un anno fa, si e’ avuto lo stesso problema con la missione UARS di cui si parlava di detriti anche sull’Italia.

Nel caso di GOCE, sono in corso studi da parte degli uffici appositi per cercare di capire quando esattamente finira’ il carburante del satellite. Questo ovviamente consentira’ di sapere in aticipo il punto in cui iniziera’ la caduta verso terra e risalire ad una stima preliminare della traiettoria. Parlo di stima preliminare perche’ durante il passaggio in atmosfera, si parla proprio di caduta incontrollata. Come potete facilmente capire, per cosi’ tanti frammenti e’ assolutamente impossibile sapere l’esatta traiettoria seguita dal momento che questa dipende da tantissimi parametri atmosferici non facilmente prevedibili o conosciuti esattamente.

Esiste un pericolo reale?

In realta’, in questo caso le probabilita’ che un frammento cada su una zona abitata del pianeta e’ estremamente bassa. Per capire questa affermazione, dobbiamo prima di tutto pensare che circa il 70% del nostro pianeta e’ ricoperto di acqua. Del restante 30% emerso, molte zone sono desertiche o completamente disabitate. Detto questo, la frazione di zone popolate e’ in realta’ una minima parte dell’intera superficie della Terra.

Stando a queste considerazioni, si ottiene una probabilita’ di caduta pericolosa che e’ molto molto bassa.

Su questo pero’ vorrei aprire una parentesi. Molte volte su questo blog ci siamo concentrati a parlare di fenomeni rari che avvengono nel mondo, spiegando scientificamente come questi possano avvenire. In questo caso, ci si affida ad una probabilita’ che e’ senza dubbio bassa, ma ovviamente non nulla. Detto questo, forse, e dico forse, sarebbe il caso di ragionare su un sistema diverso per il rientro a Terra di missioni spaziali. Come detto, il nostro spazio e’ strapieno di detriti spaziali, tutti i giiorni ne cade qualcuno da qualche parte, spesso in mare. Anche se la probabilita’ e’ infinitesimale, basta moltiplicare per un numero grande di eventi per ottenere un qualcosa di tangibile. Non aspettiamo sempre che accada qualcosa prima di ragionare in modo diverso.

Ovviamente, come detto, questo e’ un mio personale pensiero. Non voglio assolutamente dire che i framenti di GOCE arriveranno da qualche parte su una casa. Il mio pensiero voleva solo stimolare il pensiero su una procedura che basa la sua sicurezza solo sulle basse probabilita’.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La calamita piu’ potente e’ nella Via Lattea

16 Ago

In questi giorni di calura estiva, in cui la pletora di informazioni politiche ed economiche e’ ridotta all’osso, molti giornali si dedicano con lunghi articoli all’informazione scientifica. Questo non puo’ che essere un bene, anche se, molto spesso, la quantita’ di informazioni date viene allungata mettendo in mezzo un po’ di tutto e finendo per sparare qualche castroneria.

Fatto questo necessario preambolo, vi vorrei parlare di una notizia molto importante proprio di questi giorni. Come sicuramente avrete letto, un gruppo di scienziati, in larga parte composto da italiani e del nostro paese e’ anche il coordinatore, e’ riuscito per la prima volta a misurare il campo magnetico di una magnetar.

Di questa tipologia di stelle avevamo parlato in questo post:

Lampi radio dall’universo lontano

Come visto, il nome deriva dalla crasi delle parole magnetic star. Si tratta di uno stadio dell’evoluzione delle stelle, riservato a corpi con masse tra 10 e 25 volte quella del Sole, che possono trasformarsi in stelle di neutroni dotate di un notevole campo magnetico.

Quale scoperta sarebbe stata fatta?

Su alcuni giornali leggete che sono state scoperte per la prima volta le magnetar, oppure che si conoscevano in teoria ma non erano mai state viste, oppure che l’osservazione sarebbe un importante conferma piu’ precisa di qualcosa che si conosceva, ecc. Insomma, hanno scoperto o no qualcosa? Di cosa si tratterebbe?

Cerchiamo di fare un po’ di chiarezza.

Come visto nell’articolo gia’ citato, le magnetar sono state ossevate gia’ da diverso tempo nel nostro sistema solare. L’introduzione di questo particolare stadio di evoluzione stellare, risale addirittura al 1992. Fino ad oggi pero’, della caratteristica principale di queste stelle, cioe’ l’intenso campo magnetico, si avevano prove indirette osservando effetti intorno alle stelle. Attraverso la ricerca di cui stiamo parlando, e’ stato invece possibile misurare per la prima volta il campo magnetico generato, fino ad oggi solo ipotizzato. Come potete capire, si tratta di uno studio molto importante, tanto da essere pubblicato proprio in questi giorni sulla prestigiosa rivista Nature. Unica nota per i giornalisti, evitate di ridicolizzare con interventi inutili, non veri e fuorvianti una misura gia’ di per se estremamente importante nell’ambito dell’astrofisica.

Quanto e’ intenso il campo magnetico di una magnetar?

Come sicuramente avrete letto, si tratta del piu’ potente campo magnetico mai osservato prima, dell’ordine del milione di miliardi di Gauss. Ve bene, ma quanti sono un milione di miliardi di Gauss? Per capire questi numeri, e’ necessario avere un termine di confronto.

Pensate che il campo magnetico della nostra Terra e’ inferiore al Gauss. Il campo magnetico presente all’interno dell’esperimento ATLAS, il piu’ potente tra gli esperimenti del CERN, ha un’intensita’ di 20000 Gauss. Dati questi numeri, capite bene quanto immensamente piu’ alto sia il campo magnetico prodotto dalla magnetar.

Parlando invece di situzioni reali e conosciute da tutti, un campo magnetico di soli 10 Gauss a breve distanza e’ in grado di smagnetizzare qualsiasi supporto di archiviazione dei dati. Se andiamo a valori piu’ alti, il campo magnetico di una magnetar potrebbe essere letale a migliaia di kilometri di distanza. Un’intensita’ cosi’ alta, sarebbe infatti in grado di strappare letteralmente i tessuti del corpo umano, a causa delle proprieta’ magnetiche dell’acqua che li compone.

Come e’ stato misurato un campo cosi’ intenso?

Per prima cosa, la magnetar presa in esame e’ nota come SGR 0418+5729, distante da noi 6500 anni luce. Si tratta di una delle circa 20 magnetar identificate nella nostra Via Lattea. Per poter misurare il campo magnetico dela stella, ci si e’ basati sui dati raccolti durante il 2009 dal telescopio XMM-Newton dell’agenzia spaziale europea. I dati riguardavano l’emissione di raggi X dalla stella. La frequenza di queste particelle e’ infatti direttamente proporzionale all’intensita’ del campo magnetico che attraversano. In questo modo, si e’ potuti risalire ad una misura diretta del campo cercato.

Altra caratteristica importante che si e’ osservata e’ che l’intensita’ del campo sulla superficie della stella non e’ uniforme. Si sono infatti identificate zone con campi magnetici piu’ o meno intensi. Questa caratteristica era attesa e non fa che confermare i dati analizzati. Differenze superficiali sulla magnetar, potrebbero essere le cause delle emissioni cosmiche osservata in passato e del tutto simili a quelle del nostro Sole.

Concludendo, la ricerca pubblicata in questi giorni, riguarda la prima misura diretta del campo magnetico delle magnetar. lo studio di questi corpi celesti, ci potrebbe consentire di capire meglio l’origine e l’evoluzione del nostro universo. Si suppone infatti che possano esistere o siano esistite nell’universo magnetar con campo ancora piu’ intensi. Inoltre, si sospetta che proprio queste stelle siano responsabili delle violente esplosioni cosmiche, simili a quelle del nostro sole, che ogni tanto investono anche la Terra e possono, in taluni casi, portare disturbi alle telecomunicazioni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il metro’ del futuro

19 Giu

In questo blog, diverse volte ci siamo occupati di soluzioni alternative per il risparmio energetico, valutando sia lo stato attuale delle tecnologie verdi, come ad esempio i pannelli solari:

Energia solare nel deserto

Pannelli, pannelli e pannelli

ma soprattutto, cercando di analizzare al meglio quali e quanti sono gli sprechi che ogni giorno facciamo in casa della nostra energia:

Il led rosso dello stadby …

Elettrodomestici e bolletta

Come abbiamo visto, la filosofia di base del ricorrere alle soluzioni a basso impatto e’ certamente valida, ma, prima di tutto, le attuali soluzioni non possono certo essere viste come un punto di arrivo. Senza ombra di dubbio, uno dei migliori modi di risparmiare energia e’ quello di utilizzare al meglio le risolrse attualmente disponibili.

In questo filone, sta richiamando molta attenzione il progetto Seem4US, sviluppato per migliorare l’efficienza energetica delle stazioni della metropolitana. Come forse molti sapranno, le stazioni sotterranee, tolto il discorso ovvio della movimentazione dei treni, necessitano di moltissima energia per poter funzionare. Immaginate anche solo i sistemi di aereazione e illuminazione che consentono di trasformare quelle che altro non sono che caverne in un ambiente adatto al traffico e allo stazionamento di moltissimi utenti.

Il programma Seem4US e’ stato inizialmente proposto da un gruppo di diversi soggetti, alcuni dei quali italiani, nell’ambito del settimo programma quadro dell’Unione Europea. Con questo si intende tutta una serie di progetti, analizzati e valutati da speciali commissioni europee, che, qualora selezionate, vengono finanziate in larga parte con soldi della comunita’ per poter essere portate a termine.

metro_ridimensionato

Seem4US e’ proprio stato sviluppato e realizzato in forma prototipale grazie ai contributi europei.

In cosa consiste?

Prima di tutto, le stazioni, intese come parametri abitativi, cioe’ qualita’ dell’aria, illuminazione, riscaldamento, servizi di mobilita’, ecc., non sono piu’ costanti nel tempo, ma l’accensione o lo spegnimento di questi sistemi e’ gestita in base ad un algoritmo di calcolo.

Immaginate la seguente situazione. E’ inverno, e entrate all’interno di una stazione sotterranea. Quante volte vi sara’ capitato di entrare, trovare un flusso intenso di persone e trovarvi a sentire caldo. Questo e’ del tutto normale se consideriamo che ciascuno di noi puo’ essere paragonato ad una piccola stufetta che emana calore. Ora, anche se fuori fa freddo, in condizioni del genere e’ inutile avere il riscaldamento al massimo. Un sistema intelligente dovrebbe capire la temperatura istantanea in stazione, o meglio valutare il flusso di persone, e poi adattare i servizi.

Questo esempio, estremamente riduttivo, ci fa capire a grandi linee il funzionamento di Seem4US. Gia’ il nome stesso del progetto ci fornisce importanti informazioni. Si tratta infatti di un acronimo che sta per Sustainable Energy Management for Underground Stations.

Ovviamente, i parametri misurati dal sistema sono molteplici, si va dalla temperatura alla velocita’ del vento, fino a indicatori funzionali come: flusso di persone, ore di punta, frequenza dei treni, numero di persone in banchina, ecc. In base poi a questi parametri, il sistema decidera’, seguendo algoritmi preimpostati, come meglio ottimizzare le risorse.

Funziona il sistema?

La risposta e’ ovviamente si. Da stime fatte, si e’ calcolato che il risparmio potrebbe aggirarsi intorno al 10-15% dell’attuale consumo energetico. Per darvi un’idea, il consumo di energia per una stazione media e’ dell’ordine dei 63 milioni di Kwh/anno. Anche ottenere un risparmio solo del 5% darebbe un ottimo contributo al risparmio.

Perche’ non applicarlo in tutte le stazioni?

Per come e’ strutturato, il sistema deve essere calibrato in modo personalizzato per ciascna stazione. Questo e’ reso necessario dal fatto che diverse stazioni hanno diverse strutture, ma soprattutto parametri costruttivi che possono essere completamente differenti. In tal senso, per poter definire al meglio il programma e’ necessario acquisisre dati per un periodo di qualche mese e solo successivamente elaborare il software personalizzato.

Al momento, il primo prototipo di Seem4US sta per essere installato all’interno della stazione Paseo de Gracia della metropolitana di Barcellona. I risultati preliminari di questa applicazione sembrano essere molto promettenti, con risparmi intorno al 10%, e assolutamente migliorabili.

Nella terza fase del progetto, prima fase raccolta dati, seconda fase ottimizzazione, si passera’ anche ad un sistema piu’ evoluto in grado di comunicare direttamente con l’utente. In questo caso, mediante una serie di applicazioni, si potra’ ricaricare il telefono percorrendo le scale a piedi o semplicemnete passeggiando all’interno della stazione. Come e’ noto infatti, il nostro stesso movimento puo’ essere, utilizzando speciali sensori del pavimento, essere trasformato in energia elettrica. Ovviamente, in questo caso, il protocollo di connessione e comunque la potenza del segnale da gestire prevede un ulteriore sviluppo tecnologico attualmente in fase di definizione.

Concludendo, come detto all’inizio, utilizzare al meglio le nostre risorse e’ un importante passo in avanti nella riduzione dell’inquinamento e per cercare di diminuire gli sprechi energetici. Il progetto Seem4US prevede dunque un sistema personalizzato in grado di ridurre notevolmente il consumo energetico di una stazione sotterranea della metro, semplicemente sfruttando le informazioni in real time sul numero di passeggeri e sulle condizioni al contorno ambientali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le scale sismologiche

6 Giu

Nella sezione:

Hai domade o dubbi

e’ stata fatta una richiesta molto interessante che riguarda le scala sismologiche. In particolare, si chiedeva di illustrare nel blog la scala ESI 2007, ma credo che sia molto interessante parlare in generale di quali scale vengono utilizzate per classificare un sisma e quali sono le differenze tra queste.

Di principio, tutti conoscono la scala Mercalli e la scala Richter, che sono quelle apparentemente piu’ utilizzate e che sentiamo nominare in occasione di qualche sisma che avviene nel mondo. Ho detto “apparentemente” perche’ prima di tutto ci sono molte altre scale utilizzate soprattutto dai sismologi ed inoltre molte di queste riescono a classificare i terremoti in modo piu’ scientifico, basandosi proprio sulla natura fisica del fenomeno, piuttosto che, ad esempio, sui danni creati da un sisma.

Dal punto di vista storico, la prima scala basata su presupposti scientifici fu la Rossi-Forel a dieci gradi. Proprio da questa, il sismologo e vulcanologo Mercalli derivo’ una scala a 12 gradi basata sull’intensita’ di un sisma. Fate attenzione, per prima cosa, parlando di terremoti, e’ molto importante distinguere tra intensita’ e magnitudo, termini spesso confusi tra loro dai non addetti ai lavori. Per far capire questa differenza, su cui torneremo in seguito descrivendo i processi fisici, basti pensare che due terremoti di uguale magnitudo possono avere intensita’ diversa se, ad esempio, avvengono con ipocentri a profondita’ diversa tra loro.

Detto questo, la scala Mercalli e’ basata sugli effetti che un terremoto puo’ avere su persone, cose e manufatti. Alla luce di quanto detto, appare evidente che un terremoto di altissima magnitudo che avviene in una zona desertica non popolata, avra’ un grado Mercalli inferiore proprio per la mancanza di danni a cose e persone.

Per essere precisi, l’attuale scala utilizzata e’ detta Mercalli-Cancani-Siedberg ed e’ a 12 gradi. In origine, la scala Mercalli, cosi’come la Rossi-Forel, aveva solo 10 gradi. Fu proprio il sismologo Cancani ad esternderla a 12 gradi. Generalmente, i gradi piu’ bassi della scala vengono attribuiti in base alla percezione delle persone, mentre per i gradi piu’ alti ci si basa sugli effetti agli edifici e ai manufatti in generale.

Da quanto detto, appare evidente che la scala Mercalli non e’ basata su nessuna quantita’ fisica legata al terremoto, ma solo agli effetti del sisma. Se vogliamo, questo inizialmente potrebbe essere un vantaggio di questa scala dal momento che per l’attribuzione dell grado non e’ necessaria alcuna strumentazione specifica.

Proprio queste considerazioni hanno poi portato alla formulazione della scala Richter. Piccola premessa, il termine scala Richter, non e’ in realta’ molto utilizzato dalla comunita’ sismologica in quanto la scala viene detta “Magnitudo Locale”. Come e’ definita? Come anticipato, questa scala misura la magnitudo del sisma ed e’ direttamente legata all’energia rilasciata nel sottosuolo. Questo parametro viene stimato per il terremoto all’ipocentro ed e’ dunque non dipendente, come e’ evidente, dalle tecniche costruttive utilizzate in una determinata zona. A parte il particolare sismografo utilizzato per determinare il grado Richter, questa e’ una scala logaritmica in cui vengono definiti i decimi di magnitudo (M X.Y) ed in cui, ad esempio, una determinata magnitudo e’ circa 32 volte maggiore della successiva: M6=32M5, ecc.

Ora, date queste due scale, perche’ avremmo bisogno di altro? Come detto, la scala Mercalli e’ relativa ai danni del terremoto, la acala Richter invece e’ direttamente legata all’energia rilasciata dal sisma e dunque descrive la meccanica del fenomeno. In realta’, quest’ultima scala presenta dei problemi di saturazione per i gradi maggiori, dovuti al fatto che, sopra M8.5, terremoti di magnitudo diversa possono risultare nello stesso valore della scala.

Per risolvere questo problema, e’ stata poi introdotta la scala del “momento sismico”. Analogamente alla Richter, anche questa scala e’ di tipo logaritmico e si basa sulla stima dell’energia rilasciata nell’ipocentro. A differenza pero’ della prima, non presenta i problemi di saturazione.

Da quanto detto, appare evidente come queste scale siano completamente scorrelate tra loro, trattando un sisma sotto aspetti diversi. Se ci pensiamo bene, entrambi i parametri utilizzati potrebbero essere utili per una valutazione e per una comparazione, ad esempio, per sismi successivi avvenuti nello stesso luogo. Sulla base di questo, e’ stata sviluppata la “Scala Macrosismica Europea”, o EMS-98. In questa definizione, si distingue un sisma in base alla forza degli effetti di un terremoto in un luogo specifico. In questo senso, entra ovviamente l’energia del sisma, ma anche i danni provocati dal fenomeno in un determinato luogo, caratterizzato da specifiche tecniche costruttive e densita’ abitative. Anche la EMS-98 presenta 12 gradi e, passando dai livelli piu’ bassi a quelli piu’ alti, di volta in volta la percezione umana del sisma lascia spazio ai danni agli oggetti provocati dal fenomeno. Per quanto piu’ precisa e meglio utilizzabile, anche questa scala presenta delle limitazioni simili a quelle dei suoi predecessori: confusione nell’attribuzione di un livello alto, influenze soggettive nella valutazione dei danni agli edifici.

Per evitare queste problematiche, nel 2007 e’ stata sviluppata una nuova scala detta “Environmental Seismic Intensity Scale”, o ESI-2007. Come suggerisce il nome stesso, questa scala si basa sugli effetti ambientali che un sisma puo’ avere in un determinato luogo. Fate attenzione, stiamo parlando di ambiente in generale, non solo di antropizzazione. In tal senso, questa scala va proprio a valutare la fagliazione provocata nel terreno, fenomeni di subsidenza, liquefazione, frattura, ecc. Come visto in diversi articoli, questi sono tutti effetti seguenti ad un sisma e che possono essere utilizzati per descrivere il fenomeno partendo proprio dalle sue conseguenze sull’ambiente.

Qual e’ il vantaggio di questa tecnica? Come sappiamo, molto spesso un terremoto tende a ripetersi in zone in cui e’ gia’ avvenuto. Valutare, e dunque raccontare, il sisma basandosi proprio sui suoi effetti sull’ambiente, puo’ aiutarci a prevenire i danni del terremoto. In che modo? Parlare di case distrutte, non e’ di per se un parametro utilie, ad esempio, per confrontarci con fenomeni avvenuti decenni prima. Questo e’ evidente se si pensa alle diverse tecniche costruttive, ma anche al grado di antropizzazione di un determinato luogo. Parlando invece di conseguenze sull’ambiente, e’ possibile prima di tutto confrontarci con gli eventi passati, ma soprattutto ci permette di predisporre piani di emergenza mirati, conoscendo le eventuali problematiche che potrebbero verificarsi in concomitanza con un sisma di alta intensita’.

Ultima considerazione che vi sara’ venuta in mente: perche’ parliamo di nuova scala se il nome e’ qualcosa-2007? Semplicemente perche’ nel 2007 e’ stta presentata questa divisione, ma prima di poter essere utilizzata, sono richiesti 5 anni di sperimentazione, cosi’ come avvenuto.

Concludendo, esistono diverse scale sismologiche per poter valutare e distinguere tra loro i diversi terremoti. Cme visto pero’, queste presentano alcune limitazioni specifiche dovute alla stima dei danni o alla caratteristica fisica presa in considerazione. Distinzione molto importante e’ quella tra magnitudo e intensita’ che, come visto, sono due termini spesso confusi ma che in realta’ caratterizzano cose completamente diverse tra loro. La nuova scala ESI-2007, consente di valutare gli effetti provocati da un sisma sull’ambiente, determiando cosi’ un confronto diretto e sempre possibile in un luogo specifico. Come potete facilmente immaginare, per poter definire esattamente il grado ESI di un sisma, i sismologi devono recarsi sul luogo per poter stimare al meglio gli effetti ambientali lasciati. Oltre a quelle viste, vi sono poi altre scale, spesso simili alle altre, ma il cui utilizzo e’, ad esempio, specifico di un determinato luogo per motivi storici o culturali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Universo: foto da piccolo

24 Mar

In questi ultimi giorni, tutti i giornali, i telegiornali, i siti internet specializzati, sono stati invasi da articoli scientifici riguardanti le ultime scoperte fatte con il telescopio Planck. I dati di questo telescopio, gestito interamente dalla nostra Agenzia Spaziale Europea, hanno mostrato una foto dell’universo quando aveva solo 380000 anni. Ecco la foto che sicuramente vi sara’ capitato di vedere:

L'universo alla tenera eta' di 380000 anni

L’universo alla tenera eta’ di 380000 anni

Si parla anche di risultati sconvolgenti: l’universo e’ piu’ vecchio di quello che si pensava fino ad oggi. Inoltre, la radiazione cosmica di fondo presenta delle differenze tra i due emisferi oltre a mostrare una regione fredda piu’ estesa di quella che si pensava.

Fantastico, direi io, questi risultati mi hanno veramente impressionato. Ora pero’, la domanda che mi sono posto e’ molto semplice, anche su giornali nazionali, ho visto articoli che commentavano questa foto parlando di CMB, anisotropie, fase inflazionistica. In pochissimi pero’, si sono degnati di spiegare in modo semplice il significato di questi termini. Purtroppo, spesso vedo molti articoli che ripetono a pappagallo le notizie senza neanche chiedersi cosa significano quei termini che stanno riportando.

Cerchiamo, per quanto possibile, di provare a fare un po’ chiarezza spiegando in maniera completamente divulgativa cosa significa: radiazione cosmica di fondo, periodo inflazionistitico, ecc.

Andiamo con ordine. La foto da cui siamo partiti ritrae l’universo quando aveva 380000 anni ed in particolare mostra la mappa della radiazione cosmica di fondo.

Prima cosa, come facciamo a fare una foto dell’universo del passato? In questo caso la risposta e’ molto semplice e tutti noi siamo in grado di sperimentarla facilmente. Quando alziamo lo sguardo e vediamo il cielo stellato, in realta’ e’ come se stessimo facendo un viaggio nel tempo. Se guardiamo una stella distante 100 anni luce da noi, significa che quell’immagine che osserviamo ha impiegato 100 anni per giungere fino a noi. Dunque, quella che vediamo non e’ la stella oggi, bensi’ com’era 100 anni fa. Piu’ le stelle sono lontane, maggiore e’ il salto indietro che facciamo.

Bene, questo e’ il principio che stiamo usando. Quando mandiamo un telescopio in orbita, migliore e’ la sua ottica, piu’ lontano possiamo vedere e dunque, equivalentemente, piu’ indietro nel tempo possiamo andare.

Facciamo dunque un altro piccolo passo avanti. Planck sta osservando l’universo quando aveva solo 380000 anni tramite la CMB o radiazione cosmica a microonde. Cosa sarebbe questa CMB?

Partiamo dall’origine. La teoria accettata sull’origine dell’universo e’ che questo si sia espanso inizialmente da un big bang. Un plasma probabilmente formato da materia e antimateria ad un certo punto e’ esploso, l’antimateria e’ scomparsa lasciando il posto alla materia che ha iniziato ad espandersi e, di conseguenza, si e’ raffreddata. Bene, la CMB sarebbe un po’ come l’eco del big bang e, proprio per questo, e’ considerata una delle prove a sostegno dell’esplosione iniziale.

Come si e’ formata la radiazione di fondo? Soltanto 10^(-37) secondi dopo il big bang ci sarebbe stata una fase detta di inflazione in cui l’espansione dell’universo ha subito una rapida accelerazione. Dopo 10^(-6) secondi, l’universo era ancora costituito da un plasma molto caldo di  fotoni, elettroni e protoni, l’alta energia delle particelle faceva continuamente scontrare i fotoni con gli elettroni che dunque non potevano espandersi liberamente. Quando poi la temperatura dell’universo e’ scesa intorno ai 3000 gradi, elettroni e protoni hanno cominciato a combianrsi formando atomi di idrogeno e i fotoni hanno potuto fuoriuscire formando una radiazione piu’ o meno uniforme. Bene, questo e’ avvenuto, piu’ o meno, quando l’universo aveva gia’ 380000 anni.

Capiamo subito due cose: la foto da cui siamo partiti e’ dunque relativa a questo periodo, cioe’ quando la materia (elettroni e protoni) hanno potuto separarsi dalla radiazione (fotoni). Stando a questo meccanismo, capite anche perche’ sui giornali trovate che questa e’ la piu’ vecchia foto che potrebbe essere scattata. Prima di questo momento infatti, la radiazione non poteva fuoriuscire e non esisteva questo fondo di fotoni.

Bene, dopo la separazione tra materia e radiazione, l’universo ha continuato ad espandersi, dunque a raffreddarsi e quindi la temperatura della CMB e’ diminuita. A 380000 anni di eta’ dell’universo, la CMB aveva una temperatura di circa 3000 gradi, oggi la CMB e’ nota come fondo cosmico di microonde con una temperatura media di 2,7 gradi Kelvin. Per completezza, e’ detta di microonde perche’ oggi la temperatura della radiazione sposta lo spettro appunto su queste lunghezze d’onda.

Capite bene come l’evidenza della CMB, osservata per la prima volta nel 1964, sia stata una conferma proprio del modello del big bang sull’origine del nostro universo.

E’ interessante spendere due parole proprio sulla scoperta della CMB. L’esistenza di questa radiazione di fondo venne predetta per la prima volta nel 1948 da Gamow, Alpher e Herman ipotizzando una CMB a 5 Kelvin. Successivamente, questo valore venne piu’ volte corretto a seconda dei modelli che venivano utilizzati e dai nuovi calcoli fatti. Dapprima, a questa ipotesi non venne dato molto peso tra la comunita’ astronomica, fino a quando a partire dal 1960 l’ipotesi della CMB venne riproposta e messa in relazione con la teoria del Big Bang. Da questo momento, inizio’ una vera e propria corsa tra vari gruppi per cercare di individuare per primi la CMB.

Penzias e Wilson davanti all'antenna dei Bell Laboratories

Penzias e Wilson davanti all’antenna dei Bell Laboratories

Con grande sorpresa pero’ la CMB non venne individuata da nessuno di questi gruppi, tra cui i principali concorrenti erano gli Stati Uniti e la Russia, bensi’ da due ingegneri, Penzias e Wilson, con un radiotelescopio pensato per tutt’altre applicazioni. Nel 1965 infatti Penzias e Wilson stavano lavorando al loro radiotelescopio ai Bell Laboratories per lo studio della trasmissione dei segnali attraverso il satellite. Osservando i dati, i due si accorsero di un rumore di fondo a circa 3 Kelvin che non comprendenvano. Diversi tentativi furono fatti per eliminare quello che pensavano essere un rumore elettronico del telescopio. Solo per darvi un’idea, pensarono che questo fondo potesse essere dovuto al guano dei piccioni sull’antenna e per questo motivo salirono sull’antenna per ripulirla a fondo. Nonostante questo, il rumore di fondo rimaneva nei dati. Il punto di svolta si ebbe quando l’astronomo Dicke venne a conoscenza di questo “problema” dell’antenna di Penzias e Wilson e capi’ che in realta’ erano riusciti ad osservare per la prima volta la CMB. Celebre divenne la frase di Dicke quando apprese la notizia: “Boys, we’ve been scooped”, cioe’ “Ragazzi ci hanno rubato lo scoop”. Penzias e Wilson ricevettero il premio Nobel nel 1978 lasciando a bocca asciutta tutti gli astronomi intenti a cercare la CMB.

Da quanto detto, capite bene l’importanza di questa scoperta. La CMB e’ considerata una delle conferme sperimentali al modello del Big Bang e quindi sull’origine del nostro universo. Proprio questa connessione, rende la radiazione di fondo un importante strumento per capire quanto avvenuto dopo il Big Bang, cioe’ il perche’, raffreddandosi, l’universo ha formato aggreggati di materia come stelle e pianeti, lasciando uno spazio quasi vuoto a separazione.

Le osservazioni del telescopio Planck, e dunque ancora la foto da cui siamo partiti, hanno permesso di scoprire nuove importanti dinamiche del nostro universo.

Prima di tutto, la mappa della radiazione trovata mostra delle differenze, o meglio delle anisotropie. In particolare, i due emisferi presentano delle piccole differenze ed inoltre e’ stata individuata una regione piu’ fredda delle altre, anche detta “cold region”. Queste differenze furono osservate anche con la precedente missione WMAP della NASA, ma in questo caso si penso’ ad un’incertezza strumentale del telescopio. Nel caso di Plack, la tecnologia e le performance del telescopio confermano invece l’esistenza di regioni “diverse” rispetto alle altre.

Anche se puo’ sembrare insignificante, l’evidenza di queste regioni mette in dubbio uno dei capisaldi dell’astronomia, cioe’ che l’universo sia isotropo a grande distanza. Secondo i modelli attualmente utilizzati, a seguito dell’espansione, l’universo dovrebbe apparire isotropo, cioe’ “uniforme”, in qualsiasi direzione. Le differenze mostrate da Planck aprono dunque lo scenario a nuovi modelli cosmologici da validare. Notate come si parli di “grande distanza”, questo perche’ su scale minori esistono anisotropie appunto dovute alla presenza di stelle e pianeti.

Ci sono anche altri importanti risultati che Planck ha permesso di ottenere ma di cui si e’ parlato poco sui giornali. In primis, i dati misurati da Planck hanno permesso di ritoccare il valore della costante di Hubble. Questo parametro indica la velocita’ con cui le galassie si allontanano tra loro e dunque e’ di nuovo collegato all’espansione dell’universo. In particolare, il nuovo valore di questa costante ha permesso di modificare leggermente l’eta’ dell’universo portandola a 13,82 miliardi di anni, circa 100 milioni di anni di piu’ di quanto si pensava. Capite dunque perche’ su alcuni articoli si dice che l’universo e’ piu’ vecchio di quanto si pensava.

Inoltre, sempre grazie ai risultati di Planck e’ stato possibile ritoccare le percentuali di materia, materia oscura e energia oscura che formano il nostro universo. Come saprete, la materia barionica, cioe’ quella di cui siamo composti anche noi, e’ in realta’ l’ingrediente meno abbondante nel nostro universo. Solo il 4,9% del nostro universo e’ formato da materia ordinaria che conosciamo. Il 26,8% dell’universo e’ invece formato da “Materia Oscura”, qualcosa che sappiamo che esiste dal momento che ne vediamo gli effetti gravitazionali, ma che non siamo ancora stati in grado di indentificare. In questo senso, un notevole passo avanti potra’ essere fatto con le future missioni ma anche con gli acceleratori di particelle qui sulla terra.

Una considerazione, 4,9% di materia barionica, 26,8% di materia oscura e il resto? Il 68,3% del nostro universo, proprio l’ingrediente piu’ abbondante, e’ formato da quella che viene detta “Energia Oscura”. Questo misterioso contributo di cui non sappiamo ancora nulla si ritiene essere il responsabile proprio dell’espansione e dell’accelerazione dell’universo.

Da questa ultima considerazione, capite bene quanto ancora abbiamo da imparare. Non possiamo certo pensare di aver carpito i segreti dell’universo conoscendo solo il 5% di quello che lo compone. In tal senso, la ricerca deve andare avanti e chissa’ quante altre cose strabilinati sara’ in grado di mostrarci in futuro.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il sistema di posizionamento Galileo

21 Mar

Notizia fresca di questi giorni, che forse avrete letto anche sui  giornali, e’ stato lanciato il quarto satellite del sistema di navigazione e localizzazione Galileo. L’insieme dei quattro satelliti ha dato ufficialmente il via alla ricezione di questo sistema di localizzazione europeo.

Il principio di funzionamento, cosi’ potete leggere, e’ come quello del GPS americano, ma in questo caso si tratta di un sistema tutto europeo. Al momento sono in orbita 4 dei 30 satelliti previsiti che formerano la costellazione appunto del sistema Galileo.

Bello direte voi, ma questa notizia dovrebbe suscitare un po’ di curiosita’ e soprattutto una serie di domande lecite che vorrei condividere con voi: come funziona il GPS? Perche’ se c’era quello americano ne dobbiamo fare uno europeo? Che vantaggi comporta?

Tutte domande lecite a cui proveremo a dare una risposta semplice e accessibile a tutti.

Al solito, provate a fare un esperimento-intervista. Chiedete, anzi chiedetevi, come funziona il GPS che avete in macchina, sul cellulare, sul portatile, ecc. Molto spesso la risposta data e’ la seguente: semplice, si accende un antenna, questa comunica con un satellite che ci localizza e il gioco e’ fatto, otteniamo un puntino su una mappa che indica la nostra posizione “esatta”. Una risposta del genere e’ completamente sbagliata in diversi punti. Se questa e’ stata la vostra risposta, forse e’ il caso di continuare la lettura.

Partiamo dall’inizio. Abbiamo il problema di localizzare la nostra posizione in un punto qualsiasi della Terra. Come facciamo? Semplice, utilizziamo dei satelliti. Se non altro, l’utilizzo di satelliti ci permette, in linea di principio, di essere sempre localizzabili indipendentemente dalla posizione. In Europa, in Asia, nell’oceano, se alzate la testa vedete il cielo e quindi potenzialmente il satellite.

Satelliti visibili dal ricevitore nel tempo

Satelliti visibili dal ricevitore nel tempo

In realta’, non e’ proprio esattamente cosi’. Un solo satellite che gira intorno alla Terra non sarebbe sempre visibile. Per dirla tutta, un solo satellite non consentirebbe neanche di localizzarci, ma ne servono ben quattro visibili da dove siamo. Su questo torneremo tra poco. Dunque, un solo satellite non basta ne servono 4. Per questo motivo, la costellazione di satelliti GPS e’ formata da un numero grande di oggetti in orbita in modo da poter garantire sempre ed in ogni punto la visibilita’ di almeno 4 satelliti. L’immagine riportata permette di chiarire molto bene questo concetto. Come vedete, mentre i satelliti girano intorno alla Terra, viene riportato in ogni istante il numero di satelliti visibili. Affinche’ la vostra rete sia funzionale, questo numero non deve mai essere minore di quattro.

Fin qui ci siamo. Abbiamo bisogno di 4 satelliti. Non abbiamo ancora risposto alle domande iniziali, anzi ne abbiamo aggiunta un’altra: perche’ 4 satelliti?

Cerchiamo ora di capire come funziona il GPS. In realta’, l’antenna del vostro sistema non comunica affatto con i satelliti, ma e’ solo un “ricevitore” di segnali. In ogni istante, i satelliti inviano verso la terra dei segnali che l’antenna e’ in grado di ricevere. Questi segnali sono di tipo orario, cioe’ contengono l’informazione sull’ora del loro invio. Il metodo di localizzazione si basa appunto sulla differenza di tempo tra l’invio del segnale da parte del satellite e la sua ricezione dall’antenna. Conoscendo la velocita’di propagazione del segnale, dalla differenza di tempo possiamo ricavare la distanza del ricevitore dal satellite.

Ora, dovendo posizionare un punto sulla mappa corrispondente al ricevitore, avete bisogno di 3 informazioni: latitudine, longitudine e altitudine. Avete cioe’ 3 incognite da calcolare. Come ricorderete dalla matematica, per risolvere un sistema di 3 incognite c’e’ bisogno di 3 equazioni indipendenti. 3 equazioni significa dunque avere l’informazione contemporaneamente da 3 satelliti. Proprio per questo motivo si parla di “triangolazione” della posizione.

Ricapitoliamo: 3 incognite per la posizione esatta, 3 equazioni che sono i 3 satelliti, e fin qui ci siamo. Perche’ prima parlavamo di 4 satelliti?

Abbiamo detto che tutto il gioco si basa sulla misura del tempo impiegato dal segnale per andare dal satellite al ricevitore. Detto proprio semplicemente, il satellite manda un segnale dicendo sono le 12.00 il ricevitore ascolta il segnale, vede che sono le 12.01 e quindi capisce che e’ passato un minuto (in realta’ la differenza temporale e’ tipicamente dell’ordine dei millisecondi). Facile a dirsi ma non a farsi. Affinche’ questo gioco funzioni, i satelliti ed il ricevitore devono essere perfettamente sincronizzati.

I satelliti del GPS utilizzano degli orologi atomici al Cesio o al Rubidio, estremamente precisi, ma che costano piu’ o meno 200000 euro l’uno. Il nostro piccolo e economico ricevitore certamente non dispone di un sistema del genere. Dunque, per localizzare il punto non servono piu’ 3 incognite bensi’ 4, compreso il tempo. Il quarto satellite serve appunto per determinare anche l’informazione temporale.

images

Solo per completezza di informazione, la localizzazione GPS sarebbe impossibile senza le dovute correzioni date dalla relativita’ di Einstein. Il tempo sul satellite scorre ad un ritmo leggermente piu’ veloce rispetto alla Terra (dilatazione dei tempi). Se questo effetto non fosse incluso, le misure dei tempi di percorrenza sarebbero sistematicamente sbagliate. La funzionalita’ del GPS e’, se vogliamo, anche una conferma pratica dell’esistenza della relativita’.

Dunque, abbiamo capito come avviene la localizzazione. Torniamo ora al discorso satelliti. In ogni istante ed in ogni punto della Terra devo dunque poter vedere almeno 4 satelliti. Quello che oggi chiamiamo GPS sfrutta, come detto all’inizio, la costellazione di satelliti americani chiamata NAVSTAR GPS costituita in tutto da 31 satelliti. Questi sono disposti su sei piani orbitali con un’inclinazione di 55 gradi sul piano equatoriale. Maggiore e’ il numero di satelliti utilizzati simultaneamente, minore e’ l’incertezza con cui si possono ricavare le incognite, e dunque la posizione del ricevitore.

La precisione attuale del NAVSTAR e’ dell’ordine di qualche metro. Fino a prima del 2000, la qualita’ del sistema per uso civile era dell’ordine dei 200 metri a causa dela distorsione fatta appositamente sui segnali per uso civile, mentre per gli usi militari veniva data qualita’ massima. Questa distinzione, detta anche “disponibilita’ selettiva” e’ stata eliminata su volere del presidente Clinton e, di fatto, ha aperto la strada ai sistemi GPS portatili per scopi civili.

Abbiamo risposto gia’ a 2 domande su 3. Sappiamo ora come avviene la localizzazione e perche’ servono 4 satelliti. Torniamo ora a Galileo.

Galileo prevede una costellazione di 30 satelliti che diverra’ pienamente operativa a partire dal 2014. Ad oggi, e sappiamo ora anche il perche’, sono stati lanciati 4 satelliti e dunque e’ possibile fare i primi studi sui segnali e cominciare a testare la qualita’ del sistema.

Perche’ fare un nuovo sistema se c’e’ gia’ quello americano? In realta’, in orbita ci sono due sistemi di navigazioni indipendenti, il NAVSTAR americano e il GLONASS russo, quest’ultimo pero’ scarsamente manutenuto negli ultimi tempi. La motivazione del Galileo e’ piu’ politica che scientifica. Il NAVSTAR e il GLONASS per uso civile sono sempre subordinati all’effettivo utilizzo militare dei due paesi. In qualsiasi momento, uno dei due paesi potrebbe decidere di chiudere il servizio civile per un qualsiasi motivo. Non pensate soltanto al navigatore della vostra automobile, il GPS e’ utilizzato in tutti i sistemi di navigazione civili come aerei, navi, antifurti satellitari, ecc. Una, seppur improbabile (forse), decisione del genere causerebbe un danno irreparabile. La necessita’ dunque di interrompere un monopolio di localizzazione ha spinto i paesi europei ha dotarsi di un proprio sistema satellitare.

Inoltre, a differenza di quello made in USA, il Galileo gode dei finanziamenti di diversi paesi attraverso la comunita’ europea e non solo. Diversi paesi extraeuropei, come Israele, Cina e Russia (come integrazione del GLONASS), stanno contribuendo a Galileo appunto per assicurare un servizio civile costante.

Solo per completezza, esistono anche dei sistemi minori di tipo regionale attualmente in fase di studio. Sia l’India che la Cina stanno infatti portando avanti gli studi per dotarsi di sistemi proprietari esclusivi non globali. In questo caso, ma si tratta di una mia considerazione personale, programmi di questo tipo servono soltanto per prendere confidenza e dimostrare agli altri la possibilita’ di accedere allo spazio mediante satelliti. Come sappiamo, si tratta di economie definite “emergenti”, anche se ormai emerse del tutto, e proprio per questo interessate alla corsa allo spazio su tutti i fronti.

Concludendo, i primi 4 satelliti di Galileo sono in orbita. Nel giro di qualche anno la costellazione di satelliti dovrebbe essere completata e funzionante. Questo sistema, parallelo al NAVSTAR, consentira’ la localizzazione sulla Terra garantendo la funzionalita’ civile sempre e indipendentemente dalla situazione politica. Dal punto di vista economico, ci saranno vantaggi anche per le aziende europee che potranno produrre e commercializzare ricevitori per Galileo mentre prima con il NAVSTAR questo settore era riservato ad aziende americane.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Psicosi 2012: presentazione a Roma

15 Set

Per chiunque fosse interessato ed in zona, vi comunico che martedi 25 Settembre ci sara’ la presentazione del libro “Psicosi 2012. Le risposte della scienza” a Roma.

L’appuntamento e’ alle ore 20.00 alla libreria Assaggi in zona San Lorenzo, via degli Etruschi 4.

Ecco la pagina dell’evento:

Presentazione Psicosi 2012

Sono sicuro che questo appuntamento sara’ un ottimo momento di scambio e di divulgazione della ricerca. Partendo dalle profezie sul 2012, potremo finalmente capire il punto di vista della scienza su tutti questi eventi e fenomeni di cui sentiamo parlare in continuazione.

La presentazione rientra negli eventi organizzati per la settimana europea della scienza. Trovate il programma completo della settimana a questo indirizzo:

Settimana europea della Scienza

Appuntamento di spicco della settimana, la “Notte europea della Ricerca” di venerdi 28 Settembre 2012. Come ogni anno, sia la notte che la settimana della ricerca saranno ricchi di appuntamenti creati appositamente per avvicinare il cittadino ai laboratori scientifici. Ruolo di spicco nella notte della ricerca avranno i Laboratori Nazionali di Frascati, con visite guidate agli esperimenti, e il comune di Frascati con esposizioni e dibattiti pubblici.

Per maggiori info, potete consultare direttamente il sito di Frascati Scienza, organizzatrice dell’evento:

Frascati Scienza

Non mancate dunque Martedi 25 a San Lorenzo per la presentazione di “Psicosi 2012. Le risposte della scienza” e Venerdi 28 a Frascati con la notte della ricerca.