Tag Archives: stop

Buongiorno Rosetta!

26 Gen

Solo pochi giorni fa, e’ stata data una notizia che, purtroppo, e’ passata un po’ in sordina sui siti di informazione: dopo ben 31 mesi, la sonda Rosetta si e’ risvegliata dal suo periodo di ibernazione ed e’ pronta ad effetturare una missione che non puo’ che richiamare alla mente scenari fantascientifici.

Di cosa si tratta?

La missione della sonda Rosetta e’ estremamente interessante dal punto di vista scientifico. Il suo compito e’ quello di avvicinarsi alla cometa 67P/Churyumov-Gerasimenko e, per la prima volta, far scendere un modulo di atterraggio pensato per esplorare la cometa.

Il nome Rosetta viene proprio dalla stele di Rosetta. Cosi’ come il manufatto, gli studiosi del settore pensano di poter scoprire importanti segreti del nostro universo analizzando da vicino la cometa. Come abbiamo visto in questo articolo:

Cos’e’ una cometa

le comete sono dei veri e propri fossili del nostro universo, dal cui studio e’ possibile raccogliere informazioni fondamentali sull’origine della Via Lattea e dell’universo stesso.

Non a caso, il lander destinato a scendere sulla cometa si chiama Philae e prende spunto dal nome di un’isola dove e’ stato ritrovato un importante manufatto che ha consentito di decifrare la Stele di Rosetta.

Torniamo alla missione. Perche’ la sonda e’ stata ibernata?

Rosetta e’ stata lanciata nel 2004. Il percorso ha previsto ben quattro fionde gravitazionali,  3 intorno alla Terra ed una intorno a Marte, per consentire alla sonda di acquistare suffciente velocita’ per il suo viaggio. Terminata questa prima fase, la sonda e’ stata messa in stato di ibernazione per risparmiare importanti risorse inutili per il viaggio.

In questi giorni, dopo ben 31 mesi, Rosetta e’ stata risvegliata in automatico dal suo computer di bordo. Come potete facilmente immaginare, il risveglio e’ stato un procedimento molto lungo ed estremamente delicato. Per prima cosa, e’ stato un successo ricevere da Terra il primo segnale da Rosetta che indicava il corretto funzionamento della strumentazione.

Ora, la sonda ha ripreso il suo viaggio verso la 67P/Churyumov-Gerasimenko. Per darvi qualche informazione aggiuntiva, si tratta di una cometa periodica del nostro Sistema Solare con un periodo di 6.45 anni terrestri. Una volta raggiunta la cometa, dalla sonda si stacchera’ il modulo Philae destinato a posarsi sulla superficie del piccolo corpo. Parliamo infatti di una dimensione di 2×4 kilometri quadrati.

Ricostruzione 3D del nucleo della cometa

Ricostruzione 3D del nucleo della cometa

Anche se durante la preparazione della missione, e’ stato utilizzato il telescopio Hubble per ricostruire un’immagine 3D della cometa, come potete facilmente immaginare, non e’ possibile pianificare alla perfezione il momento dell’atterraggio. Questa delicatissima operazione sara’ infatti eseguita in diretta per correggere eventuali variazioni di piano e consentire al lander di atterrare.

Una volta in posizione, Philae utilizzera’ i suoi strumenti per fare un’analisi assolutamente esclusiva di un corpo di questo tipo. Il lander e’ dotato anche di un trapano in grado di scavare a profondita’ fino a 20 cm. I frammenti raccolti saranno anche scaldati in piccoli fornetti fino a 1200 gradi per permettere un’analisi chimico-fisica dei materiali.

Come potete facilmente capire, si tratta di un’operazione estremamente complessa ma che potrebbe consentire di raccogliere informazioni importantissime per la comprensione del nostro universo. Una missione di questo tipo, come anticipato all’inizio, non puo’ che richiamare gli scenari di alcuni film di fantascienza degli anni ’90. Sicuramente, l’operazione presenta alcuni punti oscuri ma grandi speranze sono affidate a questa missione pensata e sviluppata dall’ESA con un contributo italiano davvero notevole. L’arrivo intorno alla cometa e’ atteso per la seconda meta’ del 2014. Non resta ancora molto da aspettare. Daremo ulteriori aggiornamenti su questa missione, seguendo passo dopo passo ogni evoluzione di Rosetta.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Louisiana: il sinkhole che inghiotte la foresta

11 Ott

Nella specifica sezione:

Hai domande o dubbi?

una nostra cara lettrice ci ha chiesto di parlare dell’impressionante sinkhole che si e’ aperto in Louisiana gia’ da qualche tempo.

Come ricorderete, di sinkhole abbiamo parlato diverse volte in queste pagine:

Enorme cratere si apre in Cina

Enormi voragini si aprono in Florida

Numerosi Sinkhole a Samara

I “tappi” del Mar Morto

Come visto, si tratta di immense e profonde voragini che si aprono nel terreno e che, in alcuni casi, hanno portato vittime e anche numerosi danni.

Un’analisi specifica e unificata di questo fenomeno non e’ di per se possibile. Come visto negli articoli precedenti, ciascuno e’ un caso a se’. Sui soliti siti catastrofisti non si fa altro che puntare il dito contro questo fenomeno parlando sempre e solo di attivita’ umana, ad esempio, attraverso la tecnica del fracking, oppure ci si concentra su cause naturali-estreme per mostrare la ribellione in corso del nostro pianeta e le immani catastrofi ormai alle porte.

Gia’ negli articoli precedenti, abbiamo cercato di ragionare sul fenomeno, mostrando prima di tutto come l’approccio estremo, sia in un caso che nell’altro, del fenomeno dei sinkhole sia sbagliato. Forse per natura umana, anche in questo caso si trovano due schieramenti opposti; chi “tifa” per le cause antropiche e allo sfruttamento non coscienzioso del pianeta e chi, invece, parla di cause del tutto naturali, normali, non pericolose.

Come nostra natura, dobbiamo sempre ragionare sul singolo fatto, analizzando il caso specifico e senza partire con preconcetti che finirebbero per deviare il nostro pensiero verso una verita’ piuttosto che un’altra.

Ciascun sinkhole nel mondo e’ un caso a se’. Esistono delle zone specifiche sulla Terra in cui questo fenomeno e’ noto e frequente da sempre. Per farvi degli esempi, la Cina e la Florida sono zone di questo tipo. Qui, i sinkhole sono conosciuti e noti e, piu’ o meno frequentemente, si ripropongono con intensita’ variabile in base al caso.

Esiste poi il problema dello sfruttamento del terreno. Anche su questo punto abbiamo speso diversi articoli. Se, ad esempio, provate a cercare “fracking” nel motore di ricerca del blog, trovate diversi articoli di analisi della tecnica in cui si valutano tutti gli aspetti. Alcuni casi specifici di doline possono essere causati da uno svuotamento di un terreno non adatto perche’ non consolidato. Svuotando vaste zone nel sottosuolo, e’ possibile che crolli la parte superiore, creando appunto un fenomeno di tipo sinkhole.

Questa lunga introduzione al problema, e’ necessaria perche’, come sempre avviene, anche su questo tipo di notizie, la speculazione e’ sempre troppo forte e rischia di creare panico da un lato o di tranquillizzare troppo dall’altro.

Venendo al caso della Louisiana, credo sia interessante parlare di questo fenomeno, se non altro per l’entita’ degli eventi che si stano registrando. Gia’ nelle prime fasi, la dolina creata aveva un diametro di centinaia di metri e, quasi istantaneamente si e’ riempita di acqua creando una sorta di lago.

I crolli, o meglio l’aumento dell’apertura del sinkhole, non si sono mai arrestati a partire dalla meta’ del 2012 e oggi si parla di un’area dell’ordine di decine di campi da calcio con profondita’ stimate anche di 200 metri.

Come potete facilmente immaginare, visti i numeri in gioco, in questa zona il fenomeno del sinkhole sta creando non pochi problemi. Negli ultimi tempi e’ stato anche richiesto lo stato di emergenza naturale visto il trend di aumento della dolina.

Per farvi capire l’entita’ del fenomeno, vi riporto un video in cui si vedono diversi alberi inghiottiti in un attimo dal sinkhole che si allarga:

Come visto, nel giro di pochi secondi, diversi alberi si sono visti sprofondare completamente all’interno di questo enorme pozzo.

Per quanto riguarda l’origine di questa voragine, il discorso non e’ affatto semplice, ne tantomeno compreso a pieno.

Diversi abitanti del luogo riportano l’osservazione di fuoriuscita di gas dalle profondita’. Fenomeno osservabile dall’emissione di bolle sulla superifcie dell’acqua.

L’interpretazione complottista del fenomeno e’ molto semplice. Data l’amissione di gas dal sottosuolo, si parla di attivita’ di fracking non sicura condotta in profondita’ e che avrebbe creato il crollo del terreno. In questo caso, la fuoriuscita di gas sarebbe dovuta alle sacche di gas naturale contenute nel sottosuolo.

In realta’, questa affermazione non e’ corretta. L’analisi condotta sui gas fuoriusciti dal terreno, hanno mostrato che si tratta di gas naturale, molto probabilmente proveniente da sacche interne e che, grazie ai crolli, ha trovato una via di fuga.

Dunque si tratta di un crollo naturale?

Anche questa interpretazione non e’ del tutto corretta. Dagli studi condotti all’interno, si sono mostrate zone ad alta pressione con valori compatibili a quelli delle tubazioni di gas naturale che passano sotto il terreno. Cosa significa questo? Che, in almeno alcuni punti, ci sono delle perdite ad alta pressione. Prorprio per questo motivo, e’ stato chiesto alle compagnie che possiedono la rete di scaricare la pressione della pipe line. Ora, se il crollo sia dovuto a queste perdite o se queste siano una conseguenza delle perdite, non e’ certo. Personalmente, trovo difficile pensare che una perdita localizzata, anche se ad alta pressione, possa destabilizzare a questi livelli il terreno.

Come capite bene, non e’  stato ancora possibile capire quali siano le reali cause di questo sinkhole o quali le conseguenze. In tutto questo poi, c’e’ sempre da considerare, e non e’ assolutamente esclusa, l’origine del tutto naturale della formazione, cosi’ come avviene in diverse parti del pianeta e anche negli USA.

Quello che desta maggior preoccupazione nella zona, e’ un deposito sotterraneo di stoccaggio di butano, in cui erano stoccati circa un milione e mezzo di barili. Come potete facilmente immaginare, se i crolli arrivassero al deposito, si potrebbero avere conseguenze ben piu’ gravi, non solo a livello di salute per le fuorisucite di gas dai barili. Proprio per questo motivo, diversi barili sono gia’ stati portati via e si sta provvedendo a svuotare il deposito almeno finche’ l’espansione del sinkhole sara’ in corso.

Concludendo, il sinkhole della Louisiana e’ davvero incredibile per quanto riguarda le dimensioni e i ritmi di crescita che si stanno registrando. L’origine di questa dolina non e’ al momento chiara. Vi possono essere cause naturali, cosi’ come qualcosa indotto dall’attivita’ umana di estrazione del gas. Diverse leggende girano su questo sinkhole, e moltissimi fenomeni vengono descritti soprattutto su internet. Molte di queste sono leggende create appositamente per tenere alta l’attenzione. Visti i numeri in gioco e le dimensioni del fenomeno, non credo sia necessario inventare storie per tenere alta l’attenzione su quanto sta accadendo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La NASA se la da a gambe

6 Ott

In diversi articoli abbiamo evidenziato come gran parte delle teorie cospirazioniste vedano come principale attore la NASA. Il perche’ di questo e’ ovviamente di facile comprensione. L’ente spaziale americano rappresenta da sempre il lato scientifico piu’ pioneristico. Occuparsi di esplorazione spaziale stimola la curiosita’ e la fantasie di tutti quelli che vorrebbero gli alieni tra di noi o pronti a colonizzarci. In questo contesto poi, non dobbiamo dimenticare che stiamo parlando di un ente fedrale a stelle e strisce. Complici i tanti film di fantascienza ma, lasciatemi dire questa mia considerazione personale, anche la realta’, il governo USA e’ da sempre visto come il piu’ misterioso e occulto tra quelli occidentali. Se poi ci mettiamo il caso Snowden, i dati sensibili, le agenzie segrete federali, ecc, capite bene il contesto in cui ci muoviamo.

A complicare la faccenda spaziale, ci si mette poi in questi ultimi mesi la tanto citata cometa ISON. In diversi articoli, che potete ricercare utilizzando il motore di wordpress, abbiamo parlato di questo atteso appuntamento per la fine dell’anno. Carica di aspettative per un passaggio radente e estremamente luminoso, anche la ISON ha acceso diverse teorie catastrofiste, molte delle quali tramandate direttamente dalla mai arrivata fine del mondo del 21 dicembre 2012.

Perche’ faccio questo lungo preambolo?

In questi giorni, la rete si sta riaccendendo con forza a causa di un problema “tecnico” visualizzabile da tutti. Se provate ad andare sul sito della NASA, http://www.nasa.gov, cosi’ come su tutti i siti legati all’agenzia, trovate un messaggio di questo tipo:

Messaggio visualizzato sul sito nasa.gov

Messaggio visualizzato sul sito nasa.gov

Il sito e’ non raggiungibile?

Capite bene come questo inconveniente ha stimolato la sempre vivace fantasia di tantissimi utenti del web. Sapete perche’ il sito e’ offline? Molto semplice, la NASA ha scoperto che la ISON e’ in rotta di collisione con la Terra e per non divulgare la notizia ha preferito oscurare il sito. Il discorso e’ supportato dal fatto che anche il sito per la ricerca dei NEO, cioe’ gli oggetti in orbita vicino alla Terra, e’ non raggiungibile. Secondo altri poi, il sito sarebbe offline per lo stesso motivo ma anche perche’ i dipendenti NASA sono stati invitati a lsciare gli Stati Uniti per mettere in salvo loro e le proprie famiglie. Dunque, sarebbe una fuga in piena regola.

Cosa c’e’ di vero in tutto questo?

Assolutamente nulla!

I tanti catastrofisti che mettono in circolazione queste notizie, dimostrano ancora una volta di non saper leggere e, mi dispiace dirlo, anche tutti quelli che credono a queste panzane hanno lo stesso problema. Come potete vedere nello screenshot riportato dal sito nasa.gov, il messaggio dice:

Due to the lapse in federal government funding, this website is not available.

Cioe’ a causa della mancanza di fondi federali, il sito non e’ disponibile.

Ora, diverse volte abbiamo affrontato il problema del finanziamento della NASA. Come sappiamo, negli ultimi anni, l’agenzia spaziale ha visto una lenta e inarrestabile diminuzione dei fondi, che l’hanno costretta in primis a chiudere il programma Shuttle senza una valida alternativa e anche a ridurre al minimo le nuove missioni di esplorazione. Come visto, proprio a causa di questi tagli, i finanziamenti della NASA vengono girati come partecipazione ad industrie private per cercare di avere un’alternativa privata per i vettori spaziali.

Questa volta pero’, il discorso e’ ancora diverso. Come sicuramente avrete sentito nei telegiornali, in questi giorni e’ in corso un acceso dibattito negli Stati Uniti per quanto riguarda il finanziamento pubblico. Negli USA l’anno fiscale termina il 30 settembre. Solo pochi giorni fa dunque, e’ terminato il FY2013 ed e’ iniziato il FY2014. Per quest’ultimo pero’, non e’ stato raggiunto l’accordo tra camera e senato. Dal punto di vista politico, il motivo di questo e’ facilmente comprensibile. E’ in corso un forte dibattito tra Democratici e Repubblicani a seguito della tanto discussa e criticata riforma sanitaria voluta dal presidente Obama.

Conseguenza di questo mancato accordo e’ che da un giorno all’altro, circa 800 mila lavoratori pubblici si sono ritrovati senza stipendio. Purtroppo, non e’ la prima volta che questo accade. Come fanno notare diversi giornai economici, e’ la 17ma volta che avviene questa situazione, indicata in termini tecnici come “shutdown”.

In questa situazione sono coinvolti i dipendenti di parchi pubblici, di monumenti, ma anche i dipendenti dei centri anti epidemia cosi’ come altre servizi importanti per il funzionamento del paese. Ovviamente, come potete facilmente capire, i dipendenti della NASA non sono certo esentati.

Attualmente, a causa del taglio, la NASA e’ ufficialmente chiusa, con circa 18000 dipendenti a casa senza stipendio. Restano in servizio solo alcuni lavoratori coinvolti in programmi che non possono essere interrotti. Tra questi: coloro che si occupano della stazione spaziale internazionale, dei rover Curiosity e Opportunity, e di alcuni altri servizi indispensabili.

Quando finira’ questa situazione? Dal punto di vista economico non e’ facile dirlo. Quasi sicuramente, nel giro di qualche giorno, la situazione dovrebbe rientrare e il braccio di ferro tra i due schieramenti politici terminare. Questo e’ deducibile dal fatto che se lo shutdown si prolungasse troppo a lungo, allora il paese potrebbe finire in una situazione di default economico tecnico. In questo caso, la situazione sarebbe ben piu’ grave di quella attuale.

Concludendo, non c’e’ nessun mistero dietro l’irraggiungibilita’ del sito NASA in queste ore. Come visto nell’articolo questa e’ semplicemnte una conseguenza dello shutdown dovuto alla mancanza di un accordo parlamentare per l’inizio del fiscal year 2014. A causa del mancato finanziamento della macchina pubblica, circa 18000 lavoratori NASA sono stati spediti a casa e questo ha provocato non solo lo stop al sito dell’agenzia, ma anche il fermo forzato di quasi tutte le attivita’ in cui la NASA e’ coinvolta.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Se la morte fosse uno stato reversibile?

20 Mag

In un commento lasciato nella sezione:

Hai domande o dubbi?

un nostro nuovo lettore ha chiesto maggiori informazioni sulle esperienze di pre-morte, di cui abbiamo parlato in questo post:

Le esperienze di pre-morte

ma anche degli studi in corso per tornare indietro dallo stato di morte.

Se per la prima domanda avevamo gia’ discusso l’argomento in un post, la seconda richiesta e’ invece inedita.

Cosa significa tornare indietro dalla morte?

Riflettiamo un attimo su questa cosa. Quando moriamo? Vediamo, in modo che forse a qualcuno sembrera’ innaturale, il nostro corpo come una macchina. Ci sono tanti organi, ognuno con funzioni diverse, ma che funzionano attraverso la circolazione sanguigna. Questo flusso di sangue e’ prima di tutto spinto da una pompa che e’ il cuore. Ad ogni battito, il sangue va in circolo raggiungendo i diversi organi e alimentando in questo modo le cellule che li compongono.

Bene, quando moriamo cosa succede? In un modo o nell’altro, il nostro cuore smette di battere, cioe’ si interrompe l’alimentazione che faceva andare la macchina-uomo.

In questa concezione, possiamo vedere la morte come un istante, cioe’ quel preciso attimo in cui il cuore smette di battere. Prima di concludere, riflettiamo ancora su quanto detto. Noi non siamo solo il cuore. In termini automobilistici, questa e’ la pompa che manda in circolo la benzina, ma il motore qual e’? Tra tutti gli organi, sicuramente il cervello ha un ruolo molto importante e dunque concentriamoci su questo. Le cellule cerebrali, nel momento in cui il cuore si ferma, non ricevono piu’ sangue. Visto in questo modo, nell’istante in cui il cuore si ferma, inizia la morte delle cellule del nostro corpo che inizieranno un processo di decomposizione. Ovviamente, le cellule non muoiono nel preciso istante in cui il sangue smette di fluire, ma saranno ancora “vive” per un periodo piu’ o meno lungo.

Se utilizziamo questa chiave di lettura, la morte non e’ piu’ un singolo istante, bensi’ un processo che parte quando il cuore smette di battere e si conclude con la decomposizione cellulare.

Se ora, fossimo in grado di intervenire in questo lasso di tempo per risolere la causa che ha portato all’arresto cardiaco, potremmo pensare di tornare indietro dallo stato di morte.

Questo ragionamento e’ proprio quello alla base del pensiero del Dr. Sam Parnia, medico statunitense, capo del reparto di terapia intensiva dello Stony Brook University Hospital di New York. Sfidando il pensiero medico piu’ comune, Parnia ha condotto importanti studi sul processo di morte, cercando proprio di far tornare indietro i pazienti normalmente considerati deceduti.

Ora attenzione, su questi studi si possono leggere moltissime cose inesatte in rete, accompagnate dalla solita e immancabile speculazione. In particolare, non manca chi punta il dito contro la scienza e la medicina, sostenendo che gli esseri umani si vorrebbero sostituire a Dio nel decidere quando e come morire. Questo e’ completamente falso.

Ragioniamo un attimo su questi concetti. Nei reparti di terapia intensiva di tutto il mondo, si ricorre a particolari tecniche che consentono di mantenere in vita un paziente mediante circolazione extracorporea o respirazione indotta da macchinari. Anche in questi casi, quello che si fa e’ bloccare lo stato di morte, aiutando il paziente con l’ausilio di macchinari esterni al corpo.

Il dottor Parnia si e’ proprio specializzato in queste tecniche. Per farvi qualche esempio, molto usata in questi casi e’ la cosiddetta “rianimazione cardiopolmonare”, o CPR. Questa tecnica prevede l’ausilio di un macchinario per ossigenare il sangue del corpo e salvaguardare le cellule cerebrali in attesa che il problema del pazienta venga risolto e che possa riprendere la normale respirazione autonoma. Analoga funzione e’ quella dell’ECMO, cioe’ l’ossigenazione extracorporea mediante membrana, oltre ovviamente a tecniche criogeniche utilizzate per raffreddare il corpo e mantenere vitali le cellule.

Alla luce di quanto detto, queste tecniche sono del tutto normali. L’importante contributo del Dr. Parnia non e’ nella scoperta di queste tecniche, ripeto gia’ utilizzate in medicina, bensi’ in uno studio attento e specifico di come questi macchinari possano essere utilizzati al meglio per interrompere il processo di morte.

Forse parlare di interrompere il processo di morte, potrebbe far storcere il naso a qualcuno, ma, nell’ottica di un meccanismo che porta alla morte del paziente, quello che facciamo e’ limitarci ad intervenire nel momento giusto.

Detto questo, qual e’ questo momento giusto?

Dagli studi condotti negli USA, si e’ evidenziato come le cellule cerebrali possano restare in vita anche fino ad 8 ore dopo che il cuore ha smesso di battere. In questo senso, abbiamo un discreto lasso di tempo per intervenire sul paziente e cercare di ripristinare le normali funzioni vitali. Queste tecniche non devono assolutamente sconvolgere. Perche’, se ci facciamo un taglio profondo, andiamo in ospedale a mettere i punti piuttosto che morire dissanguati? Anche se un po’ azzardato, il discorso e’ lo stesso. In questo caso, il funzionamento del cuore e’ visto come un qualcosa di ripristinabile e su cui si puo’ agire per un discreto intervallo di tempo.

Personalmente, trovo gli studi di Parnia molto interessanti e degni di nota, soprattutto dal punto di vista scientifico. Ripeto nuovamente, quello che viene fatto e’ solo uno studio attento di tecniche di principio gia’ utilizzate. Lo scopo delle ricerche e’ migliorare queste procedure, ma soprattutto studiare tempi e soluzioni dei diversi casi.

Gli studi di Parnia stanno dando risultati? Assolutamente si. Per farvi un’idea, la media di pazienti rianimanti negli ospedali degli Stati Uniti e’ intorno al 16%. Allo Stony Brook University Hospital, si arriva a sfiorare il 33%.

Da quanto detto, non si deve assolutamente considerare Parnia uno stregone, ma solo uno scienziato impegnato in un campo di confine tra la vita e la morte.

Ovviamente, queste tecniche non sono sempre utilizzabili. Come detto fino a questo punto, affiche’ ci sia qualche possibilita’, si deve avere una morte improvvisa, in cui le cellule del nostro corpo da un istante all’altro si ritrovano senza sangue perche’ il cuore ha smesso di battere. Questo non e’, ad esempio, il caso delle malattie degenerative in cui il corpo muore gia’ lentamente quanto il cuore del soggetto e’ ancora in vita.

Concludendo, nell’ottica di vedere la morte come un processo che parte con l’arresto cardiaco e si conclude con il daneggiamento irreversibile delle cellule dell’organismo, il Dr. Parnia e’ impegnato nello studio delle tecniche per intervenire in questo lasso di tempo. In molti casi e’ infatti possibile rallentare la decomposizione cellulare ed intervenire per risolvere la causa scatenante dell’arresto cardiaco. Sicuramente si tratta di studi degni di nota e che speriamo portino altri risultati in un futuro piu’ o meno prossimo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il Muos di Niscemi

2 Apr

Diversi lettori del blog mi hanno scritto per chiedere il mio punto di vista sul sistema MUOS la cui costruzione era prevista a Niscemi in Sicilia.

Per chi fosse completamente a digiuno, il MUOS e’ un sistema di comunicazione satellitare che prevede 4 satelliti in orbita e 4 stazioni di terra. Questo sistema e’ direttamente gestito e voluto dal Dipartimento della Difesa degli Stati Uniti e servira’ per gestire, comandare e controllare in ogni parte del globo, le unita’ marine, aeree e di terra. Il sistema prevede diversi servizi tra cui la comunicazione vocale, lo scambio dati e la connessione di rete, tutto ad accesso riservato per scopi militari e di coordinamento. Le stazioni di terra verranno utilizzate per comunicare direttamente con i satelliti in orbita e la costruzione era prevista nelle Hawaii, in Australia, in Virginia e, come anticipato, a Niscemi a circa 60 Km dalla base militare di Sigonella.

Le stazioni di terra prevedono la costruzione di antenne operanti ad altissima frequenza e a banda stretta. Ecco una foto dell’installazione nelle isole Hawaii:

MUOS: stazione di terra nelle Hawaii

MUOS: stazione di terra nelle Hawaii

Perche’ stiamo parlando di questo sistema? Per quanto riguarda la costruzione della stazione di Niscemi, per diverso tempo ci sono stati dibattiti e scontri circa l’eventuale pericolo che queste antenne avrebbero costituito per la popolazione del posto. Nel corso degli anni, si sono formati comitati cittadini creati per impedire la costruzione di questa stazione e il dibattito ha riempito le pagine di molti quotidiani anche a livello nazionale. Ovviamente non e’ mancata la discussione politica. Diverse volte l’aministrazione regionale ha tentato di bloccare i lavori causando una discussione tra Parlamento Italiano, regione Sicilia e governo degli Stati Uniti. Come forse avrete letto, solo pochi giorni fa, l’amministrazione Crocetta ha bloccato definitivamente la costruzione della stazione ma, almeno a mio avviso, la discussione durera’ ancora per molto tempo.

Detto questo, non voglio assolutamente entrare in discussioni politiche sul MUOS e sulla regione Sicilia. Quello che molti utenti mi hanno richiesto e’ solo un parere scientifico sull’inquinamento elettromagnetico della stazione MUOS. Ovviamente, non entrero’ nel merito della discussione politica, degli accordi bilaterali tra Italia e USA ne tantomeno sull’eventuale valutazione di impatto ambientale che una stazione del genere sicuramente comporta sul panorama della zona.

A questo punto, la domanda su cui vorrei aprire una discussione e’: il MUOS e’ dannoso per la salute della popolazione?

A livello scientifico, ci sono due voci principali che si sono mosse parlando del MUOS. Da un lato Antonino Zichichi sostiene che l’installazione non e’ assolutamente dannosa per la popolazione vista la bassa potenza in gioco, dall’altro il Prof. Massimo Zucchetti del politecnico di Torino afferma che questa installazione potrebbe comportare seri rischi per la salute dei cittadini.

Come vedete, l’inizio non e’ dei migliori. Siamo di fronte a due punti di vista completamente opposti.

Ora, mentre Zichichi si e’ limitato a rilasciare interviste a diversi quotidiani, Zucchetti ha preparato una relazione tecnica sull’installazione che potete leggere a questo indirizzo:

Zucchetti, relazione MUOS

Come vedete anche dalla pagina, la relazione di Zucchetti viene pubblicizzata proprio da uno dei comitati cittadini nati per impedire l’installazione del MUOS a Niscemi, il comitato NoMuos.

Detto questo, proviamo a commentare la relazione di Zucchetti per cercare di capire se e come il MUOS potrebbe rappresentare un pericolo per la popolazione.

Prima di tutto, ci tengo a sottolineare che Zucchetti e’ esperto di radioprotezione ma e’ importante ragionare su quanto scritto per capire le motivazioni che spingono questa relazione nella direzione di considerare il MUOS come pericoloso.

Per prima cosa, dove doveva sorgere il nuovo impianto e’ gia’ presente un sistema radar detto NRTF le cui antenne sono in funzione dal 1991. Le analisi quantitative presentate nella relazione di Zucchetti riguardano proprio questo esistente impianto e vengono fatte considerazioni circa l’eventuale aggiunta del MUOS alle emissioni del NRTF.

Nella relazione vengono mostrate misure di campo elettrico fatte in diverse zone dell’impianto e che possiamo riassumere in questa tabella:

5,9 ± 0,6 V/m in località Ulmo (centralina 3)
4,0 ± 0,4 V/m in località Ulmo (centralina 8)
2 ± 0,2 V/m in località Martelluzzo (centralina 1)
1 ± 0,1 V/m in località del fico (centralina 7)

Come potete leggere nella relazione, queste misure, fatte dall’ARPA della Sicilia, potrebbero essere affette da un’incertezza al livello del 10%. Ora, per chi non lo sapesse, i limiti per la legislazione italiana impongono un campo inferiore a 6 V/m. Come potete vedere, anche considerando un’incertezza del 10%, solo il primo valore, se l’incertezza tendesse ad amentare la misura, sarebbe leggermente superiore al limite.

Cosa comporterebbe superare i 6 V/m? In realta’ assolutamente nulla. Cerchiamo di capire bene questo punto. Ad oggi, vi sono molte voci anche molto discordi sui reali effetti dell’inquinamento elettromagnetico. Mentre ci sono particolari frequenze ed esposizioni per cui e’ stato accertato un reale rischio per la salute, in moltissimi altri casi il discorso e’ ancora aperto e non si e’ giunti ad una conclusione. Pensate solo un attimo al discorso cellulari: fanno male? Non fanno male? Causano problemi al cervello? Tutte domande su cui spesso viene posta l’attenzione e su cui non esistono ancora dati certi. Con questo non voglio assolutamente tranquillizzare nessuno, ma solo far capire l’enorme confusione ancora presente su queste tematiche.

Tornando al discorso limiti di legge, superare di poco i 6 V/m non comporta assolutamente nulla. Perche’? Come detto siamo di fronte a fenomeni non ancora capiti dal punto di vista medico. Proprio per questo motivo esiste il “principio di precauzione”, cioe’ in caso di fenomeni scientificamente controversi si deve puntare ad una precauzione maggiore. Detto in altri termini, se non sappiamo se una determinata cosa fa male o meno, meglio mettere limiti molto stringenti.

Nel caso dei campi elettrici, il limite dei 6 V/m e’ nettamente inferiore a quello di altre nazioni europee, anche se, ad esempio, nel Canton Ticino il limite e’ di 3 V/m, e circa 500 volte inferiore al valore in cui ci si dovrebbero aspettare effetti diretti. Detto questo, se invece di 6 V/m, ne abbiamo 6,5 V/m, non succede assolutamente nulla. Non siamo ovviamente in presenza di un effetto a soglia, sotto il limite non succede nulla, appena sopra ci sono effetti disastrosi. Fermo restando che stiamo pensando l’incertezza del 10% sulla misura tutta nel verso di aumentarne il valore.

Detto questo, nella relazione da cui siamo partiti, si afferma pero’ che queste misure potrebbero essere sottistimate perche’ la strumentazione utilizzata non era sensibile alle emissioni a bassa frequenza intorno ai 45 KHz. In realta’, su questo punto non possono essere assolutamente d’accordo. La legge italiana stabilisce i limiti di cui abbiamo parlato per frequenze sopra i 100 KHz. Sotto questo valore, le onde elettromagnetiche sono assorbite pochissimo dal corpo umano per cui la loro emissione non viene neanche regolamentata. Questo solo per dire come le misure riportate nella relazione e fatte dall’ARPA della Sicilia sono del tutto attendibili e assolutamente non sottostimate.

Fin qui dunque, i valori misurati per l’installazione gia’ in funzione non mostrano nessun superamento dei limiti di legge italiani e potrebbero dunque essere considerati sicuri.

Andiamo ora invece, sempre seguendo la relazione da cui siamo partiti, al MUOS vero e proprio.

Per come dovrebbero essere fatte le antenne, e se la fisica non e’ un’opinione, il campo prodotto da un’antenna parabolica ha una forma cilindrica con una divergenza molto bassa. Detto in altri termini, il campo e’ all’interno dell’area della parabola e tende molto poco ad allargarsi appunto per non disperdere potenza. Detto questo, al di fuori del cilindro prodotto delle antenne, il campo e’ praticamente nullo e non comporta nessun problema nelle vicinanze.

Proviamo a fare due calcoli. Alla potenza di 1600 W, cioe’ la massima prevista per le antenne, il campo all’interno del cilindro sarebbe di circa 50 W/m^2. Questo valore e’ abbondantemente al di sopra dei limiti di legge di 1 W/m^2, ma per l’esposizione delle persone. Come potete facilmente immaginare, le antenne devono essere puntate verso il cielo per poter funzionare e per comunicare con i satelliti. Da quanto detto per la dispersione angolare fuori-cilindro, lontano dalle antenne il campo e’ praticamente nullo, diminuendo molto rapidamente.

Da questi numeri, e’ ovvio che se le antenne venissero puntate verso l’abitato, l’inquinamento elettromagnetico sarebbe elevatissimo, ma antenne di questo tipo hanno dei ferma-corsa meccanici che impediscono l’avvicinarsi dell’antenna troppo vicino all’orizzonte, oltre ovviamente a limitazioni software pensate appositamente per impedire queste esposizioni.

Detto in questo senso, le antenne del MUOS non dovrebbero essere un pericolo per la popolazione.

Sempre secondo la relazione e secondo le voci del web, le antenne del MUOS entrerebbero in funzione insieme a quelle gia’ discusse del NRTF. Cosa comporta questo? Ovviamente i due contributi si sommano, ma non linearmente come qualcuno potrebbe erroneamente pensare. Premesso che il MUOS sarebbe in funzione simultaneamente al NRTF solo inizialmente per poi sostituirlo del tutto, i due sistemi, alla luce dei calcoli fatti, non dovrebbero superare il limite di legge neanche quando sono simultaneamente accesi.

Se proprio vogliamo essere pignoli, resta quella misura dell’ARPA quasi al limite di legge. Sicuramente quella zona dovrebbe essere monitorata per capire meglio se il limite viene sistematicamente superato oppure no, ma solo a scopo di precauzione. Inoltre, bisognerebbe valutare la presenza di altre installazioni minori e il loro contributo totale, anche se non possono che rappresentare una piccola aggiunta al totale, oltre ovviamente ad eventuali fluttuazioni fuori asse delle emissioni. Questo genere di problematiche necessiterebbero di un monitoraggio continuo e completo dell’intera zona al fine di costruire una mappa del campo e valutare eventuali zone di picchi anomali.

Detto questo, se ci limitiamo al puro aspetto scientifico, il MUOS non dovrebbe rappresentare un pericolo per la popolazione della zona. Ovviamente, siamo in un campo molto difficile e ancora poco noto sia della scienza ma soprattutto della medicina. Non voglio assolutamente schierarmi a favore o contro il MUOS anche perche’ restano da valutare, indipendentemente da questa installazione, eventuali danni alla salute derivanti da un’esposizione prolungata nel tempo anche a limiti inferiori a quelli di legge. Come anticipato, questa tematica e’ ancora molto discussa e non si e’ ancora giunti ad un quadro completo.

Nella discussione, ho appositamente non valutato problematiche di natura diversa da quella dei campi elettromagnetici. Perche’ dobbiamo costruire una stazione radar degli USA in Italia? E’ giusto? Non e’ giusto? Questa installazione rovina il paesaggio della zona? I valori dichiarati per il progetto saranno quelli veri di esercizio?

Concludendo, alla luce dei dati analizzati, per l’installazione MUOS i limiti di legge sarebbero ampiamente soddisfatti. L’unico problema potrebbe derivare, anche se impossibile tenendo conto dei limiti meccanici imposti, da un puntamento diretto verso le abitazioni. L’ingresso del MUOS sostituirebbe il pre-esistente NTRF sicuramente piu’ vecchio ed operante a potenze e frequenze diverse. Purtroppo, il discorso non puo’ limitarsi a queste considerazioni, ma deve necessariamente racchiudere tematiche ambientali, politiche e mediche a cui non e’ possibile dare una risposta univoca in questo momento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

2038: nuovo bug informatico

6 Mar

Questa volta, voglio trattare un problema prettamente informatico. Diverse volte, anzi per dirla tutta il blog stesso nasce per questo motivo, abbiamo discusso non solo della causa, ma soprattutto delle innumerevoli date profetizzate per una fine del mondo.

Come sappiamo, quella del 21 Dicembre 2012, ha avuto una risonanza mondiale. Il motivo di questo e’ ovviamente da ricercarsi nelle tantissime ipotesi profetiche fatte partendo dal calendario Maya, ma soprattutto cio’ che ha reso il 21/12 un fenomeno mondiale e’ stato senza dubbio l’apporto di internet.

Come detto in altre occasioni, la rete ci consente di scambiare informazioni in tempo reale con qualsiasi parte del mondo. Ogni qual volta scriviamo qualcosa su un sito, un forum, un blog, dobbiamo tenere sempre a mente che potenzialmente quanto scritto potrebbe essere letto all’istante anche dall’altra parte del mondo.

Prima del 21/12, l’altra data che tanto aveva fatto discutere su scenari apocalittici era ovviamente l’inizio del nuovo millennio nel 2000. Oltre alle tente ipotesi catastrofiste classiche, per il 2000 ampio spazio era stato dato al cosiddetto “millenium bug”, cioe’ al problema della gestione della data dei nostri computer.

Come forse ricorderete, il problema principale era che molti sistemi utilizzano una data espressa con solo due cifre. Per questo motivo, allo scattare del nuovo millennio, i computer sarebbero passati dalla data 99 a 00 e proprio questo valore poteva essere interpretato, invece che come 1 gennaio 2000, come 1 gennaio 1900.

Sul millenium bug si e’ parlato tantissimo. Si sono ipotizzati scenari da film di fantascienza con i nostri sistemi informatici che sarebbero impazziti mandando in tilt gran parte della nostra societa’ che, come sappiamo, e’ fortemente legata a questo tipo di controlli.

Come forse sapete ancora meglio, il millenium bug e’ stato un po’ come un 21/12 in piccolo. Se ne e’ parlato tanto, ma niente di particolarmente problematico e’ poi realmente accaduto.

Bene, ora ci risiamo. Per il 2038 e’ atteso un nuovo importante bug per i nostri pc, sempre legato alla gestione della data.

Cerchiamo di andare con ordine.

Molti dei sistemi di controllo informatico, utilizzano sistemi operativi basati su Unix e Linux. In questi sistemi operativi, per la gestione della data, viene usato il cosiddetto sistema POSIX, cioe’ il tempo viene contato come il numero di secondi trascorsi dallo Unix Epoch Time, il 1 Gennaio 1970.

Cosa significa questo?

Semplice, avete un punto di inizio fissato al 1 gennaio del 1970. Tutte le date, a livello di architettura interna si intende, vengono calcolate come il numero di secondi trascorsi da questo punto di partenza.

Sembra un po’ macchinoso, ma fino a questo punto non sembrano esserci problemi.

Quello che pero’ accade e’ che la gestione di questo tempo trascorso, viene gestita da un controllo a 32 bit utilizzato per dare il valore al dato detto time.h, un semplice contatore del numero di secondi trascorsi.

Se ci pensate, non e’ niente di complicato. Contiamo le date a partire dal 1 gennaio 1970, attraverso il numero di secondi trascorsi da questo giorno iniziale. Bene, questo numero di secondi, che ovviamente e’ un numero intero, viene gestito da una variabile a 32 bit.

Ora, il fatto di avere 32 bit, implica necessariamente che ad un certo punto ci saranno problemi di overflow, cioe’ la vostra variabile non sara’ piu’ in grado di aggiornarsi. Per dirla tutta, dal momento che la variabile e’ dotata di un segno, al termine dei valori concessi time.h assumera’ valori negativi.

Quando avverra’ questo overflow della data? Esattamente martedi 19 gennaio 2038 alle 3.14 e 07 secondi UTC. Dopo questo istante, i valori negativi del contatore dei secondi riporteranno la data al 13 Dicembre 1901.

Cosa implica questo? Siamo di nuovo di fronte ad un problema del tutto simile a quello del 2000. Anche in questo caso, in un preciso momento, i nostri sistemi informatici potrebbero entrare in confusione non riuscendo piu’ a distinguere tra le diverse date. Il problema del time.h non e’ in realta’ solo dei sistemi operativi basati su UNIX. Anche molti altri sistemi operativi utilizzano una struttura di questo tipo, cosi’ come moltissimi software che richiedono l’informazione della data per poter funzionare. Detto questo, nel 2038, tutti questi sistemi potrebbero dunque smettere di funzionare di colpo.

E’ possibile scongiurarare l’eventuale pericolo?

In linea di principio assolutamente si. Prima di tutto, ad oggi, abbiamo circa 25 anni di tempo per risolvere questo problema. Anche se, al ritmo attuale, c’e’ un rinnovamento delle tecnologie informatiche ogni 18 mesi circa, questo problema, noto gia’ da tempo, non e’ ancora stato risolto.

Molti dei nuovi sistemi a 64 bit, utilizzano gia’ un time.h in questo formato. In questo caso, ci sarebbe comunque il problema del numero non infinito di secondi che possiamo contare ma, partendo sempre dal 1 gennaio 1970, il sistema potrebbe funzionare senza problemi per molto piu’ tempo, sicuramente un tempo maggiore di quello di esistenza anche del pc stesso e del sistema che questo controlla.

Sul mercato pero’ esistono ancora tantissimi sistemi a 32 bit, alcuni anche strategi per specifici controlli. Evitando gli scenari apocalittici che gia’ si sentono in rete parlando di questo bug, con 25 anni di tempo per pensarci, non mi preoccuperei assolutamente del time.h e del cosiddetto Y2038 bug.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.