Tag Archives: precisione

Tutti i movimenti della Terra

27 Giu

Proprio ieri, una nostra cara lettrice ci ha fatto una domanda molto interessante nella sezione:

Hai domande o dubbi?

Come potete leggere, si chiede se esiste una correlazione tra i moti della Terra e l’insorgere di ere di glaciazione sul nostro pianeta. Rispondendo a questa domanda, mi sono reso conto come, molto spesso, e non è certamente il caso della nostra lettrice, le persone conoscano solo i moti principali di rotazione e rivoluzione. A questo punto, credo sia interessante capire meglio tutti i movimenti che il nostro pianeta compie nel tempo anche per avere un quadro più completo del moto dei pianeti nel Sistema Solare. Questa risposta, ovviamente, ci permetterà di rispondere, anche in questa sede, alla domanda iniziale che è stata posta.

Dunque, andiamo con ordine, come è noto la Terra si muove intorno al Sole su un’orbita ellittica in cui il Sole occupa uno dei due fuochi. Questo non sono io a dirlo, bensì questa frase rappresenta quella che è nota come I legge di Keplero. Non starò qui ad annoiarvi con tutte le leggi, ma ci basta sapere che Keplero fu il primo a descrivere cinematicamente il moto dei pianeti intorno ad un corpo più massivo. Cosa significa “cinematicamente”? Semplice, si tratta di una descrizione completa del moto senza prendere in considerazione il perché il moto avviene. Come sapete, l’orbita è ellittica perché è la legge di Gravitazione Universale a spiegare la tipologia e l’intensità delle forze che avvengono. Bene, detto molto semplicemente, Keplero ci spiega l’orbita e come il moto si evolverà nel tempo, Newton attraverso la sua legge di gravitazione ci dice il perché il fenomeno avviene in questo modo (spiegazione dinamica).

Detto questo, se nel nostro Sistema Solare ci fossero soltanto il Sole e la Terra, quest’ultima si limiterebbe a percorrere la sua orbita ellittica intorno al Sole, moto di rivoluzione, mentre gira contemporaneamente intorno al suo asse, moto di rotazione. Come sappiamo bene, il primo moto è responsabile dell’alternanza delle stagioni, mentre la rotazione è responsabile del ciclo giorno-notte.

Purtroppo, ed è un eufemismo, la Terra non è l’unico pianeta a ruotare intorno al Sole ma ce ne sono altri, vicini, lontani e più o meno massivi, oltre ovviamente alla Luna, che per quanto piccola è molto vicina alla Terra, che “disturbano” questo moto molto ordinato.

Perche questo? Semplice, come anticipato, e come noto, due masse poste ad una certa distanza, esercitano mutamente una forza di attrazione, detta appunto gravitazionale, direttamente proporzionale al prodotto delle masse dei corpi e inversamente proporzionale al quadrato della loro distanza. In altri termini, più i corpi sono massivi, maggiore è la loro attrazione. Più i corpi sono distanti, minore sarà la forza che tende ad avvicinarli. Ora, questo è vero ovviamente per il sistema Terra-Sole ma è altresì vero per ogni coppia di corpi nel nostro Sistema Solare. Se Terra e Sole si attraggono, lo stesso fanno la Terra con la Luna, Marte con Giove, Giove con il Sole, e via dicendo. Come è facile capire, la componente principale delle forze è quella offerta dal Sole sul pianeta, ma tutte queste altre “spintarelle” danno dei contributi minori che influenzano “in qualche modo” il moto di qualsiasi corpo. Bene, questo “in qualche modo” è proprio l’argomento che stiamo affrontando ora, cioè i moti minori, ad esempio, della Terra nel tempo.

Dunque, abbiamo già parlato dei notissimi moti di rotazione e di rivoluzione. Uno dei moti che invece è divenuto famoso grazie, o forse purtroppo, al 2012 è quello di precessione degli equinozi, di cui abbiamo già parlato in questo articolo:

Nexus 2012: bomba a orologeria

Come sapete, l’asse della Terra, cioè la linea immaginaria che congiunge i poli geografici ed intorno al quale avviene il moto di rotazione, è inclinato rispetto al piano dell’orbita. Nel tempo, questo asse non rimane fisso, ma descrive un doppio cono come mostrato in questa figura:

Moto di precessione degli equinozi e di nutazione

Moto di precessione degli equinozi e di nutazione

Il moto dell’asse è appunto detto di “precessione degli equinozi”. Si tratta di un moto a più lungo periodo dal momento che per compiere un intero giro occorrono circa 25800 anni. A cosa è dovuto il moto di precessione? In realtà, si tratta del risultato di un duplice effetto: l’attrazione gravitazionale da parte della Luna e il fatto che il nostro pianeta non è perfettamente sferico. Perché si chiama moto di precessione degli equinozi? Se prendiamo la linea degli equinozi, cioè quella linea immaginaria che congiunge i punti dell’orbita in cui avvengono i due equinozi, a causa di questo moto questa linea si sposterà in senso orario appunto facendo “precedere” anno dopo anno gli equinozi. Sempre a causa di questo moto, cambia la costellazione visibile il giorno degli equinozi e questo effetto ha portato alla speculazione delle “ere new age” e al famoso “inizio dell’era dell’acquario” di cui, sempre in ambito 2012, abbiamo già sentito parlare.

Sempre prendendo come riferimento la figura precedente, notiamo che c’è un altro moto visibile. Percorrendo il cono infatti, l’asse della Terra oscilla su e giù come in un moto sinusoidale. Questo è noto come moto di “nutazione”. Perché avviene questo moto? Oltre all’interazione della Luna, molto vicina alla Terra, anche il Sole gioca un ruolo importante in questo moto che proprio grazie alla variazione di posizione relativa del sistema Terra-Luna-Sole determina un moto di precessione non regolare nel tempo. In questo caso, il periodo della nutazione, cioè il tempo impiegato per per compiere un periodo di sinusoide, è di circa 18,6 anni.

Andando avanti, come accennato in precedenza, la presenza degli altri pianeti nel Sistema Solare apporta dei disturbi alla Terra, così come per gli altri pianeti, durante la sua orbita. Un altro moto da prendere in considerazione è la cosiddetta “precessione anomalistica”. Di cosa si tratta? Abbiamo detto che la Terra compie un’orbita ellittica intorno al Sole che occupa uno dei fuochi. In astronomia, si chiama “apside” il punto di massima o minima distanza del corpo che ruota da quello intorno al quale sta ruotando, nel nostro caso il Sole. Se ora immaginiamo di metterci nello spazio e di osservare nel tempo il moto della Terra, vedremo che la linea che congiunge gli apsidi non rimane ferma nel tempo ma a sua volta ruota. La figura seguente ci può aiutare meglio a visualizzare questo effetto:

Moto di precessione anomalistica

Moto di precessione anomalistica

Nel caso specifico di pianeti che ruotano intorno al Sole, questo moto è anche chiamato di “precessione del perielio”. Poiché il perielio rappresenta il punto di massimo avvicinamento di un corpo dal Sole, il perché di questo nome è evidente. A cosa è dovuta la precessioni anomalistica? Come anticipato, questo moto è proprio causato dalle interazioni gravitazionali, sempre presenti anche se con minore intensità rispetto a quelle del Sole, dovute agli altri pianeti. Nel caso della Terra, ed in particolare del nostro Sistema Solare, la componente principale che da luogo alla precessione degli apsidi è l’attrazione gravitazionale provocata da Giove.

Detto questo, per affrontare il prossimo moto millenario, torniamo a parlare di asse terrestre. Come visto studiando la precessione e la nutazione, l’asse terrestre descrive un cono nel tempo (precessione) oscillando (nutazione). A questo livello però, rispetto al piano dell’orbita, l’inclinazione dell’asse rimane costante nel tempo. Secondo voi, con tutte queste interazioni e questi effetti, l’inclinazione dell’asse potrebbe rimanere costante? Assolutamente no. Sempre a causa dell’interazione gravitazionale, Sole e Luna principalmente nel nostro caso, l’asse della Terra presenta una sorta di oscillazione variando da un massimo di 24.5 gradi ad un minimo di 22.1 gradi. Anche questo movimento avviene molto lentamente e ha un periodo di circa 41000 anni. Cosa comporta questo moto? Se ci pensiamo, proprio a causa dell’inclinazione dell’asse, durante il suo moto, uno degli emisferi della Terra sarà più vicino al Sole in un punto e più lontano nel punto opposto dell’orbita. Questo contribuisce notevolmente alle stagioni. L’emisfero più vicino avrà più ore di luce e meno di buio oltre ad avere un’inclinazione diversa per i raggi solari che lo colpiscono. Come è evidente, insieme alla distanza relativa della Terra dal Sole, la variazione dell’asse contribuisce in modo determinante all’alternanza estate-inverno. La variazione dell’angolo di inclinazione dell’asse può dunque, con periodi lunghi, influire sull’intensità delle stagioni.

Finito qui? Non ancora. Come detto e ridetto, la Terra si muove su un orbita ellittica intorno al Sole. Uno dei parametri matematici che si usa per descrivere un’ellisse è l’eccentricità, cioè una stima, detto molto semplicemente, dello schiacciamento dell’ellisse rispetto alla circonferenza. Che significa? Senza richiamare formule, e per non appesantire il discorso, immaginate di avere una circonferenza. Se adesso “stirate” la circonferenza prendendo due punti simmetrici ottenete un’ellisse. Bene, l’eccentricità rappresenta proprio una stima di quanto avete tirato la circonferenza. Ovviamente, eccentricità zero significa avere una circonferenza. Più è alta l’eccentricità, maggiore sarà l’allungamento dell’ellisse.

Tornando alla Terra, poiché l’orbita è un’ellisse, possiamo descrivere la sua forma utilizzando l’eccentricità. Questo valore però non è costante nel tempo, ma oscilla tra un massimo e un minimo che, per essere precisi, valgono 0,0018 e 0,06. Semplificando molto il discorso, nel tempo l’orbita della Terra oscilla tra qualcosa più o meno simile ad una circonferenza. Anche in questo caso, si tratta di moti millenari a lungo periodo ed infatti il moto di variazione dell’eccentricità (massimo-minimo-massimo) avviene in circa 92000 anni. Cosa comporta questo? Beh, se teniamo conto che il Sole occupa uno dei fuochi e questi coincidono nella circonferenza con il centro, ci rendiamo subito conto che a causa di questa variazione, la distanza Terra-Sole, e dunque l’irraggiamento, varia nel tempo seguendo questo movimento.

A questo punto, abbiamo analizzato tutti i movimenti principali che la Terra compie nel tempo. Per affrontare questo discorso, siamo partiti dalla domanda iniziale che riguardava l’ipotetica connessione tra periodi di glaciazione sulla Terra e i moti a lungo periodo. Come sappiamo, nel corso delle ere geologiche si sono susseguiti diversi periodi di glaciazione sul nostro pianeta, che hanno portato allo scioglimento dei ghiacci perenni e all’innalzamento del livello dei mari. Studiando i reperti e la quantità di CO2 negli strati di ghiaccio, si può notare una certa regolarità dei periodi di glaciazione, indicati anche nella pagina specifica di wikipedia:

Wiki, cronologia delle glaciazioni

Come è facile pensare, molto probabilmente ci sarà una correlazione tra i diversi movimenti della Terra e l’arrivo di periodi di glaciazione più o meno intensi, effetto noto come “Cicli di Milanković”. Perché dico “probabilmente”? Come visto nell’articolo, i movimenti in questione sono diversi e con periodi più o meno lunghi. In questo contesto, è difficile identificare con precisione il singolo contributo ma quello che si osserva è una sovrapposizione degli effetti che producono eventi più o meno intensi.

Se confrontiamo i moti appena studiati con l’alternanza delle glaciazioni, otteniamo un grafico di questo tipo:

Relazione tra i periodi dei movimenti della Terra e le glaciazioni conosciute

Relazione tra i periodi dei movimenti della Terra e le glaciazioni conosciute

Come si vede, è possibile identificare una certa regolarità negli eventi ma, quando sovrapponiamo effetti con periodi molto lunghi e diversi, otteniamo sistematicamente qualcosa con periodo ancora più lungo. Effetto dovuto proprio alle diverse configurazioni temporali che si possono ottenere. Ora, cercare di trovare un modello matematico che prenda nell’insieme tutti i moti e li correli con le variazioni climatiche non è cosa banale e, anche se sembra strano da pensare, gli eventi che abbiamo non rappresentano un campione significativo sul quale ragionare statisticamente. Detto questo, e per rispondere alla domanda iniziale, c’è una relazione tra i movimenti della Terra e le variazioni climatiche ma un modello preciso che tenga conto di ogni causa e la pesi in modo adeguato in relazione alle altre, non è ancora stato definito. Questo ovviamente non esclude in futuro di poter avere una teoria formalizzata basata anche su future osservazioni e sull’incremento della precisione di quello che già conosciamo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La prova regina per eccellenza

21 Giu

In questi giorni sta facendo molto discutere il caso di Yara Gambirasio e l’arresto di quello che sembrerebbe il presunto assassino. Mi rendo conto che la tematica non è delle più semplici ed in questa sede, come è la natura stessa del blog, non voglio entrare in discussioni riguardanti il caso in se ne tantomeno discutere giustizialismo o meno. Come sappiamo tutti, quello che ad oggi è identificato come l’assassino di Yara è stato identificato dopo una lunga e costosa inchiesta che si è basata notevolmente sul test del DNA e sulla comparazione di circa 18000 campioni prelevati da cittadini della zona con delle tracce biologiche rinvenute su un indumento della vittima.

L’identificazione del presunto assassino ha portato però una lunga coda di discussioni sulla certezza o meno della colpevolezza. Senza entrare nel merito della discussione sulle dichiarazioni rilasciate anche da esponenti di governo, il fulcro della questione è rappresentato dalla validità o meno, o meglio dalla precisione o meno, del test del DNA eseguito.

Per cercare di capire meglio la questione, proviamo a capire come vengono eseguiti questi test e se veramente ci sono margini di errore significativi tali da mettere in discussione l’impianto accusatorio per il sospetto.

Come anticipato, durante l’inchiesta sono stati prelevati circa 18000 campioni di DNA da altrettante persone che frequentavano luoghi di interesse per l’indagine e che potevano essere entrate in contatto in qualche modo con la vittima. Tra queste persone è stato identificato un notevole grado di somiglianza tra il campione rinvenuto ed un frequentatore di una nota discoteca della zona. Da qui si è poi risaliti a tre fratelli il cui DNA era ancora più somigliante alla prova e al loro padre, morto nel 1999, ma il cui DNA è stato estratto dalla saliva dietro un bollo della patente e confermato poi dalle ossa riesumate per le indagini. Come è noto, da qui si è passati ad identificare la madre dell’assassino che avrebbe avuto una coppia di gemelli illegittimi dal padre in questione. L’identificazione madre-figlio è sempre stata fatta mediante il test del DNA e nello specifico mediante la comparazione di quello che si chiama DNA mitocondriale, trasferito interamente da madre a figlio. A questo punto, proprio nel maschio della coppia di gemelli è stato identificato il presunto assassino di Yara.

Tutta questa storia sembra più la sceneggiatura di un film o di una serie poliziesca piuttosto che una normale indagine. Ovviamente, il costo di tutte queste procedure è stato elevatissimo. Ed ora? Dopo circa 4 anni, milioni di euro spesi, perché continuiamo ad avere dubbi? Questo è il tema che vorremmo affrontare per capire meglio il perché di tutta questa discussione dopo che il test del DNA viene da diverse fonti considerata la prova regina per la risoluzione di indagini rompicapo.

Come avrete letto e ascoltato, la certezza della corrispondenza tra la traccia rinvenuta sugli indumenti e il DNA del presunto assassino è del 99,99999987%, dunque la probabilità di errore è di uno su miliardi. Allora? Uno su miliardi sembrerebbe una certezza assoluta. In realtà, non è così. Cerchiamo di capire meglio.

Per rima cosa, come viene fatto il test del DNA? Come sappiamo, la molecola del DNA, la famosa doppia elica, è composta da catene lunghissime di basi che contengono tutte le informazioni necessarie a codificare l’essere umano. Se prediamo il DNA di due persone qualsiasi, non parenti, fratelli o altro, ma persone qualsiasi, questi sono identici tra loro per circa il 99.9%. Bene, questa quasi totalità identica è quella che si chiama “genoma umano”. La restante parte del DNA è composta da sequenze non codificate e che non entrano nella sintesi proteica. Proprio questa parte è formata da sequenze di coppie che si ripetono casualmente e la cui struttura è talmente arbitraria da potersi considerare un’evoluzione moderna delle classiche impronte digitali. Detto in altri termini, questa parte minore di DNA è diversa da individuo ad individuo ma è rappresentata non da sequenze a caso, ma da coppie che si ripetono un numero fisso di volte. Bene, analizzando questa parte del DNA, cioè contando quanti e quali coppie e quante volte si ripetono, è possibile effettuare il test del DNA per confrontare tra loro due campioni. Questa tipologia di analisi è la stessa che viene utilizzata anche per il test di paternità utilizzato per riconoscere o meno un figlio.

Detto questo, se consideriamo il numero elevatissimo di combinazioni possibili di queste sequenze, una volta confrontati due campioni e visto che questi hanno le stesse sequenza ripetute, arriviamo agilmente a probabilità di appartenenza che sfiorano il 100%. In altri termini, trovato un campione di DNA, la probabilità che questo appartenga ad una persona a caso piuttosto che a colui che viene identificato è una su miliardi di casi. Tra l’altro, si tratta di un test abbastanza semplice e che è possibile portare a termine nell’arco di un paio d’ore.

Detto questo, con le probabilità che abbiamo detto prima, dove sarebbe la possibilità di errore?

In realtà, è vero che la probabilità di errore è così bassa, ma si tratta solo della probabilità che due persone possano avere le stesse sequenze ripetute nella parte di DNA analizzato. Purtroppo, come la scienza ci insegna, si deve sempre tenere conto degli errori apportati nella misura.

Cosa significa?

Come detto, in questa tipologia di misura si contano, nel vero senso del termine, le sequenze ripetute. E se ci sbagliamo a contare? Questo in realtà potrebbe essere un problema. E’ vero che la sequenza del DNA in esame, per conoscenza i microsatelliti, sono una caratteristica quasi unica, ma alcuni laboratori dichiarano percentuali di errori anche fino al 2%, dunque infinitamente maggiore di quelle considerate, nell’identificazione delle sequenze. Ora, se confrontiamo il 2% con il zero virgola tanti zeri qualcosa visto prima, le cose cambiano decisamente verso.

Oltre a questo, c’è poi il problema della contaminazione dei campioni. Molti citato in questi giorni è il cosiddetto caso del fantasma di Heilbronn, un caso del 1993 in cui in numerosi omicidi in Germania venne rinvenuto lo stesso DNA appartenente ad una donna. Nei mesi successivi, lo stesso campione venne identificato anche in altri casi simili ma in paesi diversi. Da qui, come è ovvio, si pensò ad un caso di serial killer europeo autore di tantissimi omicidi. Il tutto si risolse poi nel nulla quando dopo qualche anno si capì che il DNA in questione apparteneva ad una operaia della ditta che forniva i campioni per i test a diversi paesi e che per errore era entrata in contatto con materiale dopo la sterilizzazione.

Ovviamente, quello del fantasma di Heilbronn è un caso limite, ma ci fa capire come le probabilità di errore sono sempre presenti e non si limitano alla sola precisione del test che, sbagliando, viene spesso citata da sola.

Detto questo, anche in termini giuridici, il test del DNA, in casi come questo, viene considerato come un forte indizio ma non come una prova schiacciante. Come potete capire, per poter chiudere definitivamente il caso è necessario ricostruire il tutto e inchiodare con certezza il soggetto identificato dal test con tutta una serie di altri indizi che rendono la cosa inattaccabile. Questa è la ricostruzione dell’impianto accusatorio a cui si sono appellati gli avvocati difensori di quello che, ad oggi, possiamo considerare il sospettato numero uno.

Solo per chiarire il tutto, insieme al test del DNA in questi giorni viene spesso citato il database dei cellulari che si sono agganciati alla cella telefonica del campo in cui è stato rinvenuto il corpo. Proprio nell’articolo precedente:

Tempeste solari e problemi ai telefoni?

abbiamo parlato di rete mobile parlando della zona coperta dalla cella intesa come stazione mobile. Anche su quest’altra prova a sostegno, gli avvocati difensori si sono appellati al fatto che la stessa cella copre sia il campo già citato, ma anche abitazioni in cui il sospetto poteva essere in quel momento perché di sua proprietà o di parenti stretti.

Dunque? Sicuramente la persona identificata ha un pesante e sospetto di colpevolezza ma, come visto, prima di poter dichiarare il caso chiuso, sarà necessario ricostruire molti altri dettagli che metteranno in correlazione l’assassino con la la vittima e, soprattutto, chiuderanno il caso con una perfetta ricostruzione di quanto accaduto. Divulgare notizie troppo velocemente, potrebbe solo complicare l’indagine e rallentare il lavoro degli inquirenti.

Restiamo dunque in attesa di seguire l’evolversi delle indagini anche se, per una accusa di colpevolezza, serve sempre il processo!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Due parole sulla stampa in 3D

5 Giu

Diversi utenti mi hanno contattato per avere un approfondimento sulle stampanti 3D. Oggi come oggi, questo tipo di tecnologia e’ entrato pesantemente nella nostra vita e tutti noi, almeno una volta, abbiamo sentito parlare di questa tecnologia anche se, a volte, si ignora completamente il processo realizzativo alla base di questi nuovi strumenti.

Se provate a cercare in rete, trovate una definizione della stampa 3D molto semplice: si tratta dell’evoluzione naturale della classica stampa in 2D, utilizzata pero’ per realizzare oggetti reali in materiali diversi.

Personalmente, trovo questa definizione molto semplicistica e assolutamente riduttiva. Perche’? Semplice, non possiamo confrontare una stampa 2D con una 3D proprio perche’ relativa ad una concezione di realizzazione estremamente diversa. Detto molto semplicemente, sarebbe come voler paragonare la pittura con la scultura, parlando di quest’ultima come la naturale evoluzione della prima.

Cerchiamo di andare con ordine e capire meglio le basi di questo processo. Se nella stampa 2D possiamo riprodurre su un foglio di carta una qualsiasi immagine, in quella 3D il prodotto finale ara’ un oggetto solido, reale e tridimensionale. Un esempio? Disegnate al pc una tazza. Se stampate il vostro disegno con una normale stampante avrete la riproduzione di quell’immagine appiattita su una superficie. Utilizzando invece una stampante 3D il vostro risultato sara’ una vera e propria tazza che potete vedere, toccare e, perche’ no, anche utilizzare.

Solo fino a qualche anno fa, un processo del genere sarebbe stato considerato fantascientifico e, se ci avviciniamo ai giorni nostri, retaggio di costosi macchinari riservati alle aziende piu’ grandi. Oggi invece la tecnologia della stampa 3D e’ divenuta “quasi” di uso comune grazie alla notevole contrazione dei prezzi di queste stampanti, risultato di massicci investimenti fatti da numerose compagnie pubbliche e private.

Pensate stia scherzando? Facendo una ricerca su internet, cominciate a trovare stampanti in grado di riprodurre oggetti fino a decine di centimetri per lato, ad un prezzo inferiore ai 1000 euro. Pensate sia ancora tanto? Nel giro di pochissimi anni, i prezzi di questi dispositivi si sono ridotti in media di un fattore dieci. Come anticipato, questo e’ stato possibile grazie ai notevoli investimenti fatti nel settore ricerca sia pubblico che privato. Per darvi una stima, il prezzo delle azioni delle maggiori case costrttrici di questi dispositivi e’ cresciuto fino a cinque volte facendo riconoscere queste aziende tra le migliori nei listini di borsa.

Visto il sicuro interesse in questi dispositivi, cerchiamo ora di capire meglio come avviene il processo realizzativo di un oggetto a tre dimensioni.

600x407xreplicator.jpg.pagespeed.ic.e5HWV8nSTh

Come potete facilmente immaginare, le tecniche realizzative utilizzate sono diverse ma per comprendere il meccanismo in modo semplice, concentriamoci su quello maggiormente utilizzato e piu’ intuitivo. Come nelle stampanti tradizionali, ci sono delle cartucce contenenti il materiale con cui sara’ realizzato il nostro oggetto. Nella versione piu’ comune, questo materiale sara’ ABS o PLA, due polimeri che per semplicita’ possiamo immaginare come delle plastiche. Normalmente le cartucce contengono questi materiali in forma di polvere o di fili.

Bene, abbiamo il materiale nelle cartucce, poi? Vi ricordate le vecchie stampanti che imprimevano una riga alla volta sul foglio che via via veniva portato avanti? Il processo e’ molto simile a questo. Nella stampa 3D l’oggetto viene realizzato per strati paralleli che poi crescono verso l’alto per realizzare i particolari del corpo che vogliamo stampare. L’esempio classico che viene fatto in questi casi e’ quello dei mattoncini dei LEGO. Strato per strato costruite qualcosa “attaccando” tra loro i vari pezzi. Nella stampa 3D ogni strato viene depositato sull’altro con un processo a caldo o di incollaggio a volte mediante l’ausilio di un materiale di supporto.

Compreso il processo alla base, la prima domanda da porci e’ relativa alla risoluzione di queste stampanti. In altre parole, quanto sono precisi i pezzi che posso realizzare? A differenza della stampa 2D, in questo caso dobbiamo valutare anche la precisione di costruzione verticale. Per quanto riguarda il piano orizzontale, la risoluzione della stampa dipende dalla “particella” di materiale che viene depositata. In verticale invece, come facilmente immaginabile, la precisione del pezzo dipendera’ dallo spessore dello strato che andate a depositare. Piu’ lo strato e’ sottile, maggiore sara’ la risoluzione della vostra stampa. Normalmente, per darvi qualche numero, parliamo di risoluzioni verticali dell’ordine del decimo di millimetro.

A questo punto, abbiamo capito piu’ o meno come funzionano queste stampanti, abbiamo visto che i prezzi sono in forte calo ma la domanda principale resta sempre la stessa: cosa ci facciamo con queste stampanti? In realta’, la risposta a questa domanda potrebbe essere semplicemente “tantissimo”. Cerco di spiegarmi meglio. Le stampanti 3D sono gia’ utilizzate e sotto attento studio di ricerca per il loro utilizzo nei piu’ svariati settori.

Qualche esempio?

Prima di tutto per le aziende che si occupano della realizzazione dei protitipi o di produzione su grande scala di oggetti di forma piu’ o meno complessa. In questo caso vi riporto direttamente la mia esperienza in questo settore. Ai Laboratori Nazionali di Frascati disponiamo di una stampante 3D con una buona risoluzione per la stampa di oggetti in ABS. Cosa ci facciamo? Moltissime parti dei rivelatori di particelle possono essere stampati direttamente in 3D saltando tutta la difficile fase della realizzazione con macchine utensili. Inoltre, ricorrere alla stampa 3D, anche solo in fase prototipale, consente di poter valutare al meglio la correttezza dell’oggetto pensato e la sua funzionalita’ nei diversi settori.

Oltre a queste applicazioni, le stampanti 3D possono essere utilizzate in medicina forense per la ricostruzione di prove danneggiate, in oreficeria, nel settore medico per la ricostruzione ossea, in paleontologia per la preparazione di modelli in scala di parti rinvenute e cosi’ via per moltissimi settori in cui la stampa 3D puo’ velocizzare notevolmente il processo realizzativo ma soprattutto con costi molto contenuti rispetto alla lavorazione classica.

Oggi come oggi, la ricerca in questo settore e’ fortemente orientata allo studio dell’utilizzo di materiali piu’ disparati. Per darvi qualche idea si va dal tessuto osseo alle plastiche, dalla roccia all’argilla e cosi’ via. Come potete capire immediatamente, piu’ materiali si riescono ad utilizzare, maggiori sono i settori interessati in questi prodotti.

Anche se poco noto al grande pubblico, in rete ci sono gia’ moltissimi siti e forum che si occupano di scambio open source di modelli 3D da stampare o anche solo di stampa su commissione conto terzi. Se ripensiamo al paragone con le stampanti classiche, se in questo caso bastava una qualsiasi immagine, per utilizzare una stampante 3D e’ necessario realizzare un modello tridiemnsionale da dare in pasto alla stampante. Per poter far questo ci sono ovviamente potenti software CAD ma anche tanti programmi gratuiti piu’ semplici gia’ scaricabili dalla rete.

Alla luce di quanto discusso, sicuramente il discorso sulle stampanti 3D e’ destinato ancora a crescere. In un futuro non troppo lontano, potremmo avere a disposizione strumenti domestici per realizzare l’oggetto che desideriamo. Inutile nascondere che questo qualche sospetto potrebbe destarlo. Solo pochi mesi fa si e’ molto discusso del progetto di una pistola in plastica perfettamente funzionante ed in grado di uccidere realizzabile con una stampante 3D ed i cui progetti erano finiti in rete. A parte questo “particolare”, quello delle stampanti 3D e’ sicuramente un mercato destinato a crescere e su cui moltissime aziende stanno fortemente puntando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo che si dissolve “improvvisamente”

21 Mar

Nella sezione:

Hai domande o dubbi?

una nostra cara lettrice ci ha chiesto lumi su una notizia apparsa in questi giorni sui giornali che l’ha lasciata, giustamente dico io, un po’ perplessa. La notizia in questione riguarda l’annuncio fatto solo pochi giorni fa della nuova misura della massa del quark top.

Perche’ questa notizia avrebbe suscitato tanto clamore?

Senza dirvi nulla, vi riporto un estratto preso non da un giornale qualsiasi, che comunque a loro volta hanno copiato da qui, ma dalla principale agenzia di stampa italiana:

Il più pesante dei mattoni della materia, il quark top, ha una misura più precisa e la sua massa, con quella del bosone di Higgs, potrebbe essere la chiave per capire se viviamo in un universo instabile, al punto di dissolversi improvvisamente.

Universo che si dissolve “improvvisamente”?

Vi giuro che vorrei mettermi a piangere. Solo pochi giorni fa abbiamo parlato di tutte quelle cavolate sparate dopo l’annuncio della misura di Bicep-2:

Ascoltate finalmente le onde gravitazionali?

Due notizie cosi’ importanti dal punto di vista scientifico accompagnate da sensazionalismo catastrofista nella stessa settimana sono davvero un duro colpo al cuore.

Al solito, e come nostra abitudine, proviamo a spiegare meglio l’importanza della misura ma, soprattutto, cerchiamo di capire cosa dice la scienza contrapposto a quello che hanno capito i giornali.

In diversi articoli abbiamo parlato di modello standard discutendo la struttura della materia che ci circonda e, soprattutto, presentando quelle che per noi, ad oggi, sono le particelle fondamentali, cioe’ i mattoni piu’ piccoli che conosciamo:

Due parole sull’antimateria

Piccolo approfondimento sulla materia strana

Bosone di Higgs …. ma che sarebbe?

Se ci concentriamo sui quark, vediamo che ci sono 6 componenti che, come noto, sono: up, down, strange, charm, bottom e top. Come gia’ discusso, i primi due, up e down, sono quelli che formano a loro volta protoni e neutroni, cioe’ le particelle che poi formano i nuclei atomici, dunque la materia che ci circonda.

Bene, il quark top e’ il piu’ pesante di questi oltre ad essere l’ultimo ad essere stato scoperto. Il primo annuncio di decadimenti con formazione di quark top e’ stato fatto nel 1995 grazie alla combinazione dei risultati di due importanti esperimenti del Fermi National Accelerator Laboratory di Batavia, nei pressi di Chicago. A questi esperimenti, oggi in dismissione, ma la cui analisi dei dati raccolti e’ ancora in corso, partecipavano e partecipano tuttora moltissimi fisici italiani dell’Istituto Nazionale di Fisica Nucleare.

La cosa piu’ sorprendente del quark top e’ la sua enorme massa, circa 170 GeV, che lo rende la particella elementare piu’ pesante mai trovata. Per darvi un’idea, il top e’ circa 180 volte piu’ pesante di un protone con una massa paragonabile a quella di un atomo di oro nel suo complesso. Il perche’ di una massa cosi’ elevata e’ una delle chiavi per capire i meccanismi che avvengono a livello microscopico e che, come e’ normale pensare, determinano il comportamento stesso del nostro universo.

Bene, cosa e’ successo in questi giorni?

Come avete letto, nel corso della conferenza:

Rencontres de Moriond

che si svolge annualmente a La Thuille in Val d’Aosta, e’ stata presentata una nuova misura della massa del quark top. Prima cosa importante da dire e’ che la misura in questione viene da una stretta collaborazione tra i fisici di LHC e quelli che analizzano i dati del Tevatron, cioe’ il collissore dove nel 1995 fu scoperto proprio il top. Queste due macchine sono le uniche al mondo, grazie alla grande energia con cui vengono fatti scontrare i fasci, in grado di produrre particelle pesanti come il quark top.

Dalla misurazione congiunta di LHC e Tevatron e’ stato possibile migliorare notevolmente l’incertezza sulla massa del top, arrivando ad un valore molto piu’ preciso rispetto a quello conosciuto fino a qualche anno fa.

Cosa comporta avere un valore piu’ preciso?

Come potete immaginare, conoscere meglio il valore di questo parametro ci consente di capire meglio i meccanismi che avvengono a livello microscopico tra le particelle. Come discusso parlando del bosone di Higgs, il ruolo di questa particella, e soprattutto del campo scalare ad essa associato, e’ proprio quello di giustificare il conferimento della massa. Se il  top ha una massa cosi’ elevata rispetto agli altri quark, il suo meccanismo di interazione con il campo di Higgs deve essere molto piu’ intenso. Inoltre, il quark top viene prodotto da interazioni forti, ma decade con canali deboli soprattutto producendo bosoni W. Non sto assolutamente cercando di confondervi. Come visto negli articoli precedenti, il W e’ uno dei bosoni messaggeri che trasportano l’interazione debole e che e’ stato scoperto da Carlo Rubbia al CERN. Detto questo, capite come conoscere con precisione la massa del top, significhi capire meglio i meccanismi che avvengono tra top, W e campo di Higgs. In ultima analisi, la conoscenza di questi modelli e’ fondamentale per capire perche’, durante l’evoluzione dell’universo, si sono formate particelle cosi’ pesanti ma anche per capire se esistono meccanismi di decadimento non ancora considerati o anche effetti, come vengono definiti, di nuova fisica che possono mettere in discussione o integrare il modello standard delle particelle.

Concludendo, la spiegazione della frase “universo che si dissolve improvvisamente” non significa nulla. Una misura piu’ precisa della massa del top implica una migliore conoscenza dei modelli ora utilizzati e soprattutto apre le porte per capire meglio cosa e’ avvenuto durante durante i primi istanti di vita dell’universo. Al solito pero’, anche sulla scia del tanto citato annuncio di Bicep-2, si e’ ben pensato di sfruttare l’occasione e trasformare anche questa importante notizia in un teatrino catastrofista. Per chi interessato ad approfondire, vi riporto anche il link di ArXiv in cui leggere l’articolo della misura in questione:

ArXiv, quark top

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Un futuro … robotico

13 Mar

Nell’immaginario collettivo dettato dai film e racconti di fantascienza, il nostro futuro dovrebbe essere popolato da robot umanoidi dotati di intelligenza propria ed in grado di comunicare, interagire e, perche’ no, contrapporsi agli stessi esseri umani che li hanno creati. Da decenni questi scenari futuristici vengono richiamati e su tematiche del genere si sono inventate tantissime storie e racconti. Il nostro livello tecnologico, per quanto, punto di vista personale, debba sempre essere migliorato ed e’ sempre un passo indietro a quello che vorremmo fare, non e’ assolutamente scarso eppure questi tanto citati scenari non si sono ancora visti.

Nonostante questo, e anche se molti lo ignorano, la tecnologia robotica ha fatto enormi passi avanti negli ultimi anni e molte operazioni, sia di routine che di elevata complessita’, sono gia’ eseguite dagli uomini coadiuvati da sistemi elettromeccanici. Spesso, questa simbiosi tecnologica e’ necessaria e utile per migliorare la precisione di determinate operazioni, altre volte invece e’ una vera e propria necessita’ fondamentale per supplire all’impossibilita’ di un intervento diretto dell’uomo.

Proprio da questo ultimo scenario vorrei partire per commentare una notizia apparsa sui giornali qualche giorno fa. Provate ad immaginare uno scenario di questo tipo: siamo su un’astronave lontana migliaia di kilometri da Terra. Un membro del nostro equipaggio ha un problema di salute importante che impone un intervento chirurgico di urgenza. Per quanto gli altri membri dell’equipaggio possono essere addestrati a situazioni di questo tipo, non e’ assolutamente possibile immaginare che tutti siano in grado di fare tutto in modo eccellente. Cosa fare per salvare la vita dell’uomo? In casi come questo, potrebbe intervenire un robot in grado di compiere operazioni chirurgiche anche delicate perche’ programmato ed istruito per farle oppure perche’ telecontrollato da un esperto sulla Terra o su un’altra navicella nello spazio.

Pensate sia fantascienza?

Proviamo a sostituire qualche soggetto della nostra storia. La navicella lontana dalla Terra e’ la Stazione Spaziale Internazionale, i membri dell’equipaggio sono gli astronauti provenienti da diversi paesi e che devono restare in orbita anche per periodi relativamente lunghi. Come vengono gestiti casi come quello raccontato sulla ISS? Per il momento, non c’e’ stato mai bisogno di operare d’urgenza un membro della stazione spaziale ma, come potete capire, e’ necessario predisporre piani di emergenza anche per far fronte a problemi come questo. Dal punto di vista medico, gli astronauti della stazione hanno in dotazione strumentazione di monitoraggio e controllo che possono usare autonomamente o aiutandosi in coppie.

Sicuramente un robot appositamente creato per questi scopi potrebbe coadiuvare gli astronauti sia nelle operazioni di routine che in casi di emergenza.

Questo e’ il pensiero che i tecnici NASA hanno avuto quando, qualche anno fa, hanno mandato sulla Stazione Spaziale il Robonaut 2, un robot umanoide che ancora oggi e’ in orbita intorno alla Terra. Inizialmente, il robot e’ stato inviato per aiutare gli astronauti nelle operazioni piu’ difficili ma anche per sostituirli in quelle piu’ banali e ripetitive che sottraggono inutilmente tempo al lavoro del team.

Il Robonaut 2 all'interno della Stazione Spaziale Internazionale

Il Robonaut 2 all’interno della Stazione Spaziale Internazionale

La storia del progetto inizia gia’ dal 1997 quando venne sviluppato un primo prototipo di Robonaut. Questo sistema era pensato per aiutare gli astronauti o sostituirli durante le attivita’ extraveicolari piu’ pericolose. Inoltre, poteva essere montato su un piccolo carro a 6 ruote trasformandolo in un piccolo rover intelligente per l’esplorazione in superficie della Luna o di altri corpi celesti.

Il progetto, come potete immaginare, risulto’ valido e dal 2006 e’ iniziata una stretta collaborazione tra la NASA e la General Motors per la costruzione di un sistema piu’ affidabile e da testare in orbita, appunto il Robonaut 2. Una volta arrivato sulla stazione, il robot venne lasciato imballato per diversi mesi a causa dell’elevato carico di lavoro degli astronauti, fino a quando venne messo in funzione quando nella stazione era presente anche il nostro Paolo Nespoli.

Ecco un video delle prime fasi di collaudo del Robonaut-2:

Come detto, il Robonaut 2 e’ un robot umanoide dotato di due braccia a 5 dita per un peso complessivo di 150Kg, escluse le gambe non previste in questa versione. Il costo di produzione e’ stato di circa 2.5 milioni di dollari per produrre un vero e proprio gioiello di elettronica. Il robot e’ dotato di 350 sensori, una telecamera 3D ad alta definizione, il tutto comandato da 38 processori Power PC. Il complesso sistema di snodi consente di avere 42 gradi di movimento indipendenti.

Addestramento del Robonaut 2 con un manichino

Addestramento del Robonaut 2 con un manichino

La notizia di questi giorni e’ relativa allo speciale addestramento che il Robonaut 2 sta seguendo per diventare un vero e proprio medico di bordo pronto a far fronte, autonomamente o su controllo da Terra, ad ogni intervento medico richiesto, da quelli di routine a, eventualmente, vere e proprie operazioni. Questo addestramento e’ seguito passo passo sia da medici che da tecnici NASA esperti di telecontrollo, dal momento che tutto verra’ poi seguito da Terra verso la Stazione Spaziale. Stando a quanto riportato anche dalla NASA, il Robonaut sarebbe gia’ in grado di eseguire piccoli interventi di routine e di fare prelievi e punture ad esseri umani. Ovviamente, per il momento la sperimentazione e’ fatta su manichini anche se il robot ha mostrato una straordinaria capacita’ di apprendimento e, ovviamente, una precisione e ripetivita’, difficilmente raggiungibili da una mano umana.

Come vedete, forse gli scenari fantascientifici da cui siamo partiti non sono poi cosi’ lontani. In questo caso, l’utilizzo di tecnologia robotica e’ necessario proprio per supplire all’impossibilita’ di intervento diretto da parte dell’uomo e sicuramente potrebbe essere in grado in un futuro molto prossimo di far fronte a situazioni altrimenti non gestibili.

Prima di chiudere vorrei pero’ aprire un ulteriore parentesi robotica. Se pensate che l’utilizzo di un sistema elettromeccanico in medicina sia una novita’ assoluta o se credete che sistemi di questo tipo siano appannaggio soltanto della Stazione Spaziale o di centri di ricerca futuristici, state sbagliando di grosso.

Vi mostro una foto di un altro robot, assolutamente non umanoide, ma con funzioni molto interessanti:

Il sistema robotico Da Vinci

Il sistema robotico Da Vinci

Questo e’ il Robot Da Vinci, proprio in onore del nostro Leonardo, utilizzato in moltissime sale operatorie di tutto il mondo.

Da Vinci e’ prodotto dalla ditta americana Intuitive Surgical e gia’ nel 2000 e’ stato approvato per l’uso in sala operatoria dalla Food and Drugs Administration. Questo sistema e’ dotato di diversi bracci elettromeccanici che consentono una liberta’ di movimento molto maggiore, e assai piu’ precisa, di quella di un polso umano. Il sistema e’ teleguidato da un medico lontano dalla sala operatoria al cui interno ci sono solo infermieri che di volta in volta posizionano lo strumento giusto nelle pinze del robot. Stando a quanto dichiarato, questo robot consente ovviamente di avere una affidabilita’ di ripetizione e precisione molto maggiore di quelle di un normale medico riuscendo ad operare limitando fino ad 1/3 il normale sangiunamento degli interventi piu’ complicati.

Dal sito della Intuitive Surgical si legge che ad oggi sono stati venduti piu’ di 700 di questi robot e pensate che in Italia quasi 70 sale operatorie sono attrezzate con questo sistema. Il numero di operazioni effettuate con questo robot e’ dell’ordine delle decine di migliaia.

E’ tutto oro quello che luccica?

Per completezza, e come siamo abituati a procedere, vi mostro anche il rovescio della medaglia. Rimanendo nel caso Da Vinci, anche in Italia, si sono formati tra i medici due schieramenti: quelli favorevoli al suo uso e quelli fortemente contrari. Perche’ questo? Se parliamo dei vantaggi del sistema, sicuramente una mano robotica consente di effetturare operazioni di routine con una precisione assoluta, d’altro canto pero’, ci sono molti medici che mettono in discussione il rapporto investimento/beneficio di un sistema del genere. Come potete facilmente immaginare, l’investimento richiesto per l’acquisto del robot e’ molto elevato con grossi guadagni dell’azienda e, soprattutto, delle banche che offrono finanziamenti agli ospedali. Inizialmente, il Da Vinci e’ stato sviluppato per le operazioni piu’ complesse o in cui il medico non riuscirebbe a lavorare facilmente. Si tratta ovviamente di operazioni in laparoscopia che tradizionalmente potrebbero essere eseguite con un investimento molto inferiore. Inoltre, visto lo sforzo economico per l’acquisto, molti degli ospedali che dispongono del robot tendono ad utilizzarlo anche per gli interventi piu’ facili al fine di sfruttare a pieno l’investimento fatto. Altro aspetto non da poco, il Da Vinci e’, ovviamente, coperto da decine di brevetti che creano un monopolio per la ditta costruttrice. Questo non fa altro che bloccare eventuali piccole startup che potrebbero migliorare notevolmente un sistema che, come detto, risale al 2000. Come discusso all’inizio dell’articolo, anno per anno la tecnologia cresce notevolmente ed un apparato del genere, per quanto complesso, potrebbe sempre essere migliorato con l’aggiunta di nuovi sistemi. Come vedete, al solito, le discussioni sono piu’ di natura economica che di utilizzo. Nonostante questo, il Da Vinci e’ un ottimo esempio di chirurgia robotica gia’ disponibile alla societa’.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Materia oscura intorno alla Terra?

7 Gen

Come sapete, e’ sempre interessante leggere le notizie nelle sezioni di scienze di alcuni giornali, si trovano sempre delle chicche di tutto rispetto. Negli ultimi giorni, sono apparsi tantissimi articoli che parlano di una nuova sensazionale scoperta. Un ricercatore dell’universita’ del Texas, tale Ben Harris, avrebbe condotto una serie di misure utilizzando i satelliti delle costellazioni gps di Galileo e Glonass.

Se volete maggiori info sul gps, su come funziona e della scienza che c’e’ sotto, abbiamo pubblicato un articolo anche su questo:

Il sistema di posizionamento Galileo

Tornando alla notizia principale, cosa si sarebbe scoperto da queste misure: utilizzando i dati inviati dai satelliti negli ultimi 6 mesi, si sarebbe evidenziata un’anomalia del valore della massa della Terra rispetto a quella comunemente conosciuta. L’entita’ di questa differenza e’ tra lo 0,005 e lo 0,008% del valore noto.

Come si spiega questa differenza?

Dal momento che il moto dei satelliti e’ determinato dall’attrazione gravitazionale che il nostro pianeta esercita, in realta’ che anche i satelliti esercitano sulla Terra, questa differenza deve essere dovuta ad un’anomalia gravitazionale. Una delle spiegazioni date da Harris e’ che sia presente un disco di materia oscura intorno al nostro pianeta, tale da influenzare l’attrazione gravitazionale.

Di materia oscura abbiamo parlato in questo articolo:

La materia oscura

Poiche’, secondo le ipotesi, questa forma non convenzionale di energia esercitrebbe attrazione gravitazionale, la sua presenza influenzerebbe il moto dei satelliti falsando appunto la massa della Terra rispetto al valore conosciuto. Per essere precisi, dalle misure condotte, questo anello, posizionato intorno all’equatore terrestre, avrebbe uno spessore di 191 Km e una larghezza di ben 70000 Km.

Piccola parentesi, oltre ai tanti giornali, anche i siti catastrofisti hanno riportato la notizia, ovviamente a modo loro e aggiungendo dettagli inutili quanto inventati. Non manca certo chi sostiene che l’anello sia stato messo li da scienziati compiacenti o da extraterrestri che stanno iniziando la fase di conquista del nostro pianeta. Non credo sia il caso di ragionare su queste osservazioni che lasciano davvero il tempo che trovano.

Detto questo, ragioniamo un attimo sulla notizia, cercando di fare qualche considerazione aggiuntiva.

Come avrete notato, ho riportato, al contrario di molti giornali, tutta la notizia al condizionale. Non e’ assolutamente una licenza di stile, ma l’ho fatto perche’ quanto riportato non e’ assolutamente certo.

Vi spiego il perche’.

Come trovate in rete, le misure in questione sono state presentate da Harris nel corso del meeting annuale dell’unione geofisica americana, anche detta AGU. Ovviamente si tratta di misure reali e scientifiche, che pero’ vanno considerate come “preliminari”.

Permettetemi una considerazione statistica. Come detto, la differenza rispetto alla massa conosciuta e’ tra lo 0,005 e lo 0,008%. Ora, tra 0,005 e 0,008, la differenza non e’ assolutamente poca. In realta’, l’ampiezza di questo intervallo ci fa capire la precisione delle misure fatte. Per essere precisi, i due valori sono ottenuti utilizzando una volta la costellazione Glonass e un’altra quella Galileo. Il fatto che due misure indipendenti diano valori cosi’ diversi, non e’ assolutamente un dettaglio trascurabile.

Detto questo, durante la stessa riunione, dopo la presentazione dei risultati da parte di Harris, e’ stato evidenziato come le misure siano in realta’ falsate perche’ mancanti di correzioni molto importanti. Quali? Nella modellizzazione del moto dei satelliti, non sono state incluse le attrazioni da parte del Sole e della Luna. Inoltre, mancano da includere le correzioni dovute alla relativita’, assolutamente necessarie, come potete leggere nell’articolo sul sistema Galileo, per ottenere risultati veritieri.

La mancanza di queste correzioni, che potrebbero modificare sostanzialmente il risultato preliminare, fa si che i dati ottenuti siano del tutto preliminari. In questo stato, e’ assolutamente fuorviante e frettoloso fare conclusioni come quelle riportate in precedenza del disco di materia oscura.

Perche’ si e’ fatto questo?

Esistono varie risposte possibili. La prima, un po’ cattiva, e’ che si e’ voluto presentare un lavoro incompleto solo per attirare un po’ di attenzione. L’altra possibilita’ e’ che si sia voluta mostrare questa differenza rispetto al valore della massa conosciuta solo per ricevere commenti utili con cui correggere il tiro. Entrambe le risposte sono possibili. Molto spesso alle conferenze si presentano risultati preliminari solo per valutare la risposta della comunita’ scientifica di riferimento. Ultimamente pero’, si puo’ avere una fuga di notizie che porta ad articoli, come quelli sui nostri giornali, che puntano ala scoperta del secolo.

Concludendo, i dati ottenuti mostrano ovviamente una differenza della massa della Terra rispetto a quella nota. Questa discrepanza potrebbe essere dovuta ad un errore di calcolo, a correzioni molto importanti non ancora conteggiate o, anche, alla presenza di materia oscura intorno alla Terra. Personalmente, credo sia presto per parlare di quest’ultima ipotesi. Questa storia, e lo dico a malincuore, mi ricorda molto quella della velocita’ dei neutrini misurata ad Opera, poi smentita con la testa tra le gambe.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

(Quasi) pronta al lancio la missione GAIA

24 Ott

Diverse volte nei nostri articoli abbiamo parlato di astronomia, ma soprattutto della ricerca di esopianeti al di fuori del nostro sistema solare:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Esopianeti che non dovrebbero esserci

Ancora sugli esopianeti

Aggiornamento su Kepler

Come visto in particolare nell’ultimo articolo, la sonda Kepler, che tanto ha contribuito all’esplorazione della nostra Galassia, ha avuto gravi problemi di funzionamento al punto di inficiare il suo funzionamento.

Premesso questo, negli ultimi giorni, molti siti e giornali hanno invece parlato di una nuova missione quasi pronta al lancio da parte dell’ESA, con un’ampia partecipazione dei nostri ASI e INAF. La missione in questione e’ chiamata GAIA dove, come al solito, il nome non e’ altro che un acronimo che sta per Global Astrometric Interferometer for Astrophysics.

Prima di darvi qualche dettaglio tecnico sull’esperimento e dirvi a cosa servira’, partiamo invece dicendo a cosa “non” serve Gaia. Come di solito avviene, molti giornali e siti internet hanno preso la palla al balzo per inventare storielle fantastiche e rafforzare le paure degli ultimi tempi.

La missione GAIA

La missione GAIA

Leggendo in rete, trovate scritto che GAIA e’ una missione preparata in fretta e furia dall’ESA perche’, tastuali parole, gli astronomi si sono resi conto che qualcosa non torna nel nostro sistema solare e, finalmente, hanno preso in seria considerazione la possibilita’ che la nostra Terra possa essere colpita nel giro di poco tempo da qualche asteroide o cometa in grado di provocare estinzioni di massa o, peggio ancora, far scomparire del tutto il nostro pianeta. Inoltre, molti siti parlano di uno studio particolare atteso da Gaia per individuare nane brune nel nostro sistema solare e per tracciare corpi vagabondi che provengono da orbite particolari tali per cui questi oggetti sarebbero invisibili fino al momento dell’impatto con la Terra.

Cosa vi ricorda questa storia?

Ovvio, il tanto amato, citato e fantasticato Nibiru! Ovviamente, il tutto mescolato insieme nel solito brodo catastrofista. Nane brune nel sistema solare che creano pioggie di meteoriti, asteroidi killer che provengono da dietro il Sole e sono invisibili fino al momento dell’urto sulla Terra. Insomma, anche sulla missione Gaia, e notate il modo subdolo, senza citare espressamente la cosa, si cerca di rafforzare l’idea che Nibiru sia una minaccia reale ma coperta dai soliti scienziati che sanno ma non dicono.

Lasciamo perdere queste fantasie e vediamo invece come e’ fatta Gaia.

Prima premessa, per poter arrivare al momento del lancio di una qualsiasi missione, sono necessari anni di studi e preparazione. Pensare l’esperimento, fare calcoli di fattibilita’, studiare prototipi, ecc. Tutte operazioni che richiedono anni. Nel caso di Gaia, la missione e’ stata elaborata inizialmente prima ancora del 2000.

A cosa serve?

La missione punta ad ottenere una mappa 3D molto precisa delle stelle e degli oggetti vicini al sistema solare nella nostra Galassia, oltre ad una mappa meno precisa dei corpi piu’ lontani. La durata della missione dovrebbe essere all’incirca di 5 anni, periodo in cui Gaia potra’ osservare circa un miliardo di stelle.

Per ottenere queste risoluzioni, Gaia e’ dotata di due telescopi con punti di vista differenti ma focale in comune. Gli strumenti sono realizzati con una matrice di piu’ di 100 CCD che garantiranno una risoluzione intorno al miliardo di pixel. Detto in modo familiare, parliamo di 1000 Mega pixel se paragonata con le comuni macchine fotografiche.

Altro aspetto importante della missione e’ la posizione in cui il satellite orbitera’. Come potete leggere dalla vasta bibliografia, Gaia occupera’ il cosiddetto punto Lagrangiano 2, o anche L2 nel nostro sistema solare. Cosa significa? Detto in termini molto semplici, se prendiamo il sistema a tre corpi composto da Sole, Terra e Luna, come e’ noto questi interagiscono tra loro attraverso la mutua attrazione gravitazionale. Bene, visto nello spazio, a causa delle rotazioni, nel tempo e nollo spazio, l’intensita’ risultante delle tre forze non sara’ costante. Esistono pero’ dei punti particolari di equilibrio in cui le forze che agiscono sul corpo di massa minore, ad esempio, come in questo caso, il satellite che occupa il punto, si bilanciano esattamente.

Per farvi capire meglio, vi mostro un’immagine proprio del sistema Sole-Terra in cui sono riportati questi punti di equilibrio:

Punti lagrangiani in un sistema a 3 corpi

Punti lagrangiani in un sistema a 3 corpi

Come anticipato, Gaia si trovera’ proprio nel secondo punto lagrangiano. Oltre al discorso gravitazionale, questo particolare punto offre una condizione molto privilegiata: durante il suo moto Terra e Luna saranno fuori dal campo visivo del telescopio, la radiazione incidente non sara’ troppo elevata e si hanno condizioni di temperatura abbastanza costanti.

Durante la sua vita operativa, Gaia osservera’ circa 70 volte ciascuna porzione di cielo ad intervalli differenti. Questo e’ fondamentale per poter capire l’evoluzione nel tempo delle stelle osservate.

Quali sono gli obiettivi di Gaia?

Grazie ai suoi strumenti, Gaia potra’ registrare dati con una precisione quasi 200 volte maggiore dei suoi predecessori. Attraverso l’osservazione delle stelle, come anticipato, si potra’ studiare la dinamica dell’evoluzione oltre ad individuare nuovi esopianeti fuori dal sistema solare. Inoltre, la capacita’ di registrare dati a diverse lunghezze d’onda permettera’ di studiare la chimica dei corpi e ottenere informazioni nuove sull’origine della nostra galassia.

Dunque, siamo pronti a questa nuova avventura?

Purtroppo no. La data iniziale di lancio di Gaia era il 2011, come potete leggere in questo link dell’ASI:

ASI, Gaia

Da questa, sicuramente un po’ aggressiva, si era passati al 2013 e il lancio era atteso per la fine di quest’anno. Purtroppo, ci sara’ un nuovo slittamento e si spera di poter lanciare Gaia, la cui partenza sara’ fatta dallo spazioporto di Kourou nella Guiana francese, all’inizio dell’anno prossimo. Il ritardo e’ dovuto ad una serie di problemi tecnici evidenziati dall’ESA che dunque ha deciso, per motivi di sicurezza e di riuscita della missione, di rimandare di qualche mese il lancio.

Concludendo, la missione GAIA e’ quasi pronta al lancio. Come visto nell’articolo, non e’ assolutamente vero che questa missione e’ stata preparata in fretta e furia per studiare e valutare il rischio sempre crescente di scontro tra la Terra ed un asteroide proveniente dallo spazio. Al contrario, questa missione, come tutte le altre, ha richiesto anni di preparazione e di studio e i suoi obiettivi scientifici saranno molto importanti ed interessanti. Come visto, infatti, la missione si occupera’ di analizzare e registrare circa un miliardo di stelle nella nostra galassia ottenendo dati quasi 200 volte piu’ precisi di quelli delle missioni precedenti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Orologi atomici e precisione del tempo

25 Ago

Qualche giorno fa, le pagine scientifiche di molti giornali hanno ospitato una notizia che e’ passata un po’ in sordina ma che, a mio avviso, merita di essere commentata se non altro per le interessanti discussioni a corollario. La notizia in questione, che molto sicuramente avrete letto, parlava di una nuova serie di orologi atomici costruiti dai ricercatori del NIST, National Institute of Standards and Technology, e che sono in grado di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo.

Leggendo questa notizia, credo che le domande classiche che possono venire in mente siano: come funziona un orologio atomico? Come si definisce il secondo? Ma soprattutto, a cosa serve avere un orologio tanto preciso?

In realta’, rispondere a queste domande, non e’ cosa facile ma cercheremo di farlo sempre in modo divulgativo spiegando passo passo tutti i concetti richiamati.

Prima di tutto, cos’e’ il tempo? Come potete immaginare, in questo caso la risposta non e’ semplice, ma richiama tantissime discipline, non solo scientifiche, che da secoli si sono interrogate sulla migliore definizione di tempo. Tutti noi sappiamo che il tempo passa. Come ce ne accorgiamo? Proprio osservando il trascorrere del tempo, cioe’ degli avvenimenti che osserviamo intorno a noi. In tal senso, scientificamente, possiamo definire il tempo come quella dimensione nella quale si misura il trascorrere degli eventi. Questa definizione ci permette dunque di parlare di passato, presente e futuro, dividendo gli eventi in senso temporale. Ovviamente, non e’ l’unica definizione che potete dare di tempo e forse neanche la piu’ affascinante ma, sicuramente, e’ la piu’ pratica per l’utilizzo che se ne vuole fare nelle scienze.

salvador_dali

Detto questo, se parliamo di tempo come una dimensione, dobbiamo saper quantificare in qualche modo il suo scorrere. Detto in altri termini, abbiamo bisogno di un’unita’ di misura. Nel “Sistema Internazionale di unita’ di misura”, che e’ quello accettato in molti paesi e considerato la standard a cui riferirsi, l’unita’ di misura del tempo e’ il secondo.

Come viene definito un secondo?

Storicamente, la definizione di secondo e’ cambiata molte volte. Nella prima versione, il secondo era definito come 1/86400 del giorno solare medio. Questa definizione non e’ pero’ corretta a causa del lento e continuo, per noi impercettibile, allungamento delle giornate dovuto all’attrazione Terra-Luna e alle forze mareali, di cui abbiamo parlato in questo post:

Le forze di marea

Utilizzando pero’ questa definizione, non avremmo avuto a disposizione qualcosa di immutabile nel tempo. Per ovviare a questo problema, si decise dunque di riferire il secondo non piu’ in base alla rotazione della terra su se stessa, ma a quella intorno al Sole. Anche questo movimento pero’ e’ non uniforme, per cui fu necessario riferire il tutto ad un preciso anno. Per questo motivo, il secondo venne definito nel 1954 come: la frazione di 1/31 556 925,9747 dell’anno tropico per lo 0 gennaio 1900 alle ore 12 tempo effemeride. La durata della rotazione intorno al Sole era conosciuta da osservazioni molto precise. Qualche anno dopo, precisamente nel 1960, ci si rese conto che questa definizione presentava dei problemi. Se pensiamo il secondo come una frazione del giorno solare medio, chi ci assicura che il 1900 possa essere l’anno in cui il giorno aveva la durata media? Detto in altri termini, le definizioni date nei due casi possono differire tra loro di una quantita’ non facilmente quantificabile. Dovendo definire uno standard per la misura del tempo, conosciuto e replicabile da chiunque, abbiamo bisogno di un qualcosa che sia immutabile nel tempo e conosciuto con grande precisione.

Proprio queste considerazioni, portarono poi a prendere in esame le prorieta’ degli atomi. In particolare,  si penso’ di definire il secondo partendo dai tempi necessari alle transizioni atomiche che ovviamente, a parita’ di evento, sono sempre identiche tra loro. Proprio per questo motivo, il secondo venne definito come: la durata di 9 192 631 770 periodi della radiazione corrispondente alla transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello stato fondamentale dell’atomo di cesio-133. In questo modo si e’ ottenuta una definizione con tutte le proprieta’ che abbiamo visto.

A questo punto, la domanda e’: come misurare il tempo? Ovviamente, di sistemi di misurazione del tempo ne conosciamo moltissimi, sviluppati e modificati nel corso dei secoli e ognuno caratterizzato da una precisione piu’ o meno elevata. Cosa significa? Affinche’ un orologio sia preciso, e’ necessario che “non perda un colpo”, cioe’ che la durata del secondo misurata sia quanto piu’ vicina, al limite identica, a quella della definizione data. In caso contrario, ci ritroveremo un orologio che dopo un certo intervallo, giorni, mesi, anni, migliaia di anni, si trova avanti o indietro di un secondo rispetto allo standard. Ovviamente, piu’ e’ lungo il periodo in cui questo avviene, maggiore e’ la precisione dell’orologio.

Come tutti sanno, gli orologi piu’ precisi sono quelli atomici. Cosi’ come nella definizione di secondo, per la misura del tempo si utilizzano fenomeni microscopici ottenuti mediante “fontane di atomi”, eccitazioni laser, o semplici transizione tra livelli energetici. Al contrario, negli orologi al quarzo si utilizza la vibrazione, indotta elettricamente, degli atomi di quarzo per misurare il tempo. La bibliografia su questo argomento e’ molto vasta. Potete trovare orologi atomici costruiti nel corso degli anni sfruttando proprieta’ diverse e con precisioni sempre piu’ spinte. Negli ultimi anni. si e’ passati alla realizzazione di orologi atomici integrando anche fasci laser e raffreddando gli atomi a temperature sempre piu’ vicine allo zero assoluto.

Nel caso della notizia da cui siamo partiti, l’orologio atomico costruito sfrutta la transizione di atomi di itterbio raffreddati fino a 10 milionesimi di grado sopra lo zero assoluto indotta mediante fasci laser ad altissima concentrazione. Questo ha permesso di migliorare di ben 10 volte la precisione dell’orologio rispetto a quelli precedentemente costruiti.

A questo punto, non resta che rispondere all’ultima domanda che ci eravamo posti all’inizio: a cosa serve avere orologi cosi’ precisi? Molto spesso, leggndo in rete, sembrerebbe quasi che la costruzione dell’orologio piu’ preciso sia una sorta di gara tra laboratori di ricerca che si contendono, a suon di apparecchi che costano milioni, la palma della miglior precisione. In realta’ questo non e’ vero. Avere una misura sempre piu’ precisa di tempo, consente di ottenere risultati sempre piu’ affidabili in ambito diverso.

Per prima cosa, una misura precisa di tempo consente di poter sperimentare importanti caratteristiche della relativita’. Pensate, ad esempio, alla misura della distanza tra Terra e Luna. In questo caso, come visto in questo articolo:

Ecco perche’ Curiosity non trova gli alieni!

si spara un laser da Terra e si misura il tempo che questo impiega a tornare indietro. Maggiore e’ la precisione sulla misura del tempo impiegato, piu’ accurata sara’ la nostra distanza ottenuta. Molto spesso infatti, si suole misurare le distanze utilizzando tempi. Pensiamo, ad esempio, all’anno luce. Come viene definito? Come la distanza percorsa dalla luce in un anno. Tempi e distanze sono sempre correlati tra loro, condizione per cui una piu’ accurata misura di tempi  consente di ridurre l’incertezza in misure di distanza.

Anche quando abbiamo parlato del sistema GPS:

Il sistema di posizionamento Galileo

Abbiamo visto come il posizionamento viene fatto misurando le differenze temporali tra i satelliti della galassia GPS. Anche in questo caso, la sincronizzazione e’ fondamentale per avere precisioni maggiori nel posizionamento. Non pensate solo al navigatore che ormai quasi tutti abbiamo in macchina. Questi sistemi hanno notevole importanza in ambito civile, marittimo, militare. Tutti settori di fondamentale importanza per la nostra societa’.

Concludendo, abbiamo visto come viene definito oggi il secondo e quante modifiche sono state fatte nel corso degli anni cercando di avere una definizione che fosse immutabile nel tempo e riproducibile per tutti. Oggi, abbiamo a disposizione molti sistemi per la misura del tempo ma i piu’ precisi sono senza dubbio gli orologi atomici. Come visto, ottenere precisioni sempre piu’ spinte nella misura del tempo e’ di fondamentale importanza per tantissimi settori, molti dei quali anche strategici nella nostra soscieta’. Ad oggi, il miglior orologio atomico realizzato permette di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo, cioe’ circa 14 miliardi di anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aggiornamento su Kepler

18 Ago

Con diversi post ci siamo occupati della ricerca degli esopianeti:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Esopianeti che non dovrebbero esserci

Ancora sugli esopianeti

Come sapete, questa speciale ricerca, volta ad individuare pianeti potenzialmente simili alla Terra ma fuori dal sistema solare, rappresenta una sfida molto importante per la scienza. Tra l’altro, ricerche di questo tipo, hanno da sempre stimolato anche la curiosita’ delle persone comuni, da sempre interessate a valutare se ci sono o meno le condizioni affinche’ la vita possa essersi sviluppata anche fuori dal nostro pianeta.

Ruolo fondamentale in questa ricerca era ovviamente riservato al telescopio della NASA Kepler. Questa missione era stata lanciata in orbita proprio con lo scopo di identificare pianeti in orbita intorno alle stelle, cosi’ come avviene nel nostro sistema solare. Si tratta di una missione estremamente complessa e che rappresentava una sfida al tempo del lancio nel 2009. Prima di Kepler infatti, non si sapeva se esopianeti simili alla Terra potessero esistere e quanto potevano essere abbondanti nella nostra Galassia.

Una delle rotelle di retroazione di Kepler

Una delle rotelle di retroazione di Kepler

In 4 anni di osservazioni, Kepler ha individuato circa 3500 possibili esopianeti, di cui diversi gia’ sono stati confermati. Ha raccolto una mole impressionante di dati che, in gran parte, ancora devono essere analizzati.

Perche’ stiamo riparlando di esopianeti e di Kepler?

Qualche settimana fa, avevamo dato un aggiornamento non felice su questo telescopio:

Se si rompe la sonda?

Come visto, nel luglio di quest’anno, si era registrata una nuova rottura ad una delle rotelle del sistema di giroscopi del satellite. Sempre nel post, avevamo detto che gli ingegneri della NASA erano gia’ al lavoro per cercare di capire come ripristinare questo fondamentale sistema per la ricerca degli esopianeti.

E ora?

Purtroppo, potremmo dire che proprio il giorno di ferragosto, la NASA ha celebrato la messa mortuaria per Kepler. Vi riporto una frase molto importante presa dal sito del telescopio:

Two of Kepler’s four gyroscope-like reaction wheels, which are used to precisely point the spacecraft, have failed. The first was lost in July 2012, and the second in May [2013]. Engineers’ efforts to restore at least one of the wheels have been unsuccessful. … the spacecraft needs three functioning wheels to continue its search for Earth-sized exoplanets

Come potete leggere, purtroppo gli ingegneri della NASA hanno rinunciato alla possibilita’ di ripristinare almeno una delle rotelle rotte del giroscopio. Il telescopio necessita’ di almeno 3 rotelle per assicurare un corretto puntamento e per proseguire la sua ricerca.

Perche’ servono almeno 3 rotelle?

Come visto in precedenza, il sistema di giroscopi del satellite e’ una delle parti piu’ importanti della missione ed e’ quella che caratterizzava l’estrema precisione della ricerca. Sappiamo che la ricerca degli esopianeti veniva effettuata con il metodo dei transiti, in cui si fissava una stella lontana misurandone la luminosita’. A questo punto, si registrava ogni minima variazione di luminosita’ che poteva indicare il passaggio di un pianeta tra la stella e il satellite. Capite bene che, affinche’ questa ricerca potesse funzionare, era necessario puntare con precisione e stabilmente la stella. Il sistema di giroscopi serviva proprio a questo, azionando piccoli stabilizzatori in grado di tenere in posizione il telescopio.

Ora cosa succedera’?

La NASA sta valutando la situazione e ha anche aperto una chiamata agli scienziati degli altri paesi per verificare se esistono altre ricerche possibili utilizzando solo due rotelle. Tra le idee lanciate c’e’ la ricerca di comete e asteroidi o anche una modifica dl software per correggere, ovviamente con precisione minore rispetto a quella iniziale, la luminosita’ osservata delle stelle.

La situazione non e’ assolutamente semplice. Prima di decidere, si deve considerare che il costo annuo della missione e’ di circa 18 milioni di dollari. Con cifre di questa portata, o si trova una missione utile e in grado di giustificare la spesa, oppure la NASA preferirebbe rigirare il budget per la costruzione di una nuova sonda da mettere in orbita.

Per la fine di quest’anno ci si aspetta una decisione da parte della NASA che per il momento ha lasciato in stand-by il telescopio in modo da risparmiare carburante.

Ovviamente, trovandosi Kepler a circa 65 milioni di kilometri dalla Terra, il costo di una missione di riparazione sarebbe proibitivo.

Come valutare la missione Kepler?

Il guasto che ha colpito il sistema di giroscopi, anche se ha interrotto molto prima di quanto preventivato la missione, non deve farci pensare che Kepler sia stato un fiasco. Come detto nel precedente articolo, la legge di Murphy e’ sempre in agguato. Per funzionare servono 3 rotelle, la NASA ne ha previste 4. Purtroppo, se ne sono rotte addirittura 2, rottura con una probabilita’ bassissima.

Nonostante questo, Kepler ha raccolto tantissimi dati ancora da analizzare. Prima di questa missione, nessuno sapeva quanto fossero abbondanti, o addirittura se esistevano, pianeti fuori dal sistema solare candidabili ad ospitare la vita. Ci vorranno ancora molti anni prima di analizzare tutti i dati per cui il numero di esopianeti e’ destinato solo a crescere. Per cui, sentiremo ancora parlare a lungo di pianeti scoperti da Kepler!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

WR104: un fucile puntato verso la Terra

12 Mag

Un nostro affezionato lettore ha lasciato un commento molto interessante nella sezione:

Hai domande o dubbi?

La richiesta riguardava un approfondimento sulla stella WR104 e sull’eventuale pericolo che l’evoluzione naturale di questo corpo potrebbe rappresentare per la Terra.

Se provate a cercare informazioni in rete, trovate una vasta bibliografia catastrofista su questo corpo. Senza mezzi termini, in molte occasioni, la WR104 e’ anche chiamata la “stella della morte” proprio per indicare il potenziale pericolo per la vita sulla Terra rappresentato dall’esplosione di questo oggetto celeste.

Cosa c’e’ di vero in tutto questo?

Cerchiamo al solito di andare con ordine, inquadrando prima di tutto di cosa stiamo parlando e poi cercando di valutare se c’e’ veramente un pericolo prossimo per la Terra.

La WR104 e’ una stella che, come indica il nome stesso, appartiene alla categoria Wolf-Rayet. Si tratta di stelle molto calde, tra 25000 e 50000 gradi, con masse superiori a 20 volte quelle del nostro sole e caratterizzate da una forte emissione di vento stellare. Dalle osservazioni, i corpi di questa categoria arrivano ad emettere fino ad un miliardo di volte la quantita’ di materia emessa dal sole ogni anno. Questo solo per far capire quanto siano attive le stelle di questa categoria. Si tratta di corpi abbastanza rari nell’universo rispetto ad altre tipologie. Fino ad oggi, sono state osservate soltanto 230 Wolf-Rayet nella nostra Galassia di cui 100 nella Grande Nube di Magellano.

Come visto in altri post, ciascuna categoria stellare presenta un processo evolutivo che parte dalla sua formazione fino alla sua morte, intesa come trasformazione in qualcosa non piu’ mutevole. Le stelle di Wolf-Rayet terminano il loro ciclo vitale esplodendo come supernovae di tipo Ib o Ic. Di questi fenomeni abbiamo parlato gia’ in quest’articolo:

E se domani sorgessero due soli?

Animazione di un lampo gamma

Animazione di un lampo gamma

Data la  loro grande massa, si prevede che le WR, durante il collasso, si traformino in buchi neri emettendo moltissima energia sotto forma di Gamma Ray Burst, o GRB.

Cos’e’ un GRB?

Si tratta di un’emissione molto potente di raggi gamma, evento tra i piu’ potenti osservati nel nostro universo. Per darvi una stima, la quantita’ di energia emessa durante un GRB, tipicamente inferiore a qualche secondo, e’ maggiore di quella che il nostro Sole emette in tutto il suo ciclo vitale.

Piu’ o meno, nel nostro universo, si osserva circa 1 GRB al giorno molto distante da noi e questi eventi sono continuamente registrati dai nostri telescopi.

Bene, ora che abbiamo un quadro piu’ completo, torniamo a parlare di WR104.

Come detto, si tratta di una stella Wolf-Rayet, quindi caratterizzata dal ciclo vitale di cui abbiamo parlato. La WR104 appartiene ad un sistema binario con una stella detta di classe O. La continua emissione di vento stellare di questi corpi, rende il sistema doppio molto affascinante dal momento che le due emissioni si scontrano nello spazio di separazione formando una bellissima spirale in movimento. L’animazione a fianco puo’ far capire meglio come questo sistema appare ai nostri telescopi.

Dinamica del sistema binario con WR104

Dinamica del sistema binario con WR104

ll sistema doppio a cui appartiene la WR104 si trova nella costellazione del Sagittario, e dista da noi circa 8000 anni luce.

Dunque? Cosa c’e’ di pericoloso nella WR104?

Dalle osservazioni fatte, questa stella si troverebbe molto vicina alla conclusione del suo ciclo evolutivo per cui, come detto, potrebbe esplodere in una supernova con una potente emissione di raggi gamma. Data la tipologia di rilascio, si considerano pericolosi i GRB che avvengono a distanze inferiori a circa 7000 anni luce da noi. Come visto, la WR104 si trova a 8000 anni luce, distanza paragonabile con questo limite di sicurezza.

A questo punto, le domande importanti a cui dobbiamo rispondere sono: quali effetti avrebbe sulla Terra? Esiste la possibilita’ che il GRB ci colpisca? Quando dovrebe avvenire?

Cominciamo dagli effetti. Come detto, nel Gamma Ray Burst viene emesso un flusso elevato di fotoni con energie comprese tra 0.3 e  2 MeV. Se questo fascio di particelle dovesse investire la Terra, l’interazione dei fotoni con la troposfera causerebbe una dissociazione dell’azoto molecolare con formazione di ossidi di azoto. Questo comporterebbe una drastica riduzione dello strato di ozono che, come visto in questo post:

Che fine ha fatto il buco dell’ozono?

e’ fondamentale per il matenimento della vita sulla Terra. Da stime preliminari, si e’ evidenziato come l’emissione di un GRB che colpisse completamente la Terra, porterebbe ad una riduzione fino al 30% dell’ozono. In questo caso, la diminuita protezione dai raggi solari dannosi, comporterebbe seri problemi per la vita sulla Terra, portando, secondo alcune stime, all’estinzione di diverse specie e alla modificazione del DNA di altre. Diciamo che come scenario, non e’ del piu’ rassicuranti.

Prima di farci prendere dal panico, cerchiamo pero’ di rispondere alla seconda domanda: il GRB della WR104 potrebbe veramente colpirci?

Durante un lampo gamma, la radiazione non viene esplusa in tutte le direzioni, ma viene emessa in due stretti coni coincidenti con l’asse di rotazione della Stella. Detto in parole semplici, il pericoloso fascio non arriva ovunque, ma l’asse di rotazione indica proprio la direzione di questo “sparo” di particelle:

Emissione di gamma di un GRB

Emissione di gamma di un GRB

 

Dunque, per poter essere colpita, la Terra si dovrebbe proprio trovare allineata con l’asse di rotazione della WR104. In rete trovate che dalle misure scientifiche, questa e’ proprio la condizione misurata. Fortunatamente, questo e’ vero solo in parte. Mi spiego meglio. Dalle misure effettuate, l’asse di rotazione del sistema binario, sembra puntare in direzione del sistema solare. Ora pero’, stiamo prima di tutto parlando di un qualcosa distante da noi 8000 anni luce. Per questo motivo, esiste sempre un’incertezza sperimentale su misure angolari di questo tipo. Dire che si trovano perfettamente allineati, non e’ corretto. La misura angolare del sistema doppio, con una incertezza sperimentale piu’ o meno grande, copre anche il nostro sistema solare, ed in particolare la Terra.

Anche se la mia potrebbe sembrare una sottigliezza per distrarre l’attenzione, queste valutazioni sono molto importanti in questo caso. L’emissione di gamma in un GRB avviene in un cono molto stretto, con un’apertura dell’ordine di pochi gradi. Per fare un esempio facile, immaginate di sparare una freccia a grande distanza. Piu’ siete lontani, maggiore e’ la precisione che dovete usare per colpire un corpo esteso. Per il GRB vale esattamente la stessa cosa. Il piccolo cono di emissione rende l’aalineamento richiesto molto preciso e difficilmente si possono fare stime a questo livello per distanze di quest’ordine.

Inoltre, quello che viene misurato e’ l’asse di rotazione del sistema binario, non quello di WR104. Secondo i modelli, le stelle di un sistema binario vengono formate dall’aggregazione della stessa polvere cosmica. Questo significa che l’asse di rotazione di ciascun corpo e’ in relazione con quello del sistema nel suo complesso, ma possono esserci degli spostamenti dovuti alla dinamica del sistema. In un discorso di allineamenti cosi’ precisi come quelli richiesti, capite bene che e’ estremamente difficile valutare tutti questi fattori.

Come potete capire, non sono attendibili tutte quelle voci che dicono che la WR104 punti “esattamente” verso di noi. In tutto questo poi, ho omesso di parlare di lente gravitazionale e di altri effetti che potrebbero in qualche modo complicare ancora di piu’ la precisione richiesta per l’allineamento. Ovviamente questo non significa nulla neanche in verso opposto, cioe’, allo stesso modo, non sono attendibili tutte quelle fonti che parlano di allineamento impossibile. Tenendo a mente la legge di Murphy, o se volete in termini meno scientifici “la fortuna e’ cieca ma la sfortuna ci vede bene”, cerchiamo invece di capire quando dovrebbe avvenire questo pericoloso GRB.

Poiche’ la distanza tra noi e WR104 e’ di 8000 anni luce, la radiazione del lampo gamma impiegherebbe proprio 8000 anni per arrivare fino alla Terra. Da questa considerazione, secondo alcune fonti, il GRB potrebbe gia’ essere avvenuto e sarebbe in viaggio verso di noi.

Su questo punto, esistono opinioni scientifiche del tutto contrastanti. Vista la complessita’ del sistema, non e’ assolutamente facile fare una stima precisa. Secondo le teorie piu’ accreditate, i modelli di evoluzione di una stella di tipo WR prevedono, prima del suo collasso, un aumento significativo della velocita’ di rotazione accompagnato anche da un aumento del vento stellare. Queste caratteristiche sono in contrasto con quanto osservato oggi mediante i telescopi in orbita.

Cosa significa questo?

Secondo questi modelli, come detto maggiormente accreditati, la WR104 sarebbe ovviamente vicina al collasso, ma non ancora prossima a questo evento. In questo caso, si parla di periodi prima del GRB che arrivano anche a centinaia, se non migliaia di anni. Di contro pero’, esistono modelli che parlano di tempi molto piu’ stretti. Ovviamente, gli 8000 anni si separazione tra noi e la stella sono gia’ conteggiati. E’ come se osservassimo un qualcosa avvenuto 8000 anni prima.

Concludendo, la WR104 “potrebbe” realmente rappresentare un pericolo per la vita sulla Terra. Il condizionale e’ pero’ d’obbligo. Come visto, prima di tutto, e’ impossibile parlare di allineamento cosi’ preciso tra noi e l’asse di emissione del fascio. In questa stima entrano tantissimi parametri, difficilmente quantificabili, e che, vista la distanza, potrebbero rappresentare la differenza tra essere colpiti in pieno o completamente mancati. Per quanto riguarda l’istante in cui verra’ emesso il GRB, anche qui le opinioni sono molto contrastanti. Secondo alcuni, il collasso potrebbe gia’ essere avvenuto, mentre secondo altre fonti, mancherebbero ancora moltissimi anni.

Visti i tanti condizionali utilizzati, non resta che attendere. L’unica cosa positiva e’ che, se dovesse avvenire un evento del genere, difficilmente potremmo farci qualcosa, almeno allo stato attuale. Sicuramente, come evidenziato piu’ volte, affinche’ il pericolo si manifesti, sarebbero necessarie condizioni ben precise la cui probabilita’ di avvenire tutte allo stesso tempo e’ estremamente bassa. Detto questo, credo sia inutile preoccuparsi. Sarebbe come non uscire di casa perche’ esiste la remota probabilita’ che una tegola ci cada in testa.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.