Tag Archives: onde

Trovata plastica nello spazio?

14 Ott

Come sapete bene, oltre a commentare, o meglio lasciatemi dire, a smentire le tante notizie pseudoscientifiche che ogni giorno appaiono sula rete, scopo principale di questo blog e’ quello di cercare di fare, nei limiti delle nostre possibilita’, una corretta divulgazione scientifica. Ovviamente, prendere spunto dalle notizie catastrofiste ci consente di avere argomentazioni che, e sul motivo di questo ci sarebbe molto da scrivere, hanno sempre molto appiglio nelle persone e che spaziano sugli argomenti piu’ disparati.

Passando invece ora alla fase piu’ divulgativa di questo sito, vorrei parlarvi dei risultati di una ricerca apparsa solo pochi giorni fa sulla rivista Astrophyisical Journal. L’articolo rigurda l’evidenza di propilene nell’atmosfera di Titano, la piu’ grande delle lune di Saturno. Aspetto molto interessante di questa ricerca e’ che per arrivare a questo risultato si e’ utilizzato il CIRS, acronimo che sta per Composite Infrared Spectrometer, uno spettrometro infrarosso molto preciso e performante montato a bordo della sonda Cassini-Huygens. Questo strumento consente di poter isolare e identificare molecole con concentrazione anche molto ridotta rispetto alle altre.

Immagine con evidenza delle emissioni spettrali di Titano

Immagine con evidenza delle emissioni spettrali di Titano

Su molti giornali, senza mai dimenticare una buona dose di sensazionlismo, trovate articoli del tipo “trovata plastica su Titano”. Ovviamente, in questo articolo evitero’ di commentare le numerose leggende nate sulla rete riguardo alla presenza di plastica su Titano e da dove questa fosse venuta. A questo punto, conoscendo molto bene questa tipologia di siti, credo che siate in grado di poterlo immaginare da soli.

Perche’ si parla di plastica?

Per poter spiegare questa affermazione, e’ necesssario parlare di un po’ di chimica. Ovviamente, manterremo sempre un profilo divulgativo senza cercare di annoire i lettori.

Il propilene e’ alla base del polipropilene, molecola utilizzata nelle plastiche dei contenutori per alimenti e utilizzata anche per realizzare i paraurti delle macchine. Detto questo, capite da subito da dove e’ nata la storia della plastica trovata su Titano.

Parlare pero’ di propilene come plastica e’ formalmente sbagliato. Cerchiamo di capire il perche’. Molecole di questo tipo fanno parte degli idrocarburi, composti che hanno alla base catene piu’ o meno lunghe di atomi di carbonio. Tra questi composti possiamo distinguere tre famiglie principali: gli alcani, gli alcheni e gli alchini. I primi hanno atomi di carbonio legati da legami singoli e, dal momento che ciascun carbonio ha a disposizione quattro legami, i restanti saranno occupati da atomi di idrogeno. Negli alcheni e negli alchini, sono invece presenti anche legami carbonio-carbonio doppi e tripli, rispettivamente doppi negli alcheni e tripli negli alchini. Per quanto detto in precedenza, se due legami sono occupati legando un carbonio, ci saranno meno posti a disposizione per l’idrogeno e quindi, a parita’ di atomi di carbonio, gli alcani risulteranno piu’ pesanti degli alcheni e questi degli alchini.

Il propene, o propilene, e’ appunto l’alchene con tre atomi di carbonio in fila. Sempre con tre atomi di carbonio avremo poi il propano, l’alcano corrispondente, e il propino, l’alchino con legami tripli.

Fin qui niente di complicato. Negli anni precedenti, nell’atmosfera di Titano erano state trovate molecole sia di propano che di propino. Se volete, sempre con tre atomi di carbonio, mancava all’appello solo il propilene.

Bene, come mostrato dalla ricerca pubblicata in questi giorni, finalmente anche l’alchene con tre atomi di carbonio e’ stato trovato. Se volete, era l’unico che mancava all’appello ed e’ la prima volta che molecole di questo tipo vengono trovate fuori dal pianeta Terra.

Come detto all’inizio, identificare questa molecole nell’atmosfera di Titano non e’ stato assolutamente semplice. L’arduo compito del CIRS e’ stato proprio quello di identificare le emissioni del propilene, presente in concentrazioni molto piu’ basse di altri idrocarburi.

Perche’ sono presenti cosi’ tanti idrocarburi nell’atmosfera di Titano?

Titano e’ un corpo molto interessante per via di alcune caratteristiche che lo rendono in parte simile alla Terra, ha infatti un’atmosfera composita intorno e una pressione solo il 50% maggiore di quella della Terra. Vista la maggiore distanza dal Sole pero’, su Titano la presenza di acqua in forma liquida e’ fortemente svantaggiata. Su questo corpo sono presenti laghi e fiumi ma, al contrario di quelli terrestri, questi specchi sono composti da metano liquido. Sempre di metano liquido sono anche le numerose piogge che si registrano su Titano cosi’ come le nubi e le nebbie. Per analogia sulla Terra, si e’ sviluppato un ciclo del metano molto simile a quello dell’acqua che abbiamo da noi.

Proprio la presenza del metano consente la creazione di idrocarburi a catena piu’ lunga. Quando il metano evapora, a causa della radiazione solare, puo’ essere scisso e gli atomi cosi’ slegati possono ricombinarsi in catene piu’ lunghe formando in questo modo gli altri idrocarburi, tra cui anche il propilene da cui siamo partiti.

Perche’ e’ cosi’ interessante studiare Titano?

Come detto, questo corpo ha delle caratteristiche che lo rendono in parte simile alla Terra. Proprio per questo motivo, la sua atmosfera e’ studiata gia’ da diversi anni, anche come palestra per testare gli strumenti piu’ evoluti, come in questo caso il CIRS della sonda Cassini. Inoltre, Titano e’ uno di quei corpi studiati per capire se siano presenti forme vitali, ovviamente mi riferisco a microorganismi, che basano il loro ciclo sul metano piuttosto che sull’acqua come qui sulla Terra.

Oltre a questi fatti, vorrei sottolineare ancora una volta come, anche se a distanza maggiore dal Sole, su Titano siano presenti reazioni chimiche complesse con la produzione di strutture molecolari a lunga catena, aspetto che rende questo corpo estremamente affascinante da studiare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E quindi uscimmo a riveder le stelle

10 Set

Nella sezione:

Hai domande o dubbi?

e’ stata fatta una richiesta davvero molto interessante. Come potete leggere, si chiede come vengano ricostruite le immagini astronomiche che spesso ci vengono mostrate e catturate dai tanti telescopi a terra e in orbita. Questa richiesta sembra apparentemente molto semplice, ma nasconde in realta’ una vera e propria professione. Oggi come oggi, molti astronomi dedicano il loro lavoro proprio alla visione e all’elaborazione di immagini astronomiche. Cerchiamo di capire meglio come funzionano queste tecniche per poter meglio apprezzare anche il lavoro che c’e’ dietro una bella immagine che troviamo sulla rete.

Come sapete bene, al giorno d’oggi, per esplorare l’universo non si utilizzano piu’ solo telescopi nel visibile. In questo caso, come facilmente immaginabile, questi sistemi catturano immagini esattamente come farebbe il nostro occhio. Oltre a questi, si utilizzano telescopi, sia a terra che in orbita, sensibili all’infrarosso, ai raggi X, all’ultravioletto, oltre ad enormi antenne pensate per catturare segnali radio provenienti dal cosmo.

Che differenza c’e’ tra queste radiazioni?

Per capire bene il concetto, vi mostro quello che normalmente si chiama lo spettro della radiazione elettromagnetica:

Spettro della radiazione elettromagnetica

Diverse lunghezze d’onda vengono accorpate in famiglie. Come vedete, la parte visibile, cioe’ quella a cui i nostri occhi sono sensibili, e’ in realta’ solo una strettra frazione dell’intero spettro. Per fare un esempio, tutti conosciamo le immagini infrarosse utilizzate per esempio per identificare le fonti di calore. Bene, questo e’ un esempio di immagine fuori dallo spettro visibile. Si tratta di particolari che i nostri occhi non sarebbero in grado di vedere, ma che riusciamo a visualizzare utilizzando tecnologie appositamente costruite. Non si tratta di immagini false o che non esistono, semplicemente, mediante l’ausilio di strumentazione, riusciamo a “vedere” quello che i nostri occhi non sono in grado di osservare.

Bene, il principio dietro l’astronomia nelle diverse lunghezze d’onda e’ proprio questo. Sfruttando parti dello spettro normalmente non visibili, si riesce ad osservare dettagli che altrimenti sarebbero invisibili.

Per dirla tutta, anche le normali immagini visibili, subiscono un’opera di elaborazione pensata per ricostruire i dettagli e per ottimizzare la visione. Cosa significa? Nella concezione comune, un telescopio nel visibile e’ paragonabile ad una normale macchina digitale. Questo non e’ esattamente vero. Molto spesso, le immagini catturate da questi sistemi sono ottenute mediante una sovrapposizione di dati raccolti utilizzando filtri diversi.

Cosa significa?

Prendiamo come esempio il telescopio Hubble. In questo caso, il sistema acquisisce immagini a diverse lunghezze d’onda, o isolando una particolare frequenza piuttosto che altre. Si tratta di immagini in bianco e nero che poi vengono colorate artificialmente e sovrapposte per formare l’immagine finale. Attenzione, non dovete pensare che la colorazione artificiale sia un trucco per far apparire piu’ belle le foto. Questa tecnica e’ di fondamentale importanza per far esaltare dei particolari che altrimenti verrebbero confusi con il resto. Questa tecnica si chiama dei “falsi colori”, proprio perche’ la colorazione non e’ quella originale ma e’ stata creata artificialmente.

Per capire meglio, proviamo a fare un esempio.

Prendiamo una delle foto piu’ famose di Hubble, quella della galassia ESO 510-G13:

ESO 510-G13 da Hubble

Questa immagine e’ ottenuta con la tecnica del “colore naturale”, cioe’ esattamente come la vedrebbero i nostri occhi se fossero potenti come quelli di Hubble. In questo caso dunque, la colorazione e’ quella che potremmo vedere anche noi ma anche questa immagine e’ stata ottenuta sovrapponendo singoli scatti ripresi dal telescopio.

In particolare, si sono sovrapposte tre immagini in bianco e nero, ognuna ottenuta selezionando solo la radiazione visibile blu, rossa e verde:

ESO 510-G13 immagini a colore singolo

Perche’ viene fatto questo?

Selezionando solo una piccola parte dello spettro visibile, cioe’ il singolo colore, e’ possibile sfruttare il sistema per catturare al meglio i singoli dettagli. In questo modo, come visibile nelle foto, ciascuna immagine e’ relativa ad un solo colore, ma al meglio della risoluzione. Sommando poi le singole parti, si ottiene il bellissimo risultato finale che abbiamo visto.

Analogamente, in alcuni casi, si amplificano determinate lunghezze d’onda rispetto ad altre, per rendere piu’ visibili alcuni dettagli. Anche in questo caso vi voglio fare un esempio. Questa e’ una bellissima immagine della Nebulosa dell’Aquila:

Nebulosa testa d'aquila

Cosa significa amplificare alcuni colori?

Nella foto riportata, oltre ad ammirarla, gli astronomi riescono a vedere le emissioni di luce da parte dei singoli gas costituenti la nebulosa. Questo studio e’ importante per determinare la concentrazione di singoli elementi, e dunque identificare particolari tipologie di corpi celesti. Per capire meglio, nella ricostruzione a posteriori dell’immagine, e’ stato assegnato il colore verde all’emissione degli atomi di idrogeno, il rosso agli ioni di zolfo e il blu alla luce emessa dall’ossigeno ionizzato. Perche’ questo artificio grafico? Se non venisse elaborata, nell’immagine la luce emessa dalla zolfo e dall’idrogeno sarebbero indistinguibili tra loro. Se ora rileggete l’assegnazione dei colori riportata e rivedete l’immagine della nebulosa, siete anche voi in grado di determinare quali gas sono piu’ presenti in una zona piuttosto che in un’altra. Ovviamente questi sono processi che devono essere fatti analiticamente, elaborando le informazioni di ogni singolo pixel.

Analogo discorso puo’ essere fatto per la radioastronomia. In questo caso, come sapete e come anticipato, quelli che vengono registrati sono dei segnali radio provenienti dai diversi settori in cui viene diviso l’universo. Non avendo delle immagini, nei radiotelescopi si hanno degli impulsi radio che devono essere interpretati per identificare il tipo di sorgente, ma soprattutto la zona da cui il segnale proviene.

Per farvi capire meglio questo concetto, vi racconto la storia dell’inizio della radioastronomia. Nel 1929 un radiotecnico americano che lavorava in una stazione di Manila, mentre era al lavoro per eliminare disturbi dalle trasmissioni, si accorse che vi era un particolare rumore di fondo che si intensifica in determinati momenti della giornata. Nello stesso anno, Jansky, un ingegnere della compagnia americana Bell, anche lui al lavoro per cercare di migliorare le comunicazioni transoceaniche, arrivo’ alla stessa conclusione del radiotecnico. L’ingegnere pero’ calcolo’ il momento preciso in cui questi disturbi aumentavano, trovando che il periodo che intercorreva tra i massimi corrispondeva esattamente alla durata del giorno sidereo, 23 ore e 56 minuti. Solo anni piu’ tardi, riprendendo in mano questi dati, ci si accorse che la fonte di questo disturbo era il centro della nostra galassia. I segnali radio captati erano massimi quando il ricevitore passava davanti al centro della galassia, emettitore molto importante di segnali radio.

Oggi, mediante i nostri radiotelescopi, riusciamo ad identificare moltissime sorgenti radio presenti nell’universo e, proprio studiando questi spettri, riusciamo a capire quali tipologie di sorgenti si osservano e da quale punto dell’universo e’ stato inviato il segnale. A titolo di esempio, vi mostro uno spettro corrispondente ai segnali radio captati nell’arco del giorno con un semplice radiotelescopio:

Spettro giornaliero di un radiotelescopio con antenna da 3.3 metri. Fonte: Univ. di Pisa

Come vedete, sono chiaramente distinguibili i momenti di alba e tramonto, il passaggio davanti al centro galattico e quello corrispondente al braccio di Perseo. Come potete facilmente capire, si tratta di misure, chiamiamole, indirette in cui i nostri occhi sono proprio le antenne dei telescopi.

Concludendo, ci sono diversi metodi per pulire, migliorare o amplificare le immagini raccolte dai telescopi sia a terra che in orbita. Quello che facciamo e’ amplificare la nostra vista o utilizzando sistemi molto potenti, oppure ampliando lo spettro delle radiazioni che altrimenti non sarebbero visibili. I telescopi divengono dunque degli occhi sull’universo molto piu’ potenti e precisi dei nostri. Metodi diversi, ottico, UV, IR, radio, ecc, possono aiutare a capire dettagli o strutture che altrimenti sarebbero invisibili in condizioni normali. Detto questo, capite quanto lavoro c’e’ dietro una bella immagine che trovate su internet e soprattutto perche’ la foto ha una specifica colorazione o particolari sfumature.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Levitazione acustica

7 Set

Qualche giorno fa, sono stati pubblicati i risultati di una ricerca davvero interessante. Credo sia il caso di analizzarli prima di tutto per la curiosita’ che possono innescare, ma soprattutto per le importanti applicazioni future che questi studi potrebbero avere.

Come forse avrete letto su diversi giornali, un gruppo dell’universita’ di Zurigo, guidato da un ricercatore italiano, e’ riuscito a creare il primo sistema di levitazione e movimentazione acustica.

Di cosa si tratta?

Detto in parole molto semplici, il suono altro non e’ che una successione di compressione e rarefazioni del mezzo in cui si muove, nel caso piu’ comune l’aria. Cioe’? Le onde sonore si propagano spostando l’aria e sono proprio queste vibrazioni quelle che noi udiamo e che fanno vibrare il nostro apparato uditivo. Infatti, come sapete, il suono non si propaga in un ambiente dove e’ stato fatto il vuoto proprio perche’ manca il mezzo per poterlo far camminare.

Il sistema di levitazione e movimentazione basato su onde sonore

Il sistema di levitazione e movimentazione basato su onde sonore

Molte fonti fanno un po’ di confusione nella descrizione dell’apparato sperimentale realizzato a Zurigo, fornendo informazioni poco chiare o in alcuni casi sbagliate. Pensateci bene, se il suono crea uno spostamento dell’aria, allora un’onda sonora potrebbe essere utilizzata per far muovere un oggetto molto leggero. Bene, questo e’ il principio di base.

Al contrario di quello che trovate su molti giornali, la levitazione sonora e’ una cosa conosciuta gia’ da molti anni, dunque non e’ stata affatto “inventata” a Zurigo. Come funziona? Se ci pensate, se mettiamo un suono a spingere un oggetto, questo riuscirebbe a farlo muovere in una direzione. Per poterlo far levitare, e’ necessario avere due superfici, una emettitrice del suono e una in cui viene riflesso. Poiche’ l’onda sonora e’ come una sinusoide che si muove, calibrando opportunamente i nodi dell’onda, ottenuta dalla sovrapposizione dell’onda emessa e di quella riflessa, possiamo tenere l’oggetto fermo in questo punto. Sembra complicato ma non lo e’. Il “nodo” e’ quel punto in cui l’onda si annulla. Rimanendo nell’esempio della sinusoide, e’ quel punto in cui la funzione attraversa lo zero.

Bene, se mettiamo l’oggetto esattamente nel nodo, questo rimarra’ sospeso in questo punto, cioe’ l’onda sonora riuscira’ esattamente a bilanciare il peso dell’oggetto. Questo e’ il concetto della levitazione acustica che si conosce gia’ da diversi anni.

Dunque, cosa e’ stato studiato a Zurigo?

La levitazione acustica di cui stiamo parlando e’ un qualcosa di statico. Si mette l’oggetto nel nodo e questo resta in equilibrio. Lo studio pubblicato in questi giorni riguarda invece un apparato sperimentale realizzato ponendo diversi emettitori in linea con altrettanti riflettori in alto. Modulando la frequenza delle onde sonore e la loro intensita’, e’ possibile spostare orizzontalmente i nodi. Come potete facilmente capire, se l’oggetto e’ fisso nel nodo, punto di equilibrio, spostando il punto riusciamo a far muovere anche l’oggetto dal momento che questo e’ vincolato nel nodo.

Come potete capire facilmente, le limitazioni principali del sistema sono sul peso dell’oggetto posizionato, oltre che ovviamente nel suo volume. Il sistema realizzato consente di far levitare e  spostare, ad esempio, gocce di liquido o piccole quantita’ di solido.

Bellissimo, ma a cosa serve?

Pensateci bene, potete posizionare qualcosa nel sistema e farlo muovere senza toccarlo. Non vi viene in mente nulla? Nel settore farmaceutico, la manipolazione tra sostsnze e’ spesso inficiata dal contatto, seppur minimo, manuale. Il poter mescolare due sostanze facendole scontrare senza forze esterne rappresenta un vantaggio importantissimo in questo settore.

Inoltre, questo sistema potrebbe essere utilizzato nella manipolazione genetica delle cellule. Frammenti di DNA possono essere inseriti nelle cellule evitando tutta una serie di problematiche legate al metodo tradizionale, manipolazione manuale, contaminazione, ecc.

Altra applicazione importante potrebbe, ad esempio, essere nella manipolazione senza mani di sostanze tossiche e radioattive. Anche in questo caso, il contatto con l’umo potrebbe causare danni alla salute evitabili con l’utilizzo di questo sistema.

Concludendo, la levitazione acustica e’ un processo noto gia’ da tempo. Solo in questi giorni pero’, si e’ riusciti a realizzare un sistema in grado anche di spostare oggetti. Le applicazioni di questo sistema potrebbero essere molteplici. Il dispositivo consente infatti di poter mescolare o trattare piccole parti di liquido o solido senza il minimo contatto con l’essere umano, con evidenti vantaggi sia nel settore farmaceutico che in quello biologico.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tsunamometro: come “prevedere” gli Tsunami

3 Set

Alcuni lettori mi hanno contatto per chiedere il mio punto di vista su una notizia apparsa in questi giorni su alcuni giornali. La notizia in questione riguarda un sistema di allerta per gli Tsunami del mediterraneo che e’ stato sviluppato con la collaborazione di diverse universita’ e enti di ricerca italiani. Questo strumento, anche detto Tsunamometro, altro non e’ che un sistema di “early warning”, cioe’ una strumentazione in grado di identificare la formazione del maremoto e inviare un allarme a terra. Come sappiamo bene, in eventi di questo tipo, un avviso anche solo di qualche decina di minuti puo’ significare la differenza tra centinaia di morti oppure no.

Detto questo, vorrei aprire una piccola parentesi o, se volete, una critica ad alcuni giornali. Come abbiamo detto in diverse occasioni, in questo periodo estivo le notizie scarseggiano, la politica e’ ancora in ferie, il campionato sta ricominciando solo ora, ecc. Proprio questo e’ il periodo in cui i giornali per riempire le loro pagine tirano fuori notizie d’archivio o pseudo-assurde. Perche’ dico questo?

Questo e’ l’articolo, del 1 settembre 2013, che trovate su un noto giornale nazionale:

Tsunamometro, 1 settembre 2013

Bene, questo e’ un articolo dello stesso giornale sullo stesso argomento del 30 settembre 2009:

Tsunamometro, 30 settembre 2009

Stesso argomento, stessa intervista, stesse considerazioni solo che, nel 2009, il sistema era stato installato per la prima volta.

Animazione dello Tsunami in Indonesia del 2004

Animazione dello Tsunami in Indonesia del 2004

Non aggiungo altro, a voi le considerazioni sulla cosa.

Nonostante questo, credo sia interessante parlare dell’argomento in primis perche’ non lo abbiamo trattato sul blog ma soprattutto perche’ alcuni utenti mi hanno scritto facendo questo ragionamento: se e’ possibile inviare un segnale a terra studiando le onde, allora e’ possibile prevedere uno tsunami. Se lo tsunami e’ dovuto ad un terremoto, allora e’ in qualche modo possibile prevedere anche il sisma.

Come anticipato, questo ragionamento e’ sbagliato. Come detto, lo tsunamometro, noto come progetto Nearest, e’ costituito da una serie di strumenti che misurano parametri del mare. In caso di formazione anomala, il sistema invia l’allerta a terra. Dunque, non prevede lo tsunami ma lo identifica nelle prime fasi della sua formazione.

Come funziona Nearest?

Come potete immaginare, si tratta di un sistema di boe che misurano l’accelerazione e la pressione delle acque, le onde sismiche e le onde acustiche prodotte dallo tsunami in formazione. Oltre alla boa, c’e’ ovviamente un sistema sottomarino che serve a raccogliere i dati ed che viene posizionato in prossimita’ delle linee di faglia dove si potrebbe generare il sisma ed il conseguente maremoto.

Ad oggi, un sistema completo di monitoraggio e’ stato installato al largo di Cadice in Spagna. Come sappiamo, la zona del mediterraneo e’ stata in passato scenario di tsunami a causa sia dell’attivita’ sismica che di frane. Di questi eventi abbiamo parlato in dettaglio in questi post:

Ora anche gli Tsunami in Italia

I Marrobbi, piccoli Tsunami

Aggiornamento sulla Tsunami del Tirreno

Inoltre, come visto in questi articoli:

Due parole sull’Etna e sullo Stromboli

Marsili e terremoto siciliano

– Il vulcano Marsili

– Immagine ricostruita del Marsili

– Il risveglio del Marsili

la presenza di vulcani attivi nel Mediterraneo puo’ portare a sismi con conseguenti Tsunami.

Una delle boe del sistema Nearest

Una delle boe del sistema Nearest

Oltre all’importante funzione di “Early warning”, Nearest ha un compito scientifico di tutto rispetto. La ricerca e’ infatti considerata fondamentale per studiare a fondo la relazione tra evento sismico e maremoto. Come sapete, ci possono essere terremoti con epicentro in mare che non provocano fenomeni tsunamici. Questo e’ dovuto alla natura stessa del sisma, alla direzione di propagazione delle onde, alla profondita’, ecc. Avere un sistema di monitoraggio di questo tipo direttamente in mare consente di poter studiare queste relazioni ed avere un quadro piu’ chiaro. Al largo di Cadice, il sistema e’ posizionato ad una profondita’ di 3200 metri e invia segnali acustici alla boa.

Concludendo, quella dello tsunamometro e’ una notizia abbastanza vecchia. Nonostante questa riproposizione estiva, e’ interessante vedere come funziona questo sistema per analizzare quali sono gli attuali sistemi di prevenzione che si stanno studiando per far fronte a problemi di questo tipo. Come sappiamo bene, le onde di tsunami hanno periodi molto lunghi, non possono essere arginate mediante barriere se non in parte, ma, sapere con anticipo quando l’onda colpira’ la costa potrebbe essere sicuramente un ottimo salvavita.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Lago Vostok, c’e’ vita?

12 Lug

Qualche mese fa, avevamo parlato del lago Vostok:

I misteri del lago Vostok

Come visto, questo e’ un lago cosiddetto subglaciale, che si trova sotto piu’ o meno 4 Km di ghiaccio dell’Antartide e la cui esistenza, anche se predetta negli anni prcedenti, e’ stata confermata solo nei primi anni ’90 grazie ai monitoraggi satellitari.

Perche’ e’ interessante questo lago?

Prima di tutto, pensare ad uno specchio d’acqua sepolto sotto 4 Km di ghiaccio ben compatto, fa impressione. Inoltre, molti studi sono stati condotti su questo lago per cercare di capire se potesse asserci vita al suo interno. Questa supposizione e’ ovviamente molto affascinante. Il lago Vostok presenta condizioni veramente difficili. Oltre alla sua profondita’ sotto il ghiaccio, dobbiamo considerare la totale assenza di luce solare, ma anche l’enorme pressione a cui le sue acque sarebbero sottoposte.

Come visto nell’articolo precedentemente riportato, le acque del lago sarebbero sotto un attento studio, appunto per valutare la presenza o meno di forme di vita aliene. Con questo termine non intendiamo assolutamente forme di vita provenienti da altri pianeti, bensi’ organismi viventi completamente isolati dall’ecosistema Terra e che, in linea di principio, potrebbero aver avuto uno sviluppo del tutto autonomo e indipendente.

Foto satellitare del ghiaccio sopra al Vostok

Foto satellitare del ghiaccio sopra al Vostok

Per meglio comprendere questo concetto, pensate che le acque del Vostok sono rimaste isolate per circa 15 milioni di anni. In questo periodo infatti, il Vostok e’ stato isolato dalla sua calotta di ghiaccio, lasciando al loro destino tutte le forme di vita eventualmente contenute nel lago.

Bene, detto questo, nell’articolo precedente abbiamo illustrato la tecnica pensata per prelevare un campione di acqua. Come visto, questa tipologia di analisi evita assolutamente un contatto tra la trivella di perforazione e l’acqua del lago. Per fare questo, le trivelle lasciano un setto di ghiaccio, che viene poi spaccato dalle pressioni interne. Questo metodo di ricerca permette di evitare il contatto, raccogliere un campione, ma soprattutto l’acqua fuoriuscita dal lago viene immediatamente congelata, sigillando nuovamente il lago dall’esterno.

Perche’ stiamo tornado a parlare del lago?

Come visto nell’articolo precedente, attraverso queste perforazioni erano stati raccolti circa 40 litri di acqua superficiale del lago. Ad una prima analisi, si era evidenziata la presenza di tracce di DNA e RNA non conosciute, cioe’ non appartenenti a specie animali conosciute sulla terra.

Queste prime misure, avevano suscitato un vespaio di polemiche da parte della comunita’ scientifica dal momento che molti esperti considerano la tecnica utilizzata non sicura. Con questo si intende che ci potrebbero essere contaminazioni dall’esterno in grado di falsare il risultato delle analisi.

Ora, a distanza di mesi, sono state condotte ulteriori analisi sul campione di acqua. I risultati ottenuti sono davvero interessanti. Delle 3507 sequenze di geni trovate, 1623 appartengono a specie conosciute. Di che tipo di sequenze si tratta? Il 94% proviene da batteri mentre il 6% viene da organismi piu’ complessi.

Cosa significa organismi piu’ complessi?

Questo 6% appartiene a funghi, molluschi e crostacei. Ma c’e’ di piu’, una frazione di questi geni appartengono a specie che normalmente vivono all’interno di animali piu’ grandi come, ad esempio, pesci.

Come interpretare questo risultato?

Sulle ali dell’entusiamo, si potrebbe arrivare alla conclusione che il lago Vostok nasconda un ecosistema molto complesso, formato non solo da batteri, ma anche da animali piu’ grandi. Le sequenze sconosciute di DNA e RNA possono farci pensare che nei 15 milioni di anni di isolamento, la vita abbia subito uno sviluppo diverso rispetto a quella della superficie. Questo sarebbe normale pensando alle condizioni estreme all’interno del lago. Proprio in questo ambiente inospitale, come detto buio assoluto e forti pressioni, potrebbero vivere non solo batteri, e questo non ci sorprende visto che sono stati trovati batteri in ambienti in cui si pensava impossibile avere la vita, ma soprattutto animali piu’ grandi e complessi. Una prima supposizione che potrebbe essere fatta e’ che ci siano sorgenti calde all’interno del lago, in grado di riscaldare alcuni strati delle acque.

E’ possibile questo scenario?

In linea di principio si, ma bisogna essere molto cauti. Come avvenne qualche mese fa, e come raccontato nel precedente articolo, anche in questo caso possono essere mosse le stesse critiche alla tecnica di raccolta dei campioni. Come detto, le trivelle, dal momento che non erano pensate per questo scopo, non sono state sterilizzate. Questo ovviamente potrebbe aver causato una contaminazione del campione con sequenze precedentemente attaccate alle trivelle. Inoltre, diversi esperti pensano che il metodo di ritorno del campione in superificie non assicuri una chiusura ermetica e che quindi, durante il suo ritorno attraverso i 4 Km di ghiaccio, il volume potrebbe essere stato contaminato.

Sicuramente, alla luce di quanto detto, e’ molto affascinante pensare al Vostok come un ecosistema ricco, completamente isolato e potenzialmente diverso da nostro. Dal punto di vista scientifico pero’, e’ doveroso andare con i piedi di piombo. In analisi di questo tipo bisogna essere sicuri che tutto sia stato fatto a regola d’arte per evitare di incorrere in errori macroscopici.

Uno studio attento del Vostok e’ importante anche per capire l’eventualita’ di formazione della vita su altri pianeti. Come sappiamo, le condizioni del lago sono simili a quelle che potremmo trovare su altri pianeti del Sistema Solare e non. Comprendere l’eventualita’ di formazione della vita in luoghi cosi’ inospitali, potrebbe farci capire se esite la possibilita’ che ecosistemi di questo tipo si possano formare anche fuori dal nostro pianeta. Nei prossimi mesi ci saranno sicuramente ulteriori risultati da discutere e, alla luce di quanto detto, non resta che aspettarli con ansia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Lampi Radio dall’universo lontano

8 Lug

Come sapete bene, scopo principale di questo blog e’ quello di divulgare la scienza. A questo proposito, diverse volte ci siamo trovati a parlare di recentissime scoperte di cui, al momento, non si sa ancora nulla. Scopo della ricerca e’ anche questo. Molto spesso, i modelli teorici formulati danno indicazioni precise dove cercare cose nuove. Molte altre volte invece, magari per caso, ci si trava di fronte a scoperte del tutto inattese e che richiedono un notevole sforzo perche’ vanno a minare le conoscenze o le supposizioni fatte fino a quel momento.

Perche’ faccio questa introduzione?

Solo pochi giorni fa, e’ stato pubblicato un articolo su Science molto interessante, riguardante il nostro universo. Come sappiamo bene, le nostre attuali conoscenze sono ancora molto lontane dall’essere complete. Questo e’ del tutto normale se pensiamo che stiamo osservando l’universo principalmente dalla nostra Terra basandoci su osservazioni indirette o comunuque molto lontane dalle sorgenti.

La ricerca di cui sto parlando, a cui hanno partecipato anche diversi ricercatori italiani, riguarda l’osservazione, del tutto inattesa, di segnali radio provenienti da distanze cosmologiche. Questi eventi sono gia’ stati ribattezzati FRB, cioe’ “fast radio burst”, tradotto “lampi radio veloci”.

Di cosa si tratta?

Parlando come sempre di teorie catastrofiste, solo poche settimane fa avevamo parlato della WR104, sfruttando in realta’ questa notizia per parlare di Gamma Ray Burst, cioe’ Lampi di Raggi Gamma:

WR104, un fucile puntato verso di noi

Mentre in questo caso si parlava di lampi di radiazione gamma, gli FRB sono invece lampi a frequenza nelle onde radio. Come anticipato, si tratta di segnali la cui origine e’ stata approssimativamente indicata a distanze cosmologiche. Ad oggi, sono stati osservati solo 4 FRB la cui emissione e’ avvenuta tra 5.5 e 10 miliardi di anni luce da noi. Considerando che il nostro universo ha un’eta’ stiamata di circa 14 miliardi di anni, questi lampi sono stati emessi in media quando l’universo aveva all’incirca la meta’ della sua attuale eta’.

Come e’ avvenuta questa scoperta?

Come e’ facile immaginare, il primo FRB e’ stato osservato qualche anno fa e inizialmente si pensava fosse dovuto ad un errore strumentale. Successivamente poi, utilizzando il radiotelescopio australiano CSIRO Parkes da 64 metri, si e’ riusciti ad identificare altri tre eventi.

Perche’ e’ cosi’ difficile registrare gli FRB?

Il problema principale di questi eventi e’, come dice il nome stesso, il segnale molto corto, dell’ordine dei millisecondi. Si tratta dunque di eventi estremamente potenti ma che vengono emessi in tempi molto corti, proprio come un’esplosione che avviene ad onde radio. In realta’, come stimato da calcoli teorici, gli FRB dovrebbero essere tutt’altro che rari nel nostro universo. I 4 eventi osservati sono stati visti in una porzione estremamente ridotta di cielo. Facendo un calcolo statistico, si e’ visto che in realta’ ci dovrebbe essere un evento di questo tipo da qualche parte ogni 10 secondi. Dunque, con una frequenza molto elevata. Il fatto di averli osservati solo ora, se vogliamo, dipende da una questione di fortuna. Trattandosi di eventi cosi’ rapidi, e’ necessario che il radiotelescopio sia puntato proprio nella direzione della sorgente per poter osservare il segnale.

Come si e’ identificato il punto di origine?

In realta’, come anticipato, le distanze sono da considerarsi come una stima. Le onde radio, propagandosi nell’universo, subiscono modificazioni dovute al passaggio attraverso la materia. Detto questo, e’ possibile stimare una distanza di origine appunto osservando in dettaglio lo spettro dei segnali.

Per capire questo concetto, si deve pensare che quando queste onde si propagano verso la Terra dal punto in cui sono emesse, passano nel mezzo intergalattico, cioe’ in quelle regioni di gas e polveri che separano tra loro due Galassie. Bene, attrevarsando queste regioni, principalmente popolate di elettroni, le onde radio ne escono di volta in volta sparpagliate. Osservando lo spettro che arriva a Terra, in particolare proprio questo sparpagliamento, e’ possibile capire quanto mezzo intergalattico e’ stato attraversato e duqnue la distanza della Terra dall’origine del lampo radio. Perche’ diciamo che la distanza e’ solo una stima? Come intuibile, in questa tecnica si fa una stima delle particelle del mezzo intergalattico. Ovviamente non si tratta di supposizioni a caso, ma sono numeri basati su osservazioni dirette e indirette. In questo caso pero’, l’incertezza sulla distanza e’ proprio dovuta all’incertezza con cui si conosce il mezzo intergalattico. Molto piu’ preciso e’ invece il metodo per misurare distanza e velocita’ di una stella classica, come visto in questo post:

Come misurare distanza e velocita’ di una stella

Chi ha prodotto gli FRB?

Come anticpato, e come e’ facile immaginare, questa e’ la domanda a cui si dovra’ dare una risposta. Quando abbiamo parlato di GRB, lo abbiamo fatto partendo da una stella Wolf Rayet che sappiamo essere in grado di produrre questi eventi. Per quando riguarda invece gli FRB, essendo tra l’altro del tutto inaspettati, non e’ ancora stato possibile capire la loro origine. Ovviamente, esistono delle ipotesi fatte per spiegare questi eventi. Alcuni astronomi puntano il dito contro le magnetar, cioe’ stelle di neutroni con campi magnetici molto elevati, in grado di emettere violenti lampi elettromagnetici di raggi X e gamma. Solo pochi giorni fa, e’ stato pubblicato un altro articolo che tenta invece di spiegare gli FRB analizzando il comportamento teorico delle stelle di neutroni supermassive. Questo e’ il link all’articolo per chi volesse approfondire:

FRB, Super Massive Neutron Stars

Ovviamente, si tratta di tutte ipotesi che chiamano in causa corpi astronomici in cui la materia si trova in condizioni molto particolari, perche’ sottoposta a pressione gravitazionale intensa, rapida rotazione o campi magnetici molto elevati. In condizioni normali, non ci sarebbero emissioni di onde radio.

Ovviamente, non potevano certo mancare le ipotesi fantascientifiche circa l’origine di questi segnali. Sulla falsa riga del segnale WOW!:

Il segnale WOW!

c’e chi ha proposto che l’origine del segnale radio sia una lontana civilta’ intelligente che sta cercando di comunicare con noi o anche che siano segnali di avvertimento provenienti da altri mondi su qualcosa che potrebbe accadere. Senza commentare ulteriormente su queste ipotesi, lasciatemi solo fare un’osservazione. I 4 segnali evidenziati finora provengono da punti distanti ben 5 miliardi di anni luce tra loro. Detto questo, mi sembra assurdo pensare che ci sia un popolo che si diverte a spostarsi cosi’ tanto nel nostro universo. Ovviamente, queste ipotesi nascono sulla rete, sono divertenti da leggere, ma non apportano nessuna informazione utili ai fini della ricerca sugli FRB.

A questo punto, non resta dunque che continuare a studiare il fenomeno per cercare di accumulare maggiore statistica, cioe’ nuovi eventi. Questa e’ ovviamente una condizione necessaria per poter verificare le ipotesi fatte o anche per formularne di nuove. Come visto nelle teorie attuali, per alcuni casi, le onde radio dovrebbero essere accompagnate da emissioni di raggi X e gamma. In tal senso, lo studio congiunto dei segnali utilizzando radiotelescopi e strumenti sensibili a queste radiazioni consentirebbe proprio di poter osservare l’emissione congiunta di questi eventi. In questa nuova caccia che si e’ aperta, il radiotelescopio italiano Sardinia, dal punto di vista costruttivo gemello di quello australiano, e che sta entrando nella fase operativa in questo periodo, potra’ dare un notevole contributo.

Studiare eventi di questo tipo ci consente prima di tutto di capire meglio come e’ fatto il nostro universo, evidenziando fenomeni che prima si ignoravano o comportamenti anomali di oggetti celesti conosciuti. Inoltre, alla luce di quanto detto sull’interazione delle onde radio con lo spazio attraversato, l’analisi degli FRB potrebbe consentirci di ottenere nuove informazioni sulla composizione del nostro universo, fornendo nuovo materiale sulle componenti oscure o di antimateria di cui abbiamo parlato in questi post:

La materia oscura

Due parole sull’antimateria

Antimateria sulla notra testa!

Universo: foto da piccolo

Troppa antimateria nello spazio

Concludendo, l’articolo pubblicato solo pochi giorni fa ha evidenziato un fenomeno del tutto inatteso e nuovo nel cosmo. Lo studio degli FRB e’ appena iniziato e vedra’ come protagonista anche un telescopio nostrano gestito dall’INAF. Le informazioni ricavate in questa ricerca potrebbero essere molto utili anche per capire meglio l’origine e la composzione del nostro universo. Come diciamo sempre, ci sono ancora tantissime cose da scoprire. Evidenze come questa ci fanno capire quanto lavoro c’e’ ancora da fare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Facciamoci trovare dagli alieni

14 Giu

Ogni tanto si leggono delle notizie scientifiche quanto mai curiose. Su questo blog, diverse volte abbiamo parlato di extraterrestri, ma non analizzando i tantissimi video di presunti avvistamenti che ogni giorno compaiono in rete, bensi’ cercando di affrontare il discorso in modo prettamente scientifico. Anche se a molti potrebbe apparire strano, la scienza da sempre si e’ interrogata circa la possibile esistenza di forme di vita aliene, valutando, o almeno cercando di farlo, la reale probabilita’, non solo che una forma di vita intelligente possa esistere, ma anche che questa possa entrare in contatto con noi.

Come visto in questi post:

Messaggio alieno nelle Aurore

Il segnale WOW!

poter valutare questa probabilita’ e’ molto difficile e richiede una stima di parametri anche non direttamente legati tra loro. L’equazione di Drake, cerca appunto di considerare ogni singolo aspetto che potrebbe consentire questo incontro, fornendo come risultato una stima di probabilita’. Se ci pensiamo, per prima cosa dovremmo avere un pianeta in grado di ospitare la vita, poi questa vita si dovrebbe essere sviluppata nel tempo creando appunto una societa’ evoluta. Che significa evoluta? Con un grado di tecnologia che gli permetta di inviare e ricevere segnali dallo spazio o, al limite, di poter esplorare lo spazio.

Ogni qual volta si parla di alieni, scatta automaticamente la molla secondo la quale queste forme di vita sarebbero infinitamente piu’ sviluppate di noi e con mezzi incredibili. Perche’ avviene questo? Proviamo a fare un ragionamento al contrario: se fossimo noi gli alieni dello stereotipo collettivo? Magari, una forma di vita aliena esiste, ma e’ ancora troppo poco sviluppata. Immaginate la nostra societa’ anche solo 200 anni fa. Eravamo in grado di esplorare l’universo? Assolutamente no. Se una societa’ con uno sviluppo tecnologico pari al nostro di 200 anni fa avesse pensato a forme di vita aliene, magari avrebbe pensato al nostro attuale sviluppo.

Sempre pensando alle probabilita’ di incontro, proviamo a fare un passo aggiuntivo. Supponiamo che la societa’ aliena esista e che si sia sviluppata ad un livello paragonabile al nostro. Bene, tutto risolto? Assolutamente no. L’universo e’ molto grande, se gli alieni sono distanti migliaia di anni luce da noi, con buona probabilita’ non riusciremo mai ad incontrarci. Se state pensando ai viaggi con la velocita’ del pensiero o cose di questo tipo, torniamo al discorso precedente sullo sviluppo tecnologico. Noi con migliaia di anni di sviluppo siamo arrivati ad oggi. Se volessimo considerare alieni fantascientifici, dovremmo valutare anche la probabilita’ che questo sviluppo sia avvenuto.

Attenzione, proprio da questo punto, vorrei partire con una nuova considerazione. Gli alieni esistono, sono evoluti, hanno la possibilita’ di incontrarci, vuoi perche’ sono vicini o perche’ hanno lo sviluppo tale per farlo, non resta che prendere appuntamento. Sicuri? No, manca un’altra valutazione. Tutte queste belle probabilita’ devono essere vere “adesso”. Immaginate una societa’ aliena che si sia sviluppata e abbia soddisfatto tutti i criteri visti, ma questo sia avvenuto, ad esempio, 1 miliardo di anni fa. Magari sono stati in grado di visitare l’universo ma noi ancora non c’eravamo. Dunque, tutte queste condizioni devono essere vere allo stesso tempo, altrimenti l’incontro non e’ possibile. Bene, proprio queste considerazioni chiamano in causa un discorso diverso da quello prettamente scientifico. Per poter valutare queste proprieta’ si devono considerare sviluppi antropologici, societari, evoluzionistici, ecc. Immaginate una bella societa’ aliena che si e’ sviluppata, ha raggiunto un’immensa tecnologia ma che si e’ autodistrutta. Il discorso e’ assurdo? Non credo proprio, basta guardare la nostra societa’.

Capite dunque che valutare la probabilita’ di un incontro con forme di vita aliene, implica un ragionamento molto vasto. Nonostante questo, l’equazione di Drake ha portato importanti risultati in questo senso, non escludendo assolutamente questa possibilita’. Ovviamente, non resta che aspettare e vedere quello che succede.

Perche’ ho fatto questo lungo preambolo? Prima di tutto per poter riprendere concetti molto importanti visti in passato ma che possono essere considerati degli evergreen. Inoltre, vorrei parlarvi di un’iniziativa curiosa che sta spopolando sulla rete in questi ultimi giorni; si tratta del progetto “Lone Signal”.

In cosa consiste?

Il progetto consiste nell’inviare nello spazio un messaggio e sperare che qualche societa’ aliena possa riceverlo. Scopo? Far capire che ci siamo e dove si trova la terra. Il messaggio conterra’ infatti informazioni circa la posizione della Terra e sul nostro attuale sviluppo: come e’ fatto l’atomo di idrogeno, gli elementi della tavola periodica, ecc. Oltre a queste informazioni, anche gli utenti della rete potranno contribuire ed inviare il loro messaggio agli alieni, semplicemente collegandosi con il sito internet del progetto:

Lone Signal

Se volete partecipare a questa iniziativa, dovete sbrigarvi, il primo invio e’ infatti atteso per il 18 Giugno.

o-LONE-SIGNAL-SPACE-MESSAGE-570

Il messaggio verra’ poi inviato sotto forma di onda elettromagnetica verso Gliese 526 utilizzando la Jamesburg Earth Station della California. Gliese 526 e’ una nana rossa con un piccolo sistema planetario orbitante a 17,6 anni luce da noi. Alcuni di questi pianeti sono considerati adatti ad ospitare forme di vita. Di questo e soprattutto della cosiddetta fascia di abitabilita’, abbiamo parlato diverse volte affrontando il discorso esopianeti:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Cosa ne penso? Se devo essere sincero, iniziative come questa lasciano veramente il tempo che trovano. Su molti siti si parla di iniziativa simile al programma SETI, di cui sicuramente avete sentito parlare. Su questo non sono assolutamente d’accordo. Nel caso di SETI, si cercava di “ascoltare” segnali provenienti dallo spazio esplorando zone considerate piu’ probabili per la vita. Anche per questo programma sono state mosse critiche per la non ripetibilita’ di un eventuale segnale, vedi proprio il WOW!, ma anche per la casualita’ della zona da esplorare.

Nel caso del Lone Signal, si andra’ a sparare un segnale verso qualcosa molto distante da noi. E’ la prima volta? Assolutamente no, sempre nell’articolo sul WOW! abbiamo parlato del messaggio di Arecibo. In quel caso, il messaggio era stato inviato verso Ercole e l’iniziativa piu’ che un programma scientifico, era stata vista come uno spot pubblicitario successivo all’ammodernamento del radiotelescopio.

Gia’ cercare forme di vita aliene e’ concettualmente difficile, immaginate di voler urlare in una direzione e sperare che qualche vi ascolti. Inoltre, tutto questo discorso implica che le forme di vita siano sufficientemente evolute e che siano in grado di ricevere onde elettromagnetiche, cosa tutt’altro che scontata.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Cosa c’e’ sotto i nostri piedi?

28 Apr

In questi giorni, molti giornali e siti internet hanno pubblicato la notizia di una nuova misura rigurdante la temperatura al centro della Terra. Come avrete letto, il nuovo risultato stabilisce una temperatura del centro della Terra a 6000 gradi centigradi, ben 1000 gradi maggiore rispetto al valore precedentemente conosciuto e misurato circa 20 anni fa. Tra l’altro, moltissime fonti enfatizzano il fatto che questi 6000 gradi, misurati al centro del nostro pianeta, sono paragonabili alla temperatura esterna del Sole.

Temperature della Terra dalla superficie al centro

Temperature della Terra dalla superficie al centro

E dunque? Purtroppo, come spesso accade, molti siti sono sempre pronti a pubblicare notizie di carattere scientifico, ma un po’ meno a dare spiegazioni. In realta’, questa misura e’ estremamente complessa ed e’ stata possibile solo grazie alla collaborazione di diversi centri di ricerca. Inoltre, la nuova determinazione della temperatura interna del pianeta, consente di verificare molti modelli riguardanti diversi settori della scienza.

Da quanto detto, credo che questa notizia meriti un piccolo approfondimento, anche solo per capire meglio questi concetti, che sempre affascinano le persone.

Per prima cosa: come e’ stata fatta questa misura?

Ad oggi, sappiamo che, scendendo verso il centro della Terra, ci sono zone ad alta pressione occupate da ferro e zolfo liquidi. Pian piano che ci avvicianiamo al centro pero’, e le pressioni continuano ad aumentare, si trova un blocco di ferro solido, che occupa la parte piu’ interna del nostro pianeta. Come sappiamo questo? L’evidenza di questa composizione, ma anche il volume occupato dalla parte solida e da quella liquida, vengono determinati studiando le onde sismiche dei terremoti di intensita’ maggiore. Cosa significa? Le onde emesse durante un forte sisma, si propagano all’interno della Terra e interagiscono in modo diverso incontrando un volume solido o liquido. Bene, misurando queste interferenze, se volete ascoltando il loro eco, e’ possibile determinare lo spessore del nucleo solido del nostro pianeta. Purtroppo, questi studi non ci danno nessuna informazione sulla temperatura interna della Terra. Per ricavare questi valori e’ necessario procedere in modo diverso.

Arriviamo dunque alla misura in questione. Come potete immaginare, sapendo che nel nucleo e’ presente sia ferro solido che liquido, basta determinare i punti di fusione di questo metallo per arrivare all’informazione cercata. Purtroppo, il discorso non e’ cosi’ semplice. In questo caso, oltre alla temperatura, gioca un ruolo essenziale anche la pressione a cui il ferro e’ sottoposto. Pressione e temepratura sono due variabili indipendenti di cui tenere conto per determinare il punto di fusione del ferro.

Per capire questo importante concetto, vi faccio un esempio noto a tutti. Quando si dice che la temperatura di ebollizione dell’acqua e’ 100 gradi, ci si riferisce alla pressione atmosferica. Come sicuramente avrete sentito dire, esistono delle differenze per questo valore a seconda che vi troviate al mare o in montagna. Questo e’ comprensibile proprio considerando i diversi valori di pressione. In questo caso, possiamo vedere la pressione come il peso della colonna d’aria sopra le nostre teste. Variando il valore della pressione, cambia dunque la temperatura di ebollizione dell’acqua. La stessa cosa avviene per il ferro al centro della terra, ma per valori di temperatura e pressioni molto diversi da quelli a cui siamo abituati.

Quando parliamo di pressioni al centro della Terra, stiamo pensando a valori che si aggirano intorno a qualche milione di atmosfere. Per poter studiare le traformazioni di fase del ferro con questi valori di pressione e temperatura, i ricercatori francesi hanno costruito uno strumento ad hoc, di cui vi mostro uno schema:

Schema dello strumento utilizzato per simulare le pressioni al centro della Terra

Schema dello strumento utilizzato per simulare le pressioni al centro della Terra

Come vedete, una lamina di ferro viene messa tra due diamanti, in modo tale che la punta tocchi la superficie. Spingendo i due diamanti su un punto molto piccolo, si riescono a creare le pressioni richieste per la misura. Per scaldare invece il ferro alle temperature richieste, vengono utilizzati potenti fasci laser in grado di far salire la temperatura fino a diverse migliaia di gradi.

A questo punto, appare evidente che tutto il sistema debba essere isolato termicamente e chimicamente dall’ambiente esterno per impedire perdite di calore ma anche che il ferro reagisca con l’ambiente viziando il risultato. In questo caso, per poter determinare lo stato solido o liquido del campione, si sono utilizzate le emissioni a raggi X del materiale, in modo da poter determinare lo stato fisico, senza perturbare in nessun modo la misura.

Dai modelli sismici utilizzati, nello strato in cui il ferro e’ liquido, si ha una temperatura di 4800 gradi con una pressione di 2.2 milioni di atmosfere, risultato confermato dalla misura. Se pero’ aumentiamo ancora la pressione, analogamente a quanto accade mentre scendiamo vicino la centro della Terra, e la portiamo ad un valore di 3.3 milioni di atmosfere, ci si accorge che per far solidificare il ferro, come osservato dallo studio delle onde sismiche, e’ necessaria una temperatura di 6000 gradi.

Cosa significa questo? Riassumendo, sappiamo dai modelli sismici che il centro della terra e’ di ferro solido circondato da ferro liquido. Con il dispositivo visto, e’ stato possibile determinare che alle pressioni del centro della Terra, affinche’ il ferro sia solido, e’ necessaria una temperatura di 6000 gradi. Bene, questo e’ proprio il valore della temperatura al centro del nostro pianeta e che e’ stato possibile misurare con precisione, solo 500 gradi di incertezza sperimentale, con questa importantissima ricerca.

Come vi avevo anticipato, queto nuovo valore e’ circa 1000 gradi superiore a quello precedente ottenuto 20 anni fa. Perche’ questa differenza? Il sistema usato in precedenza per ottenere le alte pressioni richieste era molto simile a quello odierno. La caratteristica che ha permesso di misurare con precisione la temperatura, e’ lo studio delle transizioni del ferro osservando il tutto ai raggi X. Nella precedente misura, venivano utilizzate onde visibili. Come evidenziato in questa nuova misura, arrivati a circa 5000 gradi, si presentano fenomeni di cristallizzazione superficiale del ferro, che molto probabilemnte sono stati interpretati in passato come l’inizio della transizione nella fase solida, mentre, come visto in questa misura, per arrivare in questo stato, e’ necessario aumentare ancora di 1000 gradi la temperatura.

Ultima importante considerazione: come visto, la temperatura del mantello intorno al nucleo e’ di circa 4800 gradi, cioe’ 1200 gradi inferiore a quella del blocco di ferro solido. Bene, questa differenza di temperatura e’ fondamentale per capire un altro importante parametro del nostro pianeta e di cui spesso abbiamo parlato, il campo magnetico. Come sapete, spesso abbiamo parlato di geomagnetismo per sfatare tutte quelle voci catastrofische che vorrebbero un’inversione dei poli in corso:

Inversione dei poli terrestri

L’anomalia del Sud Atlantico

Il battito naturale …. della Terra

Bene, la differenza di temperatura tra gli strati interni, insieme anche alla rotazione della terra intorno al suo asse, sono proprio i responsabili della generazione del nostro campo magnetico. Per dirlo in parole semplici, l’interno della Terra si comporta come una dinamo in cui le correnti sono correnti termiche spinte dalla differenza di temperatura.

Come vedete, alla luce di quanto detto, e’ abbastanza riduttivo quanto si puo’ leggere sui giornali. Questa misura e’ estremamente interessante dal punto di vista tecnico, ma soprattutto i risultati ottenuti sono di prim’ordine. Come anticipato, i nuovi valori trovati consentiranno di migliorare notevolmente i modelli anche dal punto di vista geologico, utili anche per studiare la propagazione dei terremoti sul nostro pianeta. Detto questo, la misura apre il campo anche a possibili studi per cercare di riprodurre in laboratorio le condizioni di pressione e temperatura presenti in ogni strato del nostro pianeta. Avere una mappa di questo tipo, potrebbe fornire dati estremamente importanti per capire al meglio anche l’origine e l’evoluzione della nostra Terra.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il battito naturale … della Terra

16 Apr

Come sappiamo bene, le speculazioni lanciate in vsita del 21 dicembre 2012, in parte continuano anche oggi per cercare di mantenere attivo l’interesse delle persone a questo genere di eventi.

Tra le tante ipotesi fatte (e ovviamente smentite da quello che NON e’ successo il 21/12) ne abbiamo una che spesso richiama molta attenzione a su cui molti lettori mi hanno chiesto di esprimere il mio parere.

Mi sto riferendo alla cosiddetta “Risonanza di Schumann”, anche detta il battito naturale della Terra.

Cosa sarebbe questa risonanza?

Formalmente, la risonanza di Schumann e’ composta da un gruppo di picchi di risonanza del campo elettromagnetico terrestre con frequenze basse di tipo ELF.

In parole povere?

Meccanismo di formazione della risonanza di Schumann

Meccanismo di formazione della risonanza di Schumann

Riferendoci alla figura a lato, come vedete la nostra Terra e’ circondata da un particolare strato detto ionosfera. Per chi e’ pratico, lo spazio tra il nostro pianeta e appunto la ionosfera agisce come una gigantesca guida d’onda in grado di propagare segnali. Detto in altri termini, i due strati si comportano un po’ come le piastre di un enorme condensatore sferico, la terra caricata negativamente e la ionosfera con carica positiva.

Questa guida d’onda viene eccitata dalle scariche dei fulmini che avvengono in atmosfera e per la sua struttura puo’ essere posta in risonanza per alcune frequenze particolari. Esistono dunque dei valori di frequenza che si propagano con intensita’ maggiore e proprio a questi ci riferiamo parlando di Risonanza di Schumann.

Da quanto detto, appare evidente che ci dovrebbero essere piu’ valori di risonanza ed infatti i valori misurati sono 7.8, 14.3, 20.8, 27.3, 33.8 Hz e altre di intensita’ minore. La frequenza fondamentale, quella a cui ci si riferisce quando si parla di battito naturale della Terra, e’ quella piu’ bassa, pari a 7.8Hz.

Bene, fin qui abbiamo capito cosa sarebbe la risonanza di Schumann e da dove trae origine questo gruppo di frequenze.

Ora, quali sono le ipotesi mosse sulla risonanza di Schumann e che dovrebbero farci capire che ci stiamo avvicinando alla fine del mondo?

Detto in parole molto semplici, secondo alcuni catastrofisti, la frequenza fondamentale sarebbe in costante e continuo aumento. In particolare, quando la frequenza fondamentale raggiungera’ il valore di 13Hz, allora potranno avvenire fenomeni catastrofici a livello mondiale.

Quali eventi dobbiamo attenderci arrivati a 13Hz?

Senza entrare troppo nello specifico, si parla chiaramente di interruzione della rotazione terrestre, seguita poi da una ripresa in verso contrario, annullamento del campo magnetico terrestre e risonanza con la nostra ghiandola pineale in grado di annullare cerebralmente tutti gli esseri umani.

Per prima cosa, non vi e’ assolutamente nessuna misura che mostri un rallentamento della rotazione terrestre con i limiti dichiarati in questi articoli. Inoltre, e’ impensabile che dall’oggi al domani la Terra possa smettere di ruotare per poi riprendere in verso contrario come niente fosse.

Riguado alla diminuzione del campo magnetico terrestre, ne abbiamo parlato in questo post:

Inversione dei poli terrestri

Come visto, il polo nord magnetico e’ in lento e costante movimento. Questo pero’ non significa assolutamente che il valore del campo stia diminuendo anzi, come visto sempre nei post riportati, essendo il campo magnetico un vettore, sommando tutte le componenti si vede come il modulo, se vogliamo il valore complessivo, non stia assolutamente diminuendo nel tempo.

Animazione del cervello con la pineale in rosso

Animazione del cervello con la pineale in rosso

Per quanto riguarda invece la ghiandola pineale, questa e’ una particolare struttura del nostro cervello che regola il rilascio di melatonina. Come sapete, questo ormone regola i meccanismi sonno/veglia e, come vedremo tra poco, proprio questo punto e’ stato sfruttato per convincere di alcune teorie che definire esotiche e’ troppo. Solo per curiosita’, la ghiandola pineale ha da sempre riscosso interesse, anche tra le popolazioni piu’ antiche, perche’ e’ l’unica struttura non replicata nel cervello, essendo posta esattamente al centro.

Chi avrebbe proposto la teoria dell’aumento della frequenza?

Il primo che parlo’ di queste modificazioni della frequenza di Schumann fu Gregg Braden. Braden si definisce un ricercatore del ponte tra scienza e spiritualita’ e basa le sue informazioni su antichi testi e documenti che sarebbero stati consultati nel corso dei suoi viaggi nel centro America. Come e’ facilmente immaginabile, nessuno ha mai visto questi testi ne’ tantomeno Braden ha mai dichiarato dove fossero custodite le sue fonti.

Cosa sostiene dunque Braden?

Secondo questo “ricercatore”, la frequenza di Schumann, come anticipato, sarebbe in rapido aumento e arrivati a 13Hz la popolazione mondiale dovrebbe cadere in un sonno profondo prima di risvegliarsi al cosiddetto “punto zero”. Se ripensate a quanto detto riguardo alla ghiandola pineale e alla melatonina, capite subito come viene creata questa connessione. Inoltre, nel momento in cui si giungera’ ai fatidici 13Hz, la rotazione della terra cessera’, il campo magnetico sparira’, ecc, ecc.

Premesso che non ci sono le fonti per dichiarare una cosa del genere, cerchiamo di capire se effettivamente la frequenza di Schumann sia in aumento come sostenuto. Ovviamente, delle ipotetiche conseguenze abbiamo gia’ parlato, e “disinnescato” la loro pericolosita’. Nonostante questo, cerchiamo  di capire se effettivamente ci sono evidenze dell’aumento della frequenza fondamentale.

Come accade per molti parametri della Terra, anche la frequenza di Schumann viene continuamente monitorata da diversi istituti e enti in giro per il mondo. Perche’ lo fanno? Ovviamente non perche’ preoccupati da quanto dice Braden, ma solo per ambiti di ricerca. La frequenza di Schumann rappresenta un importante parametro in relazione, ad esempio, ai fenomeni dell’inquinamento, al numero di fulmini che avvengono nel mondo, ma anche come monitoraggio del riscaldamento globale. Detto questo, appare evidente il perche’ questa frequenza sia monitorata con tanto interesse.

Ovviamente, avere diverse stazioni di monitoraggio nel mondo, ci consente di verificare immediatamente quanto sostenuto da Braden. Vi riporto un grafico estrapolato dal database del NCEDC della California e che mostra proprio i valori misurati per questo parametro:

Valori della frequenza di Schumann misurati nel corso del tempo

Valori della frequenza di Schumann misurati nel corso del tempo

Tra sinistra e destra trovate solo lo stesso parametro posto su due scale temporali differenti, ma sostanzialmente quello che conta e’ l’andamento. Bene, secondo Braden, la frequenza avrebbe gia’ raggiunto i 10Hz e sarebbe ancora in rapida crescita. Voi vedete i 10Hz, ma soprattutto la rapida crescita negli anni? Ovviamente, la risposta e’ no!

Le oscillazioni visibili nel grafico, dell’ordine dei 0,3Hz, sono delle normali oscillazioni stagionali, da sempre studiate, e ben comprese a livello scientifico.

Portando come prova dati scientifici veri, non chiacchiere da bar, possiamo dunque smentire immediatamente quanto sostenuto da Braden. Non vi e’ assolutamente nessun aumento in corso della frequenza fondamentale di Schumann e, come visto, anche le ipotesi sulle conseguenze del punto zero, possono essere facilmente smentite sempre portando dati scientifici inconfutabili.

Nell’ultimo periodo poi, sono stati fatti egli studi per cercare di mettere in relazione la frequenza di Schumann con dei meccanismi cerebrali particolari. Al contrario di quanto vorrebbero farvi credere su alcuni siti, si tratta di normalissimi studi scientifici che tendono a trovare le relazioni tra il nostro cervello, in particolare il comportamento di alcune ghiandole, e questa risonanza in cui siamo costantemente immersi. Senza dover citare dati e prove, la frequenza di Schumann viene creata dalla struttura stessa della nostra Terra. C’e’ oggi, come c’era ieri e come c’era 1000 anni fa. Dimostrato il valore costante di questo parametro, non vedo proprio nessuna connessione tra questa frequenza e strani meccanismi cerebrali che dovrebbero insorgere oggi.

Concludendo, la risonanza di Schumann e’ un gruppo di frequenze caratteristiche che vengono create nella guida d’onda tra la Terra e la ionosfera. Si tratta di onde ELF da sempre presenti e, come visto dai dati, costanti nel tempo. Detto questo, sono completamente assurde le ipotesi portate circa il continuo aumento della frequenza fondamentale, cosi’ come le idee catastrofiste che dovrebbero realizzarsi quando la frequenza raggiungera’ i 13Hz.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E parliamo di questo Big Bang

9 Apr

Dal momento che, in questo post:

Il primo vagito dell’universo

e in molti altri ancora, abbiamo parlato di nascita ed evoluzione del nostro universo, credo sia giunto il momento di dedicare un articolo apposito su questi concetti. Premetto, che cerchero’ di matenere un profilo piu’ semplice e divulgativo possibile, anche se ci stiamo addentrando in teorie, e spesso anche supposizioni, fisiche non del tutto banali. In questo senso, cerchero’ il piu’ possibile di utilizzare esempi anche volutamente forzati proprio per rendere il tutto maggiormente accessibile a tutti.

Partiamo dalle basi. Allo stato attuale della nostra conoscenza, la teoria maggiormente accettata all’orgine dell’universo e’ quella per cui il tutto si sarebbe formato da un’esplosione iniziale chiamata appunto Big Bang. Come visto nell’articolo precedentemente riportato, non dobbiamo immaginare questo evento come un classico boato, da cui tutti si sarebbe formato, bensi’ come un processo di espansione, anche non costante e molto veloce in alcuni istanti, ma che dura tutt’ora.

Perche’ e’ avvenuto il Big Bang?

Immaginiamo di fissare una scala temporale all’istante iniziale, cioe’ nel momento stesso in cui e’ iniziato il Big Bang. Per dirlo con parole semplici, immaginate di avere un cronometro e di farlo partire nel mometo in cui inizia questa espansione. Secondo la teoria, prima che iniziasse il big bang, materia e antimateria convivevano insieme in una singolarita’, cioe’ costituivano un volume, al limite occupante un punto, estremamemente denso e a temperatura elevatissima. Nella concezione fisica, in questa fase non esistevano le particelle, il tempo e le forze.

Poi cosa e’ successo?

Quando il sistema e’ divenuto instabile, dopo un tempo pari a 10^(-43) secondi, e’ avvenuta quella che si chiama la prima transizione di fase. Cosa significa? Le particelle si sono formate da questo plasma iniziale e ognuna di loro aveva un’energia molto elevata detta “energia di Planck”. In questa fase, detta di Grande Unificazione, tutte le forze, compresa quella gravitazionale, erano unificate, cioe’ si manifestavano come un’unica interazione.

Bene, fermiamoci un attimo e cerchiamo di capire meglio. Al punto in cui siamo arrivati, il big bang e’ gia iniziato. Le particelle cosi’ come le forze, anche se ancora unificate, si sono formate. Riprendiamo dall’inizio. Al tempo iniziale, cioe’ prima che iniziasse l’espansione, materia e antimateria convivano insieme. Dopo un tempo brevissimo, quando si formano le particelle, dopo 10^(-43) secondi, ci sono ancora materia e antimateria, appena 10^(-6) secondi dopo l’inizio, rimane solo materia.

Dove e’ finita l’antimateria?

Per chi lo avesse perso, abbiamo parlato in dettaglio di antimateria in questo post:

Due parole sull’antimateria

Il nostro attuale universo e’ formato solo da materia. L’antimateria e’ scomparsa. Perche’? Affiche’ questo sia possibile, e dunque sia iniziato il big bang, la fisica ci dice che devono essere state verificate le 3 condizioni di Sakharov. Senza entrare troppo nel dettaglio, in questa ipotesi, ci deve essere stata un’asimmetria tra materia e antimateria, che ha portato allo squilibrio che vediamo oggi. In particolare, in questo contesto si parla appunto di violazione di CP, cioe’ proprio di squilibrio della simmetria materia-antimateria nell’universo.

E’ possibile che siano rimaste delle sacche di antimateria da qualche parte oppure che l’universo sia formato da due distinte zone, una di materia ed una di antimateria?

La risposta e’ no. Capiamo il perche’. Quando entrano in contatto, materia e antimateria si annichilano, cioe’ ineragiscono distruggendosi a vicenda, e producendo radiazione gamma, cioe’, in linea di principio forzando l’esempio, luce. Se esistessero zone ben delimitate di materia e antimateria, nel punto di separazione tra di esse, si avrebbe annichilazione con la conseguente produzione di raggi gamma. Di questa radiazione non vi e’ nessuna evidenza ne’ dagli osservatori a Terra, ne’ dai satelliti, ne’ tantomeno dalle missioni esplorative che abbiamo mandato nello spazio.

Le condizioni di Sakharov offrono dunque un modello teorico in grado di spiegare perche’ potrebbe essere avvenuto questo squilibrio e quindi sia iniziato il big bang. Dico “potrebbe” perche’ al momento non tutte le condizioni sono state verificate e grande aiuto in questo senso dovrebbe venire dallo studio della fisica delle particelle agli acceleratori. Aprendo una piccola parentesi, quando in un acceleratore facciamo scontrare due fasci, questi interagiscono tra loro ad altissima energia. Man mano che aumentiamo l’energia, utilizzando sistemi sempre piu’ potenti, e’ come se andassimo indietro nel tempo tendendo verso il big bang. Ovviamente le energie oggi disponibili sono ancora molto lontane da quella iniziale, ma questo genere di studi ci consentono di comprendere molte cose importanti sul mondo delle particelle elementari.

Dunque, ricapitolando, abbiamo un sistema iniziale materia-antimateria, intervengono le condizioni di Sakharov e il sistema inizia ad espandersi facendo scomparire l’antimateria. Inizialmente le forze erano tutte unificate e le particelle si scontravano tra loro ad altissima energia.

Dopo, cosa e’ successo?

Man mano che il tempo scorreva, si passo’ attraverso varie fasi, ognuna caratterizzata da una rottura di simmetria di qualche tipo. In tal senso, le forza si divisero tra loro, lasciando quelle che oggi indichiamo come forze fondamentali: forte, debole, elettromagnetica e gravitazionale. In particolare, quest’ultima fu la prima a separarsi non appena la temperatura inizio’ a scendere e le onde gravitazionali poterono propagarsi liberamente.

Qualche minuto dopo l’istante iniziale, le particelle, cioe’ protoni e neutroni, poterono iniziare a combianrsi formando nuclei di Deuterio ed Elio. Questa importante fase viene chiamata “nucleosintesi”.

La temperatura dell’universo era pero’ ancora troppo elevata. Per osservare la formazione dei primi atomi, si dovette aspettare ancora circa 379000 anni, quando materia e radiazione finalmente si separarono e quest’ultima pote’ viaggiare libera nel cosmo. Di questo preciso istante, abbiamo anche parlato in questo post:

Universo: foto da piccolo

in cui, come visto, si ebbe la formazione della radiazione di fondo che oggi, alla temperatura attuale, e’ di 2.7K con uno spettro nelle microonde.

Dopo questa fase, gli addensamenti di materia cominciarono ad attrarsi gravitazionalmente, formando poi le galassie, le stelle, i pianeti, ecc, cioe’ , quello che vediamo oggi osservando l’universo.

Ma esistono delle prove di tutto questo? E se in realta’ il big bang non fosse mai avvenuto?

Come visto in altri post, ma anche come comprensibile da quanto detto, proprio la radiazione di fondo costituisce una prova del big bang. Detto in altri termini, la CMB non sarebbe altro che un’eco di quanto avvenuto, cioe’ un reperto fossile dell’esplosione iniziale.

Inoltre, la velocita’ di espansione delle Galassie, misurata per la prima volta da Hubble, costituisce un’altra prova a sostegno di questa teoria.

Partendo da quest’ultimo concetto, una domanda lecita che chiunque potrebbe farsi e’: “dove e’ avvenuto il Big Bang?”

Modello dell'espansione dal Big Bang

Modello dell’espansione dal Big Bang

In tal senso, se inizialmente si aveva un punto da cui poi tutto si e’ espanso, immaginando un rewind dovremmo essere in grado di identificare il punto iniziale del big bang. In realta’, non e’ cosi’. I fisici sono soliti dire che il Big Bang e’ avvenuto ovunque o anche che ogni punto dell’universo e’ un centro di espansione.

Che significa?

L’espansione dello spazio tempo avviene in piu’ di tre dimesioni, per cui non e’ facile immaginare a mente cosa sia avvenuto. Per capire questo concetto, immaginate l’universo come un palloncino inizialmente sgonfio. Ora, prendendo un pennarello, fate dei puntini sulla superificie. Se le pareti del palloncino sono l’universo che si espande, mentre gonfiate il palloncino, ciascun punto, tra quelli che avete disegnato, vedra’ gli altri allontarsi da lui. In questo contesto, ciascun punto e’ centro dell’espansione, cioe’ ogni punto vede gli altri punti allontarsi da lui in tutte le direzioni. L’animazione riportata potra’ aiutarvi a capire meglio questo discorso. Fissando un punto, tutti gli altri si allontanano da questo, indipendentemente da quello che scegliete come vostro centro. Dunque, se osservate l’universo dalla Terra, vedrete tutti gli altri corpi allontarsi da noi, come se la Terra fosse il centro dell’espansione.

Concludendo, esistono diverse prove sperimentali a sostegno del Big Bang, cioe’ di questa esplosione iniziale da cui, partendo da uno stato di equilibrio materia-antimateria, tutto si e’ formato passando attraverso diverse rotture di simmetrie. Ad oggi, o forse mai, nessuno potra’ spiegare perche’ questa materia e antimateria erano li o cosa c’era prima di questo equilibrio. Se volete, ognuno, con il suo pensiero e la sua convinzione, puo’ dare la sua spiegazione. I processi di evoluzione dal tempo zero, sono ipotizzati, ma ancora molto lavoro resta da fare per verificare queste teorie e capire a fondo perche’, come e con che intensita’ sino avvenuti determinati meccanismi. Insomma, di lavoro da fare ce n’e’ ancora molto.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.