Tag Archives: spettro

Ma questa crema solare …. come dobbiamo sceglierla?

30 Giu

Sempre alla nostra sezione:

– Hai domande o dubbi?

va il merito, ma ovviamente tutto il merito va a voi che rendete questo blog vivo ed interessante, di aver richiamato da una nostra cara lettrice una nuova interessantissima domanda. Questa volta però, vi preannuncio che l’argomento scelto è molto complesso nella sua apparente semplicità, oltre ad essere assolutamente in linea con il periodo dell’anno. Come potete leggere, la domanda riguarda le creme solari e tutte le leggende che girano, non solo in rete, e che da sempre abbiamo ascoltato.

Come anticipato, non è semplice cercare di trovare la giusta strada nella giungla di informazioni disponibili. Se provate a confrontare dieci fonti, troverete dieci versioni diverse: le creme solari devono essere usate. No, non devo essere usate. Il sole è malato. Il sole provoca il cancro. No, sono le creme che creano il cancro alla pelle. Insomma, di tutto di più, e non pensate di rifuggire nella frase: “mi metto sotto l’ombrellone”, perché, come vedremo, anche questo lascia filtrare alcune componenti dei raggi solari e, sempre scimmiottando quello che trovate in rete, vi può venire il cancro. Allora sapete che c’è? Me ne sto chiuso dentro casa fino a settembre! Va bene così? No, sicuramente non prendi il sole (e quindi non ti viene il cancro), ma non ti si fissa la vitamina D e quindi potresti soffrire di rachitismo.

Insomma, come la mettete la mettete, sbagliate sempre. Cosa fare allora? Sicuramente, in linea con il nostro stile, quello che possiamo fare è “andare con ordine” e provare a verificare quali e quante di queste affermazioni corrispondono al vero. Solo in questo modo potremo capire quale crema solare scegliere, come applicarla e quali sono i rischi che possiamo correre con l’esposizione al Sole.

Prima di tutto, non dobbiamo considerare i raggi solari come un’unica cosa, ma è necessario distinguere la radiazione che ci arriva. Questa suddivisione è essenziale perché l’interazione della nostra pelle con i fotoni emessi dal sole non è sempre uguale, ma dipende dalla lunghezza d’onda. Bene, in tal senso, possiamo distinguere la parte dei raggi solari che ci interessa in tre grandi famiglie, in particolare, per i nostri scopi, ci concentreremo sulla parte ultravioletta dello spettro, che è quella di interesse in questo campo.

La parte cosiddetta ultravioletta è quella con lunghezza d’onda immediatamente inferiore alla parte visibile. Normalmente, questa parte dello spettro viene divisa in UVA, con lunghezza d’onda tra 400 e 315 nanometri, UVB, tra 315 e 280 nanometri e UVC, tra 280 e 100 nanometri. Quando parliamo di tintarella o di danni provocati dalla radiazione solare, dobbiamo riferirci alla parte UV ed in particolare a queste 3 famiglie.

Bene, la componente più pericolosa della radiazione solare è quella degli UVC cioè con lunghezza d’onda minore. Perché? Sono radiazioni utilizzate come germicidi, ad esempio nella potabilizzazione dell’acqua, a causa del loro potere nel modificare il DNA e l’RNA delle cellule. Per nostra fortuna, questa componente della radiazione è completamente bloccata dallo strato di ozono che circonda la Terra. Di questo, e soprattutto dello stato di salute dello strato di ozono, abbiamo parlato in un post specifico:

– Che fine ha fatto il buco dell’ozono?

Per la parte più pericolosa dello spettro, quella degli UVC, possiamo dunque tirare un respiro di sollievo. Vediamo le altre due componenti.

Gli UVA, a causa della lunghezza d’onda maggiore, penetrano più a fondo nella pelle, promuovendo il rilascio di melanina e dunque l’abbronzatura. Che significa? Molto semplice, quando prendiamo il sole, la nostra pelle reagisce cercando di proteggersi autonomamente appunto rilasciando melanina. Questa sostanza serve a far scurire gli strati più superficiali della pelle appunto come protezione dai raggi. Riguardo ala dannosità? Su questo punto, purtroppo, non si ha ancora chiarezza. Per prima cosa, dobbiamo dire che l’esposizione crea meno danni a tempi brevi rispetto, come vedremo, a quella agli UVB. Questa componente però è una delle maggiori sospettate per i danni a lungo termine, connessi anche con l’insorgere di tumori alla pelle, e provoca un invecchiamento veloce della pelle. Gli UVA sono molto conosciuti da coloro che frequentano i centri estetici per sottoporsi alle “lampade”. Questi sistemi infatti hanno sistemi di illuminazione concentrati negli UVA appunto per promuovere un’abbronzatura rapida.

Per quanto riguarda gli UVB invece, si tratta della radiazione più pericolosa nell’immediato. Questa componente dello spettro solare infatti, è responsabile della classica “scottatura”, in alcuni casi vera e propria ustione, provocata da un’esposizione prolungata al Sole. Anche se potenzialmente dannosa, la radiazione UVB è comunque importante per il nostro organismo perché promuove la sintesi della vitamina D. Come è noto, in assenza di questo fondamentale processo possono insorgere casi di rachitismo, soprattutto in soggetti non ancora adulti.

Bene, abbiamo capito come è divisa la radiazione ultravioletta del sole e abbiamo finalmente capito a cosa si riferiscono tutti questi nomi che siamo soliti ascoltare o leggere riguardo la tintarella.

Passiamo dunque a parlare di creme solari. Cosa dobbiamo cercare? Perché? Quali sono i prodotti più indicati?

Ripensando a quanto scritto, viene evidente pensare che una buona crema debba proteggerci dagli UVA e UVB poiché per gli UVC ci pensa lo strato di ozono. Primo pensiero sbagliato! Quando acquistiamo una crema solare, che, come vedremo, offre una certa protezione, questo valore si riferisce alla sola componente B della radiazione. Perché? Semplice, come visto, gli UVB sono responsabili delle scottature immediate. Se ci proteggiamo da questa componente salviamo la pelle garantendo la tintarella. Questo è assolutamente falso, soprattutto pensando ai danni a lungo termine dati da un’esposizione troppo prolungata agli UVA.

Solo negli ultimi anni, sono comparse sul mercato creme con protezioni ad alto spettro. Fate bene attenzione a questa caratteristica prima di acquistare un qualsiasi prodotto. Una buona crema deve avere un fattore di protezione per gli UVA non inferiore ad 1/3 di quello garantito per gli UVB.

Ora però, anche seguendo quanto affermato, parliamo appunto di queste protezioni. Fino a qualche anno fa, ricordo benissimo gli scaffali dei negozi strapieni di creme solari con fattori di protezione, SPF cioè fattore di protezione solare, che andavano da 0 a qualcosa come 100. Già allora mi chiedevo, ma che significa zero? A che cosa serve una crema con protezione 0 e, allo stesso modo, protezione 100 o, come qualcuno scriveva “protezione totale”, significa che è come mettersi all’ombra?

Capite già l’assurdità di queste definizioni create solo ed esclusivamente a scopo commerciale. Fortunatamente, da qualche anno, è stata creata una normativa apposita per questo tipo di cosmetici aiutando il consumatore a comprendere meglio il prodotto in questione. Oggi, per legge, esistono solo 4 intervalli di protezione che sono: basso, medio, alto e molto alto. Questi intervalli, in termini numerici, possono essere compresi utilizzando la seguente tabella:

 

Protezione SPF

Bassa 6 – 10

Media 15 – 20 – 25

Alta 30 – 50

Molto alta 50+

Notiamo subito che sono scomparse quelle orribili, e insensate, definizioni “protezione zero” e “protezione totale”. Ma, in soldoni, cosa significa un certo valore di protezione? Se prendo una crema con SPF 30 è il doppio più efficace di una con SPF 15? In che termini?

Detto molto semplicemente, il valore numerico del fattore di protezione indica il tempo necessario affinché si creino scottature rispetto ad una pelle non protetta. Detto in questo modo, una SPF 15 significa che la vostra pelle si brucerà in un tempo 15 volte maggiore rispetto a quello che impiegherebbe senza quella crema. Dunque, anche con una crema protettiva posso scottarmi? Assolutamente si. In termini di schermo alla radiazione, il potere schermante non è assolutamente proporzionale allo SPF ma, come visto, solo ai tempi necessari per l’insorgere di scottature.

A questo punto, abbiamo capito cosa significa quel numerello che corrisponde al fattore di protezione, ma come fanno le creme a schermare effettivamente dai raggi solari?

Per rispondere a questa domanda, dobbiamo in realtà dividere la protezione in due tipi: fisico e chimico. La protezione fisica avviene in modo pressoché meccanico aumentando il potere riflettente della pelle. Per questo scopo, nelle creme solari sono presenti composti come il biossido di titanio e l’ossido di zinco, sostanze opache che non fanno altro che far riflettere verso l’esterno la radiazione solare che incide sul nostro corpo.

Primo appunto, secondo alcuni l’ossido di zinco potrebbe essere cancerogeno! Ma come, mi metto la crema per proteggermi dai raggi solari ed evitare tumori alla pelle e la crema crea tumori alla pelle? In realtà, come al solito, su questo punto si è fatta molta confusione, tanto terrorismo e si è corsi, per convenienza, a conclusioni affrettate. Alcune ricerche hanno mostrato come tessuti cosparsi di molecole di ossido di zinco e sottoposti ad irraggiamento UV possano sviluppare radicali liberi che a loro volta reagiscono con le cellule modificandone il DNA. Questo processo può portare alla formazione di melanomi, per la pelle, e di altri tumori, per le altre cellule. Ora, si tratta di studi preliminari basati su valori di irraggiamento più alti rispetto a quelli che normalmente possono derivare da un’esposizione, anche prolungata, anche nelle ore centrali della giornata, al Sole. Detto molto semplicemente, questi studi necessitano di ulteriori ricerche per poter definire margini di errore e valori corretti. Gli stessi autori di queste analisi preliminari si sono raccomandati di non male interpretare il risultato dicendo che le creme solari provocano il cancro alla pelle. In altre parole, si corrono più rischi non proteggendosi dal sole piuttosto che proteggendosi con una crema contenente ossido di zinco. Tra le altre cose, questa molecola è molto nota tra le mamme che utilizzano prodotti all’ossido di zinco per alleviare le ustioni da pannolino nei loro bambini.

Detto questo, abbiamo poi la protezione chimica. Come potete facilmente immaginare, in questo caso si tratta di una serie di molecole (oxibenzone, fenilbenzilimidazolo, acido sulfonico, butil metoxidibenzoilmetano, etilexil metoxicinnamato, ecc.) che hanno il compito di assorbire la radiazione solare e di cedere parte di questa energia sotto forma di calore. Perché possiamo trovare così tante molecole in una crema solare? Semplice, ognuna di queste è specifica per una piccola parte dello spettro di radiazione, sia UVA che UVB. Anche su queste singole molecole, ogni tanto qualcuno inventa storie nuove atte solo a fare terrorismo, molto spesso verso case farmaceutiche. Singolarmente, come nel caso dell’ossido di titanio, ci possono essere studi più o meno avanzati, più o meno veritieri, sulla pericolosità delle molecole. Anche qui però, molto spesso si tratta di effetti amplificati, ben oltre la normale assunzione attraverso la cute e, ripeto per l’ennesima volta, si rischia molto di più esponendosi al sole piuttosto che utilizzando creme solari.

Ennesima cavolata in voga fino a qualche anno fa e ora vietata: creme solari “water proof”, cioè creme resistenti completamente all’acqua. Ve le mettete una volta, fate quanti bagni volete e siete a posto. Ma secondo voi, è possibile qualcosa del genere? Pensate di spalmarvi una crema o di farvi un tatuaggio indelebile? Oggi, per legge, la dicitura water proof è illegale e ha lasciato spazio, al massimo, a “water resistant”, cioè resistente all’acqua. Una qualsiasi crema solare, a causa del bagno, del sudore, del contatto con il telo, tende a rimuoversi e, proprio per questo motivo, si consiglia di riapplicare la crema ogni 2-3 ore circa per garantire la massima protezione possibile.

Riassumendo, abbiamo capito che conviene, sempre ed in tutti i casi, utilizzare una crema solare protettiva, ma quale scegliere?

Molto brevemente, in questo caso, si deve valutare quello che è definito il proprio fenotipo. Come potete immaginare, si tratta di una serie di caratteristiche fisiche che determinano, in linea di principio, l’effetto dell’esposizione la Sole. Per poter determinare il proprio fenotipo, possiamo fare riferimento a questa tabella:

fenotipo

Ovviamente, per i valori più bassi (I e II) è consigliabile utilizzare una crema ad alto SPF, valore che può diminuire qualora fossimo meno soggetti a scottature ed ustioni.

Credo che a questo punto abbiamo un quadro molto più chiaro riguardo alla creme solari ed alla loro utilità. Ripeto, per l’ennesima volta, in ogni caso, proteggersi è sempre meglio che esporsi al sole senza nessuna protezione. Ultimo appunto, che vuole sfatare un mito molto diffuso, sotto l’ombrellone siamo comunque esposti alla radiazione solare. In primis, il tessuto di molti ombrelloni lascia passare buona parte dello spettro solare ma, soprattutto, la riflessione dei raggi solari, ad esempio ad opera della sabbia, raggiunge comunque un soggetto tranquillo e (falsamente) riparato sotto l’ombrellone. In genere, la riflessione dei raggi solari può incrementare, e anche molto, la quantità di radiazione a cui siamo esposti. Stando nell’acqua, ad esempio, abbiamo sia un’esposizione diretta ai raggi solari sia una indiretta dovuta ai raggi riflessi dalla superficie. Come potete immaginare questo amplifica molto l’esposizione.

Concludendo, utilizzate le creme solari ma, soprattutto, leggete bene le etichette prima di acquistare o, peggio ancora utilizzare, un qualsiasi prodotto. Ovviamente, qualsiasi prodotto diventa non efficace se unito alla nostra incoscienza. Se pensate di potervi spalmare una crema e stare come lucertole sotto il Sole dalle 10 del mattino al tramonto … forse questa spiegazione è stata inutile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Fascio di anti-idrogeno? FATTO!

22 Gen

Uno degli aspetti della fisica che suscita maggior interesse nei non addetti ai lavori e’ senza dubbio il concetto di antimateria. Molto probabilmente, il motivo di questo interesse e’ da ricercarsi nelle tante storie fantascientifiche che sono state ispirate dall’esistenza di un qualcosa molto simile alla materia, se non fosse per la carica delle particelle che la compongono, che era presente prima del Big Bang ma che ora sembra totalmente scomparsa. Inoltre, come tutti sanno, se materia e antimateria vengono messe vicine tra loro si ha il fenomeno dell’annichilazione, qualcosa di assolutamente esotico nella mente dei non addetti ai lavori e che ha offerto trame sensazionali per tanti film e serie TV.

Come detto tante volte, dobbiamo fare una distinzione precisa tra quelle che chiamiamo antiparticelle e quella che invece viene intesa come antimateria. Cosi’ come avviene per la materia ordinaria, composta di particelle che, in questo schema, possiamo pensare come elettroni, protoni e neutroni, l’antimateria e’ a sua volta composta da anti-particelle. Spesso si tende a confondere questi due concetti, facendo, come si suole dire, di tutta l’erba un fascio.

Produrre anti-particelle e’ semplice e siamo in grado di farlo gia’ da diversi anni. Per darvi un esempio, molti collisori utilizzati per la ricerca nella fisica delle alte energie fanno scontrare fasci di particelle con antiparticelle. In questo contesto, molto usati sono i positroni, cioe’ gli anti-elettroni, e gli anti-protoni.

Completamente diverso e’ invece il caso dell’antimateria.

Per formare anti-atomi e’ necessario assemblare insieme le anti-particelle per comporre qualcosa simile nella struttura alla materia, ma composto a partire da mattoncini di anti-particelle.

Di questi concetti abbiamo gia’ parlato in articoli precedenti che trovate a questi link:

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

Come anticipato, prima del Big Bang, erano presenti in eguale quantita’ materia e anti-materia. Ad un certo punto pero’, l’anti-materia e’ scomparsa lasciando il posto solo alla materia che ha poi formato l’universo che vediamo oggi. Anche se questo meccanismo e’ in linea di principio ipotizzato dalla fisica, ci sono ancora punti da chiarire in quella che viene chiamata “asimmetria materia-antimateria”. Anche di questo abbiamo gia’ parlato in questi articoli:

E parliamo di questo Big Bang

Ancora sullo squilibrio tra materia e antimateria

Se, da un lato, produrre antiparticelle e’ semplice, metterle insieme per formare antiatomi non e’ assolutamente banale.

Nel 2011 al CERN di Ginevra era stato annunciato per la prima volta un risultato molto importante: atomi di anti-idrogeno erano stati formati e osservati per un tempo di circa 1000 secondi prima si scomparire. Questa osservazione aveva permesso di osservare alcune importanti proprieta’. Nel 2012, sempre al CERN, un altro esperimento era riuscito a misurare altre importanti proprieta’ di questi anti-atomi, facendo ben sperare per il futuro.

Ora, invece, sempre il CERN ha annunciato di essere riuscito per la prima volta a produrre addirittura un fascio di anti-idrogeni. L’annuncio ‘e stato dato sul sito del laboratorio svizzero:

CERN, ASACUSA NEWS

e pubblicato sull’autorevole rivista Nature.

La scoperta e’ stata realizzata dalla collaborazione internazionale ASACUSA, di cui fanno parte anche alcuni ricercatori del nostro Istituto Nazionale di Fiscia Nucleare.

Cosa sarebbero questi anti-idrogeni?

Seguendo il ragionamento fatto, questi speciali atomi sono composti dagli analoghi di antimateria di protone e elettrone. Se l’idrogeno ha un nucleo composto da un protone con un elettrone che gira intorno, un anti-idrogeno e’ composto da un anti-protone, carico negativamente, e un positrone che gira intorno, carico positivamente. Come potete facilmente capire, in questo gioco di costruzione di atomi, siamo alla struttura piu’ semplice conosciuta ma, come vedremo tra poco, fondamentale per la comprensione dell’universo.

Come e’ stato fatto questo esperimento?

L'esperimento ASACUSA del CERN

L’esperimento ASACUSA del CERN

Senza annoiarvi con tecnicismi, gli anti-idrogeni sono prodotti da un deceleratore di antiprotoni e poi allontanati dal punto di produzione ad una distanza sufficiente a non risentire dei campi magnetici. Questo accorgimento e’ fondamentale per stabilizzare gli anti-atomi che altrimenti si scomporrebbero scomparendo. Come vedete nella foto riportata, la camera da vuoto utilizzata e’ infatti un lungo tubo e gli anti-idrogeni sono stati osservati e immobilizzati ad una distanza di quasi 3 metri dal punto di produzione.

Perche’ e’ cosi’ importante l’anti-idrogeno?

La sua semplicita’ rispetto agli atomi piu’ pesanti, sia per materia che per anti-materia, ha fatto si che questi siano stati i primi atomi stabili creati nell’universo in espansione. Secondo la teoria, idrogeno e anti-idrogeno dovrebbero avere esattamente lo stesso spettro di emissione. Poter disporre in laboratorio di un fascio stabile di anti-atomi consentira’ di studiare a fondo le caratteristiche di questa struttura analizzando nei minimi dettagli ogni minima possibile discrepanza con l’idrogeno. Queste caratteristiche aiuterebbero notevolmente nella comprensione dell’asimmetria tra materia e anti-materia dando una notevola spinta in avanti nella comprensione della nascita del nostro universo e nella ricerca di ogni possibile accumulo di anti-materia.

Concludendo, questa importante notizia apre nuovi scenari nello studio della fisica di base, offrendo un’occasione fondamentale per comprende il nostro universo. Come spesso avviene, molti siti e giornali si sono lanciati in speculazioni parlando di pericoli o applicazioni fantascientifiche che lasciano un po’ il tempo che trovano. Sicuramente, il futuro in questa branca della ricerca ha ancora molto da offrire e non possiamo che essere entusiasti delle novita’ che ancora ci attendono.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

EQL: le luci prima del sisma

4 Gen

Nella sezione appositamente creata:

Hai domande o dubbi?

un nostro carissimo lettore ci ha segnalato un articolo comparso sui giornali a diffusione nazionale riguardante i terremoti ed, in particolare, alcuni segnali che potrebbero essere identificati come precursori di un sisma.

Di cosa stiamo parlando?

Come potete leggere nel commento iniziale, l’articolo in questione si riferisce alle cosiddette EQL, acronimo che sta per Earthquake Lights, cioe’ “luci del terremoto”. Con questo termine is intendono particolari fenomeni luminosi che possono avvenire in concomitanza, o anche diverso tempo prima, un sisma di elevata inensita’. Dal momento che un’immagine vale sicuramente piu’ di tante parole, gli EQL sono fenomeni di questo tipo:

Earthquake Light

Earthquake Light

Come vedete, si tratta di un effetto luminoso che compare come un flash di luce che puo’ durare anche diversi minuti, con colorazioni bianche o che possono comprendere anche piu’ colori dello spettro. La loro posizione non e’ sempre definita ma puo’ andare da altezze elevate fino a pochi centimetri da terra.

L’articolo segnalato afferma che finalmente i ricercatori hanno trovato la reale spiegazione di questi fenomeni sulla cui origine c’era molta confusione e diverse teorie citate. Purtroppo, l’articolo non si limita a dire questo, ma si lancia in supposizioni che lasciano un attimo interdetti. Qualora non lo aveste ancora fatto, vi invito a leggere l’articolo in questione:

Articolo EQL

Non solo si parla di EQL e di questa spiegazione finalmente arrivata, ma si afferma che questi sono senza dubbio dei segnali precursori dei sismi e, soprattutto, conclude con una affermazione alquanto discutibile su un prossimo terremoto catastrofico che avverra’ in Cina in una regione compresa in una striscia di soli 60 Km.

Purtroppo, come sappiamo bene, molto spesso alcuni giornalisti, e non mi riferisco solo al firmatario di quello segnalato visto che le stesse informazioni, piu’ o meno romanzate, le trovate anche su altri giornali, si lasciano prendere un po’ troppo la mano, non rendendosi conto di quello che affermano e soprattutto del panico che articoli di questo tipo possono portare nella popolazione.

Cerchiamo di andare con ordine, capendo prima di tutto cosa si e’ scoperto riguardo alle EQL. Senza dover inventare nulla, possiamo dare il link all’abstract e al riassunto del famoso articolo citato dai giornali:

Abstract

Supplemento all’articolo

Purtroppo, non possiamo dare link all’articolo completo dal momento che e’ pubblicato su una rivista a pagamento.

Prima di tutto, come potete leggere autonomamente, nell’articolo viene fatto uno studio approfondito su alcuni terremoti specifici che si sono avuti nel corso degli anni e su cui ci sono testimonianze di EQL osservate in concomitanza con il sisma principale. Cosa si ottiene da questa analisi? Il fenomeno delle luci sismiche non avviene assolutamente per tutti i sismi, ma solo per alcuni casi specifici in cui si ha un terremoto originato da faglie subverticali con angoli intorno ai 30-35 gradi. Come sappiamo bene, i terremoti sono dovuti al movimento della faglia, movimento che non e’ sempre identico a se stesso ma puo’ avvenire lungo piani ed in direzioni diverse. Bene, per alcuni casi specifici, come quelli descritti, si sono registrati, ma solo in alcuni casi, i fenomeni delle EQL.

Ragionate su questo punto. Il fenomeno e’ stato osservato solo per alcuni terremoti che avvengono con dinamiche particolari. Bene, cosa vi fa capire questo? Semplice, le EQL, allo stato attuale, non possono essere considerate un precursore sismico per ovvi motivi. Prima di tutto, non avvengono per qualsiasi terremoto, non avvengono sempre per un determinato terremoto e, inoltre, ci sono casi in cui sono state osservate anche senza un terremoto di grande intensita’.

Di cosa stiamo parlando? Ovviamente di un fenomeno fisico molto interessante che merita e deve essere studiato. Parlare pero’ di precursore sismico in questo caso e’ fare puramente terrorismo psicologico nelle persone.

A questo punto, cerchiamo anche di rispondere alla domanda iniziale fatta sull’articolo: perche’ avvengono questi fenomeni? L’ipotesi fatta nell’articolo e’ che durante il terremoto, il movimento del terreno negli strati intorno all’epicentro liberi elettroni o altri portatori di carica. Ora, queste cariche possono venire accelerate dalle onde sismiche, che sono ovviamente onde meccaniche, e, sfruttando anche aperture, arrivare in movimento verso la superficie. Nell’articolo si parla infatti di correnti, cioe’ di cariche elettriche in movimento. Arrivate in superficie, queste correnti possono in alcuni casi ionizzare le molecole d’aria che a loro volta si diseccitano emettendo fotoni nel visibile. Lunghezze d’onda diverse per la diseccitazione danno luogo a colorazioni diverse delle EQL. Se si hanno strati separati energeticamente, si possono avere fenomeni con colori simili a quelli dell’arcobaleno. Al contrario, se le eccitazioni, o meglio le conseguenti diseccitazioni, avvengono casualmente, si possono avere EQL biancastre in cui si ha una sovrapposizione di colori.

Questa e’ la spiegazione univoca del fenomeno?

Anche qui, l’articolo fa un passo un po’ troppo lungo. Questa fatta e’ ancora un’ipotesi per la spiegazione delle EQL. Ipotesi ovviamente non campata in aria ma frutto dello studio dei sismi fatto nell’articolo. Analogamente, esistono teorie parallele per spiegare le luci simiche. In particolare, un’altra ipotesi prende origine considerando la piezoelettricita’ dovuta alla rottura di rocce contenenti quarzo. In soldoni, si tratta sicuramente di un fenomeno di natura elettrica. Come queste correnti, ripeto cariche in movimento, vengono create non e’ ancora del tutto chiaro.

Concludendo, cercando di fare luce nella confusione creata, le EQL sono fenomeni osservati e costantemente studiati dai sismologi. L’ultimo lavoro pubblicato fa uno studio di terremoti passati osservando come questo fenomeno sia maggiormente possibile in determinati sismi. Ad oggi, non esiste ancora una spiegazione univoca sull’origine delle correnti di ionizzazione, ma diverse ipotesi tutte ugualmente possibili. Sicuramente, studiare fenomeni di questo tipo consente di avere un quadro molto piu’ chiaro sull’origine dei sismi e puo’ aiutare a capire se esiste un set di fenomeni che, magari correlati tra loro, possono portare a formulare algoritmi predittivi certi in grado di poterci permettere in futuro di predirre terremoti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

ISON: cometa in technicolor

15 Nov

Della ISON abbiamo parlato in tantissimi articoli:

Rapido aggiornamento sulla ISON

2013 o ancora piu’ oltre?

E se ci salvassimo?

Che la ISON abbia pieta’ di noi!

– Se la Ison non e’ cometa, allora e’ …

Riassumendo, si diceva che questa sarebbe stata la cometa del secolo con un passaggio talmente luminoso da essere perfettamente visibile ad occhio nudo in pieno giorno. Come visto pero’, queste stime sono state notevolmente ridimensionate quando si e’ potuto stimare il diametro del nucleo di questa cometa che, come visto, e’ inferiore ad un paio di kilometri. Nonostante questo, gia’ da mesi, i siti catastrofisti si sono scatenati nel lanciare previsioni e profezie legate a questa cometa: la Ison e’ Nibiru, la Ison arrivera’ sulla Terra, no, anzi, e’ un’astronave aliena, nemmeno e’ un pianeta, una costellazione, un mini sistema solare, ecc. Come visto negli articoli precedenti, tutte assurdita’ facilmente smentibili con un minimo di ricerca su internet ma, soprattutto, con un minimo di ragionamento.

Una particolarita’ pero’, almeno a mio avviso, questa cometa sicuramente la avra’: sara’ ricordata come l’oggetto celeste che maggiormente ha dato spunto per annunciare catastrofi.

L’ultima sparata che sta facendo riaccendere la discussione su internet e’ legata al colore di questa cometa. Come forse avrete letto, al passaggio vicino a Marte la Ison appariva di un bel colore verde. Continuando la sua corsa verso il perielio pero’, la cometa ha improvvisamente cambiato colore divenendo blu.

Cosa significa questo?

Inutile dire che si tratta, sempre secondo gli amici catastrofisti, di un fatto eclatante e misterioso, ovviamente non compreso dalla scienza. Inoltre, il nuovo colore della cometa sarebbe l’indicatore che la Ison e’ in realta’ la tanto temuta Blue Kachina della profezia Hopi. Di questa profezia abbiamo gia’ parlato abbondantemente in questo articolo:

Il 2012 e la profezia Hopi

Dunque, ci risiamo, una nuova fine del mondo ci attende tra pochi giorni. Meno male! Era gia’ qualche giorno che non veniva annunciata una nuova fine per la nostra amata Terra al punto che cominciavo a preoccuparmi.

Premessa, come visto nell’articolo riportato, la profezia Hopi riguarda qualcosa completamente diverso e, comunque, si tratta di un racconto di questo popolo indiano.

Detto questo, cerchiamo di capire se veramente c’e’ qualcosa di anomalo in questo cambio di colore.

In realta’, cambiamenti di colore lungo la traiettoria non sono affatto straordinari e vengono mostrati da diverse comete. Come potete facilmente immaginare, man mano che questi corpi si avvicinano al Sole vengono investiti da una radiazione sempre crescente ed inoltre aumenta anche la loro temperatura. Come visto in questo articolo:

Cos’e’ una cometa

questi corpi sono caratterizzati dalla sublimazione degli elementi che li compongono e, dunque, anche il colore caratteristico sara’ legato alla chimica dell’oggetto.

Bene, questa e’ una spiegazione semplice e comprensibile per tutti.

Pensateci, se ci sono diversi elementi questi possono “bruciare” in momenti diversi. Inoltre, un elemento puo’ essere piu’ dominante e rendere visibili gli altri solo in un secondo momento. Tutte cose perfettamente chiare e che possono spiegare in primis il colore delle comete e anche, come nel caso della Ison, cambi di colore lungo la traiettoria.

Ora pero’, e’ interessante capire da cosa siano determinati i colori verde e blu di cui stiamo parlando.

Su questo punto devo aprire una parentesi su molti siti di informazione scientifica o che pretendono di essere considerati tali. Se provate a cercare informazioni su internet, trovate che il colore verde e’ dovuto al cianogeno ma anche il colore blu e’ dovuto al cianogeno. Forse, e dico forse, si fa un po’ di confusione.

Per capire bene, vi mostro una tabella con gli elementi che possono essere presenti nella coda di una cometa e che emettono nello spettro del visibile:

Particelle a maggiore emissione
nel campo visibile
Molecole nm Ioni nm
CN 399 CO+ 426
C3 406 H3O+ 700
CH 435
C2 514

Vedete che il cianogeno,CN, emette a 399 nanometri. Cosa significa? Piccola digressione. Il cosiddetto spettro del visibile e’ quella banda di frequenze, o lunghezze d’onda, che i nostri occhi sono in grado di vedere. In questo spettro possiamo inserire appunto i diversi colori ognuno con una lunghezza d’onda diversa. Senza tanti giri di parole, vi mostro una seconda tabella:

Colore Frequenza Lunghezza d’onda
Violetto 668-789 THz 380–450 nm
Blu 631-668 THz 450–475 nm
Ciano 606-631 THz 476-495 nm
Verde 526-606 THz 495–570 nm
Giallo 508-526 THz 570–590 nm
Arancione 484-508 THz 590–620 nm
Rosso 400-484 THz 620–750 nm

Come vedete, partendo dal violetto si arriva fino al rosso aumentando la frequenza. Prima di questi valori abbiamo gli ultravioletti dopo gli infrarossi, bande di frequenze non osservabili ai nostri occhi.

Ora, il cianogeno, cosi’ come visto nella prima tabella, emette a 399 nanometri. Detto in altri termini, quando l’emissione di luce da parte di questo elemento e’ presente, la cometa apparira’ di un colore blu/violetto, come comprensibile utilizzando la seconda tabella. Notate inoltre come il colore verde abbia una lunghezzad’onda piu’ grande tra 495 e 570 nanometri. Capite dunque che il cianogeno non puo’ essere responsabile del colore verde che si osservava quando la Ison era in prossimita’ di Marte.

Sempre facendo riferimento alla prima tabella, e’ evidente che il colore verde era invece dovuto all’emissione di luce da parte di molecole di C2 che emettono luce intorno ai 514 nanometri.

Questo ci fa capire come, a volte, anche siti scientifici facciano confusione o forniscano informazioni non reali.

Ultima considerazione, ora che la cometa e’ divenuta blu, mostrando quindi la presenza di cianogeno, alcuni siti si sono lanciati nella speculazione su questo gas. Come e’ noto, si tratta di un composto tossico per l’essere umano se viene respirato. Ragioniamo, e’ contenuto in una cometa che, se anche superasse il perielio, si troverebbe a 60 milioni di kilometri da noi. Secondo voi c’e’ pericolo?

Nonostante questo, si stanno creando le condizioni per riproporre la truffa del 1910 quando al passaggio della cometa di Halley venne proposta la presenza di questo gas nelle code della comete, poi risultato reale. In quell’occasione molti buontemponi, leggasi truffatori, vendevano maschere antigas e pillole miracolose per difendersi dal pericolo del cianogeno che poteva arrivare sulla Terra.

Non mi meraviglierei se questa cosa venisse riproposta ora.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E quindi uscimmo a riveder le stelle

10 Set

Nella sezione:

Hai domande o dubbi?

e’ stata fatta una richiesta davvero molto interessante. Come potete leggere, si chiede come vengano ricostruite le immagini astronomiche che spesso ci vengono mostrate e catturate dai tanti telescopi a terra e in orbita. Questa richiesta sembra apparentemente molto semplice, ma nasconde in realta’ una vera e propria professione. Oggi come oggi, molti astronomi dedicano il loro lavoro proprio alla visione e all’elaborazione di immagini astronomiche. Cerchiamo di capire meglio come funzionano queste tecniche per poter meglio apprezzare anche il lavoro che c’e’ dietro una bella immagine che troviamo sulla rete.

Come sapete bene, al giorno d’oggi, per esplorare l’universo non si utilizzano piu’ solo telescopi nel visibile. In questo caso, come facilmente immaginabile, questi sistemi catturano immagini esattamente come farebbe il nostro occhio. Oltre a questi, si utilizzano telescopi, sia a terra che in orbita, sensibili all’infrarosso, ai raggi X, all’ultravioletto, oltre ad enormi antenne pensate per catturare segnali radio provenienti dal cosmo.

Che differenza c’e’ tra queste radiazioni?

Per capire bene il concetto, vi mostro quello che normalmente si chiama lo spettro della radiazione elettromagnetica:

Spettro della radiazione elettromagnetica

Diverse lunghezze d’onda vengono accorpate in famiglie. Come vedete, la parte visibile, cioe’ quella a cui i nostri occhi sono sensibili, e’ in realta’ solo una strettra frazione dell’intero spettro. Per fare un esempio, tutti conosciamo le immagini infrarosse utilizzate per esempio per identificare le fonti di calore. Bene, questo e’ un esempio di immagine fuori dallo spettro visibile. Si tratta di particolari che i nostri occhi non sarebbero in grado di vedere, ma che riusciamo a visualizzare utilizzando tecnologie appositamente costruite. Non si tratta di immagini false o che non esistono, semplicemente, mediante l’ausilio di strumentazione, riusciamo a “vedere” quello che i nostri occhi non sono in grado di osservare.

Bene, il principio dietro l’astronomia nelle diverse lunghezze d’onda e’ proprio questo. Sfruttando parti dello spettro normalmente non visibili, si riesce ad osservare dettagli che altrimenti sarebbero invisibili.

Per dirla tutta, anche le normali immagini visibili, subiscono un’opera di elaborazione pensata per ricostruire i dettagli e per ottimizzare la visione. Cosa significa? Nella concezione comune, un telescopio nel visibile e’ paragonabile ad una normale macchina digitale. Questo non e’ esattamente vero. Molto spesso, le immagini catturate da questi sistemi sono ottenute mediante una sovrapposizione di dati raccolti utilizzando filtri diversi.

Cosa significa?

Prendiamo come esempio il telescopio Hubble. In questo caso, il sistema acquisisce immagini a diverse lunghezze d’onda, o isolando una particolare frequenza piuttosto che altre. Si tratta di immagini in bianco e nero che poi vengono colorate artificialmente e sovrapposte per formare l’immagine finale. Attenzione, non dovete pensare che la colorazione artificiale sia un trucco per far apparire piu’ belle le foto. Questa tecnica e’ di fondamentale importanza per far esaltare dei particolari che altrimenti verrebbero confusi con il resto. Questa tecnica si chiama dei “falsi colori”, proprio perche’ la colorazione non e’ quella originale ma e’ stata creata artificialmente.

Per capire meglio, proviamo a fare un esempio.

Prendiamo una delle foto piu’ famose di Hubble, quella della galassia ESO 510-G13:

ESO 510-G13 da Hubble

Questa immagine e’ ottenuta con la tecnica del “colore naturale”, cioe’ esattamente come la vedrebbero i nostri occhi se fossero potenti come quelli di Hubble. In questo caso dunque, la colorazione e’ quella che potremmo vedere anche noi ma anche questa immagine e’ stata ottenuta sovrapponendo singoli scatti ripresi dal telescopio.

In particolare, si sono sovrapposte tre immagini in bianco e nero, ognuna ottenuta selezionando solo la radiazione visibile blu, rossa e verde:

ESO 510-G13 immagini a colore singolo

Perche’ viene fatto questo?

Selezionando solo una piccola parte dello spettro visibile, cioe’ il singolo colore, e’ possibile sfruttare il sistema per catturare al meglio i singoli dettagli. In questo modo, come visibile nelle foto, ciascuna immagine e’ relativa ad un solo colore, ma al meglio della risoluzione. Sommando poi le singole parti, si ottiene il bellissimo risultato finale che abbiamo visto.

Analogamente, in alcuni casi, si amplificano determinate lunghezze d’onda rispetto ad altre, per rendere piu’ visibili alcuni dettagli. Anche in questo caso vi voglio fare un esempio. Questa e’ una bellissima immagine della Nebulosa dell’Aquila:

Nebulosa testa d'aquila

Cosa significa amplificare alcuni colori?

Nella foto riportata, oltre ad ammirarla, gli astronomi riescono a vedere le emissioni di luce da parte dei singoli gas costituenti la nebulosa. Questo studio e’ importante per determinare la concentrazione di singoli elementi, e dunque identificare particolari tipologie di corpi celesti. Per capire meglio, nella ricostruzione a posteriori dell’immagine, e’ stato assegnato il colore verde all’emissione degli atomi di idrogeno, il rosso agli ioni di zolfo e il blu alla luce emessa dall’ossigeno ionizzato. Perche’ questo artificio grafico? Se non venisse elaborata, nell’immagine la luce emessa dalla zolfo e dall’idrogeno sarebbero indistinguibili tra loro. Se ora rileggete l’assegnazione dei colori riportata e rivedete l’immagine della nebulosa, siete anche voi in grado di determinare quali gas sono piu’ presenti in una zona piuttosto che in un’altra. Ovviamente questi sono processi che devono essere fatti analiticamente, elaborando le informazioni di ogni singolo pixel.

Analogo discorso puo’ essere fatto per la radioastronomia. In questo caso, come sapete e come anticipato, quelli che vengono registrati sono dei segnali radio provenienti dai diversi settori in cui viene diviso l’universo. Non avendo delle immagini, nei radiotelescopi si hanno degli impulsi radio che devono essere interpretati per identificare il tipo di sorgente, ma soprattutto la zona da cui il segnale proviene.

Per farvi capire meglio questo concetto, vi racconto la storia dell’inizio della radioastronomia. Nel 1929 un radiotecnico americano che lavorava in una stazione di Manila, mentre era al lavoro per eliminare disturbi dalle trasmissioni, si accorse che vi era un particolare rumore di fondo che si intensifica in determinati momenti della giornata. Nello stesso anno, Jansky, un ingegnere della compagnia americana Bell, anche lui al lavoro per cercare di migliorare le comunicazioni transoceaniche, arrivo’ alla stessa conclusione del radiotecnico. L’ingegnere pero’ calcolo’ il momento preciso in cui questi disturbi aumentavano, trovando che il periodo che intercorreva tra i massimi corrispondeva esattamente alla durata del giorno sidereo, 23 ore e 56 minuti. Solo anni piu’ tardi, riprendendo in mano questi dati, ci si accorse che la fonte di questo disturbo era il centro della nostra galassia. I segnali radio captati erano massimi quando il ricevitore passava davanti al centro della galassia, emettitore molto importante di segnali radio.

Oggi, mediante i nostri radiotelescopi, riusciamo ad identificare moltissime sorgenti radio presenti nell’universo e, proprio studiando questi spettri, riusciamo a capire quali tipologie di sorgenti si osservano e da quale punto dell’universo e’ stato inviato il segnale. A titolo di esempio, vi mostro uno spettro corrispondente ai segnali radio captati nell’arco del giorno con un semplice radiotelescopio:

Spettro giornaliero di un radiotelescopio con antenna da 3.3 metri. Fonte: Univ. di Pisa

Come vedete, sono chiaramente distinguibili i momenti di alba e tramonto, il passaggio davanti al centro galattico e quello corrispondente al braccio di Perseo. Come potete facilmente capire, si tratta di misure, chiamiamole, indirette in cui i nostri occhi sono proprio le antenne dei telescopi.

Concludendo, ci sono diversi metodi per pulire, migliorare o amplificare le immagini raccolte dai telescopi sia a terra che in orbita. Quello che facciamo e’ amplificare la nostra vista o utilizzando sistemi molto potenti, oppure ampliando lo spettro delle radiazioni che altrimenti non sarebbero visibili. I telescopi divengono dunque degli occhi sull’universo molto piu’ potenti e precisi dei nostri. Metodi diversi, ottico, UV, IR, radio, ecc, possono aiutare a capire dettagli o strutture che altrimenti sarebbero invisibili in condizioni normali. Detto questo, capite quanto lavoro c’e’ dietro una bella immagine che trovate su internet e soprattutto perche’ la foto ha una specifica colorazione o particolari sfumature.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

I buchi neri che … evaporano

16 Ago

Uno degli aspetti che da sempre fa discutere e creare complottismi su LHC, e’ di sicuro la possibilita’ di creare mini buchi neri. Questa teoria nasce prendendo in considerazione le alte energie in gioco all’interno del collissore del CERN e la possibilita’ che nello scontro quark-quark possa venire a crearsi una singolarita’ simile a quella dei buchi neri.

Se avete perso i precedenti articoli, di LHC abbiamo parlato in questi post:

2012, fine del mondo e LHC

Bosone di Higgs … ma che sarebbe?

Sia ben chiaro, la storia dei buchi neri non e’ la sola creata su LHC. Il CERN ogni giorno riceve lettere che chiedono la chiusura dell’esperimento per il pericolo che questo rappresenta per l’intera terra. Diverse volte il CERN e’ anche stato chiamato in giudizio a fronte di vere e proprie denuncie di pseudo scienziati che lo accusavano farneticando teorie senza capo ne’ coda. Come potete immaginare, tutte le volte le accuse sono state rigettate e non solo LHC il prossimo anno ripartira’, ma a gia’ fornito risultati fisici di prim’ordine.

Perche’ si discute tanto di buchi neri? Qui ognuno puo’ formulare la propria ipotesi. Io ho una mia idea. Parlare di buchi neri, e’ qualcosa che da sempre stimola la curiosita’ e il timore delle persone. Un buco nero e’ visto come qualcosa di misterioso che vive nel nostro universo con caratteristiche uniche nel suo genere: mangia tutto cio’ che gli capita a tiro senza far uscire nulla. L’idea di poter avere un mostro del genere qui sulla terra, scatena gli animi piu’ catastrofisti pensando a qualcosa che nel giro di qualche minuto sarebbe in grado di divorare Ginevra, la Svizzera, il mondo intero.

Come anticipato, LHC e’ ora in stato di fermo. Si sta lavorando incessantemente per migliorare i rivelatori che vi operano al fine di ottenere risultati sempre piu’ accurati e affidabili. Alla ripartenza, avendo ormai preso piu’ confidenza con la macchina, si pensa anche di poter aumentare l’energia del centro di massa, cioe’ quella a disposizione per creare nuove particelle, portandola da 7 a 10 TeV. Come e’ ovvio, questa notizia non poteva che riaccendere gli animi catastrofisti. Al momento non si e’ creato nessun buco nero perche’ l’energia era troppo bassa, gli scienziati stanno giocando con il fuoco e porteranno alla distruzione della Terra. Queste sono le argomentazioni che cominciate a leggere in rete e che non potranno che riaumentare avvicinandoci al momento della ripartenza.

Se anche dovesse formarsi un mini buco nero, perche’ gli scienziati sono tanto sicuri che non accadra’ nulla? Come sapete, si parla di evaporazione dei buchi neri. Una “strana” teoria formulata dal fisico inglese Stephen Hawking ma che, almeno da quello che leggete, non e’ mai stata verificata, si tratta solo di un’idea e andrebbe anche in conflitto con la meccanica quantistica e la relativita’. Queste sono le argomentazioni che leggete. Trovate uno straccio di articolo a sostegno? Assolutamente no, ma, leggendo queste notizie, il cosiddetto uomo di strada, non addetto ai lavori, potrebbe lasciarsi convincere che stiamo accendendo una miccia, pensando che forse si spegnera’ da sola.

Date queste premesse, credo sia il caso di affrontare il discorso dell’evaporazione dei buchi neri. Purtroppo, si tratta di teorie abbastanza complicate e che richiedono molti concetti fisici. Cercheremo di mantenere un profilo divulgativo al massimo, spesso con esempi forzati e astrazioni. Cio’ nonostante, parleremo chiaramente dello stato dell’arte, senza nascondere nulla ma solo mostrando risultati accertati.

Cominciamo proprio dalle basi parlando di buchi neri. La domanda principale che viene fatta e’ la seguente: se un buco nero non lascia sfuggire nulla dal suo interno, ne’ particelle ne’ radiazione, come potrebbe evaporare, cioe’ emettere qualcosa verso l’esterno? Questa e’ un’ottima domanda, e per rispondere dobbiamo capire meglio come e’ fatto un buco nero.

Secondo la teoria della relativita’, un buco nero sarebbe un oggetto estremamente denso e dotato di una gravita’ molto elevata. Questa intensa forza di richiamo non permette a nulla, nemmeno alla luce, di sfuggire al buco nero. Essendo pero’ un oggetto molto denso e compatto, questa forza e’ estremamente concentrata e localizzata. Immaginatelo un po’ come un buco molto profondo creato nello spazio tempo, cioe’ una sorta di inghiottitoio. La linea di confine tra la singolarita’ e l’esterno e’ quello che viene definito l’orizzonte degli eventi. Per capire questo concetto, immaginate l’orizzonte degli eventi come una cascata molto ripida che si apre lungo un torrente. Un pesce potra’ scendere e risalire il fiume senza problemi finche’ e’ lontano dalla cascata. In prossimita’ del confine, cioe’ dell’orizzonte degli eventi, la forza che lo trascina giu’ e’ talmente forte che il pesce non potra’ piu’ risalire e verra’ inghiottito.

Bene, questo e’ piu’ o meno il perche’ dal buco nero non esce nulla, nemmeno la luce. Dunque? Come possiamo dire che il buco nero evapora in queste condizioni?

La teoria dell’evaporazione, si basa sulle proprieta’ del vuoto. Come visto in questo articolo:

Se il vuoto non e’ vuoto

nella fisica, quello che immaginiamo come vuoto, e’ un continuo manifestarsi di coppie virtuali particella-antiparticella che vivono un tempo brevissimo e poi si riannichilano scomparendo. Come visto nell’articolo, non stiamo parlando di idee campate in aria, ma di teorie fisiche dimostrabili. L’effetto Casimir, dimostrato sperimentalmente e analizzato nell’articolo citato, e’ uno degli esempi.

Ora, anche in prossimita’ del buco nero si creeranno coppie di particelle e questo e’ altresi’ possibile quasi in prossimita’ dell’orizzonte degli eventi. Bene, ragioniamo su questo caso specifico. Qualora venisse creata una coppia di particelle virtuali molto vicino alla singolarita’, e’ possibile che una delle due particelle venga assorbita perche’ troppo vicina all’orizzonte degli eventi. In questo caso, la singola particella rimasta diviene, grazie al principio di indeterminazione di Heisenberg, una particella reale. Cosa succede al buco nero? Nei testi divulgativi spesso leggete che il buco nero assorbe una particella con energia negativa e dunque diminuisce la sua. Cosa significa energia negativa? Dal vuoto vengono create due particelle. Per forza di cose queste avranno sottratto un po’ di energia dal vuoto che dunque rimarra’ in deficit. Se ora una delle due particelle virtuali e’ persa, l’altra non puo’ che rimanere come particella reale. E il deficit chi lo paga? Ovviamente il buco nero, che e’ l’unico soggetto in zona in grado di pagare il debito. In soldoni dunque, e’ come se il buco nero assorbisse una particella di energia negativa e quindi diminuisse la sua. Cosa succede alla particella, ormai reale, rimasta? Questa, trovandosi oltre l’orizzonte degli eventi puo’ sfuggire sotto forma di radiazione. Questo processo e’ quello che si definisce evaporazione del buco nero.

Cosa non torna in questo ragionamento?

Il problema principale e’, come si dice in fisica, che questo processo violerebbe l’unitarieta’. Per le basi della meccanica quantistica, un qualunque sistema in evoluzione conserva sempre l’informazione circa lo stato inziale. Cosa significa? In ogni stato e’ sempre contenuta l’indicazione tramite la quale e’ possibile determinare con certezza lo stato precedente. Nel caso dei buchi neri che evaporano, ci troviamo una radiazione termica povera di informazione, creata dal vuoto, e che quindi non porta informazione.

Proprio da questa assunzione nascono le teorie che potete leggere in giro circa il fatto che l’evaporazione non sarebbe in accordo con la meccanica quantistica. Queste argomentazioni, hanno fatto discutere anche i fisici per lungo tempo, cioe’ da quando Hawking ha proposto la teoria. Sia ben chiaro, la cosa non dovrebbe sorprendere. Parlando di buchi neri, stiamo ragionando su oggetti molto complicati e per i quali potrebbero valere  leggi modificate rispetto a quelle che conosciamo.

Nonostante questo, ad oggi, la soluzione al problema e’ stata almeno “indicata”. Nel campo della fisica, si racconta anche di una famosa scommessa tra Hawking e Preskill, un altro fisico teorico del Caltech. Hawking sosteneva che la sua teoria fosse giusta e che i buchi neri violassero l’unitarieta’, mentre Perskill era un fervido sostenitore della inviolabilita dei principi primi della meccanica quantistica.

La soluzione del rebus e’ stata indicata, anche se ancora non confermata, come vedremo in seguito, chiamando in causa le cosiddette teorie di nuova fisica. Come sapete, la teoria candidata a risolvere il problema della quantizzazione della gravita’ e’ quella delle stringhe, compatibile anche con quella delle brane. Secondo questi assunti, le particelle elementari non sarebbero puntiformi ma oggetti con un’estensione spaziale noti appunto come stringhe. In questo caso, il buco nero non sarebbe piu’ una singolarita’ puntiforme, ma avrebbe un’estensione interna molto piu’ complessa. Questa estensione permette pero’ all’informazione di uscire, facendo conservare l’unitarieta’. Detto in altri termini, togliendo la singolarita’, nel momento in cui il buco nero evapora, questo fornisce ancora un’indicazione sul suo stato precedente.

Lo studio dei buchi neri all’interno della teoria delle stringhe ha portato al cosiddetto principio olografico, secondo il quale la gravita’ sarebbe una manifestazione di una teoria quantistica che vive in un numero minore di dimensioni. Esattamente come avviene in un ologramma. Come sapete, guardando un ologramma, riuscite a percepire un oggetto tridimensionale ma che in realta’ e’ dato da un immagine a 2 sole dimensioni. Bene, la gravita’ funzionerebbe in questo modo: la vera forza e’ una teoria quantistica che vive in un numero ridotto di dimensioni, manifestabili, tra l’altro, all’interno del buco nero. All’esterno, con un numero di dimensioni maggiori, questa teoria ci apparirebbe come quella che chiamiamo gravita’. Il principio non e’ assolutamente campato in aria e permetterebbe anche di unificare agevolmente la gravita’ alle altre forze fondamentali, separate dopo il big bang man mano che l’universo si raffreddava.

Seguendo il ragionamento, capite bene il punto in cui siamo arrivati. Concepire i buchi neri in questo modo non violerebbe assolutamente nessun principio primo della fisica. Con un colpo solo si e’ riusciti a mettere insieme: la meccanica quantistica, la relativita’ generale, il principio di indeterminazione di Heisenberg, le proprieta’ del vuoto e la termodinamica studiando la radiazione termica ed estendendo il secondo principio ai buchi neri.

Attenzione, in tutta questa storia c’e’ un pero’. E’ vero, abbiamo messo insieme tante cose, ma ci stiamo affidando ad una radiazione che non abbiamo mai visto e alla teoria delle stringhe o delle brance che al momento non e’ confermata. Dunque? Quanto sostenuto dai catastrofisti e’ vero? Gli scienziati rischiano di distruggere il mondo basandosi su calcoli su pezzi di carta?

Assolutamente no.

Anche se non direttamente sui buchi neri, la radiazione di Hawking e’ stata osservata in laboratorio. Un gruppo di fisici italiani ha osservato una radiazione paragonabile a quella dell’evaporazione ricreando un orizzonte degli eventi analogo a quello dei buchi neri. Come visto fin qui, l’elemento fondamentale del gioco, non e’ il buco nero, bensi’ la curvatura della singolarita’ offerta dalla gravita’. Bene, per ricreare un orizzonte degli eventi, basta studiare le proprieta’ ottiche di alcuni materiali, in particolare il loro indice di rifrazione, cioe’ il parametro che determina il rallentamento della radiazione elettromagnetica quando questa attraversa un mezzo.

Nell’esperimento, si e’ utilizzato un potente fascio laser infrarosso, in grado di generare impulsi cortissimi, dell’ordine dei miliardesimi di metro, ma con intensita’ miliardi di volte maggiore della radiazione solare. Sparando questo fascio su pezzi di vetro, il punto in cui la radiazione colpisce il mezzo si comporta esattamente come l’orizzonte degli eventi del buco nero, creando una singolarita’ dalla quale la luce presente nell’intorno non riesce ad uscire. In laboratorio si e’ dunque osservata una radiazione con una lunghezza d’onda del tutto paragonabile con quella che ci si aspetterebbe dalla teoria di Hawking, tra 850 e 900 nm.

Dunque? Tutto confermato? Se proprio vogliamo essere pignoli, no. Come visto, nel caso del buco nero gioca un ruolo determinante la gravita’ generata dal corpo. In laboratorio invece, la singolarita’ e’ stata creata otticamente. Ovviamente, mancano ancora degli studi su questi punti, ma l’aver ottenuto una radiazione con la stessa lunghezza d’onda predetta dalla teoria di Hawking e in un punto in cui si genera un orizzonte degli eventi simile a quello del buco nero, non puo’ che farci sperare che la teoria sia giusta.

Concludendo, l’evaporazione dei buchi neri e’ una teoria molto complessa e che richiama concetti molto importanti della fisica. Come visto, le teorie di nuova fisica formulate in questi anni, hanno consentito di indicare la strada probabile per risolvere le iniziali incompatibilita’. Anche se in condizioni diverse, studi di laboratorio hanno dimostrato la probabile esistenza della radiazione di Hawking, risultati che confermerebbero l’esistenza della radiazione e dunque la possibilita’ dell’evaporazione. Ovviamente, siamo di fronte a teorie in parte non ancora dimostrate ma solo ipotizzate. I risultati ottenuti fino a questo punto, ci fanno capire pero’ che la strada indicata potrebbe essere giusta.

Vorrei chiudere con un pensiero. Se, a questo punto, ancora pensate che potrebbero essere tutte fantasie e che un buco nero si potrebbe creare e distruggere la Terra, vi faccio notare che qui parliamo di teorie scientifiche, con basi solide e dimostrate, e che stanno ottenendo le prime conferme da esperimenti diretti. Quando leggete le teorie catastrofiste in rete, su quali basi si fondano? Quali articoli vengono portati a sostegno? Ci sono esperimenti di laboratorio, anche preliminari ed in condizioni diverse, che potrebbero confermare quanto affermato dai catastrofisti?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Lampi Radio dall’universo lontano

8 Lug

Come sapete bene, scopo principale di questo blog e’ quello di divulgare la scienza. A questo proposito, diverse volte ci siamo trovati a parlare di recentissime scoperte di cui, al momento, non si sa ancora nulla. Scopo della ricerca e’ anche questo. Molto spesso, i modelli teorici formulati danno indicazioni precise dove cercare cose nuove. Molte altre volte invece, magari per caso, ci si trava di fronte a scoperte del tutto inattese e che richiedono un notevole sforzo perche’ vanno a minare le conoscenze o le supposizioni fatte fino a quel momento.

Perche’ faccio questa introduzione?

Solo pochi giorni fa, e’ stato pubblicato un articolo su Science molto interessante, riguardante il nostro universo. Come sappiamo bene, le nostre attuali conoscenze sono ancora molto lontane dall’essere complete. Questo e’ del tutto normale se pensiamo che stiamo osservando l’universo principalmente dalla nostra Terra basandoci su osservazioni indirette o comunuque molto lontane dalle sorgenti.

La ricerca di cui sto parlando, a cui hanno partecipato anche diversi ricercatori italiani, riguarda l’osservazione, del tutto inattesa, di segnali radio provenienti da distanze cosmologiche. Questi eventi sono gia’ stati ribattezzati FRB, cioe’ “fast radio burst”, tradotto “lampi radio veloci”.

Di cosa si tratta?

Parlando come sempre di teorie catastrofiste, solo poche settimane fa avevamo parlato della WR104, sfruttando in realta’ questa notizia per parlare di Gamma Ray Burst, cioe’ Lampi di Raggi Gamma:

WR104, un fucile puntato verso di noi

Mentre in questo caso si parlava di lampi di radiazione gamma, gli FRB sono invece lampi a frequenza nelle onde radio. Come anticipato, si tratta di segnali la cui origine e’ stata approssimativamente indicata a distanze cosmologiche. Ad oggi, sono stati osservati solo 4 FRB la cui emissione e’ avvenuta tra 5.5 e 10 miliardi di anni luce da noi. Considerando che il nostro universo ha un’eta’ stiamata di circa 14 miliardi di anni, questi lampi sono stati emessi in media quando l’universo aveva all’incirca la meta’ della sua attuale eta’.

Come e’ avvenuta questa scoperta?

Come e’ facile immaginare, il primo FRB e’ stato osservato qualche anno fa e inizialmente si pensava fosse dovuto ad un errore strumentale. Successivamente poi, utilizzando il radiotelescopio australiano CSIRO Parkes da 64 metri, si e’ riusciti ad identificare altri tre eventi.

Perche’ e’ cosi’ difficile registrare gli FRB?

Il problema principale di questi eventi e’, come dice il nome stesso, il segnale molto corto, dell’ordine dei millisecondi. Si tratta dunque di eventi estremamente potenti ma che vengono emessi in tempi molto corti, proprio come un’esplosione che avviene ad onde radio. In realta’, come stimato da calcoli teorici, gli FRB dovrebbero essere tutt’altro che rari nel nostro universo. I 4 eventi osservati sono stati visti in una porzione estremamente ridotta di cielo. Facendo un calcolo statistico, si e’ visto che in realta’ ci dovrebbe essere un evento di questo tipo da qualche parte ogni 10 secondi. Dunque, con una frequenza molto elevata. Il fatto di averli osservati solo ora, se vogliamo, dipende da una questione di fortuna. Trattandosi di eventi cosi’ rapidi, e’ necessario che il radiotelescopio sia puntato proprio nella direzione della sorgente per poter osservare il segnale.

Come si e’ identificato il punto di origine?

In realta’, come anticipato, le distanze sono da considerarsi come una stima. Le onde radio, propagandosi nell’universo, subiscono modificazioni dovute al passaggio attraverso la materia. Detto questo, e’ possibile stimare una distanza di origine appunto osservando in dettaglio lo spettro dei segnali.

Per capire questo concetto, si deve pensare che quando queste onde si propagano verso la Terra dal punto in cui sono emesse, passano nel mezzo intergalattico, cioe’ in quelle regioni di gas e polveri che separano tra loro due Galassie. Bene, attrevarsando queste regioni, principalmente popolate di elettroni, le onde radio ne escono di volta in volta sparpagliate. Osservando lo spettro che arriva a Terra, in particolare proprio questo sparpagliamento, e’ possibile capire quanto mezzo intergalattico e’ stato attraversato e duqnue la distanza della Terra dall’origine del lampo radio. Perche’ diciamo che la distanza e’ solo una stima? Come intuibile, in questa tecnica si fa una stima delle particelle del mezzo intergalattico. Ovviamente non si tratta di supposizioni a caso, ma sono numeri basati su osservazioni dirette e indirette. In questo caso pero’, l’incertezza sulla distanza e’ proprio dovuta all’incertezza con cui si conosce il mezzo intergalattico. Molto piu’ preciso e’ invece il metodo per misurare distanza e velocita’ di una stella classica, come visto in questo post:

Come misurare distanza e velocita’ di una stella

Chi ha prodotto gli FRB?

Come anticpato, e come e’ facile immaginare, questa e’ la domanda a cui si dovra’ dare una risposta. Quando abbiamo parlato di GRB, lo abbiamo fatto partendo da una stella Wolf Rayet che sappiamo essere in grado di produrre questi eventi. Per quando riguarda invece gli FRB, essendo tra l’altro del tutto inaspettati, non e’ ancora stato possibile capire la loro origine. Ovviamente, esistono delle ipotesi fatte per spiegare questi eventi. Alcuni astronomi puntano il dito contro le magnetar, cioe’ stelle di neutroni con campi magnetici molto elevati, in grado di emettere violenti lampi elettromagnetici di raggi X e gamma. Solo pochi giorni fa, e’ stato pubblicato un altro articolo che tenta invece di spiegare gli FRB analizzando il comportamento teorico delle stelle di neutroni supermassive. Questo e’ il link all’articolo per chi volesse approfondire:

FRB, Super Massive Neutron Stars

Ovviamente, si tratta di tutte ipotesi che chiamano in causa corpi astronomici in cui la materia si trova in condizioni molto particolari, perche’ sottoposta a pressione gravitazionale intensa, rapida rotazione o campi magnetici molto elevati. In condizioni normali, non ci sarebbero emissioni di onde radio.

Ovviamente, non potevano certo mancare le ipotesi fantascientifiche circa l’origine di questi segnali. Sulla falsa riga del segnale WOW!:

Il segnale WOW!

c’e chi ha proposto che l’origine del segnale radio sia una lontana civilta’ intelligente che sta cercando di comunicare con noi o anche che siano segnali di avvertimento provenienti da altri mondi su qualcosa che potrebbe accadere. Senza commentare ulteriormente su queste ipotesi, lasciatemi solo fare un’osservazione. I 4 segnali evidenziati finora provengono da punti distanti ben 5 miliardi di anni luce tra loro. Detto questo, mi sembra assurdo pensare che ci sia un popolo che si diverte a spostarsi cosi’ tanto nel nostro universo. Ovviamente, queste ipotesi nascono sulla rete, sono divertenti da leggere, ma non apportano nessuna informazione utili ai fini della ricerca sugli FRB.

A questo punto, non resta dunque che continuare a studiare il fenomeno per cercare di accumulare maggiore statistica, cioe’ nuovi eventi. Questa e’ ovviamente una condizione necessaria per poter verificare le ipotesi fatte o anche per formularne di nuove. Come visto nelle teorie attuali, per alcuni casi, le onde radio dovrebbero essere accompagnate da emissioni di raggi X e gamma. In tal senso, lo studio congiunto dei segnali utilizzando radiotelescopi e strumenti sensibili a queste radiazioni consentirebbe proprio di poter osservare l’emissione congiunta di questi eventi. In questa nuova caccia che si e’ aperta, il radiotelescopio italiano Sardinia, dal punto di vista costruttivo gemello di quello australiano, e che sta entrando nella fase operativa in questo periodo, potra’ dare un notevole contributo.

Studiare eventi di questo tipo ci consente prima di tutto di capire meglio come e’ fatto il nostro universo, evidenziando fenomeni che prima si ignoravano o comportamenti anomali di oggetti celesti conosciuti. Inoltre, alla luce di quanto detto sull’interazione delle onde radio con lo spazio attraversato, l’analisi degli FRB potrebbe consentirci di ottenere nuove informazioni sulla composizione del nostro universo, fornendo nuovo materiale sulle componenti oscure o di antimateria di cui abbiamo parlato in questi post:

La materia oscura

Due parole sull’antimateria

Antimateria sulla notra testa!

Universo: foto da piccolo

Troppa antimateria nello spazio

Concludendo, l’articolo pubblicato solo pochi giorni fa ha evidenziato un fenomeno del tutto inatteso e nuovo nel cosmo. Lo studio degli FRB e’ appena iniziato e vedra’ come protagonista anche un telescopio nostrano gestito dall’INAF. Le informazioni ricavate in questa ricerca potrebbero essere molto utili anche per capire meglio l’origine e la composzione del nostro universo. Come diciamo sempre, ci sono ancora tantissime cose da scoprire. Evidenze come questa ci fanno capire quanto lavoro c’e’ ancora da fare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Come misurare distanza e velocita’ di una stella

16 Mag

Diverse volte ci siamo trovati a parlare di stelle e molto spesso abbiamo fatto riferimento alla loro distanza dalla Terra. Questo parametro e’ di fondamentale importanza in tantissime misure fisiche che vengono fatte e, ad esempio, quando abbiamo studiato il caso della WR104. La distanza tra noi e questa stella risultava determinante nell’analisi dell’eventuale Gamma Ray Burst che potrebbe investirci:

WR104: un fucile puntato verso la Terra?

Ora, nella sezione:

Hai domande o dubbi?

Un nostro caro lettore, ragionando su questo parametro, ha espresso un dubbio molto interessante. In particolare, la domanda fatta era mirata a capire come mai, eventualmente, lo spostamento verso il rosso delle stelle poteva essere simultaneamente utilizzato sia per misurare la distanza che lo spettro di una stella. Detto in termini matematici, come facciamo a ricavare due incognite da una sola equazione?

Cerchiamo di rispondere a questa domanda, spiegando anche cosa sarebbe questo spostamento verso il rosso, o redshift, ma soprattutto come vengono misurate le distanze in astronomia.

Questi concetti sono molto interessanti ed in genere trascurati in contesti divulgativi. Quando sentiamo parlare qualche astronomo, vengono tranquillamente citate distanze di anni luce da noi, senza pero’ far capire come sia possibile misurare questi parametri.

Andiamo con ordine, partendo proprio da questa prima riflessione. Come si misurano distanze cosi’ grandi, ma soprattutto distanze di oggetti che non possiamo toccare con mano?

La prima semplice tecnica e’ basata su misure di parallasse. Cosa significa? Per spiegare questo importante concetto, partiamo subito con un esempio. Supponente di guardare qualcosa distante da voi qualche metro. Potete proprio realizzare questo esperimento guardando gli oggettti che avete intorno. Bene, adesso scegliamo un oggetto piccolo o grande a piacere e facciamo un eperimento. Mettete un dito davanti ad i vostri occhi, distante appena l’apertura del braccio, guardando sempre l’oggetto scelto come campione. Bene se adesso chiudete prima un occhio e poi l’altro, vedete che l’oggetto sembra sposarsi a destra e sinistra rispetto al vostro dito.

Non c’e’ nulla di magico in questo, si tratta solo della sovrapposizione della vista dei vostri occhi che forma poi il campo visivo. Sfruttiamo questa caratteristica per calcolare geometricamente la distanza dell’oggetto. Se volete, siamo di fonte ad uno schema del genere:

Triangoli simili

Triangoli simili

Geometricamente, misurando un lato e gli angoli dei due triangoli simili, siamo in grado di ricavare l’altezza, dunque la distanza del corpo da noi.

Attenzione pero’, se provate a ripetere l’eperimento per oggetti sempre piu’ lontani, vi accorgete che la loro dimensione spaziale diventa sempre piu’ piccola. Questo e’ il problema nel cercare di misurare la distanza delle stelle. Si tratta di corpi molto grandi, ma posti ad una distanza tale da noi da impedirci di essere sensibili alla loro estensione spaziale. Prorpio per questo motivo, le stelle ci appaiono come punti luminosi in cielo.

Per farvi capire questo concetto, vi mostro un’immagine:

Come apparirebbe il Sole a diverse distanze

Come apparirebbe il Sole a diverse distanze

Il numero 1 indica l’estensione spaziale del Sole come lo vediamo dalla Terra. Nel punto 2, ecco come ci apparirebbe invece la nostra stella se la distanza con noi sarebbe pari a quella Giove-Terra. Ancora piu’ spinto e’ il caso dei disegni 3 e 4, in cui, in quest’ultimo, viene riportato come ci apparirebbe il Sole se questo fosse ad una distanza da noi pari a quella Terra-Proxima Centauri, cioe’ circa 4 anni luce.

Concentriamoci ancora un secondo su questo ultimo disegno. Il nostro Sole e’ una stella, cosi’ come ce ne sono tantissime nell’universo. Il fatto che il Sole ci appaia cosi’ grande mentre le stelle in cielo sono solo dei punti, e’ dunque solo legato alla distanza dal nostro pianeta.

Per corpi cosi’ distanti, non e’ piu’ sufficiente fare misure di parallasse con gli occhi, ma c’e’ bisogno di aumentare a dismisura la distanza tra le osservazioni. Prorpio per questo motivo, si sfrutta il movimento della Terra intorno al Sole, sfruttando quindi la nostra traiettoria come punti in cui estrapolare la parallasse:

Parallasse lungo l'orbita terrestre

Parallasse lungo l’orbita terrestre

Conoscendo l’asse dell’orbita terrestre, e’ dunque possibile ricavare l’altezza del triangolo, quindi la distanza della stella dalla Terra.

Ovviamente, per costruzione, questo metodo e’ applicabile solo fino ad una certa distanza, in genere fissata a 300 anni luce da noi. Oltre questo limite, i lati del triangolo di parallasse non sono piu’ distinguibili e non si riesce ad estrapolare il dato sulla distanza.

Dunque? Come misurare distanze maggiori?

Ora, arriviamo al gia’ citato “Spostamento verso il Rosso”. Per capire di cosa si tratta, facciamo un esempio semplice. Tutti avranno ascoltato una sirena che si dirige verso di noi. Bene, la frequenza percepita dal nostro orecchio, risulta diversa se l’oggetto si sta avvicinando o allontanando. Perche’ avviene questo? Semplicemente, come mostrato da questa figura:

Fronti d'onda di un corpo in movimento

Fronti d’onda di un corpo in movimento

Nei due versi, il numero di fronti d’onda sonori che ascoltiamo dipende dalla velocita’ della sorgente. Anche se sembra difficile, questo effetto e’ facilmente comprensibile. Proviamo con un altro esempio. Immaginate di essere sulla spiaggia e di contare il numero di creste di onda che arrivano sulla battigia in una unita’ di tempo. Questo parametro e’ molto piu’ simile di quello che immaginate al discorso del suono percepito. Ora, se entrate in acqua e andate incontro alle onde, sicuramente conterete piu’ creste d’onda rispetto al caso precedente. Situazione opposta si ha se vi allontanate. Bene questo e’ quello che si chiama Effetto Doppler.

Lo spostamente veso il rosso e’ una diretta conseguenza dell’effetto Doppler, ma non si parla di onde sonore, bensi’ di onde elettromagnetiche. Equivalentemente al caso della sirena, lo spettro luminoso di un corpo puo’ risultare spostato rispetto al normale se il corpo in questione si avvicina o si allontana. Si parla di redshift perche’ per un oggetto che si allontana da noi, il suo spettro sara’ piu’ spostato verso le basse frequenze.

Immaginate di avere una stella di un certo tipo di fronte a voi. Ora, se la stella si allontana, siamo in grado di misurare il suo spostamento verso il rosso, proprio partendo dallo spettro di altri corpi della stessa famiglia ma a distanza minore. Da questa misura potete dunque ottenere informazioni sulla velocita’ relativa con cui voi e la stella vi state allontanando. Questo importante risultato e’ noto come Legge di Hubble. Questa equazione lega proprio, attraverso una costante detta appunto di Hubble, lo spostamento verso il rosso della sorgente e la sua velocita’. Sempre attraverso la legge di Hubble, siamo poi in grado di ricavare la distanza della sorgente e dunque di estrapolare la distanza della stella dall’osservatore.

Notiamo prima di tutto una cosa, anche questo metodo ha un limite inferiore oltre il quale la distanza diviene  non misurabile, anche se in questo caso il limite e’ molto piu’ grande di quello ottenuto dalla parallasse.

Ritornando alla domanda iniziale, il metodo della parallasse ci consente di misurare distanze fino a qualche centinaio di anno luce da noi. Per distanze maggiori, ci viene in aiuto la legge di Hubble, attraverso la quale possiamo misurare non solo la distanza di un corpo lontano, ma anche la sua velocita’ di allontanamento da noi.

Inoltre, questa legge rappresenta un altro importante risultato a sostegno dell’ipotesi del Big Bang. Come visto in questo articolo:

E parliamo di questo Big Bang

il nostro universo e’ ancora in espansione e questo puo’ essere evidenziato molto bene dai risultati ottenuti mediante la legge di Hubble.

Concludendo, la misura delle distanze a cui si trovano le stelle rappresenta sicuramente un qualcosa di fondamentale negli studi del nostro universo. A tal proposito, abbiamo a disposizione diversi metodi e due di questi, parallasse e redshift, ci consentono, con limiti diversi, di poter estrapolare in modo indiretto questi valori. Oltre ad una mappa dei corpi a noi vicini, la legge di Hubble rappresenta un importante prova a sostegno dell’ipotesi del Big Bang. Ad oggi, il nostro universo e’ ancora in espansione e per questo motivo vediamo gli spettri spostati verso il rosso.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il segnale WOW!

25 Gen

In un precedente articolo, parlando di onde elettromagnetiche, ci siamo soffermati a discutere dei presunti segnali extraterrestri captati sia da Tesla che da Marconi. Come visto, in realta’, questi segnali, per quanto reali perche’ realmente osservati, con molta probabilita’ non erano affatto provenienti dal cosmo, ma bensi’ dalla Terra stessa:

Marconi, Tesla e l’evidenza aliena

Ora, rimanendo in tema, vorrei continuare a parlare di presunte evidenze di vita fuori dalla Terra mediante l’utilizzo di segnali elettromagnetici. In particolare, e’ molto interessante analizzare a fondo un episodio molto dibattutto e su cui molto si e’ speculato, il cosiddetto segnale WOW!.

Andiamo con ordine, capendo prima di cosa stiamo parlando.

Molti di voi gia’ conosceranno il progetto SETI, cioe’ l’attivita’ volta alla ricerca di eventuali segnali provenienti dallo spazio e che potrebbero indicare la presenza di forme di vita intelligenti aliene.

Bene, nel 1977, precisamente il 15 agosto, il radiotelescopio “Big Ear” (Grande Orecchio) dell’Universita’ dell’Ohio, ha captato proprio uno di questi segnali. Mentre era in ascolto dei segnali di fondo provenienti dallo spazio, il Prof. Ehman, ha osservato sul tabulato di Big Ear, qualcosa di diverso, un forte segnale, ben distaccato dal fondo.

Pensando subito ad un segnale di origine extraterrestre, il Prof. Ehman ha cerchiato il segnale sul tabulato, scrivendo a fianco una tipica espressione di sorpresa, appunto WOW!.

Questa riportata e’ una foto del tabulato con la nota a margine di cui stiamo parlando:

Il segnale del 1977 con la nota di Ehman

Il segnale del 1977 con la nota di Ehman

Proprio da questa espressione, a questo evento e’ stato dato il nome di “Segnale WOW!”.

Apriamo una piccola parentesi. La storia riportata ci fa capire subito il perche’ del nome di questo segnale. Spesso sulla rete si legge che gli alieni avrebbero inviato un segnale, in morse, in onde radio, o in altre ipotesi fantasiose, con scritto WOW!. Capite ovviamente che queste sono informazioni del tutto non veritiere ed altamente fantasiose.

Premesso questo, analizziamo questa storia. Le domande piu’ ovvie che possono venirci in mente sono: “da dove viene il segnale?”, “da chi e’ stato mandato?”, “come facciamo ad essere sicuri che non si tratti di un rumore di fondo, di un evento terrestre o di un problema del radiotelescopio?”. Tutte domande lecite e spontanee. Cerchiamo appunto di analizzare i fatti, ragionando su tutte le possibili risposte a queste domande.

La prima cosa da fare e’ capire come funziona Big Ear.

A differenza dei moderni radiotelescopi, a forma di parabola e orientabili nella direzione che vogliamo, Big Ear assomigliava piu’ ad un campo da football con due grandi antenne ai lati:

Il radiotelescopio Big Ear

Il radiotelescopio Big Ear

Come capite anche dalla foto, questo radiotelescopio non era orientabile, ma fisso sulla superficie terrestre. Proprio la rotazione del nostro pianeta, consentiva a Big Ear di spazzare diverse zone del cielo.

Bene, questo e’ un primo punto molto importante. Dal momento che la Terra si muove con un movimento continuo, Big Ear poteva “ascoltare” ciascuna porzione di cielo per un intervallo ben definito. Piu’ precisamente, l’apertura angolare, cioe’ la porzione di cielo visibile ad un preciso istante, fa si che ciascun punto poteva essere ossservato per un periodo di 72 secondi. Facciamo un esempio molto semplice, immaginate di essere in piedi e di ruotare lentamente su voi stessi. I vostri occhi sono il telescopio, voi siete la Terra che gira. ruotando a velocita’ costante, potete vedere ciascun oggetto intorno a voi per un tempi limitato, sempre tenendo la testa ferma. Bene, il funzionamento del radiotelescopio e’ esattamente questo. Dunque, un qualsiasi segnale proveniente dallo spazio sarebbe stato ascoltato per soli 72 secondi, se fosse durato di piu’ o di meno, avrebbe indicato una provenienza terrestre.

Fin qui dovrebbe essere tutto chiaro.

Grafico dell'intensita' del segnale in funzione del tempo

Grafico dell’intensita’ del segnale in funzione del tempo

Nell’immagine precedente, abbiamo visto il tabulato di Big Ear, ma cosa significano quei numeri e lettere? Senza spiegare per filo e per segno la corrispondenza esatta, il segnale WOW! aveva una durata di 72 secondi e una frequenza di 1420,356 MHz. Nella figura a lato viene riportato il segnale su un grafico intensita’ verso tempo, mostrando proprio la durata di 72 secondi.

E allora ci siamo, 72 secondi era proprio l’intervallo che stavamo cercando. Abbiamo la conferma?

Assolutamente no. Come detto, se il segnale fosse stato minore o maggiore di 72 secondi, sarebbe stata la condizione sufficiente a farci dire che l’origine non era extraterrestre. Avere un segnale esattamente di 72 secondi, e’ una condizione necessaria per affermare l’origine non terrestre, ma assolutamente non sufficiente. In parole povere, potrebbe essere ma non siamo ancora sicuri.

Facciamo dunque altre considerazioni.

Dall’immagine del segnale, vediamo un impulso che cresce, arriva ad un massimo e poi ridiminuisce seguendo quella che si chiama curva a campana. Anche questo spinge sull’origine extraterrestre, capiamo il perche’. Ripensando all’esempio della persona che gira su se stessa, un qualsiasi oggetto, durante la rotazione, entra nel campo visivo, poi si sposta esattamente di fonte a noi, e poi pian piano ne esce. Dal momento che Big Ear ruota insieme alla Terra, un segnale captato avrebbe proprio una forma a campana, dal momento che avrebbe un massimo in un solo istante, e intensita’ minore prima e dopo.

Ci sono stati altri segnali di questo tipo ricevuti da Big Ear? Assolutamente no. WOW! fu l’evento di intesita’ maggiore mai captato, circa 30 volte maggiore del rumore di fondo normalmente osservato. Questo ovviamente smentisce ulteriormente l’ipotesi terrestre. Se il segnale fosse prodotto in qualche modo sul nostro pianeta, magari sarebbe capitato altre volte.

Inoltre, il radiotelescopio usato, come e’ visibile dalla foto riportata, aveva due antenne distinte. Grazie a questa configurazione, un normale segnale terrestre, dunque continuo, appariva con uno sfasamento fisso per le due antenne indipendenti. WOW! venne percepito da una sola antenna, dunque possiamo escludere un ronzio fisso a discapito di un singolo segnale che viaggiava nello spazio.

Da dove proveniva il segnale WOW!?

Data la rotazione terrestre, il segnale proveniva, sempre che fosse prodotto nello spazio, da una regione a sud-est del Sagittario.

E se invece fosse di altra origine? Su questa domanda, del tutto lecita, sono state fatte molte ipotesi, cerchiamo di valutarle insieme:

Pianeti del sistema solare: questa ipotesi e’ da escludere. I pianeti emettono onde radio a causa del loro calore. Emissione non termiche sono state osservate da alcune lune di giove a causa di particelle che si muovono nel campo magnetico. La struttura di questi segnali e’ pero’ diversa da WOW! e in piu’ nel giorno e nella data del segnale, non erano presenti pianeti del sistema solare nella direzione esplorata.

Asteroidi: anche in questo caso, non c’erano asteroidi in zona. Inoltre, la ridotta dimensione di questi corpi non consente emissione di segnali di questo tipo.

Sono anche da scartare altre ipotesi cosmiche come la scintillazione interstellare o la lente gravitazionale, a causa della forma del segnale WOW! non compatibie con questi fenomeni.

E se invece il segnale fosse prodotto sulla Terra?

Per rispondere meglio a questa domanda, dobbiamo tornare a caratterizzare il segnale WOW!. Fino a questo punto, abbiamo parlato della sua intensita’ e della sua forma, e abbiamo detto che aveva una frequenza di 1420,356 MHz, per essere precisi era un segnale molto stretto tra 1420,356 e 1420,456 MHz.

Bene, questa frequenza e’ molto simile alla cosiddetta riga spettrale a 21 cm dell’idrogeno. Di cosa si tratta? L’atomo di idrogeno, composto da un protone e da un elettrone, puo’ emettere una radiazione dovuta alla variazione di alcuni parametri di queste particelle, ad una frequenza di 1420, 405 MHz, dunque molto simile a quella del segnale WOW!. Cosa significa questo? Dal momento che l’idrogeno e’ l’elemento piu’ leggero e piu’ abbondante dell’universo osservabile, e’ lecito pensare che la sua frequenza possa essere utilizzata da una civilta’ aliena intelligente per mettersi in contatto con altre forme di vita. Per darvi un’idea, in astronomia, proprio studiando questa riga di emissione, si e’ riusciti a determinare la forma a spirale della Via Lattea e la sua curva di rotazione. Questa particolare frequenza e’ importante anche per altri due motivi non trascurabili. Prima di tutto, un segnale con queste caratteristiche riesce a passare attraverso le nubi di polvere interstellare percorrendo lunghi tragitti senza essere assorbito, ma anche perche’ questa frequenza e’ vietata per i segnali trasmessi da Terra.

Cosa comporta quest’ultimo particolare, cioe’ che i trasmettitori a terra non possono utilizzare la frequenza in questione?

Questa considerazione ci consente di eliminare molte ipotesi sull’origine terrestre del segnale. Premesso che un trasmettitore a terra non avrebbe rilasciato, come detto in precedenza, un segnale di 72 secondi, questa ipotesi esclude anche che WOW! provenisse da un aereo, da un satellite artificiale o da qualche altro velivolo spaziale dal momento che la frequenza e’ vietata. Inoltre, nel momento in cui il segnale e’ stato ricevuto, nessun velivolo si trovava nell’area spazzata da Big Ear.

Attenzione pero’, apriamo una parentesi anche qui. Siamo nel 1977, anche in questo caso dobbiamo tornare a pensare alla guerra fredda. Come detto in altri post, in quegli anni, sia USA che URSS, avevano molti programmi segreti in via di sviluppo, ma anche tanti aerei top secret che giravano per i nostri cieli. Anche pensare che qualcuno di questi velivoli abbia violato le leggi utilizzando frequenze vietate, magari per sperimentazione, non e’ inverosimile. In questo caso pero’, difficilmente se ne potrebbe venire a capo a meno di dichiarazioni a distanza di 35 anni da parte dei soggetti interessati. Dichiarazione quantomeno improbabili dal momento che molti dei progetti dell’epoca sono ancora classificati come top secret.

A questo punto, la domanda e’, cosa e’ successo dopo il messaggio WOW!? Ovviamente molti astronomi hanno utilizzato Big Ear per riprovare ad ascoltare messaggi da quella zona lontana dell’universo, ma purtroppo invano. Non ci sono stati piu’ ulteriori messaggi. Negli anni successivi, in diverse occasioni e con altri radiotelescopi, si e’ tentata la stessa ricerca, ma WOW! e’ stato l’unico caso della storia di questo tipo.

Perche’ non ci sono stati altri messaggi? Se il segnale fosse stato prodotto da una civilita’ aliena, possibile che ne abbiano mandato soltanto uno?

Su queste domande, diverse ipotesi sono state fatte. La piu’ importante, a mio avviso, e’ quella data dallo stesso Frank Drake, uno dei fondatori del progetto SETI. Per poter mandare un segnale nel cosmo, cercando di raggiungere zone molto lontane, e’ necessario inviare segnali molto stretti, cioe’ in zone molto limitate dello spazio in modo da poter concentrare la maggior parte dell’energia in un punto evitando dispersioni. In questa ipotesi, ogni volta lanciate un segnale in direzioni diverse, e non e’ assolutamente detto che altri casi incrocino proprio la nostra Terra.

Il messaggio di Arecibo del 1974

Il messaggio di Arecibo del 1974

Questa ipotesi e’ verosimile. Anche gli essere umani hanno fatto una cosa simile, inviando in realta’ un solo segnale nello spazio. E’ il caso del famoso messaggio di Arecibo, inviato nel 1974 verso la galassia di Ercole distante da noi 25000 anni luce.

Secondo alcuni, il segnale WOW! potrebbe essere la risposta di civilta’ aliene a questo messaggio. Questa teoria e’ del tutto impossibile. Vi spiego il perche’. Prima di tutto, come detto, la galassia di Ercole si trova a 25000 anni luce, cioe’ il nostro segnale impiegherebbe 25000 anni per arrivare e altrettanti per farci arrivare la risposta. Anche l’ipotesi che il messaggio di Arecibo sia stato intercettato da qualche parte prima della galassia di Ercole e’ da scartare. Lungo quella direzione, e considerando l’ampiezza angolare del segnale, non ci sono corpi celesti su cui eventuali civilita’ aliene potrebbero vivere e da cui avrebbero ascoltato il nostro messaggio.

Dunque? Da cosa o da chi e’ stato prodotto il segnale WOW!?

Come visto nell’articolo, ci sono alcuni punti aperti, ma molte altre ipotesi conosciute sono state valutate e scartate. Ad oggi, il segnale WOW! rimane ancora un mistero senza spiegazione.

Cosa possiamo dunque concludere?Prima di tutto, questo e’ un chiaro esempio di mistero sia dal punto di vista antropologico che scientifico. Come vedete, in questo caso abbiamo presentato i fatti, li abbiamo analizzati e non ne siamo venuti a capo.

Il segnale WOW! e’ la chiara dimostrazione che esistono ancora dei fatti senza un’interpretazione scientifica, ma soprattutto che blog come questo non fanno disinformazione, come qualcuno pensa, ma semplicemente si limitano ad analizzare i fatti cercando di trarre conclusioni.

Proprio come ultimo punto, vorrei aprire una nuova ulteriore parentesi. Molte volte ci troviamo a discutere di improbabili video che girano in rete di avvistamenti di dischi volanti, di alieni ripresi in qualche foresta o su qualche letto per autopsie. Il 99% di questi video puo’ essere smascherato con semplici considerazioni. Perche’ spendere tanto tempo a creare prove improbabili, invece di ragionare su eventi come il segnale WOW!?

La ricerca scientifica puo’ aiutarci a trovare una risposta sull’origine del segnale. Magari non e’ stato prodotto da una civilita’ aliena ma solo da un aereo di qualche nazione che volava di nascosto usando frequenze vietate oppure da un fenomeno che ancora non conosciamo nel nostro universo e che produce segnali elettromagnetici di questo tipo. Ad oggi non abbiamo una risposta.

Solo per farvi capire meglio. Oggi Big Ear non esiste piu’. Al suo posto sono state costruite case, strade e supermercati, installazioni considerate migliori dal punto di vista economico. Ovviamente ci sono altri radiotelescopi in giro per il mondo, ma la ricerca scientifica in questa direzione deve assolutamente continuare. Forse quello che abbiamo captato era veramente un tentativo di contatto inviato da una civilita’ extraterrestre, non dobbiamo certamente ignorarlo per concentrare i nostri sforzi nella creazione di video fasulli da caricare su youtube.

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La materia oscura

19 Dic

Abbiamo iniziato a parlare di questa “materia oscura”, commentando un articolo catastrofista, e permettemi di dire alquanto bizzarro, apparso oggi su alcuni quotidiani:

Venerdi finisce il mondo!

Come visto, secondo queste fonti, un ammasso di materia oscura, sotto forma di corpo esteso e massivo, sarebbe in rotta di collisione con la Terra per il 21/12.

Nell’articolo citato, abbiamo gia’ discusso delle assurdita’ scientifiche prospettate come ipotesi di partenza, ma per offrire un quadro piu’ chiaro, dobbiamo necessariamente parlare di materia oscura.

Ovviamente, come capite bene, questo articolo e’ solo un corollario a quello citato, ma ho deciso di metterlo come post isolato, vista l’importanza della divulgazione di argomenti come questi.

Prima di iniziare, vorrei fare una premessa importate. Come piu’ volte dichiarato, in questo blog vogliamo fare divulgazione scientifica approfittando delle profezie del 2012. Per questa ragione, cerchiamo di fare una divulgazione semplice e che lasci intendere i concetti fondamentali. Questo punto e’ importante, perche’ vogliamo dare risposte accessibili a tutti. Non sono qui per fare una lezione universitaria, ne tantomeno per fare un esercizio di stile scientifico. Cerchero’ di essere molto chiaro, esplorando solo i concetti fondamentali. Mi scuso da subito con quanti di voi hanno gia’ conoscenza dell’argomento e potrebbero considerare questo post troppo semplice.

Cominciamo dalle cose ovvie.

In questo post:

Piccolo approfondimento sulla materia strana

abbiamo gia’ parlato di modello standard. In particolare, abbiamo visto come le particelle fondamentali, cioe’ non formate da pezzetti piu’ piccoli, siano in realta’ poche e descrivibili attraverso delle famiglie. Mescolando insieme queste particelle, che altro non sono i componenti di quello che chiamiamo “modello standard”, possiamo capire la materia che ci circonda e le interazioni, cioe’ le forze, che questa subisce.

Fin qui tutto chiaro.

Ora, cosa c’entra la materia oscura?

Prima di tutto un po’ di storia. Nel 1933 l’astronomo Zwicky fece il seguente esercizio. Studiando l’ammasso della Chioma, sommo’ tutte le masse galattiche, cioe’ le masse di tutti gli oggetti che componevano l’ammasso, e ottenne in questo modo la massa totale della Chioma. Fin qui, niente di speciale. Ora pero’, e’ possibile ricavare la massa anche in modo indiretto, cioe’ misurando la dispersione delle velocita’ delle galassie che costituivano l’ammasso. In questo secondo modo, ottenne un’altra misura della massa totale, questa volta in modo indiretto. Il problema fu che la seconda stima era maggiore della prima di circa 400 volte. Detto in parole povere, la somma non faceva il totale.

Questa discrepanza venne poi studiata in dettaglio solo negli anni ’70, quando si capi’ che questa differenza non era dovuta ad errori di calcolo, bensi’ era un qualcosa ancora non capito dalla scienza.

Proprio in questo contesto, si comincio’ a parlare di materia oscura, cioe’ materia non visibile dagli strumenti ma dotata di massa, che era in grado di risolvere le discrepanze trovate.

A questo punto, ognuno di noi potrebbe pensare che si sta cercando solo di farsi tornare i conti. In realta’ non e’ cosi’. La materia oscura e’ importante anche per capire e spiegare molte leggi di natura estremamente importanti del nostro universo. Piu’ che un artificio di calcolo e’ qualcosa in grado spiegare il funzionamento stesso di quello che osserviamo.

Cerchiamo di capire meglio con qualche altro esempio.

Una delle evidenze principali della materia oscura e’ nell’osservazione e nella parametrizzazione delle galassie a spirale. Cos’e’ una galassia a spirale? Sono galassie formate da una parte interna, detta bulbo, e d alcune braccia che si avvolgono intorno a questa parte centrale.

Esempio di galassia spirale

Esempio di galassia spirale

Ora, immaginiamo di voler misurare la velocita’ delle stelle che compongono la galassia. In linea di principio, per la terza legge di Keplero, piu’ ci allontaniamo dal centro, minore dovrebbe essere la velocita’ delle stelle. Se immaginate di fare un grafico in cui riportate la velocita’ in funzione della distanza dal centro, cosa vi aspettereste? Se la velocita’ delle stelle periferiche e’ piu’ bassa, dovremmo avere un grafico che decresce all’aumentare della distanza.

Velocita' di rotazione delle stelle in funzione della distanza dal centro. A: aspettato B:osservato

Velocita’ di rotazione delle stelle in funzione della distanza dal centro. A: aspettato B:osservato

In realta’ osservate che la velocita’ delle stelle lontane e’ paragonabile a quelle interne, cioe’ il grafico e’ “piatto”. Perche’ avviene questo? Semplicemente perche’ non possiamo stimare la massa della galassia semplicemente sommando le singole stelle, ma dobbiamo mettere dentro anche la materia oscura. Rifacendo il calcolo considerando la materia oscura ottenete il grafico sperimentale visto in figura. Ma e’ veramente necessaria questa massa aggiuntiva? In realta’ si. Se la massa fosse solo quella delle stelle visibili, le stelle piu’ lontane, e che dunque ruotano piu’ velocemente di quello che ci aspettiamo, sarebbero espulse dalla galassia. Dal momento che vediamo con i nostri occhi che le stelle sono sempre li senza essere espulse, significa che la materia oscura ci deve essere.

Se siete riusciti ad arrivare fino a questo punto, ormai siamo in discesa.

Restano due domande fondamentali a cui rispondere. Quanta materia oscura c’e’ nell’universo? Ma soprattutto, cos’e’ questa materia oscura?

Il “quanta ce n’e'” potrebbe sorprendervi. Dalle stime fatte nel nostro universo, si trova che circa l’85% totale della massa e’ composta da materia oscura. Detto in altri termini abbiamo circa 6 volte piu’ materia oscura che materia barionica. Questa cosa puo’ sorprendere molto. Pensateci bene, parlando di modello standard, abbiamo visto la materia barionica, cioe’ quella che forma la materia che vediamo. Bene, l’85% della massa che compone l’universo e’ fatta di qualcosa di diverso rispetto alla materia che conosciamo.

A questo punto, cerchiamo di capire cos’e’ la materia oscura.

In realta’, non posso darvi una risposta certa e definitiva, perche’ in questo caso stiamo esplorando campi ancora aperti della scienza moderna. Esistono ovviamente diverse ipotesi riguardo alla composizione della materia oscura, ma non una certezza sperimentale.

Ragioniamo un secondo. Da quanto detto, la materia oscura ha una massa, produce effetti gravitazionali, come nel caso delle galassie a spirale viste, ma non e’ visibile ad occhio nudo. Fino ad oggi, sappiamo della sua esistenza solo attraverso misure indirette, cioe’ attraverso gli effetti che produce.

Quali sono le ipotesi per la materia oscura?

L’ipotesi principale ‘e che la maggior parte della materia oscura sia composta da materia non barionica molto massiva. Ci si riferisce a questa categoria come WIMP, cioe’ “particelle massive debolmente interagenti”. Cosa significa debolmente interagenti? Semplicemente che questo genere di materia non reagisce facilmente con la materia barionica. Nonostante questo, le WIMP avrebbero una massa molto elevata e dunque una forte interazione gravitazionale.Il fatto che sia poco interagente, rende la sua osservazione molto difficile, dal momento che non emette a nessuna lunghezza d’onda e dunque non e’ visibile neanche fuori dal visibile.

Spesso sentite parlare di WIMP anche come neutralini, neutrini massivi, assioni, ecc. Questi sono solo i nomi di alcune particelle predette nella categoria delle WIMP e su cui si sta incentrando la ricerca. Sotto questo aspetto, si cerca appunto di identificare la materia oscura in diversi modi. I principali sono cercando di produrla negli acceleratori di particelle, oppure cercando di rivelare i prodotti, barionici questa volta, dunque visibili, prodotti nell’interazione tra particelle di materia oscura.

Spero di essere stato abbastanza chiaro nella trattazione, ma soprattutto spero che questi pochi concetti permettano di capire meglio l’articolo che stiamo discutendo sulla presunta scoperta di un pianeta di materia oscura in rotta di collisione con noi.

La divulgazione della scienza passa anche attraverso argomenti come questo. Partire dalle profezie del 2012, ci consente di divulgare la vera scienza e di mostrare argomenti attuali e ancora in corso di investigazione scientifica. Per leggere un libro divulgativo semplice e adatto a tutti, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.