Tag Archives: quanta

Il metodo made in Italy per produrre Idrogeno

26 Lug

Da molti anni, ormai, sentiamo parlare di un futuro energetico incentrato sull’idrogeno. Molti, parlano di questo possibile combustibile addirittura speculando su un passaggio dall’era del petrolio a quella dell’idrogeno. Come tutti sappiamo, questa soluzione potrebbe essere utilizzata in tantissimi settori. Anche se il più noto, e lasciatemi dire su cui tante leggende sono state create, è quello delle macchine alimentate a idrogeno, questo elemento potrebbe servire per produrre corrente elettrica ed energia nei più svariati settori industriali, consentendo, finalmente, di mettere da parte i fortemente inquinanti idrocarburi ma, soprattutto, l’economia basata su questi oli che non ha fatto altro che creare centri di potere, in primis, e guerre per l’appropriazione e lo sfruttamento dei giacimenti sparsi per il mondo.

Perché, ancora oggi, visto che molti parlano di una panacea di tutti i mali, non utilizziamo l’idrogeno?

Come sapete, molti parlano di poteri forti in grado di bloccare lo sviluppo di queste tecnologie per puri fini economici. Da un lato, queste affermazioni sono corrette. Non voglio nascondermi dietro un dito e dire che viviamo in un mondo ideale. Come tutti sanno, i soldi fanno andare l’acqua in salita ma, soprattutto, decidono dove l’acqua deve passare e dove no. Questo lato economico-oscuro non è però materia del nostro blog. Quello su cui invece vorrei spingere tutti a ragionare è il discorso prettamente energetico e ambientale dell’idrogeno.

Anche molti tra i cosiddetti esperti dell’energia, un po’ per secondi fini ma, mi dispiace dirlo, a volte anche per ignoranza, quando parlano di fonti alternative, dunque non solo idrogeno, dimenticano sempre di prendere in considerazione l’intera filiera del settore che non comprende solo l’utilizzo della risorsa ma anche la sua estrazione o eventuale produzione, stoccaggio, distribuzione, ecc.

Che cosa intendo con questo?

Facciamo un esempio pratico ma inventato. Immaginate di trovare una nuova fonte energetica che possa essere utilizzata per alimentare le automobili. Questa risorsa rende la vostra macchina assolutamente non inquinante e costa 1/10 della benzina. Bene, annunciate la vostra scoperta su internet e immediatamente si formerà un esercito di internauti pronti a parlare della vostra genialata e del fatto che la ricerca, insieme con qualche burocrate in giacca, cravatta e occhiali scuri, vi sta ostacolando. Scommetto che questa storiella ve ne ricorda tante altre sentite in questi anni. Dov’è il problema? Semplice, anche se il nostro carburante costa poco e non inquina, come si produce? Dove si estrae? Se per produrre questo carburante dovete utilizzare carbone, oli o elementi chimici che produrrebbero un effetto sull’atmosfera peggiore di quella dell’uso del petrolio, la vostra invenzione sarebbe ancora molto conveniente? Direi proprio di no.

Bene, questo è quello che vorrei far capire. Ogni qual volta si parla di qualcosa legato all’energia e all’inquinamento, dovete sempre mettere in conto tutti gli aspetti legati a quella determinata risorsa. Esempio pratico? I pannelli solari producono energia dalla fonte rinnovabile per eccellenza, il Sole. Nessuno però vi racconta mai dei costi di produzione dei pannelli o, soprattutto, di quelli di smaltimento dei pannelli ormai esausti. Tenendo conto di questi fattori, si deve ridimensionare molto il vantaggio ottenuto con l’uso di pannelli commerciali. Per carità, non voglio dire che questa soluzione debba essere scartata. Il mio pensiero vuole solo mostrare gli altri aspetti che spesso, soprattutto tra i sostenitori di una tecnologia, vengono completamente taciuti.

Perdonate questa mia lunga introduzione, ma quanto detto è, a mio avviso, importante per inquadrare al meglio la situazione.

Tornando ora al discorso idrogeno, come forse avrete letto, un team di ricercatori del CNR, per essere precisi della sezione di Firenze, ha trovato un nuovo processo di produzione dell’idrogeno che riesce a sfruttare i cosiddetti oli rinnovabili.

Perché è così interessante questa notizia? Alla luce di quanto detto sopra, ad oggi, esistono due modi principali di produzione dell’idrogeno, entrambi con criticità molto importanti. Il primo metodo di produzione consiste nell’estrazione dell’idrogeno dal metano. Per poter avviare il processo è però necessario ossigenare l’ambiente. In questo caso, la produzione di idrogeno è accompagnata da quella di anidride carbonica. Risultato? La produzione di CO2, come è noto, è da evitare per le conseguenze sull’ambiente. Vedete come le considerazioni iniziali ci consentono di fare ora un’analisi critica dell’intero processo?

Il secondo metodo possibile per la produzione dell’idrogeno è semplicemente basato sull’elettrolisi dell’acqua, cioè nella scomposizione di questa fonte nota e ampiamente disponibile in idrogeno e ossigeno. Quale sarebbe ora il rovescio della medaglia? Per fare l’elettrolisi dell’acqua occorre fornire molta energia, energia che deve ovviamente essere messa in conto quando si calcola il rendimento della risorsa. Esempio pratico, se per innescare l’elettrolisi utilizzate energia prodotta da fonti rinnovabili, questo contributo inquinante deve essere contabilizzato e l’idrogeno non è più così pulito. Oltre al problema del costo energetico di produzione, nel caso dell’elettrolisi si deve considerare anche il fattore sicurezza. Idrogeno e ossigeno vengono prodotti ad alte pressioni. Se, per puro caso, i due elementi vengono in contatto tra loro, si crea una miscela fortemente esplosiva.

Alla luce di quanto detto, credo che ora sia più chiaro a tutti il perché, escluso il discorso economico legato al petrolio, ancora oggi la futuribile economia dell’idrogeno ancora stenta a decollare.

Bene, quale sarebbe allora questo metodo made in Italy che i ricercatori del CNR hanno inventato? Come anticipato, questo sistema di produzione sfrutta gli alcoli rinnovabili. Credo che tutti abbiamo bene in mente cosa sia un alcol, perché però parliamo di rinnovabili? Detto molto semplicemente, si tratta degli alcoli, glicerolo, metanolo, ecc., prodotti dalle biomasse, quindi sfruttabili, rinnovabili e anche assolutamente diffuse.

Come funziona questo metodo?

Come noto alla chimica, rompere la molecola d’acqua in presenza di alcoli richiede molta meno energia rispetto a quella necessaria in presenza di sola acqua. Nessuno però, fino ad oggi, aveva pensato di sfruttare questa evidenza per la produzione di idrogeno. La vera innovazione di questo processo è nell’aggiunta di elettrodi nanostrutturati ricoperti di palladio che fungono da catalizzatori per il processo e raccolgono l’idrogeno prodotto nella reazione. A questo punto, immergendo gli elettrodi in una soluzione acquosa di alcoli è possibile rompere la molecola di acqua producendo idrogeno, evitando la formazione di ossigeno libero e, soprattutto, risparmiando il 60% dell’energia rispetto all’elettrolisi.

Come annunciato anche dagli stessi ricercatori, questo sistema potrà servire in un primo momento per la produzione di batterie portatili in grado di fornire energia in luoghi isolati e, a seguito di ulteriori ricerche e perfezionamenti, potrà essere sfruttato anche per la realizzazione di generatori da qualche KWh fino a potenze più alte.

Apro e chiudo parentesi, non per essere polemico ma per mostrare l’ambito nel quale molto spesso le ricerche si svolgono. Il gruppo di ricerca è riuscito a trovare i finanziamenti per i suoi studi perché al progetto hanno partecipato alcuni enti privati finanziatori, tra cui il credito cooperativo di Firenze.

Solo per concludere, e giusto per ricalcare nuovamente il fatto che la ricerca non si è dimenticata dell’idrogeno, anche a livello governativo, nelle direttive per l’obiettivo 2020 è stato imposto un target di 45KWh per la produzione di 1 Kg di idrogeno. Obiettivo considerato futuribile fino ad oggi ma che richiedeva ricerca aggiuntiva sui sistemi di produzione. Bene, il metodo inventato dal CNR richiede soltanto 18.5KWh per produrre 1 Kg di idrogeno. Direi che questo rende sicuramente il processo economicamente vantaggioso e apre finalmente le porte a un utilizzo, che sarà sempre e comunque graduale, di questa risorsa nella vita di tutti i giorni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Cos’e’ successo in Sardegna?

26 Nov

Qualche giorno fa, mi contatta la nostra cara amica e sostenitrice del blog Patrizia. Mi chiede l’autorizzazione per poter scrivere un articolo su quanto avvenuto in Sardegna per Psicosi 2012. Premetto subito che Patrizia oltre ad essere una geologa, vive proprio in Sardegna e quindi ha vissuto, fortunatamente senza problemi nella sua zona, quanto avvenuto solo pochi giorni fa.

Dopo 594 articoli scritti di mio pugno, vi propongo questo articolo scritto da Patrizia e sul quale il sottoscritto non ha assolutamente messo mano. Secondo me, l’articolo e’ scritto benissimo e sposa in pieno la filosofia e lo stile di Psicosi 2012. Spero che anche la vostra opinione sia favorevole e, per qualsiasi commento, Patrizia e’ sempre disponibile, come fatto fino ad oggi, al dialogo e ad una sana discussione costruttiva.

 

Da Patrizia: Cos’e’ successo in Sardegna?  

 

Il 18 novembre scorso la Sardegna è stata devastata dal ciclone Cleopatra. Una bolla di aria fredda si è staccata da una perturbazione atlantica e, passando sopra il Mediterraneo eccezionalmente caldo, si è caricata oltremodo dando origine ad un ciclone dalla forma a V, cioè con due fronti che si sono abbattuti sull’isola, rispettivamente su Ogliastra e Gallura l’uno, su Oristanese e Medio Campidano l’altro.  Quello che nel linguaggio mediatico viene indicato come “bomba d’acqua” è, in meteorologia, un evento da cumulonembo, cioè una nube che può raggiungere i 12000 metri di altezza e avere la base a 300 metri dal suolo e che può scaricare enormi volumi di acqua in decine di minuti o anche in diverse ore. Cleopatra era un sistema lungo trecento km, formato da una serie di queste nubi, alcune delle quali hanno superato i 12000 metri di altezza, per cui aveva una potenza intrinseca che è stata però esaltata dalla particolare morfologia del territorio sardo. Vale a dire che la perturbazione ha trovato nelle montagne degli ostacoli fisici che l’hanno “costretta” a scaricare l’acqua. Riportiamo di seguito i dati pluviometrici di alcune località colpite che, a nostro avviso, sono maggiormente rappresentative dell’entità del fenomeno.

Fig.1: Curve delle precipitazioni cumulate

Fig.1: Curve delle precipitazioni cumulate

Osserviamo, innanzitutto, che sulla costa (Golfo Aranci) le piogge sono state meno intense rispetto alle zone di montagna (Mamone) o a ridosso delle stesse (Padru), dove i quantitativi di precipitazioni cumulate nello stesso intervallo temporale- all’incirca 16 ore- sono nettamente superiori. In particolare il tratto di curva che improvvisamente subisce un’impennata corrisponde all’evento da cumulonembo. I dati sono forniti dalla rete pluviometrica del Servizio Idrografico Regionale.

Per evidenziare ancora di più la quantità delle precipitazioni del 18 novembre si possono osservare in figura 2 i dati forniti dal Dipartimento Idrometeoclimatico Regionale.  Nella figura 3 sono riportati i comuni dei quali vengono forniti i dati sulle precipitazioni.

Fig.2: Precipitazioni del 18 novembre

Fig.2: Precipitazioni del 18 novembre

Nella maggior parte dei casi è caduta in meno di 24 ore una quantità di pioggia pari alla metà della pioggia annuale, evidenziando ancora una volta la tendenza alla irregolarità nella distribuzione delle precipitazioni, che si concentrano in periodi di tempo limitati.

Fig.3: Comuni della Sardegna

Fig.3: Comuni della Sardegna

Cos’è successo invece ad Olbia?

Dai dati riportati da L’Unione Sarda del 20 novembre, ad Olbia il 18 novembre sono caduti “soltanto” 93 mm di pioggia. E allora perché c’è stato il disastro?

Olbia si trova su una pianura alluvionale, vale a dire un territorio “costruito” nel corso del tempo geologico dai materiali trasportati e depositati dai corsi d’acqua. Molti alvei sono stati riempiti per essere inseriti nel tessuto urbano come strade. Durante un evento da cumulonembo, le strade urbane si trasformano nella parte superiore dell’alveo, cioè si trasformano in vie preferenziali per i flussi d’acqua, per decine di minuti o per qualche ora. In realtà si tratta di acqua mista a fango e detriti di ogni genere, quindi una vera e propria onda di piena. Olbia, quindi, è stata investita dall’onda di piena proveniente da Monte Pinu e dintorni che ha provocato l’esondazione di due metri dei suoi canali. Indubbiamente i danni sono stati amplificati da uno scorretto sviluppo edilizio, non supportato da un adeguato piano di gestione del territorio. Si palleggiano la patata bollente del mancato e/o inadeguato allertamento il capo della Protezione civile e i sindaci dei vari comuni colpiti. L’allarme è stato dato come “elevato” (in una scala di tre tipi di allarme: ordinario, moderato, elevato) ma nessuno ha capito l’entità dell’evento. Il sindaco di Olbia, per esempio, ha dichiarato che, nonostante l’allarme, non si poteva prevedere l’esondazione dei canali. Senza voler polemizzare, una dichiarazione di questo tipo non sta né in cielo né in terra, visto che Olbia è soggetta a frequenti allagamenti! I media hanno sostenuto la tesi dell’eccezionalità dell’evento. In realtà fenomeni come Cleopatra sono storicamente conosciuti: basti ricordare l’alluvione del 1951 quando in Sardegna si registrarono 1500 mm di pioggia in tre giorni.

Ma come si possono prevedere questi fenomeni e prevenirne i danni?

Il professore Ortolani, ordinario di Geologia presso l’Università Federico II di Napoli, sostiene che, per mettere in salvo la vita dei cittadini, occorre un sistema di allarme idrogeologico immediato.

Vale a dire un sistema di pluviometri che registrino la pioggia ogni 2-3 minuti in maniera tale da individuare sul nascere l’evento bomba d’acqua (questo è possibile esaminando la curva pluviometrica che, come abbiamo visto, subisce un’impennata all’inizio del fenomeno). Inoltre, conoscendo la morfologia del territorio urbanizzato e non urbanizzato, si possono individuare le vie preferenziali dei flussi d’acqua e detriti provenienti dalle precipitazioni lungo i versanti. Quando si ha la certezza che si tratta di una bomba d’acqua, cioè dopo qualche minuto dall’inizio del fenomeno, si fa scattare l’allarme meteo immediato e si mette in atto il piano di protezione civile pregresso, che può prevedere per esempio l’evacuazione delle abitazioni lungo le fasce fluviali che saranno interessante dalla piena, oppure l’evacuazione delle strade e dei piani seminterrati, a seconda dell’entità del fenomeno.

Per concludere, vorremmo riportare una notizia emblematica: prima che Cleopatra arrivasse, all’ingresso di Terralba, uno dei paesi più colpiti dal ciclone, c’erano cartelli con su scritto NO AI VINCOLI IDROGEOLOGICI. Il rispetto del territorio veniva visto come un ostacolo allo sviluppo economico legato all’edilizia! Chissà se i morti di questa volta faranno riflettere un po’ di più sui nostri abusi all’ambiente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Coltivare senza terra

29 Ott

Coltivare senza terra? Due sono le possibilita’: o siamo impazziti o siamo in vena di scherzi.

Pensateci bene, una delle tecniche piu’ antiche di sostentamento dell’uomo, l’agricoltura, attraversa da diverso tempo una profonda crisi. Coltivare la terra non e’ affatto semplice e, come e’ noto, non e’ neanche redditizio. Tanta fatica, lavoro e poi? Basta una grandinata, un parassita, un periodo di siccita’ e tutto il lavoro viene buttato al vento con conseguente perdita del raccolto e dell’investimento fatto.

Queste sono considerazioni oggettive con cui chi coltiva la terra e’ abituato a vivere ogni giorno.

Altro pensiero, l’agricoltura e’ una tecnica antichissima e’ vero ma, a parte macchinari tecnologicamente avanzati, questa tecnica e’ rimasta uguale a se stessa per secoli. Fate una buca, ci mettete un seme, annaffiate e con l’aiuto del sole avete la vostra pianta o, meglio ancora, un frutto commestibile.

Possibile che non esiste niente di nuovo?

In realta’ si. Anche in questo campo, si sono condotti, e sono ancora in corso, diversi studi mirati proprio a semplificare la vita e rendere l’agricoltura meno rischiosa e piu’ redditizia. Ovviamente, non mi sto riferendo a bombe chimiche in grado di trasformare le piante in qualcosa di resistente o a farle crescere piu’ velocemente e piu’ grandi.

Quello di cui vorrei parlarvi in questo articolo e’ la tecnica di coltivazione senza terra.

Come e’ possibile?

Questa tecnica e’ nota con il nome di idroponica. Come anticipato, le piante non crescono piu’ nella terra ma su substrati inerti. Attenzione, la terra serve a dare alle piante le sostanze nutritive di cui ha bisogno. Senza la terra dove le prendiamo? In questa tecnica, le radici delle piante crescono immerse in una soluzione a pH controllato ricca di sostanze nutritive. Non si tratta di ritrovati chimici sintetici, ma di sostanze naturali concentrate da cui la pianta riceve tutto il nutrimento.

Nell’idroponica, si utilizzano substrati inerti come lana di roccia o argilla espansa che vengono utilizzati per far aggrappare le radici delle piante. Come nelle normali coltivazioni, la crescita delle piante prevede tre momenti salienti: germinazione, crescita, fioritura. Nella prima fase, le radici vengono fatte crescere direttamente immerse nella sostanza nutriente per poi crescere ed arrivare fino alla fioritura, o al frutto.

Esempio di sistema idroponico

Esempio di sistema idroponico

Con questa tecnica, si utilizza un sistema di pompe per far circolare l’acqua in modo da poter sempre irrigare le radici ma anche per recuperare i reflussi da poter riutilizzare nel circuito. In questo modo si ottiene un notevole risparmio di acqua. Pensate che da stime fatte, per far crescere una singola pianta serve un volume circa 1/10 rispetto alle normali tecniche interrate.

In rete trovate gia’ molti sistemi pronti da acquistare e montare in casa. La tecnica idroponica nasce infatti proprio per favorire la coltivazione indoor di piante commestibili. L’investimento iniziale, che ovviamente dipende dal numero di piante che si vogliono far crescere, non e’ proprio economico ma si tratta, appunto, di un investimento iniziale. Come potete immaginare questo kit si compone di una vasca per l’acqua, i liquidi nutritivi per le piante e i circuiti idrici di flusso e reflusso per il recupero.

Con l’idroponia si possono far crescere moltissime varieta’ di piante tra cui, per fare un esempio, lattuga, pomodori, fragole, fagiolini. Insomma, un vero e proprio orto domestico da poter realizzare con spazi e irrigazione molto ridotti.

Quali sono gli svantaggi di questa tecnica rispetto a quella tradizionale?

Ovviamente, e’ necessario un continuo monitoraggio delle piante e del sistema. Il fatto di non avere terra consente di ridurre al minimo la possibilita’ di crescita batterica e di microorganismi dannosi, ma la presenza costante di acqua potrebbe favorire, se non controllate precisamente il pH della soluzione, la crescita di alghe dannose per le piante. Ovviamente, questi inconvenienti sono governabili con una buona manutenzione ed un controllo costante del sistema. Come anticipato, questa tecnica sta cominciando a prendere molto piede perche’ economica su lungo periodo ma soprattutto in grado di massimizzare il rapporto produzione/spesa. In periodi di crisi come questo, sicuramente molti stanno cominciando a rivalutare la possibilita’ di una piccola produzione domestica di ortaggi.

Coltivazione aeroponica

Coltivazione aeroponica

In alternativa all’idroponica vi e’ poi l’aeroponica. In questo caso parliamo di una tecnica ancora piu’ recente e, se vogliamo, innovativa. Nell’aeroponica non abbiamo terra ma neanche substrato inerte che, in alcune condizioni, puo’ favorire una crescita batterica e comunque esurisirsi nel tempo.

Sostanzialmente, la tecnica aeroponica e’ simile a quella precedente ma, a differenza dell’idroponica, non abbiamo una soluzione acquosa sotto le radici, bensi’ un sistema di nebulizzatori che tengono umide le radici con sostanze in soluzione acquosa atte a favorire la crescita e a fornire il nutrimento.

In questo caso, le piante possono essere fatte crescere ovunque utilizzando dei sostegni di poliuretano espanso che servono solo a tenere in piedi la pianta. Ovviamente, necessitando di una continua irrigazione, e’ necessario predisporre un timer che faccia partire i nebulizzatori sotto le radici. Questo rende il sistema solo un po’ piu’ complesso del precedente, ma riduce ulteriormente la possibilita’ di crescita di batteri.

Dal punto di vista economico, i sistemi gia’ pronti per l’aeroponica sono leggermente piu’ costosi, ma parliamo sempre di un migliaio di euro per un sistema finito ed in grado di ospitare fino a 60 piante. Per come e’ realizzato, la spesa relativa all’acqua per l’irrigazione e’ assolutamente minimizzata e l’avere le radici completamente scoperte e nebulizzate consente di massimizzare l’ossigenazione.

Unica pecca del sistema ad aria e’ la necessita’ di calibrare il timer del nebulizzatore. Se non fatto correttamente si rischia di inumidire troppo le radici o di far seccare le piante. Anche in questo caso pero’, in rete si trovano moltissimi manuali pronti all’uso che spiegano tutte le fasi del processo.

Altra considerazione importante, a parte timer e pompe, sia per l’idroponico che per l’aeroponico abbiamo sistemi semplici costruiti che possono anche essere realizzati con un po’ di semplice bricolage utilizzando materiali assolutamente economici.

Come visto, in periodi di crisi come quello che stiamo vivendo, avere la possibilita’ di realizzare un orto in casa con poco spazio, minimizzando i consumi di acqua e senza il rischio di infezioni parassitarie alle piante e’ sicuramente un buon vantaggio. Come detto, si tratta di tecniche innovative ma che stanno gia’ riscuotendo notevole successo anche per le coltivazioni specifiche soprattutto all’interno di serre.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il processo di decaffeinizzazione

8 Ago

Nella sezione:

Hai domande o dubbi?

una nostra cara lettrice ci chiede di parlare del “caffe’ decaffeinato”. Credo che questo argomento sia molto interessante perche’ molto spesso si sentono tantissime leggende su questa soluzione. Tutti noi, almeno una volta, avremo sentito dire: “fa bene”, “fa male”, “e’ cancerogeno”, “e’ buono”, “fa schifo”, ecc. Come al solito, tante opinioni in disaccordo tra loro. Cerchiamo dunque di capire meglio come viene realizzato questo caffe’, cioe’ quali sono le tecniche maggiormente utilizzate per la decaffeinizzazione e, soprattutto, che genere di risultato si ottiene.

Qualche tempo fa, avevamo gia’ parlato della cosiddetta “fisica del caffe'”, parlando del principio di funzionamento della moka, spesso ignorato da molti, anche tra gli addetti ai lavori:

La fisica del caffe’

A questo punto, non resta che parlare invece della materia prima necessaria!

Come sapete bene, la caffeina, il cui nome chimico e’ 1,3,7-trimetilxantina, fu isolata per la prima volta nel 1820 ed e’ contenuta in almeno 60 varieta’ di piante, tra cui, ovviamente, caffe’, the, guarana’, cacao, ecc. La caffeina e’ un potente stimolante ed interagisce sul nostro umore aumentando i livelli di dopamina e bloccando i recettori dell’adenosina. Per inciso, quando i livelli di quest’ultima raggiungono una certa soglia, avvertiamo la sensazione di sonno.

Queste caratteristiche sono purtroppo sia il pro che il contro della caffeina. L’assunzione di questa sostanza puo’ infatti avere effetti dannosi in persone ansiose, con problemi di sonnoloenza, tachicardia, ecc. Come anticipato, l’effetto della caffeina e’ tutt’altro che blando, a livello biologico, questa molecola e’ un vero e proprio veleno, che risulta letale sopra una certa soglia, ovviamente non raggiungibile assumendo tazzine di caffe’.

Ora pero’, molte persone, tra cui il sottoscritto, adorano il caffe’ anche solo per il suo sapore o per la ritualita’ dell’assunzione. Proprio per questo motivo, si sono affinate diverse tecniche per eliminare la caffeina dai chicchi di caffe’, ottenendo una bevanda non stimolante, appunto il caffe’ decaffeinato.

Il decaffeinato fu inventato a Brema nel 1905 dal tedesco Ludwig Roselius, figlio di un assaggiatore di caffè, per conto della azienda “Kaffee Handels Aktien Gesellschaft”. Proprio in onore del nome dell’azienda, questo tipo di caffe’ venne chiamato prendendo le iniziali e dunque commercializzato come Caffe’ HAG. Per ottenere questo risultato, i chicchi di caffe’ venivano cotti a vapore con una salamoia di acqua e benzene. Quest’ultimo era il solvente in grado di estrarre la caffeina dal chicco.

Successivamente, questo metodo venne abbandonato trovando soluzioni alternative da utilizzare prima della tostatura, cioe’ quando il fagiolo e’ ancora verde. La tecnica maggiormente utilizzata fino a pochi anni fa, era quella che prevedeva l’utilizzo di diclorometano per estrarre la caffeina. Successivamente a questo trattamento, il caffe’ veniva lavato a vapore per eliminare il diclorometano, che ha un punto di ebollizione di circa 40 gradi. A questo punto, si passava alla essiccatura e tostatura dei chicchi a 200 gradi.

Questo metodo presentava purtroppo alcuni problemi, che poi sono quelli che spingono ancora oggi le leggende di cui parlavamo all’inizio.

Il diclorometano e’ una sostanza cancerogena per l’essere umano. Come anticipato, successivamente al suo utilizzo, il caffe’ passava per altri due processi con temperature notevolmente superiori al punto di ebollizione del diclorometano. Questo trattamento assicurava la completa evaporazione del potenziale cancerogeno sui chicchi.

Perche’ allora e’ stata abbandonata la tecnica?

Il problema reale di questa tecnica di decaffeinizzazione e’ che durante il trattamento con diclorometano, oltre alla caffeina, venivano estratte altre sostanze chimiche dai chicchi che contribuiscono al sapore della bevanda finale. In tal senso, il decaffeinato ottenuto con questa soluzione, aveva un sapore molto diverso da quello originale. Inoltre, anche altre sostanze benefiche per l’organismo venivano estratte dal caffe’ mentre venivano prodotti oli contenenti molecole da alcuni ritenute dannose per l’uomo.

Detto questo, capite bene dove nascono le leggende da cui siamo partiti, circa il sapore del decaffeinato e la pericolosita’ del suo utilizzo.

Oggi, la tecnica con diclorometano e’ quasi completamente abbandonata a favore dell’utilizzo della CO2 supercritica. Con questo termine si intende solo una stato con pressioni e temperature tali da renderla una via di mezzo tra un gas e un fluido. Nel processo di decaffeinizzazione, i chicchi di caffe’ vengono prima inumiditi con vapore per rigonfiarli ed aumentare la percentuale di acqua. Questo sempre con fagioli verdi, cioe’ prima della tostatura. A questo punto, i chicchi passano in colonne di estrattori insieme alla CO2 ad una tempratura tra 40 e 80 gradi ed una pressione intorno alle 150 atmosfere. Questo passaggio permette all’anidride carbonica di portare via la caffeina, toccando in minima parte le altre sostanze contenute nel caffe’. A seguito di questo passaggio, si procede ovviamente alla tostatura.

Quali sono i vantaggi di questa tecnica rispetto alla precedente?

Prima di tutto, si utilizza solo CO2, cioe’ una sostanza non pericolosa per l’essere umano. Il processo consente di estrarre gran parte della caffeina contenuta nel caffe’. Per legge, un caffe’ decaffeinato non deve avere piu’ del 0,1% di caffeina. Non intaccando, se non in minima parte, le altre sostanze, il sapore del caffe’ rimane quasi invariato, e quindi e’ molto piu’ simile all’analogo con caffeina.

Oltre a questi aspetti, la CO2 in uscita dal processo e’ ovviamente ricca di caffeina. Questa sostanza e’ notevolmente utilizzata in diversi settori tra cui la medicina, la farmacologia, la botanica, ecc. Proprio per questo motivo, in virtu’ del processo utilizzato, e’ possibile estrarre caffeina pura dall’anidride carbonica mediante un abbassamento di temperatura o utilizzando carboni attivi.

Lo stesso processo viene utilizzato anche su altre piante, oltre che per l’estrazione del colosterolo dal burro o dell’essenza dai fiori di luppolo, utilizzata nella produzione della birra.

Concludendo, molte delle leggende intorno al decaffeinato nascono in virtu’ del precedente metodo utilizzato per l’estrazione della caffeina dai chicchi. Oggi, l’utilizzo di CO2 supercritica consente di estrarre la maggior parte della caffeina, che oltre tutto puo’ essere recuperata e utilizzata in altri settori, lasciando quasi del tutto inalterate le altre sostanze che contribuiscono la sapore di questa ottima bevanda.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La materia oscura

19 Dic

Abbiamo iniziato a parlare di questa “materia oscura”, commentando un articolo catastrofista, e permettemi di dire alquanto bizzarro, apparso oggi su alcuni quotidiani:

Venerdi finisce il mondo!

Come visto, secondo queste fonti, un ammasso di materia oscura, sotto forma di corpo esteso e massivo, sarebbe in rotta di collisione con la Terra per il 21/12.

Nell’articolo citato, abbiamo gia’ discusso delle assurdita’ scientifiche prospettate come ipotesi di partenza, ma per offrire un quadro piu’ chiaro, dobbiamo necessariamente parlare di materia oscura.

Ovviamente, come capite bene, questo articolo e’ solo un corollario a quello citato, ma ho deciso di metterlo come post isolato, vista l’importanza della divulgazione di argomenti come questi.

Prima di iniziare, vorrei fare una premessa importate. Come piu’ volte dichiarato, in questo blog vogliamo fare divulgazione scientifica approfittando delle profezie del 2012. Per questa ragione, cerchiamo di fare una divulgazione semplice e che lasci intendere i concetti fondamentali. Questo punto e’ importante, perche’ vogliamo dare risposte accessibili a tutti. Non sono qui per fare una lezione universitaria, ne tantomeno per fare un esercizio di stile scientifico. Cerchero’ di essere molto chiaro, esplorando solo i concetti fondamentali. Mi scuso da subito con quanti di voi hanno gia’ conoscenza dell’argomento e potrebbero considerare questo post troppo semplice.

Cominciamo dalle cose ovvie.

In questo post:

Piccolo approfondimento sulla materia strana

abbiamo gia’ parlato di modello standard. In particolare, abbiamo visto come le particelle fondamentali, cioe’ non formate da pezzetti piu’ piccoli, siano in realta’ poche e descrivibili attraverso delle famiglie. Mescolando insieme queste particelle, che altro non sono i componenti di quello che chiamiamo “modello standard”, possiamo capire la materia che ci circonda e le interazioni, cioe’ le forze, che questa subisce.

Fin qui tutto chiaro.

Ora, cosa c’entra la materia oscura?

Prima di tutto un po’ di storia. Nel 1933 l’astronomo Zwicky fece il seguente esercizio. Studiando l’ammasso della Chioma, sommo’ tutte le masse galattiche, cioe’ le masse di tutti gli oggetti che componevano l’ammasso, e ottenne in questo modo la massa totale della Chioma. Fin qui, niente di speciale. Ora pero’, e’ possibile ricavare la massa anche in modo indiretto, cioe’ misurando la dispersione delle velocita’ delle galassie che costituivano l’ammasso. In questo secondo modo, ottenne un’altra misura della massa totale, questa volta in modo indiretto. Il problema fu che la seconda stima era maggiore della prima di circa 400 volte. Detto in parole povere, la somma non faceva il totale.

Questa discrepanza venne poi studiata in dettaglio solo negli anni ’70, quando si capi’ che questa differenza non era dovuta ad errori di calcolo, bensi’ era un qualcosa ancora non capito dalla scienza.

Proprio in questo contesto, si comincio’ a parlare di materia oscura, cioe’ materia non visibile dagli strumenti ma dotata di massa, che era in grado di risolvere le discrepanze trovate.

A questo punto, ognuno di noi potrebbe pensare che si sta cercando solo di farsi tornare i conti. In realta’ non e’ cosi’. La materia oscura e’ importante anche per capire e spiegare molte leggi di natura estremamente importanti del nostro universo. Piu’ che un artificio di calcolo e’ qualcosa in grado spiegare il funzionamento stesso di quello che osserviamo.

Cerchiamo di capire meglio con qualche altro esempio.

Una delle evidenze principali della materia oscura e’ nell’osservazione e nella parametrizzazione delle galassie a spirale. Cos’e’ una galassia a spirale? Sono galassie formate da una parte interna, detta bulbo, e d alcune braccia che si avvolgono intorno a questa parte centrale.

Esempio di galassia spirale

Esempio di galassia spirale

Ora, immaginiamo di voler misurare la velocita’ delle stelle che compongono la galassia. In linea di principio, per la terza legge di Keplero, piu’ ci allontaniamo dal centro, minore dovrebbe essere la velocita’ delle stelle. Se immaginate di fare un grafico in cui riportate la velocita’ in funzione della distanza dal centro, cosa vi aspettereste? Se la velocita’ delle stelle periferiche e’ piu’ bassa, dovremmo avere un grafico che decresce all’aumentare della distanza.

Velocita' di rotazione delle stelle in funzione della distanza dal centro. A: aspettato B:osservato

Velocita’ di rotazione delle stelle in funzione della distanza dal centro. A: aspettato B:osservato

In realta’ osservate che la velocita’ delle stelle lontane e’ paragonabile a quelle interne, cioe’ il grafico e’ “piatto”. Perche’ avviene questo? Semplicemente perche’ non possiamo stimare la massa della galassia semplicemente sommando le singole stelle, ma dobbiamo mettere dentro anche la materia oscura. Rifacendo il calcolo considerando la materia oscura ottenete il grafico sperimentale visto in figura. Ma e’ veramente necessaria questa massa aggiuntiva? In realta’ si. Se la massa fosse solo quella delle stelle visibili, le stelle piu’ lontane, e che dunque ruotano piu’ velocemente di quello che ci aspettiamo, sarebbero espulse dalla galassia. Dal momento che vediamo con i nostri occhi che le stelle sono sempre li senza essere espulse, significa che la materia oscura ci deve essere.

Se siete riusciti ad arrivare fino a questo punto, ormai siamo in discesa.

Restano due domande fondamentali a cui rispondere. Quanta materia oscura c’e’ nell’universo? Ma soprattutto, cos’e’ questa materia oscura?

Il “quanta ce n’e'” potrebbe sorprendervi. Dalle stime fatte nel nostro universo, si trova che circa l’85% totale della massa e’ composta da materia oscura. Detto in altri termini abbiamo circa 6 volte piu’ materia oscura che materia barionica. Questa cosa puo’ sorprendere molto. Pensateci bene, parlando di modello standard, abbiamo visto la materia barionica, cioe’ quella che forma la materia che vediamo. Bene, l’85% della massa che compone l’universo e’ fatta di qualcosa di diverso rispetto alla materia che conosciamo.

A questo punto, cerchiamo di capire cos’e’ la materia oscura.

In realta’, non posso darvi una risposta certa e definitiva, perche’ in questo caso stiamo esplorando campi ancora aperti della scienza moderna. Esistono ovviamente diverse ipotesi riguardo alla composizione della materia oscura, ma non una certezza sperimentale.

Ragioniamo un secondo. Da quanto detto, la materia oscura ha una massa, produce effetti gravitazionali, come nel caso delle galassie a spirale viste, ma non e’ visibile ad occhio nudo. Fino ad oggi, sappiamo della sua esistenza solo attraverso misure indirette, cioe’ attraverso gli effetti che produce.

Quali sono le ipotesi per la materia oscura?

L’ipotesi principale ‘e che la maggior parte della materia oscura sia composta da materia non barionica molto massiva. Ci si riferisce a questa categoria come WIMP, cioe’ “particelle massive debolmente interagenti”. Cosa significa debolmente interagenti? Semplicemente che questo genere di materia non reagisce facilmente con la materia barionica. Nonostante questo, le WIMP avrebbero una massa molto elevata e dunque una forte interazione gravitazionale.Il fatto che sia poco interagente, rende la sua osservazione molto difficile, dal momento che non emette a nessuna lunghezza d’onda e dunque non e’ visibile neanche fuori dal visibile.

Spesso sentite parlare di WIMP anche come neutralini, neutrini massivi, assioni, ecc. Questi sono solo i nomi di alcune particelle predette nella categoria delle WIMP e su cui si sta incentrando la ricerca. Sotto questo aspetto, si cerca appunto di identificare la materia oscura in diversi modi. I principali sono cercando di produrla negli acceleratori di particelle, oppure cercando di rivelare i prodotti, barionici questa volta, dunque visibili, prodotti nell’interazione tra particelle di materia oscura.

Spero di essere stato abbastanza chiaro nella trattazione, ma soprattutto spero che questi pochi concetti permettano di capire meglio l’articolo che stiamo discutendo sulla presunta scoperta di un pianeta di materia oscura in rotta di collisione con noi.

La divulgazione della scienza passa anche attraverso argomenti come questo. Partire dalle profezie del 2012, ci consente di divulgare la vera scienza e di mostrare argomenti attuali e ancora in corso di investigazione scientifica. Per leggere un libro divulgativo semplice e adatto a tutti, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.

Venerdi finisce il mondo!

19 Dic

Che dire? Il titolo promette molto bene. In realta’, il titolo cosi’ sensazionalistico non e’ farina del mio sacco, ma quello che un nostro lettore ci ha segnalato e che potevate leggere oggi sul giornale “Notizia Oggi Vercelli”. Trovate la segnalazione nei commenti di questo post:

Scontro Terra-Nibiru a Luglio?

e potete leggere la notizia di cui vi voglio parlare seguendo questo link:

Notizia oggi Vercelli

Ora, dal momento che la visione di questo articolo ha scatenato non pochi sospetti ed ansie, credo sia giusto prendere sul serio la cosa ed analizzare i diversi punti portati come tesi in questo articolo.

Iniziamo proprio la nostra analisi dalla prima riga. “Federico Caldera, consulente scientifico della NASA, bla bla”. Chi e’ Federico Caldera? Assolutamente non lo so! Come potete verificare da soli, non si trova nessun riferimento su web a questo tizio, ne’ tantomeno alla sua professione di consulente scientifico. Anche cercando direttamente sul sito NASA e guardando tra i dipendenti, consulenti, ecc, non vi e’ nessuna traccia di Federico Caldera.

Il telescopio spaziale WISE

Il telescopio spaziale WISE

Gia’ questo ci insospettisce moltissimo. La notizia, che avrebbe come fonte la NASA, viene data da uno che non esiste o che non e’ un consulente NASA.

Nonostante questo, andiamo avanti nelle lettura dell’articolo e vediamo cosa dice.

“Nel lugio 2011, il telescopio della NASA WISE avrebbe rivelato uno sciame di anomalie gravitazionali in rotta di collisione con la Terra”.

Attenzione, WISE e’ veramente un telescopio della NASA che opera nella regione dell’infrarosso, e di cui abbiamo parlato in questi post:

Scontro Terra-Nibiru a Luglio?

Finalmente le foto di Nibiru!

Peccato che WISE sia stata lanciato in orbita nel novembre 2009 e la missione sia durata 10 mesi in tutto. Questo significa che nel 2011, la missione era gia’ conclusa e dunque WISE era spento e senza energia elettrica. Dopo questa, abbiamo gia’ capito che si tratta di una bufala colossale, ma voglio lo stesso andare avanti per mostrare tutto il ragionamento, ma soprattutto perche’ una notizia del genere ci consente di parlare di argomenti scientifici reali, non ancora trattati.

Premesso che WISE era spento nel 2011, leggiamo che si sarebbero osservate una scia di anomalie gravitazionali. Cosa sarebbe una scia di anomalie gravitazionali? Come visto in questi articoli:

Storia astronomica di Nibiru

Nibiru: la prova del trattore gravitazionale

parliamo di anomalie gravitazionali per descrivere l’influenza di un corpo estraneo in un sistema stabile sotto l’effetto dell’attrazione gravitazionale. Mi spiego meglio. Prendiamo come esempio il Sistema Solare. I pianeti orbitano su traiettorie precise dettate dall’interazione gravitazionale con il Sole, principale, ma anche modificate dalla presenza degli altri pianeti. Se ora inserite un corpo nuovo nel Sistema, la massa di questo modifichera’ l’equilibrio gravitazionale, scombussolando la situazione preesistente. Queste sono le anomalie grvitazionali. Capite bene parlare di una scia di anomalie, non significa assolutamente nulla dal punto di vista scientifico. Inoltre, le anomalie, per definizione, non collidono con i pianeti, se proprio vogliamo, e’ il corpo che le provoca ad urtare qualcos’altro.

Proseguendo nella lettura, troviamo la solita trama complottista che vede come protagonista un file segretissimo e di cui si e’ venuti a conoscenza per un motivo che non si puo’ dire, la NASA che lo sa gia’ da tanti mesi, ecc. Ma attenzione perche’ poi arriviamo al piatto forte dell’articolo: “i corpi in rotta di collisione con la Terra sarebbero aggregati di materia oscura”!

Qui, si rasenta veramente la follia anche dal punto di vista fantascientifico.

Parallelamente a questo articolo, ho pubblicato anche quest’altro post:

La materia oscura

in cui ho cercato di spiegare in modo molto semplice cos’e’ la materia oscura e quali sono i punti su cui si sta concentrando la ricerca. Se non lo avete fatto, vi consiglio di leggere questo articolo a questo punto, prima di andare avanti nella lettura.

Cosa sappiamo sulla materia oscura? Sappiamo che, nell’ipotesi piu’ accreditata dalla scienza, esiste perche’ ne vediamo gli effetti. Al momento, non sappiamo di cosa si tratta, abbiamo varie ipotesi ma non una risposta definitiva. Bene, come potrebbe un qualcosa che non conosciamo formare una “palla” di materia oscura?

Capite bene che questo articolo, ripeto comparso su un giornale online, e’ stato scritto o per prendere in giro le profezie del 21/12, o da uno completamente ignorante in astronomia. Come visto nel post riportato, per la materia oscura parliamo di materia molto debolmente interagente. E’ assurdo pensare che particelle di questo tipo possano formare un sistema aggregato che si muove nell’universo.

Perche’ si parla di materia oscura? Semplice, perche’ in questo modo si concentra l’attenzione su un argomento ancora dibattuto dalla scienza e su cui la risposta defiitiva ancora manca. In questo modo si ottengono due risultati importanti. In primis, si alimenta il sospetto sulla scienza e sul complottismo sempre presente che vedrebbe scienza e governi andare a braccetto per salvare una piccola casta di eletti, ma, soprattutto, parlare di materia oscura alimenta il terrore nelle persone che sentono parlare di qualcosa completamente misterioso e di cui si sa veramente poco. Al solito, la non conoscenza di taluni argomenti genera mostri nella testa della gente.

Spero che il breve articolo sulla materia oscura, possa essere utile per dare a tutti un’infarinata su questi concetti e per evitare di cadere in tranelli, come questo articolo, del tutto campati in aria dal punto di vista scientifico.

Solo per completezza, la cosa peggiore dell’articolo e’ scrivere dove dovrebbero impattare questi corpi di materia oscura. Ma ci rendiamo conto di cosa significa? Anche se fosse, sarebbe impossibile calcolare le traiettorie in modo cosi’ preciso. Nell’articolo manca solo l’indirizzo esatto con via e numero civico dove impatteranno. Piu’ volte abbiamo parlato di traiettorie, trattando, ad esempio, di asteroidi:

2012 DA14: c.v.d.

E alla fine Nibiru e’ un asteroide

La cosa piu’ importante che abbiamo capito, e che ora siamo in grado di riconoscere, e’ l’impossibilita’ di fare un calcolo esattamente preciso dell’orbita completa di un corpo. Ogni interazione con un altro corpo, determina una variazione della  traiettoria, e questo rende senza dubbio impossibile calcolare con la precisione profetizzata nell’articolo gli eventuali punti di impatto con la Terra.

Come anticipato qualche giorno fa, pian piano che le idee catastrofiste sul 21/12 cedono il passo al ragionamento scientifico, dobbiamo aspettarci ancora qualche teoria assolutamente campata in aria e messa su internet solo per alimentare il sospetto e, nella peggiore delle ipotesi, la paura delle persone. Prima di credere a qualsiasi teoria, ragionate sempre con la vostra testa. Per un’analisi scientifica e seria di tutte le profezie del 2012, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.

E se domani sorgessero due soli?

18 Dic

Il titolo la dice lunga, una delle ipotesi catastrofiste, molto proposta in rete in queste ultime ore, e’ proprio il sorgere di due Soli il 21 Dicembre 2012.

Al contrario di molte altre profezie di cui abbiamo parlato, questa non e’ un’ipotesi del tutto campata in aria, ma che merita un approfondimento attento.

Anche se molti di voi avranno subito pensato a Nibiru, non ci stiamo affatto riferendo a questo fantomatico decimo pianeta del Sistema Solare, di cui abbiamo parlato, smentendo la sua esistenza, in diversi post:

Asteroide Nibiru: considerazioni scientifiche

Finalmente le foto di Nibiru

La NASA torna a parlare di Nibiru

Evidenze di un decimo pianeta?

Nibiru e la deviazione delle Pioneer

Nibiru e’ monitorato dall’osservatorio di Arecibo?

Storia astronomica di Nibiru

Secondo le ipotesi, il secondo Sole in cielo sarebbe invece la stella Betelgeuse.

Cerchiamo di andare con ordine.

Betelgeuse e’ la seconda stella piu’ luminosa nella costellazione di Orione e distante, secondo gli ultimi calcoli, circa 640 anni luce dalla Terra. Per i non esperti vi ricordo che l’anno luce e’ soltanto un modo astronomico di misurare le distanze e che corrisponde alla distanza percorsa dalla luce in un anno. Dunque, sapendo che la luce si muove nel vuoto ad una velocita’ di 300000 Km/s, l’anno luce corrisponde ad una distanza di circa 10^13 Km, cioe’ 10000 miliardi di kilometri. Perche’ si usa l’anno luce? Semplicemente perche’ e’ piu’ pratico parlare di qualche anno luce, piuttosto che dire ogni volta milioni di miliardi di kilometri.

Betelgeuse e’ facilmente identificabile nel cielo stellato, cosi’ come l’intera costellazione di Orione, che, essendo posizionata vicino all’equatore celeste, risulta visibile da quasi ogni parte del mondo.

Ecco una foto delle costellazione di Orione, in cui la luce delle stelle formanti la figura e’ stata amplificata per renderla meglio visibile:

Foto di Orione amplificata con l'indicazione di Betelgeuse

Foto di Orione amplificata con l’indicazione di Betelgeuse

La stella indicata dalla freccia e’ proprio Betelgeuse.

Ora, veniamo alla profezia del 21 Dicembre. Betelgeuse e’ da sempre in quella posizione, perche’ mai il 21 Dicembre dovrebbe cambiare qualcosa e quella stella dovrebbe apparire come un secondo Sole?

La risposta che trovate online e’ molto semplice, perche’ Betelgeuse potrebbe esplodere in una supernova espandendo nell’universo la maggior parte della materia che la costituisce e apparire dunque come un oggetto molto luminoso.

La spiegazione sembra molto semplice, ma in realta’ per poterla comprendere a pieno e per capire se realmente esiste questa possibilita’, si devono introdurre dei concetti di scienza, e di astronomia in particolare, non troppo difficili ma che devono essere seguiti attentamente.

Cerchiamo di analizzare queste ipotesi, mantenendo sempre un approccio molto divulgativo e accessibile a tutti.

Come forse molti di voi gia’ sanno, le stelle non sono sempre costanti nel tempo, ma hanno un loro ciclo vitale. A cosa e’ dovuto il loro ciclo? Una stella funziona come una centrale a fusione nucleare. Al suo interno, gli elementi vengono fusi per formare atomi piu’ pesanti e in questo processo viene emessa energia. Questo e’ anche il processo grazie al quale viene prodotta luce, che poi altro non e’ che l’emissione verso l’esterno di questa energia.

Ora, immaginiamo la stella come un serbatoio di atomi. Man mano che li fondiamo, ne avremo sempre di meno a disposizione. Il paragone piu’ semplice e’ quello di una qualsiasi automobile. Quando la benzina finisce, la macchina si ferma. Analogamente, quando il combustibile nucleare si esaursisce, la stella si trasforma evolvendosi in qualcos’altro.

In realta’, il processo e’ solo leggermente piu’ complicato, dal momento che il combustibile primario e’ l’idrogeno che viene fuso per formare elio che a sua volta viene fuso per formare atomi piu’ pesanti, via via fino ad arrivare al Ferro che e’ un elemento stabile che non puo’ essere bruciato per fusione nucleare. Ma non preoccupiamoci di questo. Quello che ci interessa in questo contesto e’ capire di che morte muore una stella.

Dunque, siamo arrivati a capire che una stella avra’ un tempo di vita limitato dal combustibile a disposizione. Al termine di questo ciclo vitale, l’evoluzione allo stadio successivo non e’ univoca, ma dipende da alcuni parametri, primo tra tutti la massa della stella stessa. In astronomia, le stelle vengono ad esempio catalogate in base alla loro massa rispetto al nostro Sole. In questo contesto, a volte trovate scritto “e’ una stella di 10 masse solari”, o “di 0.1 masse solari” e cosi’ via.

Come anticipato, in base alla massa della stella, l’evoluzione naturale del ciclo vitale puo’ essere diverso da caso a caso. Betelgeuse e’ una stella di massa pari a circa 15-20 volte quella del nostro Sole ed e’ in uno stadio della sua evoluzione chiamato di “supergigante rossa”. Si tratta di uno stadio abbastanza avanzato del suo ciclo vitale, e presenta fluttuzioni di luminosita’ che fanno pensare che sia prossima a passare al gradino successivo della sua evoluzione.

Fin qui tutto bene. Betelgeuse e’ una supergigante rossa e potrebbe passare allo stadio successivo.

Qual’e’ questo stadio?

Le stelle di massa come Betelgeuse, al termine del loro ciclo vitale esplodono formando una brillantissima Supernova di tipo II. Anche qui andiamo con ordine. Una supernova e’ un’esplosione stellare, estremamente energetica, che costituisce uno stadio finale per stelle molto massive.

Cosa significa invece di tipo II? Semplicemente che l’esplosione si genera dal collasso interno di una stella con massa superiore a 9-10 volte quella del nostro Sole, come nel caso dunque di Betelgeuse. Durante il collasso in supernova, quasi tutta la materia contenuta all’interno della stella viene letteralmente “sparata” nello spazio circostante con emissione elevata di energia e dunque con luminosita’ molto elevate.

Come apparirebbe Betelgeuse se esplodesse in una supernova di tipo II? Come potete capire facilmente, la sua luminosita’ sarebbe molto elevata il che la renderebbe visibile tranquillamente anche ad occhio nudo ed anche in pieno giorno. Vi riporto una immagine ricostruita che mostra come apparirebbe Betelgeuse, all’interno di Orione, dopo il collasso:

Betelgeuse_supernova

Questo ci fa capire molto bene perche’ si parla di un secondo Sole.

Ora, la cosa piu’ importante da capire e’: ci sono possibilita’ che Betelgeuse esploda proprio il 21 Dicembre?

Ovviamente, in astronomia e’ impossibile fare previsioni precise per il giorno, ma sull’evoluzione di Betelgeuse non vi e’ un parere univoco degli astronomi. Secondo alcuni, per essere precisi i piu’, Betelgeuse sarebbe ancora in una fase poco avanzata dello stadio di supergigante rossa. Questo comporterebbe ancora un periodo, fino anche ad 1 milione di anni, prima di poter assistere a questo spettacolo naturale. Secondo altri, le fluttuazioni della luminosita’ indicherebbero uno stadio molto avanzato della vita della stella e dunque la possibilita’ di esplosione in tempi brevi. Fate attenzione, quando in astronomia si parla di tempi brevi, come in questo caso, ci si riferisce in un lasso di tempo di qualche secolo.

Esiste anche una terza ipotesi, dibattutta scientificamente, che vorrebbe la stella gia’ esplosa. In questo contesto, vediamo ancora Betelgeuse cosi’ com’e’ solo perche’, dopo l’esplosione, ci vogliono 640 anni prima di vedere l’evoluzione da Terra. Questo periodo e’ proprio dovuto alla distanza della stella da noi.

E’ necessario premettere prima di tutto che, scientificamente, questa terza ipotesi e’ quella meno probabile secondo la scienza, ma comunque presa in considerazione. Nonostante questo, capite bene che e’ del tutto impossibile stabilire esattamente il giorno in cui vedremo Betelgeuse esplodere in una supernova. Dunque, l’ipotesi di vedere l’evoluzione esattamente per il 21 Dicembre e’ del tutto campata in aria.

Nonostante questa conclusione, vorrei aprire una brevissima parentesi. Se anche vedessimo l’esplosione di una supernova in cielo, cosa comporterebbe questo per noi? Sarebbe la fine del mondo?

Anche in questo caso, potete dormire sonni tranquilli. Supernove che esplodono a centinaia di anni luce da noi, espellono verso lo spazio enormi quantita’ di materia, ma questa non arriva assolutamente fino a Terra. L’unico effetto reale a Terra, e’ un aumento del flusso di neutrini che attraversano il nostro pianeta e che vengono prodotti dalle reazioni nucleari durante l’esplosione. Solo per curiosita’, vi dico che queste particelle hanno una probabilita’ di interagire con la materia estremamente bassa e sono in grado di attraversare l’intera Terra senza interagire con nulla. Pensate che anche il nostro Sole produce un enorme flusso di neutrini che attraversano il nostro pianeta, senza nessuna conseguenza per gli esseri umani. Ovviamente il nostro Sole e’ dietro l’angolo se paragonato ad una supernova in una qualche parte della Via Lattea.

Questo ci fa capire bene che comunque non vi e’ nessun pericolo di “fine del mondo” in caso di un’esplosione di supernova.

Per darvi ancora un’altra prova, le cronache storiche sono piene di esplosioni di supernove nella nostra galassia, e osservate da Terra. La piu’ famosa e’ forse l’esplosione del 1054 che porto’ alla formazione della Nebulosa del Granchio e che venne opportunamente riportata nelle cronache cinesi. In ordine temporale, l’ultima supernova osservata nella Via Lattea e’ del 1604 osservata anche da Keplero. Vi sono poi altri casi piu’ recenti ma che non sono stati direttamente osservabili da Terra. Per darvi l’idea, di esplosioni di supernove nella nostra galassia, se ne contano piu’ o meno una ogni 50 anni, ovviamente senza nessuan conseguenza diretta per noi.

Concludendo, abbiamo capito il perche’ si parla di questa esplosione di Betelgeuse. Abbiamo visto come l’ipotesi di una supernova sia in realta’ possibile, ma assolutamente non aspettabile per  il 21 Dicembre. La cosa piu’ importante che abbiamo capito e’ che le esplosioni di Supernove nella nostra Galassia non sono un evento cosi’ raro, ma che comunque non comportano nessun problema a Terra e soprattutto sul genere umano.

Analizzare le profezie del 2012, significa affrontare temi sempre attuali della scienza e che spesso vengono poco divulgati ai non addetti ai lavori. Per un’analisi scientifica del 2012, ma soprattutto per leggere un libro di divulgazione chiaro ed accessibile a tutti, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.