Tag Archives: verde

Schiuma per inquinamento nel Lazio?

11 Lug

Ieri, moltissimi siti e giornali hanno dedicato ampio spazio ad articoli ed interviste relative ad un curioso fenomeno che è avvenuto su alcuni tratti delle spiagge del Lazio. In particolare, tutti voi avrete visto le foto della spiaggia di Fiumicino invasa da cumuli di schiuma bianca che occupavano praticamente tutto lo spazio intorno agli ombrelloni chiusi.

Per completezza, vi riporto una di queste immagini scattate da un uomo che stava passeggiando quando ha visto la schiuma arrivare dal mare agitato portata dalla corrente:

Immagini della schiuma sulla spiaggia di Fiumicno

Immagini della schiuma sulla spiaggia di Fiumicno

Praticamente tutti i giornali hanno puntato il dito contro l’inquinamento dei mari del Lazio. Da un lato, questo atteggiamento è assolutamente comprensibile. Solo la settimana scorsa, Goletta Verde ha reso noti i risultati delle sue analisi basati su diversi campioni di acqua nei mari del Lazio, evidenziando come le acque siano fortemente inquinate in prossimità delle foci di torrenti e canali.

Personalmente, ma apro e chiudo parentesi, i dati non mi sorprendono. Come spesso diciamo, lo sfruttamento incontrollato delle risorse naturali ed i continui scarichi a mare non controllati che continuiamo a fare stanno creando forti problemi nelle acque italiane che possono provocare danni irreparabili all’ecosistema marino.

Detto questo però, parlare di inquinamento per il fenomeno che è avvenuto ieri a Fiumicino, mi sembra alquanto azzardato e solo figlio di una voglia sfrenata di speculazione sui problemi ambientali.

Perché dico questo?

Premetto che le analisi dell’Agenzia Regionale per la Protezione dell’Ambiente, ARPA, sono ancora in corso, ma diverse fonti autorevoli con cui sono pienamente d’accordo, hanno sottolineato come con una probabilità altissima il fenomeno non sia assolutamente dovuto all’inquinamento. Purtroppo, come spesso avviene, fa più comodo negli articoli citare quello che ci piace e che fa notizia piuttosto che la verità.

A cosa è dovuto il fenomeno della schiuma?

In questo periodo dell’anno, a causa della maggior frequenza antropica sulle spiagge e dell’aumento delle temperature, non vi allarmate, niente di preoccupante, si chiama “estate”, aumenta notevolmente il fitoplancton nelle zone costiere. Se, in questa fase, si registrano bruschi abbassamenti di temperatura, questi organismi unicellulari proteici possono morire.

Dunque?

Un bel mare agitato può fungere da centrifuga per queste proteine sciolte in acqua e il conseguente rimescolamento dovuto alle correnti crea proprio una schiuma bianca e densa che può arrivare, anche in notevole quantità, fino a riva.

Ragioniamo un secondo. Siamo a luglio, nei giorni scorsi si sono registrate temperature abbastanza elevate e questo, in modo del tutto naturale ed in linea con il periodo dell’anno, fa aumentare il fitoplancton. Negli ultimi 2 giorni però, le temperature, complice una perturbazione, si sono di nuovo abbassate. Poi? Sempre negli ultimi giorni, come riportato da tutti i siti che hanno proposto la notizia, il mare è stato notevolmente agitato.

Risultato?

Schiuma dovuta al fitoplancton che è arrivata a riva.

Ovviamente, non confondete le mie parole. Non voglio certo affermare che le acque del Lazio non siano inquinate, ma il fenomeno registrato nelle ultime ore non dipende assolutamente dall’inquinamento.

Se provate a cercare su internet, troverete tantissimi casi simili avvenuti negli anni sempre più o meno in questo periodo. Se proprio volete fare uno sforzo aggiuntivo, troverete anche diversi episodi avvenuti in tratti di costa che erano e sono riserve naturali protette, dunque assolutamente non inquinate.

Un esempio?

Schiuma bianca alle Tremiti a luglio dell’anno scorso:

Tremiti, Diomedee, 1 Luglio 2013

Ripeto, è un fenomeno naturale che è avvenuto, avviene e avverrà in futuro. Sappiamo già che molti tratti dei nostri mari sono fortemente inquinati, ed è sempre colpa nostra, ma cerchiamo di spiegare la bellezza di fenomeni naturali non comuni in termini divulgativi piuttosto che sparare cavolate per cercare di impressionare le persone.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

La fusione …. secondo gli ignoranti

13 Giu

Stamattina ho avuto la malaugurata idea di “spendere” (o forse “buttare”) mezz’ora per leggere le ultime notizie sui siti catastrofisti. Tante volte abbiamo parlato di questi spazi del web e della loro disinformazione martellante nei confronti delle persone. Eh si, ho detto proprio disinformazione. Questo termine, tanto caro a questi soggetti, e che praticamente sempre utilizzano per denigrare la scienza e gli scienziati intenti a nascondere alle persone comuni i loro loschi piani, e’ invece adatto per descrivere quello che loro fanno costantemente giorno per giorno. La cosa che mi lascia sempre piu’ interdetto e’ vedere quante persone credono alle notizie riportate da questi siti, un mix micidiale di falsita’, stupidaggini e distorsioni che prendono a calci le nozioni piu’ basilari della scienza.

Perche’ me la sto prendendo tanto oggi? Dovrei essere abituato, direte voi. Forse avete ragione, ma a volte, quando pensi di averle viste e lette tutte, ti accorgi che “non c’e’ mai limite al peggio!”.

Diverse volte su questo blog abbiamo parlato di energia e scenari energetici. In molti articoli, abbiamo analizzato e discusso sulle fonti rinnovabili cercando di capire in che direzione ci sta portando la ricerca e provando ad ipotizzare un futuro energetico sostenibile ed in grado di soddisfare la continua crescita della nostra soscieta’ che diviene sempre piu’ energivora.

In questo ambito, la discussione sul nucleare e’ sempre uno dei punti piu’ dibattuti e discussi anche tra il grande pubblico. Premesso che la ricerca sulla fissione nucleare e’ in continua evoluzione con lo studio di reattori intrinsecamente sicuri, posto d’onore in una discussione sul futuro spetta ovviamente alla fusione.

Per quanto riguarda la fusione, in diversi articoli:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

abbiamo analizzato il discorso della fusione fredda e dei fenomeni LENR. Come visto in questi articoli, in questo caso parliamo di fenomeni non dimostrati e che, ad oggi, non sono assolutamente in grado, chissa’ se mai lo saranno, di produrre piu’ energia di quella che consumano. Come evidenziato tante volte, questa e’ l’evidenza che abbiamo di fronte agli occhi. Non voglio denigrare per partito preso fenomeni non convenzionali e, come piu’ volte dichiarato, sarei io il primo a tornare sui miei passi qualora venisse dimostrato, in modo scientifico, che questa tipologia di reazioni sono in grado di produrre energia pulita.

Chiusa questa parentesi, torniamo a parlare di fusione nucleare nel senso piu’ scientifico del termine. Anche su questo argomento abbiamo scritto diversi articoli:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Fusione, ci siamo quasi?

In particolare, come noto, lo studio delle reazioni di fusione e’ oggi incentrato nel rendere positivo il bilancio di reazione, cioe’ fornire in uscita piu’ energia di quella che e’ richiesta dal sistema per poter funzionare. Come visto, in questo ambito, ci sono due linee principali di studio, entrambe riguardanti il confinamento del plasma nel reattore: il confinamneto inerziale e quello magnetico. Per quanto riguarda il primo, gli studi riguardano l’ottimizzazione del consumo energetico dei laser utilizzati per innescare il processo, mentre nel secondo caso parliamo dei reattori di tipo Tokamak. Per questi ultimi, in particolare, le speranze principali sono riposte nel progetto ITER, il primo reattore di ricerca per fusione, attualmente in costruzione nel sud della Francia.

Riguardo alla fusione e al suo ruolo negli scenari energetici futuri, in un precedente articolo avevo riportato anche una mia intervista fatta in occasione di un convegno incentrato sullo scenario energetico 2050 di forte interesse per la Comunita’ Europea:

Scenario energetico 2050

Fatto questo doveroso preambolo, cosa ho letto stamattina? Normalmente non riporto link a questo tipo di siti, proprio per evitare di publicizzare notizie tendenziose. Questa volta, vista l’assurdita’ della cosa, facciamo “nomi e cognomi”:

Russia: un nuovo reattore a fusione per dare energia a tutto il mondo

Vi pregherei di leggere tutto l’articolo dall’inizio alla fine e di confrontarlo non solo con quello che abbiamo gia’ scritto, ma con qualsiasi fonte “reale” vogliate.

Vi rendete conto?

Secondo questi tizi, ITER avrebbe funzionato nel 1990 e oggi si sta costruendo un reattore a fusione in Russia per dare energia a tutto il mondo! Si fa poi un’enorme confusione per quanto riguarda le scorie, parlando prima di reattori che “tengono intrappolate le scorie”, salvo poi dire che le scorie non ci sono. Si parla di uranio dicendo che pero’ il reattore non funziona ad uranio. Solo per inciso, come potete confrontare con l’intervista riportata in precedenza, si stanno mescolando insieme, senza un senso logico, fusione, fissione e i cosiddetti “Accelerator Driven System”.

Questi sarebbero i siti che fanno informazione libera smascherando gli scienziati corrotti e pagati dal sistema?

Resto veramente basito. In primis per le notizie date da questi siti ma, soprattutto, nel vedere cosi’ tante persone che seguono e credono a notizie di questo tipo.

Ve lo ripeto, non fidatevi mai di chi vuole convincervi a tutti i costi di qualcosa. Ascoltate tutte le campane, confrontate quanto detto, studiate autonomamente e fatevi una vostra idea. Magari, alla fine, la vostra idea non sara’ neanche giusta ma e’ la vostra. Se poi qualcuno vi convince del vostro errore, siate sempre pronti a cambiare opinione, ma sempre dopo aver ponderato tutto. Lo stesso vale per tutti, anche per i siti scientifici. Siamo cosi’ bombardati da informazioni che a volte e’ difficile capire dove e qual e’ la verita’. Ripeto, ascoltate, analizzate ma, soprattutto, pensate.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

All’autogrill pipi’ e benzina tutto insieme

17 Nov

Da anni siamo afflitti dal caro benzina. La spesa necessaria per il pieno della nostra macchina continua ad aumentare nel tempo, complici le guerre, la crisi, gli screzi tra Stati, ecc. Tutte cose cosi’ lontane, anche solo apparentemente, da noi e che necessariamente fanno aumentare il prezzo del carburante.

Quante volte avrete sentito dire la frase: “la benzina costa troppo, quanto sarebbe bello farla andare a pipi’!”.

La frase non e’ assolutamente sparata a caso, anzi qualcuno ci ha pensato veramente.

Lo scorso fine settimana, durante la Fiera del Lavoro Verde a Porto Conte in Sardegna, un imprenditore locale ha presentato proprio un motore alimentato ad urina.

Forse vi sembrera’ uno scherzo, ma e’ proprio cosi’.

Ad essere sinceri, l’imprenditore sardo Franco Lisci ha presentato due diversi motori alimentati con lo speciale carburante. Uno dei due motori puo’ essere utilizzato per il trasporto, auto, moto, camion e anche barche, mentre il secondo e’ studiato ed ottimizzato per essere utilizzato come gruppo elettrogeno. In particolare, questo secondo motore e’ pensato per alimentare apparecchi domestici come forni, pc, lavatrici, ecc.

Cerchiamo pero’ di dare qualche dettaglio in piu’ su questa possibile svolta ecologica dei nostri motori.

Come e’ facile immaginare, questo speciale carburante e’ talmente diffuso e disponibile che gia’ in molti avevano provato ad utilizzarlo come combustibile. Questa applicazione presentava pero’ delle limitazioni assolutamente non banali da superare.

Qualche anno fa, ad esempio, venne proposta una cella elettrolitica in grado di separare l’urina in azoto, acqua e idrogeno ed alimentare cosi’ piccoli motori. Analoga cosa venne proposta diverse volte per i motori elettrici. Il problema principale di queste soluzioni era la scarsa autonomia, la rumorosita’ dei motori realizzati ma soprattutto la manutenzione degli stessi. Utilizzare urina all’interno dei motori creava una patina di sostanze inquinanti in grado di rovinare irrimediabilmente i dispositivi.

L’idea innovativa dell’imprenditore sardo e’ stata appunto quella di realizzare uno speciale filtro per bloccare gli inquinanti. Piccola premessa, Franco Lisci e’ coinvolto con la sua azienda nel progetto Casa Verde CO2.0, rete di diverse ziende sarde che si scambiano idee e progetti per trovare soluzioni verdi per il futuro. Proprio grazie a questa collaborazione e’ stato possibile realizzare il filtro fondamentale per  questo motore.

Lo speciale filtro, chiamato Orilana Smart, e’ un semplice tampone realizzato al 100% con lana di pecora, ovviamente proveniente dalla Sardegna. Con questo abbiamo dunque un prodotto e un’innovazione completamente made in Italy.

Fate pero’ attenzione ad una cosa, se provate a leggere gli articoli in rete che parlano di questa innovazione, trovate delle idee un po’ confuse. Molti giornali, forse leggendo frettolosamente la notizia, non ha capito a pieno come funziona e cercano di farvi credere che il futuro dei trasporti sara’ questo:

1-carburante-urina

Prima di tutto, per la legislazione italiana, una pratica del genere e’ illegale. Non e’ possibile infatti sostituire completamente la tipologia di carburante per motivi ambientali, o forse economici. I due motori proposti dall’imprenditore sardo sono invce gia’ stati regolamentati per legge ed approvati dallo Stato italiano. Per ottenere questo risultato, l’urina non viene utilizzata come carburante, bensi’ come additivo. Questo consente, come detto, di rendere legali i motori, ma soprattutto di ottimizzare la resa.

Quali vantaggi si ottengono utilizzando questi motori?

Come dichiarato dallo stesso Franco Lisci, il risparmio sarebbe del 35% sui motori a benzina, del 60% su quelli a gasolio e anche fino all’80% sui motori a gas. Inoltre, questo sistema sarebbe perfettamente utilizzabile anche per i camion e le barche.

Grazie all’utilizzo di questo speciale motore, i prodotti di scarico delle automobili sarebbero molto meno inquinanti ed inoltre verrebbe prodotta, come uscita del filtro, acqua ricca di sostanze nutritive, utilizzabile dunque nell’agricoltura per irrigare.

Diversi agricoltori sardi hanno gia’ fatto richiesta per utilizzare questi motori nelle loro aziende alimentandoli mediante l’urina degli animali, perfettamente compatibile con il sistema e simile a quella umana,

Detto questo, quella presentata in Sardegna potrebbe rappresentare una buona innovazione nel mercato dei motori. Come detto, non pensate di poter aprire il tappo della vostra auto e decidere di fare un pieno natuale. Si tratta di motori prototipali che necessiteranno di studi prima di poter essere applicati su vasta scala. Sicuramente, le premesse sono ottime e soluzioni di questo tipo potranno dare un contributo importantissimo per la lotta all’inquinamento dei motori.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

ISON: cometa in technicolor

15 Nov

Della ISON abbiamo parlato in tantissimi articoli:

Rapido aggiornamento sulla ISON

2013 o ancora piu’ oltre?

E se ci salvassimo?

Che la ISON abbia pieta’ di noi!

– Se la Ison non e’ cometa, allora e’ …

Riassumendo, si diceva che questa sarebbe stata la cometa del secolo con un passaggio talmente luminoso da essere perfettamente visibile ad occhio nudo in pieno giorno. Come visto pero’, queste stime sono state notevolmente ridimensionate quando si e’ potuto stimare il diametro del nucleo di questa cometa che, come visto, e’ inferiore ad un paio di kilometri. Nonostante questo, gia’ da mesi, i siti catastrofisti si sono scatenati nel lanciare previsioni e profezie legate a questa cometa: la Ison e’ Nibiru, la Ison arrivera’ sulla Terra, no, anzi, e’ un’astronave aliena, nemmeno e’ un pianeta, una costellazione, un mini sistema solare, ecc. Come visto negli articoli precedenti, tutte assurdita’ facilmente smentibili con un minimo di ricerca su internet ma, soprattutto, con un minimo di ragionamento.

Una particolarita’ pero’, almeno a mio avviso, questa cometa sicuramente la avra’: sara’ ricordata come l’oggetto celeste che maggiormente ha dato spunto per annunciare catastrofi.

L’ultima sparata che sta facendo riaccendere la discussione su internet e’ legata al colore di questa cometa. Come forse avrete letto, al passaggio vicino a Marte la Ison appariva di un bel colore verde. Continuando la sua corsa verso il perielio pero’, la cometa ha improvvisamente cambiato colore divenendo blu.

Cosa significa questo?

Inutile dire che si tratta, sempre secondo gli amici catastrofisti, di un fatto eclatante e misterioso, ovviamente non compreso dalla scienza. Inoltre, il nuovo colore della cometa sarebbe l’indicatore che la Ison e’ in realta’ la tanto temuta Blue Kachina della profezia Hopi. Di questa profezia abbiamo gia’ parlato abbondantemente in questo articolo:

Il 2012 e la profezia Hopi

Dunque, ci risiamo, una nuova fine del mondo ci attende tra pochi giorni. Meno male! Era gia’ qualche giorno che non veniva annunciata una nuova fine per la nostra amata Terra al punto che cominciavo a preoccuparmi.

Premessa, come visto nell’articolo riportato, la profezia Hopi riguarda qualcosa completamente diverso e, comunque, si tratta di un racconto di questo popolo indiano.

Detto questo, cerchiamo di capire se veramente c’e’ qualcosa di anomalo in questo cambio di colore.

In realta’, cambiamenti di colore lungo la traiettoria non sono affatto straordinari e vengono mostrati da diverse comete. Come potete facilmente immaginare, man mano che questi corpi si avvicinano al Sole vengono investiti da una radiazione sempre crescente ed inoltre aumenta anche la loro temperatura. Come visto in questo articolo:

Cos’e’ una cometa

questi corpi sono caratterizzati dalla sublimazione degli elementi che li compongono e, dunque, anche il colore caratteristico sara’ legato alla chimica dell’oggetto.

Bene, questa e’ una spiegazione semplice e comprensibile per tutti.

Pensateci, se ci sono diversi elementi questi possono “bruciare” in momenti diversi. Inoltre, un elemento puo’ essere piu’ dominante e rendere visibili gli altri solo in un secondo momento. Tutte cose perfettamente chiare e che possono spiegare in primis il colore delle comete e anche, come nel caso della Ison, cambi di colore lungo la traiettoria.

Ora pero’, e’ interessante capire da cosa siano determinati i colori verde e blu di cui stiamo parlando.

Su questo punto devo aprire una parentesi su molti siti di informazione scientifica o che pretendono di essere considerati tali. Se provate a cercare informazioni su internet, trovate che il colore verde e’ dovuto al cianogeno ma anche il colore blu e’ dovuto al cianogeno. Forse, e dico forse, si fa un po’ di confusione.

Per capire bene, vi mostro una tabella con gli elementi che possono essere presenti nella coda di una cometa e che emettono nello spettro del visibile:

Particelle a maggiore emissione
nel campo visibile
Molecole nm Ioni nm
CN 399 CO+ 426
C3 406 H3O+ 700
CH 435
C2 514

Vedete che il cianogeno,CN, emette a 399 nanometri. Cosa significa? Piccola digressione. Il cosiddetto spettro del visibile e’ quella banda di frequenze, o lunghezze d’onda, che i nostri occhi sono in grado di vedere. In questo spettro possiamo inserire appunto i diversi colori ognuno con una lunghezza d’onda diversa. Senza tanti giri di parole, vi mostro una seconda tabella:

Colore Frequenza Lunghezza d’onda
Violetto 668-789 THz 380–450 nm
Blu 631-668 THz 450–475 nm
Ciano 606-631 THz 476-495 nm
Verde 526-606 THz 495–570 nm
Giallo 508-526 THz 570–590 nm
Arancione 484-508 THz 590–620 nm
Rosso 400-484 THz 620–750 nm

Come vedete, partendo dal violetto si arriva fino al rosso aumentando la frequenza. Prima di questi valori abbiamo gli ultravioletti dopo gli infrarossi, bande di frequenze non osservabili ai nostri occhi.

Ora, il cianogeno, cosi’ come visto nella prima tabella, emette a 399 nanometri. Detto in altri termini, quando l’emissione di luce da parte di questo elemento e’ presente, la cometa apparira’ di un colore blu/violetto, come comprensibile utilizzando la seconda tabella. Notate inoltre come il colore verde abbia una lunghezzad’onda piu’ grande tra 495 e 570 nanometri. Capite dunque che il cianogeno non puo’ essere responsabile del colore verde che si osservava quando la Ison era in prossimita’ di Marte.

Sempre facendo riferimento alla prima tabella, e’ evidente che il colore verde era invece dovuto all’emissione di luce da parte di molecole di C2 che emettono luce intorno ai 514 nanometri.

Questo ci fa capire come, a volte, anche siti scientifici facciano confusione o forniscano informazioni non reali.

Ultima considerazione, ora che la cometa e’ divenuta blu, mostrando quindi la presenza di cianogeno, alcuni siti si sono lanciati nella speculazione su questo gas. Come e’ noto, si tratta di un composto tossico per l’essere umano se viene respirato. Ragioniamo, e’ contenuto in una cometa che, se anche superasse il perielio, si troverebbe a 60 milioni di kilometri da noi. Secondo voi c’e’ pericolo?

Nonostante questo, si stanno creando le condizioni per riproporre la truffa del 1910 quando al passaggio della cometa di Halley venne proposta la presenza di questo gas nelle code della comete, poi risultato reale. In quell’occasione molti buontemponi, leggasi truffatori, vendevano maschere antigas e pillole miracolose per difendersi dal pericolo del cianogeno che poteva arrivare sulla Terra.

Non mi meraviglierei se questa cosa venisse riproposta ora.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

ENI green data center

5 Nov

Nella sezione:

Hai domande o dubbi?

un nostro affezionato lettore ci ha chiesto delucidazioni sulla nuova struttura chiamata ENI green data center che e’ stata inaugurata solo pochi giorni fa.

Come spesso accade in Italia, la filosofia e la costruzione, non che la messa in opera, di questo importante polo e’ passato molto in sordina con solo pochi articoli su qualche giornale specializzato. Questo e’ completamente assurdo. La struttura rappresenta un’innovazione tecnologica molto importante a livello mondiale e meriterebbe, molto piu’ di tante notizie che riempono i giornali tutti i giorni, di essere pubblicizzata.

Per sapere qualcosa su questo centro, potete andare direttamente sul sito internet:

ENI green data center

Se proprio devo essere sincero, e questo e’ in primis un monito per i tecnici dell’ENI che hanno poco curato questo aspetto, leggendo il sito non e’ chiaramente comprensibile lo scopo di questo centro. Forse, anche questo aspetto ha contribuito alla poca pubblicita’ ricevuta sui giornali.

Cerchiamo dunque di supplire a questa mancanza di informazioni provando a spiegare quali sono gli obiettivi e l’eccellenza di questo centro tutto made in Italy.

L’ENI green data center sorge vicino Pavia, precisamente a Ferrera Erbognone, ed e’ stato inaugurato il 29 ottobre. Questa data cade poco meno di due anni dopo la posa della prima pietra. Anche questa informazione ci fa capire quanto il progetto sia stato seguito in maniera puntuale e rapida.

A cosa serve?

Questa e’ ovviamente la domanda principale. Per capirlo, cerchiamo di fare un ragionamento insieme. Ogni qual volta si richiede un calcolo molto complesso, e’ necessario disporre di una potenza di calcolo notevole. Con questo intendo dire che per risolvere algoritmi complessi e lunghi e’ necessario disporre di tanti pc equivalenti che lavorano insieme. Ovviamente, la cosa sarebbe possibile anche con il vostro pc di casa, ma, probabilmente, richiederebbe anni e anni per poter arrivare ad un risultato. Bene, per velocizzare il tutto, si utilizzano dei potenti centri di calcolo che racchiudono molte CPU, cioe’ molti processori, che lavorano in simultanea dividendosi il lavoro. In questo modo, potete raggiungere lo stesso risultato in brevissimo tempo. Questo e’ quello che viene indicato come potenza di calcolo.

Chi utilizza questi centri?

In realta’, questi speciali centri tecnologici trovano applicazione in tantissimi settori anche profondamente diversi tra loro. Qualche esempio? Nella fisica, scusate l’esempio scontato ma e’ quello che conosco meglio, i centri di calcolo servono per poter analizzare i dati, impacchetarli secondo una struttura facilmente leggibile dall’utente finale ma anche per lavorare in tampi velocissimi per produrre quello che viene chiamato un “trigger”, cioe’ decidere in tempo reale se un particolare evento raccolto e’ interessante per la fisica, e quindi deve essere registrato, oppure no. Come potete facilmente capire, per concludere queste operazioni in tempi brevissimi, magari quelli delle collissioni che avvengono dentro gli acceleratori, e’ necessario disporre di tanti processori.

Altri campi di utilizzo: l’economia, la biologia, la geologia, la matematica, l’ingegneria e cosi’ via. In che modo? Per fare qualche esempio, in economia per simulare un modello economico nel tempo, in biologia per studiare le risposte, ad esempio, del DNA in cui vengono inclusi tutti i costituenti ed e’ necessario simulare in dettaglio le interazioni con diverse molecole. In ingegneria per simulare la risposta di una struttura, anche molto grande e complessa, alle varie sollecitazioni che incontrera’ durante il suo utilizzo.

Come potete facilmente capire, questi centri di calcolo risultano fondamentali per studiare diversi scenari molto complessi e proprio per questo motivo la ricerca in questo settore ha mostrato un boom negli ultimi anni senza precedenti.

Ma a cosa serve questo centro allENI?

Una volta capita l’importanza di un centro di calcolo all’avanguardia, e’ lecito chiedersi a cosa serve questo tipo di struttura ad un’azienda come l’ENI. Quello che molto spesso i non addetti ai lavori ignorano e’ che le grandi societa’, appunto come l’ENI, hanno sempre un reparto di ricerca e sviluppo all’avanguardia nei propri settori, fondamentali proprio per mantenere un ruolo di leader sul mercato.

Nel caso dell’ENI, al nuovo data center sara’ inviata tutta la richiesta informatica dell’azienda. Oltre ai sempli algoritmi per l’elaborazione delle bollette, il centro sara’ specializzato nello studio di settori strategici per l’azienda.

Solo per fare un esempio, prima di procedere ad una trivellazione in un punto, visto l’enorme costo che operazioni di questo tipo comportano, e’ importante essere sicuri che il punto sia quello buono. Per capire questo aspetto, e’ necessario simulare in dettaglio la regione o comunque la zona di terreno in esame. Per fare questo si devono costruire modelli, cioe’ algoritmi, quanto mai simili alla realta’, che includono dunque tantissimi aspetti del terreno e delle sue relazioni con il restante ecosistema. Anche in questo caso, per analizzare strutture di questo tipo e’ necessario manipolare tantissimi dati con algoritmi complessi e che richiedono dunque una notevole potenza di calcolo.

Bene, e cosa ha di speciale il nuovo green data center?

Piu’ che rispondere a questa domanda, che comunque affrontiamo, e’ importante chiedersi perche’ compare l’aggettivo “green” nel nome.

Pensate al vostro pc, come sapete benissimo all’interno sono presenti una serie di ventole e dissipatori. A cosa servono? Ovviamente per raffreddare il processore, la scheda video, l’alimentatore, ecc. Questo perche’ abbiamo elementi che scaldano molto quando vengono utilizzati al pieno delle prestazioni. Il calore e’ nemico dell’elettronica che per poter funzionare richiede un intervallo di temperature che non sia troppo alto.

Bene, allo stesso modo, pensate quanto faticoso possa essere eliminare, cioe’ portare via, il calore da un centro di calcolo in cui sono presenti tantissime CPU.

Per darvi una stima, nel green data center dell’ENI sono presenti qualcosa come 60000 CPU.

Per poter far girare le ventole che servono al raffreddamento, dovete spendere dell’energia. Rapportate sempre questi ragionamenti ad un centro di calcolo e capite subito come questi numeri divengono immediatamente importanti. Sempre per fare esempi pratici, durante l’anno scorso la quantita’ di CO2 emessa solo dai centri di calcolo presenti nel mondo, che e’ direttamente rapportata alla richiesta di energia per il funzionamento, e’ stata il 2% del totale, paragonabile quindi a quella emessa dagli aerei civili utilizzati per il trasporto. Detto questo, capite bene che non stiamo parlando di numeri trascurabili.

L’ENI green data center rappresenta un record mondiale per il basso consumo di energia con potenze che arrivano fino a 50 KW per metro quadrato occupato. Il vero record sta poi nell’utilizzo che viene fatto di questa energia. Se si calcola il rapporto tra energia consumata e quella spesa per far funzionare la parte dei processori, dunque se volete una sorta di efficienza del sistema, si trovano numeri davvero innovativi. Per la maggior parte dei centri di calcolo al mondo, questo rapporto si aggira intorno a 2 o 3. Questo significa che se vi serve 1Kw per i computer, ne dovete richiedere fino a 3 dalla rete perche’ servono per il raffreddamento o per altri elementi che comuqnue disperdono energia non lasciandola ai sistemi informatici veri e propri. Per l’ENI green data center, questo rapporto vale solo 1.2 rappresentando un record mondiale assoluto raggiunto in Italia.

Uno degli aspetti piu’ importanti e che contraddistingue il nuovo centro dai suoi predecessori e’ la presenza di alti camini sugli edifici. Questi sono molto importanti per permetter la ventilazione forzata dell’aria e dunque risparmiare energia elettrica.

L’enorme potenza di calcolo sviluppata e le migliorie tecnologiche fatte hanno anche richiamato diverse societa’ private ed istituzioni universitarie. Da queste sono poi nate delle collaborazioni internazionali con enti accreditati che non fanno altro che sostenere ed incentivare la ricerca italiana in questo settore.

Concludendo, l’ENI green data center in provincia di Pavia rappresenta un notevole passo avanti nello sviluppo e nella ricerca sui centri di calcolo. Purtroppo, l’inaugurazione di questo innovativo polo e’ passata un po’ in sordina tra i vari media che non hanno assolutamente pubblicizzato la struttura dando la giusta enfasi che meritava. Come visto, potenze di calcolo notevoli richiamano collaborazioni da istituzioni sia private che pubbliche favorendo ancora di piu’ la collaborazione scientifica ed in progressi che solo in questo modo potrebbero essere portati avanti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Marte: altro che batteri, ci sono foreste!

15 Ott

Attraverso la pagina Facebook di Psicosi 2012, un nostro caro lettore, sempre disponibile a fornire spunti interessanti, ci ha chiesto di commentare alcuni articoli che circolano in rete gia’ da diverso tempo, ma che ancora non erano stati affrontati qui sul blog.

Come sapete, diverse volte ci siamo lanciati a commentare le ultime scoperte fatte dalle sonde orbitanti intorno a Marte o dei Rover in superficie, ultimo di questi Curiosity a cui abbiamo dedicato diversi post. Lo studio della superficie di Marte, oltre all’interesse scientifico indubbio, suscita da sempre la curiosita’ e la fantasia di molte persone. Come e’ facile intuire, ogni qual volta si parla di pianeti diversi dalla Terra, il primo pensiero e’ quello della ricerca di forme di vita intelligente.

Piccola parentesi di cui abbiamo discusso gia’ moltissime volte ma che e’ meglio ricalcare, la scienza non si oppone assolutamente all’esistenza di forme di vita diverse dalla nostra. La ricerca ha piu’ volte cercato precursori o forme di vita nei pianeti del Sistema Solare e, ancora oggi, lo studio dei pianeti extrasolari punta per prima cosa a trovare zone abitabili in cui potrebbe essersi sviluppata la vita. Fate sempre pero’ attenzione ad una cosa, parlare di forme di vita non significa parlare di omini verdi che viaggiano nel cosmo. Quando in scienza si parla di forme di vita, si intendono quasi sempre forme di vita semplici come batteri o microorganismi che potrebbero, anche in condizioni estreme, essere riuscite a svilupparsi su un pianeta.

Proprio a questo filone, appartiene la notizia che vorrei commentare. Probabilmente, trattandosi come detto di una storia vecchiotta, alcuni di voi potrebbero gia’ aver sentito queste affermazioni.

Durante la sua missione, la sonda MGS, Mars Global Surveyor, ha scattato diverse immagini ad alta risoluzione di alcune zone di Marte. In particolare, ci sono molti scatti che riguardano la fascia vicino al polo Sud e che hanno suscitato notevole attenzione fin dai primi momenti.

Di cosa si tratta?

Prima di tutto, vorrei mostrarvi una di queste foto:

Foto del presunto albero sulla superficie di Marte

Foto del presunto albero sulla superficie di Marte

Cosa sono quelle strane figure che appaiono sulla superficie? Senza tanti giri di parole, e nemmeno richiedendo uno sforzo troppo notevole alla fantasia, queste immagini sembrano senza dubbio ritrarre degli alberi. Tra l’altro, si notano anche molto bene le ramificazioni.

Se ancora non siete contenti, vi mostro un’altra immagine, forse ancora piu’ esaustiva della prima:

Quella che sembra una foresta su Marte

Quella che sembra una foresta su Marte

Qui addirittura si vede anche la colorazione verde degli alberi e, avendo ripreso la superficie da un’altezza maggiore, si vede come non sia presente un singolo albero, ma addirittura una foresta di arbusti sulla superificie di Marte.

Possibile tutto questo?

Seguendo i siti che raccontano la storia, assolutamente si. Per prima cosa, le dimensioni degli arbusti sarebbero molto maggiori di quelle normalmente presenti sulla Terra. Confrontando con la scala della foto, gli alberi mostrati avrebbero un diametro anche fino ad 1 km. Possibile? Ovviamente si, sapete perche’? La minore atmosfera del pianeta rosso rispetto a quella terrestre, renderebbe necessaria una superficie maggiore per lo scambio gassoso. Proprio per questo motivo gli alberi crescerebbero molto di piu’ che sulla Terra, appunto per un concetto di sopravvivenza. Inoltre, gli alberi avrebbero radici molto profonde per pescare acqua nello stato liquido nel sottosuolo di Marte.

Aspettate un secondo, ci sono foto della NASA che mostrano l’esistenza di “foreste” su Marte e poi, a distanza di anni, mandiamo Curiosity dentro il createre Gale, brutto, polveroso, senza niente da vedere se non qualche sasso, con la scusa di cercare batteri? Qualcosa non torna.

Perche’ avviene questo?

Che domande, la risposta e’ ovvia: le missioni marziane odierne sono solo una copertura per far vedere che la ricerca continua. Come al solito, i signori della NASA fanno ricerca per finta. Sanno che ci sono foreste in molte zone, ma mandano i rover in punti dove non potranno trovare niente. In questo modo, riescono a mantere il segreto di Marte.

Alcuni siti si lanciano anche nella spiegazione del perche’ avverrebbe questo. La risposta anche qui e’ molto semplice, ed e’ da ricercarsi nella religione. Sarebbe sconvolgente per la nostra societa’, ancorata alla tradizione religiosa, sapere che esistono forme di vita evolute, o anche solo alberi, su un altro pianeta. Chi li ha creati? Il nostro Dio? Un altro? Secondo le fonti, questo potrebbe destabilizzare l’animo umano facendolo entrare in una via senza ritorno.

Tralasciando questi tentativi di spiegazione, per carita’ interessanti dal punto di vista antropologico e umano, cerchiamo invece di capire cosa sarebbero queste foto che si trovano in rete.

La prima cosa che si potrebbe pensare e’ che le foto siano dei falsi. In realta’ non e’ cosi’, o meglio non lo e’ totalmente.

Queste foto sono state scattate utilizzando lo strumento MOC, che sta per Mars Orbiter Camera. Una camera abbastanza potente utilizzata per scattare foto della superficie dall’orbita di passaggio. Si tratta in realta’ di un sistema composto da tre camere. La prima, la piu’ potente, era in grado di scattare foto ad alta risoluzione in bianco e nero. Le altre due invece, a risoluzione minore, erano sensibili solo al rosso e al blu. Perche’ questo? La sensibilita’ a lunghezze d’onda specifiche poteva aiutare ad identificare ed isolare determinate emissioni o spettri specifici utili per analizzare in dettaglio alcune carateristiche. Se pensate che il sistema sia antiquato, non dimenticate che la missione MGS e’ terminata gia’ nel 2001, per cui la tecnologia a bordo, oggi, puo’ sembrare molto datata.

Prima osservazione, se ci sono camere in bianco e nero, sul rosso o sul blu, come e’ possibile avere una splendida foto, come la seconda mostrata, in cui si vede una foresta verdognola? Molto semplice, questa foto, cosi’ come molte altre che trovate in rete, sono state ricolorate a posteriori utilizzando programmi di grafica. Perche’ questo? Risposta quantomai facile, per spingere ancora di piu’ l’opinione che si trattasse di foreste sulla superficie di Marte.

Attenzione pero’, d’accordo che il colore e’ falso per capacita’ tecnologica, ma anche se immaginiamo le foto in colori diversi, le strutture presenti sono sempre paragonabili ad alberi.

Cosa sono queste forme che si vedono?

Anche qui, la risposta e’ quantomai facile da dare. Quelli che si vedono sono dei semplici sbuffi di anidride carbonica che partono dal permafrost di Marte e si alzano verso il cielo. Da cosa sono dovuti? Il permafrost di Marte e’ costituito di ghiaccio secco, o anidride carbonica allo stato solido. Le foto che abbiamo mostrato sono state scattate nel mese di ottobre, cioe’ quando stava iniziando l’equivalente primavera in quella regione di Marte. Questo non significa altro che le temperature erano in rapida ascesa.

Avete mai visto del ghiaccio secco? Come sapete, e’ una sostanza che non passa per lo stato liquido ma, attraverso il processo cosiddetto di sublimazione, evapora passando immediatamente da solido a gas.

Fin qui ci siamo. Ora, e anche questa non e’ una novita’, il terreno di Marte e’ costituito da una sabbia molto sottile e che spesso viene modellata da vere e proprie tempeste. Queste possono, durante i mesi invernali, ricorprire il permafrost seppellendo lo strato traslucido di ghiaccio secco. Quando poi le temperature si alzano, il vapore intrappolato nel terreno fa aumentare la pressione arrivando poi ad uscire con sbuffi di forte intensita’. Risultato di queste emissioni sono lanci di polveri anche a diverse centinaia di metri dal punto di fuoriuscita.

Che prove ci sono a sostegno?

Per prima cosa, la struttura del terreno di Marte e’ conosciuta molto bene e quindi questa spiegazione e’ compatibile con la conoscenza che abbiamo. Inoltre, ma questo spesso i siti che sostengono l’ipotesi foresta dimenticano di dirvi, nelle foto successive a quelle riportate, scattate poco dopo, non si notano piu’ gli alberi di cui stiamo parlando, ma qualcosa di questo tipo:

Segni sul terreno lasciati dall'emissione di CO2 dal permafrost

Segni sul terreno lasciati dall’emissione di CO2 dal permafrost

Questi altro non sono che i segni lasciati dalla fuoriuscita della CO2 dal terreno. Le righe che vedete sono proprio le linee di fuga verso le quali e’ stata lanciata la sabbia. Non credo assolutamente che si possa pensare che gli alberi da 1 kilometro appaiono e scompaiono nel giro di pochi secondi.

A questo punto, non credo ci sia altro da aggiungere. Purtroppo, spesso, soprattutto in casi di questo tipo, la vista puo’ fare brutti scherzi. Ovviamente, sono io il primo a dire che le strutture mostrate potevano essere scambiate per alberi, ma, come spesso avviene, ci sono spiegazioni ben piu’ razionali e scontate che forse andrebbero ricercate.

Come detto all’inizio, questa storia gira gia’ da diverso tempo sulla rete e, ma anche a questo siamo abituati, di tanto in tanto viene ritirata fuori a sostegno dei tanti complotti architettati dalla NASA per non far conoscere la verita’ che si nasconderebbe nel nostro Sistema Solare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Medjugorje: la statua che si illumina

1 Ott

Sul forum di Psicosi 2012:

Psicosi 2012, forum

e’ stato postato un argomento molto interessante e che merita una spiegazione piu’ precisa. Come forse avrete letto dalla rete o sui giornali, in questi giorni si sta discutendo moltissimo di un nuovo presunto miracolo avvenuto a Medjugorje.

Ogni qual volta si vanno a toccare questi argomenti, si rischia di scontrarsi con l’opinione dei credenti che vedono un ragionamento su fatti del genere come un voler attaccare razionalmente qualcosa che razionale non e’, cioe’ la fede. Lungi da me mettere in discussione il credo che ognuno di noi puo’ avere. Il messaggio che vorrei far passare e’ che un approccio scientifico puo’ aiutarci a smascherare tante bufale che si sono rincorse negli anni, lasciando invece in maggior evidenza i fatti meno noti, a cui la scienza non riesce a dare una spiegazione, ammesso che questa ci sia.

Fatto questo doveroso preambolo, vediamo cosa riguarda il nuovo miracolo. Nella casa natale della veggente Vicka Ivankovic, uno dei 6 nomi storici legati alle visioni di Medjugorje, una statua della Madonna avrebbe iniziato ad illuminarsi in modo non spiegabile. Il fenomeno sarebbe iniziato solo pochi giorni fa e, come potete facilmente immaginare, ha gia’ richiamato pellegrini da ogni parte del mondo. Come potete leggere in rete, c’e’ addirittura chi parla di 15000 visitatori in pochi giorni venuti per vedere la luce anomala emanata dalla statua.

Prima di continuare, vi ricordo che di Medjugorje abbiamo gia’ parlato in questo post:

Apparizioni mariane e miracolo del Sole

dove, soprattutto, abbiamo ricordato che ad oggi queste apparizioni non sono ufficialmente riconosciute dalla Chiesa. Questo non per partire prevenuti, ma solo per spiegare il campo in cui andiamo a muoverci.

Detto questo, la statua in questione, che come detto si trova nella casa natale della veggente, e’ posizionata all’interno di una sala in cui la veggente stessa racconta di aver avuto molte visioni. Si tratta di una statua della Madonna di Lourdes regalata alla veggente circa 30 anni fa da una, come riportato dalle fonti, coppia di italiani che erano andati in visita quando si cominciava a parlare di apparizioni mariane sul posto.

Come sarebbe avvenuto il miracolo? Qualche giorno fa, un gruppo di italiani sarebbero andati in pellegrinaggio nella casa e si sarebbero fermati a pregare di fronte alla statua. Una volta terminata l’operazione, spegnendo la luce nel momento di uscire, si sarebbero accorti di questa luce proveniente dalla statua. Come anticipato, si tratterebbe di una luce molto intensa, in grado di illuminare l’intera stanza. Dopo poco pero’, la luce sarebbe diminuita di intensita’, ma rimanendo sempre visibile. Dopo questa prima manifestazione, la luce sarebbe apparsa a molti fedeli e non manca certo chi parla addirittura di luce accecante o la cui intensita’ aumenta in base al numero delle perghiere fatte.

Prima precisazione. Come spesso avviene in casi di questo tipo, nel giro di poco tempo la rete si riempie di testimonianze false e prove artefatte. Perche’ dico questo? Una delle poche foto in circolazione e’ questa:

La foto reale della statua della Madonna illuminata

La foto reale della statua della Madonna illuminata

Come riportato dai testimoni, per osservare la luce sarebbe necessario spegnere l’illuminazione della stanza e, anche in queste condizioni, sarebbe molto difficile riuscire a fotografare il fenomeno.

Tornando a noi, come vedete la luce emessa dalla statua e’ di un colore verdino, tendente al fosforescente. In alcuni siti si parla invece di luce rosa e si mostrano foto come questa:

Foto falsa con colori rosa

Foto falsa con colori rosa

in cui la luce e’ visibile anche in pieno giorno. Si tratta di foto false, che non ritraggono il fenomeno di questi giorni.

Analogamente, trovate poi chi, con buona maestria, ha ben pensato di amplificare la luce utilizzando programmi di grafica e riporta foto come questa:

Foto falsa con colori accentuati

Foto falsa con colori accentuati

con colori assolutamente non naturali e ottenuti solo grazie all’elaborazione digitale delle foto originali.

Bene, detto questo, cerchiamo di ragionare su quanto riportato. Prima cosa, come detto, il fenomeno sarebbe visibile spegnendo l’illuminazione della stanza e sarebbe divenuto visibile anche la prima volta mentre si spegneva la luce. Questo, insieme al colore osservato nella foto originale, ci spinge a pensare ad una fosforescenza della statua. Come sapete bene, il fenomeno della foforescenza e’ tipico di alcune sostanze che si caricano alla luce e poi emettono radiazione visibile anche in assenza di illuminazione. Al contrario della fluorescenza, che e’ un fenomeno di emissione istantanea, la fosforescenza puo’ avvenire anche diverso tempo dopo che la sostanza chimica e’ stata caricata alla luce. Colore caratteristico di questo fenomeno e’ appunto il verdino “fosforescente”. Secondo alcuni siti, il fenomeno potrebbe essere stato innescato cospargendo la statua di vernice fosforescente, acquistabile a buon mercato in qualsiasi negozio di ferramenta o di modellismo. Le parti che non risulterebbero accese nella foto, non sarebbero state cosparse di vernice.

Questa e’ una spiegazione logica e che deve essere tenuta in considerazione. Ovviamente, in questa discussione vorrei evitare di pensare che tutte le foto in rete, insieme alle tante testimonianze che si trovano, siano tutte false o spinte da “isteria collettiva”.

Secondo me, un’altra spiegazione possibile potrebbe invece essere data dalle parole addirittura di Padre Livio, direttore di Radio Maria. Secondo quanto riportato, anche padre Livio avrebbe una statua del tutto analoga a quella contenuta nella casa e l’illustre fonte riporta che anche la sua statua emana una fioca luce fosforescente. A differenza di quella del miracolo, la statua del direttore avrebbe sempre emanato questa luce.

Attenzione, avete presenti quelle statuine che si possono comprare come souvenir e che se messe al buio, dopo essere state caricate con la luce, emettono una fosforescenza? Bene, un’altra possibile spiegazione potrebbe essere proprio questa. Immaginiamo questa situazione, quando i pellegrini vanno nella casa per pellegrinaggio e preghiera, sicuramente si troveranno in condizioni di luce accesa. Potrebbe darsi che nessuno prima di oggi abbia notato la debole fosforescenza visibile quando si spegne la luce. Al contrario, la statuina potrebbe essere stata spostata nella stanza, consentendo di esporla per piu’ tempo ai raggi solari. In questo caso, e’ naturale pensare che la luce emessa per fosforescenza sia molto piu’ intensa di quella precedente, magari neanche visibile.

Detto questo, sempre Padre Livio afferma con certezza che l’avvenimento non e’ in nessun modo legato a Dio o ad un miracolo. Esiste anche secondo il prelato una spiegazione scientifica che deve essere trovata. Analogamente, i veggenti di Medjugorje, costantemente testimoni di apparizioni mariane, non riportano in nessun caso parole della Madonna in relazione alla statua che si illumina. Come e’ scontato pensare, se si trattasse di un miracolo, ci si aspetterebbe un messaggio della Vergina che ci invita a riflettere sul miracolo o comunque a prenderlo in maggiore considerazione.

Detto questo, capire l’origine del fenomeno sarebbe in realta’ molto facile. Per prima cosa, basterebbe fare delle semplici analisi sulla superficie della statua per vedere se e’ stata applicata una vernice fosforescente. In questo caso, sarebbe molto semplice determinare, in base all’invecchiamento, da quanto tempo la vernice s itrova nei punti specifici. Questo potrebbe essere sufficiente anche per capire se si tratta di una truffa odierna o di un fenomeno mai notato prima, ma che e’ tipico del manufatto. Eseguire queste analisi sarebbe, come detto, molto facile e assolutamente chiarificatore. Purtroppo, non credo che questa cosa verra’ fatta. I mal pensanti possono credere che il motivo sia che c’e’ una truffa sotto, altri possono pensare che la scienza sia nemica della fede. Personalmente, non sono molto fiducioso che queste analisi verranno fatte e questo non fara’ altro che alimentare il sospetto nei confronti del presunto miracolo.

Prima di chiudere, vi ricordo nuovamente che la Chiesa non ha ufficialmente accettato i fatti di Medjugorje come di natura divina. Benedetto XVI ha istituito una commissione di inchiesta per far luce sulla questione e anche il nuovo Papa Francesco ha chiesto che ci siano delle anticipazioni sui risultati in modo da dare una risposta ai fedeli. Prima di chiudere, vi voglio riportare una testimonianza a mio avviso molto significativa. Quando iniziarno le prime apparizioni, Pavao Zanic, vescovo proprio della diocesi di Mustar defini’ le apparizioni come “la piu’ grande bufala della storia della Chiesa”. Anche in questo caso, non stiamo parlando di un laico o di un fautore delle scienze, bensi’ di un uomo di Chiesa.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E quindi uscimmo a riveder le stelle

10 Set

Nella sezione:

Hai domande o dubbi?

e’ stata fatta una richiesta davvero molto interessante. Come potete leggere, si chiede come vengano ricostruite le immagini astronomiche che spesso ci vengono mostrate e catturate dai tanti telescopi a terra e in orbita. Questa richiesta sembra apparentemente molto semplice, ma nasconde in realta’ una vera e propria professione. Oggi come oggi, molti astronomi dedicano il loro lavoro proprio alla visione e all’elaborazione di immagini astronomiche. Cerchiamo di capire meglio come funzionano queste tecniche per poter meglio apprezzare anche il lavoro che c’e’ dietro una bella immagine che troviamo sulla rete.

Come sapete bene, al giorno d’oggi, per esplorare l’universo non si utilizzano piu’ solo telescopi nel visibile. In questo caso, come facilmente immaginabile, questi sistemi catturano immagini esattamente come farebbe il nostro occhio. Oltre a questi, si utilizzano telescopi, sia a terra che in orbita, sensibili all’infrarosso, ai raggi X, all’ultravioletto, oltre ad enormi antenne pensate per catturare segnali radio provenienti dal cosmo.

Che differenza c’e’ tra queste radiazioni?

Per capire bene il concetto, vi mostro quello che normalmente si chiama lo spettro della radiazione elettromagnetica:

Spettro della radiazione elettromagnetica

Diverse lunghezze d’onda vengono accorpate in famiglie. Come vedete, la parte visibile, cioe’ quella a cui i nostri occhi sono sensibili, e’ in realta’ solo una strettra frazione dell’intero spettro. Per fare un esempio, tutti conosciamo le immagini infrarosse utilizzate per esempio per identificare le fonti di calore. Bene, questo e’ un esempio di immagine fuori dallo spettro visibile. Si tratta di particolari che i nostri occhi non sarebbero in grado di vedere, ma che riusciamo a visualizzare utilizzando tecnologie appositamente costruite. Non si tratta di immagini false o che non esistono, semplicemente, mediante l’ausilio di strumentazione, riusciamo a “vedere” quello che i nostri occhi non sono in grado di osservare.

Bene, il principio dietro l’astronomia nelle diverse lunghezze d’onda e’ proprio questo. Sfruttando parti dello spettro normalmente non visibili, si riesce ad osservare dettagli che altrimenti sarebbero invisibili.

Per dirla tutta, anche le normali immagini visibili, subiscono un’opera di elaborazione pensata per ricostruire i dettagli e per ottimizzare la visione. Cosa significa? Nella concezione comune, un telescopio nel visibile e’ paragonabile ad una normale macchina digitale. Questo non e’ esattamente vero. Molto spesso, le immagini catturate da questi sistemi sono ottenute mediante una sovrapposizione di dati raccolti utilizzando filtri diversi.

Cosa significa?

Prendiamo come esempio il telescopio Hubble. In questo caso, il sistema acquisisce immagini a diverse lunghezze d’onda, o isolando una particolare frequenza piuttosto che altre. Si tratta di immagini in bianco e nero che poi vengono colorate artificialmente e sovrapposte per formare l’immagine finale. Attenzione, non dovete pensare che la colorazione artificiale sia un trucco per far apparire piu’ belle le foto. Questa tecnica e’ di fondamentale importanza per far esaltare dei particolari che altrimenti verrebbero confusi con il resto. Questa tecnica si chiama dei “falsi colori”, proprio perche’ la colorazione non e’ quella originale ma e’ stata creata artificialmente.

Per capire meglio, proviamo a fare un esempio.

Prendiamo una delle foto piu’ famose di Hubble, quella della galassia ESO 510-G13:

ESO 510-G13 da Hubble

Questa immagine e’ ottenuta con la tecnica del “colore naturale”, cioe’ esattamente come la vedrebbero i nostri occhi se fossero potenti come quelli di Hubble. In questo caso dunque, la colorazione e’ quella che potremmo vedere anche noi ma anche questa immagine e’ stata ottenuta sovrapponendo singoli scatti ripresi dal telescopio.

In particolare, si sono sovrapposte tre immagini in bianco e nero, ognuna ottenuta selezionando solo la radiazione visibile blu, rossa e verde:

ESO 510-G13 immagini a colore singolo

Perche’ viene fatto questo?

Selezionando solo una piccola parte dello spettro visibile, cioe’ il singolo colore, e’ possibile sfruttare il sistema per catturare al meglio i singoli dettagli. In questo modo, come visibile nelle foto, ciascuna immagine e’ relativa ad un solo colore, ma al meglio della risoluzione. Sommando poi le singole parti, si ottiene il bellissimo risultato finale che abbiamo visto.

Analogamente, in alcuni casi, si amplificano determinate lunghezze d’onda rispetto ad altre, per rendere piu’ visibili alcuni dettagli. Anche in questo caso vi voglio fare un esempio. Questa e’ una bellissima immagine della Nebulosa dell’Aquila:

Nebulosa testa d'aquila

Cosa significa amplificare alcuni colori?

Nella foto riportata, oltre ad ammirarla, gli astronomi riescono a vedere le emissioni di luce da parte dei singoli gas costituenti la nebulosa. Questo studio e’ importante per determinare la concentrazione di singoli elementi, e dunque identificare particolari tipologie di corpi celesti. Per capire meglio, nella ricostruzione a posteriori dell’immagine, e’ stato assegnato il colore verde all’emissione degli atomi di idrogeno, il rosso agli ioni di zolfo e il blu alla luce emessa dall’ossigeno ionizzato. Perche’ questo artificio grafico? Se non venisse elaborata, nell’immagine la luce emessa dalla zolfo e dall’idrogeno sarebbero indistinguibili tra loro. Se ora rileggete l’assegnazione dei colori riportata e rivedete l’immagine della nebulosa, siete anche voi in grado di determinare quali gas sono piu’ presenti in una zona piuttosto che in un’altra. Ovviamente questi sono processi che devono essere fatti analiticamente, elaborando le informazioni di ogni singolo pixel.

Analogo discorso puo’ essere fatto per la radioastronomia. In questo caso, come sapete e come anticipato, quelli che vengono registrati sono dei segnali radio provenienti dai diversi settori in cui viene diviso l’universo. Non avendo delle immagini, nei radiotelescopi si hanno degli impulsi radio che devono essere interpretati per identificare il tipo di sorgente, ma soprattutto la zona da cui il segnale proviene.

Per farvi capire meglio questo concetto, vi racconto la storia dell’inizio della radioastronomia. Nel 1929 un radiotecnico americano che lavorava in una stazione di Manila, mentre era al lavoro per eliminare disturbi dalle trasmissioni, si accorse che vi era un particolare rumore di fondo che si intensifica in determinati momenti della giornata. Nello stesso anno, Jansky, un ingegnere della compagnia americana Bell, anche lui al lavoro per cercare di migliorare le comunicazioni transoceaniche, arrivo’ alla stessa conclusione del radiotecnico. L’ingegnere pero’ calcolo’ il momento preciso in cui questi disturbi aumentavano, trovando che il periodo che intercorreva tra i massimi corrispondeva esattamente alla durata del giorno sidereo, 23 ore e 56 minuti. Solo anni piu’ tardi, riprendendo in mano questi dati, ci si accorse che la fonte di questo disturbo era il centro della nostra galassia. I segnali radio captati erano massimi quando il ricevitore passava davanti al centro della galassia, emettitore molto importante di segnali radio.

Oggi, mediante i nostri radiotelescopi, riusciamo ad identificare moltissime sorgenti radio presenti nell’universo e, proprio studiando questi spettri, riusciamo a capire quali tipologie di sorgenti si osservano e da quale punto dell’universo e’ stato inviato il segnale. A titolo di esempio, vi mostro uno spettro corrispondente ai segnali radio captati nell’arco del giorno con un semplice radiotelescopio:

Spettro giornaliero di un radiotelescopio con antenna da 3.3 metri. Fonte: Univ. di Pisa

Come vedete, sono chiaramente distinguibili i momenti di alba e tramonto, il passaggio davanti al centro galattico e quello corrispondente al braccio di Perseo. Come potete facilmente capire, si tratta di misure, chiamiamole, indirette in cui i nostri occhi sono proprio le antenne dei telescopi.

Concludendo, ci sono diversi metodi per pulire, migliorare o amplificare le immagini raccolte dai telescopi sia a terra che in orbita. Quello che facciamo e’ amplificare la nostra vista o utilizzando sistemi molto potenti, oppure ampliando lo spettro delle radiazioni che altrimenti non sarebbero visibili. I telescopi divengono dunque degli occhi sull’universo molto piu’ potenti e precisi dei nostri. Metodi diversi, ottico, UV, IR, radio, ecc, possono aiutare a capire dettagli o strutture che altrimenti sarebbero invisibili in condizioni normali. Detto questo, capite quanto lavoro c’e’ dietro una bella immagine che trovate su internet e soprattutto perche’ la foto ha una specifica colorazione o particolari sfumature.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il processo di decaffeinizzazione

8 Ago

Nella sezione:

Hai domande o dubbi?

una nostra cara lettrice ci chiede di parlare del “caffe’ decaffeinato”. Credo che questo argomento sia molto interessante perche’ molto spesso si sentono tantissime leggende su questa soluzione. Tutti noi, almeno una volta, avremo sentito dire: “fa bene”, “fa male”, “e’ cancerogeno”, “e’ buono”, “fa schifo”, ecc. Come al solito, tante opinioni in disaccordo tra loro. Cerchiamo dunque di capire meglio come viene realizzato questo caffe’, cioe’ quali sono le tecniche maggiormente utilizzate per la decaffeinizzazione e, soprattutto, che genere di risultato si ottiene.

Qualche tempo fa, avevamo gia’ parlato della cosiddetta “fisica del caffe'”, parlando del principio di funzionamento della moka, spesso ignorato da molti, anche tra gli addetti ai lavori:

La fisica del caffe’

A questo punto, non resta che parlare invece della materia prima necessaria!

Come sapete bene, la caffeina, il cui nome chimico e’ 1,3,7-trimetilxantina, fu isolata per la prima volta nel 1820 ed e’ contenuta in almeno 60 varieta’ di piante, tra cui, ovviamente, caffe’, the, guarana’, cacao, ecc. La caffeina e’ un potente stimolante ed interagisce sul nostro umore aumentando i livelli di dopamina e bloccando i recettori dell’adenosina. Per inciso, quando i livelli di quest’ultima raggiungono una certa soglia, avvertiamo la sensazione di sonno.

Queste caratteristiche sono purtroppo sia il pro che il contro della caffeina. L’assunzione di questa sostanza puo’ infatti avere effetti dannosi in persone ansiose, con problemi di sonnoloenza, tachicardia, ecc. Come anticipato, l’effetto della caffeina e’ tutt’altro che blando, a livello biologico, questa molecola e’ un vero e proprio veleno, che risulta letale sopra una certa soglia, ovviamente non raggiungibile assumendo tazzine di caffe’.

Ora pero’, molte persone, tra cui il sottoscritto, adorano il caffe’ anche solo per il suo sapore o per la ritualita’ dell’assunzione. Proprio per questo motivo, si sono affinate diverse tecniche per eliminare la caffeina dai chicchi di caffe’, ottenendo una bevanda non stimolante, appunto il caffe’ decaffeinato.

Il decaffeinato fu inventato a Brema nel 1905 dal tedesco Ludwig Roselius, figlio di un assaggiatore di caffè, per conto della azienda “Kaffee Handels Aktien Gesellschaft”. Proprio in onore del nome dell’azienda, questo tipo di caffe’ venne chiamato prendendo le iniziali e dunque commercializzato come Caffe’ HAG. Per ottenere questo risultato, i chicchi di caffe’ venivano cotti a vapore con una salamoia di acqua e benzene. Quest’ultimo era il solvente in grado di estrarre la caffeina dal chicco.

Successivamente, questo metodo venne abbandonato trovando soluzioni alternative da utilizzare prima della tostatura, cioe’ quando il fagiolo e’ ancora verde. La tecnica maggiormente utilizzata fino a pochi anni fa, era quella che prevedeva l’utilizzo di diclorometano per estrarre la caffeina. Successivamente a questo trattamento, il caffe’ veniva lavato a vapore per eliminare il diclorometano, che ha un punto di ebollizione di circa 40 gradi. A questo punto, si passava alla essiccatura e tostatura dei chicchi a 200 gradi.

Questo metodo presentava purtroppo alcuni problemi, che poi sono quelli che spingono ancora oggi le leggende di cui parlavamo all’inizio.

Il diclorometano e’ una sostanza cancerogena per l’essere umano. Come anticipato, successivamente al suo utilizzo, il caffe’ passava per altri due processi con temperature notevolmente superiori al punto di ebollizione del diclorometano. Questo trattamento assicurava la completa evaporazione del potenziale cancerogeno sui chicchi.

Perche’ allora e’ stata abbandonata la tecnica?

Il problema reale di questa tecnica di decaffeinizzazione e’ che durante il trattamento con diclorometano, oltre alla caffeina, venivano estratte altre sostanze chimiche dai chicchi che contribuiscono al sapore della bevanda finale. In tal senso, il decaffeinato ottenuto con questa soluzione, aveva un sapore molto diverso da quello originale. Inoltre, anche altre sostanze benefiche per l’organismo venivano estratte dal caffe’ mentre venivano prodotti oli contenenti molecole da alcuni ritenute dannose per l’uomo.

Detto questo, capite bene dove nascono le leggende da cui siamo partiti, circa il sapore del decaffeinato e la pericolosita’ del suo utilizzo.

Oggi, la tecnica con diclorometano e’ quasi completamente abbandonata a favore dell’utilizzo della CO2 supercritica. Con questo termine si intende solo una stato con pressioni e temperature tali da renderla una via di mezzo tra un gas e un fluido. Nel processo di decaffeinizzazione, i chicchi di caffe’ vengono prima inumiditi con vapore per rigonfiarli ed aumentare la percentuale di acqua. Questo sempre con fagioli verdi, cioe’ prima della tostatura. A questo punto, i chicchi passano in colonne di estrattori insieme alla CO2 ad una tempratura tra 40 e 80 gradi ed una pressione intorno alle 150 atmosfere. Questo passaggio permette all’anidride carbonica di portare via la caffeina, toccando in minima parte le altre sostanze contenute nel caffe’. A seguito di questo passaggio, si procede ovviamente alla tostatura.

Quali sono i vantaggi di questa tecnica rispetto alla precedente?

Prima di tutto, si utilizza solo CO2, cioe’ una sostanza non pericolosa per l’essere umano. Il processo consente di estrarre gran parte della caffeina contenuta nel caffe’. Per legge, un caffe’ decaffeinato non deve avere piu’ del 0,1% di caffeina. Non intaccando, se non in minima parte, le altre sostanze, il sapore del caffe’ rimane quasi invariato, e quindi e’ molto piu’ simile all’analogo con caffeina.

Oltre a questi aspetti, la CO2 in uscita dal processo e’ ovviamente ricca di caffeina. Questa sostanza e’ notevolmente utilizzata in diversi settori tra cui la medicina, la farmacologia, la botanica, ecc. Proprio per questo motivo, in virtu’ del processo utilizzato, e’ possibile estrarre caffeina pura dall’anidride carbonica mediante un abbassamento di temperatura o utilizzando carboni attivi.

Lo stesso processo viene utilizzato anche su altre piante, oltre che per l’estrazione del colosterolo dal burro o dell’essenza dai fiori di luppolo, utilizzata nella produzione della birra.

Concludendo, molte delle leggende intorno al decaffeinato nascono in virtu’ del precedente metodo utilizzato per l’estrazione della caffeina dai chicchi. Oggi, l’utilizzo di CO2 supercritica consente di estrarre la maggior parte della caffeina, che oltre tutto puo’ essere recuperata e utilizzata in altri settori, lasciando quasi del tutto inalterate le altre sostanze che contribuiscono la sapore di questa ottima bevanda.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Dall’asfalto bollente all’energia

26 Giu

In questo articolo:

Caldo record? In Germania scoppiano le autostrade?

e’ stato fatto un commento davvero molto interessante. Come potete leggere, il commento pone l’attenzione sugli studi attualmente in corso per la produzione di energia sfruttando il calore accumulato dall’asfalto delle nostre strade. Questa possibile soluzione non e’ in realta’ l’unica al vaglio dei ricercatori e proprio per questo motivo, credo sia interessante fare il punto della situazione.

Come sapete bene, diverse volte ci siamo occupati di fonti di energia alternativa o anche di utilizzi piu’ intelligenti delle risorse a nostra disposizione. Questi sono solo alcuni degli articoli che potete trovare sul blog:

Elezioni, promesse verdi e protocollo di Kyoto

Il futuro verde comincia da Masdar

Energia solare nel deserto

Pannelli, pannelli e pannelli

Il led rosso dello stadby …

Elettrodomestici e bolletta

Ora, come anticipato, vogliamo analizzare le possibili tecniche per sfruttare il calore che viene raccolto dalle nostre strade per poter creare energia elettrica. Come sapete bene, l’asfalto e’ in grado di accumulare una notevole quantita’ di calore, che poi viene ceduta all’ambiente in tempi molto lunghi. Proprio per questo motivo, le nostre strade rimangono ad una temperatura elevata anche per diverse ore dopo il tramonto del sole. Purtroppo, riuscire a catturare questo calore non e’ semplice. Prima di tutto, una limitazione e’ data dall’enorme superficie da cui estrarre calore, cioe’ l’intera lunghezza della strada, e soprattutto nella scelta del metodo piu’ adatto per raccogliere efficientemente questa energia.

Il metodo proposto nel commento da cui siamo partiti, punta ad utilizzare il calore per scaldare l’acqua contenuta all’interno di piccole tubature inglobate nell’asfalto stesso. In tal senso, tubicini di materiale in grado di condurre molto bene il calore vengono posizionati a circa 1 cm dalla superficie, in modo da poter raccogliere il calore del catrame. L’acqua cosi’ riscaldata puo’ poi essere utilizzata per produrre energia o anche per fornire acqua calda sanitaria per le diverse postazioni o edifici intorno alla strada stessa. Questo metodo presenta anche due ulteriori vantaggi importanti. Il primo e’ che in questo modo viene ridotto il calore che rimane intrappolato nell’asfalto e che, quando ceduto all’ambiente, crea il cosiddetto problema dell’isola di calore soprattutto nelle nostre citta’. L’altro vantaggio notevole e’ che un impianto cosi’ realizzato potrebbe essere sfruttato anche al contrario, un po’ come avviene nei pannelli radianti sotto il pavimento utilizzati per riscaldare le nostre case. Cosa significa? Durante i mesi invernali, si potrebbe pompare nel sistema acqua a temperatura maggiore, in modo da riscaldare la strada e non permettere la formazione di ghiaccio, responsabile molto spesso di incidenti.

Questa che abbiamo visto, non e’ pero’ l’unica soluzione al vaglio dei ricercatori.

Un altro metodo per sfruttare le nostre strade e’ quello di integrare direttamente pannelli solari. Cosa significa? Come detto in precedenza, l’asfalto e’ soggetto, molto spesso, ad un irraggiamento notevole. Le piu’ grandi arterie sono praticamente sempre assolate garantendo un’esposizione buona ai raggi solari. Bene, sostituendo le nostre strade con una sequenza di pannelli solari, si potrebbe produrre direttamente elettricita’ sfruttando l’effetto fotovoltaico. Questa energia potrebbe al solito essere utilizzata per alimentare aree di servizio e abitazioni in prossimita’, ma potrebbe anche essere immessa nelle rete elettrica e dunque essere a disposizione dei consumatori.

Come e’ possibile mettere un pannello solare al posto delle strade?

Ingegneristicamente parlando, la soluzione proposta e’ molto interessante. Negli USA e’ gia’ in corso uno studio utilizzando pannelli di larghezza 3,7 metri, che e’ la larghezza standard delle corsie americane. Se consideriamo un’esposizione di 4 ore al giorno, con un efficienza anche solo del 10%, poiche’ l’orientamento dei pannelli e’ deciso dalla strada e non dall’ottimizzazione dell’esposizione, si potrebbero produrre circa 5-6 KWh per pannello al giorno. Se ora pensiamo che, solo negli Sati Uniti, ci sono circa 100000 Km di autostrade, direi che i numeri cominciano a diventare interessanti.

Tornando pero’ all’ingegneria, come puo’ un pannello resistere al passaggio di una macchina o, ancor piu’, ad un mezzo pesante? I pannelli per questo scopo sono costruiti con una protezione in vetro, pensata come quella dei vetri anti proiettile delle vetrine. Essendo questi vetri studiati per resistere ai notevoli impulsi dei proiettili, sarebbero in grado di supportare anche il peso di un veicolo. C’e’ un altro problema da considerare. Per evitare slittamenti dei veicoli al loro passaggio sul vetro, la superficie verrebbe lavorata in piccolissimi prismi, in grado di assicurare una buona presa degli pneumatici sui pannelli. Come detto, una sperimentazione in questa direzione e’ gia’ in corso negli USA appunto per verificare costi e benefici di una soluzione del genere.

C’e’ poi un’ultima soluzione che vorrei presentarvi, anche se leggermente diversa dalle precedenti. Il problema principale di molte strade e’, come sappiamo bene tutti, il traffico. Per sfruttare questo, una compagnia privata giapponese, ha studiato uno speciale dosso in grado di trasformare il passaggio di un mezzo in energia elettrica. Il meccanismo e’ semplicissimo. Quando un veicolo passa su questo speciale dosso, manda in pressione dei pistoni idraulici che a loro volta possono essere sfruttati per far muovere delle turbine e produrre corrente elettrica. Un primo prototipo di dosso e’ stato costruito ed e’ lungo circa 1 metro, con un’altezza dell’ordine dei 6 mm. Questa soluzione andrebbe implemantata nei punti piu’ nevralgici per il traffico dove si hanno molti mezzi pesanti che circolano a velocita’ ridotta. Soluzioni ottimali potrebbero essere all’interno delle citta’, in prossimita’ dei porti o anche vicino ad aree di parcheggio. Il costo di questo sistema non e’ molto basso e si aggira intorno ai 300000 dollari a dosso, comprensivi ovviamente anche del sistema di produzione dell’energia. Secondo quanto riportato dalla ditta, in un punto di traffico sostenuto in cui transitano circa 20000 veicoli al giorno, il prezzo verrebbe ripagato nel giro di 3-4 anni e sarebbe in grado di fornire corrente per almeno 100 case. Ovviamente, si tratta di numeri molto provvisori, detti poi dalla ditta produttrice del sistema.

Concludendo, esistono diversi metodi per poter sfruttare le nostre strade nella produzione di energia. Come avete visto, non stiamo parlando di soluzioni innovative di tecnologie non utilizzate prima, bensi’ di applicazioni, a mio avviso anche molto intelligenti, di sistemi conosciuti in ambiti nuovi. Questo rientra a pieno titolo nello sfruttamento piu’ intelligente dei sistemi che gia’ conosciamo. Ora, come detto, si tratta di soluzioni sulle quali sono in corso studi ancora molto preliminari, ma chissa’ che un giorno queste non diventeranno soluzioni standard nella costruzione delle nostre, assolutamente non eliminabili, strade.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.