Tag Archives: processi

A proposito di campo geomagnetico

31 Ott

di Patrizia Esposito

————————————-

Ipotizziamo di dover misurare la temperatura del nostro corpo: fa differenza se mettiamo il termometro direttamente a contatto con la pelle o se lo appoggiamo sopra i vestiti? Lasciamo per un momento la domanda in sospeso e parliamo di una particolare categoria di inquinanti organici, i cosiddetti POPs (Persistent Organic Pollutants).

Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l'uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Fig.1: Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l’uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Si tratta di pesticidi (aldrin, DDT, eptacloro), prodotti industriali (PCB) e sottoprodotti non desiderati di certi processi (diossine e furani), regolamentati (poco efficacemente?) nel loro utilizzo e smaltimento dalla Convenzione di Stoccolma del 2001 e sul banco degli imputati con l’accusa di essere sostanze altamente tossiche per l’ambiente e per l’uomo (figura 1) e responsabili del cambiamento climatico. Le peculiari caratteristiche chimico-fisiche dei POPs li rendono, infatti, persistenti (figura 2) ,bioaccumulabili e trasportabili su lunghe distanze.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

La proprietà per la quale questi composti si legano ai tessuti adiposi dei vertebrati si chiama lipofilicità e fa sì che questi inquinanti entrino nelle catene alimentari. Mentre è nota come effetto grass-hopper (figura 3) la modalità di trasporto su lunghe distanze, dovuta a determinati valori della tensione di vapore, della costante della legge di Henry e del coefficiente di partizione ottanolo-aria, e che consiste nell’evaporazione di questi composti dall’acqua e dal suolo, nel trasporto in atmosfera e nella loro deposizione su superfici acquatiche e terrestri. In pratica i POPs, nelle zone tropicali e temperate evaporano, subiscono un trasporto atmosferico che segue l’andamento dei meridiani terrestri, condensano nelle zone fredde come i poli e le grandi catene montuose e si accumulano nei vari compartimenti ambientali. Ecco perché si ritrovano in alte concentrazioni in zone lontane da quelle di produzione.

Fig.3: Effetto Grass-Hopper

Fig.3: Effetto Grass-Hopper

Sic stantibus rebus, i POPs rivestono il nostro pianeta come una pellicola e sono riconosciuti come una concausa dell’effetto serra. E se, oltre ad avere un’influenza sul clima globale, avessero una qualche interazione con il campo magnetico terrestre? Di preciso: le misurazioni del campo geomagnetico avrebbero gli stessi valori se non ci fossero i POPs? La risposta alla domanda iniziale è abbastanza palese: non è lo stesso appoggiare il termometro sui vestiti o direttamente sulla pelle. La risoluzione del quesito finale invece non è altrettanto immediata. Ma è lecito pensare che le misurazioni del campo magnetico possano essere alterate dalla presenza ubiquitaria di questi composti e che l’indebolimento del campo stesso (del quale si continua a parlare e sparlare) sia solo apparente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Noi dormiamo ma lo smartphone NO!

12 Mar

Torniamo ora a parlare un po’ di tecnologia. Come sapete, ormai, nel bene o nel male, la maggior parte delle persone possiede uno smartphone. Questi piccoli strumenti nascondono al loro interno una capacita’ di calcolo impressionante se paragonata con le ridotte dimensioni, ma soprattutto, per quelli non proprio giovanissimi, se paragonata con quella dei personal computer piu’ costosi che si potevano acquistare anche solo 10 anni fa. Da un lato, questo e’ impressionante ma anche completamente comprensibile. Come sapete, l’elettronica e le capacita’ di calcolo seguono leggi esponenziali di crescita, di riduzione del prezzo e delle dimensioni dei dispositivi e l’insieme di questi parametri fa si che, di volta in volta, esca un prodotto nuovo che faccia impallidire i suoi predecessori.

Ora pero’, quanti di quelli che utilizzano uno smartphone lo utilizzano a pieno delle sue capacita’? In verita’, credo io, davvero un numero esiguo di persone riesce a sfruttare a pieno le capacita’ del proprio telefono se non facendo andare in contemporanea diversi programmi richiedenti la rete internet.

Oltre a questo poi, c’e’ un altro aspetto da considerare. Mediamente, questi piccoli oggetti sono molto energivori e le loro batterie difficilmente durano anche solo una giornata se sfruttati a pieno. Conseguenza di questo e’ che tutte le notti dobbiamo ricaricare la batteria lasciando, come spesso accade, il telefono acceso con la connessione dati o wireless accesa. Durante questa fase di standby, anche se non del tutto, il nostro dispositivo e’ fermo e la sua enorme capacita’ di calcolo non viene sfruttata.

Perche’ faccio questo preambolo iniziale?

Molto semplice, in questi giorni, su diversi giornali, e’ stata lanciata una notizia che ha suscitato il mio interesse se non altro perche’ rilancia le problematiche appena discusse. Come avrete sicuramente letto, un team di ricercatori austriaci ha trovato, almeno da come raccontano i giornali, il modo di sfruttare questa potenza di calcolo per un nobile scopo. Questo gruppo di ricerca e’ coinvolto nello studio dei dati del database Simap, un enorme catalogo contenente al suo interno la struttura di tutte le proteine conosciute. Scopo di questa ricerca e’ quello di studiare le somiglianze tra le proteine con il fine ultimo, tra i tanti altri, di poter trovare cure per alcune delle malattie piu’ critiche che riguardano il genere umano. Gestire una mole di dati cosi’ impressionante non e’ affatto semplice e richiede una capacita’ di calcolo molto elevata. Ovviamente, una capacita’ di calcolo elevata significa un costo altrettanto elevato. Per farvi capire questa relazione, pensate che il costo computazionale aumenta con il quadrato del numero di proteine contenute nel database.

Come gestire una mole cosi’ elevata di dati con costi che non siano insostenibili?

Semplice, stando a quanto riporta la notizia sui giornali, e’ stata programmata una App, uno dei piccoli programmini che girano sui nostri smartphone, che consente di sfruttare lo smartphone per analizzare questi dati. Il nome della App e’ Power Sleep appunto perche’ si tratta di una normale sveglia che puo’ essere impostata all’ora in cui desideriamo alzarci. Al contrario di una normale sveglia, Power Sleep ha pero’ una funzione aggiuntiva. Prima di andare a dormire, mettete il vostro smartphone sotto carica lasciando la connessione WiFi accesa. Non appena la batteria avra’ raggiunto la carica completa, il telefono comunichera’ con un server centrale dando inizio al vero scopo del software. Il server invia paccheti da 1Mb che vengono analizzati dal processore dello smartphone. Il tempo richiesto per questa analisi e’ compreso tra 30 e 60 minuti a seconda della potenza di calcolo. Quando il processo e’ completato, il telefono invia il risultato al server e scarica un altro pacchetto da analizzare. Questa comunicazione dura fino a quando non arriva l’ora impostata per la sveglia e il telefono e’ di nuovo disponibile completamente per l’utente.

Detta in questo modo, sembra una scoperta rivoluzionaria che ci permettera’ di contribuire senza spendere un soldo alla ricerca scientifica.

Perche’ dico “sembra”?

Molto semplice, ovviamente si tratta di un’applicazione utilissima per lo scopo della ricerca scientifica in se, ma questo genere di applicazioni non sono assolutamente una novita’. Questo processo di analisi dei dati e’ quello che viene comunemente definito “calcolo distribuito”. Si tratta di un procedimento molto semplice in cui un processo principale viene diviso in tante parti assegnate a processori diversi che poi comunicheranno il loro singolo risultato ad un server centrale. Grazie al calcolo distribuito e’ possibile sfruttare una rete di computer, o smartphone come in questo caso, invece di investire cifre spropositate in una singola macchina in cui far girare l’intera analisi. Di esempi di questo tipo ce ne sono a bizzeffe anche indietro negli anni. Sicuramente tutti avrete sentito parlare del programma SETI@Home per la ricerca di vita extraterrestre nell’universo. In questo caso, si utilizzavano radiotelescopi per cercare segnali non naturali. L’enorme mole di dati veniva analizzata da chiunque decidesse di installare un piccolo software sul proprio computer per contribuire a questa ricerca.

Nel caso di Power Sleep, i ricercatori austriaci si sono affidati ad una societa’ che si occupa proprio di calcolo distribuito e si chiama BOINC. Vi riporto anche il link alla loro pagina italiana in cui compare, proprio in prima pagina, una descrizione sul funzionamento e sull’importanza del calcolo distribuito:

BOINC Italia

Come potete leggere, esistono decine di applicazioni per il calcolo distribuito gestite da BOINC e molte di queste riguardano proprio analisi scientifiche dei dati. Il perche’ di questo e’ facilmente comprensibile, le applicazioni scientifiche sono quelle che producono la maggior mole di dati e che richiederebbero super-computer sempre piu’ potenti per la loro analisi. Grazie a BOINC e al calcolo distribuito, e’ possibile sfruttare a titolo gratuito computer, smartphone e tablet privati per velocizzare il calcolo e risparmiare notevoli capitali che incidono fortemente sul costo della ricerca. Visto che lo abbiamo citato, BOINC nacque qualche anno fa proprio per gestire il progetto SETI@Home. Tra i programmi disponibili ora trovate ad esempio: LHC@Home per l’analisi dei dati del collisore LHC del CERN, Orbit@Home per l’analisi delle traiettorie degli asteroidi vicini alla Terra, Einstein@Home per la ricerca di onde gravitazionali e cosi’ via. Per una lista piu’ completa dei programmi scientifici di calcolo distribuito potete far riferimento alla pagina di Wikipedia che ne parla:

Wiki, esempi calcolo distribuito

Concludendo, al solito la notizia e’ stata data sui maggiori giornali con toni enfatici volti piu’ a impressionare che non ha mostrare l’importanza scientifica di applicazioni di questo tipo. Esempi di calcolo distribuito ce ne sono tantissimi e molti di questi sfruttano il servizio BOINC per dialogare con gli utenti che volontariamente decidono di sostenere un programma piuttosto che un altro. Power Sleep ha sicuramente un nobile scopo se pensiamo all’importanza del mantenimento del database Simap e per i risultati che ricerche di questo tipo dovrebbero portare per l’intero genere umano.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Studiare le stelle da casa

4 Feb

Dopo qualche giorno di assenza, purtroppo, al contrario di quello che pensano i catastrofisti, il mio lavoro non e’ solo fare disinformazione attraverso questo blog, eccoci di nuovo qui con un articolo di scienza pura.

Come avrete sentito, solo qualche giorno fa, e’ stato inaugurata a Padova la macchina acceleratrice “Prima”. Per dirla semplicemente, si tratta di una macchina in grado di accelerare atomi fino ad energie di 16 milioni di Watt. Questa importante infrastruttura nasce da una collaborazione tra l’Istituto di Fisica Nucleare, il CNR, l’ENEA, l’Universita’ di Padova e le Acciaierie Venete.

Ovviamente parliamo di un grande successo per la ricerca italiana. Pensandoci bene, mi rendo pero’ conto di come un successo di questo tipo, possa risultare abbastanza difficile da capire per un non addetto ai lavori. Detto in altri termini: a cosa serve questa macchina?

Molto semplice, come spesso avviene, ricerche di questo tipo sono assolutamente multidisciplinari e possono servire per condurre studi su tantissimi settori. Tra questi, quello che sicuramente interessa di piu’ e’ senza dubbio lo studio della fusione nucleare controllata.

Di fusione abbiamo parlato in diversi articoli:

Sole: quanta confusione!

La stella in laboratorio

mostrando come questo sia il processo attraverso il quale le stelle, e ovviamente il nostro Sole,  producono energia.  Purtroppo, ad oggi, non siamo ancora stati capaci di sfruttare la fusione per produrre energia per noi. Per essere piu’ precisi, ancora non siamo riusciti a realizzare un processo in cui l’energia necessaria per attivare la fusione sia maggiore di quella che poi viene data all’esterno. Detto in parole povere, ad oggi abbiamo ancora un processo “in cui ci rimettiamo”, cioe’ diamo piu’ energia rispetto a quella che otteniamo in uscita.

Una delle chimere della fusione nucleare, e’ senza dubbio il discorso della fusione fredda e di tutti quei processi che gli ruotano intorno. Anche di questi processi abbiamo parlato diverse volte in articoli come questi:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come sapete bene, e come potete verificare leggendo gli articoli citati, la nostra posizione non e’ mai stata di chiusura totale verso queste ipotesi solo che, e su questo non ho mai trovato una smentita reale e credibile, ad oggi non ci sono le prove necessarie per dimostrare scientificamente che queste soluzioni, ed in particolare l’E-Cat, siano in grado di funzionare.

Fatta questa doverosa premessa, torniamo a parlare di PRIMA.

Come visto negli articoli specifici sulla fusione, la ricerca ufficiale sta investendo molte risorse in alcuni progetti europei e mondiali di notevole portata. Tra questi, ruolo d’eccezione spetta sicurametne ad ITER. Come sapete bene, si tratta di un primo prototipio su grande scala di un reattore a fusione per ricerca. Tra alti e bassi, la costruzione di questa importante pietra miliare nella storia della fusione sta procedendo in Francia e speriamo possa portare i risultati sperati ed in grado di aprire le porte alla produzione di energia mediante la fusione mnucleare.

La macchina PRIMA studiera’ proprio la parte di, definiamola cosi’, iniezione di ITER, cioe’ il fascio neutro che servira’ per riscaldare il plasma fino alle temperature richieste per far partire la fusione. Oltre ad ITER, la macchina servira’ anche per studiare i materiali piu’ adatti per contenere la fusione e che saranno un punto molto importante anche nella costruzione del primo reattore, chiamato IFMIF, che sara’ costruito in Giappone.

Prima di chiudere, vorrei invitarvi ad una riflessione. Permettemi di riprendere quanto detto un po’ di tempo fa in questi articoli:

Perche’ la ricerca: scienza e tecnologia

Perche’ la ricerca: economia

Prima di tutto, gli studi condotti per la costruzione dei magneti di LHC sono stati fondamentali per la costruzione dei magneti da utilizzare su PRIMA. Questo solo per dire come la ricerca non e’ mai fine a se stessa ma consente di farci applicare studi condotti su un particolare settore a qualcosa di diverso, non dovendo ogni volta ripartire da zero. Oltre a questo, per parlare invece di economia, la costruzione di macchine di questo tipo mettono sempre in moto un’economia assolutamente non trascurabile. Cosi’ come e’ avvenuto per LHC, anche per PRIMA ci sono state importanti commesse per le aziende italiane non solo legate alla costruzione di magneti. Questo solo per ribadire come i soldi dati alla ricerca rappresentino sempre un investimento. Purtroppo, il tasso di interesse o i tempi per poter maturare questo tasso non sono sempre scritti o sicuri anzi, lasciatemi dire, possono maturare in settori completamente diversi.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il processo di decaffeinizzazione

8 Ago

Nella sezione:

Hai domande o dubbi?

una nostra cara lettrice ci chiede di parlare del “caffe’ decaffeinato”. Credo che questo argomento sia molto interessante perche’ molto spesso si sentono tantissime leggende su questa soluzione. Tutti noi, almeno una volta, avremo sentito dire: “fa bene”, “fa male”, “e’ cancerogeno”, “e’ buono”, “fa schifo”, ecc. Come al solito, tante opinioni in disaccordo tra loro. Cerchiamo dunque di capire meglio come viene realizzato questo caffe’, cioe’ quali sono le tecniche maggiormente utilizzate per la decaffeinizzazione e, soprattutto, che genere di risultato si ottiene.

Qualche tempo fa, avevamo gia’ parlato della cosiddetta “fisica del caffe'”, parlando del principio di funzionamento della moka, spesso ignorato da molti, anche tra gli addetti ai lavori:

La fisica del caffe’

A questo punto, non resta che parlare invece della materia prima necessaria!

Come sapete bene, la caffeina, il cui nome chimico e’ 1,3,7-trimetilxantina, fu isolata per la prima volta nel 1820 ed e’ contenuta in almeno 60 varieta’ di piante, tra cui, ovviamente, caffe’, the, guarana’, cacao, ecc. La caffeina e’ un potente stimolante ed interagisce sul nostro umore aumentando i livelli di dopamina e bloccando i recettori dell’adenosina. Per inciso, quando i livelli di quest’ultima raggiungono una certa soglia, avvertiamo la sensazione di sonno.

Queste caratteristiche sono purtroppo sia il pro che il contro della caffeina. L’assunzione di questa sostanza puo’ infatti avere effetti dannosi in persone ansiose, con problemi di sonnoloenza, tachicardia, ecc. Come anticipato, l’effetto della caffeina e’ tutt’altro che blando, a livello biologico, questa molecola e’ un vero e proprio veleno, che risulta letale sopra una certa soglia, ovviamente non raggiungibile assumendo tazzine di caffe’.

Ora pero’, molte persone, tra cui il sottoscritto, adorano il caffe’ anche solo per il suo sapore o per la ritualita’ dell’assunzione. Proprio per questo motivo, si sono affinate diverse tecniche per eliminare la caffeina dai chicchi di caffe’, ottenendo una bevanda non stimolante, appunto il caffe’ decaffeinato.

Il decaffeinato fu inventato a Brema nel 1905 dal tedesco Ludwig Roselius, figlio di un assaggiatore di caffè, per conto della azienda “Kaffee Handels Aktien Gesellschaft”. Proprio in onore del nome dell’azienda, questo tipo di caffe’ venne chiamato prendendo le iniziali e dunque commercializzato come Caffe’ HAG. Per ottenere questo risultato, i chicchi di caffe’ venivano cotti a vapore con una salamoia di acqua e benzene. Quest’ultimo era il solvente in grado di estrarre la caffeina dal chicco.

Successivamente, questo metodo venne abbandonato trovando soluzioni alternative da utilizzare prima della tostatura, cioe’ quando il fagiolo e’ ancora verde. La tecnica maggiormente utilizzata fino a pochi anni fa, era quella che prevedeva l’utilizzo di diclorometano per estrarre la caffeina. Successivamente a questo trattamento, il caffe’ veniva lavato a vapore per eliminare il diclorometano, che ha un punto di ebollizione di circa 40 gradi. A questo punto, si passava alla essiccatura e tostatura dei chicchi a 200 gradi.

Questo metodo presentava purtroppo alcuni problemi, che poi sono quelli che spingono ancora oggi le leggende di cui parlavamo all’inizio.

Il diclorometano e’ una sostanza cancerogena per l’essere umano. Come anticipato, successivamente al suo utilizzo, il caffe’ passava per altri due processi con temperature notevolmente superiori al punto di ebollizione del diclorometano. Questo trattamento assicurava la completa evaporazione del potenziale cancerogeno sui chicchi.

Perche’ allora e’ stata abbandonata la tecnica?

Il problema reale di questa tecnica di decaffeinizzazione e’ che durante il trattamento con diclorometano, oltre alla caffeina, venivano estratte altre sostanze chimiche dai chicchi che contribuiscono al sapore della bevanda finale. In tal senso, il decaffeinato ottenuto con questa soluzione, aveva un sapore molto diverso da quello originale. Inoltre, anche altre sostanze benefiche per l’organismo venivano estratte dal caffe’ mentre venivano prodotti oli contenenti molecole da alcuni ritenute dannose per l’uomo.

Detto questo, capite bene dove nascono le leggende da cui siamo partiti, circa il sapore del decaffeinato e la pericolosita’ del suo utilizzo.

Oggi, la tecnica con diclorometano e’ quasi completamente abbandonata a favore dell’utilizzo della CO2 supercritica. Con questo termine si intende solo una stato con pressioni e temperature tali da renderla una via di mezzo tra un gas e un fluido. Nel processo di decaffeinizzazione, i chicchi di caffe’ vengono prima inumiditi con vapore per rigonfiarli ed aumentare la percentuale di acqua. Questo sempre con fagioli verdi, cioe’ prima della tostatura. A questo punto, i chicchi passano in colonne di estrattori insieme alla CO2 ad una tempratura tra 40 e 80 gradi ed una pressione intorno alle 150 atmosfere. Questo passaggio permette all’anidride carbonica di portare via la caffeina, toccando in minima parte le altre sostanze contenute nel caffe’. A seguito di questo passaggio, si procede ovviamente alla tostatura.

Quali sono i vantaggi di questa tecnica rispetto alla precedente?

Prima di tutto, si utilizza solo CO2, cioe’ una sostanza non pericolosa per l’essere umano. Il processo consente di estrarre gran parte della caffeina contenuta nel caffe’. Per legge, un caffe’ decaffeinato non deve avere piu’ del 0,1% di caffeina. Non intaccando, se non in minima parte, le altre sostanze, il sapore del caffe’ rimane quasi invariato, e quindi e’ molto piu’ simile all’analogo con caffeina.

Oltre a questi aspetti, la CO2 in uscita dal processo e’ ovviamente ricca di caffeina. Questa sostanza e’ notevolmente utilizzata in diversi settori tra cui la medicina, la farmacologia, la botanica, ecc. Proprio per questo motivo, in virtu’ del processo utilizzato, e’ possibile estrarre caffeina pura dall’anidride carbonica mediante un abbassamento di temperatura o utilizzando carboni attivi.

Lo stesso processo viene utilizzato anche su altre piante, oltre che per l’estrazione del colosterolo dal burro o dell’essenza dai fiori di luppolo, utilizzata nella produzione della birra.

Concludendo, molte delle leggende intorno al decaffeinato nascono in virtu’ del precedente metodo utilizzato per l’estrazione della caffeina dai chicchi. Oggi, l’utilizzo di CO2 supercritica consente di estrarre la maggior parte della caffeina, che oltre tutto puo’ essere recuperata e utilizzata in altri settori, lasciando quasi del tutto inalterate le altre sostanze che contribuiscono la sapore di questa ottima bevanda.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Nuovo materiale

26 Lug

Ogni tanto e’ interessante parlare di materiali del futuro, prima di tutto per capire dove la ricerca ci sta portando e quali futuri benefici si potranno avere sintetizzando nuove sostanze. Gia’ in passato, avevamo parlato di questi argomenti:

Uno sguardo ai materiali del futuro

Allo stesso modo, uno degli aspetti che da sempre solletica l’interesse delle persone verso la ricerca e’ l’assoluta casualita’ di alcune scoperte. Pensare a grandi rivoluzioni scoperte per caso, senza volerlo, e’ un aspetto attraente della ricerca.

In questo articolo, vorrei unire questi due aspetti, parlando della scoperta di un nuovo minerale, la Upsalite.

Cosa sarebbe?

Si tratta di un materiale sintetizzato da alcuni ricercatori dell’Universita’ di Uppsala in Svezia, dotato di una struttura amorfa e composto da un carbonato di magnesio.

Perche’ si parla di scoperta casuale?

Immagini al microscopio elettronico SEM e TEM della Upsalite

Immagini al microscopio elettronico SEM e TEM della Upsalite

Fino a poco tempo fa, si pensava che i carbonati di magnesio non potessero essere prodotti con processi a bassa temperatura, questo unito alla notevole difficolta’ di sintetizzazione di strutture amorfe disidratate, cioe’ nelle quali le molecole di acqua sono state strappate dalla struttura.

Nell’Universita’ di Uppsala, esiste un gruppo di ricerca che si occupa di questi aspetti. Un venerdi pomeriggio, dopo aver modificato i parametri di sintesi dei precedenti tentativi, tutti andati male, i ricercatori hanno lasciato il laboratorio dimenticando il materiale nella cella di reazione. Al loro ritorno il lunedi mattina, si sono trovati un materiale rigido, di nuova sintesi, appunto la Upsalite.

Anche se alcuni giornali hanno parlato solo oggi di questa scoperta, la storia raccontata risale al 2011. Solo in questi giorni pero’, dopo due anni di prove e analisi per perfezionare ia procedura, i ricercatori hanno pubblicato un articolo specifico sul nuovo  materiale. Ecco il sito dove potete leggere l’articolo:

Upsalite

Cosa ha di tanto importante la Upsalite?

Come e’ facile pensare, oltre all’aspetto puramente chimico-fisico della realizzazione di un materiale di questo tipo, l’importanza di una scoperta del genere si valuta in base alle possibili applicazioni del nuovo materiale. La Upsalite ha moltissime applicazioni nei campi piu’ diversi.

Dal punto di vista fisico, e’ formata da una struttura amorfa nanometrica, che gli consente di stabilire un nuovo record per la superficie utile al cm^2. Mi spiego meglio, in molti processi, quella che conta e’ la superficie di contatto tra i materiali. Avere una grande superficie di contatto, consente di poter velocizzare i fenomeni per cui il materiale e’ concepito. Bene, la Upsalite ha una superficie utile di ben 800 m^2 per grammo . Inoltre, il materiale appare poroso con notevoli interstizi vuoti e dal diametro dell’ordine dei 10 nanometri.

Come anticipato, queste caratteristiche rendono la Upsalite utilizzabile in moltissimi campi.

Prima di tutto, la struttura stessa rende il materiale in grado di assorbire notevoli quantita’ di acqua, dunque di ridurre velocemente l’umidita’ con un campione relativamente piccolo. In questo caso, si parla soprattutto di applicazioni industriali nella produzione di deumidificatori, ma anche nella realizzazione di apparecchiature da laboratorio.

Inoltre, la capacita’ di assorbire acqua potrebbe essere sfruttata in tutte quelle applicazioni in cui questa sostanza puo’ arrecare danni. Pensate, ad esempio, ai dispositivi elettronici, alla conservazione dei cibi e dei farmaci, ai magazzini in generale, ecc. Applicazioni oggi riservate, tra le altre cose, ai sacchettini di deumidificante di silica.

Sfruttando invece la struttura porosa, si potrebbe pensare di utilizzare la Upsalite per assorbire inquinanti o sostanze diffuse nell’ambiente. A livello domestico, la Upsalite potrebbe essere sfruttata per eliminare i cattivi odori, applicazione possibile e richiesta anche a livello industriale. Parlando di “odori” non possiamo certo prescindere da inquinanti dispersi in aria. Realizzando attraverso questo materiale filtri appositamente studiati, questa soluzione potrebbe essere sfruttata anche a livello di acque, sia marine che reflue, sfruttando appunto le caratteristiche della Upsalite.

Dal punto di vista ambientale, l’applicazione piu’ importante, potrebbe essere proprio quella per la rimozione di inquinanti in mare. Pensate, ad esempio, ad un carico di petrolio disperso in acqua e catturato spargendo Upsalite sulla superficie.

Essendo stata scoperta in Svezia, nell’articolo stesso non poteva mancare una possibile applicazione per sfruttare la Upsalite eliminando l’acqua, o meglio l’umidita’, dai campi da Hockey.

Concludendo, a volte, scoperte interessanti arrivano in modo del tutto fortuito e non premeditato. Questo e’ il caso della scoperta della Upsalite, un materiale di nuova sintesi che presenta una struttura nanoporosa e la piu’ grande superficie al grammo mai osservata. Queste caratteristische rendono la Upsalite sfruttabile in molti settori e con risvolti davvero notevoli nella vita di tutti i giorni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Strano arco rosso in cielo

10 Apr

Sfogliando i tanti siti catastrofisti che (purtroppo) animano la rete, mi sono imbattutto in una notizia che ha attirato la mia curiosita’. Molti siti infatti riportano di un misterioso e alquanto allarmante arco rosso che sarebbe state osservato nei cieli di tutta Europa solo un paio di giorni fa. Stando a quanto si legge in rete, questo arco sarebbe stato molto luminoso e visibile, testuali parole, su quasi tutta l’Europa, Italia compresa.

Ecco una foto di questo misterioso fenomeno:

Il presunto arco rosso sui cieli d'Europa

Il presunto arco rosso sui cieli d’Europa

Vi assicuro che la foto non e’ ritoccata, e dopo vedremo anche il perche’. Di cosa si tratta? Come sempre, non manca la solita cantilena: e’ un fenomeno misterioso, mai accaduto prima, gli scienziati non sanno dare una spiegazione certa di quanto accaduto. Qualche scienziato avrebbe provato a mettere in relazione questo fenomeno con il Sole, ma, sempre secondo i siti che pubblicano la notizia, questo accostamento e’ poco probabile. Dunque? Perche’ e’ comparso questo arco? Ovviamente per colpa della geoingegneria. Questo e’ solo uno dei tanti risultati delle scie chimiche e di HAARP che lavorano insieme modificando il nostro clima, avvelenando i cieli, uccidendoci pian piano. Insomma, come avete capito bene, la storia e’ sempre la stessa.

Messe da parte queste farneticazioni, cerchiamo di capire in primis se la notizia e’ reale e se esiste una spiegazione razionale a quanto accaduto.

Per prima cosa, come ho anticipato, la foto e’ reale e assolutamente non ritoccata al pc. Nella notizia che vi ho in parte riportato, ci sono pero’ una grossa serie di cantonate.

Andiamo con ordine.

Anche se reale, la foto mostrata non e’ assolutamente relativa al fenomeno di cui si sta parlando. Si tratta di una foto d’archivio dello stesso fenomeno avvenuto nel 2011. Per completezza, vi dico anche che la foto e’ stata scattata in Italia.

Qualche giorno fa, c’e’ stato nuovamente il fenomeno dell’arco rosso sui cieli d’Europa, ma questa volta l’arco non era visibile ad occhio nudo, mentre nel 2011 si. Quale e’ stato il ragionamento catastrofista per parlare di questa notizia? Ho letto di questo fenomeno, non so nemmeno di cosa si tratta, prendo una foto da internet senza sapere nemmeno se e’ relativa all’ultimo caso e poi ci ricamo sopra per alimentare il sospetto e per spingere il pensiero collettivo dove mi fa piu’ comodo. Questo e’ quello che tutti i giorni fanno i tanti siti catastrofisti che pubblicano notizie false o distorte solo per farci credere che qualcosa di pericoloso sia in atto.

Dunque, ricapitolando, qualche giorno fa c’e’ stato il fenomeno dell’arco rosso in Europa. L’arco pero’ non era visibile. Lo stesso fenomeno e’ avvenuto nel 2011 e questa volta era visibile.

Quanto detto apre una serie di interrogativi: se c’e’ stato l’arco rosso ma non era visibile, come facciamo a dire che c’e’ stato? Ma soprattutto, ci sono prove per sostenere quello che noi stiamo dicendo?

Cominciamo dall’ultima domanda. Volete una prova su quanto affermato? Ecco il link ad una pagina di livescience che parla di quanto avvenuto:

LiveScience Red Arc

Notate la data: 2/4/2013, dunque in linea con quanto affermato.

Come potete leggere nell’articolo, mentre nel 2011 il fenomeno fu visibile, quest’anno l’arco era invisibile ad occhio nudo anche a causa del notevole inquinamento presente sull’Europa. Il fenomeno e’ stato pero’ osservato dal telescopio ASIAGO (All-Sky Imaging Air-Glow Observatory) costruito proprio in Italia. Questo telescopio ha una strumentazione che gli consente di osservare il cielo con particolari filtri che, in questo caso, gli hanno anche permesso di osservare l’arco rosso.

Come potete vedere nell’articolo, l’immagine che viene riportata fa proprio il confronto tra l’immagine catturata da ASIAGO e quella del 2011 da cui siamo partiti.

A questo punto, cosa sarebbe questo arco rosso?

In funzione della normale attivita’ solare, piu’ o meno particelle cariche possono arrivare sulla nostra magnetosfera, cioe’ la regione dominata dal campo geomagnetico. Queste interazioni sono esattamente le stesse che danno luogo alle aurore nelle regioni polari. Mentre in questo caso l’effetto dell’interazione da luogo ad emissioni di particelle nel visibile, alle latitudini piu’ basse si possono formare appunto gli archi rossi. Questo fenomeno avviene ad un altitudine molto maggiore rispetto a quella delle Aurore, dal momento che gli archi vengono formati nella ionosfera tra 100 e 600 Km di altitudine. L’emissione ottica del processo avviene ad una specifica lunghezza d’onda, spostata appunto verso il rosso. Generalmente, l’emissione avviene con intensita’ molto debole e difficilmente il fenomeno degli archi rossi e’ visibile ad occhio nudo.

Solo per precisare, quando diciamo che “generalmente” non e’ visibile, significa che in alcuni casi lo e’. L’esempio del 2011 e’ proprio la prova della sporadica visibilita’ di questi fenomeni.

Dal punto di vista della ricerca, il telescopio ASIAGO non servira’ certo solo per vedere gli archi rossi in cielo. La sua funzione, anche attraverso l’osservazione di questo fenomeno, consentira’ di capire molte cose sulla nostra magnetosfera, sia dal punto di vista della composizione che sotto il profilo delle reazioni chimico-fisiche che avvengono. Inoltre, questo potrebbe essere un’ottima misura indiretta per valure in continuo l’attivita’ solare in corso.

Concludendo, anche in questo caso non c’e’ assolutamente nessun mistero. La notiza degli archi rossi, non riguarda assolutamente un fenomeno misterioso, ne tantomeno mai osservato o incomprensibile. Come dimostrato, ci sono altri esempi di archi rossi in cielo ed, in particolare, la foto che trovate in moltissimi siti riguarda proprio uno stesso evento, questa volta visibile ad occhio nudo, accaduto nel 2011.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.