Tag Archives: futuro

A proposito di campo geomagnetico

31 Ott

di Patrizia Esposito

————————————-

Ipotizziamo di dover misurare la temperatura del nostro corpo: fa differenza se mettiamo il termometro direttamente a contatto con la pelle o se lo appoggiamo sopra i vestiti? Lasciamo per un momento la domanda in sospeso e parliamo di una particolare categoria di inquinanti organici, i cosiddetti POPs (Persistent Organic Pollutants).

Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l'uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Fig.1: Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l’uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Si tratta di pesticidi (aldrin, DDT, eptacloro), prodotti industriali (PCB) e sottoprodotti non desiderati di certi processi (diossine e furani), regolamentati (poco efficacemente?) nel loro utilizzo e smaltimento dalla Convenzione di Stoccolma del 2001 e sul banco degli imputati con l’accusa di essere sostanze altamente tossiche per l’ambiente e per l’uomo (figura 1) e responsabili del cambiamento climatico. Le peculiari caratteristiche chimico-fisiche dei POPs li rendono, infatti, persistenti (figura 2) ,bioaccumulabili e trasportabili su lunghe distanze.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

La proprietà per la quale questi composti si legano ai tessuti adiposi dei vertebrati si chiama lipofilicità e fa sì che questi inquinanti entrino nelle catene alimentari. Mentre è nota come effetto grass-hopper (figura 3) la modalità di trasporto su lunghe distanze, dovuta a determinati valori della tensione di vapore, della costante della legge di Henry e del coefficiente di partizione ottanolo-aria, e che consiste nell’evaporazione di questi composti dall’acqua e dal suolo, nel trasporto in atmosfera e nella loro deposizione su superfici acquatiche e terrestri. In pratica i POPs, nelle zone tropicali e temperate evaporano, subiscono un trasporto atmosferico che segue l’andamento dei meridiani terrestri, condensano nelle zone fredde come i poli e le grandi catene montuose e si accumulano nei vari compartimenti ambientali. Ecco perché si ritrovano in alte concentrazioni in zone lontane da quelle di produzione.

Fig.3: Effetto Grass-Hopper

Fig.3: Effetto Grass-Hopper

Sic stantibus rebus, i POPs rivestono il nostro pianeta come una pellicola e sono riconosciuti come una concausa dell’effetto serra. E se, oltre ad avere un’influenza sul clima globale, avessero una qualche interazione con il campo magnetico terrestre? Di preciso: le misurazioni del campo geomagnetico avrebbero gli stessi valori se non ci fossero i POPs? La risposta alla domanda iniziale è abbastanza palese: non è lo stesso appoggiare il termometro sui vestiti o direttamente sulla pelle. La risoluzione del quesito finale invece non è altrettanto immediata. Ma è lecito pensare che le misurazioni del campo magnetico possano essere alterate dalla presenza ubiquitaria di questi composti e che l’indebolimento del campo stesso (del quale si continua a parlare e sparlare) sia solo apparente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fusione Nucleare tra 10 anni?

20 Ott

Diverse volte su queste pagine ci siamo fermati a discutere il cosiddetto scenario energetico per i prossimi anni. Come è noto a tutti, con una società sempre più energivora e la popolazione in continua crescita, tra non molto avremo un sostanziale problema di disponibilità energetica. Tutto questo è poi aggravato da quella che per molto tempo abbiamo fatto finta di ignorare, cioè la questione ambientale. Sfruttare in modo non controllato le nostre risorse ci porta ad esaurire e compromettere l’equilibrio dell’ecosistema Terra, equilibrio ormai assolutamente poco stabile a causa del contributo determinante proprio dell’attività umana.

Parlando in generale di scenario energetico, ed in particolare dei due orizzonti temporali più citati, cioè 2020 e 2050, in questo post avevo riportato un’intervista che mi era stata fatta al termine di un convegno su queste tematiche in cui avevo partecipato proprio esponendo la situazione nucleare:

Scenario energetico 2050

Per quanto riguarda la fissione, anche se nella concezione comune, soprattutto oggi, queste centrali sono viste come sinonimo di incidenti, c’è da sempre una notevole attività di ricerca proprio per migliorare le prestazioni e incrementare la sicurezza dei reattori.

Fissione a parte, la vera chimera del sostentamento energetico è da sempre la reazione di fusione per produzione energetica.

A parte le notevoli discussioni fatte per discutere i processi LENR a bassa energia:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Abbiamo visto in alcuni articoli:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Fusione, ci siamo quasi?

quanto possa essere difficile realizzare questi reattori che produrrebbero energia senza rilasciare praticamente scorie dirette. Come visto, anche se questo è il processo che utilizzano le stelle per produrre energia, applicare questi concetti in modo controllato sulla Terra non è semplice per problematiche tecnologiche ancora oggi assolutamente aperte. Come sappiamo, la scelta del sistema di contenimento del plasma è uno dei problemi aperti della questione. Diversi gruppi sono da decenni impegnati nella ricerca della miglior soluzione, applicabile e che consenta di raggiungere un bilancio positivo del sistema, cioè produrre più energia di quella che viene richiesta dal reattore per funzionare.

Perchè torno a parlare di questi argomenti? Vi mostro prima di tutto il link dove è possibile leggere un annuncio che sta facendo discutere moltissimo in queste ore:

Lockheed, Fusione

Si tratta di una “news” scritta sul sito internet della Lockheed Martin, società che tutti conoscono se non altro per i suoi sistemi aeronautici. L’annuncio è molto semplice, la Lockheed sostiene di poter arrivare nel giro di 10 anni alla realizzazione commerciale di reattori a fusione portatili, cioè con dimensioni notevolmente inferiori a quelle dei reattori oggi in fase di studio. Questi sistemi potrebbero addirittura essere montati su un camion ed essere trasportati producendo energia in modo mobile. Come viene spiegato, il rendimento di un reattore a fusione sarebbe fino a 5-6 volte maggiore di quelli oggi utilizzati e che sfruttano la fissione.

E’ possibile questo?

Cerchiamo di ragionare insieme. Premetto che moltissimi giornali e siti internet, ecco un esempio:

Repubblica, Lockheed

hanno pubblicato questa notizia con toni enfatici e annunciando alla rivoluzione energetica. Se così fosse, nei nostri articoli precedenti avremmo sbagliato tutto, così come nell’intervista in cui parlavo di fusione che non sarebbe arrivata, se non in fase di sperimentazione (forse) per il 2050. Ora, la Lockheed parla di “realizzazione” nel giro di 10 anni.

Chi sta sbagliando?

Come nostra abitudine, vi dico subito che non voglio essere scettico per partito preso, ma voglio che i miei ragionamenti siano chiari, o almeno pubblici, per tutti. Tra notevoli difficoltà e con costi altissimi, stiamo cercando di realizzare la macchina ITER. Questo reattore sperimentale darebbe la possibilità di fare studi fondamentali per il confinamento del plasma di fusione. Si tratta, come anticipato, di un reattore per ricerca cioè, detto in parole veramente povere, “dobbiamo provarci e vedere cosa succede”. Immaginate la lunga trafila che si prospetta, si realizza un reattore di ricerca, si fa ricerca, se le cose vanno bene si pensa al futuro, cioè ad un qualcosa che dovrebbe, come prototipo, produrre energia per scopi commerciali. Tempi lunghissimi e investimenti, sia in termini economici che di ricerca, lunghissimi.

La Lockheed nel giro di 10 anni dovrebbe avere un reattore da montare su un camion? Quale è stato fino ad oggi il ruolo di questa società nel campo della fusione? Non esiste uno, e dico uno, articolo scientifico pubblicato dalla Lockheed sulla fusione nucleare. Nella pagina che vi ho linkato all’inizio si parla di test tra un anno e produzione entro 10 anni. Ma di cosa? Come vedete, non c’è uno straccio di affermazione scientifica su cui discutere. Stiamo parlando di un qualcosa che nessuno conosce? Di un confinamento particolare? Di altro? Eppure, parliamo di una società grande e da sempre impegnata, anche se in settori completamente diversi, in ambito ricerca. Questo per dire due cose: fino ad oggi la Lockheed non ha mai parlato di fusione e, almeno sulla carta, conosce molto bene come la ricerca avviene e quali passi deve fare.

Cosa penso di questa storia?

Non voglio mettere un punto alla questione ma, al momento, sono fortemente scettico. Se vi fosse una scoperta fondamentale della scienza, ci sarebbero articoli pubblicati. Se l’applicazione sfruttasse processi classici, cioè già testati, ma in modo diverso, ci sarebbero riferimenti scientifici nell’annuncio. Niente di questo è presente. Un comunicato del genere è pesante perchè, qualora confermato, rimescolerebbe tutte le carte del settore energetico e sarebbe un qualcosa di veramente sensazionale per il nostro futuro energetico.

Personalmente, non capisco i toni di molti giornali, alcuni anche scientifici, che hanno accolto questa notizia come una bomba mediatica senza chiedersi come questa rivoluzione dovrebbe avvenire. Ad oggi, ma sarà un mio limite, io non capisco come questi signori vorrebbero fare la fusione. Alla luce di questo, ripeto “oggi”, sono fortemente scettico sull’annuncio ma, come sempre, resto in attesa di sviluppi pe capire meglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il metodo made in Italy per produrre Idrogeno

26 Lug

Da molti anni, ormai, sentiamo parlare di un futuro energetico incentrato sull’idrogeno. Molti, parlano di questo possibile combustibile addirittura speculando su un passaggio dall’era del petrolio a quella dell’idrogeno. Come tutti sappiamo, questa soluzione potrebbe essere utilizzata in tantissimi settori. Anche se il più noto, e lasciatemi dire su cui tante leggende sono state create, è quello delle macchine alimentate a idrogeno, questo elemento potrebbe servire per produrre corrente elettrica ed energia nei più svariati settori industriali, consentendo, finalmente, di mettere da parte i fortemente inquinanti idrocarburi ma, soprattutto, l’economia basata su questi oli che non ha fatto altro che creare centri di potere, in primis, e guerre per l’appropriazione e lo sfruttamento dei giacimenti sparsi per il mondo.

Perché, ancora oggi, visto che molti parlano di una panacea di tutti i mali, non utilizziamo l’idrogeno?

Come sapete, molti parlano di poteri forti in grado di bloccare lo sviluppo di queste tecnologie per puri fini economici. Da un lato, queste affermazioni sono corrette. Non voglio nascondermi dietro un dito e dire che viviamo in un mondo ideale. Come tutti sanno, i soldi fanno andare l’acqua in salita ma, soprattutto, decidono dove l’acqua deve passare e dove no. Questo lato economico-oscuro non è però materia del nostro blog. Quello su cui invece vorrei spingere tutti a ragionare è il discorso prettamente energetico e ambientale dell’idrogeno.

Anche molti tra i cosiddetti esperti dell’energia, un po’ per secondi fini ma, mi dispiace dirlo, a volte anche per ignoranza, quando parlano di fonti alternative, dunque non solo idrogeno, dimenticano sempre di prendere in considerazione l’intera filiera del settore che non comprende solo l’utilizzo della risorsa ma anche la sua estrazione o eventuale produzione, stoccaggio, distribuzione, ecc.

Che cosa intendo con questo?

Facciamo un esempio pratico ma inventato. Immaginate di trovare una nuova fonte energetica che possa essere utilizzata per alimentare le automobili. Questa risorsa rende la vostra macchina assolutamente non inquinante e costa 1/10 della benzina. Bene, annunciate la vostra scoperta su internet e immediatamente si formerà un esercito di internauti pronti a parlare della vostra genialata e del fatto che la ricerca, insieme con qualche burocrate in giacca, cravatta e occhiali scuri, vi sta ostacolando. Scommetto che questa storiella ve ne ricorda tante altre sentite in questi anni. Dov’è il problema? Semplice, anche se il nostro carburante costa poco e non inquina, come si produce? Dove si estrae? Se per produrre questo carburante dovete utilizzare carbone, oli o elementi chimici che produrrebbero un effetto sull’atmosfera peggiore di quella dell’uso del petrolio, la vostra invenzione sarebbe ancora molto conveniente? Direi proprio di no.

Bene, questo è quello che vorrei far capire. Ogni qual volta si parla di qualcosa legato all’energia e all’inquinamento, dovete sempre mettere in conto tutti gli aspetti legati a quella determinata risorsa. Esempio pratico? I pannelli solari producono energia dalla fonte rinnovabile per eccellenza, il Sole. Nessuno però vi racconta mai dei costi di produzione dei pannelli o, soprattutto, di quelli di smaltimento dei pannelli ormai esausti. Tenendo conto di questi fattori, si deve ridimensionare molto il vantaggio ottenuto con l’uso di pannelli commerciali. Per carità, non voglio dire che questa soluzione debba essere scartata. Il mio pensiero vuole solo mostrare gli altri aspetti che spesso, soprattutto tra i sostenitori di una tecnologia, vengono completamente taciuti.

Perdonate questa mia lunga introduzione, ma quanto detto è, a mio avviso, importante per inquadrare al meglio la situazione.

Tornando ora al discorso idrogeno, come forse avrete letto, un team di ricercatori del CNR, per essere precisi della sezione di Firenze, ha trovato un nuovo processo di produzione dell’idrogeno che riesce a sfruttare i cosiddetti oli rinnovabili.

Perché è così interessante questa notizia? Alla luce di quanto detto sopra, ad oggi, esistono due modi principali di produzione dell’idrogeno, entrambi con criticità molto importanti. Il primo metodo di produzione consiste nell’estrazione dell’idrogeno dal metano. Per poter avviare il processo è però necessario ossigenare l’ambiente. In questo caso, la produzione di idrogeno è accompagnata da quella di anidride carbonica. Risultato? La produzione di CO2, come è noto, è da evitare per le conseguenze sull’ambiente. Vedete come le considerazioni iniziali ci consentono di fare ora un’analisi critica dell’intero processo?

Il secondo metodo possibile per la produzione dell’idrogeno è semplicemente basato sull’elettrolisi dell’acqua, cioè nella scomposizione di questa fonte nota e ampiamente disponibile in idrogeno e ossigeno. Quale sarebbe ora il rovescio della medaglia? Per fare l’elettrolisi dell’acqua occorre fornire molta energia, energia che deve ovviamente essere messa in conto quando si calcola il rendimento della risorsa. Esempio pratico, se per innescare l’elettrolisi utilizzate energia prodotta da fonti rinnovabili, questo contributo inquinante deve essere contabilizzato e l’idrogeno non è più così pulito. Oltre al problema del costo energetico di produzione, nel caso dell’elettrolisi si deve considerare anche il fattore sicurezza. Idrogeno e ossigeno vengono prodotti ad alte pressioni. Se, per puro caso, i due elementi vengono in contatto tra loro, si crea una miscela fortemente esplosiva.

Alla luce di quanto detto, credo che ora sia più chiaro a tutti il perché, escluso il discorso economico legato al petrolio, ancora oggi la futuribile economia dell’idrogeno ancora stenta a decollare.

Bene, quale sarebbe allora questo metodo made in Italy che i ricercatori del CNR hanno inventato? Come anticipato, questo sistema di produzione sfrutta gli alcoli rinnovabili. Credo che tutti abbiamo bene in mente cosa sia un alcol, perché però parliamo di rinnovabili? Detto molto semplicemente, si tratta degli alcoli, glicerolo, metanolo, ecc., prodotti dalle biomasse, quindi sfruttabili, rinnovabili e anche assolutamente diffuse.

Come funziona questo metodo?

Come noto alla chimica, rompere la molecola d’acqua in presenza di alcoli richiede molta meno energia rispetto a quella necessaria in presenza di sola acqua. Nessuno però, fino ad oggi, aveva pensato di sfruttare questa evidenza per la produzione di idrogeno. La vera innovazione di questo processo è nell’aggiunta di elettrodi nanostrutturati ricoperti di palladio che fungono da catalizzatori per il processo e raccolgono l’idrogeno prodotto nella reazione. A questo punto, immergendo gli elettrodi in una soluzione acquosa di alcoli è possibile rompere la molecola di acqua producendo idrogeno, evitando la formazione di ossigeno libero e, soprattutto, risparmiando il 60% dell’energia rispetto all’elettrolisi.

Come annunciato anche dagli stessi ricercatori, questo sistema potrà servire in un primo momento per la produzione di batterie portatili in grado di fornire energia in luoghi isolati e, a seguito di ulteriori ricerche e perfezionamenti, potrà essere sfruttato anche per la realizzazione di generatori da qualche KWh fino a potenze più alte.

Apro e chiudo parentesi, non per essere polemico ma per mostrare l’ambito nel quale molto spesso le ricerche si svolgono. Il gruppo di ricerca è riuscito a trovare i finanziamenti per i suoi studi perché al progetto hanno partecipato alcuni enti privati finanziatori, tra cui il credito cooperativo di Firenze.

Solo per concludere, e giusto per ricalcare nuovamente il fatto che la ricerca non si è dimenticata dell’idrogeno, anche a livello governativo, nelle direttive per l’obiettivo 2020 è stato imposto un target di 45KWh per la produzione di 1 Kg di idrogeno. Obiettivo considerato futuribile fino ad oggi ma che richiedeva ricerca aggiuntiva sui sistemi di produzione. Bene, il metodo inventato dal CNR richiede soltanto 18.5KWh per produrre 1 Kg di idrogeno. Direi che questo rende sicuramente il processo economicamente vantaggioso e apre finalmente le porte a un utilizzo, che sarà sempre e comunque graduale, di questa risorsa nella vita di tutti i giorni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La fusione …. secondo gli ignoranti

13 Giu

Stamattina ho avuto la malaugurata idea di “spendere” (o forse “buttare”) mezz’ora per leggere le ultime notizie sui siti catastrofisti. Tante volte abbiamo parlato di questi spazi del web e della loro disinformazione martellante nei confronti delle persone. Eh si, ho detto proprio disinformazione. Questo termine, tanto caro a questi soggetti, e che praticamente sempre utilizzano per denigrare la scienza e gli scienziati intenti a nascondere alle persone comuni i loro loschi piani, e’ invece adatto per descrivere quello che loro fanno costantemente giorno per giorno. La cosa che mi lascia sempre piu’ interdetto e’ vedere quante persone credono alle notizie riportate da questi siti, un mix micidiale di falsita’, stupidaggini e distorsioni che prendono a calci le nozioni piu’ basilari della scienza.

Perche’ me la sto prendendo tanto oggi? Dovrei essere abituato, direte voi. Forse avete ragione, ma a volte, quando pensi di averle viste e lette tutte, ti accorgi che “non c’e’ mai limite al peggio!”.

Diverse volte su questo blog abbiamo parlato di energia e scenari energetici. In molti articoli, abbiamo analizzato e discusso sulle fonti rinnovabili cercando di capire in che direzione ci sta portando la ricerca e provando ad ipotizzare un futuro energetico sostenibile ed in grado di soddisfare la continua crescita della nostra soscieta’ che diviene sempre piu’ energivora.

In questo ambito, la discussione sul nucleare e’ sempre uno dei punti piu’ dibattuti e discussi anche tra il grande pubblico. Premesso che la ricerca sulla fissione nucleare e’ in continua evoluzione con lo studio di reattori intrinsecamente sicuri, posto d’onore in una discussione sul futuro spetta ovviamente alla fusione.

Per quanto riguarda la fusione, in diversi articoli:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

abbiamo analizzato il discorso della fusione fredda e dei fenomeni LENR. Come visto in questi articoli, in questo caso parliamo di fenomeni non dimostrati e che, ad oggi, non sono assolutamente in grado, chissa’ se mai lo saranno, di produrre piu’ energia di quella che consumano. Come evidenziato tante volte, questa e’ l’evidenza che abbiamo di fronte agli occhi. Non voglio denigrare per partito preso fenomeni non convenzionali e, come piu’ volte dichiarato, sarei io il primo a tornare sui miei passi qualora venisse dimostrato, in modo scientifico, che questa tipologia di reazioni sono in grado di produrre energia pulita.

Chiusa questa parentesi, torniamo a parlare di fusione nucleare nel senso piu’ scientifico del termine. Anche su questo argomento abbiamo scritto diversi articoli:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Fusione, ci siamo quasi?

In particolare, come noto, lo studio delle reazioni di fusione e’ oggi incentrato nel rendere positivo il bilancio di reazione, cioe’ fornire in uscita piu’ energia di quella che e’ richiesta dal sistema per poter funzionare. Come visto, in questo ambito, ci sono due linee principali di studio, entrambe riguardanti il confinamento del plasma nel reattore: il confinamneto inerziale e quello magnetico. Per quanto riguarda il primo, gli studi riguardano l’ottimizzazione del consumo energetico dei laser utilizzati per innescare il processo, mentre nel secondo caso parliamo dei reattori di tipo Tokamak. Per questi ultimi, in particolare, le speranze principali sono riposte nel progetto ITER, il primo reattore di ricerca per fusione, attualmente in costruzione nel sud della Francia.

Riguardo alla fusione e al suo ruolo negli scenari energetici futuri, in un precedente articolo avevo riportato anche una mia intervista fatta in occasione di un convegno incentrato sullo scenario energetico 2050 di forte interesse per la Comunita’ Europea:

Scenario energetico 2050

Fatto questo doveroso preambolo, cosa ho letto stamattina? Normalmente non riporto link a questo tipo di siti, proprio per evitare di publicizzare notizie tendenziose. Questa volta, vista l’assurdita’ della cosa, facciamo “nomi e cognomi”:

Russia: un nuovo reattore a fusione per dare energia a tutto il mondo

Vi pregherei di leggere tutto l’articolo dall’inizio alla fine e di confrontarlo non solo con quello che abbiamo gia’ scritto, ma con qualsiasi fonte “reale” vogliate.

Vi rendete conto?

Secondo questi tizi, ITER avrebbe funzionato nel 1990 e oggi si sta costruendo un reattore a fusione in Russia per dare energia a tutto il mondo! Si fa poi un’enorme confusione per quanto riguarda le scorie, parlando prima di reattori che “tengono intrappolate le scorie”, salvo poi dire che le scorie non ci sono. Si parla di uranio dicendo che pero’ il reattore non funziona ad uranio. Solo per inciso, come potete confrontare con l’intervista riportata in precedenza, si stanno mescolando insieme, senza un senso logico, fusione, fissione e i cosiddetti “Accelerator Driven System”.

Questi sarebbero i siti che fanno informazione libera smascherando gli scienziati corrotti e pagati dal sistema?

Resto veramente basito. In primis per le notizie date da questi siti ma, soprattutto, nel vedere cosi’ tante persone che seguono e credono a notizie di questo tipo.

Ve lo ripeto, non fidatevi mai di chi vuole convincervi a tutti i costi di qualcosa. Ascoltate tutte le campane, confrontate quanto detto, studiate autonomamente e fatevi una vostra idea. Magari, alla fine, la vostra idea non sara’ neanche giusta ma e’ la vostra. Se poi qualcuno vi convince del vostro errore, siate sempre pronti a cambiare opinione, ma sempre dopo aver ponderato tutto. Lo stesso vale per tutti, anche per i siti scientifici. Siamo cosi’ bombardati da informazioni che a volte e’ difficile capire dove e qual e’ la verita’. Ripeto, ascoltate, analizzate ma, soprattutto, pensate.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Scenario Energetico 2050

22 Mag

La scorsa settimana ho partecipato come relatore ad un interessantissimo convegno organizzato da ISES Italia e Eidos dal titolo: “2050: l’energia del futuro”.

Scrivo questo post assolutamente non per autocelebrazione, chi ha imparato a conoscermi sa che e’ cosi’, ma perche’ diverse volte su questo blog ci siamo interessati di energia e scenari futuri. Come sapete, ad oggi possiamo disporre di diverse tecnologie per lo sfruttamento delle rinnovabili anche se, e questo e’ il mio parere, dobbiamo continuare a fare ricerca per poter arrivare a soluzioni future in grado di dare contributi significativi. Il punto raggiunto oggi e’ solo uno step intermedio che pero’ necessita’ di idee nuove e soluzioni su vasta scala per poter contrastare la continua crescita demografica di una societa’ che diviene sempre piu’ energivora.

Come potete facilmente immaginare, il mio intervento al convegno e’ stato sull’energia nucleare. Purtroppo, ancora oggi, viene fatto un atto di terrorismo psicologico nei confronti del nucleare chiamando appunto con questo termine “fenomeni fisici completamente diversi”. Come abbiamo visto in altri post, e ripeto e’ un mio personale pensiero, soprattutto in Italia, quella del nucleare e’ divenuta una questione politica piu’ che scientifica. Diversi schieramenti si sono contrapposti non sul piano dei contenuti ma solo tra favorevoli e contrari per mero scopo elettorale.

Vi riporto alcuni link interessanti per farvi capire, nuovamente, il mio pensiero, ma anche per farvi vedere le altre tecnologie discusse nel convegno e sicuramente interessanti nell’ottica di un futuro non cosi’ lontano.

Articolo del quotidiano “Avvenire” sul convegno

Intervista per il sito Canale Energia

Articolo su e7

Articolo di Canale Energia sul nucleare futuro

Link al sito ISES con le presentazioni mostrate al convegno

Questo e’ invece il video dell’intervista rilasciata per Canale Energia al termine del Convegno:

Ripeto, questo non vuole essere un articolo autocelebrativo, ma vorrei aprire una riflessione sui possibili scenari energetici al 2050, nuovo punto di svolta imposto dalla Commissione Europea.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Europa: oceani, acqua e …. (forse) vita

10 Mag

Diverse volte abbiamo parlato di esplorazione spaziale e altrettante siamo poi finiti a discutere dell’esistenza o meno di forme di vita al di fuori del nostro pianeta. Come e’ noto, uno degli aspetti senza dubbio piu’ interessanti e sentiti, anche dai non addetti ai lavori, e’ la possibilita’ che la vita si sia sviluppata anche su altri pianeti.

Personalmente, come detto tante volte, non sono assolutamente chiuso all’idea che la vita si possa essere sviluppata da qualche altra parte ma ogni qual volta si affrontano discorsi di questo tipo, si deve sempre prestare la massima attenzione nel mantenere un approccio scientifico al problema, senza finire, come avviene molto spesso in rete, a discutere di improbabili quanto assurdi avvistamenti di dischi volanti o alieni fotografati in qualche bosco sperduto.

Di queste tematiche abbiamo parlato in diversi articoli. Dapprima sotto il profilo puramnete scientifico-biologico:

Il segnale WOW!

Messaggio alieno nelle aurore?

poi discutendo invece dove cercare questa vita, introducendo il discorso degli esopianeti e della loro scoperta al di fuori del nostro Sistema Solare:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Esopianeti che non dovrebbero esserci

Ancora sugli Esopianet

In particolare, tutto il discorso degli esopianeti riguarda principalmente l’identificazione di corpi orbitanti intorno a qualche stella e che si trovano in una zona potenzialmnete adatta allo sviluppo della vita. Come discusso varie volte negli articoli precedenti, la definizione di questi parametri impone una discussione di diversi fattori, non solo legati all’irraggiamento da parte della stella centrale e dunque della posizione orbitale del pianeta stesso.

Detto questo, questa volta vorrei parlare della ricerca di vita non al di fuori del nostro Sistema Solare, bensi’ al suo interno, molto piu’ vicino di quanto si possa pensare. Molti di voi, conosceranno sicuramente Europa, uno dei satelliti orbitanti intorno a Giove e che, da diverso tempo ormai, e’ visto come un possibile candidato ad ospitare forme di vita non sulla superficie, bensi’ al suo interno.

Visto da fuori, Europa si presente come un corpo estremamente inospitale:

Il satellite di Giove Europa

Il satellite di Giove Europa

La scoperta di Europa risale addirittura la 1610, quando Galileo riusci’ ad osservarlo, insieme ad altre lune di Giove, con l’ausilio del suo telescopio appena inventato. La superficie di Europa appare praticamente liscia e priva di criteri da impatto. Le osservazioni fatte a partire dal 1995 dalla sonda Galileo hanno evidenziato la presenza di una spessa crosta fatta di ghiaccio, molto simile al pack presente sui mari polari della Terra.

Come anticipato, in superficie, l’ambiente offerto da Europa non e’ assolutamente dei migliori. La temperatura superficiale si aggira intorno ai -150 gradi centigradi con un irragiamento da parte del Sole che e’ circa 1/25 di quello che arriva sulla Terra. Vicino ai poli geografici del satellite, la situazione e’ ancora peggiore con temperature che scendono fino a -230 gradi.

Perche’ su una luna di questo tipo ci potrebbe essere la vita?

Le osservazioni fatte nel corso degli anni dai vari satelliti che hanno sorvolato Europa hanno mostrato alcuni aspetti del pianeta che potrebbero essere compatibili con una struttura interna del tutto diversa da quella che vediamo dall’esterno. Il modellamento della superficie potrebbe infatti essere dovuto a moti mareali innescati dal vicino e massivo Giove su un enorme volume di acqua liquida, o ghiaccio conduttivo, contenuta all’interno di Europa. Questa immagine mostra molto bene le due ipotesi sulla struttura interna:

Possibili modelli per la struttura interna di Europa

Possibili modelli per la struttura interna di Europa

Oltre a queste considerazioni, le misure sul magnetismo del sistema Giove-Europa hanno evidenziato la presenza di un lieve campo magnetico sul satellite e di materiale conduttivo all’interno. Basta? Niente affatto, Europa presenta anche una lieve atmosfera propria con la presenza di ossigeno prodotto dalla dissociazione dell’acqua degli strati superficiali di ghiaccio. Poi? Nel 2013 il telescopio Hubble ha mostrato enormi geyser di vapore acqueo che fuoriescono dalle zone polari di Europa e che si elevano fino a 200 Km di altezza. Anche in questo caso, anche se da confermare ovviamente, il vapore acqueo potrebbe arrivare direttamente dall’interno del satellite spinto dall’attivita’ vulcanica, interna anche in questo caso.

Ragioniamo un attimo insieme: abbiamo una serie di evidenze che ci spingono a pensare che la superficie di Europa possa essere uno strato di ghiaccio contenente al suo interno un enorme oceano di acqua liquida. Alcune domande banali: quanto e’ spesso questo strato di ghiaccio? Come avrebbe fatto la vita a formarsi in un ambiente cosi’ ostile e, soprattutto, senza un sufficiente irraggiamento da parte del sole?

Domande ovviamente lecite e su cui e’ doveroso ragionare.

Per quanto riguarda lo spessore di ghiaccio, studiando la morfologia del pianeta, il suo moto e altri parametri chimico-fisici, si suppone che questo strato possa essere spesso circa 20 Km. Inoltre, le proprieta’ magnetiche di Europa potrebbero essere compatibili con un oceano di acqua addirittura salata, proprio come quella che riempie gli oceani della nostra Terra. Certo, uno spessore di 20 Km non e’ trascurabile e proprio questo aspetto rappresenta una delle difficolta’ principali per la probabile esplorazione e la ricerca di vita su Europa. Ma, come vedremo, le soluzioni tecnologiche potrebbe esserci.

L’altra domanda che ci siamo posti e’ invece legata alla possibilita’ che ci sia vita in questo immenso oceano sotterraneo. Per prima cosa, vi ricordo un argomento discusso qualche tempo fa su questo blog:

I misteri del lago Vostok

Lago Vostok, c’e’ vita?

Come ricorderete, anche nelle profondita’ di questo lago polare si ipotizza possa essere presente la vita, sviluppata in un ambiente apparentemente ostile e completamente isolato dalla superficie. Oltre a questo, nell’mmaginario comune, la moltitudine di forme di vita che si sviluppano nei nostri mari sono possibili grazie unicamente all’energia dei raggi solari che penetrano fino a profondita’ molto elevate. Se mettiamo un “tappo” di 20 Km su questo oceano e per di piu’ all’esterno abbiamo un irraggiamento proveniente dal sole gia’ notevolmente inferiore a causa della distanza Europa-Sole, come possiamo pensare che ci possano essere le condizioni per la vita?

Anche a questa domanda abbiamo una risposta che viene direttamente da quello che abbiamo potuto osservare sul nostro pianeta. Vi mostro una foto:

Fumarola Nera

Fumarola Nera

Di cosa si tratta? Quella che vedete e’ una cosiddetta “fumarola nera”, cioe’ un punto da cui fuoriescono gas provenienti dalle profondita’ della terra. Gas come idrogeno e acido solfidrico che, a causa della presenza di una forte attivita’ vulcanica su Europa, potrebbero essere presenti anche nell’oceano che vogliamo studiare. Di che tipo di forme di vita parliamo? Nel 1977, durante una missione esplorativa nelle Galapagos, venero scoperte colonie di vermi tubo, vongole, crostacei e mitili proprio intorno ad una fumarola nera in un punto in cui la luce del Sole non poteva assolutamente arrivare. Queste forme di vita, dunque non solo batteriche, si sviluppano grazie alla cosiddetta “chemiosintesi batterica”. In questo caso, al contrario della fotosintesi in cui si usa l’energia solare per ricavare energia, il processo sfrutta processi inorganici ad alta entalpia per formare sostanze organiche come, ad esempio, il glucosio. Detto questo, capite bene come la ricerca di vita su Europa potrebbe non essere assolutamente un azzardo, bensi’ una missione in grado di portare risultati.

Bene, a questo punto abbiamo capito dove poter cercare la vita, come potrebbe essersi sviluppata ma manca da capire se esistono i mezzi e la volonta’ per una missione di questo tipo. Senza tanti giri di parole, vi riporto un link sicuramente interessante il “President budget” per il Fiscal Year 2015:

President Budget, FY15

Per la prima volta, l’esplorazione su Europa e’ stata inserita nei finanziamenti della NASA per dare avvio a quella che viene chiamata missione Clipper.

Di cosa si tratta?

Come potete immaginare, il nome Clipper sta proprio per “taglia ghiaccio”. Scopo della missione e’ dapprima quello di effettuare 45 flyby intorno ad Europa partendo da un’altezza di 2700 Km per scendere fino a 25. Durante questi passaggi, grazie agli strumenti in dotazione, Clipper potra’ esaminare molti parametri chimico fisici sia dell’atmosfera che delle emissioni gassose intorno ai poli della luna. Inoltre, potranno essere scattate foto della superficie per una ricostruzione precisa di tutto il corpo. Nella seconda fase invece, la missione avra’ il compito di atterrare sul satellite e raccogliere campioni del terreno in superficie, e a profondita’ diverse comprese tra i 2 e i 10 cm. Perche’ questa raccolta? Semplice, l’analisi di questi campioni potra’ confermare o meno la presenza di salinita’, di materiale organico e di ogni altro parametro interessante per farci comprendere la presenza di o meno di vita all’interno di Europa.

La missione Clipper, gia’ in fase di studio da qualche anno e che, se tutto va nel verso giusto, dovrebbe essere lanciata nel 2025, rappresenta senza dubbio un primo passo per uno studio dettagiato di Europa. Ovviamente, come e’ facile immaginare, in questo caso, ancora piu’ che in altri, sara’ fondamentale garantire una sterilizzazione perfetta di tutti gli strumenti al fine di non “inquinare” i campioni con eventuali forme di vita terrestri.

Oltre alla NASA, molti altri paesi ed agenzie stanno pensando a missioni specifiche su Europa e su altre lune di Giove. L’ESA, ad esempio, sta preparando la missione JUICE per lo studio delle atmosfere di alcuni satelliti gioviani, tra cui ovviamente Europa. Se i risultati di queste missioni confermeranno, o almeno saranno compatibili, con l’ipotesi di vita, si passera’ ad una fase due con l’intenzione proprio di perforare lo strato di ghiaccio ed esplorare l’oceano sottostante. Per darvi un’idea, gia’ molti pensano a come realizzare queste missioni utilizzando trivelle alimentate da combustibile nucleare in grado di fornire l’acqua calda per forare l’enorme strato di ghiaccio. Oltre a questo, saranno sicuramente presenti non piu’ rover, ma mini sommergibili automatizzati per l’esplorazione dell’oceano e la ricerca di forme di vita.

Come vedete, Europa rappresenta sicuramente un futuro molto prossimo dell’esplorazione spaziale. Da qui a qualche anno potremmo finalmente capire se questo satellite possa essere un ambiente ospitale per la vita o se dovremmo limitarci a cercare al di fuori del nostro Sistema Solare.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Un futuro … robotico

13 Mar

Nell’immaginario collettivo dettato dai film e racconti di fantascienza, il nostro futuro dovrebbe essere popolato da robot umanoidi dotati di intelligenza propria ed in grado di comunicare, interagire e, perche’ no, contrapporsi agli stessi esseri umani che li hanno creati. Da decenni questi scenari futuristici vengono richiamati e su tematiche del genere si sono inventate tantissime storie e racconti. Il nostro livello tecnologico, per quanto, punto di vista personale, debba sempre essere migliorato ed e’ sempre un passo indietro a quello che vorremmo fare, non e’ assolutamente scarso eppure questi tanto citati scenari non si sono ancora visti.

Nonostante questo, e anche se molti lo ignorano, la tecnologia robotica ha fatto enormi passi avanti negli ultimi anni e molte operazioni, sia di routine che di elevata complessita’, sono gia’ eseguite dagli uomini coadiuvati da sistemi elettromeccanici. Spesso, questa simbiosi tecnologica e’ necessaria e utile per migliorare la precisione di determinate operazioni, altre volte invece e’ una vera e propria necessita’ fondamentale per supplire all’impossibilita’ di un intervento diretto dell’uomo.

Proprio da questo ultimo scenario vorrei partire per commentare una notizia apparsa sui giornali qualche giorno fa. Provate ad immaginare uno scenario di questo tipo: siamo su un’astronave lontana migliaia di kilometri da Terra. Un membro del nostro equipaggio ha un problema di salute importante che impone un intervento chirurgico di urgenza. Per quanto gli altri membri dell’equipaggio possono essere addestrati a situazioni di questo tipo, non e’ assolutamente possibile immaginare che tutti siano in grado di fare tutto in modo eccellente. Cosa fare per salvare la vita dell’uomo? In casi come questo, potrebbe intervenire un robot in grado di compiere operazioni chirurgiche anche delicate perche’ programmato ed istruito per farle oppure perche’ telecontrollato da un esperto sulla Terra o su un’altra navicella nello spazio.

Pensate sia fantascienza?

Proviamo a sostituire qualche soggetto della nostra storia. La navicella lontana dalla Terra e’ la Stazione Spaziale Internazionale, i membri dell’equipaggio sono gli astronauti provenienti da diversi paesi e che devono restare in orbita anche per periodi relativamente lunghi. Come vengono gestiti casi come quello raccontato sulla ISS? Per il momento, non c’e’ stato mai bisogno di operare d’urgenza un membro della stazione spaziale ma, come potete capire, e’ necessario predisporre piani di emergenza anche per far fronte a problemi come questo. Dal punto di vista medico, gli astronauti della stazione hanno in dotazione strumentazione di monitoraggio e controllo che possono usare autonomamente o aiutandosi in coppie.

Sicuramente un robot appositamente creato per questi scopi potrebbe coadiuvare gli astronauti sia nelle operazioni di routine che in casi di emergenza.

Questo e’ il pensiero che i tecnici NASA hanno avuto quando, qualche anno fa, hanno mandato sulla Stazione Spaziale il Robonaut 2, un robot umanoide che ancora oggi e’ in orbita intorno alla Terra. Inizialmente, il robot e’ stato inviato per aiutare gli astronauti nelle operazioni piu’ difficili ma anche per sostituirli in quelle piu’ banali e ripetitive che sottraggono inutilmente tempo al lavoro del team.

Il Robonaut 2 all'interno della Stazione Spaziale Internazionale

Il Robonaut 2 all’interno della Stazione Spaziale Internazionale

La storia del progetto inizia gia’ dal 1997 quando venne sviluppato un primo prototipo di Robonaut. Questo sistema era pensato per aiutare gli astronauti o sostituirli durante le attivita’ extraveicolari piu’ pericolose. Inoltre, poteva essere montato su un piccolo carro a 6 ruote trasformandolo in un piccolo rover intelligente per l’esplorazione in superficie della Luna o di altri corpi celesti.

Il progetto, come potete immaginare, risulto’ valido e dal 2006 e’ iniziata una stretta collaborazione tra la NASA e la General Motors per la costruzione di un sistema piu’ affidabile e da testare in orbita, appunto il Robonaut 2. Una volta arrivato sulla stazione, il robot venne lasciato imballato per diversi mesi a causa dell’elevato carico di lavoro degli astronauti, fino a quando venne messo in funzione quando nella stazione era presente anche il nostro Paolo Nespoli.

Ecco un video delle prime fasi di collaudo del Robonaut-2:

Come detto, il Robonaut 2 e’ un robot umanoide dotato di due braccia a 5 dita per un peso complessivo di 150Kg, escluse le gambe non previste in questa versione. Il costo di produzione e’ stato di circa 2.5 milioni di dollari per produrre un vero e proprio gioiello di elettronica. Il robot e’ dotato di 350 sensori, una telecamera 3D ad alta definizione, il tutto comandato da 38 processori Power PC. Il complesso sistema di snodi consente di avere 42 gradi di movimento indipendenti.

Addestramento del Robonaut 2 con un manichino

Addestramento del Robonaut 2 con un manichino

La notizia di questi giorni e’ relativa allo speciale addestramento che il Robonaut 2 sta seguendo per diventare un vero e proprio medico di bordo pronto a far fronte, autonomamente o su controllo da Terra, ad ogni intervento medico richiesto, da quelli di routine a, eventualmente, vere e proprie operazioni. Questo addestramento e’ seguito passo passo sia da medici che da tecnici NASA esperti di telecontrollo, dal momento che tutto verra’ poi seguito da Terra verso la Stazione Spaziale. Stando a quanto riportato anche dalla NASA, il Robonaut sarebbe gia’ in grado di eseguire piccoli interventi di routine e di fare prelievi e punture ad esseri umani. Ovviamente, per il momento la sperimentazione e’ fatta su manichini anche se il robot ha mostrato una straordinaria capacita’ di apprendimento e, ovviamente, una precisione e ripetivita’, difficilmente raggiungibili da una mano umana.

Come vedete, forse gli scenari fantascientifici da cui siamo partiti non sono poi cosi’ lontani. In questo caso, l’utilizzo di tecnologia robotica e’ necessario proprio per supplire all’impossibilita’ di intervento diretto da parte dell’uomo e sicuramente potrebbe essere in grado in un futuro molto prossimo di far fronte a situazioni altrimenti non gestibili.

Prima di chiudere vorrei pero’ aprire un ulteriore parentesi robotica. Se pensate che l’utilizzo di un sistema elettromeccanico in medicina sia una novita’ assoluta o se credete che sistemi di questo tipo siano appannaggio soltanto della Stazione Spaziale o di centri di ricerca futuristici, state sbagliando di grosso.

Vi mostro una foto di un altro robot, assolutamente non umanoide, ma con funzioni molto interessanti:

Il sistema robotico Da Vinci

Il sistema robotico Da Vinci

Questo e’ il Robot Da Vinci, proprio in onore del nostro Leonardo, utilizzato in moltissime sale operatorie di tutto il mondo.

Da Vinci e’ prodotto dalla ditta americana Intuitive Surgical e gia’ nel 2000 e’ stato approvato per l’uso in sala operatoria dalla Food and Drugs Administration. Questo sistema e’ dotato di diversi bracci elettromeccanici che consentono una liberta’ di movimento molto maggiore, e assai piu’ precisa, di quella di un polso umano. Il sistema e’ teleguidato da un medico lontano dalla sala operatoria al cui interno ci sono solo infermieri che di volta in volta posizionano lo strumento giusto nelle pinze del robot. Stando a quanto dichiarato, questo robot consente ovviamente di avere una affidabilita’ di ripetizione e precisione molto maggiore di quelle di un normale medico riuscendo ad operare limitando fino ad 1/3 il normale sangiunamento degli interventi piu’ complicati.

Dal sito della Intuitive Surgical si legge che ad oggi sono stati venduti piu’ di 700 di questi robot e pensate che in Italia quasi 70 sale operatorie sono attrezzate con questo sistema. Il numero di operazioni effettuate con questo robot e’ dell’ordine delle decine di migliaia.

E’ tutto oro quello che luccica?

Per completezza, e come siamo abituati a procedere, vi mostro anche il rovescio della medaglia. Rimanendo nel caso Da Vinci, anche in Italia, si sono formati tra i medici due schieramenti: quelli favorevoli al suo uso e quelli fortemente contrari. Perche’ questo? Se parliamo dei vantaggi del sistema, sicuramente una mano robotica consente di effetturare operazioni di routine con una precisione assoluta, d’altro canto pero’, ci sono molti medici che mettono in discussione il rapporto investimento/beneficio di un sistema del genere. Come potete facilmente immaginare, l’investimento richiesto per l’acquisto del robot e’ molto elevato con grossi guadagni dell’azienda e, soprattutto, delle banche che offrono finanziamenti agli ospedali. Inizialmente, il Da Vinci e’ stato sviluppato per le operazioni piu’ complesse o in cui il medico non riuscirebbe a lavorare facilmente. Si tratta ovviamente di operazioni in laparoscopia che tradizionalmente potrebbero essere eseguite con un investimento molto inferiore. Inoltre, visto lo sforzo economico per l’acquisto, molti degli ospedali che dispongono del robot tendono ad utilizzarlo anche per gli interventi piu’ facili al fine di sfruttare a pieno l’investimento fatto. Altro aspetto non da poco, il Da Vinci e’, ovviamente, coperto da decine di brevetti che creano un monopolio per la ditta costruttrice. Questo non fa altro che bloccare eventuali piccole startup che potrebbero migliorare notevolmente un sistema che, come detto, risale al 2000. Come discusso all’inizio dell’articolo, anno per anno la tecnologia cresce notevolmente ed un apparato del genere, per quanto complesso, potrebbe sempre essere migliorato con l’aggiunta di nuovi sistemi. Come vedete, al solito, le discussioni sono piu’ di natura economica che di utilizzo. Nonostante questo, il Da Vinci e’ un ottimo esempio di chirurgia robotica gia’ disponibile alla societa’.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Che gran tremore!

19 Feb

Quando purtroppo la fantasia manca, si cerca in tutti i modi di arrampicarsi sugli specchi cercando di trovare un argomento che possa far tornare ai fasti del passato. Molte volte pero’, come avviene alla decadenza dei piu’ grandi imperi, si rischia di diventare grotteschi e melodrammatici ricadendo, lasciatemelo dire, nel ridicolo.

A cosa mi riferisco? Indovinate un po’?

Ovviamente ai nostri amici catastrofisti. Come sottolineato diverse volte, dopo il momento di gloria avuto tra Maya, asteroidi, Nibiru, ecc, negli ultimi tempi sono un po’ a corto di idee e tentano in tutti i modi di far passare notizie a loro dire sensazionali, ma che poi possono facilmente essere smentite, lasciando un ghigno amaro sul viso.

Questa volta, e’ di nuovo il turno del Vesuvio.

Noi in prima persona, abbiamo diverse volte parlato di questo gigante in quiescenza senza mai nascondere la verita’. Il Vesuvio e’ un vulcano estremamente pericoloso per la dinamica che una futura esplosione potrebbe avere. A tutto questo poi, non possiamo certo non aggiungere, permettemi anche in questo caso di dire come la penso, la “scelleratezza” di chi ha permesso la costruzione di abitazioni su tutti i versanti del vulcano. Il Vesuvio eruttera’? Certamente., ma nessuno sa quando! Allo stato attuale non possiamo far altro che studiare la zona raccogliendo dati e cercando in tutti i modi di prevedere le mosse del gigante.

Di questi argomenti, abbiamo parlato in due post:

Cosa succede in Campania?

Vesuvio pronto ad esplodere

In particolare, vi consiglio di leggere i vari commenti all’ultimo articolo dove si e’ accesa una discussione molto interessante sui possibili metodi per prevenire l’esplosione innescando una eruzione controllata. Si tratta di idee, giuste, sbagliate, pericolose, non lo sappiamo. Tenete pero’ a mente che si tratta di proposte che vengono fatte e che, giustamente, devono essere discusse. Come potrete leggere, vari commenti sono stati fatti cercando di mostrare alcuni punti deboli delle proposte. Questo e’ perfettamente lecito e deve esserci una discussione scientifica.

Detto in altri termini, mentre noi discutiamo seguendo la scienza, i catastrofisti non fanno altro che cercare di creare allarme e confusione con le loro solite notizie inutili.

Perche’?

In questi ultimi giorni, molti siti sono tornati nuovamente alla carica mostrando la pericolosa ripresa dell’attivita’ sismica sul Vesuvio. Tutte queste innumerevoli “Scosse” non possono significare altro che il Vulcano si sta risvegliando e che in tempi brevi potrebbe esplodere.

Per noi che siamo sempre scettici, questa volta ci sono anche le prove, ve le mostro:

Tracciato del sismografo della stazione BKE in zona vesuviana

Tracciato del sismografo della stazione BKE in zona vesuviana

Questa e’ solo una, la maggiore, delle scosse che sono avvenute nelle ultime ore e registrata dalla stazione BKE. Vi rendete conto?

Aspettate un attimo, quel piccolo sobbalzo sul tracciato del sismografo sarebbe una pericolosa e intensa scossa che segnerebbe l’inizio dell’attivita’ del vulcano?

Ma vi rendete conto?

Queste piccole scosse fanno parte della normale attivita’ del Vesuvio e si sono registrate da quando sono stati intallati i primi sismografi sulle pendici del vulcano. Normalmente, si registrano un centinaio di scosse all’anno che, nei periodi piu’ intensi, possono arrivare anche ad un migliaio. Generalmente si tratta di scosse di leggerissima intensita’ che non vengono neanche avvertite dalla popolazione se non dalle persone piu’ sensibili o che abitano ai piani piu’ alti di edifici nei pressi dell’epicentro.

Questa volta la notizia e’ proprio inventata di sana pianta. Sono talmente tanto a corto di idee che passano le giornate guardando i tracciati dei sismografi per scrivere stupidaggini al primo sobbalzo!

Se avete dubbi o volete essere informati sul monitoraggio e sull’attivita’ del Vesuvio, potete sempre leggere le pagine dell’Osservatorio Vesuviano che, settimanalmente, rilascia bollettini pubblici.

Ecco cosa risponde il direttore Giuseppe de Natale qualche giorno fa ai continui allarmi falsi lanciati sulla rete:

Tra ieri ed oggi sono arrivate molte segnalazioni di persone allarmate dai tre piccoli terremoti avvenuti recentemente al Vesuvio. In particolare, su alcuni siti web sono apparse discussioni sul perché sia ancora apposta a fianco di tali eventi la scritta ‘preliminare’ anziché ‘supervisionato’. Innanzitutto, voglio ricordare che il Vesuvio ha normalmente una notevole sismicità di fondo, che non desta alcuna preoccupazione in quanto è stata sempre osservata, da quando esistono i sismografi. Il numero medio di piccoli terremoti al Vesuvio, negli ultimi decenni, è di qualche centinaio all’anno, ma in alcuni periodi (es: 1999-2000) il tasso di sismicità è stato molto più alto: alcune migliaia all’anno. Le magnitudo sono comunque molto basse: la più alta si registrò nel 1999 (M=3.7). I piccoli terremoti registrati negli ultimi giorni sono di magnitudo molto bassa, cosiddetti ‘strumentali’ perché in generale non avvertibili dalla popolazione (tranne magari persone particolarmente sensibili molto vicine all’epicentro, a piani molto alti) e registrabili soltanto dai sismografi. Inoltre, faccio presente che la scritta ‘preliminare’ si riferisce esclusivamente al fatto che l’evento non è ancora stato inserito in un determinato data-base interno, ma non ha affatto un significato tipo ‘incompleto’, ‘non analizzato’ o cose del genere. Infatti, i terremoti in questione sono stati regolarmente analizzati e localizzati dagli operatori dell’Osservatorio Vesuviano; non sono presenti nel catalogo degli ultimi terremoti sul sito http://www.ingv.it in quanto hanno magnitudo inferiore a quella minima riportata (magnitudo di soglia 2.0). Infine, voglio sottolineare che l’Osservatorio Vesuviano – INGV riporta sul suo sito i segnali in tempo reale delle reti sismiche vulcaniche ed appenniniche come servizio alla popolazione, per la massima trasparenza e condivisione. Tale scelta, volontaria, dimostra che non c’è alcuna intenzione di nascondere tali fenomeni naturali alla popolazione, anzi essi vengono condivisi fin dal primo momento. Pertanto, essa deve essere percepita in termini di grande sicurezza e fiducia, e non può e non deve divenire fonte di ansie.

Come vedete, non c’e’ assolutamente niente di cui preoccuparsi.

Trovate tutte le informazioni dell’Osservatorio Vesuviano a questa pagina:

OV page

Solo per concludere, ripeto ancora una volta che non c’e’ nulla da temere nell’immediato. Il Vesuvio resta pero’ un pericoloso vulcano che prima o poi riprendera’ la sua attivita’. Questo non dobbiamo mai dimenticarlo, continuando ad aggiornare i piani di emergenza e predisponendo il possibile per evitare, quando sara’, che la cosa crei piu’ danni di quanto la natura possa fare.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fascio di anti-idrogeno? FATTO!

22 Gen

Uno degli aspetti della fisica che suscita maggior interesse nei non addetti ai lavori e’ senza dubbio il concetto di antimateria. Molto probabilmente, il motivo di questo interesse e’ da ricercarsi nelle tante storie fantascientifiche che sono state ispirate dall’esistenza di un qualcosa molto simile alla materia, se non fosse per la carica delle particelle che la compongono, che era presente prima del Big Bang ma che ora sembra totalmente scomparsa. Inoltre, come tutti sanno, se materia e antimateria vengono messe vicine tra loro si ha il fenomeno dell’annichilazione, qualcosa di assolutamente esotico nella mente dei non addetti ai lavori e che ha offerto trame sensazionali per tanti film e serie TV.

Come detto tante volte, dobbiamo fare una distinzione precisa tra quelle che chiamiamo antiparticelle e quella che invece viene intesa come antimateria. Cosi’ come avviene per la materia ordinaria, composta di particelle che, in questo schema, possiamo pensare come elettroni, protoni e neutroni, l’antimateria e’ a sua volta composta da anti-particelle. Spesso si tende a confondere questi due concetti, facendo, come si suole dire, di tutta l’erba un fascio.

Produrre anti-particelle e’ semplice e siamo in grado di farlo gia’ da diversi anni. Per darvi un esempio, molti collisori utilizzati per la ricerca nella fisica delle alte energie fanno scontrare fasci di particelle con antiparticelle. In questo contesto, molto usati sono i positroni, cioe’ gli anti-elettroni, e gli anti-protoni.

Completamente diverso e’ invece il caso dell’antimateria.

Per formare anti-atomi e’ necessario assemblare insieme le anti-particelle per comporre qualcosa simile nella struttura alla materia, ma composto a partire da mattoncini di anti-particelle.

Di questi concetti abbiamo gia’ parlato in articoli precedenti che trovate a questi link:

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

Come anticipato, prima del Big Bang, erano presenti in eguale quantita’ materia e anti-materia. Ad un certo punto pero’, l’anti-materia e’ scomparsa lasciando il posto solo alla materia che ha poi formato l’universo che vediamo oggi. Anche se questo meccanismo e’ in linea di principio ipotizzato dalla fisica, ci sono ancora punti da chiarire in quella che viene chiamata “asimmetria materia-antimateria”. Anche di questo abbiamo gia’ parlato in questi articoli:

E parliamo di questo Big Bang

Ancora sullo squilibrio tra materia e antimateria

Se, da un lato, produrre antiparticelle e’ semplice, metterle insieme per formare antiatomi non e’ assolutamente banale.

Nel 2011 al CERN di Ginevra era stato annunciato per la prima volta un risultato molto importante: atomi di anti-idrogeno erano stati formati e osservati per un tempo di circa 1000 secondi prima si scomparire. Questa osservazione aveva permesso di osservare alcune importanti proprieta’. Nel 2012, sempre al CERN, un altro esperimento era riuscito a misurare altre importanti proprieta’ di questi anti-atomi, facendo ben sperare per il futuro.

Ora, invece, sempre il CERN ha annunciato di essere riuscito per la prima volta a produrre addirittura un fascio di anti-idrogeni. L’annuncio ‘e stato dato sul sito del laboratorio svizzero:

CERN, ASACUSA NEWS

e pubblicato sull’autorevole rivista Nature.

La scoperta e’ stata realizzata dalla collaborazione internazionale ASACUSA, di cui fanno parte anche alcuni ricercatori del nostro Istituto Nazionale di Fiscia Nucleare.

Cosa sarebbero questi anti-idrogeni?

Seguendo il ragionamento fatto, questi speciali atomi sono composti dagli analoghi di antimateria di protone e elettrone. Se l’idrogeno ha un nucleo composto da un protone con un elettrone che gira intorno, un anti-idrogeno e’ composto da un anti-protone, carico negativamente, e un positrone che gira intorno, carico positivamente. Come potete facilmente capire, in questo gioco di costruzione di atomi, siamo alla struttura piu’ semplice conosciuta ma, come vedremo tra poco, fondamentale per la comprensione dell’universo.

Come e’ stato fatto questo esperimento?

L'esperimento ASACUSA del CERN

L’esperimento ASACUSA del CERN

Senza annoiarvi con tecnicismi, gli anti-idrogeni sono prodotti da un deceleratore di antiprotoni e poi allontanati dal punto di produzione ad una distanza sufficiente a non risentire dei campi magnetici. Questo accorgimento e’ fondamentale per stabilizzare gli anti-atomi che altrimenti si scomporrebbero scomparendo. Come vedete nella foto riportata, la camera da vuoto utilizzata e’ infatti un lungo tubo e gli anti-idrogeni sono stati osservati e immobilizzati ad una distanza di quasi 3 metri dal punto di produzione.

Perche’ e’ cosi’ importante l’anti-idrogeno?

La sua semplicita’ rispetto agli atomi piu’ pesanti, sia per materia che per anti-materia, ha fatto si che questi siano stati i primi atomi stabili creati nell’universo in espansione. Secondo la teoria, idrogeno e anti-idrogeno dovrebbero avere esattamente lo stesso spettro di emissione. Poter disporre in laboratorio di un fascio stabile di anti-atomi consentira’ di studiare a fondo le caratteristiche di questa struttura analizzando nei minimi dettagli ogni minima possibile discrepanza con l’idrogeno. Queste caratteristiche aiuterebbero notevolmente nella comprensione dell’asimmetria tra materia e anti-materia dando una notevola spinta in avanti nella comprensione della nascita del nostro universo e nella ricerca di ogni possibile accumulo di anti-materia.

Concludendo, questa importante notizia apre nuovi scenari nello studio della fisica di base, offrendo un’occasione fondamentale per comprende il nostro universo. Come spesso avviene, molti siti e giornali si sono lanciati in speculazioni parlando di pericoli o applicazioni fantascientifiche che lasciano un po’ il tempo che trovano. Sicuramente, il futuro in questa branca della ricerca ha ancora molto da offrire e non possiamo che essere entusiasti delle novita’ che ancora ci attendono.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.