Tag Archives: energie

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Hawking e la fine del mondo

11 Set

Visto che me lo state chiedendo in tantissimi, vorrei aprire una parentesi sulle affermazioni fatte dal celebre astrofisico Stephen Hawking riguardanti il bosone di Higgs. Per chi non lo avesse seguito, abbiamo già discusso di questo tema nella apposita sezione:

Hai domande o dubbi?

Dove un nostro caro lettore, già qualche giorno fa, ci aveva chiesto lumi a riguardo.

Di cosa stiamo parlando?

Come tutti avrete letto, nell’introduzione del suo ultimo libro “Starmus, 50 years of man in space” il celebre astrofisico avrebbe scritto che il bosone di Higgs avrebbe le potenzialità per poter distruggere l’intero universo. In pratica, ad energie elevate, così si legge, la particella potrebbe divenire improvvisamente instabile e provocare il collasso dello stato di vuoto, con conseguente distruzione dell’universo.

Cosa? Collaso del vuoto? Distruzione dell’universo?

Ci risiamo, qualcuno ha ripreso qualche spezzone in giro per la rete e ne ha fatto un caso mondiale semplicemente mescolando le carte in tavola. In realtà, a differenza anche di quanto io stesso ho affermato nella discussione linkata, la cosa è leggermente più sottile.

E’ possibile che il bosone di Higgs diventi instabile e bla bla bla?

No! Il bosone di Higgs non diviene instabile ad alte energie o perchè ne ha voglia. Stiamo entrando in un settore della fisica molto particolare e su cui la ricerca è ancora in corso.

Facciamo un piccolo excursus. Del bosone di Higgs ne abbiamo parlato in questo articolo:

Bosone di Higgs … ma che sarebbe?

dove abbiamo cercato di spiegare il ruolo chiave di questa particelle nella fisica e, soprattutto, la sua scoperta.

Inoltre, in questo articolo:

L’universo è stabile, instabile o metastabile?

Abbiamo visto come la misura della massa di questa particella abbia implicazioni profonde che esulano dalla mera fisica delle particelle. In particolare, la massa di questa particella, combinata con quella del quark top, determinerebbe la condizione di stabilità del nostro universo.

Bene, come visto nell’ultimo articolo citato, i valori attuali dei parametri che conosciamo, ci pongono nella strettissima zona di metastabilità del nostro universo. Detto in parole semplici, non siamo completamente stabili e, ad un certo punto, il sistema potrebbe collassare in un valore stabile modificando le proprietà del vuoto quantomeccanico.

Riprendiamo il ragionamento fatto nell’articolo. Siamo in pericolo? Assolutamente no. Se anche fossimo in una condizione di metastabilità, il sistema non collasserebbe da un momento all’altro e, per dirla tutta, capire cosa significhi in realtà metastabilità del vuoto quantomeccanico non è assolutamente certo. Premesso questo, come già discusso, i valori delle masse delle due particelle in questione, vista la ristretta zona in esame, non sono sufficienti a determinare la reale zona in cui siamo. Cosa significa? Come detto, ogni misura in fisica viene sempre accompagnata da incertezze, cioè un valore non è univoco ma è contenuto in un intervallo. Più è stretto questo intervallo, minore è l’incertezza, meglio conosciamo il valore in esame. Ad oggi, ripeto, vista la stretta banda mostrata nel grafico, le nostre incertezze sono compatibili sia con la metastabilità che con l’instabilità.

Dunque, pericolo scampato. Resta però da capire il perchè delle affermazioni di Hawking.

Su questo, vi dirò la mia senza fronzoli. Hawking conosce benissimo l’attuale livello di cui abbiamo discusso. Molto probabilmente, non avendolo letto non ne posso essere sicuro, nel libro ne parla in modo dettagliato spiegando tutto per filo e per segno. Nell’introduzione invece, appunto in quanto tale, si lascia andare ad affermazioni quantomeno naive.

Perchè fa questo? Le ipotesi sono due e sono molto semplici. La prima è che è in buona fede e la colpa è solo dei giornali che hanno ripreso questa “introduzione al discorso” proprio per creare il caso mediatico sfruttando il nome dell’astrofisico. La seconda, più cattiva, è che d’accordo con l’editore, si sia deciso di creare questo caso appunto per dare una spinta notevole alle vendite del libro.

Personalmente, una o l’altra non conta, l’importante è capire che non c’è nessun collasso dell’universo alle porte.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Una batteria … vivente

19 Set

Come sapete bene, diverse volte ci siamo soffermati a riflettere sulle cosiddette energie alternative. Il punto attualmente raggiunto non puo’ certo essere considerato l’arrivo per il nostro futuro energetico. I sistemi alternativi utilizzati su larga scala, principalmente solare e eolico, sono, allo stato attuale, sistemi a bassa efficienza. Fate attenzione, non voglio certo dire che lo sfruttamento di queste risorse sia inutile, tutt’altro. Quello che sto cercando di dire e’ che queste fonti non sono sfruttate al massimo e, vista la crescita esponenziale della richiesta di energia nel mondo, non potranno certo essere considerate, allo stato attuale, alternative al petrolio o ad altre fonti.

In questa ottica, di tanto in tanto, gettiamo uno sguardo alle ricerche in corso, per mostrare lo stato dell’arte ma soprattutto per vedere possibili fonti alternative in corso di studio.

Proprio in virtu’ di questo, vorrei parlarvi di un’invenzione pubblicata solo pochi giorni fa da un gruppo di ingegneri dell’Universita’ di Stanford. Come forse avrete letto sui giornali, e’ stata prodotta la prima pila a microbi.

Di cosa si tratta?

I microbi in questione appartengono alla famiglia degli elettrogenici, cioe’ microorganismi in grado di produrre elettroni durante la digestione. Detto in altri termini, durante il processo digestivo, questi microbi strappano un elettrone che rimane libero. Questa tipologia di batteri e’ conosciuta gia’ da diverso tempo, quello che pero’ sono riusciti a fare gli autori di questa ricerca e’ trovare il modo efficace di produrre energia da questo processo.

Prima di parlarvi dell’applicazione, vi mostro una foto del dispositivo in questione:

Batteria a microbi

Batteria a microbi

Guardando la foto, vi rendete subito conto che si tratta ancora di un prototipo non industrializzato. Per darvi un’idea, le dimensioni della provetta a cui sono attaccati i fili e’ paragonabile a quella di una batteria per cellulare.

Come funziona la pila?

Come detto, questi batteri producono elettroni liberi durante la digestione. La provetta che vedete contiene due elettrodi. Il primo e’ in carbonio e proprio su questo sono presenti i nostri microbi. Come vedete anche dalla foto, il liquido all’interno della provetta appare molto torbido. Non si tratta assolutamente di un effetto ottico, sono dei liquami veri e propri che offrono il nutrimento per la colonia di microbi presenti all’interno.

Uno dei microbi osservato al microscopio

Uno dei microbi osservato al microscopio

A questo punto, il discorso comincia ad essere piu;’ chiaro. Vengono messi i microbi su un elettrodo in carbonio. Il liquido offre il nutrimento per gli organismi che dunque mangiano felici e per digerire, invece dell’infantile ruttino, producono elettroni.

Sempre all’interno e’ presente un secondo elettrodo, questa volta in ossido di argento. Questo funge da collettore per la raccolta degli elettroni. Ora, per definizione, se avete un moto ordinato di cariche elettriche da un elettrodo all’altro, avete una normalissima corrente elettrica. Dunque, avete la vostra pila.

Come potete immaginare, per sua stessa definizione, questo genere di pile si “scarica” quando la concentrazione batterica e’ cresciuta troppo, scarseggia il nutrimento o quando l’elettrodo in lega di argento e’ saturo di elettroni sulla superficie. In questo ultimo caso, che poi rappresenta il collo di bottiglia della produzione di energia elettrica, basta sostituire l’elettrodo esausto con uno nuovo affinche’ il processo riparta.

Quali sono i vantaggi di questa pila?

Anche se il funzionamento puo’ sembrare molto semplice, questa invenzione apre scenari molto importanti non solo in campo energetico, ma anche ambientale. Come potete facilmente immaginare, questo processo potrebbe essere utilizzato per produrre energia dai liquami, utilizzando questi prodotti di scarto fortemente inquinanti in modo molto intelligente.

Dal punto di vista energetico, si pensa che il sistema possa essere in grado di estrarre circa il 30% del potenziale contenuto nei liquami. Detto in altri termini, la bateria avrebbe un rendimento intorno a questo valore. Pensate sia poco? Assolutamente no. Le normali celle solari attualmente utilizzate hanno efficienze medie intorno al 25%. Solo con celle di ultima generazione si riesce a superare di poco il 30%. Questo significa che il processo microbico ha un rendimento del tutto paragonabile a quello delle celle utilizzate nei pannelli solari.

Come anticipato, e come evidente, lo studio e’ ancora in fase prototipale. In particolare, il problema attuale e’ nel costo dell’elettrodo in ossido di argento che serve da collettore per gli elettroni. Il prezzo troppo alto, rende questo sistema ancora anti-economico e non adatto all’utilizzo su larga scala.

Detto questo, capite bene come questa ricerca sia tutt’altro che terminata. Gli sviluppi futuri sono proprio volti a trovare materiali economici adatti a chiudere il circuito. Il fatto di aver usato all’inizio un materiale piu’ costoso e’ del tutto normale se consideriamo che per prima cosa si doveva dimostrare la correttezza dell’intuizione.

Concludendo, proprio in questi giorni e’ stata pubblicata la ricerca che racconta la costruzione della prima pila a batteri. Questo sistema sfrutta i processi digestivi di alcune tipologie di microbi in grado di liberare elettroni. La batteria realizzata ha un’efficienza paragonabile a quella delle celle solari e la ricerca e’ attualmente impegnata per trovare materiali economici da utilizzare per la raccolta degli elettroni al posto del costoso ossido di argento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Dafne e KLOE: alte energie in Italia

31 Ago

In questi mesi, diversi lettori mi hanno chiesto di cosa mi occupassi precisamente. Come abbiamo imparato a conoscere attraverso alcuni articoli specifici, la fisica delle alte energie e’ molto vasta, con diversi esperimenti sparsi per il mondo. Nel mio caso specifico, ho partecipato e partecipo tutt’ora a diversi progetti in Italia, in Svizzera e negli Stati Uniti. Per darvi un’idea piu’ precisa, vorrei in questo articolo parlarvi di uno di questi progetti, KLOE, al quale sono per motivi affettivi piu’ legato, e che si trova ai Laboratori Nazionali di Frascati dell’Istituto Nazionale di Fisica Nucleare. Perche’ sono affezionato a questo esperimento? Semplice, oltre a trovarsi nel paese in cui sono nato, cresciuto ed in cui tutt’ora vivo, proprio su questo esperimento ho iniziato la mia carriera di fisico nel 2003, prima con la tesi di laurea, poi con il dottorato di ricerca e su cui, ancora oggi, lavoro.

Prima di tutto, e’ necessario che vi dia qualche informazione aggiuntiva. Purtroppo, mentre tutti hanno sentito parlare di CERN e LHC, pochi sanno che anche in Italia si fanno studi importanti e molto sofisticati di fisica delle alte energie. I laboratori Nazionali di Frascati sono il piu’ grande laboratorio di Fisica delle alte energie dell’INFN. Sono stati fondati nel 1955 e proprio qui e’ nata la fisica degli acceleratori. Da un’intuizione di Bruno Touschek proprio a Frascati e’ stata realizzata AdA nel 1960. Cosa sarebbe Ada? Come sapete, nei moderni acceleratori quello che si fa e’ far girare fasci di particelle ad altissima energia per farli poi scontrare in un punto preciso. Da questo scontro, grazie alla relazione di Einstein E=mc^2, possiamo creare particelle diverse da studiare per comprendere importanti meccanismi della natura. Facendo aumentare l’energia, possiamo di volta in volta scoprire particelle nuove. Fino al 1960, quest’idea nemmeno esisteva. Grazie all’esperimento AdA, che sta per Anello di Accumulazione, venne dimostrato come fosse possibile impacchettare fasci di particelle, farle muovere su orbite circolari e poi farle scontrare in un punto deciso a priori. Grazie proprio ad AdA vennero compresi importanti effetti di fisica dei fasci, importanti ancora oggi, tra questi, ad esempio, il cosiddetto Effetto Touchek dovuto all’interazione delle particelle nello stesso pacchetto.

Dal punto di vista delle particelle, AdA non scopri’ nessuna particella nuova. Questo e’ naturale se vedete la foto:

AdA: anello di accumulazione

AdA: anello di accumulazione

L’esperimento aveva un diametro di poco superiore al metro ed un’energia bassissima. Nonostante questo, AdA apri’ la strada ai futuri acceleratori. Subito dopo AdA, sempre a Frascati, si inizio’ a studiare qualcosa di piu’ grande, un vero e proprio collissore si particelle che oltre a far circolare i fasci, potesse accelerarli e curvarli. Nel 1967 venne dunque innaugurato Adone, che sta appunto per Big-AdA. Eccovi una foto di Adone:

Adone ai Laboratori Nazionali di Frascati

Adone ai Laboratori Nazionali di Frascati

Si tratta di un anello vero e proprio, molto piu’ simile a quelli attuali, con un diametro inferiore ai 100 metri e che poteva raggiungere la folle energia per l’epoca di 3GeV, ottenuta facendo scontrare fasci di elettroni e positroni. Per fare un confronto, oggi LHC e’ stato progettato per avere un’energia di 14TeV, cioe’ 14000GeV. Adone e’ stato il primo acceleratore moderno della storia. Capite dunque che la fisica dei collissori e’ nata a Frascati, laboratorio con una grandissima tradizione in questo settore e che, ancora oggi, ricopre un ruolo importante nei laboratori di tutto il mondo.

Ora cosa si studia a Frascati? Oggi in questi laboratori ci sono tantissimi gruppi che si occupano di fisica nucleare, fisica delle alte energie, astrofisica, astroparticelle, fisica della materia, fisica medica. Tra questi settori, un ruolo fondamentale e’ ricorperto ancora oggi dala fisica degli acceleratori e dal progetto KLOE a Dafne.

Dafne, il collisore attualmente in funzione ai Laboratori di Frascati

Dafne, il collisore attualmente in funzione ai Laboratori di Frascati

Dafne e’ l’attuale collissore dei laboratori che ha preso i primi dati utili nel 2000. Si tratta di sistema costituito da due anelli, uno per elettroni ed uno per positroni, che vengono fatti scontrare ad un’energia di poco superiore ad 1GeV. Perche’ un’energia cosi’ bassa? Al contrario di LHC, che e’ un esperimento di scoperta, in cui dunque si deve raggiungere la massima energia possibile per creare nuove particelle, Dafne e’ una macchina di precisione. Questa categoria di anelli, lavorano ad un’energia ben precisa, calibrata per massimizzare la produzione di determinate particelle. Nel caso di Dafne, la macchina e’ una fabbrica di mesoni Phi, Phi-factory.

Di modello standard, materia strana, antimateria, ecc, abbiamo parlato in questi post:

Piccolo approfondimento sulla materia strana

Due parole sull’antimateria

Antimateria sulla notra testa!

Bosone di Higgs … ma che sarebbe?

La materia oscura

Cosa sarebbe invece la Phi? Detto molto semplicemente, si tratta di una risonanza, cioe’ uno stato legato tra due quark (uno strange ed un anti-strange), che vive un tempo brevissimo dopo di che decade in qualche altra cosa. Tra i possibili canali di decadimento, tra i piu’ probabili ci sono quelli in coppie di Kaoni. Attenzione, il discorso sembra complicato, ma non lo e’. In fisica, ogni particella ha il suo nome. I kaoni sono soltanto una famiglia di particelle in cui rientrano diversi elementi: K carichi, K neutri, K lunghi, K corti, ecc.

Bene, a Dafne si vogliono studiare questi Kaoni e per produrli e’ necessario avere una macchina in grado di creare tantissime Phi. Perche’?

In questo articolo:

E parliamo di questo Big Bang

abbiamo parlato del meccanismo del Big Bang, vedendo come in seguito a questa esplosione, si e’ verificato uno sbilancio tra materia ed antimateria, che ha portato alla scomparsa della seconda e alla formazione di un universo di materia. Se ben ricordate, abbiamo anche detto come, dal punto di vista teorico, questo meccanismo e’ teoricamente possibile supponendo che siano avvenute determinate condizioni, dette di Sacharov. Tra queste, vi e’ una violazione di CP, cioe’ proprio uno squilibrio tra materia ed antimateria che porta nei decadimenti a preferire stati finali piu’ ricchi di materia.

Cosa c’entrano i kaoni con la violazione di CP?

Nel 1974, decadimenti con violazione di CP venero osservati per la prima volta per un membro della famiglia dei Kaoni, il K long. Ad oggi, oltre che nei Kaoni, la violazione di CP e’ stata osservata anche nei mesoni B. Detto questo, capite bene l’importanza di questi studi. Comprendere a fondo la violazione di CP e le sue conseguenze, ci permette di capire meglio l’origine stessa dell’universo.

L’esperimento operante a Dafne e che studia proprio i decadimenti delle particelle e’ KLOE, un complesso sistema di rivelatori pensato per registrare ed osservare tutte le particelle che entrano nei vari decadimenti.

L'esperimento KLOE installato all'interno di Dafne

L’esperimento KLOE installato all’interno di Dafne

Attraverso i dati raccolti e’ possibile ricostruire l’intero evento e capire che tipologia di decadimento e’ avvenuto. Per fare questo sono necessari diversi rivelatori, ognuno specializzato per determinate particelle, pensati e realizzati in modo del tutto unico direttamente ai laboratori di Frascati.

Perche’ ancora oggi a distanza di anni KLOE e Dafne sono in funzione?

Vista la rarita’ dei decadimenti che si vogliono studiare, e’ necessario raccogliere un campione molto vasto di dati. Detto in altri termini, poiche’ la probabilita’ di avere il decadimento che cercate e’ molto bassa, dovete raccogliere un campione molto grande di Phi per poter avere la statistica necessaria a fare questi studi.

KLOE ha preso dati fino al 2006 raccogliendo un campione cospicuo di Phi. Oltre alla violazione di CP,  KLOE ha posto importanti limiti in tantissimi decadimenti, studiato la gravita’ quantistica, osservato per la prima volta decadimenti mai visti prima, ecc. Tutti risultati di prim’ordine che hanno dato lustro alla fisica delle alte energie in Italia.

Nel 2008 e’ stato poi pensato, sempre a Frascati, un nuovo meccanismo di collissione dei fasci che permetterebbe a KLOE di raggiungere “luminosita’” piu’ elevate, cioe’, modificando solo la zona di interazione dei fasci, si potrebbero accumulare molti piu’ dati a partita’ di tempo. Questa modifica e’ importantissima per un esperimento di precisione come KLOE che dunque potrebbe andare a studiare nuovi settori e migliorare notevolmente i canali gia’ studiati. Proprio per questo motivo, si e’ deciso di iniziare un nuovo periodo di presa dati per KLOE.

Cosa e’ successo tra il 2009 e il 2013?

In questo periodo di tempo, KLOE, costruito come detto un decennio prima, ha pensato di realizzare nuovi rivelatori da installare vicino alla zona di interazione, proprio per migliorare la sua sensibilita’ sfruttando idee nuove e le ultime migliorie pensate in questi anni. Questi nuovi dispositivi sono rivelatori molto complessi e compatti che hanno richiesto diversi anni prima di essere ottimizzati e realizzati. Prima di questa estate, i nuovi rivelatori sono stati installati con successo ed in questi giorni si sta lavorando per ottimizzare il tutto e prepararci alla nuova presa dati dell’esperimento KLOE, ora chiamato KLOE-2. L’accensione di tutto il sistema e’ prevista per il 9 settembre, giorno di inizio di una lunga presa dati che portera’ sicuramente a nuovi ed importanti studi.

Come potete capire, la fisica delle alte energie non e’ riservata al CERN. I fisici italiani, oltre ad avere ruoli importanti nei grandi laboratori del mondo, sono anche attivi nel nostro paese con esperimenti di precisione, importantissimi per capire come funziona il nostro universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il futuro dell’eolico?

22 Apr

In questo articolo, vorrei tornare nuovamente a parlare di energie rinnovabili. Come sappiamo bene, il continuo aumento della richiesta di energia unita ovviamente al mantenimento e alla conservazione del nostro pianeta, impongono l’utilizzo anche di sorgenti rinnovabili. Quello che pero’ non dobbiamo mai dimenticare e’ che il nostro attuale stato dell’arte non rappresenta assolutamente un punto di arrivo. Le soluzioni disponibili oggi per lo sfruttamento delle sorgenti verdi, non sono ancora sufficienti e non consentono l’autosostentamento che sarebbe richiesto.

Di energie rinnovabili abbiamo parlato, ad esempio, in questi post:

Elezioni, promesse verdi e protocollo di Kyoto

Il futuro verde comincia da Masdar

Energia solare nel deserto

Pannelli, pannelli e pannelli

Mentre negli articoli precedenti ci siamo occupati principalmente di energia solare, in questo post vorrei parlare della seconda fonte per disponibilita’ che siamo in grado di sfruttare, l’energia eolica.

Come tutti sanno, lo sfruttamento dell’energia eolica avviene mediante delle enormi pale che vengono messe in moto dal vento e questa energia meccanica viene poi convertita in energia elettrica. Anche in Italia, abbiamo diverse installazioni di pale eoliche, soprattutto in quelle regioni dove la forza del vento e’ maggiore.

Quali sono i problemi principali delle pale eoliche?

Prima di tutto, come detto, si tratta di turbine molto grandi e che vengono installate su piloni molto alti. Come sostenuto anche da molti esperti, l’impatto ambientale di queste soluzioni e’ molto elevato. Detto in altri termini, le pale eoliche, secondo molti, “sono brutte”. Se ci pensate bene, molto spesso, infatti, queste pale rovinano il paesaggio, soprattutto perche’ vengono installate in vallate o comunque in zone isolate dove la natura e’ ancora dominante. Sapete perche’ vengono installate in questi punti e non all’interno dei centri abitati? Perche’ le pale, durante il normale funzionamento, hanno dei livelli di rumorosita’ molto elevati. Qualsiasi mezzo meccanico messo in movimento, produce necessariamente un rumore di fondo che, nel caso delle pale, e’ anche molto elevato. Proprio questo problema, rende inutilizzabili le pale all’interno dei centri abitati.

Dunque? Esiste una soluzione alternativa?

In questi ultimi tempi, e’ in fase di studio una soluzione alternativa che prevede lo sfruttamento dell’energia eolica senza apparentemente nessuna parte meccanica in movimento. Questa soluzione, chiamata Ewicon, sfrutta infatti una variazione del campo elettrico indotto dal vento per creare energia elettrica. Se volete, invece di convertire energia meccanica in elettrica, il nuovo sistema e’ direttamente basato su una vairazione di energia in forma elettrica per produrre corrente.

Come funziona Ewicon?

Anche se il discorso non e’ semplicissimo, cerchero’ di essere divulgativo mostrando il concetto di base sfruttato in questa soluzione.

Immaginate di avere due conduttori elettrici posti ad una certa distanza e caricati con segno opposto. In altre parole, potete vedere il sistema come le armature di un condensatore. Ora, nella regione di spazio tra i due conduttori si crea un campo elettrico. Se adesso mettete una carica singola all’interno del volume, dove si spostera’ questa? Se la carica e’ positiva, questa ovviamente si muovera’ verso l’elettrodo negativo, spinta dal campo elettrico. Bene, fin qui tutto normale. Se adesso pero’, la forza del vento spinge la carica in verso opposto, cioe’ porta la carica verso l’elettrodo dello stesso segno. L’accumulo di cariche sull’elettrodo provochera’ dunque una variazione della tensione che puo’ essere convertita in energia elettrica.

Questo e’ proprio il principio sfruttato da Ewicon.

Il sistema eolico, prevede due file di elettrodi di segno opposto distanti circa 40 cm tra loro. Nel sistema sono presenti una serie di ugelli che vaporizzano goccioline d’acqua caricate positivamente. Il vento spinge le goccioline di carica positiva verso l’elettrodo dello stesso segno, creando la variazione di campo elettrico. Questa tecnica e’ anche nota come Electrospraying ed in realta’ e’ stata proposta gia’ nel 1975. Ewicon, che sta per Electrostatic Wind Energy Converter, sfrutta proprio questo principio fisico per creare energia dal vento, ma senza mezzi meccanici in movimento.

Per meglio comprendere il principio di base, vi riporto anche un video del sistema:

come vedete, il tutto si basa sulla forza del vento in grado di spingere le gocce d’acqua  in verso opposto a quello determinato dal campo elettrico degli elettrodi.

Il primo prototipo di Ewicon e’ stato realizzato e posto di fronte alla facolta di ingegneria della Delft University:

Prototipo del sistema eolico davanti alla Delft University of Technology

Prototipo del sistema eolico davanti alla Delft University of Technology

Quali sono i vantaggi di questa soluzione? Prima di tutto, come visto, eliminando le parti in movimento, il sistema non soffre piu’ della rumorosita’ delle pale eoliche. In questo modo, il sistema Ewicon puo’ anche essere installato, come nel caso del prototipo, all’interno dei centri abitati. Inoltre, le diverse forme realizzabili consentono di integrare il sistema anche nelle architetture dei piu’ moderni centri urbani. Ad oggi, gia’ diverse soluzioni di design sono state proposte e pensate per adattarsi a molte capitali europee.

Quali sono gli svantaggi? Come potete capire, si tratta ancora di un sistema in forma di prototipo. Prima di tutto, per elettrizzare le goccioline d’acqua e’ necessaria un’energia di partenza. Al momento, questo problema e’ risolto integrando delle batteria all’interno di Ewicon. Se pero’ vogliamo pensare questi sistemi utilizzabili anche “off shore”, cioe’ in mare aperto, e’ impensabile andare di volta in volta a cambiare le batterie dei generatori.

Inoltre, l’acqua necessaria per il funzionamento, viene prelevata dall’umidita’ dell’aria. Questo rende il sistema non utilizzabile in luoghi dove l’umidita’ e’ troppo bassa. Come visto in uno degli articoli precedentemente riportati, uno degli sviluppi futuri, non solo per il solare ma anche per l’eolico, e’ la costruzione di impianti di grandi dimensioni in zone desertiche. In questo caso, il sistema non sarebbe utilizzabile a meno di collegare Ewicon ad una fonte idrica, cosa ugualmente non realizzabile in zone desertiche.

Altro problema non da poco e’ la miscela utilizzata. Nel prototipo visto, non viene utilizzata soltanto acqua, ma una miscela al 70% di acqua demineralizzata e 30% di etanolo.

Ovviamente, si tratta di problemi normali in un sistema in fase di prototipo. Per poter risolvere questi punti, sara’ ovviamente necessario lavorare ancora molto sul progetto e altresi’ investire capitali in questo genere di studi. Come detto all’inizio, ad oggi gia’ disponiamo di metodi per lo sfruttamento delle sorgenti rinnovabili, e proprio per questo dobbiamo utilizzarli. Questo pero’ non preclude lo studio di soluzioni alternative, come Ewicon o come il solare termodinamico, che in un futuro non troppo lontano potranno migliorare notevolmente l’efficienza di produzione energetica e risolvere anche gli altri problemi che ancora affliggono le attuali soluzioni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Energia solare nel deserto

9 Mar

Parlando scientificamente di promesse politiche, in un post precedente avevamo discusso insieme alcuni dei futuri verdi utilizzati dai nostri politici in campagna elettorale:

Elezioni, promesse verdi e protocollo di Kyoto

Successivamente poi, sempre parlando di green economy, abbiamo analizzato invece il grande progetto Masdar che gli Emirati Arabi stanno portando avanti con decisione per creare la prima citta’ ad emissioni zero:

Il futuro verde comincia da Masdar

In questi giorni, un nostro lettore ha invece lasciato un interessante commento per chiedere quali potrebbero essere i risvolti futuri dell’utilizzazione delle rinnovabili, anche alla luce del progetto Masdar.

Prima di parlare di questo, vi ricordo che potete in ogni momento porre domande o chiedere delucidazioni su argomenti specifici, lasciando un commento in questa pagina:

Richiedi e suggerisci argomenti!

In questo post, vorrei continuare a concentrarmi sull’energia solare, dal momento che questa fonte rappresenta in larga parte quella piu’ utilizzata ma anche quella meglio conosciuta anche dai non addetti ai lavori.

In tal senso, ripartiamo sempre dai paesi arabi ed in particolare dall’Arabia Saudita. In questo paese infatti, e precisamente nella citta’ di Riyad, si sta costruendo il piu’ grande impianto solare termico del mondo.

La struttura occupera’ un’area di 36000 metri quadri, corrispondenti a circa 5 campi da calcio, e servira’ per dare energia alla Princess Nora Bint Abdul Rahman, la prima universita’ al mondo per sole donne e che vanta qualcosa come 40000 iscritte.

Per darvi un’idea dei numeri, l’investimento totale ammonta a circa 4,7 milioni di dollari.

Per un non esperto, sembrerebbe scontata l’idea di utilizzare l’energia solare direttamente nel deserto, dove l’intensita’ dei raggi e’ molto elevata. Questo in realta’ e’ completamente falso.

Al contrario di quanto si pensa, l’alta temperatura di queste zone, riduce notevolmente l’efficienza dei pannelli al silicio. Inoltre, le continue tempeste di sabbia, opacizzano la superficie dei vetri, diminuendo ancora la produzione di energia. Proprio per questo, parliamo invece di soluzioni che utilizzano sali fusi per alimentare turbine elettriche e produrre energia.

Come discusso nei post precedenti, anche se a prima vista puo’ sembrare strano, i paesi arabi, i piu’ ricchi di petrolio, gia’ da tempo stanno investendo notevoli risorse nelle energie rinnovabili. Il perche’ di questo e’ facilmente intuibile. In primis, questi paesi meglio di chiunque altro sanno che il petrolio e’ una risorsa non infinita e prima o poi la sua disponibilita’ comincera’ a venire meno. In questo scenario completamente diverso da quello a cui siamo abituati, le rinnovabili non saranno piu’ un’alternativa, ma una necessita’. Detto questo e’ ovvio che chi oggi investe in queste risorse, domani potrebbe avere un ruolo di controllo favorito rispetto agli altri. Altro punto importante e’ che i paesi arabi sanno molto bene che e’ molto piu’ conveniente vendere il petrolio piuttosto che utilizzarlo in casa. Nell’ottica di un prezzo sempre crescente, preferiscono utilizzare metodi alternativi in casa e destinare il petrolio alle esportazioni.

Piccola parentesi scientifica, dal momento che spesso sento una gran confusione sulle diverse soluzioni, nel prossimo post cercheremo di fare un po’ di chiarezza distinguendo tra fotovoltaico, solare termodinamico e a concentrazione. Tecniche che spesso vengono confuse, parlando semplicemente di pannelli solari. Nel prossimo post cercheremo dunque di fare un po’ di chiarezza, presentando le diverse soluzioni e confrontando pregi e difetti di ciascuna di queste.

Messo da parte l’impianto di Riyad, l’atro grosso progetto di cui vorrei parlare e’ invece DESERTEC.

Il progetto Desertec e’ un progetto globale basato su diverse energie rinnovabili sfruttate nelle zone in cui queste sono maggiormente disponibili per la produzione di energia elettrica per tutta l’Europa. La parte principale del progetto e’ ovviamente quella che viene dal solare e che verrebbe sfruttata direttamente nelle zone vicine al Sahara. La corrente elettrica verrebbe poi trasportata madiante cavidotti in Europa.

Questo e’ un schema del progetto, con le diverse fonti rinnovabili e le linee di trasmissione dell’energia dai luoghi di produzione all’Europa:

Schema di produzione e distribuzione dal Sahara in Europa

Schema di produzione e distribuzione dal Sahara in Europa

Il progetto e’ sponsorizzato da 21 societa’ e 36 partner in 15 paesi per un investimento totale di 400 miliardi di dollari. Il progetto e’ stato lanciato nel 2009 con lo scopo di incrementare anche l’economia di molti paesi emergenti soprattutto nel nord Africa.

L’ambizioso progetto prevede la fornitura di circa il 20% dell’energia necessaria all’Europa.

Purtroppo, negli ultimi anni, complice anche la crisi globale, il progetto ha subito notevoli ritardi. La prima istallazione che avrebbe ufficialmente dato il via a Desertec era attesa per quest’anno, con la costruzione di una centrale solare termica da 150MW, interamente finanziata a realizzata dalla Spagna. Questo progetto e’ stato completamente cancellato.

180234125-a57eda2e-6f23-4a00-96ea-d2aa78d306c1

Oltre alla Spagna, altre due grandi societa’, la Siemes e la Bosch, si sono ufficialmente ritirate dal progetto, a causa dei notevoli ritardi e del non sicuro ritorno degli investimenti fatti.

Nonostante queste defezioni, il progetto sembra andare avanti anche se con notevoli punti interrogativi.

Oltre alle difficolta’ tecniche e alla ricerca necessaria per costruire un impianto cosi’ all’avanguardia, quello che da sempre rappresenta un problema nella realizzazione di Desertec sono gli equilibri politici della zona. Come vedete dalla mappa, il progetto prevede una stretta collaborazione tra i  paesi europei e quelli del nord Africa. Non diciamo nulla di nuovo sostenendo che gli equilibri politici di questi paesi sono da sempre precari e molto a rischio. In un impianto del genere, molti paesi europei diverrebbero dipendenti energeticamente da altri paesi non propriamente liberi. Inoltre, nello schema attuale, alcuni impianti si troverebbero in zone di confine molte delicate e che separano paesi da sempre non in buoni rapporti tra loro.

Concludendo, i paesi arabi si stanno dimostrando sempre piu’ innovatori ed investitori nelle energie rinnovabili. Come visto anche negli articoli precedenti, molto probabilmente questi paesi continueranno a tenere lo scettro energetico mondiale grazie anche ai massicci investimenti fatti oggi in questi settori. Per quanto riguarda Desertec, il progetto e’ estremamente affascinante dal punto di vista tecnico ed offrirebbe una valida alternativa verde al futuro energetico dell’Europa. Purtroppo, complici gli equilibri politici africani e la crisi che sta interessando molte aziende europee, il progetto sembrerebbe essersi arenato. Questo ovviamente non esclude una futura ripresa e la continua ricerca in questi settori per lo studio di soluzioni sempre migliori e sempre piu’ sostenibili.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Elezioni, promesse verdi e protocollo di Kyoto

6 Feb

Come tutti sanno, qui in Italia, siamo nel pieno della campagna elettorale per le elezioni politiche. Non passa un giorno senza che i nostri candidati premier promettano questo o quest’altro, facendo a gara tra loro a chi riesce a fare la “sparata”, perche’ in genere solo di questo si parla, piu’ grossa in TV o sui giornali.

Ovviamente, lungi da me fare un discorso politico su questo blog. La premessa fatta, e su questo credo che nessuno possa dire il contrario, e’ indipendente da destra, sinistra, centro, sopra e sotto.

Oggi pero’, leggendo il giornale, vedo una serie di notizie che mi hanno fatto riflettere. Tutti hanno cominciato a parlare di ambiente e si sono resi conto che nei programmi elettorali non poteva certo mancare anche la promessa su queste tematiche. In particolare, proprio oggi, ci sono state una serie di dichiarazioni riguardanti proprio la politica delle rinnovabili e lo sfruttamento o meno di determinate risorse italiane.

A cosa mi riferisco?

7252Cominciamo proprio dal discorso sfruttamento. Nel canale di Sicilia sta facendo molto discutere la scelta di installare piattaforme per l’estrazione petrolifera. Prima di tutto, su molte fonti si e’ iniziato a parlare di tecniche di fracking, di pericolo terremoti o anche della possibilita’ che attivita’ di questo tipo possano creare tsunami nei nostri mari.

Di fracking abbiamo parlato piu’ volte, ad esempio, in questi post:

Fratturazione idraulica

Una prova del fracking in Emilia?

Innalzamento dei pozzi in Emilia prima del sisma

Come sappiamo, queste tecniche sfruttano l’inserimento nel terreno di fluidi ad alta pressione i quali, mediante un azione corrosiva, riescono a facilitare l’estrazione di idrocarburi, ma principalmente di gas. Come visto nei post precedenti, questo genere di attivita’ ha veramente mostrato la possibilita’ di innescare terremoti di intensita’ molto lieve anche a distanza di alcni giorni dall’immisione dei fluidi nel sottosuolo. Ci tengo a sottolineare che stiamo parlando di lievi scosse, non esiste nessun caso al mondo, documentato, in cui il fracking abbia creato terremoti di magnitudo elevata.

Dell’utilizzo del fracking ne abbiamo parlato nel caso del terremoto dell’Emilia del 2012. Come visto, questa relazione era in realta’ completamente campata in aria e questa attivita’ assolutamente non documentata prima ancora che connessa con il terremoto.

Tornando al caso dello stretto di Sicilia, i timori principali vengono dal fatto che questa e’ una zona da sempre considerata a rischio terremoti, vista anche la presenza di strutture del terreno molto diversificate, in grado di provocare l’amplificazione delle onde sismiche, ma anche grazie alla presenza di linee di faglia proprio nello stretto.

Diciamo subito che l’estrazione del petrolio nello stretto non prevede assolutamente l’utilizzo del fracking e non c’e’ assolutamente nessun pericolo terremoto in queste attivita’.

Queste considerazioni rispondono da sole alle accuse mosse in questa direzione, anche se la cosa principale da valutare e’ in realta’ l’utilita’ di queste trivellazioni. La nostra penisola, e ovviamente i mari che la circondano, sono molto poveri di giacimenti di idrocarburi e lo stretto di Sicilia non e’ assolutamente da meno. Il problema principale non e’ nemmeno l’utilizzo del fracking o delle trivellazioni, ma semplicemente la poverta’ dei giacimenti che sarebbero in grado di fornire una quantita’ di petrolio assolutamente non elevata. Per darvi un’idea, se anche si estraesse di colpo tutto il petrolio presente nel giacimento, questo sarebbe sufficiente alla nostra nazione solo per 2-3 mesi. Dunque? Forse la spesa non vale l’impresa, come si dice dalle mie parti.

Parlando invece di rinnovabili, il discorso sarebbe leggermente piu’ complesso, se non altro per la grande diversificazione delle fonti sfruttabili, ognuna con le proprie caratteristiche e i propri limiti. Rimanendo sul punto di vista elettorale, oggi tutti si dicono convinti nel sostenere l’utilizzo delle rinnovabili , dimenticando pero’ di fare un discorso a lungo termine.

Le rinnovabili, quali Sole e vento in primis, sono ampiamente disponibili in Italia e, ad oggi, ancora poco sfruttate. Quello che pero’ i nostri politicanti dimenticano di considerare, come sempre avviene non solo su questo tema, e’ la prospettiva ad ampio respiro. Di anno in anno, gli incentivi per l’installazione, ad esempio, di un impianto fotovoltaico sono diminuiti e hanno raggiunto un minimo con il quinto conto energia del 2012. Ovviamente ancora oggi conviene installare un impianto domestico per l’autosostentamento, ma questo principalmente grazie alla riduzione del costo dei pannelli e al leggero incremento in termini di rendimento dell’impianto stesso.

Ho preso come esempio il caso solare perche’ e’ quello piu’ noto e piu’ comune nei discorsi abitativi privati. Questo esempio e’ importante per capire la prospettiva futura. Lo sfruttamento delle rinnovabili ora non potra’ essere lo stesso tra 20 o 30 anni. Se pensiamo che anno dopo anno, il consumo medio di energia elettrica aumenta nel mondo vertiginosamente, e’ impensabile dare corrente a tutti questi paesi semplicemente con dei pannelli sopra il tetto o con qualche pala nel mare. Quello che i nostri politicanti dovrebbero capire e’ che investire nelle rinnovabili significa investire nella ricerca in questo settore. Per darvi qualche esempio, in campo solare vi sono molte soluzioni futuribili su cui si sta lavorando: solare termodinamico, ricerca su nuovi materiali, specchi, nanopraticelle, ecc. Tutte soluzioni che potrebbero incrementare la produzione di corrente elettrica per superficie occupata.

Abbandonando un attimo il discorso rinnovabili, si dovrebbe investire, ad esempio, nel campo della fusione nucleare. Questo settore e’ assolutamente appetibile e riesce a mettere d’accordo praticamente tutti: pro e contro nucleare, ambientalisti e imprenditori. La fusione nucleare consentirebbe di ottenere energia molto facilmente, con impianti puliti, senza emissioni e senza scorie radioattive. Cosa si potrebbe desiderare di meglio? Ovviamente siamo ancora lontani, ad oggi, dal pensare una centrale civile per la produzione di corrente che funzioni a fusione, ma per poter arrivare a questo e’ necessario investire in questo settore.

Concludendo questa parte, e’ inutile parlare di green economy se non si parla di investire nella ricerca, sia essa scientifica o tecnologica. Quando sentiamo dire che la scienza puo’ aiutarci a vivere meglio, stiamo parlando di questo, cioe’ di soluzioni in grado di farci vivere meglio, in un ambiente meno inquinato e non sfruttando come virus le risorse del nostro pianeta attaccandole fino all’ultima goccia.

Prima di chiudere, vorrei uscire un secondo dai nostri confini ma sempre rimanendo in tema ambientale. Proprio di questi giorni e’ la notizia che gli Stati Uniti hanno finalmente deciso di sottoscrivere il protocollo di Kyoto. Come sapete, in questo trattato gli stati si sono ripromessi di ridurre notevolmente l’emissione di gas serra nell’ambiente mediante una migliore politica ambientale ed industriale. Pensate che gli USA per anni hanno rifiutato di sottoscrivere il trattato anche se da soli producono circa il 36% dei gas serra a livello mondiale. Questo potrebbe forse essere un primo vero passo in avanti nelle politiche green degli Stati Uniti.

In questa breve discussione, abbiamo dunque cercato di analizzare il punto di vista scientifico nella produzione di energia da fonti rinnovabili. Anche in questo settore, la vera prospettiva futura e’ quella di un investimento reale nella ricerca al fine di poter migliorare la tipologia e la qualita’ delle fonti rinnovabili (e non) utilizzate. Questo messaggio e’ estremamente importante ed e’ quello che i futuri governanti, di qualsiasi colore, dovrebbero sempre tenere a mente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

Perche’ la ricerca: economia

5 Gen

Nel post precedente:

Perche’ la ricerca: scienza e tecnologia

abbiamo cercato di rispondere alla domanda “perche’ fare ricerca?” discutendo il lato tecnologico e le possibili ricadute scientifiche nella vita di tutti i giorni. Come detto, stiamo cercando di rispondere a questa domanda non in senso generale, ma proprio contestualizzando la risposta in questi anni di profonda crisi economica o, comunque, investendo nella ricerca a discapito di settori considerati piu’ importanti o vitali per tutti i cittadini.

Dopo queste considerazioni piu’ tecniche, vorrei invece analizzare il discorso economico della ricerca. Come sappiamo, e come abbiamo visto nel precedente post, fare ricerca ad alti livelli implica investimenti molto massicci. Tolte le ricadute tecnologiche, cerchiamo invece di capire se sono investimenti a fondo perduto o se implicano un ritorno economico tangibile per le nazioni.

Come nel caso precedente, prendiamo come esempio tra grandi ricerche in settori diversi per cercare di quantificare in modo pratico, numeri alla mano. I soliti tre esempi sono: ITER, il reattore a fusione per scopi di ricerca, le missioni spaziali e il CERN, come esempio di grande laboratorio per la fisica delle particelle.

Partiamo da ITER e partiamo con una considerazione che ci deve far riflettere. ITER e’ una collaborazione internazionale in cui entrano gli Stati Uniti, il Giappone e alcuni paesi europei. Come detto, parliamo di un investimento dell’ordine di 10 miliardi di euro. Forse vi fara’ riflettere il fatto che Francia e Giappone hanno discusso per lungo tempo proprio per cercare di costruire il reattore nel proprio paese. Ovviamente averlo in casa offre dei vantaggi notevoli in termini di ricadute tecnologiche, ma sicuramente implica una maggiore spesa per il paese ospitante. Conoscendo la situazione economica attuale, se un paese cerca in tutti i modi di averlo in casa e dunque spendere di piu’, significa che qualcosa indietro deve avere.

Passiamo invece alle missioni spaziali. Altro tema scottante nel discorso economico e molte volte visto come una spesa enorme ma non necessaria in tempi di crisi. Partiamo, ad esempio, dal discorso occupazionale. Molte volte sentiamo dire dai nostri politicanti o dagli esperti di politica ecnomica che si devono fare investimenti per creare posti di lavoro. Vi faccio un esempio, al suo apice, il programma di esplorazione Apollo dava lavoro a circa 400000 persone. Non pensiamo solo agli scienziati. Un programma del genere crea occupazione per tutte le figure professionali che vanno dall’operaio fino al ricercatore, dall’addetto alle pulizie dei laboratori fino all’ingegnere. Ditemi voi se questo non significa creare posti di lavoro.

Passando invece all’esempio del CERN, sicuramente i numeri occupazionali sono piu’ piccoli, ma di certo non trascurabili. Al CERN ci sono circa 2500 persone che tutti i giorni lavorano all’interno del laboratorio. A questi numeri si devono poi sommare quelli dei paesi che partecipano agli esperimenti ma non sono stanziali a Ginevra. In questo caso, arriviamo facilmente ad una stima intorno alle 15000 unita’.

A questo punto pero’ sorge una domanda che molti di voi si staranno gia’ facendo. LHC, come esempio, e’ costato 6 miliardi di euro. E’ vero, abbiamo creato posti di lavoro, ma la spesa cosi’ elevata giustifica questi posti? Con questo intendo, se il ritorno fosse solo di numeri occupazionali, allora tanto valeva investire cifre minori in altri settori e magari creare piu’ posti di lavoro.

L’obiezione e’ corretta. Se il ritorno fosse solo questo, allora io stesso giudicherei l’investimento economico, non scientifico, fallimentare. Ovviamente c’e’ molto altro in termini finanziari.

Prima di tutto vi devo spiegare come funziona il CERN. Si tratta di un laboratorio internazionale, nel vero senso della parola. Il finanziamento del CERN viene dai paesi membri. Tra questi, dobbiamo distinguere tra finanziatori principali e membri semplici. Ovviamente i finanziatori principali, che poi sono i paesi che hanno dato il via alla realizzazione del CERN, sono venti, tra cui l’Italia, ma, ad esempio, alla costruzione di LHC hanno partecipato circa 50 paesi. Essere un finanziatore principale comporta ovviamente una spesa maggiore che viene pero’ calcolata anno per anno in base al PIL di ogni nazione.

Concentriamoci ovviamente sul caso Italia, ed in particolare sugli anni caldi della costruzione di LHC, quelli che vanno dal 2000 al 2006, in cui la spesa richiesta era maggiore.

Nel 2009, ad esempio, il contributo italiano e’ stato di 83 milioni di euro, inferiore, in termini percentuali, solo a Francia, Germania e Regno Unito.

Contributo italiano al CERN in milioni di euro. Fonte: S.Centro, Industrial Liasion Officer

Contributo italiano al CERN in milioni di euro. Fonte: S.Centro, Industrial Liaison Officer

Il maggiore ritorno economico per i paesi e’ ovviamente in termini di commesse per le industrie. Che significa questo? Servono 100 magneti, chi li costruisce? Ovviamente le industrie dei paesi membri che partecipano ad una gara pubblica. Il ritorno economico comincia dunque a delinearsi. Investire nel CERN implica un ritorno economico per le industrie del paese che dunque assumeranno personale per costruire questi magneti. Stiamo dunque facendo girare l’economia e stiamo creando ulteriori posti di lavoro in modo indiretto.

Apriamo una parentesi sull’assegnazione delle commesse. Ovviamente si tratta di gare pubbliche di appalto. Come viene decretato il vincitore? Ogni anno, il CERN calcola un cosiddetto “coefficiente di giusto ritorno”, e’ un parametro calcolato come il rapporto tra il ritorno in termini di commesse per le industrie e il finanziamento offerto alla ricerca. Facciamo un esempio, voi investite 100 per finanziare la costruzione di LHC, le vostre industrie ottengono 100 di commesse dal CERN, il coefficiente di ritorno vale 1.

Ogni anno, in base al profilo di spesa, ci saranno coefficienti diversi per ciascun paese. Si parla di paesi bilanciati e non bilanciati a seconda che il loro coefficiente sia maggiore o minore del giusto ritorno. In una gara per una commessa, se l’industria di un paese non bilanciato arriva seconda dietro una di un paese gia’ bilanciato, e lo scarto tra le offerte e’ inferiore al 20%, allora l’industria del paese non bilanciato puo’ aggiudicarsi la gara allineandosi con l’offerta del vincitore. In questo modo, viene ripartito equamente, secondo coefficienti matematici, il ritorno per ciascun paese.

Cosa possiamo dire sull’Italia? Negli anni della costruzione di LHC, LItalia ha sempre avuto un coefficiente molto superiore al giusto ritorno. Per dare qualche numero, tra il 1995 e il 2008, il nostro paese si e’ aggiudicato commesse per le nostre aziende per un importo di 337 milioni di euro.

Vi mostro un altro grafico interessante, sempre preso dal rapporto del prof. S.Centro dell'”Industrial Liaison Officer for Italian industry at CERN”:

Commesse e coefficiente di ritorno per l'Italia. Fonte: S.Centro, Industrial Liaison Officer

Commesse e coefficiente di ritorno per l’Italia. Fonte: S.Centro, Industrial Liaison Officer

A sinistra vedete gli importi delle commesse per gli anni in esame per il nostro Paese, sempre in milioni di euro, mentre a destra troviamo il coefficiente di ritorno per l’Italia calcolato in base all’investimento fatto. Tenete conto che in quesgli anni, la media del giusto ritorno calcolato dal CERN era di 0.97.

Guardando i numeri, non possiamo certo lamentarci o dire che ci abbiano trattato male. La conclusione di questo ragionamento e’ dunque che un investimento nella ricerca scientifica di qualita’, permette un ritorno economico con un indotto non indifferente per le aziende del paese. Ogni giorno sentiamo parlare di rilancio delle industrie, di creazione di posti di lavoro, di rimessa in moto dell’economia, mi sembra che LHC sia stato un ottimo volano per tutti questi aspetti.

Ultima considerazione scientifico-industriale. Le innovazioni apportate facendo ricerca scientifica, non muoiono dopo la realizzazione degli esperimenti. Soluzioni tecnologiche e migliorie entrano poi nel bagaglio industriale delle aziende che le utilizzano per i loro prodotti di punta. Molte aziende vengono create come spin-off di laboratori, finanziate in grossa parte dalla ricerca e poi divengono delle realta’ industriali di prim’ordine. L’innovazione inoltra porta brevetti che a loro volta creano un ritorno economico futuro non quantificabile inizialmente.

Concludendo, anche dal punto di vista economico, fare ricerca non significa fare finanziamenti a fondo perduto o fallimentari. Questo sicuramente comporta un ritorno economico tangibile immediato. Inoltre, il ritorno in termini tecnologici e di innovazione non e’ quantificabile. Fare ricerca in un determinato campo puo’ portare, immediatamente o a distanza di anni, soluzioni che poi diventeranno di uso comune o che miglioreranno settori anche vitali per tutti.

Vi lascio con una considerazione. Non per portare acqua al mulino della ricerca, ma vorrei farvi riflettere su una cosa. In questi anni di crisi, molti paesi anche europei, ma non l’Italia, hanno aumentato i fondi dati alla ricerca scientifica. A fronte di quanto visto, forse non e’ proprio uno sperpero di soldi.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ la ricerca: scienza e tecnologia

4 Gen

Molte volte, parlando di scienza e di ricerca scientifica, mi viene fatta una domanda apparentemente banale, ma che in realta’ nasconde un vero e proprio mondo: Perche’ fare ricerca?

Ovviamente in questo caso non parlo del senso letterale della domanda. E’ noto a tutti che la ricerca scientifica ci permette di aumentare la nostra conoscenza del mondo, dei meccanimi della natura e ci consente di dare un piccolo contributo al dilemma: da dove veniamo e dove andiamo?

In questo post e nel successivo, vorrei cercare di parlare proprio del senso piu’ pratico di questa domanda. Al giorno d’oggi, con la crisi che imperversa, molti si chiedono che senso abbia “sperperare” soldi nella ricerca scientifica invece di utilizzarli per fini piu’ pratici e tangibili per la societa’.

In questo primo post vorrei parlare delle motivazioni scientifiche e tenologiche della ricerca scientifica, mentre nel prossimo post mi vorrei concentrare sugli aspetti piu’ prettamente economici.

Premesso questo, cerchiamo di capire quali sono le implicazioni e le migliorie scientifiche apportate dall’attivita’ di ricerca.

Molti di voi sapranno gia’ che diverse tecniche di diagnostica medica, come la radiografia, la TAC, la PET, provengono e sono state pensate nell’ambito della ricerca scientifica ed in particolare per la costruzione di rivelatori per le particelle. Questi sono discorsi abbastanza noti e per principio non vi faro’ la solita storiella con date e introduzione negli ospedali di queste tecniche.

Parliamo invece di cose meno note, ma forse ben piu’ importanti.

A costo di sembrare banale, vorrei proprio iniziare da LHC al CERN di Ginevra e dalla ricerca nella fisica delle alte energie. In questo caso, stiamo parlando del piu’ grande acceleratore in questo settore e ovviamente anche del piu’ costoso. Con i suoi 6 miliardi di euro, solo per l’acceleratore senza conteggiare gli esperimenti, parliamo di cifre che farebbero saltare sulla sedia molti non addetti ai lavori.

Che vantaggi abbiamo ottenuto a fronte di una spesa cosi grande?

Next: il primo server WWW del CERN

Next: il primo server WWW del CERN

Partiamo dalle cose conosciute. Solo per darvi un esempio, il “world wide web” e’ nato proprio al CERN di Ginevra, dove e’ stato sviluppato per creare un modo semplice e veloce per lo scambio di dati tra gli scienziati. Ad essere sinceri, un prototipo del WWW era gia’ stato sviluppato per ambiti militari, ma l’ottimizzazione e la resa “civile” di questo mezzo si deve a due ricercartori proprio del CERN:

CERN, were the web was born

Restando sempre in ambito tecnlogico, anche l’introduzione del touchscreen e’ stata sviluppata al CERN e sempre nell’ambito della preparazione di rivelatori di particelle. A distanza di quasi 20 anni, questi sistemi sono ormai di uso collettivo e vengono utilizzati in molti degli elettrodomestici e dei gadget a cui siamo abituati.

Uno dei primi sistemi touch introdotti al CERN

Uno dei primi sistemi touch introdotti al CERN

Pensandoci bene, tutto questo e’ normale. Rendiamoci conto che costruire un acceleratore o un esperimento sempre piu’ preciso, impone delle sfide tecnologiche senza precedenti. Laser, sistemi di controllo ad alta frequenza, magneti, rivelatori sono solo alcuni esempi dei sistemi che ogni volta e’ necessario migliorare e studiare per poter costruire una nuova macchina acceleratrice.

Anche in ambito informatico, la ricerca in fisica delle alte energie impone dei miglioramenti che rappresentano delle vere e proprie sfide tecnologiche. Un esperimento di questo tipo, produce un’enorme quantita’ di dati che devono essere processati e analizzati in tempi brevissimi. Sotto questo punto di vista, la tecnologia di connessione ad altissima velocita’, le realizzazione di sistemi di contenimento dei dati sempre piu’ capienti e lo sviluppo di macchine in grado di fare sempre piu’ operazioni contemporaneamente, sono solo alcuni degli aspetti su cui la ricerca scientifica per prima si trova a lavorare.

Saltando i discorsi della diagnostica per immagini di cui tutti parlano, molte delle soluzioni per la cura di tumori vengono proprio dai settori della fisica delle alte energia. Basta pensare alle nuove cure adroterapiche in cui vengono utilizzati fasci di particelle accelerati in piccoli sistemi per colpire e distruggere tumori senza intaccare tessuti sani. Secondo voi, dove sono nate queste tecniche? Negli acceleratori vengono accelerate particelle sempre piu’ velocemente pensando sistemi sempre piu’ tecnologici. La ricerca in questi settori e’ l’unico campo che puo’ permettere di sviluppare sistemi via via piu’ precisi e che possono consentire di colpire agglomerati di cellule tumorali di dimensioni sempre minori.

Detto questo, vorrei cambiare settore per non rimanere solo nel campo della fisica delle alte energie.

In Francia si sta per realizzare il primo reattore a fusione per scopi di ricerca scientifica. Questo progetto, chiamato ITER, e’ ovviamente una collaborazione internazionale che si prefigge di studiare la possibile realizzazione di centrali necleari a fusione in luogo di quelle a fissione. Parlare di centrali nucleari e’ un discorso sempre molto delicato. Non voglio parlare in questa sede di pericolosita’ o meno di centrali nucleari, ma il passaggio della fissione alla fusione permetterebbe di eliminare molti degli svantaggi delle normali centrali: scorie, fusione totale, ecc. Capite dunque che un investimento di questo tipo, parliamo anche in questo caso di 10 miliardi di euro investiti, potrebbe portare un’innovazione nel campo della produzione energetica senza eguali. Se non investiamo in queste ricerche, non potremmo mai sperare di cambiare i metodi di produzione dell’energia, bene primario nella nostra attuale societa’.

La sonda Curiosity della NASA

La sonda Curiosity della NASA

Passando da un discorso all’altro, in realta’ solo per cercare di fare un quadro variegato della situazione, pensiamo ad un altro settore sempre molto discusso, quello delle missioni spaziali. Se c’e’ la crisi, che senso ha mandare Curiosity su Marte? Perche’ continuiamo ad esplorare l’universo?

Anche in questo caso, saltero’ le cose ovvie cioe’ il fatto che questo genere di missioni ci consente di capire come il nostro universo e’ nato e come si e’ sviluppato, ma parlero’ di innovazione tecnologica. Una missione spaziale richiede l’utilizzo di sistemi elettronici che operano in ambienti molto difficili e su cui, una volta in orbita, non potete certo pensare di mettere mano in caso di guasto. L’affidabilita’ di molte soluzioni tecnologiche attuali, viene proprio da studi condotti per le missioni spaziali. Esperimenti di questo tipo comportano ovviamente la ricerca di soluzioni sempre piu’ avanzate, ad esempio, per i sistemi di alimentazione. L’introduzione di batterie a lunghissima durata viene proprio da studi condotti dalle agenzie spaziali per le proprie missioni. Anche la tecnologia di trasmissione di dati a distanza, ha visto un salto senza precedenti proprio grazie a questo tipo di ricerca. Pensate semplicemente al fatto che Curiosity ogni istante invia dati sulla Terra per essere analizzati. Se ci ragionate capite bene come queste missioni comportino lo sviluppo di sistemi di trasferimento dei dati sempre piu’ affidabili e precise per lunghissime distanze. Ovviamente tutti questi sviluppi hanno ricadute molto rapide nella vita di tutti i giorni ed in settori completamente diversi da quelli della ricerca scientifica.

Concludendo, spero di aver dato un quadro, che non sara’ mai completo e totale, di alcune delle innovazioni portate nella vita di tutti i giorni dalla ricerca scientifica. Come abbiamo visto, affrontare e risolvere sfide tecnologiche nuove e sempre piu’ impegnativa consente di trovare soluzioni che poi troveranno applicazione in campi completamente diversi e da cui tutti noi potremmo trarre beneficio.

Ovviamente, ci tengo a sottolineare che la conoscenza apportata dai diversi ambiti di ricerca non e’ assolutamente un bene quantificabile. Se vogliamo, questo potrebbe essere il discorso piu’ criticabile in tempi di crisi, ma assolutamente e’ la miglioria della nostra consapevolezza che ci offre uno stimolo sempre nuovo e crea sempre piu’ domande che risposte.

Post successivo sul discorso economico: Perche’ la ricerca: economia

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.