Tag Archives: lhc

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Hawking e la fine del mondo

11 Set

Visto che me lo state chiedendo in tantissimi, vorrei aprire una parentesi sulle affermazioni fatte dal celebre astrofisico Stephen Hawking riguardanti il bosone di Higgs. Per chi non lo avesse seguito, abbiamo già discusso di questo tema nella apposita sezione:

Hai domande o dubbi?

Dove un nostro caro lettore, già qualche giorno fa, ci aveva chiesto lumi a riguardo.

Di cosa stiamo parlando?

Come tutti avrete letto, nell’introduzione del suo ultimo libro “Starmus, 50 years of man in space” il celebre astrofisico avrebbe scritto che il bosone di Higgs avrebbe le potenzialità per poter distruggere l’intero universo. In pratica, ad energie elevate, così si legge, la particella potrebbe divenire improvvisamente instabile e provocare il collasso dello stato di vuoto, con conseguente distruzione dell’universo.

Cosa? Collaso del vuoto? Distruzione dell’universo?

Ci risiamo, qualcuno ha ripreso qualche spezzone in giro per la rete e ne ha fatto un caso mondiale semplicemente mescolando le carte in tavola. In realtà, a differenza anche di quanto io stesso ho affermato nella discussione linkata, la cosa è leggermente più sottile.

E’ possibile che il bosone di Higgs diventi instabile e bla bla bla?

No! Il bosone di Higgs non diviene instabile ad alte energie o perchè ne ha voglia. Stiamo entrando in un settore della fisica molto particolare e su cui la ricerca è ancora in corso.

Facciamo un piccolo excursus. Del bosone di Higgs ne abbiamo parlato in questo articolo:

Bosone di Higgs … ma che sarebbe?

dove abbiamo cercato di spiegare il ruolo chiave di questa particelle nella fisica e, soprattutto, la sua scoperta.

Inoltre, in questo articolo:

L’universo è stabile, instabile o metastabile?

Abbiamo visto come la misura della massa di questa particella abbia implicazioni profonde che esulano dalla mera fisica delle particelle. In particolare, la massa di questa particella, combinata con quella del quark top, determinerebbe la condizione di stabilità del nostro universo.

Bene, come visto nell’ultimo articolo citato, i valori attuali dei parametri che conosciamo, ci pongono nella strettissima zona di metastabilità del nostro universo. Detto in parole semplici, non siamo completamente stabili e, ad un certo punto, il sistema potrebbe collassare in un valore stabile modificando le proprietà del vuoto quantomeccanico.

Riprendiamo il ragionamento fatto nell’articolo. Siamo in pericolo? Assolutamente no. Se anche fossimo in una condizione di metastabilità, il sistema non collasserebbe da un momento all’altro e, per dirla tutta, capire cosa significhi in realtà metastabilità del vuoto quantomeccanico non è assolutamente certo. Premesso questo, come già discusso, i valori delle masse delle due particelle in questione, vista la ristretta zona in esame, non sono sufficienti a determinare la reale zona in cui siamo. Cosa significa? Come detto, ogni misura in fisica viene sempre accompagnata da incertezze, cioè un valore non è univoco ma è contenuto in un intervallo. Più è stretto questo intervallo, minore è l’incertezza, meglio conosciamo il valore in esame. Ad oggi, ripeto, vista la stretta banda mostrata nel grafico, le nostre incertezze sono compatibili sia con la metastabilità che con l’instabilità.

Dunque, pericolo scampato. Resta però da capire il perchè delle affermazioni di Hawking.

Su questo, vi dirò la mia senza fronzoli. Hawking conosce benissimo l’attuale livello di cui abbiamo discusso. Molto probabilmente, non avendolo letto non ne posso essere sicuro, nel libro ne parla in modo dettagliato spiegando tutto per filo e per segno. Nell’introduzione invece, appunto in quanto tale, si lascia andare ad affermazioni quantomeno naive.

Perchè fa questo? Le ipotesi sono due e sono molto semplici. La prima è che è in buona fede e la colpa è solo dei giornali che hanno ripreso questa “introduzione al discorso” proprio per creare il caso mediatico sfruttando il nome dell’astrofisico. La seconda, più cattiva, è che d’accordo con l’editore, si sia deciso di creare questo caso appunto per dare una spinta notevole alle vendite del libro.

Personalmente, una o l’altra non conta, l’importante è capire che non c’è nessun collasso dell’universo alle porte.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo che si dissolve “improvvisamente”

21 Mar

Nella sezione:

Hai domande o dubbi?

una nostra cara lettrice ci ha chiesto lumi su una notizia apparsa in questi giorni sui giornali che l’ha lasciata, giustamente dico io, un po’ perplessa. La notizia in questione riguarda l’annuncio fatto solo pochi giorni fa della nuova misura della massa del quark top.

Perche’ questa notizia avrebbe suscitato tanto clamore?

Senza dirvi nulla, vi riporto un estratto preso non da un giornale qualsiasi, che comunque a loro volta hanno copiato da qui, ma dalla principale agenzia di stampa italiana:

Il più pesante dei mattoni della materia, il quark top, ha una misura più precisa e la sua massa, con quella del bosone di Higgs, potrebbe essere la chiave per capire se viviamo in un universo instabile, al punto di dissolversi improvvisamente.

Universo che si dissolve “improvvisamente”?

Vi giuro che vorrei mettermi a piangere. Solo pochi giorni fa abbiamo parlato di tutte quelle cavolate sparate dopo l’annuncio della misura di Bicep-2:

Ascoltate finalmente le onde gravitazionali?

Due notizie cosi’ importanti dal punto di vista scientifico accompagnate da sensazionalismo catastrofista nella stessa settimana sono davvero un duro colpo al cuore.

Al solito, e come nostra abitudine, proviamo a spiegare meglio l’importanza della misura ma, soprattutto, cerchiamo di capire cosa dice la scienza contrapposto a quello che hanno capito i giornali.

In diversi articoli abbiamo parlato di modello standard discutendo la struttura della materia che ci circonda e, soprattutto, presentando quelle che per noi, ad oggi, sono le particelle fondamentali, cioe’ i mattoni piu’ piccoli che conosciamo:

Due parole sull’antimateria

Piccolo approfondimento sulla materia strana

Bosone di Higgs …. ma che sarebbe?

Se ci concentriamo sui quark, vediamo che ci sono 6 componenti che, come noto, sono: up, down, strange, charm, bottom e top. Come gia’ discusso, i primi due, up e down, sono quelli che formano a loro volta protoni e neutroni, cioe’ le particelle che poi formano i nuclei atomici, dunque la materia che ci circonda.

Bene, il quark top e’ il piu’ pesante di questi oltre ad essere l’ultimo ad essere stato scoperto. Il primo annuncio di decadimenti con formazione di quark top e’ stato fatto nel 1995 grazie alla combinazione dei risultati di due importanti esperimenti del Fermi National Accelerator Laboratory di Batavia, nei pressi di Chicago. A questi esperimenti, oggi in dismissione, ma la cui analisi dei dati raccolti e’ ancora in corso, partecipavano e partecipano tuttora moltissimi fisici italiani dell’Istituto Nazionale di Fisica Nucleare.

La cosa piu’ sorprendente del quark top e’ la sua enorme massa, circa 170 GeV, che lo rende la particella elementare piu’ pesante mai trovata. Per darvi un’idea, il top e’ circa 180 volte piu’ pesante di un protone con una massa paragonabile a quella di un atomo di oro nel suo complesso. Il perche’ di una massa cosi’ elevata e’ una delle chiavi per capire i meccanismi che avvengono a livello microscopico e che, come e’ normale pensare, determinano il comportamento stesso del nostro universo.

Bene, cosa e’ successo in questi giorni?

Come avete letto, nel corso della conferenza:

Rencontres de Moriond

che si svolge annualmente a La Thuille in Val d’Aosta, e’ stata presentata una nuova misura della massa del quark top. Prima cosa importante da dire e’ che la misura in questione viene da una stretta collaborazione tra i fisici di LHC e quelli che analizzano i dati del Tevatron, cioe’ il collissore dove nel 1995 fu scoperto proprio il top. Queste due macchine sono le uniche al mondo, grazie alla grande energia con cui vengono fatti scontrare i fasci, in grado di produrre particelle pesanti come il quark top.

Dalla misurazione congiunta di LHC e Tevatron e’ stato possibile migliorare notevolmente l’incertezza sulla massa del top, arrivando ad un valore molto piu’ preciso rispetto a quello conosciuto fino a qualche anno fa.

Cosa comporta avere un valore piu’ preciso?

Come potete immaginare, conoscere meglio il valore di questo parametro ci consente di capire meglio i meccanismi che avvengono a livello microscopico tra le particelle. Come discusso parlando del bosone di Higgs, il ruolo di questa particella, e soprattutto del campo scalare ad essa associato, e’ proprio quello di giustificare il conferimento della massa. Se il  top ha una massa cosi’ elevata rispetto agli altri quark, il suo meccanismo di interazione con il campo di Higgs deve essere molto piu’ intenso. Inoltre, il quark top viene prodotto da interazioni forti, ma decade con canali deboli soprattutto producendo bosoni W. Non sto assolutamente cercando di confondervi. Come visto negli articoli precedenti, il W e’ uno dei bosoni messaggeri che trasportano l’interazione debole e che e’ stato scoperto da Carlo Rubbia al CERN. Detto questo, capite come conoscere con precisione la massa del top, significhi capire meglio i meccanismi che avvengono tra top, W e campo di Higgs. In ultima analisi, la conoscenza di questi modelli e’ fondamentale per capire perche’, durante l’evoluzione dell’universo, si sono formate particelle cosi’ pesanti ma anche per capire se esistono meccanismi di decadimento non ancora considerati o anche effetti, come vengono definiti, di nuova fisica che possono mettere in discussione o integrare il modello standard delle particelle.

Concludendo, la spiegazione della frase “universo che si dissolve improvvisamente” non significa nulla. Una misura piu’ precisa della massa del top implica una migliore conoscenza dei modelli ora utilizzati e soprattutto apre le porte per capire meglio cosa e’ avvenuto durante durante i primi istanti di vita dell’universo. Al solito pero’, anche sulla scia del tanto citato annuncio di Bicep-2, si e’ ben pensato di sfruttare l’occasione e trasformare anche questa importante notizia in un teatrino catastrofista. Per chi interessato ad approfondire, vi riporto anche il link di ArXiv in cui leggere l’articolo della misura in questione:

ArXiv, quark top

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Noi dormiamo ma lo smartphone NO!

12 Mar

Torniamo ora a parlare un po’ di tecnologia. Come sapete, ormai, nel bene o nel male, la maggior parte delle persone possiede uno smartphone. Questi piccoli strumenti nascondono al loro interno una capacita’ di calcolo impressionante se paragonata con le ridotte dimensioni, ma soprattutto, per quelli non proprio giovanissimi, se paragonata con quella dei personal computer piu’ costosi che si potevano acquistare anche solo 10 anni fa. Da un lato, questo e’ impressionante ma anche completamente comprensibile. Come sapete, l’elettronica e le capacita’ di calcolo seguono leggi esponenziali di crescita, di riduzione del prezzo e delle dimensioni dei dispositivi e l’insieme di questi parametri fa si che, di volta in volta, esca un prodotto nuovo che faccia impallidire i suoi predecessori.

Ora pero’, quanti di quelli che utilizzano uno smartphone lo utilizzano a pieno delle sue capacita’? In verita’, credo io, davvero un numero esiguo di persone riesce a sfruttare a pieno le capacita’ del proprio telefono se non facendo andare in contemporanea diversi programmi richiedenti la rete internet.

Oltre a questo poi, c’e’ un altro aspetto da considerare. Mediamente, questi piccoli oggetti sono molto energivori e le loro batterie difficilmente durano anche solo una giornata se sfruttati a pieno. Conseguenza di questo e’ che tutte le notti dobbiamo ricaricare la batteria lasciando, come spesso accade, il telefono acceso con la connessione dati o wireless accesa. Durante questa fase di standby, anche se non del tutto, il nostro dispositivo e’ fermo e la sua enorme capacita’ di calcolo non viene sfruttata.

Perche’ faccio questo preambolo iniziale?

Molto semplice, in questi giorni, su diversi giornali, e’ stata lanciata una notizia che ha suscitato il mio interesse se non altro perche’ rilancia le problematiche appena discusse. Come avrete sicuramente letto, un team di ricercatori austriaci ha trovato, almeno da come raccontano i giornali, il modo di sfruttare questa potenza di calcolo per un nobile scopo. Questo gruppo di ricerca e’ coinvolto nello studio dei dati del database Simap, un enorme catalogo contenente al suo interno la struttura di tutte le proteine conosciute. Scopo di questa ricerca e’ quello di studiare le somiglianze tra le proteine con il fine ultimo, tra i tanti altri, di poter trovare cure per alcune delle malattie piu’ critiche che riguardano il genere umano. Gestire una mole di dati cosi’ impressionante non e’ affatto semplice e richiede una capacita’ di calcolo molto elevata. Ovviamente, una capacita’ di calcolo elevata significa un costo altrettanto elevato. Per farvi capire questa relazione, pensate che il costo computazionale aumenta con il quadrato del numero di proteine contenute nel database.

Come gestire una mole cosi’ elevata di dati con costi che non siano insostenibili?

Semplice, stando a quanto riporta la notizia sui giornali, e’ stata programmata una App, uno dei piccoli programmini che girano sui nostri smartphone, che consente di sfruttare lo smartphone per analizzare questi dati. Il nome della App e’ Power Sleep appunto perche’ si tratta di una normale sveglia che puo’ essere impostata all’ora in cui desideriamo alzarci. Al contrario di una normale sveglia, Power Sleep ha pero’ una funzione aggiuntiva. Prima di andare a dormire, mettete il vostro smartphone sotto carica lasciando la connessione WiFi accesa. Non appena la batteria avra’ raggiunto la carica completa, il telefono comunichera’ con un server centrale dando inizio al vero scopo del software. Il server invia paccheti da 1Mb che vengono analizzati dal processore dello smartphone. Il tempo richiesto per questa analisi e’ compreso tra 30 e 60 minuti a seconda della potenza di calcolo. Quando il processo e’ completato, il telefono invia il risultato al server e scarica un altro pacchetto da analizzare. Questa comunicazione dura fino a quando non arriva l’ora impostata per la sveglia e il telefono e’ di nuovo disponibile completamente per l’utente.

Detta in questo modo, sembra una scoperta rivoluzionaria che ci permettera’ di contribuire senza spendere un soldo alla ricerca scientifica.

Perche’ dico “sembra”?

Molto semplice, ovviamente si tratta di un’applicazione utilissima per lo scopo della ricerca scientifica in se, ma questo genere di applicazioni non sono assolutamente una novita’. Questo processo di analisi dei dati e’ quello che viene comunemente definito “calcolo distribuito”. Si tratta di un procedimento molto semplice in cui un processo principale viene diviso in tante parti assegnate a processori diversi che poi comunicheranno il loro singolo risultato ad un server centrale. Grazie al calcolo distribuito e’ possibile sfruttare una rete di computer, o smartphone come in questo caso, invece di investire cifre spropositate in una singola macchina in cui far girare l’intera analisi. Di esempi di questo tipo ce ne sono a bizzeffe anche indietro negli anni. Sicuramente tutti avrete sentito parlare del programma SETI@Home per la ricerca di vita extraterrestre nell’universo. In questo caso, si utilizzavano radiotelescopi per cercare segnali non naturali. L’enorme mole di dati veniva analizzata da chiunque decidesse di installare un piccolo software sul proprio computer per contribuire a questa ricerca.

Nel caso di Power Sleep, i ricercatori austriaci si sono affidati ad una societa’ che si occupa proprio di calcolo distribuito e si chiama BOINC. Vi riporto anche il link alla loro pagina italiana in cui compare, proprio in prima pagina, una descrizione sul funzionamento e sull’importanza del calcolo distribuito:

BOINC Italia

Come potete leggere, esistono decine di applicazioni per il calcolo distribuito gestite da BOINC e molte di queste riguardano proprio analisi scientifiche dei dati. Il perche’ di questo e’ facilmente comprensibile, le applicazioni scientifiche sono quelle che producono la maggior mole di dati e che richiederebbero super-computer sempre piu’ potenti per la loro analisi. Grazie a BOINC e al calcolo distribuito, e’ possibile sfruttare a titolo gratuito computer, smartphone e tablet privati per velocizzare il calcolo e risparmiare notevoli capitali che incidono fortemente sul costo della ricerca. Visto che lo abbiamo citato, BOINC nacque qualche anno fa proprio per gestire il progetto SETI@Home. Tra i programmi disponibili ora trovate ad esempio: LHC@Home per l’analisi dei dati del collisore LHC del CERN, Orbit@Home per l’analisi delle traiettorie degli asteroidi vicini alla Terra, Einstein@Home per la ricerca di onde gravitazionali e cosi’ via. Per una lista piu’ completa dei programmi scientifici di calcolo distribuito potete far riferimento alla pagina di Wikipedia che ne parla:

Wiki, esempi calcolo distribuito

Concludendo, al solito la notizia e’ stata data sui maggiori giornali con toni enfatici volti piu’ a impressionare che non ha mostrare l’importanza scientifica di applicazioni di questo tipo. Esempi di calcolo distribuito ce ne sono tantissimi e molti di questi sfruttano il servizio BOINC per dialogare con gli utenti che volontariamente decidono di sostenere un programma piuttosto che un altro. Power Sleep ha sicuramente un nobile scopo se pensiamo all’importanza del mantenimento del database Simap e per i risultati che ricerche di questo tipo dovrebbero portare per l’intero genere umano.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Studiare le stelle da casa

4 Feb

Dopo qualche giorno di assenza, purtroppo, al contrario di quello che pensano i catastrofisti, il mio lavoro non e’ solo fare disinformazione attraverso questo blog, eccoci di nuovo qui con un articolo di scienza pura.

Come avrete sentito, solo qualche giorno fa, e’ stato inaugurata a Padova la macchina acceleratrice “Prima”. Per dirla semplicemente, si tratta di una macchina in grado di accelerare atomi fino ad energie di 16 milioni di Watt. Questa importante infrastruttura nasce da una collaborazione tra l’Istituto di Fisica Nucleare, il CNR, l’ENEA, l’Universita’ di Padova e le Acciaierie Venete.

Ovviamente parliamo di un grande successo per la ricerca italiana. Pensandoci bene, mi rendo pero’ conto di come un successo di questo tipo, possa risultare abbastanza difficile da capire per un non addetto ai lavori. Detto in altri termini: a cosa serve questa macchina?

Molto semplice, come spesso avviene, ricerche di questo tipo sono assolutamente multidisciplinari e possono servire per condurre studi su tantissimi settori. Tra questi, quello che sicuramente interessa di piu’ e’ senza dubbio lo studio della fusione nucleare controllata.

Di fusione abbiamo parlato in diversi articoli:

Sole: quanta confusione!

La stella in laboratorio

mostrando come questo sia il processo attraverso il quale le stelle, e ovviamente il nostro Sole,  producono energia.  Purtroppo, ad oggi, non siamo ancora stati capaci di sfruttare la fusione per produrre energia per noi. Per essere piu’ precisi, ancora non siamo riusciti a realizzare un processo in cui l’energia necessaria per attivare la fusione sia maggiore di quella che poi viene data all’esterno. Detto in parole povere, ad oggi abbiamo ancora un processo “in cui ci rimettiamo”, cioe’ diamo piu’ energia rispetto a quella che otteniamo in uscita.

Una delle chimere della fusione nucleare, e’ senza dubbio il discorso della fusione fredda e di tutti quei processi che gli ruotano intorno. Anche di questi processi abbiamo parlato diverse volte in articoli come questi:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come sapete bene, e come potete verificare leggendo gli articoli citati, la nostra posizione non e’ mai stata di chiusura totale verso queste ipotesi solo che, e su questo non ho mai trovato una smentita reale e credibile, ad oggi non ci sono le prove necessarie per dimostrare scientificamente che queste soluzioni, ed in particolare l’E-Cat, siano in grado di funzionare.

Fatta questa doverosa premessa, torniamo a parlare di PRIMA.

Come visto negli articoli specifici sulla fusione, la ricerca ufficiale sta investendo molte risorse in alcuni progetti europei e mondiali di notevole portata. Tra questi, ruolo d’eccezione spetta sicurametne ad ITER. Come sapete bene, si tratta di un primo prototipio su grande scala di un reattore a fusione per ricerca. Tra alti e bassi, la costruzione di questa importante pietra miliare nella storia della fusione sta procedendo in Francia e speriamo possa portare i risultati sperati ed in grado di aprire le porte alla produzione di energia mediante la fusione mnucleare.

La macchina PRIMA studiera’ proprio la parte di, definiamola cosi’, iniezione di ITER, cioe’ il fascio neutro che servira’ per riscaldare il plasma fino alle temperature richieste per far partire la fusione. Oltre ad ITER, la macchina servira’ anche per studiare i materiali piu’ adatti per contenere la fusione e che saranno un punto molto importante anche nella costruzione del primo reattore, chiamato IFMIF, che sara’ costruito in Giappone.

Prima di chiudere, vorrei invitarvi ad una riflessione. Permettemi di riprendere quanto detto un po’ di tempo fa in questi articoli:

Perche’ la ricerca: scienza e tecnologia

Perche’ la ricerca: economia

Prima di tutto, gli studi condotti per la costruzione dei magneti di LHC sono stati fondamentali per la costruzione dei magneti da utilizzare su PRIMA. Questo solo per dire come la ricerca non e’ mai fine a se stessa ma consente di farci applicare studi condotti su un particolare settore a qualcosa di diverso, non dovendo ogni volta ripartire da zero. Oltre a questo, per parlare invece di economia, la costruzione di macchine di questo tipo mettono sempre in moto un’economia assolutamente non trascurabile. Cosi’ come e’ avvenuto per LHC, anche per PRIMA ci sono state importanti commesse per le aziende italiane non solo legate alla costruzione di magneti. Questo solo per ribadire come i soldi dati alla ricerca rappresentino sempre un investimento. Purtroppo, il tasso di interesse o i tempi per poter maturare questo tasso non sono sempre scritti o sicuri anzi, lasciatemi dire, possono maturare in settori completamente diversi.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Dafne e KLOE: alte energie in Italia

31 Ago

In questi mesi, diversi lettori mi hanno chiesto di cosa mi occupassi precisamente. Come abbiamo imparato a conoscere attraverso alcuni articoli specifici, la fisica delle alte energie e’ molto vasta, con diversi esperimenti sparsi per il mondo. Nel mio caso specifico, ho partecipato e partecipo tutt’ora a diversi progetti in Italia, in Svizzera e negli Stati Uniti. Per darvi un’idea piu’ precisa, vorrei in questo articolo parlarvi di uno di questi progetti, KLOE, al quale sono per motivi affettivi piu’ legato, e che si trova ai Laboratori Nazionali di Frascati dell’Istituto Nazionale di Fisica Nucleare. Perche’ sono affezionato a questo esperimento? Semplice, oltre a trovarsi nel paese in cui sono nato, cresciuto ed in cui tutt’ora vivo, proprio su questo esperimento ho iniziato la mia carriera di fisico nel 2003, prima con la tesi di laurea, poi con il dottorato di ricerca e su cui, ancora oggi, lavoro.

Prima di tutto, e’ necessario che vi dia qualche informazione aggiuntiva. Purtroppo, mentre tutti hanno sentito parlare di CERN e LHC, pochi sanno che anche in Italia si fanno studi importanti e molto sofisticati di fisica delle alte energie. I laboratori Nazionali di Frascati sono il piu’ grande laboratorio di Fisica delle alte energie dell’INFN. Sono stati fondati nel 1955 e proprio qui e’ nata la fisica degli acceleratori. Da un’intuizione di Bruno Touschek proprio a Frascati e’ stata realizzata AdA nel 1960. Cosa sarebbe Ada? Come sapete, nei moderni acceleratori quello che si fa e’ far girare fasci di particelle ad altissima energia per farli poi scontrare in un punto preciso. Da questo scontro, grazie alla relazione di Einstein E=mc^2, possiamo creare particelle diverse da studiare per comprendere importanti meccanismi della natura. Facendo aumentare l’energia, possiamo di volta in volta scoprire particelle nuove. Fino al 1960, quest’idea nemmeno esisteva. Grazie all’esperimento AdA, che sta per Anello di Accumulazione, venne dimostrato come fosse possibile impacchettare fasci di particelle, farle muovere su orbite circolari e poi farle scontrare in un punto deciso a priori. Grazie proprio ad AdA vennero compresi importanti effetti di fisica dei fasci, importanti ancora oggi, tra questi, ad esempio, il cosiddetto Effetto Touchek dovuto all’interazione delle particelle nello stesso pacchetto.

Dal punto di vista delle particelle, AdA non scopri’ nessuna particella nuova. Questo e’ naturale se vedete la foto:

AdA: anello di accumulazione

AdA: anello di accumulazione

L’esperimento aveva un diametro di poco superiore al metro ed un’energia bassissima. Nonostante questo, AdA apri’ la strada ai futuri acceleratori. Subito dopo AdA, sempre a Frascati, si inizio’ a studiare qualcosa di piu’ grande, un vero e proprio collissore si particelle che oltre a far circolare i fasci, potesse accelerarli e curvarli. Nel 1967 venne dunque innaugurato Adone, che sta appunto per Big-AdA. Eccovi una foto di Adone:

Adone ai Laboratori Nazionali di Frascati

Adone ai Laboratori Nazionali di Frascati

Si tratta di un anello vero e proprio, molto piu’ simile a quelli attuali, con un diametro inferiore ai 100 metri e che poteva raggiungere la folle energia per l’epoca di 3GeV, ottenuta facendo scontrare fasci di elettroni e positroni. Per fare un confronto, oggi LHC e’ stato progettato per avere un’energia di 14TeV, cioe’ 14000GeV. Adone e’ stato il primo acceleratore moderno della storia. Capite dunque che la fisica dei collissori e’ nata a Frascati, laboratorio con una grandissima tradizione in questo settore e che, ancora oggi, ricopre un ruolo importante nei laboratori di tutto il mondo.

Ora cosa si studia a Frascati? Oggi in questi laboratori ci sono tantissimi gruppi che si occupano di fisica nucleare, fisica delle alte energie, astrofisica, astroparticelle, fisica della materia, fisica medica. Tra questi settori, un ruolo fondamentale e’ ricorperto ancora oggi dala fisica degli acceleratori e dal progetto KLOE a Dafne.

Dafne, il collisore attualmente in funzione ai Laboratori di Frascati

Dafne, il collisore attualmente in funzione ai Laboratori di Frascati

Dafne e’ l’attuale collissore dei laboratori che ha preso i primi dati utili nel 2000. Si tratta di sistema costituito da due anelli, uno per elettroni ed uno per positroni, che vengono fatti scontrare ad un’energia di poco superiore ad 1GeV. Perche’ un’energia cosi’ bassa? Al contrario di LHC, che e’ un esperimento di scoperta, in cui dunque si deve raggiungere la massima energia possibile per creare nuove particelle, Dafne e’ una macchina di precisione. Questa categoria di anelli, lavorano ad un’energia ben precisa, calibrata per massimizzare la produzione di determinate particelle. Nel caso di Dafne, la macchina e’ una fabbrica di mesoni Phi, Phi-factory.

Di modello standard, materia strana, antimateria, ecc, abbiamo parlato in questi post:

Piccolo approfondimento sulla materia strana

Due parole sull’antimateria

Antimateria sulla notra testa!

Bosone di Higgs … ma che sarebbe?

La materia oscura

Cosa sarebbe invece la Phi? Detto molto semplicemente, si tratta di una risonanza, cioe’ uno stato legato tra due quark (uno strange ed un anti-strange), che vive un tempo brevissimo dopo di che decade in qualche altra cosa. Tra i possibili canali di decadimento, tra i piu’ probabili ci sono quelli in coppie di Kaoni. Attenzione, il discorso sembra complicato, ma non lo e’. In fisica, ogni particella ha il suo nome. I kaoni sono soltanto una famiglia di particelle in cui rientrano diversi elementi: K carichi, K neutri, K lunghi, K corti, ecc.

Bene, a Dafne si vogliono studiare questi Kaoni e per produrli e’ necessario avere una macchina in grado di creare tantissime Phi. Perche’?

In questo articolo:

E parliamo di questo Big Bang

abbiamo parlato del meccanismo del Big Bang, vedendo come in seguito a questa esplosione, si e’ verificato uno sbilancio tra materia ed antimateria, che ha portato alla scomparsa della seconda e alla formazione di un universo di materia. Se ben ricordate, abbiamo anche detto come, dal punto di vista teorico, questo meccanismo e’ teoricamente possibile supponendo che siano avvenute determinate condizioni, dette di Sacharov. Tra queste, vi e’ una violazione di CP, cioe’ proprio uno squilibrio tra materia ed antimateria che porta nei decadimenti a preferire stati finali piu’ ricchi di materia.

Cosa c’entrano i kaoni con la violazione di CP?

Nel 1974, decadimenti con violazione di CP venero osservati per la prima volta per un membro della famiglia dei Kaoni, il K long. Ad oggi, oltre che nei Kaoni, la violazione di CP e’ stata osservata anche nei mesoni B. Detto questo, capite bene l’importanza di questi studi. Comprendere a fondo la violazione di CP e le sue conseguenze, ci permette di capire meglio l’origine stessa dell’universo.

L’esperimento operante a Dafne e che studia proprio i decadimenti delle particelle e’ KLOE, un complesso sistema di rivelatori pensato per registrare ed osservare tutte le particelle che entrano nei vari decadimenti.

L'esperimento KLOE installato all'interno di Dafne

L’esperimento KLOE installato all’interno di Dafne

Attraverso i dati raccolti e’ possibile ricostruire l’intero evento e capire che tipologia di decadimento e’ avvenuto. Per fare questo sono necessari diversi rivelatori, ognuno specializzato per determinate particelle, pensati e realizzati in modo del tutto unico direttamente ai laboratori di Frascati.

Perche’ ancora oggi a distanza di anni KLOE e Dafne sono in funzione?

Vista la rarita’ dei decadimenti che si vogliono studiare, e’ necessario raccogliere un campione molto vasto di dati. Detto in altri termini, poiche’ la probabilita’ di avere il decadimento che cercate e’ molto bassa, dovete raccogliere un campione molto grande di Phi per poter avere la statistica necessaria a fare questi studi.

KLOE ha preso dati fino al 2006 raccogliendo un campione cospicuo di Phi. Oltre alla violazione di CP,  KLOE ha posto importanti limiti in tantissimi decadimenti, studiato la gravita’ quantistica, osservato per la prima volta decadimenti mai visti prima, ecc. Tutti risultati di prim’ordine che hanno dato lustro alla fisica delle alte energie in Italia.

Nel 2008 e’ stato poi pensato, sempre a Frascati, un nuovo meccanismo di collissione dei fasci che permetterebbe a KLOE di raggiungere “luminosita’” piu’ elevate, cioe’, modificando solo la zona di interazione dei fasci, si potrebbero accumulare molti piu’ dati a partita’ di tempo. Questa modifica e’ importantissima per un esperimento di precisione come KLOE che dunque potrebbe andare a studiare nuovi settori e migliorare notevolmente i canali gia’ studiati. Proprio per questo motivo, si e’ deciso di iniziare un nuovo periodo di presa dati per KLOE.

Cosa e’ successo tra il 2009 e il 2013?

In questo periodo di tempo, KLOE, costruito come detto un decennio prima, ha pensato di realizzare nuovi rivelatori da installare vicino alla zona di interazione, proprio per migliorare la sua sensibilita’ sfruttando idee nuove e le ultime migliorie pensate in questi anni. Questi nuovi dispositivi sono rivelatori molto complessi e compatti che hanno richiesto diversi anni prima di essere ottimizzati e realizzati. Prima di questa estate, i nuovi rivelatori sono stati installati con successo ed in questi giorni si sta lavorando per ottimizzare il tutto e prepararci alla nuova presa dati dell’esperimento KLOE, ora chiamato KLOE-2. L’accensione di tutto il sistema e’ prevista per il 9 settembre, giorno di inizio di una lunga presa dati che portera’ sicuramente a nuovi ed importanti studi.

Come potete capire, la fisica delle alte energie non e’ riservata al CERN. I fisici italiani, oltre ad avere ruoli importanti nei grandi laboratori del mondo, sono anche attivi nel nostro paese con esperimenti di precisione, importantissimi per capire come funziona il nostro universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

I buchi neri che … evaporano

16 Ago

Uno degli aspetti che da sempre fa discutere e creare complottismi su LHC, e’ di sicuro la possibilita’ di creare mini buchi neri. Questa teoria nasce prendendo in considerazione le alte energie in gioco all’interno del collissore del CERN e la possibilita’ che nello scontro quark-quark possa venire a crearsi una singolarita’ simile a quella dei buchi neri.

Se avete perso i precedenti articoli, di LHC abbiamo parlato in questi post:

2012, fine del mondo e LHC

Bosone di Higgs … ma che sarebbe?

Sia ben chiaro, la storia dei buchi neri non e’ la sola creata su LHC. Il CERN ogni giorno riceve lettere che chiedono la chiusura dell’esperimento per il pericolo che questo rappresenta per l’intera terra. Diverse volte il CERN e’ anche stato chiamato in giudizio a fronte di vere e proprie denuncie di pseudo scienziati che lo accusavano farneticando teorie senza capo ne’ coda. Come potete immaginare, tutte le volte le accuse sono state rigettate e non solo LHC il prossimo anno ripartira’, ma a gia’ fornito risultati fisici di prim’ordine.

Perche’ si discute tanto di buchi neri? Qui ognuno puo’ formulare la propria ipotesi. Io ho una mia idea. Parlare di buchi neri, e’ qualcosa che da sempre stimola la curiosita’ e il timore delle persone. Un buco nero e’ visto come qualcosa di misterioso che vive nel nostro universo con caratteristiche uniche nel suo genere: mangia tutto cio’ che gli capita a tiro senza far uscire nulla. L’idea di poter avere un mostro del genere qui sulla terra, scatena gli animi piu’ catastrofisti pensando a qualcosa che nel giro di qualche minuto sarebbe in grado di divorare Ginevra, la Svizzera, il mondo intero.

Come anticipato, LHC e’ ora in stato di fermo. Si sta lavorando incessantemente per migliorare i rivelatori che vi operano al fine di ottenere risultati sempre piu’ accurati e affidabili. Alla ripartenza, avendo ormai preso piu’ confidenza con la macchina, si pensa anche di poter aumentare l’energia del centro di massa, cioe’ quella a disposizione per creare nuove particelle, portandola da 7 a 10 TeV. Come e’ ovvio, questa notizia non poteva che riaccendere gli animi catastrofisti. Al momento non si e’ creato nessun buco nero perche’ l’energia era troppo bassa, gli scienziati stanno giocando con il fuoco e porteranno alla distruzione della Terra. Queste sono le argomentazioni che cominciate a leggere in rete e che non potranno che riaumentare avvicinandoci al momento della ripartenza.

Se anche dovesse formarsi un mini buco nero, perche’ gli scienziati sono tanto sicuri che non accadra’ nulla? Come sapete, si parla di evaporazione dei buchi neri. Una “strana” teoria formulata dal fisico inglese Stephen Hawking ma che, almeno da quello che leggete, non e’ mai stata verificata, si tratta solo di un’idea e andrebbe anche in conflitto con la meccanica quantistica e la relativita’. Queste sono le argomentazioni che leggete. Trovate uno straccio di articolo a sostegno? Assolutamente no, ma, leggendo queste notizie, il cosiddetto uomo di strada, non addetto ai lavori, potrebbe lasciarsi convincere che stiamo accendendo una miccia, pensando che forse si spegnera’ da sola.

Date queste premesse, credo sia il caso di affrontare il discorso dell’evaporazione dei buchi neri. Purtroppo, si tratta di teorie abbastanza complicate e che richiedono molti concetti fisici. Cercheremo di mantenere un profilo divulgativo al massimo, spesso con esempi forzati e astrazioni. Cio’ nonostante, parleremo chiaramente dello stato dell’arte, senza nascondere nulla ma solo mostrando risultati accertati.

Cominciamo proprio dalle basi parlando di buchi neri. La domanda principale che viene fatta e’ la seguente: se un buco nero non lascia sfuggire nulla dal suo interno, ne’ particelle ne’ radiazione, come potrebbe evaporare, cioe’ emettere qualcosa verso l’esterno? Questa e’ un’ottima domanda, e per rispondere dobbiamo capire meglio come e’ fatto un buco nero.

Secondo la teoria della relativita’, un buco nero sarebbe un oggetto estremamente denso e dotato di una gravita’ molto elevata. Questa intensa forza di richiamo non permette a nulla, nemmeno alla luce, di sfuggire al buco nero. Essendo pero’ un oggetto molto denso e compatto, questa forza e’ estremamente concentrata e localizzata. Immaginatelo un po’ come un buco molto profondo creato nello spazio tempo, cioe’ una sorta di inghiottitoio. La linea di confine tra la singolarita’ e l’esterno e’ quello che viene definito l’orizzonte degli eventi. Per capire questo concetto, immaginate l’orizzonte degli eventi come una cascata molto ripida che si apre lungo un torrente. Un pesce potra’ scendere e risalire il fiume senza problemi finche’ e’ lontano dalla cascata. In prossimita’ del confine, cioe’ dell’orizzonte degli eventi, la forza che lo trascina giu’ e’ talmente forte che il pesce non potra’ piu’ risalire e verra’ inghiottito.

Bene, questo e’ piu’ o meno il perche’ dal buco nero non esce nulla, nemmeno la luce. Dunque? Come possiamo dire che il buco nero evapora in queste condizioni?

La teoria dell’evaporazione, si basa sulle proprieta’ del vuoto. Come visto in questo articolo:

Se il vuoto non e’ vuoto

nella fisica, quello che immaginiamo come vuoto, e’ un continuo manifestarsi di coppie virtuali particella-antiparticella che vivono un tempo brevissimo e poi si riannichilano scomparendo. Come visto nell’articolo, non stiamo parlando di idee campate in aria, ma di teorie fisiche dimostrabili. L’effetto Casimir, dimostrato sperimentalmente e analizzato nell’articolo citato, e’ uno degli esempi.

Ora, anche in prossimita’ del buco nero si creeranno coppie di particelle e questo e’ altresi’ possibile quasi in prossimita’ dell’orizzonte degli eventi. Bene, ragioniamo su questo caso specifico. Qualora venisse creata una coppia di particelle virtuali molto vicino alla singolarita’, e’ possibile che una delle due particelle venga assorbita perche’ troppo vicina all’orizzonte degli eventi. In questo caso, la singola particella rimasta diviene, grazie al principio di indeterminazione di Heisenberg, una particella reale. Cosa succede al buco nero? Nei testi divulgativi spesso leggete che il buco nero assorbe una particella con energia negativa e dunque diminuisce la sua. Cosa significa energia negativa? Dal vuoto vengono create due particelle. Per forza di cose queste avranno sottratto un po’ di energia dal vuoto che dunque rimarra’ in deficit. Se ora una delle due particelle virtuali e’ persa, l’altra non puo’ che rimanere come particella reale. E il deficit chi lo paga? Ovviamente il buco nero, che e’ l’unico soggetto in zona in grado di pagare il debito. In soldoni dunque, e’ come se il buco nero assorbisse una particella di energia negativa e quindi diminuisse la sua. Cosa succede alla particella, ormai reale, rimasta? Questa, trovandosi oltre l’orizzonte degli eventi puo’ sfuggire sotto forma di radiazione. Questo processo e’ quello che si definisce evaporazione del buco nero.

Cosa non torna in questo ragionamento?

Il problema principale e’, come si dice in fisica, che questo processo violerebbe l’unitarieta’. Per le basi della meccanica quantistica, un qualunque sistema in evoluzione conserva sempre l’informazione circa lo stato inziale. Cosa significa? In ogni stato e’ sempre contenuta l’indicazione tramite la quale e’ possibile determinare con certezza lo stato precedente. Nel caso dei buchi neri che evaporano, ci troviamo una radiazione termica povera di informazione, creata dal vuoto, e che quindi non porta informazione.

Proprio da questa assunzione nascono le teorie che potete leggere in giro circa il fatto che l’evaporazione non sarebbe in accordo con la meccanica quantistica. Queste argomentazioni, hanno fatto discutere anche i fisici per lungo tempo, cioe’ da quando Hawking ha proposto la teoria. Sia ben chiaro, la cosa non dovrebbe sorprendere. Parlando di buchi neri, stiamo ragionando su oggetti molto complicati e per i quali potrebbero valere  leggi modificate rispetto a quelle che conosciamo.

Nonostante questo, ad oggi, la soluzione al problema e’ stata almeno “indicata”. Nel campo della fisica, si racconta anche di una famosa scommessa tra Hawking e Preskill, un altro fisico teorico del Caltech. Hawking sosteneva che la sua teoria fosse giusta e che i buchi neri violassero l’unitarieta’, mentre Perskill era un fervido sostenitore della inviolabilita dei principi primi della meccanica quantistica.

La soluzione del rebus e’ stata indicata, anche se ancora non confermata, come vedremo in seguito, chiamando in causa le cosiddette teorie di nuova fisica. Come sapete, la teoria candidata a risolvere il problema della quantizzazione della gravita’ e’ quella delle stringhe, compatibile anche con quella delle brane. Secondo questi assunti, le particelle elementari non sarebbero puntiformi ma oggetti con un’estensione spaziale noti appunto come stringhe. In questo caso, il buco nero non sarebbe piu’ una singolarita’ puntiforme, ma avrebbe un’estensione interna molto piu’ complessa. Questa estensione permette pero’ all’informazione di uscire, facendo conservare l’unitarieta’. Detto in altri termini, togliendo la singolarita’, nel momento in cui il buco nero evapora, questo fornisce ancora un’indicazione sul suo stato precedente.

Lo studio dei buchi neri all’interno della teoria delle stringhe ha portato al cosiddetto principio olografico, secondo il quale la gravita’ sarebbe una manifestazione di una teoria quantistica che vive in un numero minore di dimensioni. Esattamente come avviene in un ologramma. Come sapete, guardando un ologramma, riuscite a percepire un oggetto tridimensionale ma che in realta’ e’ dato da un immagine a 2 sole dimensioni. Bene, la gravita’ funzionerebbe in questo modo: la vera forza e’ una teoria quantistica che vive in un numero ridotto di dimensioni, manifestabili, tra l’altro, all’interno del buco nero. All’esterno, con un numero di dimensioni maggiori, questa teoria ci apparirebbe come quella che chiamiamo gravita’. Il principio non e’ assolutamente campato in aria e permetterebbe anche di unificare agevolmente la gravita’ alle altre forze fondamentali, separate dopo il big bang man mano che l’universo si raffreddava.

Seguendo il ragionamento, capite bene il punto in cui siamo arrivati. Concepire i buchi neri in questo modo non violerebbe assolutamente nessun principio primo della fisica. Con un colpo solo si e’ riusciti a mettere insieme: la meccanica quantistica, la relativita’ generale, il principio di indeterminazione di Heisenberg, le proprieta’ del vuoto e la termodinamica studiando la radiazione termica ed estendendo il secondo principio ai buchi neri.

Attenzione, in tutta questa storia c’e’ un pero’. E’ vero, abbiamo messo insieme tante cose, ma ci stiamo affidando ad una radiazione che non abbiamo mai visto e alla teoria delle stringhe o delle brance che al momento non e’ confermata. Dunque? Quanto sostenuto dai catastrofisti e’ vero? Gli scienziati rischiano di distruggere il mondo basandosi su calcoli su pezzi di carta?

Assolutamente no.

Anche se non direttamente sui buchi neri, la radiazione di Hawking e’ stata osservata in laboratorio. Un gruppo di fisici italiani ha osservato una radiazione paragonabile a quella dell’evaporazione ricreando un orizzonte degli eventi analogo a quello dei buchi neri. Come visto fin qui, l’elemento fondamentale del gioco, non e’ il buco nero, bensi’ la curvatura della singolarita’ offerta dalla gravita’. Bene, per ricreare un orizzonte degli eventi, basta studiare le proprieta’ ottiche di alcuni materiali, in particolare il loro indice di rifrazione, cioe’ il parametro che determina il rallentamento della radiazione elettromagnetica quando questa attraversa un mezzo.

Nell’esperimento, si e’ utilizzato un potente fascio laser infrarosso, in grado di generare impulsi cortissimi, dell’ordine dei miliardesimi di metro, ma con intensita’ miliardi di volte maggiore della radiazione solare. Sparando questo fascio su pezzi di vetro, il punto in cui la radiazione colpisce il mezzo si comporta esattamente come l’orizzonte degli eventi del buco nero, creando una singolarita’ dalla quale la luce presente nell’intorno non riesce ad uscire. In laboratorio si e’ dunque osservata una radiazione con una lunghezza d’onda del tutto paragonabile con quella che ci si aspetterebbe dalla teoria di Hawking, tra 850 e 900 nm.

Dunque? Tutto confermato? Se proprio vogliamo essere pignoli, no. Come visto, nel caso del buco nero gioca un ruolo determinante la gravita’ generata dal corpo. In laboratorio invece, la singolarita’ e’ stata creata otticamente. Ovviamente, mancano ancora degli studi su questi punti, ma l’aver ottenuto una radiazione con la stessa lunghezza d’onda predetta dalla teoria di Hawking e in un punto in cui si genera un orizzonte degli eventi simile a quello del buco nero, non puo’ che farci sperare che la teoria sia giusta.

Concludendo, l’evaporazione dei buchi neri e’ una teoria molto complessa e che richiama concetti molto importanti della fisica. Come visto, le teorie di nuova fisica formulate in questi anni, hanno consentito di indicare la strada probabile per risolvere le iniziali incompatibilita’. Anche se in condizioni diverse, studi di laboratorio hanno dimostrato la probabile esistenza della radiazione di Hawking, risultati che confermerebbero l’esistenza della radiazione e dunque la possibilita’ dell’evaporazione. Ovviamente, siamo di fronte a teorie in parte non ancora dimostrate ma solo ipotizzate. I risultati ottenuti fino a questo punto, ci fanno capire pero’ che la strada indicata potrebbe essere giusta.

Vorrei chiudere con un pensiero. Se, a questo punto, ancora pensate che potrebbero essere tutte fantasie e che un buco nero si potrebbe creare e distruggere la Terra, vi faccio notare che qui parliamo di teorie scientifiche, con basi solide e dimostrate, e che stanno ottenendo le prime conferme da esperimenti diretti. Quando leggete le teorie catastrofiste in rete, su quali basi si fondano? Quali articoli vengono portati a sostegno? Ci sono esperimenti di laboratorio, anche preliminari ed in condizioni diverse, che potrebbero confermare quanto affermato dai catastrofisti?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

IceCube e l’esplorazione del cosmo con i neutrini

22 Mag

Nell’articolo precedente, abbiamo parlato di neutrini:

EniGma con Nadir Mura

come visto nell’intervista, e come sicuramente ricorderete, queste particelle sono balzate agli onori delle cronache soprattutto a seguito della misura, poi trovata affetta da errori strumentali, che voleva i neutrini viaggiare ad una velocita’ superiore a quella della luce.

Ora, vorrei tornare nuovamente a parlare di queste particelle, a causa di una nuova misura fisica che sta facendo molto discutere.

Come sappiamo bene, i neutrini sono particelle molto particolari soprattutto a cusa della loro bassa probabilita’ di interazione con la materia, che li rende difficilmente rivelabili. Fino a pochi ani fa, si pensava addirittura che i neutrini non avessero massa, cosa smentita poi grazie alla ricerca e all’osservazione dell’oscillazione dei neutrini, cioe’ della proprieta’ di queste particelle di trasformarsi durante il cammino da una famiglia all’altra.

Proprio a causa di queste proprieta’ cosi’ particolari, i neutrini vengono studiati in diversi esperimenti e, molto spesso, in condizioni quasi estreme. Come detto, la bassa probabilita’ di osservazione, impone agli esperimenti di eliminare all’origine tutto il “rumore” da altre fonti, cioe’ quanto piu’ possibile, ogni altro evento prodotto da particelle diverse e che rischierebbe di coprire, a cuasa della maggiore probabilita’, i neutrini da rivelare.

Proprio per qusto motivo, si sente spesso parlare di rivelatori disposti in angoli remoti del mondo, all’interno delle miniere, sotto kilometri di roccia come nei laboratoridel Gran Sasso o anche immersi ad elevate profondita’ nel mare. Il motivo di questo e’, come anticipato, avere uno schermo naturale in grado di fermare le altre particelle lascinado passare i neutrini. Questi ultimi, a causa della bassa probabilita’ di interazione, passano con molta facilita’ kilometri di materiale senza interagire con la materia.

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Dopo questa doverosa introduzione, vorrei parlarvi di IceCube, uno dei maggiori rivelatori di neutrini, costruito addirittura sotto i ghiacci dell’Antartide. IceCube e’ composto da un elevato numero di elementi sensibili, sepolti ad ua profondita’ variabile tra 1500 e 2500 metri di ghiaccio. La matrice cosi’ ottenuta consente di avere una superficie da rivelare dell’odine di 1 kilometro cubo.

Perche’ sto parlando di neutrini ed in particolare di IceCube?

Scopo di questi esperimenti e’ quello di studiare i neutrini provenienti dal sole o dai raggi cosmici, anche per rivelare nuove sorgenti astrofisiche. Il motivo di questo e’ molto semplice: studire le emissioni di neutrini da parte di oggetti nell’universo, consente di ottenere una sorta di telescopio con queste particelle e dunnque poter analizzare, anche in questo modo, lo spazio che ci circonda.

Bene, l’anno scorso, quasi per caso, IceCube ha individuato due neutrini con l’energia piu’ alta mai registrata sulla Terra, dell’ordine del petaelettronvolt. Per capire quanto sia elevata questa energia, basti pensare che LHC, il grande collisore del CERN, fa scontrare particelle con energia di 3.5 teraelettronvolt, cioe’ circa 300 volte inferiore a quella osservata da ICeCube. Durante l’analisi dei dati condotta per studiare questi eventi particolari, ci si e’ accorti che tra il 2010 e il 2012, il rivelatore avrebbe visto 26 eventi di alta energia, circa 10 volte quella di LHC.

Perche’ sono importanti questi eventi? Nel nostro sistema solare, l’unica sorgente di neutrini presente e’ il Sole. Questi pero, avendo energia molto piu’ bassa, non possono aver generato quanto osservato dai fisici di IceCube. Come potete capire, si tratta, con ottima probabilita’, di una sorgente extragalattica, non ancora identificata.

Dai modelli elaborati, le sorgenti di neutrini nello spazio potrebbero essere le esplosioni di Supernovae, i gamma ray burst o i quasar. Nell’idea, come anticipato, di realizzare un telescopio a neutrini dell’universo, molto interessante sarebbe individuare questa sorgente. Purtroppo, ad oggi, questo non e’ stato ancora possibile, soprattutto a causa dei pochi eventi raccolti all’esperimento.

Anche se manca la spiegazione ufficiale, possaimo provare a formulare ipotesi circa l’origine di questi eventi, soprattutto per capire l’importanza di questo risultato.

Dei gamma ray burst abbiamo parlato in questo post:

WR104: un fucile puntato verso la Terra?

Ccome visto, la conoscenza di questi eventi, ma soprattutto, eventualmente, il poter studiare il loro comportamento diretto, ci permetterebbe di aumentare la nostra conoscenza dell’universo e, perche’ no, magari in futuro farci confermare o smentire idee catastrofiste.

In passato, precisamente nel 1987, sulla Terra arrivarono, ad esempio, i neutrini prodotti da una supernova molto distante nella Nube di Magellano. Anche in questo caso, eventi come quelli delle esplosioni di supernovae ci consentono di comprendere meglio importanti meccanismi alla base dell’universo.

Altre ipotesi formulate riguardano invece la materia oscura, di cui abbiamo parlato in questi post:

La materia oscura

Troppa antimateria nello spazio

Come visto, ad oggi, ci accorgiamo della presenza di materia oscura mediante considerazioni indirette. Purtroppo, non e’ stato ancora possibile individuare questa curiosa forma di materia, anche se molte ipotesi sono state formulate. Proprio l’astrofisica a neutrini potrebbe aiutare a sciogliere qualche riserva. Secondo alcune ipotesi infatti, i neutrini potrebbero essere stati prodotti dallo scontro di materia oscura nel centro della nostra Galassia. In questo caso, studiare in dettaglio i parametri dei candidati, aiuterebbe molto ad individuare la sorgente di produzione dei neutrini ma anche, e soprattutto, di ottenere maggiori informazioni sull’origine della Via Lattea e sulla natura della meteria oscura.

Concludendo, IceCube ha individuato 26 neutrini di alta energia che hanno attraversato i suoi rivelatori. Statisticamente, la probabilita’ che si tratti di un errore e’ inferiore  allo 0,004% per cui sara’ interessante analizzare i dati e capire meglio quali test organizzare nel futuro per cercare di risolvere importanti dubbi che ormai da troppo tempo sono in attesa di una spiegazione ufficiale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sullo squilibrio tra materia e antimateria

27 Apr

In diverse occasioni abbiamo parlato di antimateria, mostrando in particolare le proprieta’ di questa e cercando anche di rispondere ai tanti quesiti che spesso restano insoluti nei non addetti ai lavori:

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

In particolare, il discorso principale sull’antimateria non risiede tanto nella sua produzione oggi, bensi’ sul perche’, durante le prime fasi del big bang, la materia sia riuscita a dominare formando l’universo che oggi vediamo. Di questi importanti concetti abbiamo parlato in questo post:

E parliamo di questo Big Bang

Come visto, il modello teorico che spiega come la materia sia riuscita a dominare sulla controparte prevede tre condizioni, dette di Sakharov in onore del fisico russo che le ha formulate, di cui una riguarda quella che in fisica e’ nota come violazione di CP. Come visto nel post precedente, la violazione di questa proprieta’ delle particelle, indica chiaramente uno squilibrio tra materia e antimateria.

Decadimenti con violazione di CP sono stati osservati in alcune particelle, ma l’intensita’ di questa violazione e’ ancora non sufficiente a confermare quanto proposto da Sakharov.

Proprio pochi giorni fa, l’esperimento LhCB del Cern ha annunciato una nuova importante misura condotta studiando i decadimenti delle particelle Bs.

Cerchiamo di andare con ordine e di capire insieme di cosa si tratta.

Ovviamente, il CERN, cosi’ come LHC, sono divenuti famosi per la ricerca del bosone di Higgs, di cui abbiamo parlato in questo post:

Bosone di Higgs … ma cosa sarebbe?

La collaborazione LhCB nella caverna dove e' montato l'esperimento

La collaborazione LhCB nella caverna dove e’ montato l’esperimento

Oltre ad Atlas e CMS, che sono gli esperimenti che partecipano direttamente alla ricerca del famoso bosone, esistono anche altri 2 rivelatori installati su LHC, chiamati LhCB e Alice. Avendo a disposizione un acceleratore di prim’ordine, e’ ovviamente possibile pensare misure molto importanti di fisica, aprendo gli scenari a scoperte molto importanti nella ricerca di base.

Questa volta, parliamo dunque di LhCB. Si tratta di un esperimento interamente dedicato allo studio dei mesoni “B”, cioe’ composti che includono un quark “bottom”. I mesoni “B” sono estremamente instabili e decadono in brevissimo tempo in altre particelle. Nonostante questo, si pensa che queste particelle fossero molto presenti nel neonato universo e abbiano avuto un ruolo molto importante proprio nella formazione di quello che oggi vediamo. Per alcuni mesoni B, e’ stata gia’ osservata la violazione di CP, di cui parlavamo prima, ma nonostante questo, vista la diretta relazione tra i B ed il Big Bang, uno studio attento e preciso, come solo LHC puo’ permettere, e’ molto importante per capire meglio queste dinamiche.

Detto questo, proprio negli ultimi giorni, LhCB ha annunciato di aver ottenuto importanti risultati nello studio dei decadimenti del Bs, cioe’ di mesoni B contenenti anche quark strange. Studiando un campione di circa 1000 eventi, i fisici di LhCB hanno evidenziato come in quasi 700 casi, i mesoni anti-Bs, cioe’ le antiparticelle, scomparivano decadendo in qualcos’altro. Al contrario, solo in  meno di 400 casi, la stessa cosa avveniva per i Bs, cioe’ le particelle ordinarie.

Cosa significa questo?

Molto semplicemente, e’ stata evidenziata una nuova asimmetria nell’universo. Come potete capire dai numeri riportati, le antiparticelle tendono a decadere, dunque a scomparire, con una probabilita’ maggiore rispetto a quella delle particelle. Detto in altri termini, la natura tende, in questo caso, a far dominare la materia rispetto all’antimateria.

Come detto, questo e’ esattamente quanto accaduto nei primi istanti dell’universo, quando l’equilibrio tra materia e antimateria e’ venuto meno, facendo scomparire quest’ultima e creando il nostro universo di sola materia.

Purtroppo, anche in questo caso, l’intensita’ della violazione osservata, non e’ ancora sufficiente a spiegare i forti meccanismi avvenuti nel baby universo. Molto probabilmente, per spiegare questo sara’ necessario parlare di nuova fisica, cioe’ di particelle e proprieta’ non predette dal modello standard. Sicuramente, la misura fatta da LhCB apre nuovi scenari e ancora molto ci si aspetta da questo esperimento, soprattutto in relazione alle ottime performance che LHC sta regalando ai quattro esperimenti installati.

Concludendo, la misura annunciata da LhCB in questi giorni, ed in via di pubblicazione, evidenzia una nuova asimmetria nella natura, o meglio un nuovo squilibrio tra materia e antimateria. Uno studio attento di queste proprieta’ e’ di fondamentale importanza per capire meglio come si e’ formato il nostro universo. Sicuramente, LHC ci regalera’ ancora tantissime nuove scoperte che, come evidenziato da questo articolo, non devono essere pensate limitate solo al bosone di Higgs.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.