Tag Archives: semplice

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tutti i movimenti della Terra

27 Giu

Proprio ieri, una nostra cara lettrice ci ha fatto una domanda molto interessante nella sezione:

Hai domande o dubbi?

Come potete leggere, si chiede se esiste una correlazione tra i moti della Terra e l’insorgere di ere di glaciazione sul nostro pianeta. Rispondendo a questa domanda, mi sono reso conto come, molto spesso, e non è certamente il caso della nostra lettrice, le persone conoscano solo i moti principali di rotazione e rivoluzione. A questo punto, credo sia interessante capire meglio tutti i movimenti che il nostro pianeta compie nel tempo anche per avere un quadro più completo del moto dei pianeti nel Sistema Solare. Questa risposta, ovviamente, ci permetterà di rispondere, anche in questa sede, alla domanda iniziale che è stata posta.

Dunque, andiamo con ordine, come è noto la Terra si muove intorno al Sole su un’orbita ellittica in cui il Sole occupa uno dei due fuochi. Questo non sono io a dirlo, bensì questa frase rappresenta quella che è nota come I legge di Keplero. Non starò qui ad annoiarvi con tutte le leggi, ma ci basta sapere che Keplero fu il primo a descrivere cinematicamente il moto dei pianeti intorno ad un corpo più massivo. Cosa significa “cinematicamente”? Semplice, si tratta di una descrizione completa del moto senza prendere in considerazione il perché il moto avviene. Come sapete, l’orbita è ellittica perché è la legge di Gravitazione Universale a spiegare la tipologia e l’intensità delle forze che avvengono. Bene, detto molto semplicemente, Keplero ci spiega l’orbita e come il moto si evolverà nel tempo, Newton attraverso la sua legge di gravitazione ci dice il perché il fenomeno avviene in questo modo (spiegazione dinamica).

Detto questo, se nel nostro Sistema Solare ci fossero soltanto il Sole e la Terra, quest’ultima si limiterebbe a percorrere la sua orbita ellittica intorno al Sole, moto di rivoluzione, mentre gira contemporaneamente intorno al suo asse, moto di rotazione. Come sappiamo bene, il primo moto è responsabile dell’alternanza delle stagioni, mentre la rotazione è responsabile del ciclo giorno-notte.

Purtroppo, ed è un eufemismo, la Terra non è l’unico pianeta a ruotare intorno al Sole ma ce ne sono altri, vicini, lontani e più o meno massivi, oltre ovviamente alla Luna, che per quanto piccola è molto vicina alla Terra, che “disturbano” questo moto molto ordinato.

Perche questo? Semplice, come anticipato, e come noto, due masse poste ad una certa distanza, esercitano mutamente una forza di attrazione, detta appunto gravitazionale, direttamente proporzionale al prodotto delle masse dei corpi e inversamente proporzionale al quadrato della loro distanza. In altri termini, più i corpi sono massivi, maggiore è la loro attrazione. Più i corpi sono distanti, minore sarà la forza che tende ad avvicinarli. Ora, questo è vero ovviamente per il sistema Terra-Sole ma è altresì vero per ogni coppia di corpi nel nostro Sistema Solare. Se Terra e Sole si attraggono, lo stesso fanno la Terra con la Luna, Marte con Giove, Giove con il Sole, e via dicendo. Come è facile capire, la componente principale delle forze è quella offerta dal Sole sul pianeta, ma tutte queste altre “spintarelle” danno dei contributi minori che influenzano “in qualche modo” il moto di qualsiasi corpo. Bene, questo “in qualche modo” è proprio l’argomento che stiamo affrontando ora, cioè i moti minori, ad esempio, della Terra nel tempo.

Dunque, abbiamo già parlato dei notissimi moti di rotazione e di rivoluzione. Uno dei moti che invece è divenuto famoso grazie, o forse purtroppo, al 2012 è quello di precessione degli equinozi, di cui abbiamo già parlato in questo articolo:

Nexus 2012: bomba a orologeria

Come sapete, l’asse della Terra, cioè la linea immaginaria che congiunge i poli geografici ed intorno al quale avviene il moto di rotazione, è inclinato rispetto al piano dell’orbita. Nel tempo, questo asse non rimane fisso, ma descrive un doppio cono come mostrato in questa figura:

Moto di precessione degli equinozi e di nutazione

Moto di precessione degli equinozi e di nutazione

Il moto dell’asse è appunto detto di “precessione degli equinozi”. Si tratta di un moto a più lungo periodo dal momento che per compiere un intero giro occorrono circa 25800 anni. A cosa è dovuto il moto di precessione? In realtà, si tratta del risultato di un duplice effetto: l’attrazione gravitazionale da parte della Luna e il fatto che il nostro pianeta non è perfettamente sferico. Perché si chiama moto di precessione degli equinozi? Se prendiamo la linea degli equinozi, cioè quella linea immaginaria che congiunge i punti dell’orbita in cui avvengono i due equinozi, a causa di questo moto questa linea si sposterà in senso orario appunto facendo “precedere” anno dopo anno gli equinozi. Sempre a causa di questo moto, cambia la costellazione visibile il giorno degli equinozi e questo effetto ha portato alla speculazione delle “ere new age” e al famoso “inizio dell’era dell’acquario” di cui, sempre in ambito 2012, abbiamo già sentito parlare.

Sempre prendendo come riferimento la figura precedente, notiamo che c’è un altro moto visibile. Percorrendo il cono infatti, l’asse della Terra oscilla su e giù come in un moto sinusoidale. Questo è noto come moto di “nutazione”. Perché avviene questo moto? Oltre all’interazione della Luna, molto vicina alla Terra, anche il Sole gioca un ruolo importante in questo moto che proprio grazie alla variazione di posizione relativa del sistema Terra-Luna-Sole determina un moto di precessione non regolare nel tempo. In questo caso, il periodo della nutazione, cioè il tempo impiegato per per compiere un periodo di sinusoide, è di circa 18,6 anni.

Andando avanti, come accennato in precedenza, la presenza degli altri pianeti nel Sistema Solare apporta dei disturbi alla Terra, così come per gli altri pianeti, durante la sua orbita. Un altro moto da prendere in considerazione è la cosiddetta “precessione anomalistica”. Di cosa si tratta? Abbiamo detto che la Terra compie un’orbita ellittica intorno al Sole che occupa uno dei fuochi. In astronomia, si chiama “apside” il punto di massima o minima distanza del corpo che ruota da quello intorno al quale sta ruotando, nel nostro caso il Sole. Se ora immaginiamo di metterci nello spazio e di osservare nel tempo il moto della Terra, vedremo che la linea che congiunge gli apsidi non rimane ferma nel tempo ma a sua volta ruota. La figura seguente ci può aiutare meglio a visualizzare questo effetto:

Moto di precessione anomalistica

Moto di precessione anomalistica

Nel caso specifico di pianeti che ruotano intorno al Sole, questo moto è anche chiamato di “precessione del perielio”. Poiché il perielio rappresenta il punto di massimo avvicinamento di un corpo dal Sole, il perché di questo nome è evidente. A cosa è dovuta la precessioni anomalistica? Come anticipato, questo moto è proprio causato dalle interazioni gravitazionali, sempre presenti anche se con minore intensità rispetto a quelle del Sole, dovute agli altri pianeti. Nel caso della Terra, ed in particolare del nostro Sistema Solare, la componente principale che da luogo alla precessione degli apsidi è l’attrazione gravitazionale provocata da Giove.

Detto questo, per affrontare il prossimo moto millenario, torniamo a parlare di asse terrestre. Come visto studiando la precessione e la nutazione, l’asse terrestre descrive un cono nel tempo (precessione) oscillando (nutazione). A questo livello però, rispetto al piano dell’orbita, l’inclinazione dell’asse rimane costante nel tempo. Secondo voi, con tutte queste interazioni e questi effetti, l’inclinazione dell’asse potrebbe rimanere costante? Assolutamente no. Sempre a causa dell’interazione gravitazionale, Sole e Luna principalmente nel nostro caso, l’asse della Terra presenta una sorta di oscillazione variando da un massimo di 24.5 gradi ad un minimo di 22.1 gradi. Anche questo movimento avviene molto lentamente e ha un periodo di circa 41000 anni. Cosa comporta questo moto? Se ci pensiamo, proprio a causa dell’inclinazione dell’asse, durante il suo moto, uno degli emisferi della Terra sarà più vicino al Sole in un punto e più lontano nel punto opposto dell’orbita. Questo contribuisce notevolmente alle stagioni. L’emisfero più vicino avrà più ore di luce e meno di buio oltre ad avere un’inclinazione diversa per i raggi solari che lo colpiscono. Come è evidente, insieme alla distanza relativa della Terra dal Sole, la variazione dell’asse contribuisce in modo determinante all’alternanza estate-inverno. La variazione dell’angolo di inclinazione dell’asse può dunque, con periodi lunghi, influire sull’intensità delle stagioni.

Finito qui? Non ancora. Come detto e ridetto, la Terra si muove su un orbita ellittica intorno al Sole. Uno dei parametri matematici che si usa per descrivere un’ellisse è l’eccentricità, cioè una stima, detto molto semplicemente, dello schiacciamento dell’ellisse rispetto alla circonferenza. Che significa? Senza richiamare formule, e per non appesantire il discorso, immaginate di avere una circonferenza. Se adesso “stirate” la circonferenza prendendo due punti simmetrici ottenete un’ellisse. Bene, l’eccentricità rappresenta proprio una stima di quanto avete tirato la circonferenza. Ovviamente, eccentricità zero significa avere una circonferenza. Più è alta l’eccentricità, maggiore sarà l’allungamento dell’ellisse.

Tornando alla Terra, poiché l’orbita è un’ellisse, possiamo descrivere la sua forma utilizzando l’eccentricità. Questo valore però non è costante nel tempo, ma oscilla tra un massimo e un minimo che, per essere precisi, valgono 0,0018 e 0,06. Semplificando molto il discorso, nel tempo l’orbita della Terra oscilla tra qualcosa più o meno simile ad una circonferenza. Anche in questo caso, si tratta di moti millenari a lungo periodo ed infatti il moto di variazione dell’eccentricità (massimo-minimo-massimo) avviene in circa 92000 anni. Cosa comporta questo? Beh, se teniamo conto che il Sole occupa uno dei fuochi e questi coincidono nella circonferenza con il centro, ci rendiamo subito conto che a causa di questa variazione, la distanza Terra-Sole, e dunque l’irraggiamento, varia nel tempo seguendo questo movimento.

A questo punto, abbiamo analizzato tutti i movimenti principali che la Terra compie nel tempo. Per affrontare questo discorso, siamo partiti dalla domanda iniziale che riguardava l’ipotetica connessione tra periodi di glaciazione sulla Terra e i moti a lungo periodo. Come sappiamo, nel corso delle ere geologiche si sono susseguiti diversi periodi di glaciazione sul nostro pianeta, che hanno portato allo scioglimento dei ghiacci perenni e all’innalzamento del livello dei mari. Studiando i reperti e la quantità di CO2 negli strati di ghiaccio, si può notare una certa regolarità dei periodi di glaciazione, indicati anche nella pagina specifica di wikipedia:

Wiki, cronologia delle glaciazioni

Come è facile pensare, molto probabilmente ci sarà una correlazione tra i diversi movimenti della Terra e l’arrivo di periodi di glaciazione più o meno intensi, effetto noto come “Cicli di Milanković”. Perché dico “probabilmente”? Come visto nell’articolo, i movimenti in questione sono diversi e con periodi più o meno lunghi. In questo contesto, è difficile identificare con precisione il singolo contributo ma quello che si osserva è una sovrapposizione degli effetti che producono eventi più o meno intensi.

Se confrontiamo i moti appena studiati con l’alternanza delle glaciazioni, otteniamo un grafico di questo tipo:

Relazione tra i periodi dei movimenti della Terra e le glaciazioni conosciute

Relazione tra i periodi dei movimenti della Terra e le glaciazioni conosciute

Come si vede, è possibile identificare una certa regolarità negli eventi ma, quando sovrapponiamo effetti con periodi molto lunghi e diversi, otteniamo sistematicamente qualcosa con periodo ancora più lungo. Effetto dovuto proprio alle diverse configurazioni temporali che si possono ottenere. Ora, cercare di trovare un modello matematico che prenda nell’insieme tutti i moti e li correli con le variazioni climatiche non è cosa banale e, anche se sembra strano da pensare, gli eventi che abbiamo non rappresentano un campione significativo sul quale ragionare statisticamente. Detto questo, e per rispondere alla domanda iniziale, c’è una relazione tra i movimenti della Terra e le variazioni climatiche ma un modello preciso che tenga conto di ogni causa e la pesi in modo adeguato in relazione alle altre, non è ancora stato definito. Questo ovviamente non esclude in futuro di poter avere una teoria formalizzata basata anche su future osservazioni e sull’incremento della precisione di quello che già conosciamo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fascio di anti-idrogeno? FATTO!

22 Gen

Uno degli aspetti della fisica che suscita maggior interesse nei non addetti ai lavori e’ senza dubbio il concetto di antimateria. Molto probabilmente, il motivo di questo interesse e’ da ricercarsi nelle tante storie fantascientifiche che sono state ispirate dall’esistenza di un qualcosa molto simile alla materia, se non fosse per la carica delle particelle che la compongono, che era presente prima del Big Bang ma che ora sembra totalmente scomparsa. Inoltre, come tutti sanno, se materia e antimateria vengono messe vicine tra loro si ha il fenomeno dell’annichilazione, qualcosa di assolutamente esotico nella mente dei non addetti ai lavori e che ha offerto trame sensazionali per tanti film e serie TV.

Come detto tante volte, dobbiamo fare una distinzione precisa tra quelle che chiamiamo antiparticelle e quella che invece viene intesa come antimateria. Cosi’ come avviene per la materia ordinaria, composta di particelle che, in questo schema, possiamo pensare come elettroni, protoni e neutroni, l’antimateria e’ a sua volta composta da anti-particelle. Spesso si tende a confondere questi due concetti, facendo, come si suole dire, di tutta l’erba un fascio.

Produrre anti-particelle e’ semplice e siamo in grado di farlo gia’ da diversi anni. Per darvi un esempio, molti collisori utilizzati per la ricerca nella fisica delle alte energie fanno scontrare fasci di particelle con antiparticelle. In questo contesto, molto usati sono i positroni, cioe’ gli anti-elettroni, e gli anti-protoni.

Completamente diverso e’ invece il caso dell’antimateria.

Per formare anti-atomi e’ necessario assemblare insieme le anti-particelle per comporre qualcosa simile nella struttura alla materia, ma composto a partire da mattoncini di anti-particelle.

Di questi concetti abbiamo gia’ parlato in articoli precedenti che trovate a questi link:

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

Come anticipato, prima del Big Bang, erano presenti in eguale quantita’ materia e anti-materia. Ad un certo punto pero’, l’anti-materia e’ scomparsa lasciando il posto solo alla materia che ha poi formato l’universo che vediamo oggi. Anche se questo meccanismo e’ in linea di principio ipotizzato dalla fisica, ci sono ancora punti da chiarire in quella che viene chiamata “asimmetria materia-antimateria”. Anche di questo abbiamo gia’ parlato in questi articoli:

E parliamo di questo Big Bang

Ancora sullo squilibrio tra materia e antimateria

Se, da un lato, produrre antiparticelle e’ semplice, metterle insieme per formare antiatomi non e’ assolutamente banale.

Nel 2011 al CERN di Ginevra era stato annunciato per la prima volta un risultato molto importante: atomi di anti-idrogeno erano stati formati e osservati per un tempo di circa 1000 secondi prima si scomparire. Questa osservazione aveva permesso di osservare alcune importanti proprieta’. Nel 2012, sempre al CERN, un altro esperimento era riuscito a misurare altre importanti proprieta’ di questi anti-atomi, facendo ben sperare per il futuro.

Ora, invece, sempre il CERN ha annunciato di essere riuscito per la prima volta a produrre addirittura un fascio di anti-idrogeni. L’annuncio ‘e stato dato sul sito del laboratorio svizzero:

CERN, ASACUSA NEWS

e pubblicato sull’autorevole rivista Nature.

La scoperta e’ stata realizzata dalla collaborazione internazionale ASACUSA, di cui fanno parte anche alcuni ricercatori del nostro Istituto Nazionale di Fiscia Nucleare.

Cosa sarebbero questi anti-idrogeni?

Seguendo il ragionamento fatto, questi speciali atomi sono composti dagli analoghi di antimateria di protone e elettrone. Se l’idrogeno ha un nucleo composto da un protone con un elettrone che gira intorno, un anti-idrogeno e’ composto da un anti-protone, carico negativamente, e un positrone che gira intorno, carico positivamente. Come potete facilmente capire, in questo gioco di costruzione di atomi, siamo alla struttura piu’ semplice conosciuta ma, come vedremo tra poco, fondamentale per la comprensione dell’universo.

Come e’ stato fatto questo esperimento?

L'esperimento ASACUSA del CERN

L’esperimento ASACUSA del CERN

Senza annoiarvi con tecnicismi, gli anti-idrogeni sono prodotti da un deceleratore di antiprotoni e poi allontanati dal punto di produzione ad una distanza sufficiente a non risentire dei campi magnetici. Questo accorgimento e’ fondamentale per stabilizzare gli anti-atomi che altrimenti si scomporrebbero scomparendo. Come vedete nella foto riportata, la camera da vuoto utilizzata e’ infatti un lungo tubo e gli anti-idrogeni sono stati osservati e immobilizzati ad una distanza di quasi 3 metri dal punto di produzione.

Perche’ e’ cosi’ importante l’anti-idrogeno?

La sua semplicita’ rispetto agli atomi piu’ pesanti, sia per materia che per anti-materia, ha fatto si che questi siano stati i primi atomi stabili creati nell’universo in espansione. Secondo la teoria, idrogeno e anti-idrogeno dovrebbero avere esattamente lo stesso spettro di emissione. Poter disporre in laboratorio di un fascio stabile di anti-atomi consentira’ di studiare a fondo le caratteristiche di questa struttura analizzando nei minimi dettagli ogni minima possibile discrepanza con l’idrogeno. Queste caratteristiche aiuterebbero notevolmente nella comprensione dell’asimmetria tra materia e anti-materia dando una notevola spinta in avanti nella comprensione della nascita del nostro universo e nella ricerca di ogni possibile accumulo di anti-materia.

Concludendo, questa importante notizia apre nuovi scenari nello studio della fisica di base, offrendo un’occasione fondamentale per comprende il nostro universo. Come spesso avviene, molti siti e giornali si sono lanciati in speculazioni parlando di pericoli o applicazioni fantascientifiche che lasciano un po’ il tempo che trovano. Sicuramente, il futuro in questa branca della ricerca ha ancora molto da offrire e non possiamo che essere entusiasti delle novita’ che ancora ci attendono.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Bosone di Higgs … ma che sarebbe?

25 Mar

In tanti mi avete chiesto informazioni circa la scoperta del bosone di Higgs. Come sapete bene, negli ultimi mesi, molto si e’ parlato di questa probabile scoperta, dando ampio spazio su giornali e telegiornali al CERN, all’acceleratore LHC e agli esperimenti principali, Atlas e CMS, che hanno lavorato alla ricerca di questa particella.

La scoperta, ripeto probabile come vedremo in seguito, del bosone di Higgs e’ stata fondamentale per la fisica e per la nostra conoscenza della materia e, lasciatemelo dire, mi ha riempito di gioia avendo lavorato per circa quattro anni alla costruzione proprio dell’esperimento Atlas.

Quello che pero’ molti mi chiedono e’: si parla tanto di questo bosone di Higgs, tutti ne parlano dicendo che e’ “quello che spiega la massa delle particelle”, ma, in soldoni, di cosa si tratta? Perche’ spiegherebbe la massa delle particelle?

Purtroppo le domande sono ben poste, dal momento che spesso, girando per la rete, non si trovano risposte semplicissime a questi quesiti. Cerchiamo dunque, per quanto possibile, di rispondere a queste domande, mantenendo sempre un profilo divulgativo e accessibile a tutti.

Detto nel linguaggio della fisica, la spiegazione sarebbe piu’ o meno questa:

L’universo e’ permeato da un campo a spin zero, detto campo di Higgs, doppietto in SU(2) e con ipercarica U(1), ma privo di colore. I bosoni di gauge e i fermioni interagiscono con questo campo acquisendo massa.

Chiaro? Ovviamente no.

Cerchiamo di capirci qualcosa di piu’.

In questi post:

Piccolo approfondimento sulla materia strana

Due parole sull’antimateria

Abbiamo parlato del “Modello Standard” delle particelle. Come visto, la materia ordinaria, anche se apparentemente sembrerebbe molto variegata, e’ in realta’ composta di pochi ingredienti fondamentali: i quark, i leptoni e i bosoni messaggeri. Niente di difficile, andiamo con ordine.

Le particelle del Modello Standard

Le particelle del Modello Standard

Protoni e neutroni, ad esempio, non sono particelle fondamentali, ma sono composti da 3 quark. Tra i leptoni, sicuramente il piu’ conosciuto e’ l’elettrone, quello che orbita intorno ai nuclei per formare gli atomi. E i bosoni messaggeri? In fisica esistono delle interazioni, chiamiamole anche forze, che sono: la forza gravitazionale, la forza elettromagnetica, la forza forte e la forza debole. La forza forte, ad esempio, che viene scambiata mediante gluoni, e’ quella che tiene insieme i quark nelle particelle. Il fotone invece e’ quello che trasporta la forza elettromagnetica, responsabile, in ultima analisi, delle interazioni chimiche e delle forze meccaniche che osserviamo tutti i giorni.

Bene, fin qui sembra tutto semplice. L’insieme di queste particelle forma il Modello Standard. Ci sono gli ingredienti per formare tutte le particelle ordinarie e ci sono i bosoni messaggeri che ci permettono di capire le forze che avvengono. Dunque? Con il Modello Standard abbiamo capito tutto? Assolutamente no.

Il Modello Standard funziona molto bene, ma presenta un problema molto importante. Nella trattazione vista, non e’ possibile inserire la massa delle particelle. Se non c’e’ la massa, non c’e’ peso. Se un pezzo di ferro e’ composto di atomi di ferro e se gli atomi di ferro sono fatti di elettroni, protoni e neutroni, le particelle “devono” avere massa.

Dunque? Basta inserire la massa nel modello standard. Facile a dirsi ma non a farsi. Se aggiungiamo a mano la massa nelle equazioni del modello standard, le equazioni non funzionano piu’. I fisici amano dire che l’invarianza di Gauge non e’ rispettata, ma e’ solo un modo complicato per spiegare che le equazioni non funzionano piu’.

Se non possiamo inserire la massa, e noi sappiamo che la massa c’e’ perche’ la testiamo tutti i giorni, il modello standard non puo’ essere utilizzato.

A risolvere il problema ci ha pensato Peter Higgs negli anni ’60. Ora la spiegazione di Higgs e’ quella che ho riportato sopra, ma cerchiamo di capirla in modo semplice. Supponiamo che effettivamente le particelle non abbiano massa. Hanno carica elettrica, spin, momento angolare, ma non hanno massa intrinseca. L’universo e’ pero’ permeato da un campo, vedetelo come una sorta di gelatina, che e’ ovunque. Quando le particelle passano attraverso questa gelatina, vengono frenate, ognuna in modo diverso. Proprio questo frenamento sarebbe responsabile della massa che le particelle acquisiscono.

Tradotto in equazioni, questo ragionamento, noto come “meccanismo di Higgs”, funzionerebbe benissimo e il modello standard sarebbe salvo. Perche’ dico funzionerebbe? Come facciamo a dimostrare che esiste il campo di Higgs?

Il campo di Higgs, se esiste, deve possedere un quanto, cioe’ un nuovo bosone la cui esistenza non era predetta nel modello standard, detto appunto “bosone di Higgs”. Detto proprio in termini semplici, riprendendo l’esempio del campo di Higgs come la gelatina di frenamento, questa gelatina ogni tanto si dovrebbe aggrumare formando una nuova particella, appunto il bosone di Higgs.

Dunque, se esiste il bosone di Higgs, allora esite il campo di Higgs e dunque possiamo spiegare la massa delle particelle.

Capite dunque l’importanza della ricerca di questa particella. La sua scoperta significherebbe un notevole passo avanti nella comprensione dell’infinitamente piccolo, cioe’ dei meccanismi che regolano l’esistenza e la combinazione di quei mattoncini fondamentali che formano la materia che conosciamo.

Oltre a questi punti, il bosone di Higgs e’ stato messo in relazione anche con la materia oscura di cui abbiamo parlato in questo post:

La materia oscura

In questo caso, la scoperta e lo studio di questa particella potrebbe portare notevoli passi avanti ad esempio nello studio delle WIMP, come visto uno dei candidati della materia oscura.

Dunque? Cosa e’ successo al CERN? E’ stato trovato o no questo bosone di Higgs?

In realta’ si e no. Nella prima conferenza stampa del CERN si parlava di evidenza di una particella che poteva essere il bosone di Higgs. In questo caso, le affermazioni non sono dovute al voler essere cauti dei fisici, semplicemente, l’evidenza statistica della particella non era ancora sufficiente per parlare di scoperta.

L’ultimo annuncio, solo di pochi giorni fa, ha invece confermato che si trattava proprio di “un” bosone di Higgs. Perche’ dico “un” bosone? In realta’, potrebbero esistere diverse tipologie di bosoni di Higgs. Ad oggi, quello trovato e’ sicuramente uno di questi, ma non sappiamo ancora se e’ proprio quello di cui stiamo parlando per il modello standard.

Anche se tutte le indicazioni fanno pensare di aver fatto centro, ci vorranno ancora diversi anni di presa dati per avere tutte le conferme e magari anche per evidenziare l’esistenza di altri bosoni di Higgs. Sicuramente, la scoperta di questa particella apre nuovi orizzonti nel campo della fisica delle particelle e prepara il campo per una nuova ricchissima stagione di misure e di scoperte.

Onde evitare commenti del tipo: “serviva spendere tutti questi soldi per una particella?”, vi segnalo due post molto interessanti proprio per rispondere a queste, lasciatemi dire lecite, domande:

Perche’ la ricerca: scienza e tecnologia

Perche’ la ricerca: economia

In realta’, LHC ed i suoi esperimenti, oltre a portare tantissime innovazioni tecnologiche che non possiamo ancora immaginare, sono state un importante volano per l’economia dei paesi europei. Investendo nel CERN, l’Italia, e soprattutto le nostre aziende, hanno avuto un ritorno economico molto elevato e sicuramente superiore a quanto investito.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Due parole sull’antimateria

24 Dic

A pochissime ore dal tanto atteso 21/12, ci siamo divertiti a passare in rassegna le ultimissime catastrofi annunciate, mostrando la completa assurdita’ dal punto di vista scientifico.

In particolare, in questo post:

Lotteria profetica 2012

abbiamo parlato del racconto del presunto Maya circa la possibilita’ che in un collisore di particelle venissero formate particelle in grado di innescare terremoti.

Questo racconto ci offre lo spunto per parlare di due aspetti della scienza molto importanti e spesso poco conosciuti dal grande pubblico: l’antimateria e gli acceleratori di particelle. In questo primo post, vorrei parlarvi appunto delle antiparticelle e dell’antimateria, argomenti che spesso offrono importanti spunti per scenari complottisti e per film di fantascienza, rimandando ad un successivo post la trattazione degli acceleratori di particelle.

Ovviamente cercheremo di dare un’infarinatura di base comprensibile a tutti, senza scendere in particolari troppo avanzati che rischierebbero di annoiarvi.

In questo post:

Piccolo approfondimento sulla materia strana

abbiamo gia’ parlato di Modello Standard, mostrando come le particelle fondamentali, che altro non sono che i costituenti di tutto quello che vediamo o anche i responsabili delle interazioni, sono in realta’ in numero molto ridotto. Abbiamo in particolare diviso queste particelle in famiglie, parlando di leptoni, quark, neutrini e bosoni messaggeri.

Ora, come entrano in questo discorso le antiparticelle?

Particelle e antiparticelle: quarks e leptoni

Particelle e antiparticelle: quarks e leptoni

Cerchiamo di prendere il discorso alla larga. Le particelle elementari, opportunamente combiate tra loro, formano la materia. Questo ci dovrebbe mettere sulla strada giusta. L’antimateria dunque sara’ ottenuta combinando in modo opportuno antiparticelle. Di nuovo, cosa sono le antiparticelle?

Nel modello standard, per ogni particella esiste una sua antiparticella. Quali sono le differenze tra una particella e la sua antiparticella?

Ciascuna particella e’ caratterizzata da quelli che vengono detti numeri quantici. Sicuramente tutti conoscono la carica elettrica. Bene, questo e’ il primo numero quantico, ma non il solo. Immaginate l’insieme dei numeri quantici come la carta d’identita’ delle particelle. Se volete descrivere una persona a qualcuno che non la conosce, cosa gli dite? E’ alto cosi’, ha i capelli di questo colore, carnagione cosi’, corporatura, ecc. Per descrivere una particella, si utilizzano i numeri quantici. Il set di numeri quantici utilizzato descrive completamente una particella.

Bene, senza scomodare tutti i numeri quantici, particella e corrispondente antiparticella hanno la stessa massa ma carica elettrica opposta. In alcuni casi, particella e antiparticella possono essere la stessa cosa, come nel caso del fotone in cui fotone e antifotone sono la stessa particella, molte volte invece si tratta di due entita’ distinte.

Se siamo giunti fino a questo punto, ormai la strada e’ in discesa.

Esistono le antiparticelle? Sono pericolose? Sono mai state osservate?

La antiparticelle sono una realta’ fisica. La prima osservazione avvenne nel 1932 quando Anderson trovo’ nei raggi cosmici gli antielettroni, anche detti positroni. Da li in avanti, molte altre particelle vennero osservate. Pensate che al giorno d’oggi le antiparticelle vengono prodotte tranquillamente nei nostri laboratori. Molti degli acceleratori nel mondo, fanno scontrare fasci di particelle con le corrispondenti antiparticelle. In questo senso, potete trovare collisori elettrone-positrone, protone-antiprotone, ecc.

Capito il discorso antiparticelle, torniamo a parlare di antimateria. Come detto sopra, se la materia e’ composta da particelle, l’antimateria sara’ composta da antiparticelle.

Facciamo un esempio molto semplice. Immaginate di voler realizzare un atomo di elio. In questo caso, basta prendere due neutroni e due protoni per fare il nucleo e due elettroni da mettere in rotazione. Se ora volessimo realizzare un atomo di antielio? Dobbiamo prendere due antiprotoni, due antineutroni e due positroni (come detto, antielettroni). In questo caso, invece di un atomo di materia ne avreste uno di antimateria.

Esiste l’antimateria?

Le antiparticelle possono essere osservate in natura come prodotti di decadimento di particelle o anche essere prodotte in laboratorio. Sempre in laboratorio, negli acceleratori, e’ stato possibile produrre antiatomi molto leggeri. La domanda dunque e’: in natura dove si trova l’antimateria?

La risposta in questo caso non e’ semplice. Secondo la teoria scientificamente piu’ probabile, nel big bang, l’antimateria e’ scomparsa lasciando il posto solo alla materia. Quest’ultima poi, secondo vari meccanismi, durante l’espansione ha poi formato le stelle, le galassie, i pianeti, ecc. Esistono teorie secondo le quali tracce di antimateria sarebbero ancora presenti da qualche parte. Nella nostra galassia non si e’ osservata antimateria.

Il perche’ di questo punto e’ facilmente comprensibile. Entrando in contatto, materia e antimateria danno luogo alla cosiddetta “annichilazione”, processo in cui particella e antiparticelle scompaiono producendo fotoni ed energia.

Ora, questo ragionamento vi fa capire varie cose. Tornando al discorso “lotteria profetica”, capite subito l’impossibilita’ di avere un pianeta di antimateria in rotta di collisione con le Terra.

Inoltre, capite bene anche un’altra cosa, cioe’ l’assurdita’ scientifica proposta dal film “Angeli e Demoni” in cui al CERN di Ginevra si producevano provette con dentro “antimateria”.

Concludendo, abbiamo finalmente capito cosa si intende parlando di antiparticelle e antimateria. Non c’e’ assolutamente nulla di sconvolgente nel parlare di questi argomenti. Capite bene come le ipotesi complottiste e catastrofiste create intorno a questi argomenti sono soltanto frutto di fantasie dettate da scenari fantascientifici o da qualcuno dotato di troppa fantasia.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.