Tag Archives: modello

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tutti i movimenti della Terra

27 Giu

Proprio ieri, una nostra cara lettrice ci ha fatto una domanda molto interessante nella sezione:

Hai domande o dubbi?

Come potete leggere, si chiede se esiste una correlazione tra i moti della Terra e l’insorgere di ere di glaciazione sul nostro pianeta. Rispondendo a questa domanda, mi sono reso conto come, molto spesso, e non è certamente il caso della nostra lettrice, le persone conoscano solo i moti principali di rotazione e rivoluzione. A questo punto, credo sia interessante capire meglio tutti i movimenti che il nostro pianeta compie nel tempo anche per avere un quadro più completo del moto dei pianeti nel Sistema Solare. Questa risposta, ovviamente, ci permetterà di rispondere, anche in questa sede, alla domanda iniziale che è stata posta.

Dunque, andiamo con ordine, come è noto la Terra si muove intorno al Sole su un’orbita ellittica in cui il Sole occupa uno dei due fuochi. Questo non sono io a dirlo, bensì questa frase rappresenta quella che è nota come I legge di Keplero. Non starò qui ad annoiarvi con tutte le leggi, ma ci basta sapere che Keplero fu il primo a descrivere cinematicamente il moto dei pianeti intorno ad un corpo più massivo. Cosa significa “cinematicamente”? Semplice, si tratta di una descrizione completa del moto senza prendere in considerazione il perché il moto avviene. Come sapete, l’orbita è ellittica perché è la legge di Gravitazione Universale a spiegare la tipologia e l’intensità delle forze che avvengono. Bene, detto molto semplicemente, Keplero ci spiega l’orbita e come il moto si evolverà nel tempo, Newton attraverso la sua legge di gravitazione ci dice il perché il fenomeno avviene in questo modo (spiegazione dinamica).

Detto questo, se nel nostro Sistema Solare ci fossero soltanto il Sole e la Terra, quest’ultima si limiterebbe a percorrere la sua orbita ellittica intorno al Sole, moto di rivoluzione, mentre gira contemporaneamente intorno al suo asse, moto di rotazione. Come sappiamo bene, il primo moto è responsabile dell’alternanza delle stagioni, mentre la rotazione è responsabile del ciclo giorno-notte.

Purtroppo, ed è un eufemismo, la Terra non è l’unico pianeta a ruotare intorno al Sole ma ce ne sono altri, vicini, lontani e più o meno massivi, oltre ovviamente alla Luna, che per quanto piccola è molto vicina alla Terra, che “disturbano” questo moto molto ordinato.

Perche questo? Semplice, come anticipato, e come noto, due masse poste ad una certa distanza, esercitano mutamente una forza di attrazione, detta appunto gravitazionale, direttamente proporzionale al prodotto delle masse dei corpi e inversamente proporzionale al quadrato della loro distanza. In altri termini, più i corpi sono massivi, maggiore è la loro attrazione. Più i corpi sono distanti, minore sarà la forza che tende ad avvicinarli. Ora, questo è vero ovviamente per il sistema Terra-Sole ma è altresì vero per ogni coppia di corpi nel nostro Sistema Solare. Se Terra e Sole si attraggono, lo stesso fanno la Terra con la Luna, Marte con Giove, Giove con il Sole, e via dicendo. Come è facile capire, la componente principale delle forze è quella offerta dal Sole sul pianeta, ma tutte queste altre “spintarelle” danno dei contributi minori che influenzano “in qualche modo” il moto di qualsiasi corpo. Bene, questo “in qualche modo” è proprio l’argomento che stiamo affrontando ora, cioè i moti minori, ad esempio, della Terra nel tempo.

Dunque, abbiamo già parlato dei notissimi moti di rotazione e di rivoluzione. Uno dei moti che invece è divenuto famoso grazie, o forse purtroppo, al 2012 è quello di precessione degli equinozi, di cui abbiamo già parlato in questo articolo:

Nexus 2012: bomba a orologeria

Come sapete, l’asse della Terra, cioè la linea immaginaria che congiunge i poli geografici ed intorno al quale avviene il moto di rotazione, è inclinato rispetto al piano dell’orbita. Nel tempo, questo asse non rimane fisso, ma descrive un doppio cono come mostrato in questa figura:

Moto di precessione degli equinozi e di nutazione

Moto di precessione degli equinozi e di nutazione

Il moto dell’asse è appunto detto di “precessione degli equinozi”. Si tratta di un moto a più lungo periodo dal momento che per compiere un intero giro occorrono circa 25800 anni. A cosa è dovuto il moto di precessione? In realtà, si tratta del risultato di un duplice effetto: l’attrazione gravitazionale da parte della Luna e il fatto che il nostro pianeta non è perfettamente sferico. Perché si chiama moto di precessione degli equinozi? Se prendiamo la linea degli equinozi, cioè quella linea immaginaria che congiunge i punti dell’orbita in cui avvengono i due equinozi, a causa di questo moto questa linea si sposterà in senso orario appunto facendo “precedere” anno dopo anno gli equinozi. Sempre a causa di questo moto, cambia la costellazione visibile il giorno degli equinozi e questo effetto ha portato alla speculazione delle “ere new age” e al famoso “inizio dell’era dell’acquario” di cui, sempre in ambito 2012, abbiamo già sentito parlare.

Sempre prendendo come riferimento la figura precedente, notiamo che c’è un altro moto visibile. Percorrendo il cono infatti, l’asse della Terra oscilla su e giù come in un moto sinusoidale. Questo è noto come moto di “nutazione”. Perché avviene questo moto? Oltre all’interazione della Luna, molto vicina alla Terra, anche il Sole gioca un ruolo importante in questo moto che proprio grazie alla variazione di posizione relativa del sistema Terra-Luna-Sole determina un moto di precessione non regolare nel tempo. In questo caso, il periodo della nutazione, cioè il tempo impiegato per per compiere un periodo di sinusoide, è di circa 18,6 anni.

Andando avanti, come accennato in precedenza, la presenza degli altri pianeti nel Sistema Solare apporta dei disturbi alla Terra, così come per gli altri pianeti, durante la sua orbita. Un altro moto da prendere in considerazione è la cosiddetta “precessione anomalistica”. Di cosa si tratta? Abbiamo detto che la Terra compie un’orbita ellittica intorno al Sole che occupa uno dei fuochi. In astronomia, si chiama “apside” il punto di massima o minima distanza del corpo che ruota da quello intorno al quale sta ruotando, nel nostro caso il Sole. Se ora immaginiamo di metterci nello spazio e di osservare nel tempo il moto della Terra, vedremo che la linea che congiunge gli apsidi non rimane ferma nel tempo ma a sua volta ruota. La figura seguente ci può aiutare meglio a visualizzare questo effetto:

Moto di precessione anomalistica

Moto di precessione anomalistica

Nel caso specifico di pianeti che ruotano intorno al Sole, questo moto è anche chiamato di “precessione del perielio”. Poiché il perielio rappresenta il punto di massimo avvicinamento di un corpo dal Sole, il perché di questo nome è evidente. A cosa è dovuta la precessioni anomalistica? Come anticipato, questo moto è proprio causato dalle interazioni gravitazionali, sempre presenti anche se con minore intensità rispetto a quelle del Sole, dovute agli altri pianeti. Nel caso della Terra, ed in particolare del nostro Sistema Solare, la componente principale che da luogo alla precessione degli apsidi è l’attrazione gravitazionale provocata da Giove.

Detto questo, per affrontare il prossimo moto millenario, torniamo a parlare di asse terrestre. Come visto studiando la precessione e la nutazione, l’asse terrestre descrive un cono nel tempo (precessione) oscillando (nutazione). A questo livello però, rispetto al piano dell’orbita, l’inclinazione dell’asse rimane costante nel tempo. Secondo voi, con tutte queste interazioni e questi effetti, l’inclinazione dell’asse potrebbe rimanere costante? Assolutamente no. Sempre a causa dell’interazione gravitazionale, Sole e Luna principalmente nel nostro caso, l’asse della Terra presenta una sorta di oscillazione variando da un massimo di 24.5 gradi ad un minimo di 22.1 gradi. Anche questo movimento avviene molto lentamente e ha un periodo di circa 41000 anni. Cosa comporta questo moto? Se ci pensiamo, proprio a causa dell’inclinazione dell’asse, durante il suo moto, uno degli emisferi della Terra sarà più vicino al Sole in un punto e più lontano nel punto opposto dell’orbita. Questo contribuisce notevolmente alle stagioni. L’emisfero più vicino avrà più ore di luce e meno di buio oltre ad avere un’inclinazione diversa per i raggi solari che lo colpiscono. Come è evidente, insieme alla distanza relativa della Terra dal Sole, la variazione dell’asse contribuisce in modo determinante all’alternanza estate-inverno. La variazione dell’angolo di inclinazione dell’asse può dunque, con periodi lunghi, influire sull’intensità delle stagioni.

Finito qui? Non ancora. Come detto e ridetto, la Terra si muove su un orbita ellittica intorno al Sole. Uno dei parametri matematici che si usa per descrivere un’ellisse è l’eccentricità, cioè una stima, detto molto semplicemente, dello schiacciamento dell’ellisse rispetto alla circonferenza. Che significa? Senza richiamare formule, e per non appesantire il discorso, immaginate di avere una circonferenza. Se adesso “stirate” la circonferenza prendendo due punti simmetrici ottenete un’ellisse. Bene, l’eccentricità rappresenta proprio una stima di quanto avete tirato la circonferenza. Ovviamente, eccentricità zero significa avere una circonferenza. Più è alta l’eccentricità, maggiore sarà l’allungamento dell’ellisse.

Tornando alla Terra, poiché l’orbita è un’ellisse, possiamo descrivere la sua forma utilizzando l’eccentricità. Questo valore però non è costante nel tempo, ma oscilla tra un massimo e un minimo che, per essere precisi, valgono 0,0018 e 0,06. Semplificando molto il discorso, nel tempo l’orbita della Terra oscilla tra qualcosa più o meno simile ad una circonferenza. Anche in questo caso, si tratta di moti millenari a lungo periodo ed infatti il moto di variazione dell’eccentricità (massimo-minimo-massimo) avviene in circa 92000 anni. Cosa comporta questo? Beh, se teniamo conto che il Sole occupa uno dei fuochi e questi coincidono nella circonferenza con il centro, ci rendiamo subito conto che a causa di questa variazione, la distanza Terra-Sole, e dunque l’irraggiamento, varia nel tempo seguendo questo movimento.

A questo punto, abbiamo analizzato tutti i movimenti principali che la Terra compie nel tempo. Per affrontare questo discorso, siamo partiti dalla domanda iniziale che riguardava l’ipotetica connessione tra periodi di glaciazione sulla Terra e i moti a lungo periodo. Come sappiamo, nel corso delle ere geologiche si sono susseguiti diversi periodi di glaciazione sul nostro pianeta, che hanno portato allo scioglimento dei ghiacci perenni e all’innalzamento del livello dei mari. Studiando i reperti e la quantità di CO2 negli strati di ghiaccio, si può notare una certa regolarità dei periodi di glaciazione, indicati anche nella pagina specifica di wikipedia:

Wiki, cronologia delle glaciazioni

Come è facile pensare, molto probabilmente ci sarà una correlazione tra i diversi movimenti della Terra e l’arrivo di periodi di glaciazione più o meno intensi, effetto noto come “Cicli di Milanković”. Perché dico “probabilmente”? Come visto nell’articolo, i movimenti in questione sono diversi e con periodi più o meno lunghi. In questo contesto, è difficile identificare con precisione il singolo contributo ma quello che si osserva è una sovrapposizione degli effetti che producono eventi più o meno intensi.

Se confrontiamo i moti appena studiati con l’alternanza delle glaciazioni, otteniamo un grafico di questo tipo:

Relazione tra i periodi dei movimenti della Terra e le glaciazioni conosciute

Relazione tra i periodi dei movimenti della Terra e le glaciazioni conosciute

Come si vede, è possibile identificare una certa regolarità negli eventi ma, quando sovrapponiamo effetti con periodi molto lunghi e diversi, otteniamo sistematicamente qualcosa con periodo ancora più lungo. Effetto dovuto proprio alle diverse configurazioni temporali che si possono ottenere. Ora, cercare di trovare un modello matematico che prenda nell’insieme tutti i moti e li correli con le variazioni climatiche non è cosa banale e, anche se sembra strano da pensare, gli eventi che abbiamo non rappresentano un campione significativo sul quale ragionare statisticamente. Detto questo, e per rispondere alla domanda iniziale, c’è una relazione tra i movimenti della Terra e le variazioni climatiche ma un modello preciso che tenga conto di ogni causa e la pesi in modo adeguato in relazione alle altre, non è ancora stato definito. Questo ovviamente non esclude in futuro di poter avere una teoria formalizzata basata anche su future osservazioni e sull’incremento della precisione di quello che già conosciamo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Due parole sulla stampa in 3D

5 Giu

Diversi utenti mi hanno contattato per avere un approfondimento sulle stampanti 3D. Oggi come oggi, questo tipo di tecnologia e’ entrato pesantemente nella nostra vita e tutti noi, almeno una volta, abbiamo sentito parlare di questa tecnologia anche se, a volte, si ignora completamente il processo realizzativo alla base di questi nuovi strumenti.

Se provate a cercare in rete, trovate una definizione della stampa 3D molto semplice: si tratta dell’evoluzione naturale della classica stampa in 2D, utilizzata pero’ per realizzare oggetti reali in materiali diversi.

Personalmente, trovo questa definizione molto semplicistica e assolutamente riduttiva. Perche’? Semplice, non possiamo confrontare una stampa 2D con una 3D proprio perche’ relativa ad una concezione di realizzazione estremamente diversa. Detto molto semplicemente, sarebbe come voler paragonare la pittura con la scultura, parlando di quest’ultima come la naturale evoluzione della prima.

Cerchiamo di andare con ordine e capire meglio le basi di questo processo. Se nella stampa 2D possiamo riprodurre su un foglio di carta una qualsiasi immagine, in quella 3D il prodotto finale ara’ un oggetto solido, reale e tridimensionale. Un esempio? Disegnate al pc una tazza. Se stampate il vostro disegno con una normale stampante avrete la riproduzione di quell’immagine appiattita su una superficie. Utilizzando invece una stampante 3D il vostro risultato sara’ una vera e propria tazza che potete vedere, toccare e, perche’ no, anche utilizzare.

Solo fino a qualche anno fa, un processo del genere sarebbe stato considerato fantascientifico e, se ci avviciniamo ai giorni nostri, retaggio di costosi macchinari riservati alle aziende piu’ grandi. Oggi invece la tecnologia della stampa 3D e’ divenuta “quasi” di uso comune grazie alla notevole contrazione dei prezzi di queste stampanti, risultato di massicci investimenti fatti da numerose compagnie pubbliche e private.

Pensate stia scherzando? Facendo una ricerca su internet, cominciate a trovare stampanti in grado di riprodurre oggetti fino a decine di centimetri per lato, ad un prezzo inferiore ai 1000 euro. Pensate sia ancora tanto? Nel giro di pochissimi anni, i prezzi di questi dispositivi si sono ridotti in media di un fattore dieci. Come anticipato, questo e’ stato possibile grazie ai notevoli investimenti fatti nel settore ricerca sia pubblico che privato. Per darvi una stima, il prezzo delle azioni delle maggiori case costrttrici di questi dispositivi e’ cresciuto fino a cinque volte facendo riconoscere queste aziende tra le migliori nei listini di borsa.

Visto il sicuro interesse in questi dispositivi, cerchiamo ora di capire meglio come avviene il processo realizzativo di un oggetto a tre dimensioni.

600x407xreplicator.jpg.pagespeed.ic.e5HWV8nSTh

Come potete facilmente immaginare, le tecniche realizzative utilizzate sono diverse ma per comprendere il meccanismo in modo semplice, concentriamoci su quello maggiormente utilizzato e piu’ intuitivo. Come nelle stampanti tradizionali, ci sono delle cartucce contenenti il materiale con cui sara’ realizzato il nostro oggetto. Nella versione piu’ comune, questo materiale sara’ ABS o PLA, due polimeri che per semplicita’ possiamo immaginare come delle plastiche. Normalmente le cartucce contengono questi materiali in forma di polvere o di fili.

Bene, abbiamo il materiale nelle cartucce, poi? Vi ricordate le vecchie stampanti che imprimevano una riga alla volta sul foglio che via via veniva portato avanti? Il processo e’ molto simile a questo. Nella stampa 3D l’oggetto viene realizzato per strati paralleli che poi crescono verso l’alto per realizzare i particolari del corpo che vogliamo stampare. L’esempio classico che viene fatto in questi casi e’ quello dei mattoncini dei LEGO. Strato per strato costruite qualcosa “attaccando” tra loro i vari pezzi. Nella stampa 3D ogni strato viene depositato sull’altro con un processo a caldo o di incollaggio a volte mediante l’ausilio di un materiale di supporto.

Compreso il processo alla base, la prima domanda da porci e’ relativa alla risoluzione di queste stampanti. In altre parole, quanto sono precisi i pezzi che posso realizzare? A differenza della stampa 2D, in questo caso dobbiamo valutare anche la precisione di costruzione verticale. Per quanto riguarda il piano orizzontale, la risoluzione della stampa dipende dalla “particella” di materiale che viene depositata. In verticale invece, come facilmente immaginabile, la precisione del pezzo dipendera’ dallo spessore dello strato che andate a depositare. Piu’ lo strato e’ sottile, maggiore sara’ la risoluzione della vostra stampa. Normalmente, per darvi qualche numero, parliamo di risoluzioni verticali dell’ordine del decimo di millimetro.

A questo punto, abbiamo capito piu’ o meno come funzionano queste stampanti, abbiamo visto che i prezzi sono in forte calo ma la domanda principale resta sempre la stessa: cosa ci facciamo con queste stampanti? In realta’, la risposta a questa domanda potrebbe essere semplicemente “tantissimo”. Cerco di spiegarmi meglio. Le stampanti 3D sono gia’ utilizzate e sotto attento studio di ricerca per il loro utilizzo nei piu’ svariati settori.

Qualche esempio?

Prima di tutto per le aziende che si occupano della realizzazione dei protitipi o di produzione su grande scala di oggetti di forma piu’ o meno complessa. In questo caso vi riporto direttamente la mia esperienza in questo settore. Ai Laboratori Nazionali di Frascati disponiamo di una stampante 3D con una buona risoluzione per la stampa di oggetti in ABS. Cosa ci facciamo? Moltissime parti dei rivelatori di particelle possono essere stampati direttamente in 3D saltando tutta la difficile fase della realizzazione con macchine utensili. Inoltre, ricorrere alla stampa 3D, anche solo in fase prototipale, consente di poter valutare al meglio la correttezza dell’oggetto pensato e la sua funzionalita’ nei diversi settori.

Oltre a queste applicazioni, le stampanti 3D possono essere utilizzate in medicina forense per la ricostruzione di prove danneggiate, in oreficeria, nel settore medico per la ricostruzione ossea, in paleontologia per la preparazione di modelli in scala di parti rinvenute e cosi’ via per moltissimi settori in cui la stampa 3D puo’ velocizzare notevolmente il processo realizzativo ma soprattutto con costi molto contenuti rispetto alla lavorazione classica.

Oggi come oggi, la ricerca in questo settore e’ fortemente orientata allo studio dell’utilizzo di materiali piu’ disparati. Per darvi qualche idea si va dal tessuto osseo alle plastiche, dalla roccia all’argilla e cosi’ via. Come potete capire immediatamente, piu’ materiali si riescono ad utilizzare, maggiori sono i settori interessati in questi prodotti.

Anche se poco noto al grande pubblico, in rete ci sono gia’ moltissimi siti e forum che si occupano di scambio open source di modelli 3D da stampare o anche solo di stampa su commissione conto terzi. Se ripensiamo al paragone con le stampanti classiche, se in questo caso bastava una qualsiasi immagine, per utilizzare una stampante 3D e’ necessario realizzare un modello tridiemnsionale da dare in pasto alla stampante. Per poter far questo ci sono ovviamente potenti software CAD ma anche tanti programmi gratuiti piu’ semplici gia’ scaricabili dalla rete.

Alla luce di quanto discusso, sicuramente il discorso sulle stampanti 3D e’ destinato ancora a crescere. In un futuro non troppo lontano, potremmo avere a disposizione strumenti domestici per realizzare l’oggetto che desideriamo. Inutile nascondere che questo qualche sospetto potrebbe destarlo. Solo pochi mesi fa si e’ molto discusso del progetto di una pistola in plastica perfettamente funzionante ed in grado di uccidere realizzabile con una stampante 3D ed i cui progetti erano finiti in rete. A parte questo “particolare”, quello delle stampanti 3D e’ sicuramente un mercato destinato a crescere e su cui moltissime aziende stanno fortemente puntando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’espansione metrica dell’universo

8 Apr

In questo blog, abbiamo dedicato diversi articoli al nostro universo, alla sua storia, al suo destino, alla tipologia di materia o non materia di cui e’ formato, cercando, come e’ ovvio, ogni volta di mettere il tutto in una forma quanto piu’ possibile comprensibile e divulgativa. Per chi avesse perso questi articoli, o solo come semplice ripasso, vi riporto qualche link riassuntivo:

E parliamo di questo Big Bang

Il primo vagito dell’universo

Universo: foto da piccolo

La materia oscura

Materia oscura intorno alla Terra?

Due parole sull’antimateria

Flusso oscuro e grandi attrattori

Ascoltate finalmente le onde gravitazionali?

Come e’ ovvio, rendere questi concetti fruibili a fini divulgativi non e’ semplice. Per prima cosa, si deve evitare di mettere formule matematiche e, soprattutto, si deve sempre riflettere molto bene su ogni singola frase. Un concetto che potrebbe sembrare scontato e banale per un addetto ai lavori, potrebbe essere del tutto sconosciuto a chi, non avendo basi scientifiche solide, prova ad informarsi su argomenti di questo tipo.

Perche’ faccio questo preambolo?

Pochi giorni fa, un nostro lettore mi ha contatto via mail per chiedermi di spiegare meglio il discorso dell’espansione dell’universo. Per essere precisi, la domanda era relativa non all’espansione in se, ma a quella che viene appunto definita “espansione metrica” dell’universo. Cosa significa? Come visto varie volte, l’idea comunemente accettata e’ che l’universo sia nato da un Big Bang e durante questa espansione si sono prima formate le forze, il tempo, le particelle, poi i pianeti, le galassie e via dicendo. Ci sono prove di questo? Assolutamente si e ne abbiamo parlato, anche in questo caso, piu’ volte: la radiazione cosmica di fondo, lo spostamento verso il rosso delle galassie lontane, le conclusioni stesse portate dalla scoperta del bosone di Higgs e via dicendo. Dunque? Che significa espansione metrica dell’universo? In parole povere, noi diciamo che l’universo si sta espandendo, e che sta anche accelerando, ma come possiamo essere certi di questo? Che forma ha l’universo? Per quanto ancora si espandera’? Poi cosa succedera’? Sempre nella domanda iniziale, veniva posto anche un quesito molto interessante: ma se non fosse l’universo ad espandersi ma la materia a contrarsi? L’effetto sarebbe lo stesso perche’ la mutua distanza tra due corpi aumenterebbe nel tempo dando esattamente lo stesso effetto apparente che vediamo oggi.

Come potete capire, di domande ne abbiamo fin troppe a cui rispondere. Purtroppo, e lo dico in tutta sincerita’, rendere in forma divulgativa questi concetti non e’ molto semplice. Come potete verificare, raccontare a parole che il tutto sia nato da un Big Bang, che ci sia stata l’inflazione e si sia formata la radiazione di fondo e’ cosa abbastanza fattibile, parlare invece di forma dell’universo e metrica non e’ assolutamente semplice soprattutto senza poter citare formule matematiche che per essere comprese richiedono delle solide basi scientifiche su cui ragionare.

Cerchiamo dunque di andare con ordine e parlare dei vari quesiti aperti.

Come visto in altri articoli, si dice che il Big Bang non e’ avvenuto in un punto preciso ma ovunque e l’effetto dell’espansione e’ visibile perche’ ogni coppia di punti si allontana come se ciascun punto dell’universo fosse centro dell’espansione. Cosa significa? L’esempio classico che viene fatto e’ quello del palloncino su cui vengono disegnati dei punti:

Esempio del palloncino per spiegare l'espansione dell'universo

Esempio del palloncino per spiegare l’espansione dell’universo

Quando gonfiate il palloncino, i punti presenti sulla superficie si allontanano tra loro e questo e’ vero per qualsiasi coppia di punti. Se immaginiamo di essere su un punto della superficie, vedremo tutti gli altri punti che si allontanano da noi. Bene, questo e’ l’esempio del Big Bang.

Ci sono prove di questo? Assolutamente si. La presenza della CMB e’ proprio un’evidenza che ci sia stato un Big Bang iniziale. Poi c’e’ lo spostamento verso il rosso, come viene definito, delle galassie lontane. Cosa significa questo? Siamo sulla Terra e osserviamo le galassie lontane. La radiazione che ci arriva, non necessariamente con una lunghezza d’onda nel visibile, e’ caratteristica del corpo che la emette. Misurando questa radiazione ci accorgiamo pero’ che la frequenza, o la lunghezza d’onda, sono spostate verso il rosso, cioe’ la lunghezza d’onda e’ maggiore di quella che ci aspetteremmo. Perche’ avviene questo? Questo effetto e’ prodotto proprio dal fatto che la sorgente che emette la radiazione e’ in moto rispetto a noi e poiche’ lo spostamento e’ verso il rosso, questa sorgente si sta allontanando. A questo punto sorge pero’ un quesito molto semplice e comune a molti. Come sapete, per quanto grande rapportata alle nostre scale, la velocita’ della luce non e’ infinita ma ha un valore ben preciso. Questo significa che la radiazione emessa dal corpo lontano impiega un tempo non nullo per raggiungere la Terra. Come spesso si dice, quando osserviamo stelle lontane non guardiamo la stella come e’ oggi, ma come appariva quando la radiazione e’ stata emessa. Facciamo l’esempio classico e facile del Sole. La luce emessa dal Sole impiega 8 minuti per arrivare sulla Terra. Se noi guardiamo ora il Sole lo vediamo come era 8 minuti fa. Se, per assurdo, il sole dovesse scomparire improvvisamente da un momento all’altro, noi ce ne accorgeremmo dopo 8 minuti. Ora, se pensiamo ad una stella lontana 100 anni luce da noi, quella che vediamo e’ la stella non come e’ oggi, ma come era 100 anni fa. Tornando allo spostamento verso il rosso, poiche’ parliamo di galassie lontane, la radiazione che ci arriva e’ stata emessa moltissimo tempo fa. Domanda: osservando la luce notiamo uno spostamento verso il rosso ma questa luce e’ stata emessa, supponiamo, mille anni fa. Da quanto detto si potrebbe concludere che l’universo magari era in espansione 1000 anni fa, come da esempio, mentre oggi non lo e’ piu’. In realta’, non e’ cosi’. Lo spostamento verso il rosso avviene a causa del movimento odierno tra i corpi e dunque utilizzare galassie lontane ci consente di osservare fotoni che hanno viaggiato piu’ a lungo e da cui si ottengono misure piu’ precise. Dunque, da queste misure, l’universo e’ in espansione e’ lo e’ adesso. Queste misurazioni sono quelle che hanno portato Hubble a formulare la sua famosa legge da cui si e’ ricavata per la prima volta l’evidenza di un universo in espansione.

Bene, l’universo e’ in espansione, ma se ci pensate questo risultato e’ in apparente paradosso se pensiamo alla forza di gravita’. Perche’? Negli articoli precedentemente citati, abbiamo piu’ volte parlato della gravita’ citando la teoria della gravitazione universale di Newton. Come e’ noto, due masse poste a distanza r si attraggono con una forza che dipende dal prodotto delle masse ed e’ inversamente proporzionale al quadrato della loro distanza. Ora, nel nostro universo ci sono masse distribuite qui a la in modo piu’ o meno uniforme. Se pensiamo solo alla forza di gravita’, una coppia qualunque di queste masse si attrae e quindi le due masse tenderanno ad avvicinarsi. Se anche pensiamo ad una spinta iniziale data dal Big Bang, ad un certo punto questa spinta dovra’ terminare controbilanciata dalla somma delle forze di attrazione gravitazionale. In altre parole, non e’ possibile pensare ad un universo che si espande sempre se abbiamo solo forze attrattive che lo governano.

Questo problema ha angosciato l’esistenza di molti scienziati a partire dai primi anni del ‘900. Lo stesso Einstein, per cercare di risolvere questo problema dovette introdurre nella Relativita’ Generale quella che defini’ una costante cosmologica, a suo avviso, un artificio di calcolo che serviva per bilanciare in qualche modo l’attrazione gravitazionale. L’introduzione di questa costante venne definita dallo stesso Einstein il piu’ grande errore della sua vita. Oggi sappiamo che non e’ cosi’, e che la costante cosmologica e’ necessaria nelle equazioni non come artificio di calcolo ma, in ultima analisi, proprio per giustificare la presenza di componenti non barioniche, energia oscura in primis, che consentono di spiegare l’espansione dell’universo. Se vogliamo essere precisi, Einstein introdusse la costante non per avere un universo in espansione bensi’ un universo statico nel tempo. In altre parole, la sua costante serviva proprio a bilanciare esattamente l’attrazione e rendere il tutto fermo. Solo osservazioni successive, tra cui quella gia’ citata dello stesso Hubble, confermarono che l’universo non era assolutamente statico bensi’ in espansione.

Ora, a questo punto, potremmo decidere insieme di suicidarci dal punto di vista divulgativo e parlare della metrica dell’universo, di coordinate comoventi, ecc. Ma questo, ovviamente, implicherebbe fogli di calcoli e basi scientifiche non banali. Abbiamo le prove che l’universo e’ in espansione, dunque, ad esempio, guardando dalla Terra vediamo gli altri corpi che si allontanano da noi. Come si allontanano? O meglio, di nuovo, che forma avrebbe questo universo?

L’esempio del palloncino fatto prima per spiegare l’espansione dell’universo, e’ molto utile per far capire questi concetti, ma assolutamente fuoriviante se non ci si riflette abbstanza. Molto spesso, si confonde questo esempio affermando che l’universo sia rappresentato dall’intero palloncino compreso il suo volume interno. Questo e’ concettualmente sbagliato. Come detto in precedenza, i punti si trovano solo ed esclusivamente sulla superficie esterna del palloncino che rappresenta il nostro universo.

A complicare, o a confondere, ancora di piu’ le idee c’e’ l’esempio del pane con l’uvetta che viene usato per spiegare l’espansione dell’universo. Anche su wikipedia trovate questo esempio rappresentato con una bella animazione:

Esempio del pane dell'uvetta utilizzato per spiegare l'aumento della distanza tra i punti

Esempio del pane dell’uvetta utilizzato per spiegare l’aumento della distanza tra i punti

Come vedete, durante l’espansione la distanza tra i punti cresce perche’ i punti stessi, cioe’ i corpi presenti nell’universo, vengono trascinati dall’espansione. Tornado alla domanda iniziale da cui siamo partiti, potremmo penare che in realta’ lo spazio resti a volume costante e quello che diminuisce e’ il volume della materia. Il lettore che ci ha fatto la domanda, mi ha anche inviato una figura esplicativa per spiegare meglio il concetto:

Confronto tra il modello di aumento dello spazio e quello di restringimento della materia

Confronto tra il modello di aumento dello spazio e quello di restringimento della materia

Come vedete, pensando ad una contrazione della materia, avremmo esattamente lo stesso effetto con la distanza mutua tra i corpi che aumenta mentre il volume occupato dall’universo resta costante.

Ragioniamo pero’ su questo concetto. Come detto, a supporto dell’espansione dell’universo, abbiamo la legge di Hubble, e anche altre prove, che ci permettono di dire che l’universo si sta espandendo. In particolare, lo spostamento verso il rosso della radiazione emessa ci conferma che e’ aumentato lo spazio tra i corpi considerati, sorgente di radiazione e bersaglio. Inoltre, la presenza dell’energia oscura serve proprio a spiegare questa evoluzione dell’universo. Se la condizione fosse quella riportata nell’immagine, cioe’ con la materia che si contrae, non ci sarebbe lo spostamento verso il rosso, e anche quello che viene definito Modello Standard del Cosmo, di cui abbiamo verifiche sperimentali, non sarebbe utilizzabile.

Resta pero’ da capire, e ritorno nuovamente su questo punto, che forma dovrebbe avere il nostro universo. Non sto cercando di volta in volta di scappare a questa domanda, semplicemente, stiamo cercando di costruire delle basi, divulgative, che ci possano consentire di capire questi ulteriori concetti.

Come detto, parlando del palloncino, non dobbiamo fare l’errore di considerare tutto il volume, ma solo la sua superificie. In particolare, come si dice in fisica, per capire la forma dell’universo dobbiamo capire che tipo di geometria assegnare allo spazio-tempo. Purtroppo, come imparato a scuola, siamo abituati a pensare alla geometria Euclidea, cioe’ quella che viene costruita su una superifice piana. In altre parole, siamo abituati a pensare che la somma degli angoli interni di un traiangolo sia di 180 gradi. Questo pero’ e’ vero solo per un triangolo disegnato su un piano. Non e’ assolutamente detto a priori che il nostro universo abbia una geometria Euclidea, cioe’ che sia piano.

Cosa significa?

Come e’ possibile dimostrare, la forma dell’universo dipende dalla densita’ di materia in esso contenuta. Come visto in precedenza, dipende dunque, come e’ ovvio pensare, dall’intensita’ della forza di attrazione gravitazionale presente. In particolare possiamo definire 3 curvature possibili in funzione del rapporto tra la densita’ di materia e quella che viene definita “densita’ critica”, cioe’ la quantita’ di materia che a causa dell’attrazione sarebbe in grado di fermare l’espasione. Graficamente, le tre curvature possibili vengono rappresentate con tre forme ben distinte:

Curvature possibili per l'universo in base al rapporto tra densita' di materia e densita' critica

Curvature possibili per l’universo in base al rapporto tra densita’ di materia e densita’ critica

Cosa significa? Se il rapporto e’ minore di uno, cioe’ non c’e’ massa a sufficienza per fermare l’espansione, questa continuera’ per un tempo infinito senza arrestarsi. In questo caso si parla di spazio a forma di sella. Se invece la curvatura e’ positiva, cioe’ la massa presente e’ maggiore del valore critico, l’espansione e’ destinata ad arrestarsi e l’universo iniziera’ ad un certo punto a contrarsi arrivando ad un Big Crunch, opposto al Big Bang. In questo caso la geometria dell’universo e’ rappresentata dalla sfera. Se invece la densita’ di materia presente e’ esattamente identica alla densita’ critica, in questo caso abbiamo una superficie piatta, cioe’ Euclidea, e l’espansione si arrestera’ ma solo dopo un tempo infinito.

Come potete capire, la densita’ di materia contenuta nell’universo determina non solo la forma di quest’ultimo, ma anche il suo destino ultimo in termini di espansione o contrazione. Fate pero’ attenzione ad un altro aspetto importante e molto spesso dimenticato. Se misuriamo questo rapporto di densita’, sappiamo automaticamente che forma ha il nostro universo? E’ vero il discorso sul suo destino ultimo, ma le rappresentazioni grafiche mostrate sono solo esplicative e non rappresentanti la realta’.

Perche’?

Semplice, per disegnare queste superifici, ripeto utilizzate solo per mostrare graficamente le diverse forme, come si e’ proceduto? Si e’ presa una superficie bidimensionale, l’equivalente di un foglio, e lo si e’ piegato seguendo le indicazioni date dal valore del rapporto di densita’. In realta’, lo spazio tempo e’ quadrimensionale, cioe’ ha 3 dimensioni spaziali e una temporale. Come potete capire molto facilmente, e’ impossibile sia disegnare che immaginare una superificie in uno spazio a 4 dimensioni! Questo significa che le forme rappresentate sono esplicative per far capire le differenze di forma, ma non rappresentano assolutamnete la reale forma dell’universo dal momento che sono ottenute eliminando una coordinata spaziale.

Qual e’ oggi il valore di questo rapporto di densita’? Come e’ ovvio, questo valore deve essere estrapolato basandosi sui dati raccolti da misure osservative nello spazio. Dal momento che sarebbe impossibile “contare” tutta la materia, questi valori vengono utilizzati per estrapolare poi il numero di barioni prodotti nel Big Bang. I migliori valori ottenuti oggi danno rapporti che sembrerebbero a cavallo di 1 anche se con incertezze ancora troppo elevate per avere una risposta definitiva.

Concludendo, affrontare queste tematiche in chiave divulgativa non e’ assolutamente semplice. Per quanto possibile, e nel limite delle mie possibilita’, spero di essere riuscito a farvi capire prima di tutto quali sono le verifiche sperimentali di cui disponiamo oggi e che sostengono le teorie di cui tanto sentiamo parlare. Queste misure, dirette o indirette che siano, ci permettono di capire che il nostro universo e’ con buona probabilita’ nato da un Big Bang, che sta attualmente espandendosi e questa espansione, almeno allo stato attuale, e’ destinata a fermarsi solo dopo un tempo infinito. Sicuramente, qualunque sia il destino ultimo del nostro universo, questo avverra’ in un tempo assolutamente molto piu’ grande della scala umana e solo la ricerca e la continua osservazione del cosmo ci possono permettere di fare chiarezza un poco alla volta.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo che si dissolve “improvvisamente”

21 Mar

Nella sezione:

Hai domande o dubbi?

una nostra cara lettrice ci ha chiesto lumi su una notizia apparsa in questi giorni sui giornali che l’ha lasciata, giustamente dico io, un po’ perplessa. La notizia in questione riguarda l’annuncio fatto solo pochi giorni fa della nuova misura della massa del quark top.

Perche’ questa notizia avrebbe suscitato tanto clamore?

Senza dirvi nulla, vi riporto un estratto preso non da un giornale qualsiasi, che comunque a loro volta hanno copiato da qui, ma dalla principale agenzia di stampa italiana:

Il più pesante dei mattoni della materia, il quark top, ha una misura più precisa e la sua massa, con quella del bosone di Higgs, potrebbe essere la chiave per capire se viviamo in un universo instabile, al punto di dissolversi improvvisamente.

Universo che si dissolve “improvvisamente”?

Vi giuro che vorrei mettermi a piangere. Solo pochi giorni fa abbiamo parlato di tutte quelle cavolate sparate dopo l’annuncio della misura di Bicep-2:

Ascoltate finalmente le onde gravitazionali?

Due notizie cosi’ importanti dal punto di vista scientifico accompagnate da sensazionalismo catastrofista nella stessa settimana sono davvero un duro colpo al cuore.

Al solito, e come nostra abitudine, proviamo a spiegare meglio l’importanza della misura ma, soprattutto, cerchiamo di capire cosa dice la scienza contrapposto a quello che hanno capito i giornali.

In diversi articoli abbiamo parlato di modello standard discutendo la struttura della materia che ci circonda e, soprattutto, presentando quelle che per noi, ad oggi, sono le particelle fondamentali, cioe’ i mattoni piu’ piccoli che conosciamo:

Due parole sull’antimateria

Piccolo approfondimento sulla materia strana

Bosone di Higgs …. ma che sarebbe?

Se ci concentriamo sui quark, vediamo che ci sono 6 componenti che, come noto, sono: up, down, strange, charm, bottom e top. Come gia’ discusso, i primi due, up e down, sono quelli che formano a loro volta protoni e neutroni, cioe’ le particelle che poi formano i nuclei atomici, dunque la materia che ci circonda.

Bene, il quark top e’ il piu’ pesante di questi oltre ad essere l’ultimo ad essere stato scoperto. Il primo annuncio di decadimenti con formazione di quark top e’ stato fatto nel 1995 grazie alla combinazione dei risultati di due importanti esperimenti del Fermi National Accelerator Laboratory di Batavia, nei pressi di Chicago. A questi esperimenti, oggi in dismissione, ma la cui analisi dei dati raccolti e’ ancora in corso, partecipavano e partecipano tuttora moltissimi fisici italiani dell’Istituto Nazionale di Fisica Nucleare.

La cosa piu’ sorprendente del quark top e’ la sua enorme massa, circa 170 GeV, che lo rende la particella elementare piu’ pesante mai trovata. Per darvi un’idea, il top e’ circa 180 volte piu’ pesante di un protone con una massa paragonabile a quella di un atomo di oro nel suo complesso. Il perche’ di una massa cosi’ elevata e’ una delle chiavi per capire i meccanismi che avvengono a livello microscopico e che, come e’ normale pensare, determinano il comportamento stesso del nostro universo.

Bene, cosa e’ successo in questi giorni?

Come avete letto, nel corso della conferenza:

Rencontres de Moriond

che si svolge annualmente a La Thuille in Val d’Aosta, e’ stata presentata una nuova misura della massa del quark top. Prima cosa importante da dire e’ che la misura in questione viene da una stretta collaborazione tra i fisici di LHC e quelli che analizzano i dati del Tevatron, cioe’ il collissore dove nel 1995 fu scoperto proprio il top. Queste due macchine sono le uniche al mondo, grazie alla grande energia con cui vengono fatti scontrare i fasci, in grado di produrre particelle pesanti come il quark top.

Dalla misurazione congiunta di LHC e Tevatron e’ stato possibile migliorare notevolmente l’incertezza sulla massa del top, arrivando ad un valore molto piu’ preciso rispetto a quello conosciuto fino a qualche anno fa.

Cosa comporta avere un valore piu’ preciso?

Come potete immaginare, conoscere meglio il valore di questo parametro ci consente di capire meglio i meccanismi che avvengono a livello microscopico tra le particelle. Come discusso parlando del bosone di Higgs, il ruolo di questa particella, e soprattutto del campo scalare ad essa associato, e’ proprio quello di giustificare il conferimento della massa. Se il  top ha una massa cosi’ elevata rispetto agli altri quark, il suo meccanismo di interazione con il campo di Higgs deve essere molto piu’ intenso. Inoltre, il quark top viene prodotto da interazioni forti, ma decade con canali deboli soprattutto producendo bosoni W. Non sto assolutamente cercando di confondervi. Come visto negli articoli precedenti, il W e’ uno dei bosoni messaggeri che trasportano l’interazione debole e che e’ stato scoperto da Carlo Rubbia al CERN. Detto questo, capite come conoscere con precisione la massa del top, significhi capire meglio i meccanismi che avvengono tra top, W e campo di Higgs. In ultima analisi, la conoscenza di questi modelli e’ fondamentale per capire perche’, durante l’evoluzione dell’universo, si sono formate particelle cosi’ pesanti ma anche per capire se esistono meccanismi di decadimento non ancora considerati o anche effetti, come vengono definiti, di nuova fisica che possono mettere in discussione o integrare il modello standard delle particelle.

Concludendo, la spiegazione della frase “universo che si dissolve improvvisamente” non significa nulla. Una misura piu’ precisa della massa del top implica una migliore conoscenza dei modelli ora utilizzati e soprattutto apre le porte per capire meglio cosa e’ avvenuto durante durante i primi istanti di vita dell’universo. Al solito pero’, anche sulla scia del tanto citato annuncio di Bicep-2, si e’ ben pensato di sfruttare l’occasione e trasformare anche questa importante notizia in un teatrino catastrofista. Per chi interessato ad approfondire, vi riporto anche il link di ArXiv in cui leggere l’articolo della misura in questione:

ArXiv, quark top

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Vesuvio pronto ad esplodere

29 Nov

Ci risiamo, anche se si passa la maggior parte del tempo a formulare teorie catastrofiste sulla cometa ISON, ogni tanto una piccola parentesi piu’ terrena ci sta sempre bene. Cosa potremmo tirare fuori per spaventare un po’ di gente: semplice, un evergreen del catastrofismo, il Vesuvio!

Cosa significa?

In questi giorni il web sta letteralmente esplodendo con decine di articoli che parlano del Vesuvio. Attenzione, in che senso ne parlano? L’eruzione del Vesuvio sarebbe prossima, si trattera’ di un’eruzione letteralmente esplosiva con addirittura un milione di morti in 15 minuti.

Chi lo dice?

La fonte iniziale, come riportato da molti siti, sarebbe il professor Flavio Dobran, esperto di vulcani e docente della “New York University”.

A questo punto voi direte: ok, la solita bufala con un professore inventato di un’universita’ che non esiste o, in alternativa, un ricercatore indipendente al servizio di chissa’ quale testata inutile.

Mi dispiace deludervi ma il prof. Dobran esiste veramente ed e’ veramente un esperto di vulcani.

A questo punto, credo sia il caso di passare attraverso questa notizia e vederci chiaro.

Come potete leggere da molti siti, Dobran avrebbe studiato la storia geologica di molti vulcani sulla Terra per cercare di simularne il comportamento futuro. Da questa analisi sono venuti fuori risultati molto interessanti per il nostro Vesuvio. In particolare, sempre secondo questo modello, il Vesuvio avrebbe un comportamento ciclico alternando eruzioni di lieve e forte intensita’. Sempre secondo questi calcoli, e considerando che Dobran e’ anche un esperto di fluidodinamica, sarebbe stato possibile prevedere anche la dinamica dell’eruzione violenta, che sarebbe la prossima. La caldera sotto il vulcano raggiungerebbe fortissime pressioni con temperature molto elevate. Questo comporterebbe, da un’analisi del substrato attuale, la formazione di una sorta di pentola a pressione sprovvista di valvola di sfogo. L’aumentare delle pressioni porterebbero ad un certo istante ad una rottura completa del cono vulcanico provocandone dunque l’esplosione.

Ora, ragioniamo su quanto detto: modello di comportamento di un vulcano. Vi dice niente questa frase? L’analisi condotta dallo scienziato e’ assolutamente seria e va presa in considerazione. In che modo? Lo studio dinamico dei fluidi interni del Vesuvio hanno permesso di determinare una struttura in grado di reggere pressioni molto alte. Se vogliamo dirlo in termini semplici, la differenza principale tra il Vesuvio e l’Etna e’ proprio questa. Se, da un lato, l’Etna e’ una sorta di colabrodo che erutta in continuazione in modo lieve, dall’altra il Vesuvio tiene tutto all’interno arrivando, prima o poi, ad un punto di rottura completo con una violenta eruzione.

A parte lo studio completo e assolutamente degno di nota, al solito, i catastrofisti hanno preso solo la parte secondo loro interessante o meglio manipolabile cioe’: l’esplosione conseguente alla pressione e le alte temperature prodotte.

Questi aspetti sono noti da tempo e ne avevamo gia’ parlato in un articolo specifico:

Cosa succede in Campania?

In particolare, avevamo gia’ fatto anche tutti i confronti mostrando, in un altro articolo, il diverso comportamento di altri vulani nostrani come il gia’ citato Etna e lo Stromboli:

Due parole sull’Etna e sullo Stromboli

Ora, quando dovrebbe avvenire questa eruzione? E’ possibile che sia prossima?

La risposta alla prima domanda e’ “non lo sappiamo”, la seconda invece e’ “assolutamente no”. Attenzione pero’, se non sappiamo quando avverra’ l’eruzione, come possiamo dire che non sara’ a breve?

Anche qui, basta ragionare con la testa per capire dov’e’ la verita’. Lo studio di Dobran non consente assolutamente di determinare il momento dell’eruzione ma solo come questa avverra’. Ora pero’, come detto in precedenza, la dinamica precedente all’esplosione presenterebbe dei movimenti caratteristici assolutamente ben identificabili. Immaginate la caldera del vulcano che va in forte pressione, cosa succederebbe all’esterno? Sicuramente questo provocherebbe una serie di terremoti di intensita’ crescente. Inoltre, ci sarebbero fenomeni di innalzamento del terreno assolutamente non trascurabili.

Sono presenti oggi questi fenomeni?

Assolutamente no. Oggi sentiamo parlare di attivita’ sismica sul Vesuvio e movimenti del terreno che si alza e si abbassa. Anche se simili, questi non sono assolutamente segnali precursori dell’esplosione ma conseguenze della normale attivita’ del vulcano, sempre presente. Come visto, le intensita’ dei fenomeni precursori sarebbero estremamente piu’ intense e assolutamente non confondibili con quelle standard.

Allora possiamo stare tranquilli?

Anche qui, come detto nei precedenti articoli, mi permetto di dissentire. Anche se oggi non siamo in procinto dell’eruzione, sapiamo che, prima o poi, questa ci sara’. Bene, dovremmo sfruttare questi momenti per predisporre piani di sicurezza, mettere in sicurezza la zona, definire zone rosse, ecc. Tutte attivita’ che, quando l’emergenza scattera’, potrebbero essere in grado di salvare molte vite. Ad oggi, anche se qualcosa si sta muovendo, le attivita’ in corso sono sempre troppo poche. Complice la crisi e, permettetemi, anche la mentalita’ locale, siamo abituati a non preoccuparci di qualcosa fino a che questo qualcosa non diviene un’emergenza. Come potete facilmente immaginare, questo approccio e’ fallimentare. Perche’ aspettare di piangere i morti quando, oggi, potremmo fare in modo che la conta sia molto ridotta?

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Climatizzatore …. quanto ci costi?

6 Ago

Nell’ottica del risparmio energetico, non solo per fare un favore all’ambiente ma anche al nostro portafoglio, qualche tempo fa avevamo analizzato in dettaglio i consumi dei nostri elettrodomestici:

Elettrodomestici e bolletta

In particolare, avevamo quantificato il reale consumo dei comuni sistemi casalinghi, convertendo il tutto in termini di consumo. Come sappiamo bene, nella nostra bolletta elettrica, viene riportato un consumo in KWh, mentre le etichette e le caratteristiche degli apparecchi elettronici ci forniscono un valore in potenza, cioe’ in Watt.

Detto questo, con la calura estiva di questi giorni, vorrei riprendere questi concetti, analizzando pero’ il discorso condizionatori. Se andate in negozio intenzionati a comprare un sistema di questo tipo, vi trovate di fronte una vasta gamma di prodotti con caratteristiche diverse ma, soprattutto, la capacita’ refrigerante dei condizionatori e’ espressa in Btu/h.

Cerchiamo dunque di fare un po’ di chiarezza, capendo meglio questi concetti.

Prima di tutto, la scelta principale che dovete affrontare e’ quella relativa alle differenze: con o senza pompa di calore, inverter o ON/OFF.

Cosa significa?

Per quanto riguarda la pompa di calore, si tratta semplicemente di condizionatori che possono riscaldare oltre a rinfrescare. Detto proprio in parole povere, lo stesso sistema e’ in grado di invertire il ciclo termico, producendo un salto positivo o negativo rispetto alla temperaratura iniziale. Detto ancora piu’ semplicemente, avete la possibilita’ di far uscire aria calda o fredda per riscaldare o rinfrescare.

Convengono questi sistemi?

Se avete un impianto di riscaldamento in casa con caloriferi, pannelli radianti, ecc, allora tanto vale comprare solo un condizionatore, cioe’ qualcosa in da utilizzare in estate per rinfrescare.

Cosa significa invece inverter o ON/OFF?

Qui spesso trovate un po’ di confusione in giro. In realta’, la distinzione e’ molto semplice. Un sistema ON/OFF funziona, come dice il nome stesso, in modalita’ accesa o spenta. Cerchiamo di capire meglio. Impostate una temperatura, il sitema si accende e comincia a buttare aria fredda. Quando la temperatura della sala e’ arrivata a quella desiderata il sistema si spegne. A questo punto, quando la temperatura si rialza, il sistema riparte e la riporta al valore impostato. Al contrario, un sistema inverter e’ in grado di modulare la potenza del compressore funzionando a diversi regimi. Se volete, mentre nel primo caso avevamo un sistema binario acceso o spento, qui c’e’ tutta una regolazione della potenza del compressore gestita da un microprocessore. Quando la temperatura si avvicina a quella impostata, la potenza del condizionatore scende riducendo i giri del compressore. In questo modo, con un piccolo sforzo, si riesce a mantenere la temperatura sempre intorno, con piccole fluttuazioni, al valore impostato.

Molto spesso, leggete che gli inverter sono migliori, garantiscono un notevole risparmio energetico, ecc. A costo di andare contro corrente, sostengo invece che questo non e’ sempre vero. Mi spiego meglio. Se avete intenzione di tenere acceso il condizionatore per diverese ore, allora il sistema inverter vi garantisce un consumo minimo, arrivati intorno al valore desiderato. Al contrario, un ON/OFF quando parte, parte sempre a pieno regime. Se pero’ avete intenzione di tenere acceso il condizionatore per poco tempo, perche’ volete accenderlo solo in determinati momenti della giornata o per un paio d’ore mentre vi addormentate, allora il sistema inverter funzionerebbe, dal momento che prendiamo tutto l’intervallo necessario ad abbassare la temperatura, esattamente come un ON/OFF, cioe’ sempre a pieno regime. In questo caso, il consumo sara’ esattamente lo stesso e non riuscirete assolutamente a rientrare della maggiore spesa necessaria all’acquisto di un inverter.

Un commerciante onesto dovrebbe sempre chiedere il funzionamento richiesto al condizionatore e consigliare la migliore soluzione.

Detto questo, andiamo invece ai BTU/h, cioe’ questa arcana unita’ di misura con cui vengono classificati i condizionatori.

BTU sta per British Thermal Unit ed e’ un’unita’ di misura anglosassone dell’energia. Come viene definita? 1 BTU e’ la quantita’ di calore necessaria per alzare la temperatura di una libbra di acqua da 39F a 40F, cioe’ da 3.8 a 4.4 gradi centigradi. Come capite anche dalla definizione, e’ un’unita’ di misura del lavoro, che nel Sistema Internazionale e’ il Joule, che utilizza solo unita’ anglosassoni.

Perche’ si utilizza?

In primis, per motivi storici, poi perche’, per sua stessa definizione, indica proprio il calore necessario per aumentare, o diminuire, la teperatura di un volume di un fluido, in questo caso acqua.

Bene, ora pero’ sui condizionatori abbiamo i BTU/h. Questa indica semplicemente la quantita’ di BTU richiesti in un’ora di esercizio. Possiamo convertire i BTU/h in Watt dal momento che un lavoro diviso l’unita’ di tempo e’ proprio la definizione di potenza. In questo caso:

3412 BTU/h –> 1KW

A questo punto, abbiamo qualcosa di manipolabile e che e’ simile all’analisi fatta parlando degli altri elettrodomestici.

Compriamo un condizionatore da 10000 BTU/h e questo equivale ad un sistema da 2.9KW. Quanto ci costa tenerlo acceso un’ora? In termini di bolletta, in un’ora consumiamo 2.9KWh. Se assumiamo, come visto nel precedente articolo, un costo al KWh di 0.20 euro, per tenere acceso questo sistema servono 0.58 euro/h.

0.58 euro/h? Significa 6 euro per tenerlo acceso 10 ore. In un bimestre estivo, questo significherebbe 360 euro sulla bolletta?

Questo e’ l’errore fondamentale che spesso viene fatto. Il valore in KWh calcolato e’ in realta’ quello necessario per rinfrescare, o riscaldare se abbiamo la pompa di calore, il nostro ambiente. Quando comprate un condizionatore, c’e’ anche un ‘altro numero che dovete controllare, il cosiddetto EER, cioe’ l’Energy efficiency ratio. Questo parametro indica semplicemente l’efficienza elettrica del sistema quando questo lavora in raffreddamento. Analogamente, per i condizionatori con pompa di calore, trovate anche un indice COP che invece rappresenta il rendimento quando si opera in riscaldamento.

Detto proprio in termini semplici, quando assorbite 1 KWh dalla rete, il condizionatore rende una quantita’ pari a 1KWh moltiplicato per il EER. Facciamo un esempio. Valori tipici di EER sono compresi tra 3 e 5. Se supponiamo di comprare un condizionatore con EER pari a 4, per ogni KWh assorbito dalla rete, il sistema ne fornisce 4 sotto forma di energia frigorifera.

Se adesso riprendiamo il calcolo di prima, dai valori inseriti, se il nostro condizionatore ha un EER pari a 4, per tenerlo acceso un’ora spenderemo:

0.58/4 = 0.15 euro

Se confrontiamo questi valori con quelli degli altri elettrodomestici visti nell’articolo precedente, ci rendiamo conto che il condizionatore e’ un sistema che “consuma” molta energia.

Ultima considerazione, fino a questo punto abbiamo parlato di BTU/h, prendendo un numero a caso di 10000. In commercio trovate sistemi con valori tra 5000 e 30000, o anche piu’, BTU/h. Volete rinfrescare una camera, che condizionatore dovete prendere?

In realta’, la risposta a questa domanda non e’ affatto semplice. Come potete immaginare, la potenza del sistema che dovete prendere dipende prima di tutto dalla cubatura dell’ambiente, ma ache da parametri specifici che possono variare molto il risultato: superficie vetrata ed esposizione, superficie di muro ed esposizione, eventuale coibentazione della stanza, se ci sono appartamenti sopra e sotto, se siete sotto tetto, ecc.

Giusto per fornire dei valori a spanne, potete far riferimento a questa tabella:

LOCALE DA CLIMATIZZARE (m²)

POTENZA NOMINALE RICHIESTA (BTU)

da 0 a 10

5000

da 10 a 15

7000

da 15 a 25

9000

da 25 a 40

12000

da 40 a 50

15000

da 50 a 60

18000

da 60 a 80

21000

da 80 a 100

24500

da 100 a 130

35000

da 130 a 160

43000

da 160 a 180

48000

da 180 a 200

65000

Come vedete, in linea di principio, per rinfrescare con un salto termico accettabile una stanza da 20 m^2, vi basta un sistema da 9000 BTU/h.

Concludendo, prima di acquistare un condizionatore, si devono sempre valutare le caratteristiche richieste dall’utilizzo che vogliamo farne e dall’ambiente in cui vogliamo utilizzarlo. Detto questo, i parametri specifici del sistema, possono far variare notevolmente il consumo effettivo del condizionatore, influendo in modo significativo sulla bolletta che poi andremo a pagare.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Cosa c’e’ sotto i nostri piedi?

28 Apr

In questi giorni, molti giornali e siti internet hanno pubblicato la notizia di una nuova misura rigurdante la temperatura al centro della Terra. Come avrete letto, il nuovo risultato stabilisce una temperatura del centro della Terra a 6000 gradi centigradi, ben 1000 gradi maggiore rispetto al valore precedentemente conosciuto e misurato circa 20 anni fa. Tra l’altro, moltissime fonti enfatizzano il fatto che questi 6000 gradi, misurati al centro del nostro pianeta, sono paragonabili alla temperatura esterna del Sole.

Temperature della Terra dalla superficie al centro

Temperature della Terra dalla superficie al centro

E dunque? Purtroppo, come spesso accade, molti siti sono sempre pronti a pubblicare notizie di carattere scientifico, ma un po’ meno a dare spiegazioni. In realta’, questa misura e’ estremamente complessa ed e’ stata possibile solo grazie alla collaborazione di diversi centri di ricerca. Inoltre, la nuova determinazione della temperatura interna del pianeta, consente di verificare molti modelli riguardanti diversi settori della scienza.

Da quanto detto, credo che questa notizia meriti un piccolo approfondimento, anche solo per capire meglio questi concetti, che sempre affascinano le persone.

Per prima cosa: come e’ stata fatta questa misura?

Ad oggi, sappiamo che, scendendo verso il centro della Terra, ci sono zone ad alta pressione occupate da ferro e zolfo liquidi. Pian piano che ci avvicianiamo al centro pero’, e le pressioni continuano ad aumentare, si trova un blocco di ferro solido, che occupa la parte piu’ interna del nostro pianeta. Come sappiamo questo? L’evidenza di questa composizione, ma anche il volume occupato dalla parte solida e da quella liquida, vengono determinati studiando le onde sismiche dei terremoti di intensita’ maggiore. Cosa significa? Le onde emesse durante un forte sisma, si propagano all’interno della Terra e interagiscono in modo diverso incontrando un volume solido o liquido. Bene, misurando queste interferenze, se volete ascoltando il loro eco, e’ possibile determinare lo spessore del nucleo solido del nostro pianeta. Purtroppo, questi studi non ci danno nessuna informazione sulla temperatura interna della Terra. Per ricavare questi valori e’ necessario procedere in modo diverso.

Arriviamo dunque alla misura in questione. Come potete immaginare, sapendo che nel nucleo e’ presente sia ferro solido che liquido, basta determinare i punti di fusione di questo metallo per arrivare all’informazione cercata. Purtroppo, il discorso non e’ cosi’ semplice. In questo caso, oltre alla temperatura, gioca un ruolo essenziale anche la pressione a cui il ferro e’ sottoposto. Pressione e temepratura sono due variabili indipendenti di cui tenere conto per determinare il punto di fusione del ferro.

Per capire questo importante concetto, vi faccio un esempio noto a tutti. Quando si dice che la temperatura di ebollizione dell’acqua e’ 100 gradi, ci si riferisce alla pressione atmosferica. Come sicuramente avrete sentito dire, esistono delle differenze per questo valore a seconda che vi troviate al mare o in montagna. Questo e’ comprensibile proprio considerando i diversi valori di pressione. In questo caso, possiamo vedere la pressione come il peso della colonna d’aria sopra le nostre teste. Variando il valore della pressione, cambia dunque la temperatura di ebollizione dell’acqua. La stessa cosa avviene per il ferro al centro della terra, ma per valori di temperatura e pressioni molto diversi da quelli a cui siamo abituati.

Quando parliamo di pressioni al centro della Terra, stiamo pensando a valori che si aggirano intorno a qualche milione di atmosfere. Per poter studiare le traformazioni di fase del ferro con questi valori di pressione e temperatura, i ricercatori francesi hanno costruito uno strumento ad hoc, di cui vi mostro uno schema:

Schema dello strumento utilizzato per simulare le pressioni al centro della Terra

Schema dello strumento utilizzato per simulare le pressioni al centro della Terra

Come vedete, una lamina di ferro viene messa tra due diamanti, in modo tale che la punta tocchi la superficie. Spingendo i due diamanti su un punto molto piccolo, si riescono a creare le pressioni richieste per la misura. Per scaldare invece il ferro alle temperature richieste, vengono utilizzati potenti fasci laser in grado di far salire la temperatura fino a diverse migliaia di gradi.

A questo punto, appare evidente che tutto il sistema debba essere isolato termicamente e chimicamente dall’ambiente esterno per impedire perdite di calore ma anche che il ferro reagisca con l’ambiente viziando il risultato. In questo caso, per poter determinare lo stato solido o liquido del campione, si sono utilizzate le emissioni a raggi X del materiale, in modo da poter determinare lo stato fisico, senza perturbare in nessun modo la misura.

Dai modelli sismici utilizzati, nello strato in cui il ferro e’ liquido, si ha una temperatura di 4800 gradi con una pressione di 2.2 milioni di atmosfere, risultato confermato dalla misura. Se pero’ aumentiamo ancora la pressione, analogamente a quanto accade mentre scendiamo vicino la centro della Terra, e la portiamo ad un valore di 3.3 milioni di atmosfere, ci si accorge che per far solidificare il ferro, come osservato dallo studio delle onde sismiche, e’ necessaria una temperatura di 6000 gradi.

Cosa significa questo? Riassumendo, sappiamo dai modelli sismici che il centro della terra e’ di ferro solido circondato da ferro liquido. Con il dispositivo visto, e’ stato possibile determinare che alle pressioni del centro della Terra, affinche’ il ferro sia solido, e’ necessaria una temperatura di 6000 gradi. Bene, questo e’ proprio il valore della temperatura al centro del nostro pianeta e che e’ stato possibile misurare con precisione, solo 500 gradi di incertezza sperimentale, con questa importantissima ricerca.

Come vi avevo anticipato, queto nuovo valore e’ circa 1000 gradi superiore a quello precedente ottenuto 20 anni fa. Perche’ questa differenza? Il sistema usato in precedenza per ottenere le alte pressioni richieste era molto simile a quello odierno. La caratteristica che ha permesso di misurare con precisione la temperatura, e’ lo studio delle transizioni del ferro osservando il tutto ai raggi X. Nella precedente misura, venivano utilizzate onde visibili. Come evidenziato in questa nuova misura, arrivati a circa 5000 gradi, si presentano fenomeni di cristallizzazione superficiale del ferro, che molto probabilemnte sono stati interpretati in passato come l’inizio della transizione nella fase solida, mentre, come visto in questa misura, per arrivare in questo stato, e’ necessario aumentare ancora di 1000 gradi la temperatura.

Ultima importante considerazione: come visto, la temperatura del mantello intorno al nucleo e’ di circa 4800 gradi, cioe’ 1200 gradi inferiore a quella del blocco di ferro solido. Bene, questa differenza di temperatura e’ fondamentale per capire un altro importante parametro del nostro pianeta e di cui spesso abbiamo parlato, il campo magnetico. Come sapete, spesso abbiamo parlato di geomagnetismo per sfatare tutte quelle voci catastrofische che vorrebbero un’inversione dei poli in corso:

Inversione dei poli terrestri

L’anomalia del Sud Atlantico

Il battito naturale …. della Terra

Bene, la differenza di temperatura tra gli strati interni, insieme anche alla rotazione della terra intorno al suo asse, sono proprio i responsabili della generazione del nostro campo magnetico. Per dirlo in parole semplici, l’interno della Terra si comporta come una dinamo in cui le correnti sono correnti termiche spinte dalla differenza di temperatura.

Come vedete, alla luce di quanto detto, e’ abbastanza riduttivo quanto si puo’ leggere sui giornali. Questa misura e’ estremamente interessante dal punto di vista tecnico, ma soprattutto i risultati ottenuti sono di prim’ordine. Come anticipato, i nuovi valori trovati consentiranno di migliorare notevolmente i modelli anche dal punto di vista geologico, utili anche per studiare la propagazione dei terremoti sul nostro pianeta. Detto questo, la misura apre il campo anche a possibili studi per cercare di riprodurre in laboratorio le condizioni di pressione e temperatura presenti in ogni strato del nostro pianeta. Avere una mappa di questo tipo, potrebbe fornire dati estremamente importanti per capire al meglio anche l’origine e l’evoluzione della nostra Terra.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.