Tag Archives: campo

A proposito di campo geomagnetico

31 Ott

di Patrizia Esposito

————————————-

Ipotizziamo di dover misurare la temperatura del nostro corpo: fa differenza se mettiamo il termometro direttamente a contatto con la pelle o se lo appoggiamo sopra i vestiti? Lasciamo per un momento la domanda in sospeso e parliamo di una particolare categoria di inquinanti organici, i cosiddetti POPs (Persistent Organic Pollutants).

Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l'uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Fig.1: Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l’uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Si tratta di pesticidi (aldrin, DDT, eptacloro), prodotti industriali (PCB) e sottoprodotti non desiderati di certi processi (diossine e furani), regolamentati (poco efficacemente?) nel loro utilizzo e smaltimento dalla Convenzione di Stoccolma del 2001 e sul banco degli imputati con l’accusa di essere sostanze altamente tossiche per l’ambiente e per l’uomo (figura 1) e responsabili del cambiamento climatico. Le peculiari caratteristiche chimico-fisiche dei POPs li rendono, infatti, persistenti (figura 2) ,bioaccumulabili e trasportabili su lunghe distanze.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

La proprietà per la quale questi composti si legano ai tessuti adiposi dei vertebrati si chiama lipofilicità e fa sì che questi inquinanti entrino nelle catene alimentari. Mentre è nota come effetto grass-hopper (figura 3) la modalità di trasporto su lunghe distanze, dovuta a determinati valori della tensione di vapore, della costante della legge di Henry e del coefficiente di partizione ottanolo-aria, e che consiste nell’evaporazione di questi composti dall’acqua e dal suolo, nel trasporto in atmosfera e nella loro deposizione su superfici acquatiche e terrestri. In pratica i POPs, nelle zone tropicali e temperate evaporano, subiscono un trasporto atmosferico che segue l’andamento dei meridiani terrestri, condensano nelle zone fredde come i poli e le grandi catene montuose e si accumulano nei vari compartimenti ambientali. Ecco perché si ritrovano in alte concentrazioni in zone lontane da quelle di produzione.

Fig.3: Effetto Grass-Hopper

Fig.3: Effetto Grass-Hopper

Sic stantibus rebus, i POPs rivestono il nostro pianeta come una pellicola e sono riconosciuti come una concausa dell’effetto serra. E se, oltre ad avere un’influenza sul clima globale, avessero una qualche interazione con il campo magnetico terrestre? Di preciso: le misurazioni del campo geomagnetico avrebbero gli stessi valori se non ci fossero i POPs? La risposta alla domanda iniziale è abbastanza palese: non è lo stesso appoggiare il termometro sui vestiti o direttamente sulla pelle. La risoluzione del quesito finale invece non è altrettanto immediata. Ma è lecito pensare che le misurazioni del campo magnetico possano essere alterate dalla presenza ubiquitaria di questi composti e che l’indebolimento del campo stesso (del quale si continua a parlare e sparlare) sia solo apparente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

SWARM e la diminuzione del campo geomagnetico

21 Giu

Nella solita sezione:

– Hai domande o dubbi?

Ormai divenuta punto di riferimento per i frequentatori di questo blog, è stata posta una domanda davvero molto interessante e che credo meriti un maggiore approfondimento attraverso un apposito articolo. La domanda in questione è relativa alla missione dell’ESA SWARM e che ha il compito di monitorare e misurare con una precisione mai raggiunta prima la struttura del campo magnetico terrestre. Per dirla tutta, la domanda iniziale puntava il dito anche contro una serie di articoli apparsi in rete, alcuni anche di note riviste considerate tutt’altro che catastrofiche, leggasi Focus, che forse si sono lasciate prendere un po’ la mano nei toni con affermazioni, lasciatemi dire, un po’ troppo esagerate.

Detto questo, cerchiamo di andare con ordine e capire meglio di cosa si sta parlando.

In diversi articoli ci siamo già occupati di campo magnetico terrestre dal momento che questo, ed in particolare la sua inversione, rappresentano da sempre un argomento molto in voga in chi vorrebbe far credere che qualcosa di grave stia accadendo alla nostra terra. Ecco alcuni esempi:

Inversione dei poli terrestri

La terza fascia di Van Allen

Come visto, il campo magnetico terreste offre una naturale protezione per la biosfera contro le radiazioni emesse dal nostro Sole. Queste, convogliate dalle linee di campo, vengono deviate e non riescono a penetrare direttamente nella nostra atmosfera. Questo, ad eccezione di alcuni punti specifici come ad esempio i poli, dove l’ingresso delle particelle e la loro seguente interazione con le molecole presenti in atmosfera da luogo allo splendido fenomeno naturale delle aurore.

Ora, come visto diverse volte, molto spesso vengono diffuse teorie secondo le quali il campo magnetico terrestre sia in procinto di invertirsi o, peggio ancora, di scomparire del tutto. E’ possibile questo? Per quanto riguarda l’inversione, assolutamente si. In diversi articoli abbiamo parlato di ciclo solare:

– Evidenze dal Sole?

– Le macchie solari AR1504

– Gli effetti di AR1504

– Sole: quanta confusione!

– Inversione dei poli terrestri

– Nuova minaccia il 22 Settembre?

– Come seguire il ciclo solare

– Curiosita’ sui cicli solari

– Possiamo scegliere tra era glaciale o desertificazione

Tempesta solare e problemi ai telefoni?

Come visto, il nostro Sole è solito invertire il verso dei suoi poli magnetici ogni 11 anni, in concomitanza con quelli che siamo soliti chiamare cicli solari. Per la nostra Terra invece, sempre caratterizzata da un campo magnetico dipolare, siamo soliti pensare che i suoi poli siano fissi nella loro posizione, polo nord magnetico verso nord terrestre e viceversa per il sud.

E’ possibile che i poli magnetici della Terra si invertano? Assolutamente si. Anzi, per dirla tutta, questo è già successo diverse volte nella storia geologica del nostro pianeta. Come si vede questo? Esiste una specifica branca della geofisica che si chiama paleomagnetismo. In questa disciplina, come visto negli articoli precedenti, si studia il verso del campo magnetico terrestre analizzando la disposizione magnetica delle rocce sedimentarie. Come è evidente, durante la loro formazione, i nuclei magnetici presenti si orientano secondo la direzione del campo terrestre e poi, una volta raffreddate, restano congelate in questa posizione.

Detto questo, torniamo invece a parlare di SWARM. Come anticipato, si tratta di una missione dell’ESA lanciata alla fine dell’anno scorso e che ora sta cominciando a dare i primi dati. L’intera missione è costituita da una costellazione di 3 satelliti che hanno lo scopo di mappare intensità, forma e andamento del campo magnetico, eliminando tutte le sorgenti esterne tra cui, ovviamente, quella solare. Solo pochi giorni fa, sono stati presentati i primi risultati della missione che hanno mostrato una sensibilità mai raggiunta prima per le misure di campo. Come potete immaginare, lo scopo della missione è quello di monitorare e capire a fondo il campo magnetico terrestre e, anche, vedere variazioni significative della sua forma. Queste, ovviamente, legate anche allo studio di una ipotetica inversione dei poli.

Bene, detto questo, i dati della missione hanno per il momento confermato quello che già si sapeva. Questo solo per rimanere nella parte interessante per rispondere alla domanda iniziale. Come visto anche nei nostri articoli precedenti, il polo nord magnetico è in lento e costante movimento e dovrebbe arrivare, nel giro di una cinquantina di anni, in Siberia. Questa foto, già utilizzata anche in precedenza, aiuta a visualizzare la posizione dei nord magnetico:

Posizione del polo nord magnetico nel corso degli anni

Posizione del polo nord magnetico nel corso degli anni

Ovviamente, ho parlato di “parte interessante per la domanda iniziale” dal momento che gli scopi della missione SWARM non sono solo quelli di vedere se il campo si sta invertendo o meno, ma di studiare moltissimi parametri legati al magnetismo del nostro pianeta.

Cosa si evince dunque dai dati preliminari della missione? Semplice, che il campo magnetico è in movimento e che i poli si stanno spostando. Questo significa che è in atto un’inversione del campo? Molto probabilmente no. Se prendiamo come riferimento il nostro Sole, la fase di transizione tra una configurazione e l’altra è estremamente complessa con un campo che non appare più semplicemente dipolare.

Linee di campo magnetico solare prima e durante l'inversione dei poli

Linee di campo magnetico solare prima e durante l’inversione dei poli

Per dirla tutta, esistono anche teorie che prevedono un lento e continuo movimento dei poli magnetici terrestri fino alla completa inversione. Anche in questo caso però, il processo durerebbe non meno di 5000-10000 anni.

Bene, alla luce di quanto detto, provate ora a leggere questo articolo:

Articolo focus SWARM

Come vedete, in alcuni tratti il catastrofismo sembra imperante. Ripeto, l’inversione del campo magnetico terrestre è possibile, il polo nord si sta spostando ed in passato sono già avvenute inversioni di campo. C’è da preoccuparsi? Da quanto detto, direi proprio di no! Sicuramente i dati raccolti da SWARM aiuteranno a comprendere meglio il campo magnetico terrestre e forniranno moltissimo materiale su cui lavorare. Da qui a parlare di inversione dei poli in corso, direi che c’è una notevole differenza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La prova regina per eccellenza

21 Giu

In questi giorni sta facendo molto discutere il caso di Yara Gambirasio e l’arresto di quello che sembrerebbe il presunto assassino. Mi rendo conto che la tematica non è delle più semplici ed in questa sede, come è la natura stessa del blog, non voglio entrare in discussioni riguardanti il caso in se ne tantomeno discutere giustizialismo o meno. Come sappiamo tutti, quello che ad oggi è identificato come l’assassino di Yara è stato identificato dopo una lunga e costosa inchiesta che si è basata notevolmente sul test del DNA e sulla comparazione di circa 18000 campioni prelevati da cittadini della zona con delle tracce biologiche rinvenute su un indumento della vittima.

L’identificazione del presunto assassino ha portato però una lunga coda di discussioni sulla certezza o meno della colpevolezza. Senza entrare nel merito della discussione sulle dichiarazioni rilasciate anche da esponenti di governo, il fulcro della questione è rappresentato dalla validità o meno, o meglio dalla precisione o meno, del test del DNA eseguito.

Per cercare di capire meglio la questione, proviamo a capire come vengono eseguiti questi test e se veramente ci sono margini di errore significativi tali da mettere in discussione l’impianto accusatorio per il sospetto.

Come anticipato, durante l’inchiesta sono stati prelevati circa 18000 campioni di DNA da altrettante persone che frequentavano luoghi di interesse per l’indagine e che potevano essere entrate in contatto in qualche modo con la vittima. Tra queste persone è stato identificato un notevole grado di somiglianza tra il campione rinvenuto ed un frequentatore di una nota discoteca della zona. Da qui si è poi risaliti a tre fratelli il cui DNA era ancora più somigliante alla prova e al loro padre, morto nel 1999, ma il cui DNA è stato estratto dalla saliva dietro un bollo della patente e confermato poi dalle ossa riesumate per le indagini. Come è noto, da qui si è passati ad identificare la madre dell’assassino che avrebbe avuto una coppia di gemelli illegittimi dal padre in questione. L’identificazione madre-figlio è sempre stata fatta mediante il test del DNA e nello specifico mediante la comparazione di quello che si chiama DNA mitocondriale, trasferito interamente da madre a figlio. A questo punto, proprio nel maschio della coppia di gemelli è stato identificato il presunto assassino di Yara.

Tutta questa storia sembra più la sceneggiatura di un film o di una serie poliziesca piuttosto che una normale indagine. Ovviamente, il costo di tutte queste procedure è stato elevatissimo. Ed ora? Dopo circa 4 anni, milioni di euro spesi, perché continuiamo ad avere dubbi? Questo è il tema che vorremmo affrontare per capire meglio il perché di tutta questa discussione dopo che il test del DNA viene da diverse fonti considerata la prova regina per la risoluzione di indagini rompicapo.

Come avrete letto e ascoltato, la certezza della corrispondenza tra la traccia rinvenuta sugli indumenti e il DNA del presunto assassino è del 99,99999987%, dunque la probabilità di errore è di uno su miliardi. Allora? Uno su miliardi sembrerebbe una certezza assoluta. In realtà, non è così. Cerchiamo di capire meglio.

Per rima cosa, come viene fatto il test del DNA? Come sappiamo, la molecola del DNA, la famosa doppia elica, è composta da catene lunghissime di basi che contengono tutte le informazioni necessarie a codificare l’essere umano. Se prediamo il DNA di due persone qualsiasi, non parenti, fratelli o altro, ma persone qualsiasi, questi sono identici tra loro per circa il 99.9%. Bene, questa quasi totalità identica è quella che si chiama “genoma umano”. La restante parte del DNA è composta da sequenze non codificate e che non entrano nella sintesi proteica. Proprio questa parte è formata da sequenze di coppie che si ripetono casualmente e la cui struttura è talmente arbitraria da potersi considerare un’evoluzione moderna delle classiche impronte digitali. Detto in altri termini, questa parte minore di DNA è diversa da individuo ad individuo ma è rappresentata non da sequenze a caso, ma da coppie che si ripetono un numero fisso di volte. Bene, analizzando questa parte del DNA, cioè contando quanti e quali coppie e quante volte si ripetono, è possibile effettuare il test del DNA per confrontare tra loro due campioni. Questa tipologia di analisi è la stessa che viene utilizzata anche per il test di paternità utilizzato per riconoscere o meno un figlio.

Detto questo, se consideriamo il numero elevatissimo di combinazioni possibili di queste sequenze, una volta confrontati due campioni e visto che questi hanno le stesse sequenza ripetute, arriviamo agilmente a probabilità di appartenenza che sfiorano il 100%. In altri termini, trovato un campione di DNA, la probabilità che questo appartenga ad una persona a caso piuttosto che a colui che viene identificato è una su miliardi di casi. Tra l’altro, si tratta di un test abbastanza semplice e che è possibile portare a termine nell’arco di un paio d’ore.

Detto questo, con le probabilità che abbiamo detto prima, dove sarebbe la possibilità di errore?

In realtà, è vero che la probabilità di errore è così bassa, ma si tratta solo della probabilità che due persone possano avere le stesse sequenze ripetute nella parte di DNA analizzato. Purtroppo, come la scienza ci insegna, si deve sempre tenere conto degli errori apportati nella misura.

Cosa significa?

Come detto, in questa tipologia di misura si contano, nel vero senso del termine, le sequenze ripetute. E se ci sbagliamo a contare? Questo in realtà potrebbe essere un problema. E’ vero che la sequenza del DNA in esame, per conoscenza i microsatelliti, sono una caratteristica quasi unica, ma alcuni laboratori dichiarano percentuali di errori anche fino al 2%, dunque infinitamente maggiore di quelle considerate, nell’identificazione delle sequenze. Ora, se confrontiamo il 2% con il zero virgola tanti zeri qualcosa visto prima, le cose cambiano decisamente verso.

Oltre a questo, c’è poi il problema della contaminazione dei campioni. Molti citato in questi giorni è il cosiddetto caso del fantasma di Heilbronn, un caso del 1993 in cui in numerosi omicidi in Germania venne rinvenuto lo stesso DNA appartenente ad una donna. Nei mesi successivi, lo stesso campione venne identificato anche in altri casi simili ma in paesi diversi. Da qui, come è ovvio, si pensò ad un caso di serial killer europeo autore di tantissimi omicidi. Il tutto si risolse poi nel nulla quando dopo qualche anno si capì che il DNA in questione apparteneva ad una operaia della ditta che forniva i campioni per i test a diversi paesi e che per errore era entrata in contatto con materiale dopo la sterilizzazione.

Ovviamente, quello del fantasma di Heilbronn è un caso limite, ma ci fa capire come le probabilità di errore sono sempre presenti e non si limitano alla sola precisione del test che, sbagliando, viene spesso citata da sola.

Detto questo, anche in termini giuridici, il test del DNA, in casi come questo, viene considerato come un forte indizio ma non come una prova schiacciante. Come potete capire, per poter chiudere definitivamente il caso è necessario ricostruire il tutto e inchiodare con certezza il soggetto identificato dal test con tutta una serie di altri indizi che rendono la cosa inattaccabile. Questa è la ricostruzione dell’impianto accusatorio a cui si sono appellati gli avvocati difensori di quello che, ad oggi, possiamo considerare il sospettato numero uno.

Solo per chiarire il tutto, insieme al test del DNA in questi giorni viene spesso citato il database dei cellulari che si sono agganciati alla cella telefonica del campo in cui è stato rinvenuto il corpo. Proprio nell’articolo precedente:

Tempeste solari e problemi ai telefoni?

abbiamo parlato di rete mobile parlando della zona coperta dalla cella intesa come stazione mobile. Anche su quest’altra prova a sostegno, gli avvocati difensori si sono appellati al fatto che la stessa cella copre sia il campo già citato, ma anche abitazioni in cui il sospetto poteva essere in quel momento perché di sua proprietà o di parenti stretti.

Dunque? Sicuramente la persona identificata ha un pesante e sospetto di colpevolezza ma, come visto, prima di poter dichiarare il caso chiuso, sarà necessario ricostruire molti altri dettagli che metteranno in correlazione l’assassino con la la vittima e, soprattutto, chiuderanno il caso con una perfetta ricostruzione di quanto accaduto. Divulgare notizie troppo velocemente, potrebbe solo complicare l’indagine e rallentare il lavoro degli inquirenti.

Restiamo dunque in attesa di seguire l’evolversi delle indagini anche se, per una accusa di colpevolezza, serve sempre il processo!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tempesta solare e problemi ai telefoni?

21 Giu

Nella sezione:

Hai domande o dubbi?

e attraverso varie mail che mi sono arrivate, mi è stato chiesto di fare un po’ di chiarezza sui problemi telefonici che si sono avuti nei giorni scorsi soprattutto in virtù di quanto raccontato su vari siti e giornali. Come forse avrete letto, diverse fonti hanno infatti puntato il dito contro la forte attività solare per spiegare i guasti alla rete mobile, soprattutto per i clienti wind, che hanno visto un picco di malfunzionamenti intorno al 13 Giugno.

Diverse volte su questo blog ci siamo occupati di attività solare e dell’alternanza di massimi e minimi che la nostra stella presenta nel corso del tempo:

– Evidenze dal Sole?

– Le macchie solari AR1504

– Gli effetti di AR1504

– Sole: quanta confusione!

– Inversione dei poli terrestri

– Nuova minaccia il 22 Settembre?

– Come seguire il ciclo solare

– Curiosita’ sui cicli solari

Possiamo scegliere tra era glaciale o desertificazione

Come visto, il nostro Sole non è affatto un corpo con un’attività costante nel tempo ma passa attraverso periodi di massimo e minimo in un tempo di circa 11 anni. Non c’è assolutamente nulla di strano o di anomalo in questo comportamento, ma il tutto fa parte del normale e corretto funzionamento di stelle di questo tipo. Nonostante la buona conoscenza astronomica del Sole, molto spesso l’attività di questa stella, soprattutto a causa della sua connessione con la Terra e con la vita, viene chiamata in causa per annunciare catastrofi o per spiegare, come nel caso in questione, problematiche che in realtà non sono assolutamente correlate.

Cerchiamo dunque di andare con ordine e capire prima di tutto cosa è successo qualche giorno fa.

Come detto all’inizio, la scorsa settimana si sono avuti problemi per molti clienti di telefonia fissa e mobile principalmente per l’operatore Wind. Moltissime persone sono rimaste per qualche ora completamente isolate ed impossibilitate sia a ricevere chiamate che a collegarsi alla rete.

Normali problemi? In realtà no, dal momento che blackout così estesi rappresentano eventi eccezionali e, molto spesso, legati a problematiche uniche e per cui la rete non è protetta. Normalmente, quando avvengono problemi di questo tipo i guasti vengono risolti e realizzate soluzioni specifiche che possano impedire nel futuro il riproporsi di anomalie simili.

Nonostante questo, diverse fonti sulla rete hanno parlato di questi guasti parlando di eventi dovuti alla forte attività del Sole. Come forse avrete letto, nei giorni precedenti il guasto si sono registrati alcuni flare solari molto potenti che, stando a quanto riportato, avrebbero rilasciato particelle molto energetiche che una volta arrivate sulla Terra avrebbe messo fuori gioco i satelliti delle comunicazioni.

Aspettate un attimo. Guasto alla rete fissa e mobile per i clienti Wind. Se proprio vogliamo essere precisi, alcune interruzioni sporadiche e di minore entità per un numero ristretto di clienti Fastweb. Spiegazione? I flare solari. C’è qualcosa che non mi torna in tuta questa storia. Secondo voi, il Sole emette particelle energetiche verso la Terra. Queste arrivano e decidono di colpire solo le infrastrutture di un operatore lasciando intatte le altre? Capite l’assurdità di quello che vi stanno dicendo?

Torniamo seri e cerchiamo di capire meglio l’intera storia. Come visto negli articoli precedenti, durante i periodi di massima attività solare ci possono essere emissioni di flare di particelle verso l’esterno. Queste potenti emissioni possono ovviamente arrivare sulla Terra. Normalmente, i bersagli più a rischio sono i satelliti in orbita perché esposti al flusso di particelle. La superficie terrestre è invece protetta e schermata dallo scudo magnetico offerto dal campo geomagnetico. Questa naturale protezione riesce a deviare la maggior parte delle radiazioni dannose provenienti dal Sole impedendo a queste di raggiungere la superficie.

Solo per maggiore informazione e per completezza, vi riporto anche il link della pagina che Wind ha pubblicato per spiegare il motivo del guasto e, soprattutto, per scusarsi con i propri clienti:

Wind guasto 13 Giugno

Premesso dunque il discorso sull’assurdità del solo operatore telefonico, credo sia interessante capire meglio, approfittando della bufala, come funziona la rete mobile che ci consente di telefonare, inviare messaggi e collegarci alla rete con i nostri dispositivi senza fili.

Oggi come oggi, siamo talmente abituati alla possibilità di collegamento che abbiamo a disposizione che molti di noi ignorano completamente come funzioni questa tipologia di comunicazione. Quando effettuiamo una chiamata, il nostro cellulare emette onde radio con una frequenza specifica. Ad oggi, la maggior parte dei telefonini che abbiamo hanno la possibilità di emettere onde in tre bande, di cui la terza utilizzata solo in alcuni paesi come, ad esempio, gli Stati Uniti.

Bene, le onde radio prodotte dal nostro cellulare, contengono le informazioni relative alla chiamata che stiamo facendo. Detto in parole povere, la nostra voce captata dal microfono del cellulare mette in vibrazione una membrana che genera un segnale successivamente digitalizzato e trasmesso attraverso onde radio. Queste onde vengono poi captate da quella che viene chiamata “stazione base”. Questa altro non è che una struttura munita di antenne riceventi che captano le onde radio e le trasmettono attraverso una rete cablata. Come potete capire, il vantaggio della rete mobile è rappresentato dalla possibilità di poter comunicare senza fili. Le onde radio che si propagano in aria rappresentano il filo invisibile che connette il nostro dispositivo mobile con la stazione base.

Le stazioni base possono essere di diverse dimensioni e potenze. Esistono anche stazioni “camuffate” per potersi integrare al meglio con l’ambiente circostante (finti alberi, integrate in strutture preesistenti o, anche, installate su carrelli mobili che possono essere spostati da un punto all’altro). La stazione base con cui il nostro telefono è connesso rappresenta quella che viene definita “cella”. Il numero di stazioni base presenti nel territorio è determinato ovviamente dalla copertura che il sistema utilizzato riesce ad offrire e alla potenza massima installabile in base alla zona specifica. Per spiegarmi meglio, la copertura offerta da una singola stazione non è calcolabile a priori ma dipende anche dalla morfologia del territorio in questione e alla presenza di case, edifici o altre strutture in grado di limitare la copertura a causa della riflessione e dispersione dei segnali radio inviati dai cellulari.

Oltre alla comunicazione voce e messaggistica, a partire dalla seconda generazione di comunicazione (2G), i nostri cellulari sono in grado di inviare e ricevere anche pacchetti di dati che sono quelli che ci consentono di collegarci ad internet senza un cablaggio fisico.

Capite dunque come è possibile chiamare dai nostri cellulari? La connessione tra le stazioni base avviene invece via normali cavi coassiali o, sempre più spesso, attraverso fibre ottiche. In particolare, l’utilizzo delle fibre ha consentito di migliorare la trasmissione dei segnali con minori perdite nel percorso e di aumentare il numero di collegamenti gestibili a parità di sezione del filo.

E se non sono presenti stazioni base nelle vicinanze? Semplice, questo è il caso di un cellulare che, come si dice, “non ha campo”. In regioni isolate del pianeta si ricorre ad una tecnologia diversa che è invece quella dei telefoni satellitari. In questo caso, i dispositivi si connettono direttamente con satelliti in orbita geostazionaria che hanno il compito di ritrasmettere i segnali digitali a Terra e di consentire in questo modo la comunicazione da qualsiasi parte del pianeta.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

La fisica ha detto che Dio esiste!

16 Giu

Un nostro lettore mi ha contattato via mail per chiedermi maggiori normazioni, o meglio l’eventuale conferma o smentita, di un articolo apparso in questi giorni su alcuni siti, inutili che io vi dica nuovamente quale tipologia di siti. Al solito, e lo premetto subito, è vero che l’articolo in questione è apparso su diversi siti ma, come al solito, la “propagazione mediatica” attraverso internet, soprattutto in casi come questi, passa sempre per il becero copia/incolla che tanti hanno abitudine di fare, senza nemmeno degnarsi, non dico di verificare le fonti, ma almeno di riscrivere l’articolo con parole proprie.

Di cosa si tratta?

Questa volta si parla niente poco di meno che di Dio e del fatto che la sua esistenza sarebbe stata provata scientificamente attraverso deduzioni teoriche ed esperimenti. Davvero? La solita bufala? Chi è l’autore di queste misure? E qui il discorso si complica non poco. Lo scienziato che avrebbe fatto queste osservazioni non è un fisico qualunque ma il fisico teorica americano (di origini giapponesi) Michio Kaku.

Chi è Michio Kaku?

Avete mai sentito parlare della teoria delle stringhe? Bene, questo signore è uno dei due co-autori che per primi hanno proposto la teoria delle stringhe e la hanno formalizzata matematicamente.

Il fisico teorico Michio Kaku

Il fisico teorico Michio Kaku

Cavolo! Data la fonte, forse è il caso di capire meglio questo articolo e cercare di capire cosa avrebbe spinto, qualora l’articolo fosse vero, il famoso fisico ha fare queste affermazioni.

A questo punto però, se provate a leggere l’articolo vi rendete conto che … non si capisce nulla. Perché? Vi riporto qualche spezzone:

Uno degli scienziati più famosi e rispettati,  dichiara di aver trovato la prova dell’azione di una forza che “governa tutto”. Il noto Fisico teorico Michio Kaku ha affermato di aver creato una teoria che potrebbe comprovare l’esistenza di Dio.

Per raggiungere le sue conclusioni , il fisico ha utilizzato un “semi–radio primitivo di tachioni” (particelle teoriche che sono in grado di “decollare” la materia dell’universo o il contatto di vuoto con lei, lasciando tutto libero dalle influenze dell’universo intorno a loro), nuova tecnologia creata nel 2005 . Anche se la tecnologia per raggiungere le vere particelle di tachioni è ben lontano dall’essere una realtà , il semi-radio ha alcune proprietà di queste particelle teoriche, che sono in grado di creare l’effetto del reale tachyon in una scala subatomica .

E, ovviamente, non poteva mancare la frase ad effetto:

L’informazione ha creato molto scalpore nella comunità scientifica perché Michio Kaku è considerato uno degli scienziati più importanti dei nostri tempi, uno dei creatori e degli sviluppatori della rivoluzionaria teoria delle stringhe ed è quindi molto rispettato in tutto il mondo.

Avete capito la tipologia di articolo che stiamo prendendo in considerazione? Soltanto leggendo queste poche righe estratte dal testo dell’articolo, potete capire come il tutto sia orchestrato per non far capire nulla, sia stato copiato e tradotto malamente da un’altra lingua ma, soprattutto, la presenza di frasi ad effetto servono solo a creare enfasi atta a coprire la bufala che vi stanno facendo passare.

Andiamo con ordine.

Nella comunità scientifica non si parla d’altro. Falso, vi giuro che nella comunità scientifica si parla di “tutt’altro”! Nell’articolo si parla di tachioni come particelle teoriche ma di un semi-radio, che vi giuro non ho idea di cosa potrebbe essere secondo queste menti malate, che avrebbe le proprietà dei tachioni.

Apro e chiudo parentesi. I tachioni sono appunti particelle “pensate teoricamente” ma che non sono mai state osservate per via sperimentale. Per dirla tutta, dopo il primo entusiasmo nella formulazione dei tachioni, ormai la loro esistenza è stata messa da parte nella comunità scientifica. Come detto, si tratta di particelle immaginate solo a livello teorico, che avrebbero massa immaginaria e si muoverebbero a velocità maggiore di quella della luce. A livello teorico, non sono fantasie ma risultati possibili di equazioni.

Dunque questi tachioni, che non esistono, a contatto con la materia sarebbero in grado di “decollare la materia dell’universo”. Ma che significa? Senza che vi sforziate a cercare di capire, si tratta di frasi senza senso messe li giusto per fare scena. Leggendo questo articolo mi è tornato alla mente il film “amici miei° e la “supercazzola”. La valenza di questa frase è del tutto equivalente a quella della supercazzola appunto.

Perché questo articolo è stato tirato fuori ora?

Anche qui, come al solito, niente di speciale. Come detto diverse volte, la mancanza di spunti catastrofisti dell’ultimo periodo porta tanti siti a ritirare fuori dai loro archivi articoli datati giusto per riempire le loro homepage. Se provate a fare una ricerca su google, utilizzando come termini di ricerca proprio “Michio Kaku Dio”, trovate risultati anche molto datati, scritti esattamente allo stesso modo. Con buon probabilità, almeno da quello che ho visto, l’articolo originale da cui è partito lo storico copia/incolla è di un sito portoghese che ha pubblicato queste cavolate per primo nel 2011:

Articolo originale

Ultima domanda prima di chiudere: perché si cita nell’articolo proprio Kaku? E’ vero che si tratta di un fisico molto conosciuto ma, in fondo, tutti conoscono la teoria delle stringhe, o almeno ne hanno sentito parlare, ma non tutti ne conoscono gli autori. Parlare però di Kaku su argomenti di questo tipo è, in realtà, molto semplice. Oltre ad essere famoso per la teoria delle stringhe, Kaku è anche un noto divulgatore scientifico. Il luminare non è nuovo a teorie, diciamo, di confine e ad affermazioni che hanno fatto discutere sugli alieni, su Dio e sulla sua visione matematico/religiosa dell’universo. Per chi lo segue, Kaku è molto amato proprio per queste affermazioni perché si dedica a parlare di tutto, senza sfuggire ad argomenti fantascientifici e senza limitarsi in affermazioni poco “scientifiche”.

Detto questo, capite dunque l’assurdità dell’articolo di cui stiamo discutendo. Non credo sia necessario aggiungere altro per capire che si tratta di una bufala, tra l’altro anche datata e riciclata. Al solito, fate molta attenzione a quello che leggete e cercate sempre di fare delle verifiche autonome su siti “attendibili”. Solo in questo modo potrete evitare di credere ad articoli furbescamente realizzati con lo scopo di confondere le acque citando nomi ed argomenti ad effetto.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Europa: oceani, acqua e …. (forse) vita

10 Mag

Diverse volte abbiamo parlato di esplorazione spaziale e altrettante siamo poi finiti a discutere dell’esistenza o meno di forme di vita al di fuori del nostro pianeta. Come e’ noto, uno degli aspetti senza dubbio piu’ interessanti e sentiti, anche dai non addetti ai lavori, e’ la possibilita’ che la vita si sia sviluppata anche su altri pianeti.

Personalmente, come detto tante volte, non sono assolutamente chiuso all’idea che la vita si possa essere sviluppata da qualche altra parte ma ogni qual volta si affrontano discorsi di questo tipo, si deve sempre prestare la massima attenzione nel mantenere un approccio scientifico al problema, senza finire, come avviene molto spesso in rete, a discutere di improbabili quanto assurdi avvistamenti di dischi volanti o alieni fotografati in qualche bosco sperduto.

Di queste tematiche abbiamo parlato in diversi articoli. Dapprima sotto il profilo puramnete scientifico-biologico:

Il segnale WOW!

Messaggio alieno nelle aurore?

poi discutendo invece dove cercare questa vita, introducendo il discorso degli esopianeti e della loro scoperta al di fuori del nostro Sistema Solare:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Esopianeti che non dovrebbero esserci

Ancora sugli Esopianet

In particolare, tutto il discorso degli esopianeti riguarda principalmente l’identificazione di corpi orbitanti intorno a qualche stella e che si trovano in una zona potenzialmnete adatta allo sviluppo della vita. Come discusso varie volte negli articoli precedenti, la definizione di questi parametri impone una discussione di diversi fattori, non solo legati all’irraggiamento da parte della stella centrale e dunque della posizione orbitale del pianeta stesso.

Detto questo, questa volta vorrei parlare della ricerca di vita non al di fuori del nostro Sistema Solare, bensi’ al suo interno, molto piu’ vicino di quanto si possa pensare. Molti di voi, conosceranno sicuramente Europa, uno dei satelliti orbitanti intorno a Giove e che, da diverso tempo ormai, e’ visto come un possibile candidato ad ospitare forme di vita non sulla superficie, bensi’ al suo interno.

Visto da fuori, Europa si presente come un corpo estremamente inospitale:

Il satellite di Giove Europa

Il satellite di Giove Europa

La scoperta di Europa risale addirittura la 1610, quando Galileo riusci’ ad osservarlo, insieme ad altre lune di Giove, con l’ausilio del suo telescopio appena inventato. La superficie di Europa appare praticamente liscia e priva di criteri da impatto. Le osservazioni fatte a partire dal 1995 dalla sonda Galileo hanno evidenziato la presenza di una spessa crosta fatta di ghiaccio, molto simile al pack presente sui mari polari della Terra.

Come anticipato, in superficie, l’ambiente offerto da Europa non e’ assolutamente dei migliori. La temperatura superficiale si aggira intorno ai -150 gradi centigradi con un irragiamento da parte del Sole che e’ circa 1/25 di quello che arriva sulla Terra. Vicino ai poli geografici del satellite, la situazione e’ ancora peggiore con temperature che scendono fino a -230 gradi.

Perche’ su una luna di questo tipo ci potrebbe essere la vita?

Le osservazioni fatte nel corso degli anni dai vari satelliti che hanno sorvolato Europa hanno mostrato alcuni aspetti del pianeta che potrebbero essere compatibili con una struttura interna del tutto diversa da quella che vediamo dall’esterno. Il modellamento della superficie potrebbe infatti essere dovuto a moti mareali innescati dal vicino e massivo Giove su un enorme volume di acqua liquida, o ghiaccio conduttivo, contenuta all’interno di Europa. Questa immagine mostra molto bene le due ipotesi sulla struttura interna:

Possibili modelli per la struttura interna di Europa

Possibili modelli per la struttura interna di Europa

Oltre a queste considerazioni, le misure sul magnetismo del sistema Giove-Europa hanno evidenziato la presenza di un lieve campo magnetico sul satellite e di materiale conduttivo all’interno. Basta? Niente affatto, Europa presenta anche una lieve atmosfera propria con la presenza di ossigeno prodotto dalla dissociazione dell’acqua degli strati superficiali di ghiaccio. Poi? Nel 2013 il telescopio Hubble ha mostrato enormi geyser di vapore acqueo che fuoriescono dalle zone polari di Europa e che si elevano fino a 200 Km di altezza. Anche in questo caso, anche se da confermare ovviamente, il vapore acqueo potrebbe arrivare direttamente dall’interno del satellite spinto dall’attivita’ vulcanica, interna anche in questo caso.

Ragioniamo un attimo insieme: abbiamo una serie di evidenze che ci spingono a pensare che la superficie di Europa possa essere uno strato di ghiaccio contenente al suo interno un enorme oceano di acqua liquida. Alcune domande banali: quanto e’ spesso questo strato di ghiaccio? Come avrebbe fatto la vita a formarsi in un ambiente cosi’ ostile e, soprattutto, senza un sufficiente irraggiamento da parte del sole?

Domande ovviamente lecite e su cui e’ doveroso ragionare.

Per quanto riguarda lo spessore di ghiaccio, studiando la morfologia del pianeta, il suo moto e altri parametri chimico-fisici, si suppone che questo strato possa essere spesso circa 20 Km. Inoltre, le proprieta’ magnetiche di Europa potrebbero essere compatibili con un oceano di acqua addirittura salata, proprio come quella che riempie gli oceani della nostra Terra. Certo, uno spessore di 20 Km non e’ trascurabile e proprio questo aspetto rappresenta una delle difficolta’ principali per la probabile esplorazione e la ricerca di vita su Europa. Ma, come vedremo, le soluzioni tecnologiche potrebbe esserci.

L’altra domanda che ci siamo posti e’ invece legata alla possibilita’ che ci sia vita in questo immenso oceano sotterraneo. Per prima cosa, vi ricordo un argomento discusso qualche tempo fa su questo blog:

I misteri del lago Vostok

Lago Vostok, c’e’ vita?

Come ricorderete, anche nelle profondita’ di questo lago polare si ipotizza possa essere presente la vita, sviluppata in un ambiente apparentemente ostile e completamente isolato dalla superficie. Oltre a questo, nell’mmaginario comune, la moltitudine di forme di vita che si sviluppano nei nostri mari sono possibili grazie unicamente all’energia dei raggi solari che penetrano fino a profondita’ molto elevate. Se mettiamo un “tappo” di 20 Km su questo oceano e per di piu’ all’esterno abbiamo un irraggiamento proveniente dal sole gia’ notevolmente inferiore a causa della distanza Europa-Sole, come possiamo pensare che ci possano essere le condizioni per la vita?

Anche a questa domanda abbiamo una risposta che viene direttamente da quello che abbiamo potuto osservare sul nostro pianeta. Vi mostro una foto:

Fumarola Nera

Fumarola Nera

Di cosa si tratta? Quella che vedete e’ una cosiddetta “fumarola nera”, cioe’ un punto da cui fuoriescono gas provenienti dalle profondita’ della terra. Gas come idrogeno e acido solfidrico che, a causa della presenza di una forte attivita’ vulcanica su Europa, potrebbero essere presenti anche nell’oceano che vogliamo studiare. Di che tipo di forme di vita parliamo? Nel 1977, durante una missione esplorativa nelle Galapagos, venero scoperte colonie di vermi tubo, vongole, crostacei e mitili proprio intorno ad una fumarola nera in un punto in cui la luce del Sole non poteva assolutamente arrivare. Queste forme di vita, dunque non solo batteriche, si sviluppano grazie alla cosiddetta “chemiosintesi batterica”. In questo caso, al contrario della fotosintesi in cui si usa l’energia solare per ricavare energia, il processo sfrutta processi inorganici ad alta entalpia per formare sostanze organiche come, ad esempio, il glucosio. Detto questo, capite bene come la ricerca di vita su Europa potrebbe non essere assolutamente un azzardo, bensi’ una missione in grado di portare risultati.

Bene, a questo punto abbiamo capito dove poter cercare la vita, come potrebbe essersi sviluppata ma manca da capire se esistono i mezzi e la volonta’ per una missione di questo tipo. Senza tanti giri di parole, vi riporto un link sicuramente interessante il “President budget” per il Fiscal Year 2015:

President Budget, FY15

Per la prima volta, l’esplorazione su Europa e’ stata inserita nei finanziamenti della NASA per dare avvio a quella che viene chiamata missione Clipper.

Di cosa si tratta?

Come potete immaginare, il nome Clipper sta proprio per “taglia ghiaccio”. Scopo della missione e’ dapprima quello di effettuare 45 flyby intorno ad Europa partendo da un’altezza di 2700 Km per scendere fino a 25. Durante questi passaggi, grazie agli strumenti in dotazione, Clipper potra’ esaminare molti parametri chimico fisici sia dell’atmosfera che delle emissioni gassose intorno ai poli della luna. Inoltre, potranno essere scattate foto della superficie per una ricostruzione precisa di tutto il corpo. Nella seconda fase invece, la missione avra’ il compito di atterrare sul satellite e raccogliere campioni del terreno in superficie, e a profondita’ diverse comprese tra i 2 e i 10 cm. Perche’ questa raccolta? Semplice, l’analisi di questi campioni potra’ confermare o meno la presenza di salinita’, di materiale organico e di ogni altro parametro interessante per farci comprendere la presenza di o meno di vita all’interno di Europa.

La missione Clipper, gia’ in fase di studio da qualche anno e che, se tutto va nel verso giusto, dovrebbe essere lanciata nel 2025, rappresenta senza dubbio un primo passo per uno studio dettagiato di Europa. Ovviamente, come e’ facile immaginare, in questo caso, ancora piu’ che in altri, sara’ fondamentale garantire una sterilizzazione perfetta di tutti gli strumenti al fine di non “inquinare” i campioni con eventuali forme di vita terrestri.

Oltre alla NASA, molti altri paesi ed agenzie stanno pensando a missioni specifiche su Europa e su altre lune di Giove. L’ESA, ad esempio, sta preparando la missione JUICE per lo studio delle atmosfere di alcuni satelliti gioviani, tra cui ovviamente Europa. Se i risultati di queste missioni confermeranno, o almeno saranno compatibili, con l’ipotesi di vita, si passera’ ad una fase due con l’intenzione proprio di perforare lo strato di ghiaccio ed esplorare l’oceano sottostante. Per darvi un’idea, gia’ molti pensano a come realizzare queste missioni utilizzando trivelle alimentate da combustibile nucleare in grado di fornire l’acqua calda per forare l’enorme strato di ghiaccio. Oltre a questo, saranno sicuramente presenti non piu’ rover, ma mini sommergibili automatizzati per l’esplorazione dell’oceano e la ricerca di forme di vita.

Come vedete, Europa rappresenta sicuramente un futuro molto prossimo dell’esplorazione spaziale. Da qui a qualche anno potremmo finalmente capire se questo satellite possa essere un ambiente ospitale per la vita o se dovremmo limitarci a cercare al di fuori del nostro Sistema Solare.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’esperimento di Ferlini e la barriera magnetica

4 Mag

Solo qualche giorno fa abbiamo pubblicato un articolo specifico sul cosiddetto “effetto Hutchinson”:

Effetto Hutchinson: realta’ o bufala?

Come visto, i fenomeni descritti in questa esperienza, che spaziano dalla levitazione alla fusione di oggetti con rilascio di energia, sarebbero provocati dalla sovrapposizione di onde elettromagnetiche in zone precise dello spazio. Nel descrivere queste esperienze, abbiamo mostrato un notevole scetticismo dettato dalla particolarita’ dei fenomeni descritti ma, soprattutto, dal fatto che l’autore stesso di questi esperimenti abbia piu’ volte dichiarato di non essere piu’ in grado di ripetere tali effetti. Ci tengo a sottolineare che la mia posizione di scettico non e’ affatto per partito preso. Come sapete, e come detto molte volte, tutti dobbiamo essere aperti a fenomeni sconosciuti e anche apparentemente assurdi purche’, come la scienza insegna, questi possano essere ripetuti da chiunque, in qualsiasi parte sotto le condizioni descritte. Solo se questo avviene possiamo considerare il metodo scientifico soddisfatto e vedere a tali nuovi fenomeni con gli occhi della scienza.

Riprendo quanto detto in questo articolo, perche’ ora vorrei raccontarvi un altro presunto esperimento che solo qualche giorno fa e’ stato richiamato da alcuni siti complottisti, sempre con il solito scopo di denigrare la scienza ufficiale e tacciarla di non voler approfondire cio’ che e’ fuori dai suoi dettami. Parlaimo questa volta del cosiddetto esperimento di Ferlini sulla barriera magnetica.

Chi e’ costui? In cosa consiste l’esperimento?

Se provate ad informarvi in rete, troverete solo una moltitudine di articoli che riprendono pari pari quanto descritto da Ferlini in un libro da lui stesso pubblicato e intitolato appunto “La barriera Magnetica”. In questo libro Ferlini descrive una serie di esperimenti che avrebbe condotto, dapprima in solitudine e poi con un gruppo di collaboratori, studiando i campi magnetici.

Prima di raccontarvi gli esperimenti, e’ importante, come vedremo dopo, dire che Ferlini inizio’ la sua carriera studiando l’antico Egitto e la costruzione delle Piramidi. In particolare, cio’ che interessava Ferlini era la possibilita’ che strani fenomeni fisici potessero accadere dentro o in prossimita’ delle piramidi a causa di soluzioni appositamente inserite durante la costruzione di questi imponenti monumenti.

Premesso questo, Ferlini racconta che un giorno giocherellando con due calamite si accorse che avvicinando i poli opposti, poco prima che questi entrassero in contatto, la zona di spazio appariva leggermente offuscata come se qualcosa di particolare accadesse al volume d’aria tra i poli stessi. Incuriosito da questo fenomeno che non riusciva a spiegare, Ferlini decise di costruire un esperimento piu’ in grande in modo da accentuare l’effetto. L’esperienza da lui realizzata, e sempre raccontata nel suo libro, prevedeva la disposizione di 4 grandi magneti di diverse tonnellate disposti con i poli opposti vicini. Ecco uno schema dell’apparato:

Disposizione dei 4 magneti nell'esperimento di Ferlini

Disposizione dei 4 magneti nell’esperimento di Ferlini

Come vedete ci sono 4 magneti a ferro di cavallo disposti con i poli Nord-Sud alternati tra loro. Dalle prime osservazioni con i piccoli magneti, Ferlini racconta di aver osservato questa deformazione dello spazio solo poco prima che i poli entrassero in contatto a causa dell’attrazione magnetica. Per poter osservare questo effetto nell’esperimento piu’ grande, Ferlini monto’ le calamite su appositi sostegni che permettevano un movimento a passi molto sottili. In questo modo era possibile avvicinare molto lentamente i poli grazie a dei fermi studiati per opporsi all’attrazione.

Bene, cosa accadde con questo esperimento?

Leggendo sempre dal libro di Ferlini, quando i magneti arrivarono nel punto preciso in cui si innescava il fenomeno, accadde qualcosa di incredibile. Nella stanza si diffuse una nebbiolina azzurra con un odore acre. Da queste proprieta’ organolettiche, i presenti capirono che si trattava di ozono. Ma non accade solo questo, la zona di spazio compresa tra i magneti, che questa volta al contrario del primo caso era molto estesa, venne deformata da questo effetto sconosciuto mai osservato prima. Ferlini, che indossava una maschera antigas per non respirare l’ozono, incuriosito da questo fenomeno, si avvicino’ al contrario dei suoi collaboratori che rimasero a distanza di sicurezza. Quando si trovo’ in prossimita’ del punto, i collaboratori videro Ferlini scomparire dalla stanza. La nebbiolina presente inizio’ lentamente a diradarsi assumendo diversi colori e solo dopo che scomparve le persone presenti videro Ferlini riapparire sprovvisto della maschera che portava prima di avvicinarsi.

Dove era finito Ferlini?

Come raccontato nel suo libro, Ferlini si ritrovo’ in Egitto, ma non nel momento dell’esperimento bensi’ al tempo in cui le piramidi erano in costruzione. Vide gli schiavi che alzavano i grandi blocchi e le piramidi cosi’ come erano quando vennero realizzate. Perche’ proprio in quel preciso punto ed in quell’epoca? Ferlini penso’ che questo strano effetto, da subito ribattezzato “barriera magnetica”, fosse un portale creato dalla forza magnetica in grado di interagire con le onde cerebrali. Come anticipato, la carriera di Ferlini inizio’ con lo studio delle piramidi e quindi la barriera magnetica era in grado di interagire con gli impulsi creati dal cervello umano realizzando viaggi nel tempo in zone ed epoche dove il soggetto voleva, anche solo inconsciamente, viaggiare.

Bene, questo e’ l’esperimento di Ferlini e questa sarebbe la barriera magnetica che lui descrive nel suo libro.

Ora posso dire la mia? Premetto, come anticipato all’inizio dell’articolo, che non voglio essere scettico di principio ma analizzando quanto viene raccontato capite bene come una verifica di queste affermazioni sarebbe, ed e’, facilmente attuabille ma, soprattutto, facilmente smentibile. Ovviamente, sui soliti siti complottisti trovate scritto che mai nessuno ha mai voluto realizzare l’esperimento di Ferlini o anche che in realta’ e’ utilizzato normalmente in alcuni grandi centri di ricerca anche se alle persone comuni non ne viene data notizia.

Prima di tutto, vi ricordo che non stiamo parlando di esperimenti impossibili da realizzare ne che richiedono strumentazione particolare. Come detto, nella prima esperienza, Ferlini si sarebbe accorto di questo fenomeno semplicmente osservando due calamite che si attraevano. Avete mai visto due calamite? Ci avete mai giocherellato? Avete mai notato una distorsione dello spazio prima che queste si attacchino a causa della forza di attrazione? Ovviamente credo che la risposta a queste domande sia quanto meno scontata.

Vi faccio notare anche un altro particolare. Prendiamo un sito qualsiasi:

Sito vendita magneti

15 euro al pezzo, ne servono 4, quattro viti senza fine per realizzare un movimento a piccoli passi, qualche bullone di supporto, con meno di 100 euro avete realizzato l’esperimento di Ferlini. Non avrete magneti da tonnellate per poter fare un viaggio nel tempo, ma sicuramente dovreste essere in grado di osservare una bella distorsione dello spazio e, se siete fortunati, anche una bella nebbiolina di ozono nella stanza. Cercando informazioni sulla rete, ho trovato diversi forum in cui gruppi di persone, anche se sconsigliate da altre, si sono dichiarate pronte a mettere in piedi l’esperimento per dimostrarne la corretteza. La cosa simpatica e’ che dopo una lunga discussione “lo faccio”, “non lo fare perdi tempo”, “no lo faccio, chi mi aiuta?”, ecc., nessuno, e dico nessuno, ha il coraggio di tornare e dire che il suo esperimento e’ stato un flop. Nonostante questo, di tanto in tanto, qualche simpatico sito ritira fuori questa storia come se fosse una novita’ assoluta. Che ci volete fare, in tempo di magra di catastrofi e complotti, ogni cosa e’ buona per cercare di accaparrarsi qualche visita sul sito.

Giusto per concludere, e per togliere ogni dubbio, il magnetismo e’ noto da tantissimo tempo. Gia’ ai tempi del greco Talete, che descrive il fenomeno, era noto che un materiale, la magnetite, era in grado di attirare limatura di ferro. Oggi, possiamo disporre di campi magnetici molto elevati per applicazioni di ricerca. Per farvi qualche esempio, il campo magnetico all’interno dell’esperimento ATLAS del CERN, si proprio quello della scoperta dell’Higgs insieme a CMS, e che viene utilizzato per curvare le particelle cariche, ha un’intensita’ di 2 Tesla, cioe’ circa 100000 volte il campo magnetico terrestre. Pensate sia tanto? Ci sono laboratori al mondo che si occupano proprio di studiare i campi magnetici cercando, per ricerca e applicazioni, di trovare materiali nuovi da poter essere utilizzati per creare campi magnetici sempre piu’ intensi. Un esempio? Nel “High Field Magnet Laboratory” in Olanda, si e’ raggiunto il valore di 38 Tesla con un sistema “economico” da soli 1.5 milioni di dollari. Questo pero’ non e’ ancora il record assoluto, anche se il laboratorio detiene il record come rapporto intensita’/prezzo, dal momento che il guiness dei primati per il campo magnetico piu’ intenso e’ del Magnet Lab della California:

Magnet Lab

dove si e’ raggiunto il valore di 45 Tesla con un sistema molto complesso da ben 15 milioni di dollari.

Ora, ragioniamo insieme, secondo voi se esistesse questo effetto “barriera magnetica” dovuto all’attrazione dei poli, nessun altro se ne sarebbe accorto, magari con un sistema in grado di generare un campo ben piu’ intenso rispetto a quello di una semplice calamita a ferro di cavallo?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.