Tag Archives: segnali

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

52Hz: la balena più sola al mondo

15 Set

Oggi voglio raccontarvi una storia molto interessante e che, personalmente, mi ha molto colpito.

Nel 1989, un gruppo di ricercatori del Woods Hole Oceanographic Institute americano intercetta un segnale dall’oceano molto interessante. Si tratta di un segnale molto chiaro ad una frequenza molto prossima ai 52 Hz. La tipologia di segnale e, soprattutto, i movimenti nell’acqua della sorgente di questo suono sono assolutamente compatibili con quelli di una balena. Cosa aveva allora di speciale questo segnale? Semplice, sia la balenottera azzurra che quella comune, entrambe ben conosciute e presenti nei nostro oceani, “parlano” emettendo suoni con frequenze al massimo fino a 20 Hz.

La scoperta di questa sorgente a 52 Hz è stata possibile utilizzando il sistema SOSUS, un insieme di stazioni di ascolto oceaniche che venivano utilizzate dagli Stati Uniti per tenere sotto controllo i sommergibili russi durante la guerra fredda. Vista la situazione mondiale assolutamente delicata e il primario compito del sistema di ascolto, le registrazioni, comprese quelle della balena 52 Hz, rimasero classificate fino alla fine della guerra fredda.

Nei primi anni ’90, parte delle registrazioni vennero rese pubbliche e la comunità scientifica venne a conoscenza di questa apparente balena diversa dalle altre.

52 Hz venne così ascoltata per diverso tempo e regolarmente di anno in anno. Come potete facilmente capire, si tratta di un segnale unico nella sua specie. Normalmente, quando si intercetta una balena nell’oceano, è possibile seguire il suo segnale al massimo per qualche ora, dopo di che il segnale scompare perchè disturbato da altre fonti, tra cui, ovviamente, quelle delle altre balene.

52 Hz rappresenta una specificità dal punto di vista scientifico. fino ad oggi, è stato possibile seguire di anno in anno i suoi spostamenti per l’oceano analizzando i percorsi migratori, le distanze percorse, le abitudini, ecc. Tutto grazie a questa speciale balena.

Perchè, oltre che dal punto di vista scientifico, questa storia ha colpito tante persone nel mondo? Semplice, per tutti questi anni, la balena 52 Hz è sempre stata osservata da sola, senza nessun’altra balena al suo fianco. Perchè questo? Prima di tutto, molti ricercatori pensano che emettendo un segnale a frequenza così alta rispetto alle altre balene, il segnale di 52 Hz non possa essere ascoltato dagli altri animali.

Proprio per questo motivo, 52 Hz è anche nota come “la balena più sola al mondo”.

Perchè questo animale dovrebbe emettere un segnale diverso dalle altre? Qui le ipotesi sono molte anche perchè, ad oggi, nessuno è mai riuscito a vedere o intercettare 52 Hz. Di lei si conosce solo la sua particolare “voce”. Secondo alcuni, questa balena sarebbe l’ultima sopravvissuta di una specie ormai in via di estinzione. Ipotesi questa non accettata dalla comunità scientifica proprio perchè non ci sono stati, nel tempo, altri segnali simili.

L’ipotesi più plausibile, ed oggi più accettata, è che 52 Hz sia una balena malformata oppure un ibrido tra una balena azzurra e una balenottera comune. In questi casi, il particolare suono sarebbe dovuto appunto alla malformazione che però la renderebbe muta agli altri animali della stessa specie. Proprio per questo suo handicap, 52 Hz nuoterebbe da sola perchè allontanata dalle altre o perchè la sua voce non potrebbe essere ascoltata.

La cosa certa è che, malformazione o meno, niente ha impedito alla balena di crescere e maturare negli anni. Cosa confermata dalla lunga osservazione e dal cambio di timbro vocale osservato qualche anno fa, sinonimo di maturazione sessuale dell’animale.

Come anticipato prima, la storia di 52 Hz ha molto colpito l’opinione pubblica e, nel corso degli anni, molte persone hanno scritto agli esperti che seguono la balena per esprimere la loro solidarietà a questo animale solitario o anche per dire quanto si immedesimassero in 52 Hz.

Nei prossimi mesi, dovrebbe partire una spedizione nell’oceano per cercare di intercettare 52 Hz e cercare di filmare l’animale. Lo scopo della missione è soprattutto quello di realizzare un documentario su questo animale che tanto ha colpito l’immaginario collettivo ma questo, dal punto di vista scientifico, potrebbe finalmente togliere l’alone di mistero sull’animale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tempesta solare e problemi ai telefoni?

21 Giu

Nella sezione:

Hai domande o dubbi?

e attraverso varie mail che mi sono arrivate, mi è stato chiesto di fare un po’ di chiarezza sui problemi telefonici che si sono avuti nei giorni scorsi soprattutto in virtù di quanto raccontato su vari siti e giornali. Come forse avrete letto, diverse fonti hanno infatti puntato il dito contro la forte attività solare per spiegare i guasti alla rete mobile, soprattutto per i clienti wind, che hanno visto un picco di malfunzionamenti intorno al 13 Giugno.

Diverse volte su questo blog ci siamo occupati di attività solare e dell’alternanza di massimi e minimi che la nostra stella presenta nel corso del tempo:

– Evidenze dal Sole?

– Le macchie solari AR1504

– Gli effetti di AR1504

– Sole: quanta confusione!

– Inversione dei poli terrestri

– Nuova minaccia il 22 Settembre?

– Come seguire il ciclo solare

– Curiosita’ sui cicli solari

Possiamo scegliere tra era glaciale o desertificazione

Come visto, il nostro Sole non è affatto un corpo con un’attività costante nel tempo ma passa attraverso periodi di massimo e minimo in un tempo di circa 11 anni. Non c’è assolutamente nulla di strano o di anomalo in questo comportamento, ma il tutto fa parte del normale e corretto funzionamento di stelle di questo tipo. Nonostante la buona conoscenza astronomica del Sole, molto spesso l’attività di questa stella, soprattutto a causa della sua connessione con la Terra e con la vita, viene chiamata in causa per annunciare catastrofi o per spiegare, come nel caso in questione, problematiche che in realtà non sono assolutamente correlate.

Cerchiamo dunque di andare con ordine e capire prima di tutto cosa è successo qualche giorno fa.

Come detto all’inizio, la scorsa settimana si sono avuti problemi per molti clienti di telefonia fissa e mobile principalmente per l’operatore Wind. Moltissime persone sono rimaste per qualche ora completamente isolate ed impossibilitate sia a ricevere chiamate che a collegarsi alla rete.

Normali problemi? In realtà no, dal momento che blackout così estesi rappresentano eventi eccezionali e, molto spesso, legati a problematiche uniche e per cui la rete non è protetta. Normalmente, quando avvengono problemi di questo tipo i guasti vengono risolti e realizzate soluzioni specifiche che possano impedire nel futuro il riproporsi di anomalie simili.

Nonostante questo, diverse fonti sulla rete hanno parlato di questi guasti parlando di eventi dovuti alla forte attività del Sole. Come forse avrete letto, nei giorni precedenti il guasto si sono registrati alcuni flare solari molto potenti che, stando a quanto riportato, avrebbero rilasciato particelle molto energetiche che una volta arrivate sulla Terra avrebbe messo fuori gioco i satelliti delle comunicazioni.

Aspettate un attimo. Guasto alla rete fissa e mobile per i clienti Wind. Se proprio vogliamo essere precisi, alcune interruzioni sporadiche e di minore entità per un numero ristretto di clienti Fastweb. Spiegazione? I flare solari. C’è qualcosa che non mi torna in tuta questa storia. Secondo voi, il Sole emette particelle energetiche verso la Terra. Queste arrivano e decidono di colpire solo le infrastrutture di un operatore lasciando intatte le altre? Capite l’assurdità di quello che vi stanno dicendo?

Torniamo seri e cerchiamo di capire meglio l’intera storia. Come visto negli articoli precedenti, durante i periodi di massima attività solare ci possono essere emissioni di flare di particelle verso l’esterno. Queste potenti emissioni possono ovviamente arrivare sulla Terra. Normalmente, i bersagli più a rischio sono i satelliti in orbita perché esposti al flusso di particelle. La superficie terrestre è invece protetta e schermata dallo scudo magnetico offerto dal campo geomagnetico. Questa naturale protezione riesce a deviare la maggior parte delle radiazioni dannose provenienti dal Sole impedendo a queste di raggiungere la superficie.

Solo per maggiore informazione e per completezza, vi riporto anche il link della pagina che Wind ha pubblicato per spiegare il motivo del guasto e, soprattutto, per scusarsi con i propri clienti:

Wind guasto 13 Giugno

Premesso dunque il discorso sull’assurdità del solo operatore telefonico, credo sia interessante capire meglio, approfittando della bufala, come funziona la rete mobile che ci consente di telefonare, inviare messaggi e collegarci alla rete con i nostri dispositivi senza fili.

Oggi come oggi, siamo talmente abituati alla possibilità di collegamento che abbiamo a disposizione che molti di noi ignorano completamente come funzioni questa tipologia di comunicazione. Quando effettuiamo una chiamata, il nostro cellulare emette onde radio con una frequenza specifica. Ad oggi, la maggior parte dei telefonini che abbiamo hanno la possibilità di emettere onde in tre bande, di cui la terza utilizzata solo in alcuni paesi come, ad esempio, gli Stati Uniti.

Bene, le onde radio prodotte dal nostro cellulare, contengono le informazioni relative alla chiamata che stiamo facendo. Detto in parole povere, la nostra voce captata dal microfono del cellulare mette in vibrazione una membrana che genera un segnale successivamente digitalizzato e trasmesso attraverso onde radio. Queste onde vengono poi captate da quella che viene chiamata “stazione base”. Questa altro non è che una struttura munita di antenne riceventi che captano le onde radio e le trasmettono attraverso una rete cablata. Come potete capire, il vantaggio della rete mobile è rappresentato dalla possibilità di poter comunicare senza fili. Le onde radio che si propagano in aria rappresentano il filo invisibile che connette il nostro dispositivo mobile con la stazione base.

Le stazioni base possono essere di diverse dimensioni e potenze. Esistono anche stazioni “camuffate” per potersi integrare al meglio con l’ambiente circostante (finti alberi, integrate in strutture preesistenti o, anche, installate su carrelli mobili che possono essere spostati da un punto all’altro). La stazione base con cui il nostro telefono è connesso rappresenta quella che viene definita “cella”. Il numero di stazioni base presenti nel territorio è determinato ovviamente dalla copertura che il sistema utilizzato riesce ad offrire e alla potenza massima installabile in base alla zona specifica. Per spiegarmi meglio, la copertura offerta da una singola stazione non è calcolabile a priori ma dipende anche dalla morfologia del territorio in questione e alla presenza di case, edifici o altre strutture in grado di limitare la copertura a causa della riflessione e dispersione dei segnali radio inviati dai cellulari.

Oltre alla comunicazione voce e messaggistica, a partire dalla seconda generazione di comunicazione (2G), i nostri cellulari sono in grado di inviare e ricevere anche pacchetti di dati che sono quelli che ci consentono di collegarci ad internet senza un cablaggio fisico.

Capite dunque come è possibile chiamare dai nostri cellulari? La connessione tra le stazioni base avviene invece via normali cavi coassiali o, sempre più spesso, attraverso fibre ottiche. In particolare, l’utilizzo delle fibre ha consentito di migliorare la trasmissione dei segnali con minori perdite nel percorso e di aumentare il numero di collegamenti gestibili a parità di sezione del filo.

E se non sono presenti stazioni base nelle vicinanze? Semplice, questo è il caso di un cellulare che, come si dice, “non ha campo”. In regioni isolate del pianeta si ricorre ad una tecnologia diversa che è invece quella dei telefoni satellitari. In questo caso, i dispositivi si connettono direttamente con satelliti in orbita geostazionaria che hanno il compito di ritrasmettere i segnali digitali a Terra e di consentire in questo modo la comunicazione da qualsiasi parte del pianeta.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

Ascoltate finalmente le onde gravitazionali?

19 Mar

Sicuramente, io non posso attaccare o denigrare la divulgazione della scienza e il voler diffondere la conoscenza, sempre troppo scarsa, e le ultime scoperte alle, cosiddette, persone di strada. Per poter fare questo pero’, mia opinione personale, si deve fare un lavoro immenso di modellamento delle informazioni e si deve essere in grado di immedesimarsi in colui che legge quello che scriviamo. Questo non significa assolutamente dire cose false ma solo fare in modo che le informazioni che passano possano appassionare ed essere comprese da coloro che non hanno una base scientifica di supporto. Credetemi, a volte questo lavoro non e’ semplice. Senza voler essere presuntuosi, molte volte un ricercatore abituato a lavorare su delle tematiche, tende a dare per scontate molte cose quando si interfaccia con qualcuno. Il risultato di questo e’, ovviamente, una impossibilita’ di comprensione da chi non ha la stessa base di chi parla.

Perche’ faccio questo preambolo?

La notizia di questi giorni, che sicuramente avrete letto su siti, blog, forum e giornali, e’ quella della conferenza stampa fatta dall’universita’ di Harvard per mostrare i dati raccolti dall’esperimento americano Bicep-2 che si trova in Antartide.

Bene, sulla maggior parte dei giornali che ho letto, e ci metto dentro anche i siti internet, ho visto una quantita’ di cavolate tali da far rabbrividire. Ovviamente, non faccio di tutte l’erba un fascio, ma, da una mia stima, circa il 10% delle notizie aveva senso, il restante era pieno di una quantita’ di idiozie che mai avrei pensato di leggere. Questa volta abbiamo superato di gran lunga gli articoli sulla scoperta del bosone di Higgs. L’unica cosa vera letta e’ che la notizia era attesa ed ha avuto un grandissimo risalto nella comunita’ scientifica, il resto lo potete buttare nel secchio.

Apro e chiudo parentesi: perche’ dobbiamo procedere in tal senso? Cari giornalisti che vi cimentate a scrivere di scienza, chiedete lumi, intervistate addetti ai lavori, non scrivete assurdita’ che non fanno altro che creare confusione su confusione in chi legge.

Detto questo, cerchiamo di capire di cosa si sta parlando.

Dunque, di Big Bang, nascita dell’universo, radiazione di fondo, ecc., abbiamo parlato in questi articoli:

E parliamo diquesto Big Bang

Il primo vagito dell’universo

Universo: foto da piccolo

La materia oscura

Materia oscura intorno alla Terra?

Due parole sull’antimateria

Flusso oscuro e grandi attrattori

Ipotizziamo che l’universo sia nato da un Big Bang, che ad un certo punto materia e antimateria si siano separate, poi, circa 380000 anni dopo il botto, si sono separate materia e radiazione ed e’ nata la Radiazione Cosmica di Fondo, o CMB. Proprio questa radiazione, di cui abbiamo parlato, e’ la prova sperimentale a supporto del Big Bang. Come scritto altre volte, possiamo vedere la CMB come una radiazione fossile di un preciso momento dell’universo. Prima di questo istante, c’e’ il buio perche’ la radiazione non riusciva a “scappare” e rimaneva intrappolata con la materia.

Primo punto fondamentale, la Radiazione Cosmica di Fondo esiste e l’abbiamo gia’ trovata. La prima osservazione della CMB risale al 1964 ad opera di Arno Penzias e Robert Wilson che vinsero poi il nobel nel 1978. Questo per rispondere alle notizie false che girano secondo le quali Bicep-2 avrebbe “scoperto” l’essitenza della radiazione di fondo.

Bene, l’esperimento Bicep-2 serve invece per “rilevare” con altissima precisione la CMB. Perche’ allora si parla di onde gravitazionali?

Non voglio neanche commentare le notizie i cui autori si lanciano a parlare di tensori e modi B perche’ il mio punto di vista e’ stato espresso all’inizio dell’articolo parlando di come, a mio avviso, si deve fare divuilgazione.

Cosa sono le onde gravitazionali?

Come giustamente detto da alcune fonti, questa tipologia di onde e’ stata predetta da Einstein nella sua relativita’ generale anche se queste non sono mai state osservate in maniera “diretta”. Dunque, ad Harvard hanno osservato le onde gravitazionali? Assolutamente no. Le hanno “scoperte” come qualcuno sostiene? Assolutamente no, anche in questo caso.

Per cercare di capire cosa sono le onde gravitazionali, proviamo a fare un esempio molto semplice. Immaginate lo spazio-tempo, concetto di per se molto vago ma supponete, sempre per semplicita’ , che si tratti dell’universo, come un materasso. Si, avete capito bene, un materasso come quello che avete in casa e su cui andate a dormire. Non sono impazzito, vorrei solo farvi capire questo importante concetto in modo semi-intuitivo. Dunque, ora immaginate di mettere un corpo molto pesante, ad esempio una palla da bowling, sul materasso. Cosa succede? Semplice, il materasso si “curva” in prossimita’ del corpo pesante. Bene, il materasso e’ lo spazio tempo, la palla da bowling e’ un pianeta, una galassia, ecc.. Parlando scientificamente, lo spazio tempo quadri-dimensionale e’ curvato dalla massa.

Ora, immaginate di far rotolore o togliere la vostra massa. Cosa succede? La curvatura si sposta insieme alla massa oppure, nel secondo caso, lo spazio tempo torna al suo posto. Le “piegature” dello spazio-tempo che fine fanno? Semplice, succede esattamente quello che avviene se tirate un sassolino dentro uno stagno. Queste “increspature” si propagano partendo dalla sorgente, nel nostro caso la massa, verso l’esterno.

Finalmente ci siamo. Il movimento delle masse, l’esplosione delle Supermovae, lo scontro tra Galassie, sono tutti fenomeni che deformano lo spazio tempo. Effetto di queste deformazioni, cosi’ come avviene per il sasso nello stagno, e’ la formazione di onde che si propagano liberamente nello spazio. Come potete immaginare, queste sono le cosiddette onde gravitazionali.

Ora, la teoria e’ compresa. Le abbiamo viste sperimentalmente? Purtroppo ancora no. Rimanendo ad un approccio divulgativo, lo spazio tempo e’ molto rigido e dunque le onde che si creano hanno intensita’ molto molto piccole. Questo rende le onde gravitazionali estremamente difficili da essere “ascoltate”. In termini di ricerca scientifica, a partire dagli anni ’50 del secolo scorso, diversi esperimenti sono stati realizzati per cercare di captare queste onde. Dapprima, e sono ancora in funzione, si costruivano antenne risonanti, cioe’ una sorta di elemento in grado di vibrare al passaggio dell’onda, ora si procede con interferometri, strumenti che segnano il passaggio dell’onda osservando le minime variazioni meccaniche su strutture molto lunghe in cui vengono fatti passare dei laser. In un modo o nell’altro pero’, queste onde non sono mai state osservate in modo “diretto”.

Perche’ continuo a scrivere insistentemente “in modo diretto”? Semplice, perche’ sappiamo, con buona certezza, che queste onde esistono dal momento che sono state osservate in vari casi in modo “indiretto” cioe’ attraverso gli effetti che queste onde producono. La prima osservazione indiretta, fatta mediante l’osservazione di una pulsar binaria con il radio-telescopio di Arecibo, e’ valsa agli astronomi Taylor e Hulse il premio nobel nel 1993.

Bene, la CMB esiste e dimostra qualcosa, le onde gravitazionali sono state predette da Einstein e sono state osservate in modo indiretto, Bicep-2, come detto prima, non le ha osservate in modo diretto, ma, allora, di cosa stiamo parlando? Perche’ si parla di scoperta cosi’ importante?

Torniamo un attimo alla nascita del nostro universo. Abbiamo detto che c’e’ stato il Big Bang e abbiamo parlato di quando, 380000 anni dopo, materia e radiazione si sono separate. Secondo i modelli cosmologici accettati, c’e’ stato un momento nei primi istanti di vista dell’universo, precisamente 10^(-34) secondi dopo il Big Bang, in cui l’universo ha subito una rapidissima accelerazione dell’espansione a cui si da il nome di “inflazione”. Questo e’ un momento del tutto particolare in cui si e’ registrata un’espansione violentissima al punto, come dicono i cosmologi, da andare oltre l’orizzonte degli eventi. Proprio grazie a questo movimento cosi’ brusco si ha un universo cosi’ uniforme ed e’ tanto difficile registrare fluttuazioni nella distribuzione della radiazione di fondo.

Ora, per l’inflazione abbiamo dei modelli che la includono e la spiegano ma manca una prova, anche indiretta, dell’esistenza di questo momento. Come detto, studiando la CMB arriviamo fino ad un preciso istante prima del quale non possiamo andare perche’ materia e radiazione non erano separate. Attenzione, non erano separate ma, ovviamente, erano presenti. Se ripensiamo a quanto detto in precedenza per le onde gravitazionali, sicuramente un’espansione cosi’ violenta come quella dell’inflazione ne ha generate moltissime. Bene, queste onde avrebbero a loro volta interagito con la CMB lasciando una inconfondibile firma del loro pasaggio. Trovare evidenza di questa segnatura sarebbe molto importante e utile per la comprensione del modelli dell’universo che abbiamo sviluppato.

Detto questo, cosa avrebbe trovato Bicep-2?

Ovviamente quello a cui state pensando, l’effetto primordiale lasciato sulla CMB dalle onde gravitazionali dell’inflazione, dunque una misura indiretta dell’esistenza di questo periodo. Capite la portata di una misura di questo tipo? Questa evidenza ci fa capire che i modelli che prevedono un periodo inflazionario durante i primi istanti di vita del nostro universo potrebbero essere corretti. Inoltre, la tipologia dei segnali trovati riesce gia’ ad escludere alcuni dei modelli formulati in questi anni.

Come avrete letto sulle varie fonti, gia’ molti parlano di nobel per questa misura. In realta’, anche in questo caso, si sta esagerando, non per l’importanza di una misura del genere ma, semplicemente, perche’ parliamo di “evidenza”. Dopo tutte le varie storie sentite sul bosone di Higgs, come sapete bene, prima di poter parlare scientificamente di scoperta e’ necessario che il segnale atteso abbia una certa “significanza statistica” che ci faccia affermare che quanto visto corrisponde al vero. In questo caso, statisticamente ripeto, parliamo ancora di “evidenza” non di “scoperta”. Ovviamente, una misura del genere non puo’ che spingere a migliorare e perfezionare una ricerca di questo tipo, anche da parte di altri esperimenti in grado di captare e raccogliere i dati relativi alla radiazione di fondo a microonde.

Concludendo, l’annuncio fatto dall’universita’ di Harvard e’ importantissimo dal punto di vista della fisica. Purtroppo, come spesso avviene, nel raccontare cose di questo tipo si fa molta confusione e si finisce col dire cose non veritiere e che non permettono ai non addetti ai lavori di comprendere la rilevanza di notizie del genere. Come detto, quanto osservato e’ una prova indiretta dell’esistenza dell’inflazione per il nostro universo. Questo e’ un momento assolutamente unico previsto nella teoria dell’esansione dell’universo, in cui quest’ultimo si e’ stirato in modo impensabile anche solo da immaginare. Come spesso avviene, per ogni piccolo passo avanti fatto nella comprensione, si aprono ogni volta decine di nuove domande in cerca di una risposta. Non resta che andare avanti e continuare ad osservare il cosmo consapevoli di quanti misteri ancora ci siano da scoprire.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Un nuovo segnale WOW!

18 Mar

Spulciando, come mia abitudine, la rete in cerca di novita’, tendenze e, purtroppo in molti casi, nuove bufale, mi sono imbattuto in un articolo che ha suscitato il mio interesse. Come forse avrete letto, sembrerebbe che in questi giorni il SETI abbia annunciato la visione di quello che molti, senza mezzi termini, definiscono il segnale WOW! del XXI secolo.

Prima di affrontare la notizia, facciamo un po’ di ripasso dal momento che questi sono argomenti che abbiamo gia’ visto su questo blog. Per prima cosa, il SETI e’ il programma per la ricerca dei segnali alieni provenienti dallo spazio. Anche se su questo si potrebbe discutere a lungo, si tratta di un programma scientifico reale per la ricerca di segnali non convenzionali, cioe’ non prodotti naturalmente, che arrivano sulla Terra da qualche zona dell’universo. Come sapete, l’aggettivo “scientifico” in questo caso non e’ sempre accettato, non per l’assurdita’ della ricerca in se, ma semplicemente perche’ una ricerca del genere e’ soggetta a forti limitazioni, prima tra tutte le possibile non ripetibilita’ di un segnale captato dallo spazio. Nonostante questo, nel bene o nel male, il programma SETI va avanti da decenni cercando, anno dopo anno, di migliorarsi raffinando i criteri di ricerca ed includendo sempre piu’ punti di ascolto mediante radiotelescopi.

Cosa ha trovato fino ad oggi il programma SETI?

Come visto in questo articolo:

Il segnale WOW!

nel 1977 e’ stato captato un segnale molto particolare e che e’ stato appunto chiamato WOW! per via della nota lasciata a fianco al listato proprio ad indicare la stranezza di quanto osservato. Questo segnale fu intercettato dal telescopio Big Ear, come gia’ raccontato nell’articolo, ed aveva tutte le caratteristiche di un segnale proveniente dallo spazio e non prodotto da qualcosa di naturale. Ancora oggi, non si e’ trovata una spiegazione “naturale” al segnale.

Personalmente, come scritto anche in precedenza, trovo assurdo che molti preferiscano parlare di ipotetici avvistamenti senza una minima validita’ oggettiva mentre la storia del segnale WOW! e’ molto spesso dimenticata e non ricordata a sufficienza.

Detto questo, come anticipato, in questi giorni stano uscendo diversi articoli in rete che parlano di una nuova evidenza di segnale compatibile con intelligenza aliena. Per prima cosa, se provata a fare una ricerca in rete, potrete rimanere davvero molto delusi. Le informazioni che potete reperire sono frammentarie e solo frutto di un selvaggio copia/incolla da una singola fonte. Cosa significa questo? Semplice, come al solito, l’effetto gregge e’ stato dominante. Qualcuno scrive qualcosa in rete, giusto o sbagliato poco importa, e tutti dietro a copiare a pappardella senza una minima considerazione o, ancora peggio, senza verificare che quanto scritto corrisponda veramente a realta’.

Per non cadere nello stesso errore, cerchiamo di analizzare la notizia sotto un altro punto di vista, facendo riferimento soprattutto alla nota emanata proprio dal SETI in cui ci sarebbe l’evidenza di questo nuovo segnale.

Per prima cosa, trovate l’articolo in questione a questo link:

Articolo SETI, 2014

A pag. 12 c’e’ questo fantomatico nuovo segnale WOW!, che vi riporto per completezza:

Segnale captato dal SETI nel 2010

Segnale captato dal SETI nel 2010

Bene, anche per uno che di segnali non capisce nulla, si vede chiaramente un picco altissimo che si alza su un fondo piu’ o meno piatto. Questo segnale sarebbe quello di cui stiamo parlando e dovrebbe provenire da qualche parte in prossimita’ dalla stella TYC 1220-91-1 che si trova a circa 100 anni luce dalla Terra. 

Fin qui tutto chiaro. Ora, prima di andare avanti, leggiamo le informazioni che tanti hanno scopiazzato e pubblicato in rete. Come ricordato varie volte, il segnale proviene da una stella potenzialmente abitabile e questo particolare sarebbe ripetuto piu’ volte nell’articolo del SETI. Inoltre, questo segnale e’ stato captato nel 2010 ma reso noto soltanto oggi perche’ per molto tempo hanno provato a nasconderlo o hanno cercato una soluzione razionale per giustificarlo. Non avendo trovato nulla, hanno deciso di rendere nota questa evidenza. Sempre nell’articolo della rete, trovate scritto che in diversi punti il SETI parli di intelligenza aliena senza pero’ mai menzionare direttamente l’esistenza degli extraterrestri. Questa e’ solo una chiara evidenza della scoperta che pero’ deve essere somministrata un poco alla volta alla popolazione ancora non pronta a notizie del genere.

Ma siamo sicuri di questo?

Capisco che l’articolo del SETI, linkato in precedenza, e’ lungo piu’ di 30 pagine, pero’ forse si dovrebbe leggere meglio prima di fare affermazioni di questo tipo.

Prima cosa, il titolo e’ “A new Class of SETI Beacons that contain information”, cioe’ una nuova classe di radiofari che contengono informazioni. Perche’ questo titolo? Semplice, l’articolo in questione, ripeto scritto da astronomi facenti parte del programma SETI, vuole evidenziare come la ricerca condotta fino ad oggi possa contenere molti falsi segnali ed in particolare come la non ripetibilita’ di alcune evidenze possa influenzare notevolmente la comprensione dei dati. Nell’articolo in questione, gli autori spiegano come potrebbe essere possibile inserire molte informazioni in un segnale proveniente dallo spazio ed inviato per lo stesso motivo per cui noi abbiamo il SETI, mettersi in contatto con altre civilta’ dell’universo.

In questo articolo, in cui compare molta matematica e ovviamente teoremi fondamentali utilizzati per lo studio dei segnali, si cerca di mostrare prima di tutto la criticita’ della ricerca tradizionale e poi quante risorse, soprattutto computazionali, sarebbero necessarie per effetturare una ricerca piu’ mirata su segnali come quelli indicati nell’articolo stesso.

In questo contesto, quanto riportato a pag.12 dell’articolo assume tutto un altro significato. Come potete vedere, siamo nella sezione 2.5 che si chiama “persistenza”. Qui, come potete verificare, si discute proprio la mancanza di persistenza che un segnale potrebbe avere e che, a causa di questo problema, non potrebbe essere identificato con precisione, se non molto intenso o molto vicino alla Terra. Come anticipato, nelle varie sezioni del paragrafo 2 che stiamo analizzando, si discutono proprio le molteplici criticita’ della ricerca classica del SETI per poi arrivare nei paragrafi successivi a confrontarle con la nuova ricerca proposta.

Bene, mancanza di persistenza significa difficolta’ di identificazione della provenienza di un segnale. Andando avanti leggete poi:

Interesting signals without persistence are observed thousands of times each day at the SETI Institute

Capito? Segnali provenienti dallo spazio senza persistenza sono osservati migliaia di volte dal SETI. Subito dopo questa importante frase, non dopo pagine o righe, ma subito dopo, c’e’ scritto:

Figure 4 for example shows a result obtained in a narrowband SETI search near the PiHI frequency (the number π times the HI observing line of 1420.4 MHz).

La figura 4, come potete indovinare e verificare, e’ propria quella del segnale. Dunque? Questo segnale viene preso come un esempio, tra migliaia, di quei segnali senza persistenza di cui non possiamo essere certi e, come riportato nella frase precedente, non possiamo determinare con esattezza la provenienza. Infatti, proprio poche righe sotto, dopo una discussione sulla frequenza del segnale che comunque e’ interessante e tra quelle in cui sia pensa potrebbero arrivare segnali extraterrestri, trovate scritto:

This pulse has interesting features: It is observed at a magic frequency in the direction of a nearby and potentially habitable star. Yet we cannot be sure this signal was created intentionally or unintentionally by some transmitter on Earth.

Dunque, il segnale potrebbe provenire dalla direzione in cui si trova una stella che potrebbe avere un sistema stellare con pianeti in zona abitabile, OK. Subito dopo pero’, “non possiamo essere sicuri che questo segnale sia state creato intenzionalmente o meno da qualche trasmettitore sulla Terra”.

Trovate assurda questa frase? Assolutamente no. Si tratta di una considerazione appositamente fatta per mostrare la criticita’ della ricerca condotta con i metodi classici. Tra l’altro, e giusto per inciso, questa pagina e’ l’unica in cui viene discusso questo segnale e la frase riportata e’ l’unica in cui si parla di stella abitabile come probabile direzione. Non e’ assolutamente vero che in questo articolo si voglia assolutamente dire e non dire, ma far capire, che si tratta di un segnale con molta probabilita’ proveniente da civilta’ extraterrestri.

Concludendo, niente di interessante e assolutamente non un nuovo segnale WOW! sul quale arrovellarci per trovare una spiegazione.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Un vetro spesso solo due atomi

18 Set

Come sappiamo bene, la storia della ricerca e della scienza in generale e’ piena di scoperte avvenute in modo del tutto casuale. Spesso, queste scoperte si rivelano di fondamentale imporanza per l’uomo e quello che contribuisce ancora di piu’ alla notorieta’ della scoperta e’ la non intenzione di base di arrivare a questi risultati.

Perche’ avviene questo?

Non potendo dare una risposta provata, mi limitero’ ad esporre un mio personale pensiero. In questo caso, a mio avviso, quello che rende cosi’ affascinanti queste scoperte per i non addetti ai lavori e’ proprio la casualita’ della scoperta. Questi meccanismi rendono la ricerca scientifica piu’ umana e vicina alle persone comuni. Pensare ad uno sbadato scienziato che lascia i suoi campioni fuori posto o senza pulirli e poi, tornando il giorno dopo, trova la scoperta che lo rendera’ famoso, e’ qualcosa che avvicina molto i ricercatori alle persone comuni, tutte con le loro distrazioni, pensieri e cose piu’ “terrene” da fare.

Se ci pensiamo, la stessa cosa e’ avvenuta per Flemming con la scoperta della penicillina. Come sicuramente sapete, anche in questo caso, la scoperta fu del tutto fortuita. Lo scienziato lascio’ alcuni batteri su cui stava lavorando in una capsula di cultura e parti’ per una vacanza. Al suo ritorno si accorse che all’interno della capsula vi era una zona in cui i batteri non erano cresciuti ed in cui era presente una muffa. Proprio da questa muffa si arrivo’ poi, anche se in diversi passi nel corso del tempo e perfezionando i metodi di produzione, alla penicillina, quell’importante salvavita che tutti conosciamo. Se vogliamo, la bravura del ricercatore e’ nell’interpretare e nell’accorgersi di avere tra le mani qualcosa di importante e non un risultato sbagliato o della sporcizia lasciata per caso.

Perche’ ho fatto questo cappello introduttivo?

Come potete immaginare, vi voglio parlare di una scoperta fortuita, forse meno “vitale” della penicillina, ma sicuramente molto affascinante e con importanti risvolti per il futuro. Si tratta, come forse avrete letto su molti giornali, della produzione del vetro piu’ sottile al mondo, appena due atomi.

Andiamo con ordine, parlando proprio di come ‘e stata fatta questa scoperta.

Un team di scienziati stava lavorando alla produzione di fogli di grafene, una struttura atomica composta di carbonio, spessa appena un atomo, ma con importanti prorieta’ sia chimiche che meccaniche. La produzione di questo grafene era fatta utilizzando ovviamente atomi di carbonio ma anche fogli di quarzo utilizzati per la deposizione.

Osservazione al microscopio della zona impura del grafene

Osservazione al microscopio della zona impura del grafene

Osservando al microscopio uno di questi fogli, gli scienziati si sono accorti che in una piccola parte era presente una regione di colorazione diversa rispetto al resto. Proprio mediante l’osservazione al microscopio e’ stato possibile determinare che si trattava di una struttura diversa da quella del grafene e composta di Silicio e Ossigeno. Questa non era una struttura casuale, ma gli atomi erano disposti in modo ordinato e formavano un foglio spesso appena due atomi.

Caratterizzando la struttura del foglio, gli scienziati si sono accorti che quello che stavano osservando era un vetro. non un vetro qualsiasi, ma il piu’ sottile vetro mai realizzato.

Dov’e’ la casualita’ della scoperta?

Ovviamente, nel laboratorio si stava producendo grafene che, come detto, e’ composto da atomi di carbonio. Da dove sono usciti Silicio e Ossigeno per il vetro? La risposta e’ quantomai banale ma affascinante. Secondo i ricercatori, una fuga d’aria all’interno della camera di produzione ha causato l’ingresso dell’ossigino e la conseguente reazione con il rame e con il quarzo contenuto all’interno per la produzione di grafene. Risultato, in una piccola zona del grafene si e’ formato un sottilissimo strato di vetro comune.

Come anticipato, parliamo di una scoperta affascinante ma che sicuramente non puo’ combattere con quella della penicillina. Perche’ pero’ e’ importante dal punto di vista scientifico?

Per prima cosa, il fatto che si tratti del piu’ sottile vetro mai realizzato e’ stato certificato inserendo questa scoperta nel libro dei Guiness dei Primati.

Oltre a questo, tornando invece a parlare di scienza, la struttura del vetro non e’ molto facile da capire. Come sapete, questo puo’ allo stesso tempo essere considerato sia un liquido che un solido. Detto questo, se si osserva un vetro al microscopio, non si riesce a distinguere bene la sua struttura atomica. Nella struttura amorfa della sostanza, si evidenziano sottoinsiemi disordinati di atomi, senza poter descrivere in dettaglio il posizionamento ed i legami che intercorrono tra di essi.

Nel caso dl vetro di cui stiamo parlando invece, proprio lo spessore cosi’ ridotto consente di poter distinguere chiaramente la posizione dei diversi atomi e quindi di avere una mappa delle posizioni di Ossigeno e Silicio. Come potete immaginare, dal punto di vista scientifico questa evidenza e’ di fondamentale importanza per poter classificare e comprendere a fondo i materiali amorfi a cui anche il vetro appartiene.

Oltre a questo, sempre gli scienziati coinvolti nella ricerca si sono accorti che la struttura ottenuta era molto simile a quella ipotizzata ben 80 anni prima, nel 1932, dal fisico norvegese Zachariasen. Costui dedico’ gran parte della sua carriera allo studio dei vetri e proprio nel 1932 pubblico’ l’articolo “The atomic Arrangement in Glass”. In questo articolo Zachariasen inseri’ alcuni suoi schemi relativi al posizionamento degli atomi all’interno del vetro. Come potete immaginre, si trattava di disegni ottenuti da considerazioni scientifiche personali. Bene, a distanza di oltre 80 anni, e’ stato possibile osservare direttamente la struttura del vetro e confermare le supposizoni fatte da Zachariasen.

Se vogliamo, fino a questo punto abbiamo mostrato il fascino della scoperta. La prossima domanda che potrebbe invece venire in mente e’: cosa ci facciamo con questo vetro?

Dal punto di vista applicativo, questa scoperta potrebbe avere negli anni a venire importanti ripercussioni su diversi campi. Per prima cosa, un vetro cosi’ sottile e’ praticamente privo di impurezze. Questo lo rende particolarmente appetibile per applicazioni di precisione su scala micrometrica, dove una minima variazione della struttura potrebbe comportare errori sistematici non prevedibili.

Inoltre, strutture come questa ottenuta, sono importantissime per la realizzazione di sistemi elettronici miniaturizzati. Anche qui, la purezza e’ uno dei requisiti fondamentali richiesti. Oltre a questa, un vetro cosi’ sottile puo’ essere pensato per applicazioni di microtrasmissione dei segnali, fondamentali, ad esempio, nei transistor.

Grazie a questa scoperta, possiamo dunque pensare di avere un metodo di produzione per spessori infinitesimali. I risultati di questa produzione potrebbero essere utilizzati per aprire la strada ad una miniaturtizzazione ancora piu’ spinta dei dispositivi elettroni che trovano largo uso in tantissimi “gadget” tecnologici che ci portiamo dietro.

Concludendo, la scoperta del vetro piu’ sottile al mondo e’ avvenuta quasi per caso. Dico “quasi” perche’ ovviamente stiamo parlando di scienziati seri e che erano impegnati su lavori molto importanti e di chiara importanza. Durante questi studi, si e’ evideniata la formazione fortuita di una zona vetrosa composta da ossigeno e silicio. Come visto nell’articolo, questa scoperta potrebbe avere importanti ripercussioni su tantissimi settori diversi che vanno dalla microelettronica, alla tramissione dei segnali, fino anche, perche’ no, ad applicazioni di fisica delle alte energie per lo studio e la realizzazione di rivelatori sempre piu’ innovativi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E quindi uscimmo a riveder le stelle

10 Set

Nella sezione:

Hai domande o dubbi?

e’ stata fatta una richiesta davvero molto interessante. Come potete leggere, si chiede come vengano ricostruite le immagini astronomiche che spesso ci vengono mostrate e catturate dai tanti telescopi a terra e in orbita. Questa richiesta sembra apparentemente molto semplice, ma nasconde in realta’ una vera e propria professione. Oggi come oggi, molti astronomi dedicano il loro lavoro proprio alla visione e all’elaborazione di immagini astronomiche. Cerchiamo di capire meglio come funzionano queste tecniche per poter meglio apprezzare anche il lavoro che c’e’ dietro una bella immagine che troviamo sulla rete.

Come sapete bene, al giorno d’oggi, per esplorare l’universo non si utilizzano piu’ solo telescopi nel visibile. In questo caso, come facilmente immaginabile, questi sistemi catturano immagini esattamente come farebbe il nostro occhio. Oltre a questi, si utilizzano telescopi, sia a terra che in orbita, sensibili all’infrarosso, ai raggi X, all’ultravioletto, oltre ad enormi antenne pensate per catturare segnali radio provenienti dal cosmo.

Che differenza c’e’ tra queste radiazioni?

Per capire bene il concetto, vi mostro quello che normalmente si chiama lo spettro della radiazione elettromagnetica:

Spettro della radiazione elettromagnetica

Diverse lunghezze d’onda vengono accorpate in famiglie. Come vedete, la parte visibile, cioe’ quella a cui i nostri occhi sono sensibili, e’ in realta’ solo una strettra frazione dell’intero spettro. Per fare un esempio, tutti conosciamo le immagini infrarosse utilizzate per esempio per identificare le fonti di calore. Bene, questo e’ un esempio di immagine fuori dallo spettro visibile. Si tratta di particolari che i nostri occhi non sarebbero in grado di vedere, ma che riusciamo a visualizzare utilizzando tecnologie appositamente costruite. Non si tratta di immagini false o che non esistono, semplicemente, mediante l’ausilio di strumentazione, riusciamo a “vedere” quello che i nostri occhi non sono in grado di osservare.

Bene, il principio dietro l’astronomia nelle diverse lunghezze d’onda e’ proprio questo. Sfruttando parti dello spettro normalmente non visibili, si riesce ad osservare dettagli che altrimenti sarebbero invisibili.

Per dirla tutta, anche le normali immagini visibili, subiscono un’opera di elaborazione pensata per ricostruire i dettagli e per ottimizzare la visione. Cosa significa? Nella concezione comune, un telescopio nel visibile e’ paragonabile ad una normale macchina digitale. Questo non e’ esattamente vero. Molto spesso, le immagini catturate da questi sistemi sono ottenute mediante una sovrapposizione di dati raccolti utilizzando filtri diversi.

Cosa significa?

Prendiamo come esempio il telescopio Hubble. In questo caso, il sistema acquisisce immagini a diverse lunghezze d’onda, o isolando una particolare frequenza piuttosto che altre. Si tratta di immagini in bianco e nero che poi vengono colorate artificialmente e sovrapposte per formare l’immagine finale. Attenzione, non dovete pensare che la colorazione artificiale sia un trucco per far apparire piu’ belle le foto. Questa tecnica e’ di fondamentale importanza per far esaltare dei particolari che altrimenti verrebbero confusi con il resto. Questa tecnica si chiama dei “falsi colori”, proprio perche’ la colorazione non e’ quella originale ma e’ stata creata artificialmente.

Per capire meglio, proviamo a fare un esempio.

Prendiamo una delle foto piu’ famose di Hubble, quella della galassia ESO 510-G13:

ESO 510-G13 da Hubble

Questa immagine e’ ottenuta con la tecnica del “colore naturale”, cioe’ esattamente come la vedrebbero i nostri occhi se fossero potenti come quelli di Hubble. In questo caso dunque, la colorazione e’ quella che potremmo vedere anche noi ma anche questa immagine e’ stata ottenuta sovrapponendo singoli scatti ripresi dal telescopio.

In particolare, si sono sovrapposte tre immagini in bianco e nero, ognuna ottenuta selezionando solo la radiazione visibile blu, rossa e verde:

ESO 510-G13 immagini a colore singolo

Perche’ viene fatto questo?

Selezionando solo una piccola parte dello spettro visibile, cioe’ il singolo colore, e’ possibile sfruttare il sistema per catturare al meglio i singoli dettagli. In questo modo, come visibile nelle foto, ciascuna immagine e’ relativa ad un solo colore, ma al meglio della risoluzione. Sommando poi le singole parti, si ottiene il bellissimo risultato finale che abbiamo visto.

Analogamente, in alcuni casi, si amplificano determinate lunghezze d’onda rispetto ad altre, per rendere piu’ visibili alcuni dettagli. Anche in questo caso vi voglio fare un esempio. Questa e’ una bellissima immagine della Nebulosa dell’Aquila:

Nebulosa testa d'aquila

Cosa significa amplificare alcuni colori?

Nella foto riportata, oltre ad ammirarla, gli astronomi riescono a vedere le emissioni di luce da parte dei singoli gas costituenti la nebulosa. Questo studio e’ importante per determinare la concentrazione di singoli elementi, e dunque identificare particolari tipologie di corpi celesti. Per capire meglio, nella ricostruzione a posteriori dell’immagine, e’ stato assegnato il colore verde all’emissione degli atomi di idrogeno, il rosso agli ioni di zolfo e il blu alla luce emessa dall’ossigeno ionizzato. Perche’ questo artificio grafico? Se non venisse elaborata, nell’immagine la luce emessa dalla zolfo e dall’idrogeno sarebbero indistinguibili tra loro. Se ora rileggete l’assegnazione dei colori riportata e rivedete l’immagine della nebulosa, siete anche voi in grado di determinare quali gas sono piu’ presenti in una zona piuttosto che in un’altra. Ovviamente questi sono processi che devono essere fatti analiticamente, elaborando le informazioni di ogni singolo pixel.

Analogo discorso puo’ essere fatto per la radioastronomia. In questo caso, come sapete e come anticipato, quelli che vengono registrati sono dei segnali radio provenienti dai diversi settori in cui viene diviso l’universo. Non avendo delle immagini, nei radiotelescopi si hanno degli impulsi radio che devono essere interpretati per identificare il tipo di sorgente, ma soprattutto la zona da cui il segnale proviene.

Per farvi capire meglio questo concetto, vi racconto la storia dell’inizio della radioastronomia. Nel 1929 un radiotecnico americano che lavorava in una stazione di Manila, mentre era al lavoro per eliminare disturbi dalle trasmissioni, si accorse che vi era un particolare rumore di fondo che si intensifica in determinati momenti della giornata. Nello stesso anno, Jansky, un ingegnere della compagnia americana Bell, anche lui al lavoro per cercare di migliorare le comunicazioni transoceaniche, arrivo’ alla stessa conclusione del radiotecnico. L’ingegnere pero’ calcolo’ il momento preciso in cui questi disturbi aumentavano, trovando che il periodo che intercorreva tra i massimi corrispondeva esattamente alla durata del giorno sidereo, 23 ore e 56 minuti. Solo anni piu’ tardi, riprendendo in mano questi dati, ci si accorse che la fonte di questo disturbo era il centro della nostra galassia. I segnali radio captati erano massimi quando il ricevitore passava davanti al centro della galassia, emettitore molto importante di segnali radio.

Oggi, mediante i nostri radiotelescopi, riusciamo ad identificare moltissime sorgenti radio presenti nell’universo e, proprio studiando questi spettri, riusciamo a capire quali tipologie di sorgenti si osservano e da quale punto dell’universo e’ stato inviato il segnale. A titolo di esempio, vi mostro uno spettro corrispondente ai segnali radio captati nell’arco del giorno con un semplice radiotelescopio:

Spettro giornaliero di un radiotelescopio con antenna da 3.3 metri. Fonte: Univ. di Pisa

Come vedete, sono chiaramente distinguibili i momenti di alba e tramonto, il passaggio davanti al centro galattico e quello corrispondente al braccio di Perseo. Come potete facilmente capire, si tratta di misure, chiamiamole, indirette in cui i nostri occhi sono proprio le antenne dei telescopi.

Concludendo, ci sono diversi metodi per pulire, migliorare o amplificare le immagini raccolte dai telescopi sia a terra che in orbita. Quello che facciamo e’ amplificare la nostra vista o utilizzando sistemi molto potenti, oppure ampliando lo spettro delle radiazioni che altrimenti non sarebbero visibili. I telescopi divengono dunque degli occhi sull’universo molto piu’ potenti e precisi dei nostri. Metodi diversi, ottico, UV, IR, radio, ecc, possono aiutare a capire dettagli o strutture che altrimenti sarebbero invisibili in condizioni normali. Detto questo, capite quanto lavoro c’e’ dietro una bella immagine che trovate su internet e soprattutto perche’ la foto ha una specifica colorazione o particolari sfumature.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tsunamometro: come “prevedere” gli Tsunami

3 Set

Alcuni lettori mi hanno contatto per chiedere il mio punto di vista su una notizia apparsa in questi giorni su alcuni giornali. La notizia in questione riguarda un sistema di allerta per gli Tsunami del mediterraneo che e’ stato sviluppato con la collaborazione di diverse universita’ e enti di ricerca italiani. Questo strumento, anche detto Tsunamometro, altro non e’ che un sistema di “early warning”, cioe’ una strumentazione in grado di identificare la formazione del maremoto e inviare un allarme a terra. Come sappiamo bene, in eventi di questo tipo, un avviso anche solo di qualche decina di minuti puo’ significare la differenza tra centinaia di morti oppure no.

Detto questo, vorrei aprire una piccola parentesi o, se volete, una critica ad alcuni giornali. Come abbiamo detto in diverse occasioni, in questo periodo estivo le notizie scarseggiano, la politica e’ ancora in ferie, il campionato sta ricominciando solo ora, ecc. Proprio questo e’ il periodo in cui i giornali per riempire le loro pagine tirano fuori notizie d’archivio o pseudo-assurde. Perche’ dico questo?

Questo e’ l’articolo, del 1 settembre 2013, che trovate su un noto giornale nazionale:

Tsunamometro, 1 settembre 2013

Bene, questo e’ un articolo dello stesso giornale sullo stesso argomento del 30 settembre 2009:

Tsunamometro, 30 settembre 2009

Stesso argomento, stessa intervista, stesse considerazioni solo che, nel 2009, il sistema era stato installato per la prima volta.

Animazione dello Tsunami in Indonesia del 2004

Animazione dello Tsunami in Indonesia del 2004

Non aggiungo altro, a voi le considerazioni sulla cosa.

Nonostante questo, credo sia interessante parlare dell’argomento in primis perche’ non lo abbiamo trattato sul blog ma soprattutto perche’ alcuni utenti mi hanno scritto facendo questo ragionamento: se e’ possibile inviare un segnale a terra studiando le onde, allora e’ possibile prevedere uno tsunami. Se lo tsunami e’ dovuto ad un terremoto, allora e’ in qualche modo possibile prevedere anche il sisma.

Come anticipato, questo ragionamento e’ sbagliato. Come detto, lo tsunamometro, noto come progetto Nearest, e’ costituito da una serie di strumenti che misurano parametri del mare. In caso di formazione anomala, il sistema invia l’allerta a terra. Dunque, non prevede lo tsunami ma lo identifica nelle prime fasi della sua formazione.

Come funziona Nearest?

Come potete immaginare, si tratta di un sistema di boe che misurano l’accelerazione e la pressione delle acque, le onde sismiche e le onde acustiche prodotte dallo tsunami in formazione. Oltre alla boa, c’e’ ovviamente un sistema sottomarino che serve a raccogliere i dati ed che viene posizionato in prossimita’ delle linee di faglia dove si potrebbe generare il sisma ed il conseguente maremoto.

Ad oggi, un sistema completo di monitoraggio e’ stato installato al largo di Cadice in Spagna. Come sappiamo, la zona del mediterraneo e’ stata in passato scenario di tsunami a causa sia dell’attivita’ sismica che di frane. Di questi eventi abbiamo parlato in dettaglio in questi post:

Ora anche gli Tsunami in Italia

I Marrobbi, piccoli Tsunami

Aggiornamento sulla Tsunami del Tirreno

Inoltre, come visto in questi articoli:

Due parole sull’Etna e sullo Stromboli

Marsili e terremoto siciliano

– Il vulcano Marsili

– Immagine ricostruita del Marsili

– Il risveglio del Marsili

la presenza di vulcani attivi nel Mediterraneo puo’ portare a sismi con conseguenti Tsunami.

Una delle boe del sistema Nearest

Una delle boe del sistema Nearest

Oltre all’importante funzione di “Early warning”, Nearest ha un compito scientifico di tutto rispetto. La ricerca e’ infatti considerata fondamentale per studiare a fondo la relazione tra evento sismico e maremoto. Come sapete, ci possono essere terremoti con epicentro in mare che non provocano fenomeni tsunamici. Questo e’ dovuto alla natura stessa del sisma, alla direzione di propagazione delle onde, alla profondita’, ecc. Avere un sistema di monitoraggio di questo tipo direttamente in mare consente di poter studiare queste relazioni ed avere un quadro piu’ chiaro. Al largo di Cadice, il sistema e’ posizionato ad una profondita’ di 3200 metri e invia segnali acustici alla boa.

Concludendo, quella dello tsunamometro e’ una notizia abbastanza vecchia. Nonostante questa riproposizione estiva, e’ interessante vedere come funziona questo sistema per analizzare quali sono gli attuali sistemi di prevenzione che si stanno studiando per far fronte a problemi di questo tipo. Come sappiamo bene, le onde di tsunami hanno periodi molto lunghi, non possono essere arginate mediante barriere se non in parte, ma, sapere con anticipo quando l’onda colpira’ la costa potrebbe essere sicuramente un ottimo salvavita.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Autostrade nei cieli cinesi?

4 Ago

Alcuni utenti mi hanno contatto via mail per mostrarmi una foto scattata in Cina, precisamente nella cittadina di Boao nella provincia di Hainan. Prima di qualsiasi cosa, credo sia interessante mostrarvi la foto:

Immagine scattata a Boao in Cina

Immagine scattata a Boao in Cina

Quando questa immagine e’ stata pubblicata su internet, si sono scatenate moltissime voci per cercare di spiegare l’origine di questa strana conformazione. In alcuni casi, si e’ fatto riferimento a questo feomeno come le “autostrade del cielo” per indicare il solco netto piu’ scuro che si vede nella foto.

Ovviamente, non sono mancate le ipotesi catastrofiste e complottiste sul fenomeno. C’e’ chi ha parlato di segno lasciato dal passaggio di navi aliene, chi parla di fenomeni di geoingegneria legati alle scie chimiche e anche chi fa riferimento a misteriosi fenomeni ottici dovuti a qualche nuova forma di inquinamento.

Come usanza del caso, molti siti concordano sul fatto che il fenomeno e’ del tutto nuovo, mai osservato e, soprattutto, non esiste una spiegazione scientifica.

Chi frequenta il blog da tempo sa bene che questo e’ lo scenario classico in cui siamo abituati a discutere. Ogni qual volta c’e’ un fenomeno non usale, e questo non significa raro, le voci che si rincorrono sono sempre piu’ o meno le stesse.

Ora, data la premessa, avrete gia’ capito che lo strano fenomeno apparso in Cina e’: conosciuto, spiegato e gia’ accaduto innumerevoli altre volte.

Non mi dilunghero’ molto nella spiegazione, perche’ in realta’ di fenomeni del genere ne abbiamo gia’ parlato in un’altra occasione. Ecco il post:

Questo deve essere un segno premonitore!

In questo articolo, parlavamo di un fenomeno molto simile a questo ed, in particolare, mostravamo anche tante altre immagini prese dalla rete con cieli nella stessa conformazione.

Cosi’ come avvenuto in Brasile, anche per il caso cinese dobbiamo appellarci ai raggi crepuscolari. Per essere precisi, nell’articolo precedente eravano di fronte a raggi anticrepuscolari, questa volta invece sono crepuscolari. Come visto, questi fenomeni si possono evidenziare in particolari condizioni quando il Sole e’ basso all’orizzonte, appunto durante il tramonto.

Ora pero’, la differenza sostanziale e’ che nel caso di raggi crepuscolari, le striature che si vedono sono molto luminose. Nel caso cinese, vediamo invece nell’immagine dei segni molto netti ma piu’ scuri rispetto al resto. La cosa non e’ affatto sorprendente ed e’ dovuta alla particolare conformazione atmosferica al momento dello scatto.

Come riportato da molte fonti, la foto e’ stata scattata al tramonto, ma erano presenti nubi negli strati alti dell’atmosfera ad una quota compresa tra 8000 e 12000 metri. In questo caso, i raggi crepuscolari vanno ad illuminare queste formazioni che pero’ proiettano verso il basso la loro ombra. Bene, le strisce piu’ scure che si vedono nella foto sono proprio dovute alle ombre delle nubi filamentose negli strati alti.

Data questa spiegazione, non c’e’ assolutamente nulla di straordinario nel fenomeno, se non l’impatto visivo. Come visto, si tratta d un fenomeno gia’ affrontato sul blog e la cui spiegazione scientifica e’ molto ben conosciuta e documentata. Se vogliamo, unica differenza rispetto al solito e’ la presenza di nubi negli strati alti che proiettano la loro ombra veso il basso. In questo caso, invece di avere strisce luminose abbiamo zone piu’ scure in cielo. Cosi’ come avviene per la zone cangianti in presenza di raggi crepuscolari, anche in questo caso, le strisce appaiono con contorni ben delimitati e proettive verso l’esterno.

Concludendo, non  c’e’ assolutamente nulla di sorprendente nel fenomeno apparso a Boao. La spiegazione e’ da ricercarsi nel fenomeno dei raggi crepuscolari, molto ben documentati e perfettamente compresi a livello scientifico.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.