Tag Archives: conferenza

Hawking e la fine del mondo

11 Set

Visto che me lo state chiedendo in tantissimi, vorrei aprire una parentesi sulle affermazioni fatte dal celebre astrofisico Stephen Hawking riguardanti il bosone di Higgs. Per chi non lo avesse seguito, abbiamo già discusso di questo tema nella apposita sezione:

Hai domande o dubbi?

Dove un nostro caro lettore, già qualche giorno fa, ci aveva chiesto lumi a riguardo.

Di cosa stiamo parlando?

Come tutti avrete letto, nell’introduzione del suo ultimo libro “Starmus, 50 years of man in space” il celebre astrofisico avrebbe scritto che il bosone di Higgs avrebbe le potenzialità per poter distruggere l’intero universo. In pratica, ad energie elevate, così si legge, la particella potrebbe divenire improvvisamente instabile e provocare il collasso dello stato di vuoto, con conseguente distruzione dell’universo.

Cosa? Collaso del vuoto? Distruzione dell’universo?

Ci risiamo, qualcuno ha ripreso qualche spezzone in giro per la rete e ne ha fatto un caso mondiale semplicemente mescolando le carte in tavola. In realtà, a differenza anche di quanto io stesso ho affermato nella discussione linkata, la cosa è leggermente più sottile.

E’ possibile che il bosone di Higgs diventi instabile e bla bla bla?

No! Il bosone di Higgs non diviene instabile ad alte energie o perchè ne ha voglia. Stiamo entrando in un settore della fisica molto particolare e su cui la ricerca è ancora in corso.

Facciamo un piccolo excursus. Del bosone di Higgs ne abbiamo parlato in questo articolo:

Bosone di Higgs … ma che sarebbe?

dove abbiamo cercato di spiegare il ruolo chiave di questa particelle nella fisica e, soprattutto, la sua scoperta.

Inoltre, in questo articolo:

L’universo è stabile, instabile o metastabile?

Abbiamo visto come la misura della massa di questa particella abbia implicazioni profonde che esulano dalla mera fisica delle particelle. In particolare, la massa di questa particella, combinata con quella del quark top, determinerebbe la condizione di stabilità del nostro universo.

Bene, come visto nell’ultimo articolo citato, i valori attuali dei parametri che conosciamo, ci pongono nella strettissima zona di metastabilità del nostro universo. Detto in parole semplici, non siamo completamente stabili e, ad un certo punto, il sistema potrebbe collassare in un valore stabile modificando le proprietà del vuoto quantomeccanico.

Riprendiamo il ragionamento fatto nell’articolo. Siamo in pericolo? Assolutamente no. Se anche fossimo in una condizione di metastabilità, il sistema non collasserebbe da un momento all’altro e, per dirla tutta, capire cosa significhi in realtà metastabilità del vuoto quantomeccanico non è assolutamente certo. Premesso questo, come già discusso, i valori delle masse delle due particelle in questione, vista la ristretta zona in esame, non sono sufficienti a determinare la reale zona in cui siamo. Cosa significa? Come detto, ogni misura in fisica viene sempre accompagnata da incertezze, cioè un valore non è univoco ma è contenuto in un intervallo. Più è stretto questo intervallo, minore è l’incertezza, meglio conosciamo il valore in esame. Ad oggi, ripeto, vista la stretta banda mostrata nel grafico, le nostre incertezze sono compatibili sia con la metastabilità che con l’instabilità.

Dunque, pericolo scampato. Resta però da capire il perchè delle affermazioni di Hawking.

Su questo, vi dirò la mia senza fronzoli. Hawking conosce benissimo l’attuale livello di cui abbiamo discusso. Molto probabilmente, non avendolo letto non ne posso essere sicuro, nel libro ne parla in modo dettagliato spiegando tutto per filo e per segno. Nell’introduzione invece, appunto in quanto tale, si lascia andare ad affermazioni quantomeno naive.

Perchè fa questo? Le ipotesi sono due e sono molto semplici. La prima è che è in buona fede e la colpa è solo dei giornali che hanno ripreso questa “introduzione al discorso” proprio per creare il caso mediatico sfruttando il nome dell’astrofisico. La seconda, più cattiva, è che d’accordo con l’editore, si sia deciso di creare questo caso appunto per dare una spinta notevole alle vendite del libro.

Personalmente, una o l’altra non conta, l’importante è capire che non c’è nessun collasso dell’universo alle porte.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tomografie …. vulcaniche

30 Mag

Eccoci di nuovo qui. Scusate se in questi giorni sono un po’ assente ma, prima di tutto, ho molti impegni da portare avanti ma, soprattutto, come detto diverse volte, e aggiungo per nostra pace, il lato complottista-catastrofista e’ un po’ a corto di idee.

Negli ultimi giorni e’ stata pubblicizzata, anche su diversi giornali, una nuova campagna di misure che dovrebbe partire molto a breve e che personalmente trovo molto interessante. Come forse avrete letto, l’ambizioso progetto si propone di effettuare una tomografia della struttura interna di uno dei piu’ famosi vulcani italiani, l’Etna.

Il progetto, denominato Tomo-Etna, e’ stato annunciato solo una paio di giorni fa in una conferenza stampa seguita da moltissimi giornalisti non solo scientifici. Ecco la locandina dell’evento:

Conferenza stampa di presentazione del progetto Tomo-Etna

Conferenza stampa di presentazione del progetto Tomo-Etna

Come potete leggere, al progetto afferiscono diverse universita’ e istituzioni provenienti da diverse parti del mondo. Per l’Italia, come e’ facile immaginare, diverse sezioni dell’INGV partecipano attivamente fornendo uomini e mezzi.

Come e’ possibile fare una tomografia interna di un vulcano?

Apparentemente, la cosa puo’ sembrare molto strana e difficile da realizzare. In realta’, si tratta, sulla carta, di un progetto facile da spiegare. Creando onde sismiche artificiali, si misura la propagazione delle onde nel sottosuolo riuscendo in questo modo a risalire, attraverso le variazioni di densita’, alla struttura interna. Prima che qualcuno salti dalla sedia gridando allo scandalo pensando alle “onde sismiche artificiali”, non si tratta di nulla di pericoloso. In parole povere, sfruttando aria compressa, vengono create delle onde che poi si propagano all’interno dei materiali e, di volta in volta, si misura la loro riflessione nel passaggio tra materiali diversi.

Per questo progetto saranno utilizzati ovviamente mezzi marini, tra cui alcune navi militari italiane con l’ausilio di navi di ricerca di altri paesi, Spagna e Grecia in primis. Per poter rivelare le onde riflesse sono necessari diversi sismografi disposti sia a terra che in mare, utili per creare una rete fitta e precisa di strumenti. Per quanto riguarda il lato terrestre, come sappiamo bene, la rete di monitoraggio presente sul vulcano e’ gia’ sufficiente allo scopo. In mare invece la situazione si fa solo leggermente piu’ complicata poiche’ verranno calati sul fondo degli OBH, acronimo che sta per “Ocean-bottom Seismometer”.

OBS utilizzato nelle isole Barbados

OBS utilizzato nelle isole Barbados

Detto molto semplicemente, sono dei sismografi appositamente costruiti per essere immersi a grande profondita’ e supportare le pressioni. I dispositivi sono montati su delle zavorre che li tengono, insieme ad un gel, sul fondale e sono ovviamente dotati di memorie per la registrazione dei dati.

Oltre alle onde sismiche indotte artificialmente, la fitta rete predisposta misurera’ anche la sismicita’ naturale che aiutera’ a capire meglio la struttura interna. Stando a quanto riportato dal progetto, con questa campagna di misure, che dovrebbe iniziare gia’ dal prossimo mese, si potra’ conoscere con una risoluzione mai raggiunta prima la struttura fino a 20 Km di profondita’. Conoscere questi dati e’ utile anche per capire l’evoluzione e la dinamica di una struttura vulcanica complessa come quella dell’Etna. Per questo vulcano infatti ci si aspetta che la caldera presenti una struttura molto complessa con numerosi punti di accesso del magma. Arrivando a 20Km si spera di giungere fino al confine di quella che e’ chiamata Discontinuita’ di Mohorovicic, o anche slo MOHO, cioe’ la zona di separazione tra la crosta e il mantello.

Struttura interna della Terra

Struttura interna della Terra

Perche’ proprio l’Etna? La risposta a questa domanda l’abbiamo gia’ in parte data. Opinione comune e’ che la struttura interna di questo vulcano sia molto complessa ed inoltre ha presentato nel corso degli anni degli eventi sismici statisticamente fuori media. Cioe’? Come sappiamo, l’Etna non e’ considerato un vulcano esplosivo grazie ad una struttura debole in vari punti e che consente, di volta in volta, di scaricare le pressioni interne mediante modeste eruzioni. Tutto questo pero’ non esclude la possibilita’, come avvenuto in passato, di eventi piu’ violenti. Avere un quadro completo della struttura interna puo’ essere fondamentale per la comprensione e la simulazione su lungo periodo del comportamento del vulcano.

Ad oggi, il progetto Tomo-Etna, che riguardera’ non solo il vulcano ma una area abbastanza vasta della Sicilia e’ pronto ad iniziare. Terminato questo, gia’ si pensa di utilizzare questo tipo di ricerche su altri vulcani italiani, primo tra tutti, ovviamente, il Vesuvio. Come visto diverse volte, in questo caso parliamo invece di un vulcano profondamente diverso e con caratteristiche eruttive che potrebbero essere molto piu’ pericolose di quelle dell’Etna. Per il Vesuvio ancora di piu’, una ricerca del genere con risultati precisi puo’ essere una chiave fondamentale anche per preparare eventuali piani di emergenza o, perche’ no, predisporre sistemi alternativi precedentemente all’eruzione.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Scenario Energetico 2050

22 Mag

La scorsa settimana ho partecipato come relatore ad un interessantissimo convegno organizzato da ISES Italia e Eidos dal titolo: “2050: l’energia del futuro”.

Scrivo questo post assolutamente non per autocelebrazione, chi ha imparato a conoscermi sa che e’ cosi’, ma perche’ diverse volte su questo blog ci siamo interessati di energia e scenari futuri. Come sapete, ad oggi possiamo disporre di diverse tecnologie per lo sfruttamento delle rinnovabili anche se, e questo e’ il mio parere, dobbiamo continuare a fare ricerca per poter arrivare a soluzioni future in grado di dare contributi significativi. Il punto raggiunto oggi e’ solo uno step intermedio che pero’ necessita’ di idee nuove e soluzioni su vasta scala per poter contrastare la continua crescita demografica di una societa’ che diviene sempre piu’ energivora.

Come potete facilmente immaginare, il mio intervento al convegno e’ stato sull’energia nucleare. Purtroppo, ancora oggi, viene fatto un atto di terrorismo psicologico nei confronti del nucleare chiamando appunto con questo termine “fenomeni fisici completamente diversi”. Come abbiamo visto in altri post, e ripeto e’ un mio personale pensiero, soprattutto in Italia, quella del nucleare e’ divenuta una questione politica piu’ che scientifica. Diversi schieramenti si sono contrapposti non sul piano dei contenuti ma solo tra favorevoli e contrari per mero scopo elettorale.

Vi riporto alcuni link interessanti per farvi capire, nuovamente, il mio pensiero, ma anche per farvi vedere le altre tecnologie discusse nel convegno e sicuramente interessanti nell’ottica di un futuro non cosi’ lontano.

Articolo del quotidiano “Avvenire” sul convegno

Intervista per il sito Canale Energia

Articolo su e7

Articolo di Canale Energia sul nucleare futuro

Link al sito ISES con le presentazioni mostrate al convegno

Questo e’ invece il video dell’intervista rilasciata per Canale Energia al termine del Convegno:

Ripeto, questo non vuole essere un articolo autocelebrativo, ma vorrei aprire una riflessione sui possibili scenari energetici al 2050, nuovo punto di svolta imposto dalla Commissione Europea.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo che si dissolve “improvvisamente”

21 Mar

Nella sezione:

Hai domande o dubbi?

una nostra cara lettrice ci ha chiesto lumi su una notizia apparsa in questi giorni sui giornali che l’ha lasciata, giustamente dico io, un po’ perplessa. La notizia in questione riguarda l’annuncio fatto solo pochi giorni fa della nuova misura della massa del quark top.

Perche’ questa notizia avrebbe suscitato tanto clamore?

Senza dirvi nulla, vi riporto un estratto preso non da un giornale qualsiasi, che comunque a loro volta hanno copiato da qui, ma dalla principale agenzia di stampa italiana:

Il più pesante dei mattoni della materia, il quark top, ha una misura più precisa e la sua massa, con quella del bosone di Higgs, potrebbe essere la chiave per capire se viviamo in un universo instabile, al punto di dissolversi improvvisamente.

Universo che si dissolve “improvvisamente”?

Vi giuro che vorrei mettermi a piangere. Solo pochi giorni fa abbiamo parlato di tutte quelle cavolate sparate dopo l’annuncio della misura di Bicep-2:

Ascoltate finalmente le onde gravitazionali?

Due notizie cosi’ importanti dal punto di vista scientifico accompagnate da sensazionalismo catastrofista nella stessa settimana sono davvero un duro colpo al cuore.

Al solito, e come nostra abitudine, proviamo a spiegare meglio l’importanza della misura ma, soprattutto, cerchiamo di capire cosa dice la scienza contrapposto a quello che hanno capito i giornali.

In diversi articoli abbiamo parlato di modello standard discutendo la struttura della materia che ci circonda e, soprattutto, presentando quelle che per noi, ad oggi, sono le particelle fondamentali, cioe’ i mattoni piu’ piccoli che conosciamo:

Due parole sull’antimateria

Piccolo approfondimento sulla materia strana

Bosone di Higgs …. ma che sarebbe?

Se ci concentriamo sui quark, vediamo che ci sono 6 componenti che, come noto, sono: up, down, strange, charm, bottom e top. Come gia’ discusso, i primi due, up e down, sono quelli che formano a loro volta protoni e neutroni, cioe’ le particelle che poi formano i nuclei atomici, dunque la materia che ci circonda.

Bene, il quark top e’ il piu’ pesante di questi oltre ad essere l’ultimo ad essere stato scoperto. Il primo annuncio di decadimenti con formazione di quark top e’ stato fatto nel 1995 grazie alla combinazione dei risultati di due importanti esperimenti del Fermi National Accelerator Laboratory di Batavia, nei pressi di Chicago. A questi esperimenti, oggi in dismissione, ma la cui analisi dei dati raccolti e’ ancora in corso, partecipavano e partecipano tuttora moltissimi fisici italiani dell’Istituto Nazionale di Fisica Nucleare.

La cosa piu’ sorprendente del quark top e’ la sua enorme massa, circa 170 GeV, che lo rende la particella elementare piu’ pesante mai trovata. Per darvi un’idea, il top e’ circa 180 volte piu’ pesante di un protone con una massa paragonabile a quella di un atomo di oro nel suo complesso. Il perche’ di una massa cosi’ elevata e’ una delle chiavi per capire i meccanismi che avvengono a livello microscopico e che, come e’ normale pensare, determinano il comportamento stesso del nostro universo.

Bene, cosa e’ successo in questi giorni?

Come avete letto, nel corso della conferenza:

Rencontres de Moriond

che si svolge annualmente a La Thuille in Val d’Aosta, e’ stata presentata una nuova misura della massa del quark top. Prima cosa importante da dire e’ che la misura in questione viene da una stretta collaborazione tra i fisici di LHC e quelli che analizzano i dati del Tevatron, cioe’ il collissore dove nel 1995 fu scoperto proprio il top. Queste due macchine sono le uniche al mondo, grazie alla grande energia con cui vengono fatti scontrare i fasci, in grado di produrre particelle pesanti come il quark top.

Dalla misurazione congiunta di LHC e Tevatron e’ stato possibile migliorare notevolmente l’incertezza sulla massa del top, arrivando ad un valore molto piu’ preciso rispetto a quello conosciuto fino a qualche anno fa.

Cosa comporta avere un valore piu’ preciso?

Come potete immaginare, conoscere meglio il valore di questo parametro ci consente di capire meglio i meccanismi che avvengono a livello microscopico tra le particelle. Come discusso parlando del bosone di Higgs, il ruolo di questa particella, e soprattutto del campo scalare ad essa associato, e’ proprio quello di giustificare il conferimento della massa. Se il  top ha una massa cosi’ elevata rispetto agli altri quark, il suo meccanismo di interazione con il campo di Higgs deve essere molto piu’ intenso. Inoltre, il quark top viene prodotto da interazioni forti, ma decade con canali deboli soprattutto producendo bosoni W. Non sto assolutamente cercando di confondervi. Come visto negli articoli precedenti, il W e’ uno dei bosoni messaggeri che trasportano l’interazione debole e che e’ stato scoperto da Carlo Rubbia al CERN. Detto questo, capite come conoscere con precisione la massa del top, significhi capire meglio i meccanismi che avvengono tra top, W e campo di Higgs. In ultima analisi, la conoscenza di questi modelli e’ fondamentale per capire perche’, durante l’evoluzione dell’universo, si sono formate particelle cosi’ pesanti ma anche per capire se esistono meccanismi di decadimento non ancora considerati o anche effetti, come vengono definiti, di nuova fisica che possono mettere in discussione o integrare il modello standard delle particelle.

Concludendo, la spiegazione della frase “universo che si dissolve improvvisamente” non significa nulla. Una misura piu’ precisa della massa del top implica una migliore conoscenza dei modelli ora utilizzati e soprattutto apre le porte per capire meglio cosa e’ avvenuto durante durante i primi istanti di vita dell’universo. Al solito pero’, anche sulla scia del tanto citato annuncio di Bicep-2, si e’ ben pensato di sfruttare l’occasione e trasformare anche questa importante notizia in un teatrino catastrofista. Per chi interessato ad approfondire, vi riporto anche il link di ArXiv in cui leggere l’articolo della misura in questione:

ArXiv, quark top

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ascoltate finalmente le onde gravitazionali?

19 Mar

Sicuramente, io non posso attaccare o denigrare la divulgazione della scienza e il voler diffondere la conoscenza, sempre troppo scarsa, e le ultime scoperte alle, cosiddette, persone di strada. Per poter fare questo pero’, mia opinione personale, si deve fare un lavoro immenso di modellamento delle informazioni e si deve essere in grado di immedesimarsi in colui che legge quello che scriviamo. Questo non significa assolutamente dire cose false ma solo fare in modo che le informazioni che passano possano appassionare ed essere comprese da coloro che non hanno una base scientifica di supporto. Credetemi, a volte questo lavoro non e’ semplice. Senza voler essere presuntuosi, molte volte un ricercatore abituato a lavorare su delle tematiche, tende a dare per scontate molte cose quando si interfaccia con qualcuno. Il risultato di questo e’, ovviamente, una impossibilita’ di comprensione da chi non ha la stessa base di chi parla.

Perche’ faccio questo preambolo?

La notizia di questi giorni, che sicuramente avrete letto su siti, blog, forum e giornali, e’ quella della conferenza stampa fatta dall’universita’ di Harvard per mostrare i dati raccolti dall’esperimento americano Bicep-2 che si trova in Antartide.

Bene, sulla maggior parte dei giornali che ho letto, e ci metto dentro anche i siti internet, ho visto una quantita’ di cavolate tali da far rabbrividire. Ovviamente, non faccio di tutte l’erba un fascio, ma, da una mia stima, circa il 10% delle notizie aveva senso, il restante era pieno di una quantita’ di idiozie che mai avrei pensato di leggere. Questa volta abbiamo superato di gran lunga gli articoli sulla scoperta del bosone di Higgs. L’unica cosa vera letta e’ che la notizia era attesa ed ha avuto un grandissimo risalto nella comunita’ scientifica, il resto lo potete buttare nel secchio.

Apro e chiudo parentesi: perche’ dobbiamo procedere in tal senso? Cari giornalisti che vi cimentate a scrivere di scienza, chiedete lumi, intervistate addetti ai lavori, non scrivete assurdita’ che non fanno altro che creare confusione su confusione in chi legge.

Detto questo, cerchiamo di capire di cosa si sta parlando.

Dunque, di Big Bang, nascita dell’universo, radiazione di fondo, ecc., abbiamo parlato in questi articoli:

E parliamo diquesto Big Bang

Il primo vagito dell’universo

Universo: foto da piccolo

La materia oscura

Materia oscura intorno alla Terra?

Due parole sull’antimateria

Flusso oscuro e grandi attrattori

Ipotizziamo che l’universo sia nato da un Big Bang, che ad un certo punto materia e antimateria si siano separate, poi, circa 380000 anni dopo il botto, si sono separate materia e radiazione ed e’ nata la Radiazione Cosmica di Fondo, o CMB. Proprio questa radiazione, di cui abbiamo parlato, e’ la prova sperimentale a supporto del Big Bang. Come scritto altre volte, possiamo vedere la CMB come una radiazione fossile di un preciso momento dell’universo. Prima di questo istante, c’e’ il buio perche’ la radiazione non riusciva a “scappare” e rimaneva intrappolata con la materia.

Primo punto fondamentale, la Radiazione Cosmica di Fondo esiste e l’abbiamo gia’ trovata. La prima osservazione della CMB risale al 1964 ad opera di Arno Penzias e Robert Wilson che vinsero poi il nobel nel 1978. Questo per rispondere alle notizie false che girano secondo le quali Bicep-2 avrebbe “scoperto” l’essitenza della radiazione di fondo.

Bene, l’esperimento Bicep-2 serve invece per “rilevare” con altissima precisione la CMB. Perche’ allora si parla di onde gravitazionali?

Non voglio neanche commentare le notizie i cui autori si lanciano a parlare di tensori e modi B perche’ il mio punto di vista e’ stato espresso all’inizio dell’articolo parlando di come, a mio avviso, si deve fare divuilgazione.

Cosa sono le onde gravitazionali?

Come giustamente detto da alcune fonti, questa tipologia di onde e’ stata predetta da Einstein nella sua relativita’ generale anche se queste non sono mai state osservate in maniera “diretta”. Dunque, ad Harvard hanno osservato le onde gravitazionali? Assolutamente no. Le hanno “scoperte” come qualcuno sostiene? Assolutamente no, anche in questo caso.

Per cercare di capire cosa sono le onde gravitazionali, proviamo a fare un esempio molto semplice. Immaginate lo spazio-tempo, concetto di per se molto vago ma supponete, sempre per semplicita’ , che si tratti dell’universo, come un materasso. Si, avete capito bene, un materasso come quello che avete in casa e su cui andate a dormire. Non sono impazzito, vorrei solo farvi capire questo importante concetto in modo semi-intuitivo. Dunque, ora immaginate di mettere un corpo molto pesante, ad esempio una palla da bowling, sul materasso. Cosa succede? Semplice, il materasso si “curva” in prossimita’ del corpo pesante. Bene, il materasso e’ lo spazio tempo, la palla da bowling e’ un pianeta, una galassia, ecc.. Parlando scientificamente, lo spazio tempo quadri-dimensionale e’ curvato dalla massa.

Ora, immaginate di far rotolore o togliere la vostra massa. Cosa succede? La curvatura si sposta insieme alla massa oppure, nel secondo caso, lo spazio tempo torna al suo posto. Le “piegature” dello spazio-tempo che fine fanno? Semplice, succede esattamente quello che avviene se tirate un sassolino dentro uno stagno. Queste “increspature” si propagano partendo dalla sorgente, nel nostro caso la massa, verso l’esterno.

Finalmente ci siamo. Il movimento delle masse, l’esplosione delle Supermovae, lo scontro tra Galassie, sono tutti fenomeni che deformano lo spazio tempo. Effetto di queste deformazioni, cosi’ come avviene per il sasso nello stagno, e’ la formazione di onde che si propagano liberamente nello spazio. Come potete immaginare, queste sono le cosiddette onde gravitazionali.

Ora, la teoria e’ compresa. Le abbiamo viste sperimentalmente? Purtroppo ancora no. Rimanendo ad un approccio divulgativo, lo spazio tempo e’ molto rigido e dunque le onde che si creano hanno intensita’ molto molto piccole. Questo rende le onde gravitazionali estremamente difficili da essere “ascoltate”. In termini di ricerca scientifica, a partire dagli anni ’50 del secolo scorso, diversi esperimenti sono stati realizzati per cercare di captare queste onde. Dapprima, e sono ancora in funzione, si costruivano antenne risonanti, cioe’ una sorta di elemento in grado di vibrare al passaggio dell’onda, ora si procede con interferometri, strumenti che segnano il passaggio dell’onda osservando le minime variazioni meccaniche su strutture molto lunghe in cui vengono fatti passare dei laser. In un modo o nell’altro pero’, queste onde non sono mai state osservate in modo “diretto”.

Perche’ continuo a scrivere insistentemente “in modo diretto”? Semplice, perche’ sappiamo, con buona certezza, che queste onde esistono dal momento che sono state osservate in vari casi in modo “indiretto” cioe’ attraverso gli effetti che queste onde producono. La prima osservazione indiretta, fatta mediante l’osservazione di una pulsar binaria con il radio-telescopio di Arecibo, e’ valsa agli astronomi Taylor e Hulse il premio nobel nel 1993.

Bene, la CMB esiste e dimostra qualcosa, le onde gravitazionali sono state predette da Einstein e sono state osservate in modo indiretto, Bicep-2, come detto prima, non le ha osservate in modo diretto, ma, allora, di cosa stiamo parlando? Perche’ si parla di scoperta cosi’ importante?

Torniamo un attimo alla nascita del nostro universo. Abbiamo detto che c’e’ stato il Big Bang e abbiamo parlato di quando, 380000 anni dopo, materia e radiazione si sono separate. Secondo i modelli cosmologici accettati, c’e’ stato un momento nei primi istanti di vista dell’universo, precisamente 10^(-34) secondi dopo il Big Bang, in cui l’universo ha subito una rapidissima accelerazione dell’espansione a cui si da il nome di “inflazione”. Questo e’ un momento del tutto particolare in cui si e’ registrata un’espansione violentissima al punto, come dicono i cosmologi, da andare oltre l’orizzonte degli eventi. Proprio grazie a questo movimento cosi’ brusco si ha un universo cosi’ uniforme ed e’ tanto difficile registrare fluttuazioni nella distribuzione della radiazione di fondo.

Ora, per l’inflazione abbiamo dei modelli che la includono e la spiegano ma manca una prova, anche indiretta, dell’esistenza di questo momento. Come detto, studiando la CMB arriviamo fino ad un preciso istante prima del quale non possiamo andare perche’ materia e radiazione non erano separate. Attenzione, non erano separate ma, ovviamente, erano presenti. Se ripensiamo a quanto detto in precedenza per le onde gravitazionali, sicuramente un’espansione cosi’ violenta come quella dell’inflazione ne ha generate moltissime. Bene, queste onde avrebbero a loro volta interagito con la CMB lasciando una inconfondibile firma del loro pasaggio. Trovare evidenza di questa segnatura sarebbe molto importante e utile per la comprensione del modelli dell’universo che abbiamo sviluppato.

Detto questo, cosa avrebbe trovato Bicep-2?

Ovviamente quello a cui state pensando, l’effetto primordiale lasciato sulla CMB dalle onde gravitazionali dell’inflazione, dunque una misura indiretta dell’esistenza di questo periodo. Capite la portata di una misura di questo tipo? Questa evidenza ci fa capire che i modelli che prevedono un periodo inflazionario durante i primi istanti di vita del nostro universo potrebbero essere corretti. Inoltre, la tipologia dei segnali trovati riesce gia’ ad escludere alcuni dei modelli formulati in questi anni.

Come avrete letto sulle varie fonti, gia’ molti parlano di nobel per questa misura. In realta’, anche in questo caso, si sta esagerando, non per l’importanza di una misura del genere ma, semplicemente, perche’ parliamo di “evidenza”. Dopo tutte le varie storie sentite sul bosone di Higgs, come sapete bene, prima di poter parlare scientificamente di scoperta e’ necessario che il segnale atteso abbia una certa “significanza statistica” che ci faccia affermare che quanto visto corrisponde al vero. In questo caso, statisticamente ripeto, parliamo ancora di “evidenza” non di “scoperta”. Ovviamente, una misura del genere non puo’ che spingere a migliorare e perfezionare una ricerca di questo tipo, anche da parte di altri esperimenti in grado di captare e raccogliere i dati relativi alla radiazione di fondo a microonde.

Concludendo, l’annuncio fatto dall’universita’ di Harvard e’ importantissimo dal punto di vista della fisica. Purtroppo, come spesso avviene, nel raccontare cose di questo tipo si fa molta confusione e si finisce col dire cose non veritiere e che non permettono ai non addetti ai lavori di comprendere la rilevanza di notizie del genere. Come detto, quanto osservato e’ una prova indiretta dell’esistenza dell’inflazione per il nostro universo. Questo e’ un momento assolutamente unico previsto nella teoria dell’esansione dell’universo, in cui quest’ultimo si e’ stirato in modo impensabile anche solo da immaginare. Come spesso avviene, per ogni piccolo passo avanti fatto nella comprensione, si aprono ogni volta decine di nuove domande in cerca di una risposta. Non resta che andare avanti e continuare ad osservare il cosmo consapevoli di quanti misteri ancora ci siano da scoprire.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Materia oscura intorno alla Terra?

7 Gen

Come sapete, e’ sempre interessante leggere le notizie nelle sezioni di scienze di alcuni giornali, si trovano sempre delle chicche di tutto rispetto. Negli ultimi giorni, sono apparsi tantissimi articoli che parlano di una nuova sensazionale scoperta. Un ricercatore dell’universita’ del Texas, tale Ben Harris, avrebbe condotto una serie di misure utilizzando i satelliti delle costellazioni gps di Galileo e Glonass.

Se volete maggiori info sul gps, su come funziona e della scienza che c’e’ sotto, abbiamo pubblicato un articolo anche su questo:

Il sistema di posizionamento Galileo

Tornando alla notizia principale, cosa si sarebbe scoperto da queste misure: utilizzando i dati inviati dai satelliti negli ultimi 6 mesi, si sarebbe evidenziata un’anomalia del valore della massa della Terra rispetto a quella comunemente conosciuta. L’entita’ di questa differenza e’ tra lo 0,005 e lo 0,008% del valore noto.

Come si spiega questa differenza?

Dal momento che il moto dei satelliti e’ determinato dall’attrazione gravitazionale che il nostro pianeta esercita, in realta’ che anche i satelliti esercitano sulla Terra, questa differenza deve essere dovuta ad un’anomalia gravitazionale. Una delle spiegazioni date da Harris e’ che sia presente un disco di materia oscura intorno al nostro pianeta, tale da influenzare l’attrazione gravitazionale.

Di materia oscura abbiamo parlato in questo articolo:

La materia oscura

Poiche’, secondo le ipotesi, questa forma non convenzionale di energia esercitrebbe attrazione gravitazionale, la sua presenza influenzerebbe il moto dei satelliti falsando appunto la massa della Terra rispetto al valore conosciuto. Per essere precisi, dalle misure condotte, questo anello, posizionato intorno all’equatore terrestre, avrebbe uno spessore di 191 Km e una larghezza di ben 70000 Km.

Piccola parentesi, oltre ai tanti giornali, anche i siti catastrofisti hanno riportato la notizia, ovviamente a modo loro e aggiungendo dettagli inutili quanto inventati. Non manca certo chi sostiene che l’anello sia stato messo li da scienziati compiacenti o da extraterrestri che stanno iniziando la fase di conquista del nostro pianeta. Non credo sia il caso di ragionare su queste osservazioni che lasciano davvero il tempo che trovano.

Detto questo, ragioniamo un attimo sulla notizia, cercando di fare qualche considerazione aggiuntiva.

Come avrete notato, ho riportato, al contrario di molti giornali, tutta la notizia al condizionale. Non e’ assolutamente una licenza di stile, ma l’ho fatto perche’ quanto riportato non e’ assolutamente certo.

Vi spiego il perche’.

Come trovate in rete, le misure in questione sono state presentate da Harris nel corso del meeting annuale dell’unione geofisica americana, anche detta AGU. Ovviamente si tratta di misure reali e scientifiche, che pero’ vanno considerate come “preliminari”.

Permettetemi una considerazione statistica. Come detto, la differenza rispetto alla massa conosciuta e’ tra lo 0,005 e lo 0,008%. Ora, tra 0,005 e 0,008, la differenza non e’ assolutamente poca. In realta’, l’ampiezza di questo intervallo ci fa capire la precisione delle misure fatte. Per essere precisi, i due valori sono ottenuti utilizzando una volta la costellazione Glonass e un’altra quella Galileo. Il fatto che due misure indipendenti diano valori cosi’ diversi, non e’ assolutamente un dettaglio trascurabile.

Detto questo, durante la stessa riunione, dopo la presentazione dei risultati da parte di Harris, e’ stato evidenziato come le misure siano in realta’ falsate perche’ mancanti di correzioni molto importanti. Quali? Nella modellizzazione del moto dei satelliti, non sono state incluse le attrazioni da parte del Sole e della Luna. Inoltre, mancano da includere le correzioni dovute alla relativita’, assolutamente necessarie, come potete leggere nell’articolo sul sistema Galileo, per ottenere risultati veritieri.

La mancanza di queste correzioni, che potrebbero modificare sostanzialmente il risultato preliminare, fa si che i dati ottenuti siano del tutto preliminari. In questo stato, e’ assolutamente fuorviante e frettoloso fare conclusioni come quelle riportate in precedenza del disco di materia oscura.

Perche’ si e’ fatto questo?

Esistono varie risposte possibili. La prima, un po’ cattiva, e’ che si e’ voluto presentare un lavoro incompleto solo per attirare un po’ di attenzione. L’altra possibilita’ e’ che si sia voluta mostrare questa differenza rispetto al valore della massa conosciuta solo per ricevere commenti utili con cui correggere il tiro. Entrambe le risposte sono possibili. Molto spesso alle conferenze si presentano risultati preliminari solo per valutare la risposta della comunita’ scientifica di riferimento. Ultimamente pero’, si puo’ avere una fuga di notizie che porta ad articoli, come quelli sui nostri giornali, che puntano ala scoperta del secolo.

Concludendo, i dati ottenuti mostrano ovviamente una differenza della massa della Terra rispetto a quella nota. Questa discrepanza potrebbe essere dovuta ad un errore di calcolo, a correzioni molto importanti non ancora conteggiate o, anche, alla presenza di materia oscura intorno alla Terra. Personalmente, credo sia presto per parlare di quest’ultima ipotesi. Questa storia, e lo dico a malincuore, mi ricorda molto quella della velocita’ dei neutrini misurata ad Opera, poi smentita con la testa tra le gambe.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Nuovi candidati per l’impatto mortale?

18 Apr

Alcuni utenti mi hanno chiesto di commentare una notizia apparsa proprio in queste ore su molti siti intenet. Stando a quanto riportato, la NASA avrebbe dichiarato di aver scoperto un nuovo asteroide orbitante vicino alla Terra e che potrebbe rappresentare una notevole minaccia per il genere umano. Per essere precisi, trovate scritto che questo corpo sarebbe molto piu’ pericoloso di Apophis di cui abbiamo parlato, ad esempio, in questo post:

Attenzione, tra poche ore passa Apophis!

Come sapete bene, su Apophis si e’ speculato tantissimo per due motivi principali. Il primo e’ che questo NEO, oggetto vicino alla Terra, per lungo tempo ha avuto una probabilita’ di impatto dalle simulazioni diversa da zero, mentre la seconda ragione si deve a Margherita Hack che in alcune interviste, per smentire le fantasie sul 2012, ha espressamente detto che forse era meglio preoccuparsi di Apophis piuttosto che della fine del calendario Maya. Questa affermazione, fatta ovviamente per sminuire il 2012, ha avuto l’effetto contrario di creare uno stato d’allerta sui meteoriti.

Detto questo, sempre secondo la notizia che stiamo analizzando, il nuovo asteroide appena scoperto sarebbe “1999 RQ36”, che dovrebbe colpire la Terra nel 2182.

Premesso che il 2182 mi sembra abbastanza lontano per iniziare a preoccuparsi, le tante notizie che trovate in rete presentano alcuni punti fondamentali completamente falsi.

Cerchiamo di capire meglio.

Prima di tutto, come suggerisce il nome stesso, l’asteroide in questione e’ stato scoperto nel 1999. La prima osservazione e’ stata fatta nell’ambito del programma LINEAR e l’asteroide e’ costantemente monitorato e studiato dall’osservatorio di Arecibo.

1999 RQ36 ha una forma sferiodale con un diametro medio di 560 metri e una massa di 0.14 miliardi di tonnellate. A livello scientifico, si e’ parlato abbastanza di questo asteroide, soprattutto perche’ e’ stato possibile determinare la sua massa con estrema precisione. Questo risultato e’ stato raggiunto sfruttando le informazioni di 3 radiotelescopi nel mondo e calcolando in maniera molto precisa gli effetti gravitazionali subiti da 1999 RQ36. Come potete facilmente immaginare, questo e’ stato un compito molto arduo, dal momento che per calcoli di queto tipo, si devono considerare tutti i corpi in prossimita’ dell’asteroide, al fine di valutare precisamente le interazioni gravitazionali subite durante il moto.

Probabilmente, leggendo qualche notizia qua e la sui siti scientifici, i nostri amici catastrofisti non hanno capito bene quello di cui si stava parlando e perche’ cosi’ tanto interesse fosse concentrato su questo asteroide. Ovviamente, non dobbiamo dimenticarci il periodo storico che stiamo attraversando. Dopo il fatto russo dell’asteroide su Cheliabynsk, speculare su eventi di questo tipo e’ divenuta una moda molto proficua per tanti siti internet.

Detto questo, come possiamo verificare la reale pericolosita’ di 1999 RQ36?

Per prima cosa, per chi volesse divertirsi a simulare l’impatto di un corpo di questo tipo sulla Terra, abbiamo fatto esperimenti di questo tipo in un altro articolo:

Effetti di un impatto con Nibiru

Seguendo i link riportati, potete accedere ad un programma di simulazione molto carino e con cui potete valutare i reali rischi che un impatto di questo tipo avrebbe per la Terra e per il genere umano.

Detto questo, per poter capire la reale probabilita’ di impatto, non solo di questo asteroide, ma di qualsiasi corpo che volete controllare, basta al solito accedere al sito della NASA sui corpi potenzialmente pericolosi:

NASA, NEO program

In queste pagine trovate il database completo con le informazioni su tutti i NEO potenzialmente pericolosi, insieme anche ai parametri orbitali e ai dati fisici.

Cosa troviamo su 1999 RQ36?

Aprendo la pagina dedicata a questo corpo:

NASA, 1999 RQ36

Vedete che i passaggi ravvicinati alla Terra saranno tra il 2169 e il 2199. Sempre facendo riferimento a questa tabella:

Passaggi ravvicinati per RQ36

Passaggi ravvicinati per RQ36

vedete pero’ che la probabilita’ di impatto non e’ mai superiore allo 0,026%.

Molto probabilmente, un altro fattore che ha contribuito ad alimentare il sospetto su questo corpo e’ che, facendo sempre riferimento alla tabella, non compare la valutazione nella Scala Torino per questo corpo.

Come visto in questo articolo:

L’asteroide 2012 DA14

La scala Torino e’ una classificazione del pericolo di impatto dei NEO sulla Terra. Questa scala tiene conto sia della massa dell’asteroide che della sua energia cinetica. Come capite subito, in un eventuale impatto, anche l’energia cinetica posseduta dal proiettile rappresenta un parametro di notevole importanza.

Visto che per 1999RQ36 non compare la valutazione, proviamo a valutare da noi il pericolo di impatto facendo un confronto con un altro asteroide potenzialmente pericoloso: 2007 VK184. In questo caso abbiamo un proiettile un po’ piu’ piccolo, solo 130 metri di diametro, ma che viaggia ad una velocita’ superiore a 1999 RQ36: 19 m/s contro 13 m/s.

NASA, 2007 VK184

Perche’ abbiamo scelto questo corpo? Come vedete sempre consultantdo il sito NASA, VK184 e’ considerato l’osservato speciale per la probabilita’ di impatto sulla Terra. Con questo si intende che e’ il NEO con la probabilita’ di impatto maggiore per il futuro.

Facendo riferimento alla tabella che trovate sulla pagina riportata:

Passaggi ravvicinati per VK184

Passaggi ravvicinati per VK184

Vedete che in questo caso, la probabilita’ maggiore di impatto e’ dell’ordine di 0,055% con il valore 1 nella Scala Torino. Analogamente a quanto avvenne la prima volta con Apophis, anche questo corpo ha dunque un valore diverso da zero della Scala Torino. Proprio per questo motivo, trovate il corpo evidenziato sulla pagina NASA e VK184 viene costantemente monitorato.

Cosa significa 1 nella Scala Torino?

Definizione dei valori della Scala Torino

Definizione dei valori della Scala Torino

Se avete pensato che il valore 1 ci dia la certezza di impatto, siete fuori strada. Ovviamente 1 e’ maggiore di 0, cioe’ della probabilita’ completamente nulla di impatto con la Terra. Nnostante questo, come vedete dalla figura a lato, la scala Torino a valori che vanno da 0 a 10 e che corripondono ad un crescendo di probabilita’ di impatto.

Prendendo la definizione ufficiale della scala Torino, il valore 1 corrisponde a quanto segue:

Osservazioni occasionali possono scoprire il passaggio vicino alla Terra di oggetti che li pongono in un livello di pericolo di collisione. Calcoli e analisi mostrano che le probabilità di collisione sono estremamente basse da non meritare grande attenzione e preoccupazione nella gente comune. Nuove osservazioni molto probabilmente porteranno una riassegnazione al livello 0.

Dunque? Premesso, come visto, che stiamo parlando di passaggio ravvicinati tra piu’ di un secolo, il valore 1 non corrisponde assolutamente a nessun pericolo. Complice anche la lontananza temporale dell’evento considerato, l’orbita dell’asteroide e’ conosciuta con un’incertezza tale da non consentire una valutazione precisa della probabilita’ di impatto. Cosi’ come avvenuto per Apophis, a distanza di anni e grazie alle osservazioni continue ad opera dei tanti telescopi funzionanti a Terra, la probabilita’ di impatto, e duqnue anche il valore della Scala Torino, e’ divenuta completamente nulla.

Detto questo, siete ancora convinti che sia il caso di preoccuparsi di 1999 RQ36? Secondo me, assolutamente no. Ovviamente non vogliamo tranquillizzare per partito preso. Le nostre considerazioni nascono da un’analisi dei parametri attualmente disponibili, ma soprattutto dal tempo che ancora manca per questo passaggio ravvicinato. Molto probabilmente, tra piu’ di un secolo avremo sicuramente, anche se ne fosse richiesto l’utilizzo, un qualche sistema funzionante per poter deviare o distruggere i potenziali pericoli spaziali per la Terra. Di questi sistemi, attualmente in stato di studio, abbiamo parlato in questo post:

Asteroidi: sappiamo difenderci?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Troppa antimateria nello spazio

5 Apr

Uno dei misteri che da sempre affascina i non addetti ai lavori e che spinge avanti la ricerca scientifica di base e’ la comprensione del nostro universo. In particolare, come sapete, ad oggi sappiamo veramente molto poco su cosa costituisce il nostro universo. Cosa significa questo? Dalle misure affettuate, solo una piccola frazione, intorno al 5%, e’ composta da materia barionica, cioe’ di quella stessa materia che compone il nostro corpo e tutti gli oggetti che ci circondano. La restante frazione e’ composta da quelli che spesso sentiamo chiamare contributi oscuri, materia oscura ed energia oscura. Mentre sulla materia oscura ci sono delle ipotesi, anche se ancora da verificare, sull’energia oscura, responsanbile dell’espansione dell’universo, sappiamo ancora molto poco.

Detto questo, la comprensione di questi contributi e’ una sfida tutt’ora aperta ed estremamente interessante per la ricerca scientifica.

Di questi argomenti, abbiamo parlato in dettaglio in questo post:

La materia oscura

Perche’ torno nuovamente su questo argomento? Solo un paio di giorni fa, e’ stata fatta una conferenza al CERN di Ginevra nella quale sono stati presentati i dati preliminari dell’esperimento AMS-02. I dati di questo rivelatore, realizzato con un’ampia collaborazione italiana, sono veramente eccezionali e potrebbero dare una spinta in avanti molto importante nella comprensione della materia oscura.

Andiamo con ordine.

Cosa sarebbe AMS-02?

AMS installato sulla Stazione Spaziale

AMS installato sulla Stazione Spaziale

AMS sta per Alpha Magnetic Spectrometer, ed e’ un rivelatore installato sulla Stazione Spaziale Internazionale. Compito di AMS-02 e’ quello di rivelare con estrema precisione le particelle dei raggi cosmici per cercare di distinguere prima di tutto la natura delle particelle ma anche per mettere in relazione queste ultime con la materia ordinaria, la materia oscura, la materia strana, ecc.

In particolare, lo spettrometro di AMS e’ estremamente preciso nel distinguere particelle di materia da quelle di antimateria e soprattutto elettroni da positroni, cioe’ elettroni dalle rispettive antiparticelle.

Vi ricordo che di modello standard, di antimateria e di materia strana abbiamo parlato in dettaglio in questi post:

Piccolo approfondimento sulla materia strana

Due parole sull’antimateria

Antimateria sulla notra testa!

Bosone di Higgs … ma che sarebbe?

Bene, fin qui tutto chiaro. Ora, cosa hanno di particolarmente speciale i dati di AMS-02?

Numero di positroni misurato da AMS verso energia

Numero di positroni misurato da AMS verso energia

Utilizzando i dati raccolti nei primi 18 mesi di vita, si e’ evidenziato un eccesso di positroni ad alta energia. Detto in parole semplici, dai modelli per la materia ordinaria, il numero di queste particelle dovrebbe diminuire all’aumentare della loro energia. Al contrario, come vedete nel grafico riportato, dai dati di AMS-02 il numero di positroni aumenta ad alta energia fino a raggiungere una livello costante.

Cosa significa questo? Perche’ e’  cosi’ importante?

Come detto, dai modelli della fisica ci si aspettarebbe che il numero di positroni diminuisse, invece si trova un aumento all’aumentare dell’energia. Poiche’ i modelli ordinari sono corretti, significa che ci deve essere qualche ulteriore sorgente di positroni che ne aumenta il numero rivelato da AMS-02.

Quali potrebbero essere queste sorgenti non considerate?

La prima ipotesi e’ che ci sia una qualche pulsar relativamente in prossimita’. Questi corpi possono emettere antiparticelle “sballando” di fatto il conteggio del rivelatore. Questa ipotesi sembrerebbe pero’ non veritiera dal momento che l’aumento di positroni e’ stato rivelato in qualsiasi direzione. Cerchiamo di capire meglio. Se ci fosse una pulsar che produce positroni, allora dovremmo avere delle direzioni spaziali in cui si vede l’aumento (quando puntiamo il rivelatore in direzione della pulsar) ed altre in cui invece, seguendo i modelli tradizionali, il numero diminuisce all’aumentare dell’energia. Come detto, l’aumento del numero di positroni si osserva in tutte le direzioni dello spazio.

Quale potrebbe essere allora la spiegazione?

Come potete immaginare, una delle ipotesi piu’ gettonate e’ quella della materia oscura. Come anticipato, esistono diverse ipotesi circa la natua di questa materia. Tra queste, alcune teorie vorrebbero la materia oscura come composta da particelle debolmente interagenti tra loro e con la materia ordinaria ma dotate di una massa. In questo scenario, particelle di materia oscura potrebbero interagire tra loro producendo nello scontro materia ordinaria, anche sotto forma di antimateria, dunque di positroni.

In questo scenario, i positroni in eccesso rivelati da AMS-02 sarebbero proprio prodotti dell’annichilazione, per dirlo in termini fisici, di materia oscura. Capite dunque che questi dati e la loro comprensione potrebbero farci comprendere maggiormente la vera natura della materia oscura e fissare i paletti su un ulteriore 20% della materia che costituisce il nostro universo.

Dal momento che la materia oscura permea tutto l’universo, questa ipotesi sarebbe anche compatibile con l’aumento dei positroni in tutte le direzioni.

Ora, come anticipato, siamo di fronte ai dati dei primi 18 mesi di missione. Ovviamente, sara’ necessario acquisire ancora molti altri dati per disporre di un campione maggiore e fare tutte le analisi necessarie per meglio comprendere questa evidenza. In particolare, i precisi rivelatori di AMS-02 consentiranno di identificare o meno una sorgente localizzata per i positroni in eccesso, confermando o escludendo la presenza di pulsar a discapito dell’ipotesi materia oscura.

Per completezza, spendiamo ancora qualche parola su questo tipo di ricerca e sull’importanza di questi risultati.

Come detto in precedenza, per poter confermare le ipotesi fatte, sara’ necessario prendere ancora molti dati. Ad oggi, AMS-02 potra’ raccogliere dati ancora per almeno 10 anni. Come anticipato, questo strumento e’ installato sulla Stazione Spaziale Internazionale. Questa scelta, piuttosto che quella di metterlo in orbita su un satellite dedicato, nasce proprio dall’idea di raccogliere dati per lungo tempo. La potenza richiesta per far funzionare AMS-02 consentirebbe un funzionamento di soli 3 anni su un satellite, mentre sulla ISS il periodo di raccolta dati puo’ arrivare anche a 10-15 anni.

AMS-02 e’ stato lanciato nel 2010 sullo Shuttle dopo diversi anni di conferme e ripensamenti, principalmente dovuti agli alti costi del progetto e alla politica degli Stati Uniti per le missioni spaziali.

Perche’ si chiama AMS-02? Il 02 indica semplicemente che prima c’e’ stato un AMS-01. In questo caso, si e’ trattato di una versione semplificata del rivelatore che ha volato nello spazio a bordo dello shuttle Discovery. Questo breve viaggio ha consentito prima di tutto di capire la funzionalita’ del rivelatore nello spazio e di dare poi la conferma definitiva, almeno dal punto di vista scientifico, alla missione.

Confronto tra AMS e missioni precedenti

Confronto tra AMS e missioni precedenti

Il risultato mostrato da AMS-02 in realta’ conferma quello ottenuto anche da altre due importanti missioni nello spazio, PAMELA e FERMI. Anche in questi casi venne rivelato un eccesso di positroni nei raggi cosmici ma la minore precisione degli strumenti non consenti’ di affermare con sicurezza l’aumento a discapito di fluttuazioni statistiche dei dati. Nel grafico a lato, vedete il confronto tra i dati di AMS e quelli degli esperimento precedenti. Come vedete, le bande di errore, cioe’ l’incertezza sui punti misurati, e’ molto maggiore negli esperimenti precedenti. Detto in termini semplici, AMS-02 e’ in grado di affermare con sicurezza che c’e’ un eccesso di positroni, mentre negli altri casi l’effetto poteva essere dovuto ad incertezze sperimentali.

Concludendo, i risultati di AMS-02 sono davvero eccezionali e mostrano, con estrema precisione, un aumento di positroni ad alta energia rispetto ai modelli teorici attesi. Alla luce di quanto detto, questo eccesso potrebbe essere dovuto all’annichilazione di particelle di materia oscura nel nostro universo. Questi risultati potebbero dunque portare un balzo in avanti nella comprensione del nostro universo e sulla sua composizione. Non resta che attendere nuovi dati e vedere quali conferme e novita’ potra’ mostrare questo potente rivelatore costruito con ampio contributo italiano.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

World Economic Forum: gli alieni sono tra di noi

27 Gen

Ci risiamo. Capisco il voler cercare le notizia sempre e comunque, anche a costo di invertarla, ma ad un certo punto si arriva anche ad un limite di separazione tra cio’ che e’ legale e quello che costituisce reato.

Perche’ dico questo?

Abbiamo dedicato alcuni post alla questione aliena ed in particolare a dichiarazioni, piu’ o meno felici e piu’ o meno allegre, fatte da personaggi pubblici del mondo della politica:

21 Dicembre: fenomeno italiano?

Il 21/12 in Australia

Se lo dice Borghezio …

Gli UFO sbarcano anche al parlamento italiano

In particolare, molto interesse avevano riscosso le dichiarazioni fatte dal presidente russo Medvedev durante un fuori onda:

Russia, Medvedev tranquillizza i suoi!

Come visto nell’articolo, ma soprattutto nel video allegato, si tratta di dichiarazioni fatte in modo del tutto allegro, chiamando in causa il film “Men in Black” e i presunti dossier top secret conservati nella valigetta del presidente in carica insieme ai codici di lancio delle testate nucleari.

Dunque? Perche’ torniamo sulla questione?

Il logo del World Economic Forum

Negli ultimi giorni, sul web sono apparsi tantissimi articoli a caratteri cubitali, secondo i quali, in concomitanza con il “World Economic Forum”, proprio Medvedev sarebbe intenzionato a dichiarare al mondo intero l’esistenza degli alieni e dare la conferma ufficiale che forme di vita extraterrestre sarebbero gia’ mescolate con la popolazione umana. Addirittura, in questi articoli, si parla di un documento russo inviato al presidente Obama, in cui Medvedev minaccia il suo omologo americano che “se gli Stati Uniti non vorranno rendere pubbliche queste informazioni, allora ci pensera’ il Cremlino da solo”.

Cerchiamo di analizzare i fatti e capire da dove nascono, sempre che siano reali, notizie di questo tipo.

Piccola premessa, il gia’ menzionato “World Economic Forum” si e’ concluso poche ore fa, e nessuna dichiarazione di questo tipo e’ stata fatta. Questo solo per chiarire subito il contesto.

Da dove nascono dunque le affermazioni di cui stiamo parlando?

Prima di tutto, e’ necessario aprire una parentesi e capire meglio cos’e’ il World Economic Forum. Si tratta di un’associazione senza fini di lucro con sede a Ginevra. Ogni anno il forum organizza un incontro a Davos in cui vengono invitati i dirigenti politici ed economici di tutto il mondo, insieme anche ad esperti del settore e giornalisti selezionati. Scopo dell’incontro e’ quello di discutere le questioni piu’ urgenti che il mondo dovra’ affrontare, sia dal punto di vista economico che sociale, ambientale e di sicurezza. Al termine degli incontri, vengono prodotti diversi report delle riunioni che vengono poi resi pubblici su internet e liberamente consultabili da tutti.

Medvedev al WFE forum 2013

Fin qui tutto chiaro. Qual’e’ allora la relazione tra Medvedev, Obama, gli alieni e il Forum Economico?

Semplice, sia Medvedev che Obama hanno preso parte al forum. Il primo pero’, si era reso autore del fuori onda che abbiamo gia’ discusso sugli alieni. Russia e Stati Uniti, sono da sempre viste come le super potenze del complotto e del top secret. Gia’ questi ingredienti dovrebbero essere sufficienti a far capire la linea guida. Ora, manca da aggiungere l’elemento fondamentale, cioe’ una particolare discussione inserita nel programma del World Economic Forum, e che ha fatto da miccia alla speculazione sul web.

Andando a consultare i report pubblici su internet, che trovate a questa pagina:

WEF Report 2013

Tra i tanti temi trattati, prendiamo quello sui “Rischi Globali del 2013”. Se ora aprite questo report, vedete una lunga lista di potenziali pericoli per il mondo che vanno dal rischio ambientale a quello economico. Sfogliando i titoli, trovate anche il paragrafo “X Factor” che a sua volta include: “Discovery of Alien Life”, cioe’ “Scoperta di vita aliena”:

X Factor nei rischi globali 2013

Per chi avesse difficolta’ a trovare la pagina, vi riporto anche il link diretto:

WEF, X Factor

Ecco l’elemento che mancava all’appello. Perche’ ad un forum economico, in cui partecipano tra gli altri i grandi della Terra, si discute di cose di questo tipo?

La risposta in realta’ e’ semplice e molto meno misteriosa di quanto si potrebbe pensare.

Come potete leggere, questo paragrafo “X Factor” viene scritto in collaborazione con la famosa rivista scientifica Nature. Se sfogliate i vari temi, trovate tutti argomenti molto noti e davvero molto attuali: geoingegneria, allungamento della vita, variazioni climatiche ed ovviamente scoperta di forme di vita aliene.

Come potete leggere, le recenti osservazioni fatte grazie alle missioni spaziali, hanno conesentito di scoprire ed identificare diversi pianeti lontani, molto simili alla Terra. Continuando questo andamento, tra qualche anno si potrebbe arrivare ad un segnale inconfutabile che uno di questi pianeti ospita forme di vita aliene intelligenti. Questo discorso deve anche essere ampliato, partendo dal presupposto che fino ad oggi siamo stati in grado di esplorare soltanto una piccolissima frazione del nostro universo. Visto l’enorme numero di pianeti simili alla Terra che potrebbero esserci, dobbiamo pensare che prima o poi potremmo avere la prova che uno di questi e’ abitato, cioe’ che esistono civilta’ aliene oltre a noi.

Cosa c’e’ di strano in questo discorso?

Personalmente, non credo ci sia nulla da discutere o su cui speculare. In fondo, quanto detto, rientra esattamente nel punto di vista che abbiamo gia’ discusso parlando di alieni, e, come detto, personalmente non mi sorprenderei se venissero trovate altre forme di vita nel nostro universo. Parlando da scienziato, o meglio da amante della statistica, mi meraviglierei del contrario, cioe’ se la razza umana fosse la sola nell’universo.

Proprio questo argomento di discussione ha scatenato il mare di fandonie che potete leggere su internet sul presunto intervento di Medvedev pronto a parlare al mondo intero, con o senza l’appoggio degli Stati Uniti. Ancora oggi, su internet, trovate diversi siti sicuri che questo annuncio ci sara’. Purtroppo, al solito l’ignoranza la fa da padrona in questo contesto, dimenticando che il Forum e’ gia’ finito. Come potete vedere dal sito riportato in precedenza, il tutto si e’ svolto tra il 23 e il 27 Gennaio, cioe’ si e’ concluso stamattina.

Proprio per concludere, vi segnalo anche un articolo del “Fatto quotidiano” scritto da Giulietto Chiesa che incontrando Gorbaciov ha chiesto, tra le altre cose, se fosse vero che la valigetta del presidente russo contiene documenti sugli UFO. Trovate la risposta alla fine dell’articolo:

Chiesa-Gorbaciov

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.