Tag Archives: database

Noi dormiamo ma lo smartphone NO!

12 Mar

Torniamo ora a parlare un po’ di tecnologia. Come sapete, ormai, nel bene o nel male, la maggior parte delle persone possiede uno smartphone. Questi piccoli strumenti nascondono al loro interno una capacita’ di calcolo impressionante se paragonata con le ridotte dimensioni, ma soprattutto, per quelli non proprio giovanissimi, se paragonata con quella dei personal computer piu’ costosi che si potevano acquistare anche solo 10 anni fa. Da un lato, questo e’ impressionante ma anche completamente comprensibile. Come sapete, l’elettronica e le capacita’ di calcolo seguono leggi esponenziali di crescita, di riduzione del prezzo e delle dimensioni dei dispositivi e l’insieme di questi parametri fa si che, di volta in volta, esca un prodotto nuovo che faccia impallidire i suoi predecessori.

Ora pero’, quanti di quelli che utilizzano uno smartphone lo utilizzano a pieno delle sue capacita’? In verita’, credo io, davvero un numero esiguo di persone riesce a sfruttare a pieno le capacita’ del proprio telefono se non facendo andare in contemporanea diversi programmi richiedenti la rete internet.

Oltre a questo poi, c’e’ un altro aspetto da considerare. Mediamente, questi piccoli oggetti sono molto energivori e le loro batterie difficilmente durano anche solo una giornata se sfruttati a pieno. Conseguenza di questo e’ che tutte le notti dobbiamo ricaricare la batteria lasciando, come spesso accade, il telefono acceso con la connessione dati o wireless accesa. Durante questa fase di standby, anche se non del tutto, il nostro dispositivo e’ fermo e la sua enorme capacita’ di calcolo non viene sfruttata.

Perche’ faccio questo preambolo iniziale?

Molto semplice, in questi giorni, su diversi giornali, e’ stata lanciata una notizia che ha suscitato il mio interesse se non altro perche’ rilancia le problematiche appena discusse. Come avrete sicuramente letto, un team di ricercatori austriaci ha trovato, almeno da come raccontano i giornali, il modo di sfruttare questa potenza di calcolo per un nobile scopo. Questo gruppo di ricerca e’ coinvolto nello studio dei dati del database Simap, un enorme catalogo contenente al suo interno la struttura di tutte le proteine conosciute. Scopo di questa ricerca e’ quello di studiare le somiglianze tra le proteine con il fine ultimo, tra i tanti altri, di poter trovare cure per alcune delle malattie piu’ critiche che riguardano il genere umano. Gestire una mole di dati cosi’ impressionante non e’ affatto semplice e richiede una capacita’ di calcolo molto elevata. Ovviamente, una capacita’ di calcolo elevata significa un costo altrettanto elevato. Per farvi capire questa relazione, pensate che il costo computazionale aumenta con il quadrato del numero di proteine contenute nel database.

Come gestire una mole cosi’ elevata di dati con costi che non siano insostenibili?

Semplice, stando a quanto riporta la notizia sui giornali, e’ stata programmata una App, uno dei piccoli programmini che girano sui nostri smartphone, che consente di sfruttare lo smartphone per analizzare questi dati. Il nome della App e’ Power Sleep appunto perche’ si tratta di una normale sveglia che puo’ essere impostata all’ora in cui desideriamo alzarci. Al contrario di una normale sveglia, Power Sleep ha pero’ una funzione aggiuntiva. Prima di andare a dormire, mettete il vostro smartphone sotto carica lasciando la connessione WiFi accesa. Non appena la batteria avra’ raggiunto la carica completa, il telefono comunichera’ con un server centrale dando inizio al vero scopo del software. Il server invia paccheti da 1Mb che vengono analizzati dal processore dello smartphone. Il tempo richiesto per questa analisi e’ compreso tra 30 e 60 minuti a seconda della potenza di calcolo. Quando il processo e’ completato, il telefono invia il risultato al server e scarica un altro pacchetto da analizzare. Questa comunicazione dura fino a quando non arriva l’ora impostata per la sveglia e il telefono e’ di nuovo disponibile completamente per l’utente.

Detta in questo modo, sembra una scoperta rivoluzionaria che ci permettera’ di contribuire senza spendere un soldo alla ricerca scientifica.

Perche’ dico “sembra”?

Molto semplice, ovviamente si tratta di un’applicazione utilissima per lo scopo della ricerca scientifica in se, ma questo genere di applicazioni non sono assolutamente una novita’. Questo processo di analisi dei dati e’ quello che viene comunemente definito “calcolo distribuito”. Si tratta di un procedimento molto semplice in cui un processo principale viene diviso in tante parti assegnate a processori diversi che poi comunicheranno il loro singolo risultato ad un server centrale. Grazie al calcolo distribuito e’ possibile sfruttare una rete di computer, o smartphone come in questo caso, invece di investire cifre spropositate in una singola macchina in cui far girare l’intera analisi. Di esempi di questo tipo ce ne sono a bizzeffe anche indietro negli anni. Sicuramente tutti avrete sentito parlare del programma SETI@Home per la ricerca di vita extraterrestre nell’universo. In questo caso, si utilizzavano radiotelescopi per cercare segnali non naturali. L’enorme mole di dati veniva analizzata da chiunque decidesse di installare un piccolo software sul proprio computer per contribuire a questa ricerca.

Nel caso di Power Sleep, i ricercatori austriaci si sono affidati ad una societa’ che si occupa proprio di calcolo distribuito e si chiama BOINC. Vi riporto anche il link alla loro pagina italiana in cui compare, proprio in prima pagina, una descrizione sul funzionamento e sull’importanza del calcolo distribuito:

BOINC Italia

Come potete leggere, esistono decine di applicazioni per il calcolo distribuito gestite da BOINC e molte di queste riguardano proprio analisi scientifiche dei dati. Il perche’ di questo e’ facilmente comprensibile, le applicazioni scientifiche sono quelle che producono la maggior mole di dati e che richiederebbero super-computer sempre piu’ potenti per la loro analisi. Grazie a BOINC e al calcolo distribuito, e’ possibile sfruttare a titolo gratuito computer, smartphone e tablet privati per velocizzare il calcolo e risparmiare notevoli capitali che incidono fortemente sul costo della ricerca. Visto che lo abbiamo citato, BOINC nacque qualche anno fa proprio per gestire il progetto SETI@Home. Tra i programmi disponibili ora trovate ad esempio: LHC@Home per l’analisi dei dati del collisore LHC del CERN, Orbit@Home per l’analisi delle traiettorie degli asteroidi vicini alla Terra, Einstein@Home per la ricerca di onde gravitazionali e cosi’ via. Per una lista piu’ completa dei programmi scientifici di calcolo distribuito potete far riferimento alla pagina di Wikipedia che ne parla:

Wiki, esempi calcolo distribuito

Concludendo, al solito la notizia e’ stata data sui maggiori giornali con toni enfatici volti piu’ a impressionare che non ha mostrare l’importanza scientifica di applicazioni di questo tipo. Esempi di calcolo distribuito ce ne sono tantissimi e molti di questi sfruttano il servizio BOINC per dialogare con gli utenti che volontariamente decidono di sostenere un programma piuttosto che un altro. Power Sleep ha sicuramente un nobile scopo se pensiamo all’importanza del mantenimento del database Simap e per i risultati che ricerche di questo tipo dovrebbero portare per l’intero genere umano.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le nubi mammelolari

24 Lug

Diverse volte su questo blog abbiamo parlato di nuvole. In particolare, abbiamo affrontato il discorso cercando di analizzare le tante teorie che vorrebbero forme particolari di nubi in concomitanza o prima di un terremoto, ma anche per confutare tutti quei complottisti che di tanto in tanto vorrebbero nuove tipologie di nuvole formate dalla geoingegneria o dalle scie chimiche:

Una nuvola che fa pensare alla fine del mondo

Altra strana nube, questa volta in Giappone

Altra strana nube a Tulsa

Nuvole sismiche

Scoperta nuova nuvola

Perche’ avviene questo? La risposta e’ in realta’ molto semplice, il cielo e’ un laboratorio ideale, accessibile a tutti e, oggi come oggi, facilmente documentabile. Ognuno di noi puo’, alzando lo sguardo, osservare le nuvole che si formano e, ogni qual volta che vede qualcosa di non usale, impressionarsi. Detto questo, la comunicazione globale istantanea che abbiamo a disposizione, permette a tutti di ragiungere potenzialmente un vasto pubblico. Considerazione personale e’ che si dovrebbe sempre riflettere prima di scrivere qualcosa su internet. Molti ignorano il potenziale bacino di utenti che esiste, mentre altri sfruttano proprio questo fatto per divulgare il verbo fantascientifico.

Perche’ parlo di questo?

Negli ultimi giorni, diversi giornali hanno pubblicato foto molto belle di un particolare tipo di nuvola. Spesso pero’, purtroppo accade molto di frequente, gli articoli che trovate in rete sono completamente sprovvisti di una spiegazione scientifica che spieghi l’origine di questi fenomeni.

Gli articoli in questione si riferivano alla nuvole “Mammelolari”, anche dette “Mammatus”.

Di cosa si tratta?

Senza troppi giri di parole, vi mostro subuto una bellissima foto di questo fenomeno:

Nube Mammatus

Nube Mammatus

Come vedete, si tratta di nuvole dalla forma molto particolare, fatte a grumi con punti di salita e discesa. Proprio a questa particolare forma si deve il nome alla nuvola.

Cosa hanno di speciale queste nuvole?

Dal punto di vista complottista e catastrofista assolutamente nulla. Si tratta di formazioni nuvolose perfettamente conosciute e la cui formazione e’ nota. Dico questo per smorzare subito gli animi.

Nonostante questo, e’ invece interessante capire il processo che porta alla formazione delle mammatus.

Queste nuvole si formano in presenza di corenti ascensionali molto intense e con un umidita’ molto elevata negli strati bassi. Questo spostamento di aria, puo’ portare fino alla tropopausa enormi quantita’ di acqua che, salendo verso l’alto, si trasforma in cristalli di ghiaccio.

Quando il temporale e’ passato, lontano dalla corrente ascensionale, il ghiaccio tendera’ a scendere a causa del proprio peso. Ora, quando i piccoli cristalli di ghiaccio escono dalla zona della nube, incontrano aria molto fredda e secca. La variazione di condizioni, comporta la sublimazione dell’acqua che dunque ripassera’ dallo stato solido, cristalli di ghiaccio, a quello aeriforme, vapore acqueo, risalendo verso l’alto.

Data la grande quantita’ di ghiaccio presente, perche’ portata dalla corrente iniziale, questo moto di discesa e sublimazione si presentaera’ con una certa regolarita’ lungo l’area della nube. Proprio questo movimento comporta la formazione della Mammatus con la sua caratteristica forma.

Dal momento che per la formazione e’ richiesta una umidita’ molto elevata, proprio questi giorni di afa, e spesso con temporali pomeridiani, possono portare alla formazione di queste nuvole. Tra l’altro, lo spettacolo piu’ bello si ha quando la nube riflette i raggi solari assumendo una colorazione variopinta in corrispondenza delle salite e delle discese. Ecco un esempio di questo caso:

Nube Mammatus colpita da raggi solari

Nube Mammatus colpita da raggi solari

Concludendo, molto spesso ci capita di parlare di nubi a causa della facilita’ di visualizzazione per il vasto pubblico. Se a questo si aggiungono i catastrofiti e gli utenti impensieriti d qualche fine del mondo, ecco qui che le foto scattate diventano molto popolari in poche ore.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Lago Vostok, c’e’ vita?

12 Lug

Qualche mese fa, avevamo parlato del lago Vostok:

I misteri del lago Vostok

Come visto, questo e’ un lago cosiddetto subglaciale, che si trova sotto piu’ o meno 4 Km di ghiaccio dell’Antartide e la cui esistenza, anche se predetta negli anni prcedenti, e’ stata confermata solo nei primi anni ’90 grazie ai monitoraggi satellitari.

Perche’ e’ interessante questo lago?

Prima di tutto, pensare ad uno specchio d’acqua sepolto sotto 4 Km di ghiaccio ben compatto, fa impressione. Inoltre, molti studi sono stati condotti su questo lago per cercare di capire se potesse asserci vita al suo interno. Questa supposizione e’ ovviamente molto affascinante. Il lago Vostok presenta condizioni veramente difficili. Oltre alla sua profondita’ sotto il ghiaccio, dobbiamo considerare la totale assenza di luce solare, ma anche l’enorme pressione a cui le sue acque sarebbero sottoposte.

Come visto nell’articolo precedentemente riportato, le acque del lago sarebbero sotto un attento studio, appunto per valutare la presenza o meno di forme di vita aliene. Con questo termine non intendiamo assolutamente forme di vita provenienti da altri pianeti, bensi’ organismi viventi completamente isolati dall’ecosistema Terra e che, in linea di principio, potrebbero aver avuto uno sviluppo del tutto autonomo e indipendente.

Foto satellitare del ghiaccio sopra al Vostok

Foto satellitare del ghiaccio sopra al Vostok

Per meglio comprendere questo concetto, pensate che le acque del Vostok sono rimaste isolate per circa 15 milioni di anni. In questo periodo infatti, il Vostok e’ stato isolato dalla sua calotta di ghiaccio, lasciando al loro destino tutte le forme di vita eventualmente contenute nel lago.

Bene, detto questo, nell’articolo precedente abbiamo illustrato la tecnica pensata per prelevare un campione di acqua. Come visto, questa tipologia di analisi evita assolutamente un contatto tra la trivella di perforazione e l’acqua del lago. Per fare questo, le trivelle lasciano un setto di ghiaccio, che viene poi spaccato dalle pressioni interne. Questo metodo di ricerca permette di evitare il contatto, raccogliere un campione, ma soprattutto l’acqua fuoriuscita dal lago viene immediatamente congelata, sigillando nuovamente il lago dall’esterno.

Perche’ stiamo tornado a parlare del lago?

Come visto nell’articolo precedente, attraverso queste perforazioni erano stati raccolti circa 40 litri di acqua superficiale del lago. Ad una prima analisi, si era evidenziata la presenza di tracce di DNA e RNA non conosciute, cioe’ non appartenenti a specie animali conosciute sulla terra.

Queste prime misure, avevano suscitato un vespaio di polemiche da parte della comunita’ scientifica dal momento che molti esperti considerano la tecnica utilizzata non sicura. Con questo si intende che ci potrebbero essere contaminazioni dall’esterno in grado di falsare il risultato delle analisi.

Ora, a distanza di mesi, sono state condotte ulteriori analisi sul campione di acqua. I risultati ottenuti sono davvero interessanti. Delle 3507 sequenze di geni trovate, 1623 appartengono a specie conosciute. Di che tipo di sequenze si tratta? Il 94% proviene da batteri mentre il 6% viene da organismi piu’ complessi.

Cosa significa organismi piu’ complessi?

Questo 6% appartiene a funghi, molluschi e crostacei. Ma c’e’ di piu’, una frazione di questi geni appartengono a specie che normalmente vivono all’interno di animali piu’ grandi come, ad esempio, pesci.

Come interpretare questo risultato?

Sulle ali dell’entusiamo, si potrebbe arrivare alla conclusione che il lago Vostok nasconda un ecosistema molto complesso, formato non solo da batteri, ma anche da animali piu’ grandi. Le sequenze sconosciute di DNA e RNA possono farci pensare che nei 15 milioni di anni di isolamento, la vita abbia subito uno sviluppo diverso rispetto a quella della superficie. Questo sarebbe normale pensando alle condizioni estreme all’interno del lago. Proprio in questo ambiente inospitale, come detto buio assoluto e forti pressioni, potrebbero vivere non solo batteri, e questo non ci sorprende visto che sono stati trovati batteri in ambienti in cui si pensava impossibile avere la vita, ma soprattutto animali piu’ grandi e complessi. Una prima supposizione che potrebbe essere fatta e’ che ci siano sorgenti calde all’interno del lago, in grado di riscaldare alcuni strati delle acque.

E’ possibile questo scenario?

In linea di principio si, ma bisogna essere molto cauti. Come avvenne qualche mese fa, e come raccontato nel precedente articolo, anche in questo caso possono essere mosse le stesse critiche alla tecnica di raccolta dei campioni. Come detto, le trivelle, dal momento che non erano pensate per questo scopo, non sono state sterilizzate. Questo ovviamente potrebbe aver causato una contaminazione del campione con sequenze precedentemente attaccate alle trivelle. Inoltre, diversi esperti pensano che il metodo di ritorno del campione in superificie non assicuri una chiusura ermetica e che quindi, durante il suo ritorno attraverso i 4 Km di ghiaccio, il volume potrebbe essere stato contaminato.

Sicuramente, alla luce di quanto detto, e’ molto affascinante pensare al Vostok come un ecosistema ricco, completamente isolato e potenzialmente diverso da nostro. Dal punto di vista scientifico pero’, e’ doveroso andare con i piedi di piombo. In analisi di questo tipo bisogna essere sicuri che tutto sia stato fatto a regola d’arte per evitare di incorrere in errori macroscopici.

Uno studio attento del Vostok e’ importante anche per capire l’eventualita’ di formazione della vita su altri pianeti. Come sappiamo, le condizioni del lago sono simili a quelle che potremmo trovare su altri pianeti del Sistema Solare e non. Comprendere l’eventualita’ di formazione della vita in luoghi cosi’ inospitali, potrebbe farci capire se esite la possibilita’ che ecosistemi di questo tipo si possano formare anche fuori dal nostro pianeta. Nei prossimi mesi ci saranno sicuramente ulteriori risultati da discutere e, alla luce di quanto detto, non resta che aspettarli con ansia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Se arrivasse il “Big One”?

7 Giu

In quella che ormai e’ divenuta un laboratorio di creativita’, a mio avviso molto ben riuscito, cioe’ la sezione:

Hai domande o dubbi?

e’ stato lasciato un commento molto interessante e che ben si sposa anche con le tematiche trattate in questi giorni, sia negli articoli che nei commenti. La richiesta riguarda direttamente il cosiddetto Big One, cioe’ il grande terremoto che dovrebbe avvenire in California e che, secondo molte fonti, sarebbe atteso nel giro di poco tempo.

Di terremoti ne abbiamo parlato in tantissimi articoli e, come visto, questi fenomeni sono da sempre molto seguiti dai tanti catastrofisti che popolano la rete, soprattutto in relazione alle cause che determinerebbero un aumento del loro numero. Come ormai sapete bene, l’idea di fondo, nata a partire dal 21 Dicembre 2012, vorrebbe l’aumento dei terremoti dovuto all’avvicinamento di Nibiru al pianeta Terra. Secondo queste ipotesi, la variazione dell’equilibrio gravitazionale apportato da questo nuovo corpo, provocherebbe il fenomeno delle “maree solide”, cioe’ sarebbe in grado di modificare gli equilibri delle faglie e generare dunque terremoti di notevole intensita’. Cercando sul blog, potete trovare molti articoli che parlano, ma soprattutto rigettano, queste ipotesi, semplicemente mostrando l’impossibiita’ in termini fisici di variazioni di questo tipo:

Allineamento con le Pleiadi

Allineamenti, Terrremoti e … Bendandi

Allineamenti e Terremoti

3 Gennaio 2013 …

Ora, nonostante questo, la zona della California e’ da sempre molto attiva dal punto di vista sismico, e da diversi anni si parla di quello che gli americani definiscono il Big One, cioe’ “quello grosso”, intendendo il terremoto piu’ internso mai registrato, in grado praticamente di demolire tuto lo stato.

Faglia di Sant'Andrea in California

Faglia di Sant’Andrea in California

Come noto, le cause della notevole attivita’ della California possono essere ricercate nella Faglia di Sant’Andrea, che si trova tra la placca Nord Americana e quella Pacifica, attraversando per circa 1300 Km la regione. Questa faglia ha dato luogo a diversi fenomeni sismici nel corso dei secoli, grazie anche alle ottime proprieta’ di accumulare energia elastica. Come noto, quando questa energia supera, ad esempio, la fratturazione degli strati rocciosi, si generano i terremoti.

Dal punto di vista morfologico, l’arrivo del Big One, con un sisma superiore a M8 della scala Richter, e’ atteso nella zona meridionale della California, dal momento che questa e’ quella in cui da maggior tempo non si verificano eventi sismici di notevole intensita’.

Quando dovrebbe avvenire questo Big One?

Sulla rete trovate tantissime ipotesi. Vi invito pero’ a fare una riflessione: come detto innumerevoli volte, allo stato attuale della nostra conoscenza, non siamo in grado di prevedere i terremoti. Di questi argomenti abbiamo parlato tante volte e, come visto, la ricerca dei precursori sismici, cioe’ di quegli eventi che potrebbero precedere l’avvento di un sisma, e’ un filone molto attivo e sicuramente rilevante per la nostra societa’. Purtroppo, al giorno d’oggi, non siamo ancora stati in grado di definire un precursore certo, cioe’ la cui manifestazione indichi certamente un sisma in arrivo.

Premesso questo, si possono leggere tante previsioni sul Big One, alcune piu’ precise, altre un po’ meno. In generale, la piu’ quotata e’ che il terremoto dovrebbe avvenire nei prossimi 20 anni. Si parlava di 30 anni nel 2005.

Come vengono fatte queste previsioni?

Ovviamente, una buona parte delle informazioni viene dalle osservazioni scientifiche della Faglia di Sant’Andrea. Misure interessanti vengono fatte misurando i movimenti della crosta terrestre mediante osservazioni satellitari. Come anticipato, queste osservazioni possono fornire una stima della quantita’ di energia accumulata nella Faglia e dunque far intendere l’inizio di una fase piu’ critica. Oltre a questa osservazione, c’e’ ovviamente un intenso sistema di monitoraggio delal zona che serve per raccogliere moltissimi dati in continuo, utili per determinare variazioni repentine di parametri fisici e geologici, anche questi utili per capire modificazioni intense del sottosuolo.

Altre previsioni vengono invece fatte utilizzando la statistica. Di questo ambito, abbiamo parlato in diverse occasioni. Anche se parlo da appassionato di statistica, si deve capire che queste previsioni lasciano il tempo che trovano, essendo basate solo sulla storicita’ degli eventi. Come visto in questi articoli:

Prossimi terremoti secondo la statistica

Analisi statistica dei terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Terremoti: nuove analisi statistiche

utilizzando i dati raccolti, e’ possibile studiare una ciclicita’ degli eventi e determinare una certa probabilita’ di avere un terremoto in un periodo futuro. Purtroppo, molto spesso, queste informazioni vengono interpretate in malo modo da chi la statistica non la conosce affatto. Esempio di questo tipo e’ l’articolo:

Non ne bastava uno ….

Anche per il Big One, trovate fonti che parlano di probabilita’ praticamente del 100% che il terremoto avvenga, ad esempio, tra il 2015 e il 2020. Come deve essere interpretato il dato? La chiave giusta per leggere queste informazioni e’ quella di trattarle un po’ come i numeri ritardatari del lotto. Mi spiego meglio. Se entrate in una ricevitoria, trovate molti cartelli con i “numeri ritardatari”, cioe’ quei numeri che da molte estrazioni non vengono pescati in un determinata ruota. Se un numero manca da tanto tempo, deve uscire necessariamente? Assolutamente no, pero’, se ci fidiamo che i numeri abbiano tutti la stessa probabilita’ di venire pescati, allora statisticamente devono uscire tutti. Dunque, un numero ritardatario prima o poi deve uscire. Questo prima o poi, e’ la chiave dell’interpretazione. Prima o poi, non significa domani, cosi’ come non significa che un “terremoto ritardatario” rispetto alla norma debba necessariamente avvenire. Se volete, il discorso sismi e’ molto piu’ complesso del gioco del lotto, anche perche’ non parliamo di eventi casuali, ma determinati da movimenti del nostro pianeta.

Detto questo, capite dunque come vanno interpretati questi numeri, utilissimi per fare studi e, ad esempio, dimostrare che non c’e’ nessun aumento di terremoti negli ultimi anni, ma assolutamente da prendere con le pinze quando parliamo di previsioni future.

In ambito prevenzione, ci sono anche molte osservazioni interessanti che vengono fatte per capire se e’ possibile arginare i movimenti della Faglia e dunque limitare i danni dei futuri terremoti. In tale ambito, sono stati riportati dati molto interessanti ottenuti direttamente dall’osservazione in profondita’ della faglia. Come osservato, lunga la frattura si trova la citta’ di Parkfield in cui pero’, storicamente, non avvengono terremoti di forte intensita’, anche se questa si trova lungo la stessa “linea di fuoco” di citta’ bersagliate dai sismi. Le osservazioni fatte hanno permesso di individuare una zona della frattura in cui sono presenti materiali diversi ed in grado di limitare l’attrito tra le placche in scorrimento. Cosa significa? Se, per qualche motivo, diminuisce l’attrito tra le due zone che scorrono tra loro, ovviamente si limita l’accumulo di energia elastica e, dunque, detto in parole semplici, il caricamento del terremoto. Le osservazione fatte hanno mostrato la presenza, tra le altre cose, di silicati gelatinosi e acqua, in grado di ridurre gli attriti. Molti studi sono in corso proprio per cercare di capire la possibilita’ di limitare la potenza dei terremoti andando ad agire direttamente nella zona dove questi si generano. Ovviamente si tratta di studi scientifici, ma che vanno sicuramente sostenuti vista l’utilita’ che potrebbero avere. Magari, un giorno, potremo risolvere il problema terremoti “oliando” i cigolii della Terra.

Concludendo, la zona della California e’ da sempre una delle piu’ attive dal punto di vista dei sismi. Per Big One si intende il piu’ grande terremoto atteso, in grado di distruggere l’intera regione. Purtroppo, questo terremoto potrebbe avvenire e c’e’ la possibilita’, come evidenziato da molti studi, che questo possa avvenire da un momento all’altro nei prossimi 20 anni. La ricerca e’ sempre al lavoro per cercare di trovare precursori sismici e, come visto, anche possibili soluzioni in grado di limitare la potenza dei terremoti agendo direttamente sulla faglia. Speriamo solo che soluzioni percorribili arrivino magari prima dell’atteso Big One.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aumento di uragani per il 2013

2 Giu

In questi giorni, diversi giornali e siti internet hanno pubblicato le previsioni per la stagione degli uragani 2013. Per chi non lo sapesse, il periodo piu’ propizio per la formazione di questi eventi atmosferici va dal 1 Giugno al 30 Novembre e, come e’ noto, interessa principalmente la parte centrale degli Stati Uniti oltre ovviamente ai paesi caraibici.

Purtroppo, come spesso avviene, ho letto tantissime inesattezze su questi articoli, a volte per confusione fatta nell’interpretazione delle previsioni, altre volte, purtroppo, per il solito catastrofismo che, soprattutto sulla rete, imperversa.

Cosa trovate scritto? Semplicemente che il numero di uragani aumentera’ del 70% rispetto alla norma e che in particolar modo ci sara’ un aumento sostanziale del numero di uragani maggiori che dunque potrebbero arrecare forti danni nelle zone interessate. Senza aggiungere altro, vi lascio immaginare la feroce speculazione che si e’ creata sulla rete parlando ovviamente di geoingegneria, modificazioni del clima, HAARP, Nibiru, e compagnia bella, che tanto ormai sono la cuase di tutto quello che avviene nel mondo.

Cerchiamo di andare con ordine e di capire meglio la cosa.

Prima di tutto, qui trovate il bollettino ufficiale rilasciato dal NOAA, l’ente americano che, tra le altre cose, si occupa anche di eseguire previsioni e simulazioni per il fenomeno degli uragani:

NOAA, Uragani 2013

Cosa troviamo? Prima di tutto leggiamo molto attentamente i numeri che vengono riportati, perche’ proprio su questi c’e’ la maggior confusione in assoluto. Partiamo dalle medie registrate. Normalmente, dove “normalmente” significa “in media”, ci sono 12 “named storms” all’anno, cioe’ tempeste con venti che superano i 63 Km/h e a cui viene attribuito un nome. Tra queste, e attenzione “tra queste” non significa “oltre a queste”, ci sono, sempre in media, 6 uragani, cioe’ tempeste i cui venti superano i 118 Km/h. Bene, ora non perdete il filo, tra questi 6 uragani ce ne sono, sempre in media, 3 che vengono classificati come “uragani maggiori”, cioe’ con venti oltre i 180 Km/h.

Cerchiamo di riassumere. Ogni anno in media ci sono 12 tempeste con venti che superano i 63 Km/h e a cui viene assegnato un nome. Tra tutte queste che superano questo limite, ce ne sono, sempre in media, 6 che superano i 118 Km/h e che quindi vengono chiamati uragani e di questi 6 ce ne sono 3 che superano i 180 Km/h e che quindi vengono chiamati “uragani maggiori”.

Bene, quanti sono in tutto gli eventi? Ovviamente la risposta e’ sempre 12, e questo numero comprende tempeste, uragani e uragani maggiori.

Cosa ci si aspetta per il 2013?

Come potete leggere nel bollettino del NOAA, dai calcoli statistici effettuati, si e’ evidenziata una probabilita’ del 70% che il numero di tempeste possa essere superiore alla media, in particolare, compreso tra 13 e 20. Cosa significa? Prima di tutto che vi e’ una probabilita’ di questo aumento, non una certezza come vorrebbero farvi credere. Inoltre, viene fornito un intervallo piuttosto largo di ipotesi. Le 12 tempeste sono il numero medio registrato negli anni, dare un intervallo tra 13 e 20, significa andare da un valore praticamente in media, 13, ad uno superiore ai trascorsi, 20.

Questo solo per smentire subito tutte quelle fonti che parlano di aumento certo.

Ora, in questo numero compreso tra 13 e 20, viene fornito anche un quadro della composizione. Come visto, questo e’ il numero totale di eventi con venti superiori ai 63 Km/h. Come riportato dal NOAA, le previsioni sulla composizione sono: un numero compreso tra 7 e 11 di tempeste che potrebbero arrivare ad uragani e un numero compreso tra 3 e 6 che potrebbero sfociare in uragani maggiori.

Analizziamo questi numeri. Nel caso piu’ favorevole, si avrebbero 13 tempeste, di cui 7 uragani e 3 uragani maggiori. Praticamente questi numeri sono nelle medie riportate all’inizio. Nel caso piu’ sfavorevole invece, si avrebbero 20 tempeste di cui 11 uragani e 6 uragani maggiori. In questo caso invece tutte le categorie subirebbero un forte aumento rispetto ai valori medi.

Come vedete, questi numeri occupano un intervallo molto largo in cui e’ difficile fare previsioni precise. Ovviamente, il NOAA diffonde questi dati come indicazione per la stagione che sta inziando. Data la larghezza degli intervalli considerati, non e’ possibile fare previsioni esatte ne’ tantomeno fare analisi dettagliate.

Perche’ allora vengono fornite queste previsioni?

In realta’, il compito di questi calcoli e’ molto importante e serve per analizzare in termini statistici il comportamento di alcuni rilevanti parametri ambientali e climatici. Come riportato nel bollettino del NOAA, queto risultato superiore alla media viene spinto da alcune evidenze molto importanti:

– il forte monsone sull’Africa occidentale responsabile dell’aumento degli uragani nell’Atlantico iniziato a partire dal 2005

– le temperature leggermente piu’ alte nell’Atlantico tropicale e nel Mar dei Caraibi

– il ritardo nello sviluppo de “El Niño” che potrebbe non incrementarsi quest’anno

Attenzione, anche su questo ultimo punto, potete leggere notizie inesatte su diverse fonti. Non e’ che El Niño e’ scomparso o non si forma, semplicemente, al solito a causa di molti fattori correlati tra loro, quest’anno questo fenomeno atmosferico, che mitiga notevolmente gli uragani, potrebbe non aumentare. Questo non significa che e’ scomparso. Nella figura riportata vedete proprio l’andamento di El Niño negli ultmi mesi ottenuto monitorando la temperatura del Pacifico.

Temperature del Pacifico delle ultime settimane. Fonte: ENSO

Temperature del Pacifico delle ultime settimane. Fonte: ENSO

Concludendo, cosa abbiamo ottenuto? I risultati delle simulazioni condotte dal NOAA mostrano una probabilita’ del 70% che ci sia quest’anno un aumento del numero di tempeste. Questo aumento comporta un numero di fenomeni compreso tra 13 e 20 rispetto ad una media degli anni di 12. Il largo intervallo utilizzato non e’ utilizzabile per fare previsioni specifiche, ma l’indicazione dei modelli e’ importante per valutare diversi aspetti climatici di interesse mondiale. Proprio per concludere, ricordiamo che si tratta di calcoli statistici, forniti sulla base di modelli. Il numero medio utilizzato per il confronto viene da un database comprendente decine di anni di osservazione. Condizione per cui, sul singolo anno, variazioni rispetto a questa media sono del tutto normali e statisticamente possibili.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E-Cat meraviglia o grande bufala?

30 Mag

Viste le numerose richieste di informazioni, chiarimenti e spiegazioni che ho ricevuto, ho deciso di scrivere questo articolo sull’E-Cat. Perche’ non l’ho fatto prima? Semplicemente perche’, a mio avviso, e ne riparleremo dopo, mancavano dei presupposti essenziali per parlare di questa presunta invenzione in termini scientifici.

Ora cosa e’ cambiato?

A parte le numerose richieste ricevute, la rete e’ letteralmente esplosa in questi giorni perche’ sembrerebbe che finalmente sia arrivata la dimostrazione indipendente del funzionamento di questo prodigio.

Bene, analizziamo i fatti e cerchiamo di capire meglio di cosa stiamo parlando.

Per chi non lo sapesse, l’E-Cat e’ una presunta invenzione di Andrea Rossi che produrrebbe energia in un modo non noto. Mi spiego meglio. Si tratta di una sorta di generatore, alimentato da corrente elettrica, che pero’ produce piu’ energia di quanta ne assorbe. E’ strano questo? Assolutamente no. Non pensate che si stia violando qualche principio fisico basilare, semplicemnte si potrebbe sfruttare una qualche reazione chimica, fisica o sconosciuta mediante la quale si innescano dei processi esoenergetici, cioe’ che producono energia.

Poiche’ questo punto e’ molto importante, cerchiamo di capirlo bene e in modo semplice. Prendiamo, ad esempio, la fissione nucleare. Mediante questo proceso, nuclei di elementi fissili vengono spaccati in elementi piu’ leggeri, mediante neutroni, producendo energia. Ora, per produrre i neutroni da sparare avete bisogno di energia, ma quella che otteete alla fine del processo e’ maggiore di quella che avete speso, perche’ siete riusciti ad estrarre un’energia dall’interno del nucleo. Avete creato qualcosa dal nulla? No, avete semplicemente sfruttato un processo per produrre questa energia traformandola in qualcosa di utilizzabile ai vostri scopi.

Bene, l’invenzione di Rossi dovrebbe fare un qualcosa di equivalente. L’invenzione promette infatti di produrre molta piu’ energia di quella che deve essere immessa, sfruttando un processo, almeno al mometo, sconosciuto.

Qual e’ il carburante dell’E-Cat? Piu’ o meno il sistema funziona in questo modo: mettendo insieme Nichel e Idrogeno e fornendo un’energia iniziale al sistema, si dovrebbe innescare una reazione fortemente esoenergetica, in cui viene prodotta 5 o 6 volte piu’ energia. Attenzione pero’, gli ingredienti non bastano. Per poter funzionare, c’e’ bisogno anche di un catalizzatore da aggiungere al miscuglio Ni-H, tenuto segreto per motivi di spionaggio industriale.

Perche’ spionaggio industriale? Semplice, parlando di E-Cat, non stiamo parlando di una ricerca scientifica, bensi’ di una invenzione che deve essere lanciata sul mercato. Detto in altri termini, che deve essere venduta.

Quasta cosa ci sconvolge? Assolutamente no. Chiunque di noi puo’ pensare ad un’invenzione commerciale fattta esclusivamente per guadagnare. Non c’e’ nulla di male in questo, purche’, come vedremo, ci siano tutti i presupposti di affidabilita’ dell’invenzione.

Per chi gia’ conoscesse l’E-Cat, notate che ho parlato di una misteriosa reazione. Su molti giornali e siti internet, vedete che si parla di “fusione fredda” o “reazione nucleare a bassa energia”, ho omesso appositamente di tirare in causa questi concetti. Perche’? La fusione nucleare e’ quel processo secondo il quale dei nuclei leggeri vengono fusi tra loro per produrne uno piu’ grande, producendo energia. Questa ‘e la reazione utilizzata dal sole e dalle stelle per produrre energia, ed e’ quella a cui si vorrebbe puntare per sostituire le centrali nucleari a fissione. Il motivo e’ molto semplice, favorevoli o meno al nucleare, il punto piu’ discusso su queste tematiche e’ quello della produzione di scorie, cioe’ elementi nucleari di scarto con vite medie lunghe, cioe’ che restano attivi per molto tempo.

Qual e’ il problema principale della fusione?

Come detto, si devono fondere tra loro due nuclei leggeri per formarne uno pesante. Bene, cosa c’e’ dentro il nucleo? Neutroni, particelle neutre, e protoni, particelle di carica positiva. Come sappiamo bene, se avviciniamo due cariche dello stesso segno, come i protoni dei due nuclei, questi si respingono tra loro a causa della repulsione coulombiana. Ora pero’, se riuscissimo ad avvicinare moltissimo i due nuclei, si arriverebbe ad un punto in cui la forza nucleare forte, che e’ attrattiva, sarebbe molto maggiore della repulsione dovuta alle cariche elettriche, e i due nuclei si attirerebbero tra loro. Niente di complicato. Mentre li avvicinate, i due nuclei si respingono, quindi dovete spingerli con forza per farli avvicinare. Quando poi riuscite ad arrivare oltre una certa distanza, nota come barriera di Coulomb, a questo punto i due nuclei si attirano da soli e si innesca la fusione. Il problema delle centrali a fusione e’ proprio quello di trovare il modo piu’ conveniente ed efficace per fornire l’energia necessaria al superamento della barriera di Coulomb.

E la fusione fredda?

Come detto, parlando di fusione si parla di processi ad altissima temperatura, come avviene nelle stelle. La fusione fredda invece avverrebbe a temperatura ambiente. Al contrario di quanto si legge spesso in rete, non esitono evidenze di reazioni di questo tipo. Storicamente, i primi a parlare di fusione fedda furono gli americani Fleischmann e Pons, cui seguirono altre prove. Per nessuna di queste pero’, esiste la certezza scientifica che si sia trattato realmente di una reazione nucleare di questo tipo e, ancora oggi, c’e una forte discussione a proposito.

Perche’ per l’E-Cat si parla di fusione fredda?

In diverse fonti si parla della reazione tra Nichel e Idrogeno che verrebbero fusi tra loro per produrre Rame. Questo sarebbe il processo che avverrebbe a bassa energia e che fornirebbe l’energia dell’E-Cat. Ripeto, non sono d’accordo su questo punto e a breve mostreremo anche il perche’.

Prima di tutto, rivediamo un po’ la storia di questo E-Cat. Nel 2011 si e’ iniziato a parlare di questo generatore quando Rossi ha condotto due test rendendo pubblici i risultati. In questi esperimenti, fornendo un’energia al macchinario intorno ai 35 KWh, si sarebbero prodotti in un caso 70 KWh, nell’altro 160 KWh. Stando ai numeri, la reazione sarebbe effettivamente esoenergetica e molto conveniente. Qual’era il problema di questi test? Semplicemente, non ci sono prove scientifiche della validita’ dei risultati perche’ il tutto e’ stato condotto in maniera autonoma e senza un confronto indipendente. Cosa significa? Ai test sono stati invitati giornalisti rigorosamente selezionati, in veste di spettatori. Mi spiego meglio. I giornalisti sono stati invitati in questo capannone e hanno potuto vedre e filmere il test di Rossi riportando solo ed esclusivamente quelllo che l’inventore del macchinario affermava.

Ora, vedetela in questo modo. Un signore vi invita ad una dimostrazione in cui vi mostra una scatola nera in cui mette 10 euro e dall’altra parte ne escono 20. Basta, non vi viene detto altro ne’ vi vengono forniti dettagli su cosa c’e’ dentro la scatola. Non parlo a caso di scatola nera, infatti, molte delle parti dell’apparecchiatura sono tenute coperte e chiuse alla vista. Ovviamente, si tratta dei componenti fondamentali del sistema, incluso anche il misterioso catalizzatore che darebbe il via alla reazione.

Cosa dice la scienza a proposito? Come e’ facile immaginare, questo risultato non e’ stato accettato dalla comunita’ scientifica. Per sostenere qualcosa di questo tipo, seguendo i canoni della scienza, si dovrebbe mostrare il macchinario, studiare la reazione che avviene e il tutto deve essere ripetibile ovunque nelle stesse condizioni. Se queste informazioni mancano, il test e’ del tutto simile a quello di un’illusionista che vi mostra l’assistente tagliata in due all’interno di una scatola.

Come forse sapete, a seguito di questi test, e del completo rifiuto della scienza su questi risultati, Rossi e’ divenuto un “mito telematico”, metafora di quel genio che trova l’invenzione del secolo per il bene dell’umanita’ e a cui la scienza mette i bastoni tra le ruote perche’ corrotta dalle grandi multinazionali.

Se invece di gridare allo scandalo, si ragionasse su quanto detto, tutti si renderebbero conto che affermazioni di questo tipo non possono essere credibili se non verificate sperimentalmente. Il problema energetico dell’umanita’ non si risolve con la fiducia sulla parola, ma con numeri chiari verificabili e indiscutibili.

Perche’ ora, come anticipato, si parla di verifica indipendente? Nei mesi scorsi sarebbero stati condotti altri test. Questa volta pero’, avrebbero partecipato anche scienziati di diverse parti del mondo che avrebbero assistito agli esperimenti. Anche in questo caso, i risultati avrebbero mostrato un guadagno energetico del processo, confermando dunque la correttezza del metodo su cui si basa l’E-Cat.

Attenzione, facciamo una considerazione. Come premesso, in ambito commerciale, e’ lecito parlare di segreto industriale. Le regole del commercio sono diverse da quelle della scienza. A mio avviso, se il tutto venisse mostrato ad un gruppo di scienziati affidabili ed in grado di fornire un’opinione scientifica, sicuramente il test acquisterebbe di credibilita’. Purtroppo, non e’ andata cosi’.

L’altro punto fondamentale su cui si e’ dibattuo a lungo e’ la mancanza di una “peer review” sull’esperimento. Cosa significa? Quando si pubblica un articolo su una qualche rivista internazionale, si passa attraverso il processo di “referaggio”. Prima di pubblicare il lavoro, la rivista nomina un altro ricercatore internazionale di chiara fama ed esperto del settore che ha il compito di analizzare in dettaglio il contenuto dell’articolo. Se ci sono punti poco chiari, l’esperto puo’ chiedere maggiori spiegazioni al fine di chiarire il tutto ed evitare, nella migliore delle ipotesi, errori sfuggiti agli autori. Solo al termine di questo processo il vostro lavoro, se accettato, viene pubblicato.

Partendo proprio da questo punto, gli ultimi test seguiti dal gruppo di scienziati avrebbero risolto anche questo problema.

Perche’?

Solo pochi giorni fa, e’ stato pubblicato un articolo sull’archivio della Cornell University, che trovate a questo link:

ArXiv E-Cat

A questo punto, tutti i dubbi iniziali dovrebbero essere risolti: il test e’ stato eseguito indipendentemente da un gruppo di ricercatori e questi hanno anche pubblicato un articolo, ovviamente confermando i risultati dei primi test.

Cosa c’e’ che non va?

Prima di tutto, quello di cui vi ho dato il link, non e’ un articolo su rivista internazionale che ha subito un processo di peer review. Il database in questione e’ semplicemente un archivio di articoli in cui i ricercatori possono mettere i loro lavori. Non c’e’ nessun controllo sul contenuto degli articoli, a parte la buona fede dei ricercatori stessi. Generalmente, almeno nel campo della fisica, i lavori vengono caricati su arXiv prima che questi vengano pubblicati sulle riviste, cioe’ mentre e’ in corso il processo di review. Detto questo, non e’ assolutamente risolto il problema del peer review per l’E-Cat.

Purtroppo, neanche la prima critica e’ stata risolta. Come potete leggere nel testo dell’articolo, non si e’ trattato assolutamente di una verifica indipendente, ma solo di uno spettacolino riservato a persone esperte del settore. Cosa significa? Nei primi test erano stati invitati dei giornalisti, ora dei ricercatori, ma lo svolgimento e’ stato esattamente lo stesso. I ricercatori non hanno potuto toccare nulla, ma si sono limitati a guardare il test condotto da Rossi nei suoi laboratori. Inoltre, molte delle parti del sistema su cui si era discusso, sono rimaste chiuse all’interno di scatole nere in cui era impossibile guardare dentro e, come e’ facile pensare, tra queste vi era anche il misterioso catalizzatore. L’articolo di cui stiamo parlando e’ dunque un insieme di osservazioni e considerazioni fatte dai ricercatori.

Cosa e’ cambiato rispetto al passato? Ovviamente, i ricercatori intervenuti hanno potuto misurare il calore in uscita mediante una termocamera, valutando in questo modo sia la potenza in uscita che quella in ingresso utilizzando sistemi elettrici. A parte al correttezza o meno di questo processo indiretto e della valutazione dell’incertezza ottenuta misurando la potenza con una termocamera, non  si e’ assolutamente trattato di una prova “indipendente”.

C’e’ anche qualche altra considerazione importante da fare. Come detto in precedenza, a mio avviso non si e’ trattato di fusione fredda. Un processo di questo tipo necessariamente producce radiazione in uscita. Effetto non riportato in nessun caso e impossibile da schermare in sistemi di questo tipo. Tra l’altro, conosco personalmente uno dei ricercatori intervenuti ed e’ un esperto di radioprotezione dell’Universita’ di Uppsala in Svezia.

Oltre a questo, la quantita’ d rame che si sarebbe prodotta corrisponderebbe ad un rendimento del sistema molto piu’ alto di quello che ci si aspetta e soprattutto il rame in questione sarebbe non eterogeneo, cioe’ mancano isotopi diversi dalla forma piu’ commerciale e abbondamente in natura.

Ulima considerazione scientifica, dal punto di vista energetico, la fusione di nichel e idrogeno sarebbe possibile e verrebbe prodotto rame, ma la barriera coulombiana per questi nuclei e’ elevatissima. Questo solo per dire che un processo del genere a bassa energia e’ scientificamente molto difficile da digerire. Teoricamente si potrebbe citare l’effetto tunnel, ma questo non spiegherebbe neanche la certezza della reazione di fusione cosi’ come altri processi quantistici non deterministici.

Concludendo, alla luce delle considerazioni fatte e degli ultimi aggiornamenti, non pssiamo assolutamente affermare che l’E-Cat sia un sistema reale e che possa essere accettato dalla scienza. Questo non significa che potrebbe esistere questo generatore in grado di fare quello che Rossi promette. Semplicemente, se anche esistesse, non e’ comprensibile la reazione su cui sarebbe basato e soprattutto mancano dati certi su cui ragionare e da cui estrarre certezze scientifiche. Al momento, almeno secondo me, siamo ancora al livello dll’illusionista che taglia l’assistente con la sega.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Possiamo scegliere tra era glaciale o desertificazione

28 Mag

Diversi lettori mi hanno chiesto di fare un aggiornamento sull’attuale ciclo solare, di cui molto si sta discutendo in rete. Come sappiamo, stiamo attualmente attraversando il massimo del 24mo ciclo, un picco che pero’, almeno attualmente, si sta rivelando molto meno intenso di quanto ci si aspettava.

Fate attenzione, proprio la frase “meno intenso di quanto ci si aspettava” e’ il nucleo della discussione che dobbiamo fare e su cui ho letto davvero di tutto e di piu’, un po’ per ignoranza, molto spesso solo per il gusto di voler speculare su argomenti scientifici poco noti.

Di cili solari abbiamo parlato, ad esempio, in questi post:

Evidenze dal Sole?

Le macchie solari AR1504

Gli effetti di AR1504

Sole: quanta confusione!

Come visto, il nostro Sole ha un comportamento che non e’ costante nel tempo ma che oscilla tra massimi e minimi. La durata “media” di questi cicli solari e’ di 11 anni e, in concomitanza, si registra, come visto in questo post:

Inversione dei poli terrestri

un’inversione del campo magnetico solare che dunque ritorna alla condizione originale ogni 22 anni, cioe’ ogni 2 cicli. Detto in altri termini, partite da una condizione, dopo 11 anni invertite i poli, per tornare alla condizione iniziale servono altri 11 anni e quindi un’altra inversione dei poli.

Come sottolineato diverse volte, si tratta di meccanismi statisticametne noti ma che, in quanto tali, sono parametrizzabili da numeri medi. Il nostro Sole e’ una stella “viva”, passatemi questo termine, condizione per cui riusciamo a parametrizzarlo mediante modelli veri sempre “in media”.

Detto questo, quando parliamo di ciclo di 11 anni, non ci deve affatto sorprendere se gli anni sono 10 o 12.

Inoltre, massimi e minimi solari non sono tutti uguali tra loro, ma possono avere intensita’ variabili nel tempo. Detto questo, ci possono essere massimi piu’ o meno intensi, cosi’ come minimi piu’ o meno deboli.

Bene, alla luce di quanto detto, passiamo ad analizzare il ciclo attuale.

Prima affermazione che trovate in rete, il massimo era previsto per la fine del 2012, secondo alcuni proprio il 21 Dicembre 2012, e dunque c’e’ un “forte” ritardo da parte del Sole. Queste affermazioni sono del tutto false. Come visto in questo articolo:

Nuova minaccia il 22 Settembre?

non e’ assolutamente vero che il massimo era atteso per la fine del 2012, ne’ tantomeno per il 21 Dicembre. Questa affermazione nasce da una simulazione condotta diversi anni fa dalla NASA mirata a valutare gli effetti di un eventuale massimo di alta intensita’ sulla nostra attuale societa’, fortemente legata alla trasmissione dei segnali a lunga distanza.

Quando e’ atteso il massimo?

Dalle simulazioni fatte, il massimo sarebbe atteso per la fine del 2013. Di questo abbiamo parlato in questo post:

Come seguire il ciclo solare

In particolare, in questo articolo abbiamo fornito anche tutti i link per poter seguire il ciclo solare e valutare giorno per giorno i diversi parametri che consentono di valutare la reale attivita’ del Sole insieme anche a modelli previsionali.

Se invece della fine del 2013, fosse maggio 2013 o maggio 2014, la cosa ci sorprenderebbe? Alla luce di quanto detto circa la modellizzazione dei fenomeni, assolutamente no.

Perche’ si parla ora di massimo solare?

A partire dai primi di maggio, dopo un periodo relativamente calmo, il nostro sole ha iniziato a riprendere vigore con diverse emissioni di classe X. Per chi non lo avesse letto, delle diverse classi di emissioni abbiamo parlato sempre nel post:

Le macchie solari AR1504

E’ giusto dire che e’ iniziato il massimo vero e proprio? In linea di principio no. Se volete e’ come il detto “una rondine non fa primavera”. Con questo intendo dire che per capire l’andamento del ciclo solare, si dovranno attendere, se ci saranno, nuove emissioni per poter affermare che il Sole sta attraversado il punto piu’ alto del suo massimo.

Ora, come fatto nell’articolo precedentemente citato, vi riporto anche il grafico aggiornato dello stato del nostro Sole:

Il numero di macchie solari osservate sul sole nel corso degli anni

Il numero di macchie solari osservate sul sole nel corso degli anni

Come spiegato in passato, in questo grafico viene riportato il numero di macchie solari contate sulla superficie del sole e che rappresentano un parametro direttamente legato all’attivita’ solare.

Notiamo prima di tutto una cosa molto importante: la linea rossa indica l’attivita’ solare prevista dalle simulazioni. Come potete vedere, il numero di macchie finora osservate e’ sensibilmente piu’ basso rispetto al valore atteso. E’ sconvolgente questo? Neanche per idea. Come visto, si tratta dei modelli, per cui sempre affetti da fluttuazioni statistiche e da incertezze.

Attenzione pero’, su questo punto molto si sta parlando in rete. Secondo molte fonti, questa differenza tra aspettato e osservato, come visto assolutamente non sconvolgente, indicherebbe niente poco di meno che “una nuova era glaciale”! Perche’ si parla di questo? Come visto in questo post:

Curiosita’ sui cicli solari

e come e’ facilmente immaginabile, l’attivita’ del nostro Sole influisce sulle condizioni ambientali della Terra, e non potrebbe essere diversamente. Ora, sempre per la solita rondine che non fa primavera, e’ assurdo parlare di era glaciale perche’ c’e’ un massimo meno intenso del previsto. Come visto nell’articolo riportato, nel caso del Maunder Minimum, si registro’ una totale assenza di macchie solari per un periodo compreso tra il 1645 e il 1700, macchie che poi inizarono lentamente a ricomparire fino a tornare alla normalita’ solo nel 1715. Alcune fonti parlano di diversi massimi poco intensi e dunque di un andamento che punterebbe ad una mini era glaciale. Anche in questo caso, si tratta di una esagerazione speculativa, atta solo a cercare di insinuare evidenze dove queste non ci sono.

Inoltre, facciamo una considerazione aggiuntiva molto importante. Come detto in precedenza, i famosi 11 anni di ciclo solare, non vanno visti come un dictat inviolabile, ma come una stima media della durata del ciclo. Perche’ dico questo? Come avvenuto in diverse occasioni, e anche nel precedente massimo, e’ possibile che il sole presenti due picchi all’interno dello stesso massimo. Riguardiamo per un attimo il grafico di prima, e concentriamoci sul massimo precedente. Come potete vedere, ci sono due picchi facilmente distinguibili, uno a meta’ el 2000 e l’altro alla fine del 2002. Anche questo comportamento rientra nelle normali fluttuazioni che il nostro Sole puo’ avere nel corso degli anni.

Perche’ abbiamo fatto questa considerazione?

Alla luce di questa, e’ lecito pensare che, anche in questo caso, quello che stiamo attraversando sia solo un primo picco di intensita’, seguito poi, anche a distanza di uno o due anni, da un secondo massimo piu’ intenso. Non ci sarebbe assolutamente nulla di sconvolgente in un comportamento del genere e soprattutto, non e’ preventivabile ne’ facilmente modellizzabile.

Riassumendo, stiamo sicuramente attraversando il massimo atteso del 24mo ciclo solare. Non e’ facilmente comprensibile capire se stiamo andando verso il picco, lo abbiamo gia’ passato e se ci sara’ un ulteriore picco a distanza di qualche mese. Quello che e’ evidente dai dati riportati e’ che, fino ad oggi, l’intensita’ di questo massimo e’ relativamente bassa e inferiore alle stime fatte. Questo pero’ rientra nelle normali fluttuazioni statistiche della fisica del sistema, non facilmente prevedibili ne’ tantomeno modellizzabili. E’ assolutamente fuori luogo parlare dell’inizio di una prossima era glaciale, soprattutto se citata da quelle fonti che fino a ieri parlavano di desertificazione a causa di un misterioso e incompreso riscaldamento globale.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Yellowstone, il supervulcano

30 Apr

Nel nostro precedente articolo:

Cosa c’e’ sotto i nostri piedi?

abbiamo parlato di una nuova interessantissima misura riguardante la temperatura nel centro della Terra. Come visto, attraverso un complicato sistema di simulazione delle condizioni, e’ stato possibile correggere il valore precedentemente noto, portando a ben 6000 gradi la temperatura del nucleo di ferro solido del nostro pianeta.

Rimanendo sulla scia di questi argomenti, vorrei adesso parlarvi di un altro aspetto del nostro pianeta, che molto spesso ha richiamato anche l’attenzione di tanti catastrofisti: la caldera dello Yellowstone. Diversi mesi fa, ci siamo gia’ occupati dei fenomeni vulcanici in questa zona, analizzando le tante voci che volevano questo vulcano pronto ad eruttare, come dimostrato da alcuni valori dei sismografi:

Yellowstone, cosa succede?

Yellowstone, aggiornamento

Come visto, i presunti movimenti citati su internet erano solo dovuti ad un sismografo rotto che dunque forniva valori completamente fuori scala. Ma questo era facilmente intuibile a meno di voler fare una becera speculazione.

Come avvenuto per la temperatura del centro della terra, torniamo a parlare di questo argomento a seguito di una nuova interessante misura condotta dai geologi e che ci permette di affrontare argomenti non ancora discussi su questo blog.

Ricostruzione della caldera dello Yellowstone

Ricostruzione della caldera dello Yellowstone

Come annunciato solo pochi giorni fa nel corso della riunione annuale della Societa’ Sismologica Americana, una nuova misurazione di precisione ha permesso di modificare notevolmente le dimensioni conosciute della caldera sotto lo Yellowstone. Mentre prima si pensava a diverse caldere non connesse tra loro, la nuova ricerca condotta dai ricercatori dell’universita’ dello Utah, ha mostrato come sotto l’omonimo parco, sia presente un’enorme caldera dotata di numerose diramazioni, come se fosse una singola camera magmatica. Inoltre, studiando i nuovi dati raccolti, e’ stato possibile aumentare di ben il 50% le precedenti dimensioni ipotizzate, portando la caldera ad una lunghezza di 60Km, una larghezza di 30Km ed una profondita’ tra i 5 e i 12Km rispetto alla superficie.

Date queste dimensioni, capite bene perche’ la notizia di questa nuova misura ha nuovamente riacceso gli animi catastrofisti mai sedati dal 21 Dicembre 2012. Inutile dire che lo Yellowstone e’ uno dei vulcani piu’ pericolosi del mondo, ma questo non ci deve assolutamente lasciar prendere dal panico. Cerchiamo dunque di comprendere a fondo la struttura della caldera e di capire la reale pericolosita’, al momento, di questo vulcano.

La zona sopra la caldera nel parco di Yellowstone

La zona sopra la caldera nel parco di Yellowstone

Come anticipato, la caldera si trova per gran parte sotto lo stato del Wyoming, proprio sotto il parco nazionale. Al contrario dei vulcani classici che possiamo immaginare, lo Yellowstone si trova sopra quello che in geologia viene chiamato un “punto caldo”. Con questo termine si indica una zona precisa in cui la roccia fusa, generalmente sotto la crosta terrestre, tende a salire in superficie. Questo meccanismo e’ esattamente lo stesso che conferisce attivita’ ai vulcani, ma nel caso dello Yellowstone il punto caldo si trova sotto l’area pianeggiante del parco e si manifesta attraveso determinati fenomeni geologici.

Come e’ stata fatta la nuova misura?

Analogamente a quanto visto nell’articolo precedente, la nuova misurazione e’ stata possibile, anche in questo caso, analizzando la propagazione delle onde sismiche. A seguito di terremoti avvenuti in zona, e’ stato possibile studiare le interferenze delle onde attraverso il terreno, determinando in questo modo l’esatta percentuale di volume solido e fluido. Come visto nell’articolo precedente, questo stesso principio era stato sfruttato per quantificare la parte di ferrro fuso da quello solido che occupa il centro della Terra.

Come anticipato, lo studio delle onde sismiche ha dunque permesso di modificare al rialzo il volume della caldera dello Yellowstone, incrementando il precedente valore di circa il 50%.

A questo punto, cerchiamo di rispondere a domande lecite che spesso vengono fatte: e’ pericoloso lo Yellowstone? Ci potrebbe essere un’eruzione in tempi brevi?

Riguardo alla pericolosita’, abbiamo gia’ risposto affermando il reale pericolo derivante da questo vulcano. Molto spesso, sentite parlare dello Yellowstone come un supervulcano. In realta’, questa definizione non rientra nella geologia classica, ma questo termine venne attribuito alla caldera in un documentario girato dalla BBC.

Quanto sono frequenti le eruzioni dello Yellowstone?

Studiando la morfologia della zona, e’ stato possibile determinare e distinguere le diverse eruzioni che si sono succedute nel corso dei secoli. Tra queste, sono state individuate tre supereruzioni avvenute rispettivamente 2.1 milioni, 1.3 milioni e 640000 anni fa. Oltre a questi eventi che hanno modificato fortemente il paesaggio della zona, ve ne sono state di minori e che sono risultate in una fuoriuscita di magma in punti specifici. L’ultima eruzione della caldera e’ avvenuta ben 70000 anni fa.

Se paragoniamo questi numeri con quelli di altri vulcani nostrani di cui abbiamo parlato:

Cosa succede in Campania?

Due parole sull’Etna e sullo Stromboli

vi rendete conto che parliamo di fenomeni davvero poco frequenti.

Perche’ dunque si parla tanto di un’eruzione dello Yellowstone?

Premesso che al solito il catastrofismo e la speculazione su questi argomenti hanno sempre una certa eco mediatica, a partire dagli anni 2000, delle modificazioni alla caldera sono state evidenziate dai geologi. In particolare, a partire dal 2004, si e’ notato un innalzamento molto piu’ veloce del terreno in prossimita’ della caldera, che e’ avvenuto negli ultmi 3 anni con una velocita’ tripla rispetto a quella degli anni precedenti. Cosa significa questo? In linea di principio assolutamente nulla. Come abbiamo visto, i fenomeni vulcanici della zona sono dovuti alla presenza di un punto caldo. Quello che avviene e’ che la camera magmatica si sta riempiendo di roccia fusa e questo provoca un aumento nell’innalzamento del terreno. Questo potrebbe portare ad un’eruzione? Anche in questo caso, non e’ assolutamente detto. Il flusso di roccia fusa potrebbe interrompersi da un momento all’altro determinando un repentino abbassamento del terreno. Movimenti di questo tipo, sia verso l’alto che verso il basso, vengono continuamente registrati anche in altri vulcani e non necessariamente possono portare ad eruzioni. Inoltre, proprio l’incremento misurato nel volume della camera magmatica, ci fa pensare che, anche mantenendo un flusso costante da sotto la crosta, ci vorranno ancora molti anni prima che la camera si riempia e possa portare, come detto non necesariamente, ad una nuova eruzione.

Secondo il parere di molti geologi, non e’ possibile determinare quando ci sara’ una nuova eruzione. Alcuni parlano di centinaia di anni, altri si spingono fino a migliaia di anni. Tutti pero’, con buona pace dei catastrofisti, concordano che non ci si aspettano nuove eruzioni prima di almeno 150 anni.

Se ancora non vi fidate o siete preoccupati, facciamo un’altra riflessione: se lo Yellowstone dovesse eruttare, quanto tempo prima ce ne accorgeremmo? Anche qui, non e’ possibile fare una stima precisa, ma tutti gli esperti concordano che una nuova eruzione sarebbe sicuramente preceduta da importanti fenomeni geologici. In primis un notevole innalzamento del terreno, sicuramente maggiore di quello registrato fino ad oggi, ma poi ci sarebbero importanti eventi sismici, oltre ad un aumento dell’attivita’ dei geyser. Tutti fenomeni assolutamnete non registrati al momento.

Inoltre, anche in presenza di fenomeni di questo tipo, i geologi concordano sul fatto che queste avvisaglie inizierebbero almeno qualche mese prima della nuova eruzione. Per completezza, vi dico anche che c’e’ chi parla di anni di preavviso. Come capite, anche se dovesse accadere, la nuova eruzione non sarebbe sicuramente un fenomeno improvviso e quindi avremmo tutto il tempo di capire quello che sta per accadere.

Detto questo, al momento non c’e’ assolutamente nulla di pericoloso nello Yellowstone. Come visto, la speculazione su questo supervulcano e’ facilmente smentibile analizzando i dati in nostro possesso e che chiunque puo’ verificare consultando database e report ufficiali. Ovviamente, vista anche la pericolosita ‘di questo sistema, tutta la zona e’ costantemente monitorata e tunuta sotto controllo attraverso un esteso sistema di misurazione. Nei post precedenti sullo Yellowstone, abbiamo in particolare parlato della rete di simografi presenti su tutta l’area e che sono liberamente consultabili seguendo i link che trovate negli articoli.

Concludendo, la nuova misurazione condotta sulla caldera dello Yellowstone ha mostrato, attraverso un’analisi delle onde sismiche, una camera magmatica molto piu’ estesa di quanto si pensasse e formata da un insieme di volumi connessi tra loro. Come detto, lo Yellowstone e’ un vulcano molto pericoloso, che ha dato luogo nel corso dei secoli, ad importanti fenomeni eruttivi e, proprio per questo motivo, e’ costantemente monitorato. Alla luce delle attuali misurazioni, non c’e’ assolutamente da temere una nuova eruzione in tempi brevi e comunque avremmo tutto il tempo per capire in anticipo quanto starebbe per accadere.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Nuovi candidati per l’impatto mortale?

18 Apr

Alcuni utenti mi hanno chiesto di commentare una notizia apparsa proprio in queste ore su molti siti intenet. Stando a quanto riportato, la NASA avrebbe dichiarato di aver scoperto un nuovo asteroide orbitante vicino alla Terra e che potrebbe rappresentare una notevole minaccia per il genere umano. Per essere precisi, trovate scritto che questo corpo sarebbe molto piu’ pericoloso di Apophis di cui abbiamo parlato, ad esempio, in questo post:

Attenzione, tra poche ore passa Apophis!

Come sapete bene, su Apophis si e’ speculato tantissimo per due motivi principali. Il primo e’ che questo NEO, oggetto vicino alla Terra, per lungo tempo ha avuto una probabilita’ di impatto dalle simulazioni diversa da zero, mentre la seconda ragione si deve a Margherita Hack che in alcune interviste, per smentire le fantasie sul 2012, ha espressamente detto che forse era meglio preoccuparsi di Apophis piuttosto che della fine del calendario Maya. Questa affermazione, fatta ovviamente per sminuire il 2012, ha avuto l’effetto contrario di creare uno stato d’allerta sui meteoriti.

Detto questo, sempre secondo la notizia che stiamo analizzando, il nuovo asteroide appena scoperto sarebbe “1999 RQ36”, che dovrebbe colpire la Terra nel 2182.

Premesso che il 2182 mi sembra abbastanza lontano per iniziare a preoccuparsi, le tante notizie che trovate in rete presentano alcuni punti fondamentali completamente falsi.

Cerchiamo di capire meglio.

Prima di tutto, come suggerisce il nome stesso, l’asteroide in questione e’ stato scoperto nel 1999. La prima osservazione e’ stata fatta nell’ambito del programma LINEAR e l’asteroide e’ costantemente monitorato e studiato dall’osservatorio di Arecibo.

1999 RQ36 ha una forma sferiodale con un diametro medio di 560 metri e una massa di 0.14 miliardi di tonnellate. A livello scientifico, si e’ parlato abbastanza di questo asteroide, soprattutto perche’ e’ stato possibile determinare la sua massa con estrema precisione. Questo risultato e’ stato raggiunto sfruttando le informazioni di 3 radiotelescopi nel mondo e calcolando in maniera molto precisa gli effetti gravitazionali subiti da 1999 RQ36. Come potete facilmente immaginare, questo e’ stato un compito molto arduo, dal momento che per calcoli di queto tipo, si devono considerare tutti i corpi in prossimita’ dell’asteroide, al fine di valutare precisamente le interazioni gravitazionali subite durante il moto.

Probabilmente, leggendo qualche notizia qua e la sui siti scientifici, i nostri amici catastrofisti non hanno capito bene quello di cui si stava parlando e perche’ cosi’ tanto interesse fosse concentrato su questo asteroide. Ovviamente, non dobbiamo dimenticarci il periodo storico che stiamo attraversando. Dopo il fatto russo dell’asteroide su Cheliabynsk, speculare su eventi di questo tipo e’ divenuta una moda molto proficua per tanti siti internet.

Detto questo, come possiamo verificare la reale pericolosita’ di 1999 RQ36?

Per prima cosa, per chi volesse divertirsi a simulare l’impatto di un corpo di questo tipo sulla Terra, abbiamo fatto esperimenti di questo tipo in un altro articolo:

Effetti di un impatto con Nibiru

Seguendo i link riportati, potete accedere ad un programma di simulazione molto carino e con cui potete valutare i reali rischi che un impatto di questo tipo avrebbe per la Terra e per il genere umano.

Detto questo, per poter capire la reale probabilita’ di impatto, non solo di questo asteroide, ma di qualsiasi corpo che volete controllare, basta al solito accedere al sito della NASA sui corpi potenzialmente pericolosi:

NASA, NEO program

In queste pagine trovate il database completo con le informazioni su tutti i NEO potenzialmente pericolosi, insieme anche ai parametri orbitali e ai dati fisici.

Cosa troviamo su 1999 RQ36?

Aprendo la pagina dedicata a questo corpo:

NASA, 1999 RQ36

Vedete che i passaggi ravvicinati alla Terra saranno tra il 2169 e il 2199. Sempre facendo riferimento a questa tabella:

Passaggi ravvicinati per RQ36

Passaggi ravvicinati per RQ36

vedete pero’ che la probabilita’ di impatto non e’ mai superiore allo 0,026%.

Molto probabilmente, un altro fattore che ha contribuito ad alimentare il sospetto su questo corpo e’ che, facendo sempre riferimento alla tabella, non compare la valutazione nella Scala Torino per questo corpo.

Come visto in questo articolo:

L’asteroide 2012 DA14

La scala Torino e’ una classificazione del pericolo di impatto dei NEO sulla Terra. Questa scala tiene conto sia della massa dell’asteroide che della sua energia cinetica. Come capite subito, in un eventuale impatto, anche l’energia cinetica posseduta dal proiettile rappresenta un parametro di notevole importanza.

Visto che per 1999RQ36 non compare la valutazione, proviamo a valutare da noi il pericolo di impatto facendo un confronto con un altro asteroide potenzialmente pericoloso: 2007 VK184. In questo caso abbiamo un proiettile un po’ piu’ piccolo, solo 130 metri di diametro, ma che viaggia ad una velocita’ superiore a 1999 RQ36: 19 m/s contro 13 m/s.

NASA, 2007 VK184

Perche’ abbiamo scelto questo corpo? Come vedete sempre consultantdo il sito NASA, VK184 e’ considerato l’osservato speciale per la probabilita’ di impatto sulla Terra. Con questo si intende che e’ il NEO con la probabilita’ di impatto maggiore per il futuro.

Facendo riferimento alla tabella che trovate sulla pagina riportata:

Passaggi ravvicinati per VK184

Passaggi ravvicinati per VK184

Vedete che in questo caso, la probabilita’ maggiore di impatto e’ dell’ordine di 0,055% con il valore 1 nella Scala Torino. Analogamente a quanto avvenne la prima volta con Apophis, anche questo corpo ha dunque un valore diverso da zero della Scala Torino. Proprio per questo motivo, trovate il corpo evidenziato sulla pagina NASA e VK184 viene costantemente monitorato.

Cosa significa 1 nella Scala Torino?

Definizione dei valori della Scala Torino

Definizione dei valori della Scala Torino

Se avete pensato che il valore 1 ci dia la certezza di impatto, siete fuori strada. Ovviamente 1 e’ maggiore di 0, cioe’ della probabilita’ completamente nulla di impatto con la Terra. Nnostante questo, come vedete dalla figura a lato, la scala Torino a valori che vanno da 0 a 10 e che corripondono ad un crescendo di probabilita’ di impatto.

Prendendo la definizione ufficiale della scala Torino, il valore 1 corrisponde a quanto segue:

Osservazioni occasionali possono scoprire il passaggio vicino alla Terra di oggetti che li pongono in un livello di pericolo di collisione. Calcoli e analisi mostrano che le probabilità di collisione sono estremamente basse da non meritare grande attenzione e preoccupazione nella gente comune. Nuove osservazioni molto probabilmente porteranno una riassegnazione al livello 0.

Dunque? Premesso, come visto, che stiamo parlando di passaggio ravvicinati tra piu’ di un secolo, il valore 1 non corrisponde assolutamente a nessun pericolo. Complice anche la lontananza temporale dell’evento considerato, l’orbita dell’asteroide e’ conosciuta con un’incertezza tale da non consentire una valutazione precisa della probabilita’ di impatto. Cosi’ come avvenuto per Apophis, a distanza di anni e grazie alle osservazioni continue ad opera dei tanti telescopi funzionanti a Terra, la probabilita’ di impatto, e duqnue anche il valore della Scala Torino, e’ divenuta completamente nulla.

Detto questo, siete ancora convinti che sia il caso di preoccuparsi di 1999 RQ36? Secondo me, assolutamente no. Ovviamente non vogliamo tranquillizzare per partito preso. Le nostre considerazioni nascono da un’analisi dei parametri attualmente disponibili, ma soprattutto dal tempo che ancora manca per questo passaggio ravvicinato. Molto probabilmente, tra piu’ di un secolo avremo sicuramente, anche se ne fosse richiesto l’utilizzo, un qualche sistema funzionante per poter deviare o distruggere i potenziali pericoli spaziali per la Terra. Di questi sistemi, attualmente in stato di studio, abbiamo parlato in questo post:

Asteroidi: sappiamo difenderci?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.