Tag Archives: andrea

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Cascadia e Tsunami orfano

10 Giu

Solo qualche giorno fa, parlando di previsioni catastrofische per il futuro, eravamo tornati sul discorso terremoti. In particolare, in questo post:

Se arrivasse il Big One?

abbiamo parlato del grande terremoto “atteso”, ovviamente per modo di dire, in California. Come sappiamo, la presenza della Faglia di Sant’Andrea genera da sempre terremoti lungo la costa occidentale degli Stati Uniti, e, come noto a tutti, nell’arco di un periodo non definito, che spazia fino a centinaia di anni, si potrebbe verificare un terremoto talmente distruttivo da abbattere gran parte delle costruzioni della zona.

Proprio su questo articolo, e’ stato fatto un commento molto interessante, che ci offre la possibilita’ di parlare di un altro fenomeno sismico, meno noto, ma forse ben piu’ distruttivo. Ci stiamo riferendo alle placche che convergono nella zona della Cascadia e che, negli ultimi anni, stanno richiamando sempre piu’ l’attenzione degli esperti.

Movimento di Subduzione tra placche

Movimento di Subduzione tra placche

Per Cascadia si intende quella zona che corre lungo le coste occidentali nord americane e che va dal Canada meridionale fino alla California Settentrionale. In termini geologici, questa e’ una zona detta di “subduzione”, cioe’ una parte di crosta terrestre in cui due placche scorrono passando una sull’altra. Per meglio comprendere questo fenomeno, potete fare riferimento alla figura riportata a lato.

La configurazione della Cascadia e’ estremamente interessante ed unica. In questa zona infatti, le placche pacifiche minori, dette Juan de Fuga, Explorer e Gorda, subducono, cioe’ si infilano sotto, alla piu’ grande placca Nord Americana. Questo lento movimento avviene da sempre con velocita’ comprese tra i 3 ed i 4 cm all’anno.

Nell’immagine seguente viene mostrata la situazione delle placche della Cascadia:

Placche convergenti in Cascadia

Placche convergenti in Cascadia

Cosa c’entra la Cascadia con i terremoti?

Fino a qualche decina di anni fa, si pensava che questa struttura fosse in grado di generare solo eventi di piccola intensita’ a causa della continua frammentazione delle rocce dovute al movimento.

Come evidenziato da recenti studi, questa idea e’ letteralmente sbagliata. Anche se fenomeni di grande intensita’ avvengono con intervalli di tempo molto lunghi, zone di subduzione come quelle della Cascadia, possono generare terremoti di notevole intensita’. In particolare, i piu’ grandi eventi registrati nel corso dei secoli, sono proprio dovuti a movimenti di questo tipo. Geologicamente infatti, la continua spinta tra le placche provoca un alto accumulo di energia elastica che puo’ portare ad una frattura estesa e profonda. Risultato di questo e’ l’insorgere di sismi di elevata magnitudo accompagnati anche da Tsunami molto alti.

Parlando direttamente della Cascadia, si pensa che eventi di questo tipo potrebbero avvenire con tempi che vanno dai 250 fino ai 350 anni ma con terremoti che possono tranquillamente superare magnitudo M8.

Perche’ e’ importante studiare questa zona?

Come potete immaginare pensando alla posizione delle placche, lungo la costa del continente americano interessata, sorgono grandi centri abitati: Vancouver, Seattle, Portland, tutti centri densamente popolati e ricchi anche di edifici storici. Dalle analisi condotte, e’ risultato infatti che molti dei grattacieli costruiti fino al 1970, non resisterebbero ad un evento cosi’ intenso. Tra l’altro, a causa proprio della subduzione, un eventuale terremoto di forte intensita’ avrebbe anche una durata prolungata nel tempo ed accompagnata da onde di Tsunami.

Ovviamente, dopo questi studi, i grandi centri degli Stati Uniti e del Canada stanno correndo ai ripari cercando di rendere piu’ resistenti gli edifici storici, proprio per evitare danni a seguito di un eventuale terremoto.

Quando dovrebbe avvenire il prossimo terremoto?

Come sappiamo bene, e come abbiamo discusso tante volte, e’ impossibile prevedere con precisione i terremoti. Nonostante questo, ricorrendo al solito alla statistica, e’ possibile avere un’idea con delle finestre di probabilita’. Prima parlavamo di periodi di 250-350 anni. Quando e’ avvenuto il precedente sisma causato alla Cascadia?

Proprio nell’ambito degli ultimi studi condotti su questa zona, e’ stato possibile determinare come il precedente grande sisma sia avvenuto nel 1700. E’ pero’ interessante raccontare come questa determinazione cosi’ precisa e’ avvenuta.

Nelle cronache giapponesi, si racconta di un cosiddetto “tsunami orfano”. Cosa significa? La popolazione giapponese e’ da sempre abituata a convivere sia con i terremoti che con le conseguenti onde di Tsunami che si abbattono sulle loro coste. Come e’ facile immaginare, a seguito di un violento sisma avvertito, dopo un certo tempo, ci si aspetta l’onda dall’oceano. Bene, nelle cronache si riporta di uno tsunami, avvenuto appunto nel 1700, che pero’ non era stato anticipato da nessun terremoto. Per moltissimi anni questo evento e’ rimasto un mistero al punto che, come anticipato, esiste tantissima documentazione storica che parla di questo Tsunami generato da niente.

In realta’, come scoperto solo pochi anni fa, lo Tsunami del 1700 fu generato proprio da un violento sisma, si pensa alcmeno M8.5, provocato dai movimenti delle placche della Cascadia. In quegli anni, la colonizzazione delle coste occidentali degli Stati Uniti era ancora molto scarsa per cui non esiste una vera e propria documentazione dall’altra parte del Pacifico.

La prova definitiva a sostegno del terremoto in Cascadia e’ venuta dallo studio dei reperti fossili nei terreni di fronte alla Cascadia e dallo studio delle cosiddette “foreste fossili”. Queste altro non sono che prove indirette dello Tsunami che ovviamente ha colpito anche le coste americane e canadesi. Per foreste fossili si intendono proprio i resti di alberi morti dopo essere stati sommersi delle acque salate dell’oceano. In questi casi, si osservano dei tronchi che restano al loro posto ma che muoiono tutti improvvisamente allo stesso istante. Proprio la presenza di queste foreste fossili el a datazione fatta studiando i tronchi ha permesso di datare lo Tsunami in corrispondenza dell’evento orfano sulle coste giapponesi.

Per chiudere, tutta la zona intorno all’Oceano Pacifico e’ altamente sismica e molto strutturata dal punto di vista geologico:

Cintura di Fuoco nell'Oceano Pacifico

Cintura di Fuoco nell’Oceano Pacifico

Come si vede dall’immagine, questa zona e’ comunemente detta”cerchio di fuoco”. Il nome deriva ovviamente dalla presenza di numerosi vulcani generati e alimentati proprio dai continui movimenti tellurici di subduzione e che interessano tutte le coste dell’Oceano Pacifico. L’ultima grande eruzione che si riporta e’ quella del 1980 avvenuta nell’isola di Sant’Elena, anche questa formata in realta’ da un vulcano molto attivo e potenzialmente pericoloso.

Concludendo, oltre alla gia’ citata Faglia di Sant’Andrea, negli ultimi anni molto si sta discutendo della Cascadia. Questa zona e’ interessata da fenomeni di subduzione dovuti al moviemnto di diverse placche in continuo e lento spostamento. Ad oggi, si pensa che questa zona potrebbe generare terremoti di altissima magnitudo ogni 250-350 anni. Dal momento che l’ultimo grande sisma, come scoperto studiando il conseguente Tsunami in Giappone, e’ avvenuto nel 1700, un nuovo sisma potrebbe avvenire nel giro di 50 anni da oggi. Al solito, stiamo parlando di statistica e analisi storiche, studi interessanti, che ci fanno capire tante cose, ma che non possono, in alcun caso, essere utilizzati per fare previsioni sui terremoti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Se arrivasse il “Big One”?

7 Giu

In quella che ormai e’ divenuta un laboratorio di creativita’, a mio avviso molto ben riuscito, cioe’ la sezione:

Hai domande o dubbi?

e’ stato lasciato un commento molto interessante e che ben si sposa anche con le tematiche trattate in questi giorni, sia negli articoli che nei commenti. La richiesta riguarda direttamente il cosiddetto Big One, cioe’ il grande terremoto che dovrebbe avvenire in California e che, secondo molte fonti, sarebbe atteso nel giro di poco tempo.

Di terremoti ne abbiamo parlato in tantissimi articoli e, come visto, questi fenomeni sono da sempre molto seguiti dai tanti catastrofisti che popolano la rete, soprattutto in relazione alle cause che determinerebbero un aumento del loro numero. Come ormai sapete bene, l’idea di fondo, nata a partire dal 21 Dicembre 2012, vorrebbe l’aumento dei terremoti dovuto all’avvicinamento di Nibiru al pianeta Terra. Secondo queste ipotesi, la variazione dell’equilibrio gravitazionale apportato da questo nuovo corpo, provocherebbe il fenomeno delle “maree solide”, cioe’ sarebbe in grado di modificare gli equilibri delle faglie e generare dunque terremoti di notevole intensita’. Cercando sul blog, potete trovare molti articoli che parlano, ma soprattutto rigettano, queste ipotesi, semplicemente mostrando l’impossibiita’ in termini fisici di variazioni di questo tipo:

Allineamento con le Pleiadi

Allineamenti, Terrremoti e … Bendandi

Allineamenti e Terremoti

3 Gennaio 2013 …

Ora, nonostante questo, la zona della California e’ da sempre molto attiva dal punto di vista sismico, e da diversi anni si parla di quello che gli americani definiscono il Big One, cioe’ “quello grosso”, intendendo il terremoto piu’ internso mai registrato, in grado praticamente di demolire tuto lo stato.

Faglia di Sant'Andrea in California

Faglia di Sant’Andrea in California

Come noto, le cause della notevole attivita’ della California possono essere ricercate nella Faglia di Sant’Andrea, che si trova tra la placca Nord Americana e quella Pacifica, attraversando per circa 1300 Km la regione. Questa faglia ha dato luogo a diversi fenomeni sismici nel corso dei secoli, grazie anche alle ottime proprieta’ di accumulare energia elastica. Come noto, quando questa energia supera, ad esempio, la fratturazione degli strati rocciosi, si generano i terremoti.

Dal punto di vista morfologico, l’arrivo del Big One, con un sisma superiore a M8 della scala Richter, e’ atteso nella zona meridionale della California, dal momento che questa e’ quella in cui da maggior tempo non si verificano eventi sismici di notevole intensita’.

Quando dovrebbe avvenire questo Big One?

Sulla rete trovate tantissime ipotesi. Vi invito pero’ a fare una riflessione: come detto innumerevoli volte, allo stato attuale della nostra conoscenza, non siamo in grado di prevedere i terremoti. Di questi argomenti abbiamo parlato tante volte e, come visto, la ricerca dei precursori sismici, cioe’ di quegli eventi che potrebbero precedere l’avvento di un sisma, e’ un filone molto attivo e sicuramente rilevante per la nostra societa’. Purtroppo, al giorno d’oggi, non siamo ancora stati in grado di definire un precursore certo, cioe’ la cui manifestazione indichi certamente un sisma in arrivo.

Premesso questo, si possono leggere tante previsioni sul Big One, alcune piu’ precise, altre un po’ meno. In generale, la piu’ quotata e’ che il terremoto dovrebbe avvenire nei prossimi 20 anni. Si parlava di 30 anni nel 2005.

Come vengono fatte queste previsioni?

Ovviamente, una buona parte delle informazioni viene dalle osservazioni scientifiche della Faglia di Sant’Andrea. Misure interessanti vengono fatte misurando i movimenti della crosta terrestre mediante osservazioni satellitari. Come anticipato, queste osservazioni possono fornire una stima della quantita’ di energia accumulata nella Faglia e dunque far intendere l’inizio di una fase piu’ critica. Oltre a questa osservazione, c’e’ ovviamente un intenso sistema di monitoraggio delal zona che serve per raccogliere moltissimi dati in continuo, utili per determinare variazioni repentine di parametri fisici e geologici, anche questi utili per capire modificazioni intense del sottosuolo.

Altre previsioni vengono invece fatte utilizzando la statistica. Di questo ambito, abbiamo parlato in diverse occasioni. Anche se parlo da appassionato di statistica, si deve capire che queste previsioni lasciano il tempo che trovano, essendo basate solo sulla storicita’ degli eventi. Come visto in questi articoli:

Prossimi terremoti secondo la statistica

Analisi statistica dei terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Terremoti: nuove analisi statistiche

utilizzando i dati raccolti, e’ possibile studiare una ciclicita’ degli eventi e determinare una certa probabilita’ di avere un terremoto in un periodo futuro. Purtroppo, molto spesso, queste informazioni vengono interpretate in malo modo da chi la statistica non la conosce affatto. Esempio di questo tipo e’ l’articolo:

Non ne bastava uno ….

Anche per il Big One, trovate fonti che parlano di probabilita’ praticamente del 100% che il terremoto avvenga, ad esempio, tra il 2015 e il 2020. Come deve essere interpretato il dato? La chiave giusta per leggere queste informazioni e’ quella di trattarle un po’ come i numeri ritardatari del lotto. Mi spiego meglio. Se entrate in una ricevitoria, trovate molti cartelli con i “numeri ritardatari”, cioe’ quei numeri che da molte estrazioni non vengono pescati in un determinata ruota. Se un numero manca da tanto tempo, deve uscire necessariamente? Assolutamente no, pero’, se ci fidiamo che i numeri abbiano tutti la stessa probabilita’ di venire pescati, allora statisticamente devono uscire tutti. Dunque, un numero ritardatario prima o poi deve uscire. Questo prima o poi, e’ la chiave dell’interpretazione. Prima o poi, non significa domani, cosi’ come non significa che un “terremoto ritardatario” rispetto alla norma debba necessariamente avvenire. Se volete, il discorso sismi e’ molto piu’ complesso del gioco del lotto, anche perche’ non parliamo di eventi casuali, ma determinati da movimenti del nostro pianeta.

Detto questo, capite dunque come vanno interpretati questi numeri, utilissimi per fare studi e, ad esempio, dimostrare che non c’e’ nessun aumento di terremoti negli ultimi anni, ma assolutamente da prendere con le pinze quando parliamo di previsioni future.

In ambito prevenzione, ci sono anche molte osservazioni interessanti che vengono fatte per capire se e’ possibile arginare i movimenti della Faglia e dunque limitare i danni dei futuri terremoti. In tale ambito, sono stati riportati dati molto interessanti ottenuti direttamente dall’osservazione in profondita’ della faglia. Come osservato, lunga la frattura si trova la citta’ di Parkfield in cui pero’, storicamente, non avvengono terremoti di forte intensita’, anche se questa si trova lungo la stessa “linea di fuoco” di citta’ bersagliate dai sismi. Le osservazioni fatte hanno permesso di individuare una zona della frattura in cui sono presenti materiali diversi ed in grado di limitare l’attrito tra le placche in scorrimento. Cosa significa? Se, per qualche motivo, diminuisce l’attrito tra le due zone che scorrono tra loro, ovviamente si limita l’accumulo di energia elastica e, dunque, detto in parole semplici, il caricamento del terremoto. Le osservazione fatte hanno mostrato la presenza, tra le altre cose, di silicati gelatinosi e acqua, in grado di ridurre gli attriti. Molti studi sono in corso proprio per cercare di capire la possibilita’ di limitare la potenza dei terremoti andando ad agire direttamente nella zona dove questi si generano. Ovviamente si tratta di studi scientifici, ma che vanno sicuramente sostenuti vista l’utilita’ che potrebbero avere. Magari, un giorno, potremo risolvere il problema terremoti “oliando” i cigolii della Terra.

Concludendo, la zona della California e’ da sempre una delle piu’ attive dal punto di vista dei sismi. Per Big One si intende il piu’ grande terremoto atteso, in grado di distruggere l’intera regione. Purtroppo, questo terremoto potrebbe avvenire e c’e’ la possibilita’, come evidenziato da molti studi, che questo possa avvenire da un momento all’altro nei prossimi 20 anni. La ricerca e’ sempre al lavoro per cercare di trovare precursori sismici e, come visto, anche possibili soluzioni in grado di limitare la potenza dei terremoti agendo direttamente sulla faglia. Speriamo solo che soluzioni percorribili arrivino magari prima dell’atteso Big One.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E-Cat meraviglia o grande bufala?

30 Mag

Viste le numerose richieste di informazioni, chiarimenti e spiegazioni che ho ricevuto, ho deciso di scrivere questo articolo sull’E-Cat. Perche’ non l’ho fatto prima? Semplicemente perche’, a mio avviso, e ne riparleremo dopo, mancavano dei presupposti essenziali per parlare di questa presunta invenzione in termini scientifici.

Ora cosa e’ cambiato?

A parte le numerose richieste ricevute, la rete e’ letteralmente esplosa in questi giorni perche’ sembrerebbe che finalmente sia arrivata la dimostrazione indipendente del funzionamento di questo prodigio.

Bene, analizziamo i fatti e cerchiamo di capire meglio di cosa stiamo parlando.

Per chi non lo sapesse, l’E-Cat e’ una presunta invenzione di Andrea Rossi che produrrebbe energia in un modo non noto. Mi spiego meglio. Si tratta di una sorta di generatore, alimentato da corrente elettrica, che pero’ produce piu’ energia di quanta ne assorbe. E’ strano questo? Assolutamente no. Non pensate che si stia violando qualche principio fisico basilare, semplicemnte si potrebbe sfruttare una qualche reazione chimica, fisica o sconosciuta mediante la quale si innescano dei processi esoenergetici, cioe’ che producono energia.

Poiche’ questo punto e’ molto importante, cerchiamo di capirlo bene e in modo semplice. Prendiamo, ad esempio, la fissione nucleare. Mediante questo proceso, nuclei di elementi fissili vengono spaccati in elementi piu’ leggeri, mediante neutroni, producendo energia. Ora, per produrre i neutroni da sparare avete bisogno di energia, ma quella che otteete alla fine del processo e’ maggiore di quella che avete speso, perche’ siete riusciti ad estrarre un’energia dall’interno del nucleo. Avete creato qualcosa dal nulla? No, avete semplicemente sfruttato un processo per produrre questa energia traformandola in qualcosa di utilizzabile ai vostri scopi.

Bene, l’invenzione di Rossi dovrebbe fare un qualcosa di equivalente. L’invenzione promette infatti di produrre molta piu’ energia di quella che deve essere immessa, sfruttando un processo, almeno al mometo, sconosciuto.

Qual e’ il carburante dell’E-Cat? Piu’ o meno il sistema funziona in questo modo: mettendo insieme Nichel e Idrogeno e fornendo un’energia iniziale al sistema, si dovrebbe innescare una reazione fortemente esoenergetica, in cui viene prodotta 5 o 6 volte piu’ energia. Attenzione pero’, gli ingredienti non bastano. Per poter funzionare, c’e’ bisogno anche di un catalizzatore da aggiungere al miscuglio Ni-H, tenuto segreto per motivi di spionaggio industriale.

Perche’ spionaggio industriale? Semplice, parlando di E-Cat, non stiamo parlando di una ricerca scientifica, bensi’ di una invenzione che deve essere lanciata sul mercato. Detto in altri termini, che deve essere venduta.

Quasta cosa ci sconvolge? Assolutamente no. Chiunque di noi puo’ pensare ad un’invenzione commerciale fattta esclusivamente per guadagnare. Non c’e’ nulla di male in questo, purche’, come vedremo, ci siano tutti i presupposti di affidabilita’ dell’invenzione.

Per chi gia’ conoscesse l’E-Cat, notate che ho parlato di una misteriosa reazione. Su molti giornali e siti internet, vedete che si parla di “fusione fredda” o “reazione nucleare a bassa energia”, ho omesso appositamente di tirare in causa questi concetti. Perche’? La fusione nucleare e’ quel processo secondo il quale dei nuclei leggeri vengono fusi tra loro per produrne uno piu’ grande, producendo energia. Questa ‘e la reazione utilizzata dal sole e dalle stelle per produrre energia, ed e’ quella a cui si vorrebbe puntare per sostituire le centrali nucleari a fissione. Il motivo e’ molto semplice, favorevoli o meno al nucleare, il punto piu’ discusso su queste tematiche e’ quello della produzione di scorie, cioe’ elementi nucleari di scarto con vite medie lunghe, cioe’ che restano attivi per molto tempo.

Qual e’ il problema principale della fusione?

Come detto, si devono fondere tra loro due nuclei leggeri per formarne uno pesante. Bene, cosa c’e’ dentro il nucleo? Neutroni, particelle neutre, e protoni, particelle di carica positiva. Come sappiamo bene, se avviciniamo due cariche dello stesso segno, come i protoni dei due nuclei, questi si respingono tra loro a causa della repulsione coulombiana. Ora pero’, se riuscissimo ad avvicinare moltissimo i due nuclei, si arriverebbe ad un punto in cui la forza nucleare forte, che e’ attrattiva, sarebbe molto maggiore della repulsione dovuta alle cariche elettriche, e i due nuclei si attirerebbero tra loro. Niente di complicato. Mentre li avvicinate, i due nuclei si respingono, quindi dovete spingerli con forza per farli avvicinare. Quando poi riuscite ad arrivare oltre una certa distanza, nota come barriera di Coulomb, a questo punto i due nuclei si attirano da soli e si innesca la fusione. Il problema delle centrali a fusione e’ proprio quello di trovare il modo piu’ conveniente ed efficace per fornire l’energia necessaria al superamento della barriera di Coulomb.

E la fusione fredda?

Come detto, parlando di fusione si parla di processi ad altissima temperatura, come avviene nelle stelle. La fusione fredda invece avverrebbe a temperatura ambiente. Al contrario di quanto si legge spesso in rete, non esitono evidenze di reazioni di questo tipo. Storicamente, i primi a parlare di fusione fedda furono gli americani Fleischmann e Pons, cui seguirono altre prove. Per nessuna di queste pero’, esiste la certezza scientifica che si sia trattato realmente di una reazione nucleare di questo tipo e, ancora oggi, c’e una forte discussione a proposito.

Perche’ per l’E-Cat si parla di fusione fredda?

In diverse fonti si parla della reazione tra Nichel e Idrogeno che verrebbero fusi tra loro per produrre Rame. Questo sarebbe il processo che avverrebbe a bassa energia e che fornirebbe l’energia dell’E-Cat. Ripeto, non sono d’accordo su questo punto e a breve mostreremo anche il perche’.

Prima di tutto, rivediamo un po’ la storia di questo E-Cat. Nel 2011 si e’ iniziato a parlare di questo generatore quando Rossi ha condotto due test rendendo pubblici i risultati. In questi esperimenti, fornendo un’energia al macchinario intorno ai 35 KWh, si sarebbero prodotti in un caso 70 KWh, nell’altro 160 KWh. Stando ai numeri, la reazione sarebbe effettivamente esoenergetica e molto conveniente. Qual’era il problema di questi test? Semplicemente, non ci sono prove scientifiche della validita’ dei risultati perche’ il tutto e’ stato condotto in maniera autonoma e senza un confronto indipendente. Cosa significa? Ai test sono stati invitati giornalisti rigorosamente selezionati, in veste di spettatori. Mi spiego meglio. I giornalisti sono stati invitati in questo capannone e hanno potuto vedre e filmere il test di Rossi riportando solo ed esclusivamente quelllo che l’inventore del macchinario affermava.

Ora, vedetela in questo modo. Un signore vi invita ad una dimostrazione in cui vi mostra una scatola nera in cui mette 10 euro e dall’altra parte ne escono 20. Basta, non vi viene detto altro ne’ vi vengono forniti dettagli su cosa c’e’ dentro la scatola. Non parlo a caso di scatola nera, infatti, molte delle parti dell’apparecchiatura sono tenute coperte e chiuse alla vista. Ovviamente, si tratta dei componenti fondamentali del sistema, incluso anche il misterioso catalizzatore che darebbe il via alla reazione.

Cosa dice la scienza a proposito? Come e’ facile immaginare, questo risultato non e’ stato accettato dalla comunita’ scientifica. Per sostenere qualcosa di questo tipo, seguendo i canoni della scienza, si dovrebbe mostrare il macchinario, studiare la reazione che avviene e il tutto deve essere ripetibile ovunque nelle stesse condizioni. Se queste informazioni mancano, il test e’ del tutto simile a quello di un’illusionista che vi mostra l’assistente tagliata in due all’interno di una scatola.

Come forse sapete, a seguito di questi test, e del completo rifiuto della scienza su questi risultati, Rossi e’ divenuto un “mito telematico”, metafora di quel genio che trova l’invenzione del secolo per il bene dell’umanita’ e a cui la scienza mette i bastoni tra le ruote perche’ corrotta dalle grandi multinazionali.

Se invece di gridare allo scandalo, si ragionasse su quanto detto, tutti si renderebbero conto che affermazioni di questo tipo non possono essere credibili se non verificate sperimentalmente. Il problema energetico dell’umanita’ non si risolve con la fiducia sulla parola, ma con numeri chiari verificabili e indiscutibili.

Perche’ ora, come anticipato, si parla di verifica indipendente? Nei mesi scorsi sarebbero stati condotti altri test. Questa volta pero’, avrebbero partecipato anche scienziati di diverse parti del mondo che avrebbero assistito agli esperimenti. Anche in questo caso, i risultati avrebbero mostrato un guadagno energetico del processo, confermando dunque la correttezza del metodo su cui si basa l’E-Cat.

Attenzione, facciamo una considerazione. Come premesso, in ambito commerciale, e’ lecito parlare di segreto industriale. Le regole del commercio sono diverse da quelle della scienza. A mio avviso, se il tutto venisse mostrato ad un gruppo di scienziati affidabili ed in grado di fornire un’opinione scientifica, sicuramente il test acquisterebbe di credibilita’. Purtroppo, non e’ andata cosi’.

L’altro punto fondamentale su cui si e’ dibattuo a lungo e’ la mancanza di una “peer review” sull’esperimento. Cosa significa? Quando si pubblica un articolo su una qualche rivista internazionale, si passa attraverso il processo di “referaggio”. Prima di pubblicare il lavoro, la rivista nomina un altro ricercatore internazionale di chiara fama ed esperto del settore che ha il compito di analizzare in dettaglio il contenuto dell’articolo. Se ci sono punti poco chiari, l’esperto puo’ chiedere maggiori spiegazioni al fine di chiarire il tutto ed evitare, nella migliore delle ipotesi, errori sfuggiti agli autori. Solo al termine di questo processo il vostro lavoro, se accettato, viene pubblicato.

Partendo proprio da questo punto, gli ultimi test seguiti dal gruppo di scienziati avrebbero risolto anche questo problema.

Perche’?

Solo pochi giorni fa, e’ stato pubblicato un articolo sull’archivio della Cornell University, che trovate a questo link:

ArXiv E-Cat

A questo punto, tutti i dubbi iniziali dovrebbero essere risolti: il test e’ stato eseguito indipendentemente da un gruppo di ricercatori e questi hanno anche pubblicato un articolo, ovviamente confermando i risultati dei primi test.

Cosa c’e’ che non va?

Prima di tutto, quello di cui vi ho dato il link, non e’ un articolo su rivista internazionale che ha subito un processo di peer review. Il database in questione e’ semplicemente un archivio di articoli in cui i ricercatori possono mettere i loro lavori. Non c’e’ nessun controllo sul contenuto degli articoli, a parte la buona fede dei ricercatori stessi. Generalmente, almeno nel campo della fisica, i lavori vengono caricati su arXiv prima che questi vengano pubblicati sulle riviste, cioe’ mentre e’ in corso il processo di review. Detto questo, non e’ assolutamente risolto il problema del peer review per l’E-Cat.

Purtroppo, neanche la prima critica e’ stata risolta. Come potete leggere nel testo dell’articolo, non si e’ trattato assolutamente di una verifica indipendente, ma solo di uno spettacolino riservato a persone esperte del settore. Cosa significa? Nei primi test erano stati invitati dei giornalisti, ora dei ricercatori, ma lo svolgimento e’ stato esattamente lo stesso. I ricercatori non hanno potuto toccare nulla, ma si sono limitati a guardare il test condotto da Rossi nei suoi laboratori. Inoltre, molte delle parti del sistema su cui si era discusso, sono rimaste chiuse all’interno di scatole nere in cui era impossibile guardare dentro e, come e’ facile pensare, tra queste vi era anche il misterioso catalizzatore. L’articolo di cui stiamo parlando e’ dunque un insieme di osservazioni e considerazioni fatte dai ricercatori.

Cosa e’ cambiato rispetto al passato? Ovviamente, i ricercatori intervenuti hanno potuto misurare il calore in uscita mediante una termocamera, valutando in questo modo sia la potenza in uscita che quella in ingresso utilizzando sistemi elettrici. A parte al correttezza o meno di questo processo indiretto e della valutazione dell’incertezza ottenuta misurando la potenza con una termocamera, non  si e’ assolutamente trattato di una prova “indipendente”.

C’e’ anche qualche altra considerazione importante da fare. Come detto in precedenza, a mio avviso non si e’ trattato di fusione fredda. Un processo di questo tipo necessariamente producce radiazione in uscita. Effetto non riportato in nessun caso e impossibile da schermare in sistemi di questo tipo. Tra l’altro, conosco personalmente uno dei ricercatori intervenuti ed e’ un esperto di radioprotezione dell’Universita’ di Uppsala in Svezia.

Oltre a questo, la quantita’ d rame che si sarebbe prodotta corrisponderebbe ad un rendimento del sistema molto piu’ alto di quello che ci si aspetta e soprattutto il rame in questione sarebbe non eterogeneo, cioe’ mancano isotopi diversi dalla forma piu’ commerciale e abbondamente in natura.

Ulima considerazione scientifica, dal punto di vista energetico, la fusione di nichel e idrogeno sarebbe possibile e verrebbe prodotto rame, ma la barriera coulombiana per questi nuclei e’ elevatissima. Questo solo per dire che un processo del genere a bassa energia e’ scientificamente molto difficile da digerire. Teoricamente si potrebbe citare l’effetto tunnel, ma questo non spiegherebbe neanche la certezza della reazione di fusione cosi’ come altri processi quantistici non deterministici.

Concludendo, alla luce delle considerazioni fatte e degli ultimi aggiornamenti, non pssiamo assolutamente affermare che l’E-Cat sia un sistema reale e che possa essere accettato dalla scienza. Questo non significa che potrebbe esistere questo generatore in grado di fare quello che Rossi promette. Semplicemente, se anche esistesse, non e’ comprensibile la reazione su cui sarebbe basato e soprattutto mancano dati certi su cui ragionare e da cui estrarre certezze scientifiche. Al momento, almeno secondo me, siamo ancora al livello dll’illusionista che taglia l’assistente con la sega.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.