Tag Archives: forte

Il suono più forte mai udito!

12 Ott

Dopo questo articolo:

Il suono del vinile

vi riporto la seconda domanda che mi è stata posta in questi giorni via mail da alcuni nostri lettori. La domanda in realtà è una richiesta di conferma circa un articolo pubblicato da Pianeta Blu News, che cito senza problemi e che, come già detto, vi consiglio di visitare, che in questo pezzo:

Pianeta Blu, Krakatoa

afferma che il suono più forte mai udito in epoca moderna dall’uomo è quello che si è generato in occasione dell’eruzione del vulcano Krakatoa il 27 agosto 1883.

Vi premetto subito che quanto affermato nell’articolo è assolutamente corretto. In occasione di questa eruzione esplosiva, venne generato un boato che oggi possiamo stimare di 172 decibel fino a 160 Km di distanza.

Per darvi una stima di quanto potente sia un rumore di 172 decibel proviamo a fare degli esempi pratici utili per confrontare questi valori espressi in una scala poco familiare ai più.

Per prima cosa, se vogliamo essere formali dal punto di vista scientifico, in acustica si utilizzano i dB_SPL per indicare il livello di pressione acustica. Questa definizione è alquanto intuitiva se pensiamo che i suoni che noi udiamo sono semplicemente prodotti dalla pressione dell’aria che giuge ai nostri timpani mettendoli in vibrazione. Utilizzando questa unità di misura, wikipedia riporta una tabella molto istruttiva con diverse fonti sonore accompagnate con il corrispondente suono in dB_SPL:

dBSPL Sorgente
300 Eruzione del Krakatoa nel 1883
250 All’interno di un tornado
180 Razzo al decollo
140 Colpo di pistola a 1 m, auto di Formula 1
130 Soglia del dolore
125 Aereo al decollo a 50 m
120 Sirena,
110 Motosega a 1 m
100 Discoteca, concerto rock
90 Urlo, fischietto
80 Camion pesante a 1 m
70 Aspirapolvere a 1 m; radio ad alto volume
60 Ufficio rumoroso, radio, conversazione
50 Ambiente domestico; teatro a 10 m
40 Quartiere abitato, di notte
30 Sussurri a 1 m
20 Respiro umano
0 Soglia dell’udibile
-9 Camera anecoica

Considerando che la scala in dB è una scala logaritmica, c’è una notevole differenza, ad esempio, tra l’eruzione del Krakatoa e il rumore prodotto da un razzo al decollo, facilmente identificabile come un suono di notevole intensità.

Detto questo, sempre per farvi capire il livello del suono prodotto dall’esplosione del Krakatoa, pensate che il boato venne udito chiaramente fino a 5000 km di distanza. Chiunque si fosse trovato ad una distanza inferiore ai 100Km, come accaduto ad alcuni occupanti di una nava di passaggio nei pressi dell’isola, avrebbe avuto danneggiamenti permanenti ai timpani.

Anche se l’eruzione del vulcano non causò morti direttamente, le conseguenze dell’esplosione furono devastanti. Ad oggi, si stimano circa 36000 morti dovuti in larga parte al successivo Tsunami, di 45 metri, che si creò.

Esistono anche delle curiosità molti interessanti sull’eruzione del Krakatoa. Durante l’esplosione, vennero riversati in atmosfera 21 kilometri cubi di roccia e fumi. Queste emissioni, modificarono a lungo non solo la zona dell’eruzione, ma portarono conseguenze all’intero pianeta. Per farvi un esempio, l’illustratore britannico William Ashcroft notò in quel periodo che i colori dei tramonti visibili dalla sua cittadina, vicina a Londra, erano cambiati. Il motivo di questo è oggi molto comprensibile. L’enorme quantità di sedimenti rilasciati in atmosfera, provocarono effetti ottici alla luce solare, visibili chiaramente durante il tramonto che prese colori più accesi verso il rosso. Ashcroft dipinse diversi quadri dei tramonti dell’epoca e, ancora oggi, queste illustrazioni sono studiate dai climatologi per ottenere informazioni circa l’eruzione del vulcano Krakatoa.

Ecco una delle illustrazioni di William Ashcroft:

Opera di William Ashcroft

Opera di William Ashcroft

Solo per concludere, secondo alcuni esperti, anche un altro famoso dipinto riporterebbe colorazioni molto accese non per enfatizzare il tema trattato ma solo perchè quelli erano i colori visibili al momento della realizzazione. Sapete quale? Questo:

Munch, L'Urlo

Munch, L’Urlo

L’urlo di Munch, realizzato nel 1893, 10 anni dopo l’eruzione, sarebbe una “fotografia” dei reali colori del tramonto norvegese, resi più brillanti dall’eruzione del Krakatoa.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo che si dissolve “improvvisamente”

21 Mar

Nella sezione:

Hai domande o dubbi?

una nostra cara lettrice ci ha chiesto lumi su una notizia apparsa in questi giorni sui giornali che l’ha lasciata, giustamente dico io, un po’ perplessa. La notizia in questione riguarda l’annuncio fatto solo pochi giorni fa della nuova misura della massa del quark top.

Perche’ questa notizia avrebbe suscitato tanto clamore?

Senza dirvi nulla, vi riporto un estratto preso non da un giornale qualsiasi, che comunque a loro volta hanno copiato da qui, ma dalla principale agenzia di stampa italiana:

Il più pesante dei mattoni della materia, il quark top, ha una misura più precisa e la sua massa, con quella del bosone di Higgs, potrebbe essere la chiave per capire se viviamo in un universo instabile, al punto di dissolversi improvvisamente.

Universo che si dissolve “improvvisamente”?

Vi giuro che vorrei mettermi a piangere. Solo pochi giorni fa abbiamo parlato di tutte quelle cavolate sparate dopo l’annuncio della misura di Bicep-2:

Ascoltate finalmente le onde gravitazionali?

Due notizie cosi’ importanti dal punto di vista scientifico accompagnate da sensazionalismo catastrofista nella stessa settimana sono davvero un duro colpo al cuore.

Al solito, e come nostra abitudine, proviamo a spiegare meglio l’importanza della misura ma, soprattutto, cerchiamo di capire cosa dice la scienza contrapposto a quello che hanno capito i giornali.

In diversi articoli abbiamo parlato di modello standard discutendo la struttura della materia che ci circonda e, soprattutto, presentando quelle che per noi, ad oggi, sono le particelle fondamentali, cioe’ i mattoni piu’ piccoli che conosciamo:

Due parole sull’antimateria

Piccolo approfondimento sulla materia strana

Bosone di Higgs …. ma che sarebbe?

Se ci concentriamo sui quark, vediamo che ci sono 6 componenti che, come noto, sono: up, down, strange, charm, bottom e top. Come gia’ discusso, i primi due, up e down, sono quelli che formano a loro volta protoni e neutroni, cioe’ le particelle che poi formano i nuclei atomici, dunque la materia che ci circonda.

Bene, il quark top e’ il piu’ pesante di questi oltre ad essere l’ultimo ad essere stato scoperto. Il primo annuncio di decadimenti con formazione di quark top e’ stato fatto nel 1995 grazie alla combinazione dei risultati di due importanti esperimenti del Fermi National Accelerator Laboratory di Batavia, nei pressi di Chicago. A questi esperimenti, oggi in dismissione, ma la cui analisi dei dati raccolti e’ ancora in corso, partecipavano e partecipano tuttora moltissimi fisici italiani dell’Istituto Nazionale di Fisica Nucleare.

La cosa piu’ sorprendente del quark top e’ la sua enorme massa, circa 170 GeV, che lo rende la particella elementare piu’ pesante mai trovata. Per darvi un’idea, il top e’ circa 180 volte piu’ pesante di un protone con una massa paragonabile a quella di un atomo di oro nel suo complesso. Il perche’ di una massa cosi’ elevata e’ una delle chiavi per capire i meccanismi che avvengono a livello microscopico e che, come e’ normale pensare, determinano il comportamento stesso del nostro universo.

Bene, cosa e’ successo in questi giorni?

Come avete letto, nel corso della conferenza:

Rencontres de Moriond

che si svolge annualmente a La Thuille in Val d’Aosta, e’ stata presentata una nuova misura della massa del quark top. Prima cosa importante da dire e’ che la misura in questione viene da una stretta collaborazione tra i fisici di LHC e quelli che analizzano i dati del Tevatron, cioe’ il collissore dove nel 1995 fu scoperto proprio il top. Queste due macchine sono le uniche al mondo, grazie alla grande energia con cui vengono fatti scontrare i fasci, in grado di produrre particelle pesanti come il quark top.

Dalla misurazione congiunta di LHC e Tevatron e’ stato possibile migliorare notevolmente l’incertezza sulla massa del top, arrivando ad un valore molto piu’ preciso rispetto a quello conosciuto fino a qualche anno fa.

Cosa comporta avere un valore piu’ preciso?

Come potete immaginare, conoscere meglio il valore di questo parametro ci consente di capire meglio i meccanismi che avvengono a livello microscopico tra le particelle. Come discusso parlando del bosone di Higgs, il ruolo di questa particella, e soprattutto del campo scalare ad essa associato, e’ proprio quello di giustificare il conferimento della massa. Se il  top ha una massa cosi’ elevata rispetto agli altri quark, il suo meccanismo di interazione con il campo di Higgs deve essere molto piu’ intenso. Inoltre, il quark top viene prodotto da interazioni forti, ma decade con canali deboli soprattutto producendo bosoni W. Non sto assolutamente cercando di confondervi. Come visto negli articoli precedenti, il W e’ uno dei bosoni messaggeri che trasportano l’interazione debole e che e’ stato scoperto da Carlo Rubbia al CERN. Detto questo, capite come conoscere con precisione la massa del top, significhi capire meglio i meccanismi che avvengono tra top, W e campo di Higgs. In ultima analisi, la conoscenza di questi modelli e’ fondamentale per capire perche’, durante l’evoluzione dell’universo, si sono formate particelle cosi’ pesanti ma anche per capire se esistono meccanismi di decadimento non ancora considerati o anche effetti, come vengono definiti, di nuova fisica che possono mettere in discussione o integrare il modello standard delle particelle.

Concludendo, la spiegazione della frase “universo che si dissolve improvvisamente” non significa nulla. Una misura piu’ precisa della massa del top implica una migliore conoscenza dei modelli ora utilizzati e soprattutto apre le porte per capire meglio cosa e’ avvenuto durante durante i primi istanti di vita dell’universo. Al solito pero’, anche sulla scia del tanto citato annuncio di Bicep-2, si e’ ben pensato di sfruttare l’occasione e trasformare anche questa importante notizia in un teatrino catastrofista. Per chi interessato ad approfondire, vi riporto anche il link di ArXiv in cui leggere l’articolo della misura in questione:

ArXiv, quark top

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fusione, ci siamo quasi?

17 Feb

La chimera della produzione di energia attraverso processi nucleari e’ senza ombra di dubbio la fusione. Come sappiamo, detto in modo improprio, possiamo pensare a questo processo come qualcosa di inverso alla Fissione. Se in quest’ultimo caso, un nucleo atomico viene spezzato in due nuclei piu’ piccoli liberando energia, nella fusione abbiamo due elementi piu’ leggeri che vengono uniti in uno piu’ grande. Anche in questo caso, nel processo c’e’ un eccesso di energia che viene liberato verso l’esterno. Non si tratta di magia ma del bilancio energetico delle reazioni, facilmente calcolabile utilizzando i principi base della fisica nucleare.

Per la fissione, il processo e’ relativamente semplice ed in grado di autosostenersi. Quest’ultimo aspetto e’ fondamentale quando si considerano processi di questo tipo. Detto in altri termini, basta dare il “la” alla reazione per avere qualcosa in grado di autosostenersi autonomamente e continuare cosi’ a produrre energia. Come noto, siamo in grado di utilizzare questo processo molto bene sia con reazioni controllate nei reattori a fissione sia in modo non controllato attraverso la bomba atomica.

E per la fusione?

Qui il discorso e’ diverso. A partire dagli anni ’50, abbiamo iniziato a studiare queste reazioni per cercare di ottenere un bilancio positivo. Cosa significa? Prendete due nuclei leggeri. Per far avvenire la fusione dovete avvicinarli tra loro fino a formare qualcosa di piu’ grande. Semplice ma non scontato. Prendiamo il discorso in modo improprio ma comprensibile. Nei nuclei avete protoni e neutroni. Come ci hanno insegnato a scuola, se proviamo ad avvicinare cariche di uguale segno queste si respingono attraverso la forza coulombiana. Ma allora, perche’ nel nucleo i protoni sono fermi e tutti vicini tra loro? Avvicinando due particelle come i protoni, inizialmente avete la repulsione coulombiana dovuta alle cariche elettriche che tende ad allontanarle. Se resistete opponendovi a questa forza, vi accorgete che sotto una certa distanza interviene un’altra forza, questa volta attrattiva e molto piu’ intesa di quella dovuta alle cariche elettriche, la forza nucleare forte. Si tratta solo di un’altra interazione che pero’ agisce a distanze molto corte tra i nucleoni. La presenza dei neutroni nel nucleo serve proprio a tenere unito il nucleo stesso. Poiche’ i neutroni non hanno carica elettrica, non subiscono repulsione coulombiana mentre esercitano e subiscono l’interazione forte. Detto in altri termini, i neutroni fanno da collante per far si che la forza forte, attrattiva, vinca su quella coulombiana, repulsiva.

Bene, lo scopo del gioco della fusione e’ proprio questo. In qualche modo dobbiamo avvicinare i nuclei spingendoli fino a che la forza forte non diventi piu’ intensa di quella coulombiana. Sotto questo limite, ci sara’ un’attrazione spontanea che portera’ alla formazione di un nucleo piu’ pensate, rilasciando energia.

Qual e’ il limite nella produzione di energia da fusione? Ovviamente, dovete fare in modo che l’energia spesa per avvicinare i nuclei sia minore di quella che viene ceduta dopo la fusione. Questo e’ il famoso bilancio positivo di cui tanti parlano ma, lasciatemi dire, in pochi hanno veramente capito.

Di questi processi abbiamo parlato in diversi articoli mostrando le diverse tecniche che si stanno sperimentando nel mondo:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Contrapposti a questi, ci sono poi i diversi esperimenti per creare quella che viene definita “fusione fredda” e su cui tanta speculazione e’ stata fatta negli ultimi anni:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come detto e ripetuto piu’ volte, dobbiamo essere aperti di mente nei confronti di questi processi che pongono le loro radici in metodi scientifici conosciuti. Quello che pero’ manca, e’ una dimostrazione oggettiva che questi apparecchi, esempio su tutti l’E-Cat, siano veramente in grado di produrre energia in quantita’ maggiore di quella data in ingresso.

Perche’ torno nuovamente su questi argomenti?

Come forse avrete letto, solo pochi giorni fa e’ stato fatto un nuovo anuncio riguardante la ricerca sulla fusione nucleare. In un articolo pubblicato sulla rivista Nature, il NIF, National Ignition Facility, della California ha annunciato di aver ottenuto un bilancio positivo della reazione di fusione di isotopi di idrogeno in elio.

Del NIF abbiamo gia’ parlato nei precedenti articoli riportati sopra. Come sappiamo, in questo caso si utilizzano quasi 200 fasci laser per comprimere, mediante oro, atomi e isotopi di idrogeno, deuterio e trizio, per formare elio. Nel processo viene rilasciata l’energia della fusione.

Come capite bene, in questo caso il bilancio positivo si ha se l’energia rilasciata e’ maggiore di quella necessaria per far sparare nello stesso istante tutti i laser.

Nei primi anni di vita, il NIF ha rappresentato una grande speranza per la ricerca della fusione, attirando grandi finanziamenti. Finanziamenti che poi sono diminuiti quando i risultati ottenuti erano notevolmente inferiori alle aspettative.

Oggi, il NIF e’ riuscito ad ottenere per la prima volta un bilancio positivo, anche se solo minore dell’1%, rispetto all’energia richiesta per far andare i laser. Se proprio vogliamo dirla tutta, non siamo ancora contenti di questo risultato e saranno necessari tantissimi altri studi prima di poter gridare vittoria e prima di poter vedere la fusione utilizzata per la produzione di energia.

Come detto nell’introduzione, lo scopo di questo gioco e’ quello di tenere in qualche modo gli atomi fermi mentre li comprimiamo fino alla fusione. Nel NIF questo confinamento avviene sfruttando l’inerzia dei nuclei stessi e proprio per questo motivo si parla di “confinamento inerziale”. Diversamente, ad esempio per ITER, si cerchera’ di utilizzare forti campi magnetici per tenere i nuclei uniti, parlando di “confinamento magnetico”. La trattazione di questo aspetto non e’ affatto banale e rappresenta, a questo livello, un contributo assolutamente non trascurabile nel bilancio energetico finale della reazione.

Perche’ dico questo?

I risultati ottenuti dal NIF sono assolutamente ragguardevoli e sono un ordine di grandezza maggiore rispetto ai migliori risultati precedenti. Il bilancio positivo dell’1% non tiene pero’ conto dell’energia spesa per il confinamento. Questo per far capire quanto lavoro e’ ancora necessario.

La comunita’ scientifica della fusione, pone tutte le sue speranze, nel progetto internazionale ITER. Come sapete bene, in questo caso si parla di un vero e proprio reattore prototipale per la produzione di energia per fusione. Anche in questo caso, ci saranno diverse sfide tecnologiche da vincere ma la strada segnata dai successi degli ultimi anni non puo’ che farci ben sperare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La stella in laboratorio

3 Ott

Attraverso le pagine del forum di Psicosi 2012:

Psicosi 2012, forum

mi e’ stato segnalato un articolo molto interessante. Perche’ lo definisco in questo modo? Semplice, l’articolo e’ talmente assurdo che merita di essere presentato qui sul blog.

Come diceva un proverbio: “Dagli amici mi guardi Dio perche’ da nemici mi guardo io”. Cosa significa? Mentre siamo guardinghi nei confronti dei nostri nemici,  ci sentiamo tranquilli verso gli amici. A volte questo puo’ creare la condizione per poter essere, come si dice, accoltellati alle spalle.

Cosa voglio dire con queste parole? Mentre ormai abbiamo capito bene quali sono i siti complottisti e catastrofisti e, almeno spero, abbiamo imparato a leggerli con occhio attento e guardingo, a volte quelli che dovrebbero essere siti seri e scientifici si lasciano prendere un po’ troppo la mano.

Questo e’ purtroppo il caso di una notiizia apparsa su ben due noti giornali online nazionali che, copiandosi spudoratamente tra di loro, hanno finito per sparare cavolate veramente fuori dalla grazia del Signore.

Prima di tuttto, vi segnalo gli articoli in questione:

Articolo 1

Articolo 2

Potete anche leggerne uno solo, tanto le parole utilizzate sono le stesse, ergo, non so chi dei due, ha fatto copia/incolla.

Avete letto bene? I ricercatori dell’istituto americano NIF, stanno per accendere una stella in laboratorio. Una stella? Proprio cosi’ dicono gli articoli. Si tratta di un esperimento di fusione in cui sono stati utilizzati laser con una potenza di 500 Tera Watt, 500 mila miliardi di watt di potenza. Come recita l’articolo, questa potenza e’ pari a 1000 volte quella che gli Stati Uniti stanno consumando in quel momento.

Signori, scusate le sfogo, ma questa e’ disinformazione scientifica sulle pagine di giornali nazionali che pretendono di avere una sezione di scienze! Poi, non ci sorprendiamo quando le persone pensano che al CERN si creeranno buchi neri che distruggeranno la Terra. Dall’altra parte dell’oceano stanno creando una stella in laboratorio.

Finito il mio piccolo sfogo personale, vorrei passare a commentare questa notizia. Al contrario di quanto fatto sui giornali citati, per poter capire questa notizia, e’ necessario capire bene il campo in cui ci andiamo a muovere, cioe’ la fusione nucleare.

Cercando di mantenere un approccio semplice e divulgativo, tutti conoscono le centrali nucleari per la produzione di energia elettrica. Questi reattori funzionano attraverso la fissione nucleare, cioe’ la scissione di un nucleo pesante, il combustibile, in nuclei piu’ leggeri. Questo processo, oltre ai due nuclei figli, produce un eccesso di energia. Il processo si dice dunque esoenergetico perche’ rilascia energia.

Detto in modo molto improprio, il processo inverso a quello di fissione nucleare e’ quello di fusione. In questo caso, si prendono due nuclei leggeri per fonderli insieme e formare un nucleo piu’ pesante. Questo processo e’ conveniente solo per nuclei molto leggeri, in linea di principio fino al ferro. Come viene fatto il processo? Quelli che dovete avvicinare sono degli atomi. Come sapete, nel nucleo sono presenti protoni con carica positiva. Avvicinando tra loro due cariche di segno uguale, queste si respingono tra loro con una forza che aumenta al diminuire della distanza. Sotto una certa distanza pero’, la forza coulombiana repulsiva, cioe’ quella tra cariche elettriche, diviene piu’ piccola della cosiddetta forza nucleare forte. Questa interazione e’ molto intensa, ma solo a distanze molto piccole. Detto in altri termini, dovete comprimere molto i nuclei tra loro, fino ad arrivare al punto in cui questi si attirano grazie alla forza forte.

Questa caratteristica rende il processo di fusione nucleare molto difficile da realizzare o meglio, molto difficile da sfruttare. Come anticipato, si tratta di un processo che rilascia energia. Per poter comprimere i nuclei tra loro dovete pero’ spendere un certo quantitativo di energia in qualche forma. Bene, per poter sfruttare questo processo, o meglio per guadagnarci, dovete fare in modo che l’energia spesa per attivare il processo, quella di compressione, sia minore di quella che poi viene rilasciata dai nuclei che si fondono.

Una delle possibili e piu’ studiate reazioni di fusione nucleare e’ quella del deuterio con il trizio:

D + T → 4He (3,5 MeV) + n (14,1 MeV)

In questa reazione i due reagenti, che altro non sono che isotopi piu’ pesanti dell’idrogeno, vengono fusi per formare un nucleo di elio, detto anche particella alfa, liberando anche un neutrone di una certa energia.

Vedete bene il processo. Indipendentemente da quello che ognuno di noi pensa delle centrali nucleari a fissione, il processo di fusione risolve automaticamente il problema delle scorie. In questo caso, non abbiamo sottoprodotti radioattivi a lunga vita media. Proprio per questo motivo, la costruzione di centrali di questo tipo e’ vista come la chimera della fisica nucleare e da diversi anni sono in corso ricerche per cercare di rendere il processo di fusione conveniente dal punto di vista energetico.

Il punto cruciale di questi studi e’ ovviamente come innescare il processo, cioe’ come far avvicinare tra loro i nuclei per far partire la fusione. Il caso visto negli articoli da cui siamo partiti e’ il cosiddetto confinamento inerziale ad ignizione laser. Detto in parole semplici, si utilizzano fasci laser per riscaldare e comprimere i nuclei e far partire la fusione.

Bene, a questo punto siamo in grado di rileggere gli articoli e di capire veramente quello che e’ successo nei laboratori del NIF.

Il laboratorio in questione utilizza 192 fasci laser per riscaldare e comprimere un sferetta di deuterio-trizio. Il numero elevato di laser serve prima di tutto per avere l’energia necessaria ma anche per poter riscaldare uniformemente la sfera di combustibile. Ovviamente, non serve irradiare continuamente il composto, ma e’ necessario che in un tempo molto breve l’energia arrivi tutta insieme sul campione. Quindi, proprio per questo si utilizzano fasci impulsati, cioe’ raggi molto intensi ma molto brevi nel tempo. Questo spiega l’enorme potenza in gioco. Data un’energia del fascio, tanto piu’ corto e’ il raggio, maggiore sara’ la potenza in gioco. Esattamente come in fisica definite la potenza come il rapporto tra lavoro e tempo per compierlo. Capite dunque da dove viene fuori quel valore enorme di 500 terawatt di potenza. Secondo voi, se fosse necessario avere 1000 volte la potenza che gli USA stanno consumando in quell’istante, chi sarebbe in grado di alimentare i laser? Nella migliore delle ipotesi, acceso il sistema salterebbe la corrente a tutti gli Stati Uniti. Direi che quanto affermato e’ quantomeno azzardato e dimostra la totale non conoscenza di quello che si sta raccontando.

Poi, cosa dice l’articolo? A questo punto, il sistema implode e si accende una stella.

Capiamo bene, perche’ implode? Lo schema semplificato del processo di fusione che avviene e’ questo:

Il meccanismo di ignizione laser per la fusione nucleare

Il meccanismo di ignizione laser per la fusione nucleare

Per compressione interna, si ha un implosione cioe’ un collassamento dei nuclei verso l’interno. Da come viene raccontato nell’articolo, sembra che ci sia una deflagrazione in laboratorio.

Poi si accende una stella ….

Perche’? Anche qui, si tratta di un’assurdita’ letta scopiazzando in giro. Il processo di fusione e’ quello grazie alla quale, ad esempio, le stelle producono la loro energia. Il nostro sole “funziona” grazie alla fusione degli atomi di idrogeno in elio. Quando si parla di processo vitale del sole e di passaggio allo stadio successivo, ci si riferisce proprio al momento in cui il combustibile finira’. Inoltre, se si vede la pagina Wikipedia dedicata al NIF:

Wikipedia, NIF

si legge una frase molto importante:

Oltre allo studio della fusione nucleare in campo energetico, al NIF si studieranno anche i segreti delle stelle; infatti quello che si sta tentando di fare è riprodurre il fenomeno della fusione dell’idrogeno che avviene sul Sole e su tutte le altre stelle.

Ecco da dove e’ nata l’idea che in laboratorio venga “accesa una stella”. Come vedete, l’autore dell’articolo ha provato a documentarsi sulla rete, ma non ha capito proprio il senso della frase riportata.

A questo punto, credo che l’assurdita’ di tali articoli sia evidente a tutti.

Tornando di nuovo a cose serie, perche’ e’ stata data questa notizia? Il motivo principale, e molto importante, e’ che, per la prima volta, e’ stato raggiunto il pareggio energetico. Cosa significa? Per la prima volta, si e’ riusciti ad ottenere la stessa quantita’ di energia che e’ stata necessaria per attivare il processo. Se prima l’energia per accendere la reazione era molto maggiore di quella che poi veniva prodotta, ora siamo in pareggio. Si tratta di un risultato molto importante, che dimostra i notevoli passi avanti fatti in questo campo. Certo, e’ vero che al momento non stiamo guadagnando nulla, ma prima, con lo stesso processo, ci rimettevamo tantissimo. Diciamo che il trend e’ dunque molto positivo.

Ovviamente, allo stato attuale, siamo ancora in un campo pioneristico. Magari, andando avanti, ci potremmo accorgere che si sono dei limiti alla produzione di energia che non siamo in grado di superare. Speriamo questo non avvenga e si riesca, in tempi rapidi, a spostare il bilancio energetico a nostro favore. Come detto prima, questa e’ la condizione per poter sperare nella realizzazione di centrali nucleari a fusione per la produzione di energia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sul 23 agosto ….

20 Ago

Come sapete, sul web si e’ diffusa la notizia che il 23 agosto ci sara’ la fine del mondo a causa di una violentissima tempesta solare in grado di cancellare l’umanita’ dalla faccia della Terra. Questa nuova profezia viene niente poco di meno che da Rasputin, il famoso veggente-santone-consigliere russo, e sarebbe confermata anche dall’esule Snowden che ne sarebbe venuto a conoscenza da rapporti tra la NSA americana e la NASA.

Di questa profezia ne abbiamo parlato in dettaglio in questo articolo:

Ci risiamo: il mondo finira’ il 23 agosto

Come visto, le basi su cui si fonda questa diceria sono assolutamente deboli. Il tutto nasce da un articolo pubblicato su una rivista pseudoscientifica, World Weekly News, nel 1997 e poi riproposto anche nel 2000 quando i primi segnali premonitori non sarebbe sistematicamente avvenuti.

Perche’ torno su questo argomento?

img_poc21_4

In realta’, solo per un breve aggiornamento. Come sapete, siamo riusciti a tradurre la parte centrale in russo che parlerebbe della profezia utilizzando il traduttore di Google. Ora, avendo selezionato solo la parte di nostro interesse e avendo utilizzato internet per la traduzione, proprio per essere sicuri che le cose fossero cosi’, mi sono fatto aiutare da una persona che il russo lo parla davvero, essendo originaria proprio della Russia. La persona in questione e’ Julia, una fan della pagina facebook di Psicosi 2012:

Psicosi2012, facebook

che ha volentieri accettato di darci una mano.

Cosa dice la nostra Julia?

Tramite mail, Julia mi dice che il giorno 23 ricorre molte volte nel libro che abbiamo citato, 100 profezie di Rasputin come visto nell’articolo precedente. Solo nel pezzo precedentemente analizzato si fa riferimento al 23 agosto 2013. In tutti gli altri casi, il 23 e’ riferito a mesi ed anni differenti.

Inoltre, Julia ci conferma quello che avevamo detto, cioe’ che nel pezzo preso di mira da catastrofisti, non c’e’ assolutamente nessun riferimento al Sole. Questa e’ la traduzione letterale:

Il 23 agosto 2013 il fuoco prenderà tutta la terra,dopo di che moriranno tutte quanti e ci sarà tranquilità in questa terra

Molto probabilmente, come detto in precedenza, il riferimento e’ ad un ordigno nucleare. Infatti, nelle vere profezie di Rasputin si fa riferimento ad una terza guerra mondiale.

Non c’e’ invece nessun riferimento al fatto che la guerra sara’ combattuta tra Stati Uniti e mondo islamico. Questa e’ un’altra storia inventata dall’autore del libro, in realta’ copiata dall’autore dell’articolo originale, per rendere piu’ verosimile la profezia. Al tempo di Rasputin infatti, non c’era nessun conflitto in atto, ne tantomeno non dichiarato, tra occidente e mondo islamico. Come potete capire, si tratta solo di un mucchio di cavolate raccontate partendo da una base, forse attribuibile a Rasputin, ma poi condita con elementi moderni per far coincidere la profezia con i nostri giorni.

Tra l’altro, come anticipato anche nel precedente post, nell’articolo di giornale si parla di una guerra che durera’ 7 anni e che terminera’ nel modo visto, dunque, forse, con una bomba atomica.

Sempre Julia ci fa notare un’altra cosa importante. Le profezie di Rasputin, sono appositamente scritte per avere molteplici interpretazioni. Questa e’ ovviamente la chiave per formulare profezie durature, non smentibili ma neanche identificabili con precisione e che possono essere adattate a tutti gli eventi, le stagioni, i giorni, o quello che volete.

Altra cosa fondamentale, cercando in rete i commenti originali in russo, Julia ci dice che le vere profezie di Rasputin non sono in realta’ note, se non in parte. Questo significa che nel corso degli anni, il buontempone di turno, si diverte ad aggiungere pezzi o particolari che non hanno nulla a che fare con il veggente russo.

Concludendo, quanto carpito dai nostri ragionamenti nell’articolo precedente e’ stato confermato da una traduzione letterale. Come visto, non c’e’ assolutamente nessun riferimento al Sole ne tantomeno a tempeste solari che dovrebbero abbattersi sulla Terra. Purtroppo, anche in questo caso, dobbiamo segnalare la presenza di forti distorsioni e modificazioni fatte nel corso degli anni e che nulla hanno a che fare con le profezie originali. A questo punto, mi sembra che il discorso 23 agosto sia pienamente sfatato.

Ringrazio ovviamente Julia per la preziosissima collaborazione!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ci risiamo: il mondo finira’ il 23 Agosto

13 Ago

Lasciatemi dire: “finalmente ci risiamo”. Vi confesso che ero un po’ preoccupato per i nostri amici catastrofisti. Gia’ da qualche settimana, mancava una nuova data per la prossima fine del mondo. Ad essere sinceri, sospettavo che sarebbe arrivato il notizione tale da far impazzire la rete. Ebbene, ora ci siamo, abbiamo la prossima fine del mondo servita. Non prendete impegni per il 23 di agosto, si avete capito bene, tra una decina di giorni, perche’ il mondo finira’ tra le fiamme a causa della immane e spaventosa tempesta solare che verra’ scatenata.

Devo dire che la cosa e’ stata costruita in modo davvero eccelso. Da diversi giorni, abbiamo cominciato a mettere insieme pezzi presi dal web e ora abbiamo finalmente un quadro chiaro. Tutto questo non sarebbe stato possibile senza le discussioni e lo scambio di idee e opinioni avute con i tanti utenti che hanno commentato nella sezione apposita del blog:

Hai domande o dubbi?

e sul forum di Psicosi 2012, disponibile a questo indirizzo:

Psicosi 2012, forum

Fatta questa doverosa premessa, torniamo alla nostra fine del mondo. Come anticipato, per il 23 agosto si preannuncia la piu’ forte tempesta solare mai avuta. La prima curiosita’ che viene in mente e’: chi lo dice?

Mi raccomando, non vi distraete perche’ il discorso e’ abbastanza ingarbugliato.

Prima di tutto, a parlare di tempeste solari sarebbe stato l’esule Snowden. Sicuramente avrete sentito parlare di lui nei vari telegiornali. Si tratta di un ex agente della NSA americana che ha reso note molte informazioni top secret del suo governo. Inutile ricordare lo scandalo che questa fuga di notizie ha avuto a livello mondiale. Come sicuramente sapete, inoltre, Snowden e’ ora “ospitato” dalla Russia che si e’ rifiutata di rimandarlo negli Stati Uniti per essere processato. Bene, proprio tra Russia e Stati Uniti si ambienta la nuova fine del mondo.

Come anticipato, Snowden, tra i tanti segreti spifferati, avrebbe anche parlato di lunghi studi condotti dalla NASA per comprendere il comportamento del nostro Sole. Come sapete, quella della tempesta solare era una delle argomentazioni maggiormente citate per il 21 Dicembre 2012. Durante il suo ciclo naturale, il Sole passa attraverso dei massimi e minimi di attivita’. Inoltre, eruzioni solari possono provocare emissione di particelle e radiazione verso la Terra che, in alcuni casi, possono provocare disturbi alle comunicazioni. Ad essere sinceri, l’effetto piu’ frequente che queste emissioni possono avere sulla Terra e’ la formazione di Aurore.

Analizzando il 21 Dicembre 2012, piu’ volte abbiamo parlato di queste tempeste solari:

La piu’ grande tempesta solare ….

Come detto, queste tempeste di radiazioni potrebbero interferire con i nostri sistemi di comunicazione portando, nei casi piu’ intensi, a blackout in alcune zone. Poiche’, oggi come oggi, la nostra societa’ e’ fortemente legata all’energia elettrica, un blackout prolungato in una zona molto estesa potrebbe avere conseguenze molto importanti per le popolazioni del luogo. Vi ricordo pero’ che parlando di interruzioni prolungate di corrente, stiamo parlando di eventi assai poco frequenti e, almeno in epoca moderna, dove le comunicazioni hanno assunto un rulo cosi’ importante, mai registrate.

Detto questo, e’ ovvio che la ricerca sia impegnata nella comprensione e nella simulazione del comportamento del nostro Sole. Ovviamente, non possiamo pensare di mettere un tappo alla nostra stella, ma, sicuramente, saper prevedere comportamenti fuori dalla norma, potrebbe aiutarci ad evitare conseguenze piu’ gravi.

Bene, approfittando della storia di Snowden, alcuni siti catastrofisti hanno inventato la storia della ormai prossima tempesta solare. Ripeto, parlare di studi della NASA su questo e’ dire cose ovvie. Non e’ assolutamente un segreto che siano costantemente in corso analisi sempre piu’ accurate per migliorare gli algoritmi di simulazione solare.

Come visto parlando del 2012, anche per il 22 settembre dell’anno scorso si parlava dell’arrivo di questa tempesta perfetta. Ne abbiamo parlato in questo articolo:

Nuova minaccia il 22 Settembre?

Anche in questo caso si parlava di simulazioni fatte della NASA. La data del 22 settembre era in realta’ una data fittizia inserita nella simulazione ed in cui si pensava potesse capitare il massimo di attivita’ del Sole. Ad oggi, non mi sembra di dover nuovamente smentire questa data dal momento che tutti possiamo testimoniare che non e’ accaduto nulla.

Fate pero’ attenzione, se la storia fosse finita qui si tratterebbe di una riproposizione di argomenti gia’ utilizzati. Ovviamente c’e’ dell’altro.

Prima di tutto, almeno stando alla bufala inventata su web, Snowden avrebbe solo indicato il pericolo, ma non sarebbe a conoscenza della data precisa. Per sostenere maggiormente la storia, la data precisa viene attribuita ad un’altra profezia che annuncerebbe lo stesso imminente pericolo. Si tratta di una profezia di Grigorij Rasputin, noto semplicemente come Rasputin, che in un suo scritto avrebbe lasciato un’indicazione molto precisa.

Sicuramente tutti conosco Rasputin come quel discusso personaggio alla corte dei Romanov che passo’ alla storia come la persona in grado di influenzare pesantemente le scelte dello Tzar di Russia. Oltre che un presunto guaritore, Rasputin sarebbe stato anche un profeta in grado di annunciare molti avvenimenti successivi alla sua morte, anche questa profetizzata molti anni prima.

Stando a quanto potete leggere su internet, gli scritti di Rasputin in questione sarebbero stati portati alla luce proprio in questo periodo da un certo, David W. Norvalk. Piccola parentesi che spesso crea confusione a chi cerca di informarsi sulla rete. Molto spesso, quando leggete di “ricercatori” sui siti castrofisti, non dovete quasi mai pensare a addetti ai lavori o persone che si occupano di fare ricerca presso qualche ente su argomenti particolari. Per i nostri amici catastrofisti, un ricercatore e’ chiunque si occupi di ricercare, anche solo su internet, delle informazioni. Capite bene il giochino utilizzato per confondere le persone. In alcuni casi trovate anche un termine che trovo eccezionale “ricercatore indipendente”, cioe’, tradotto per tutti, uno che da casa sua si collega a google e cerca informazioni. Questa definizione viene spesso utilizzata anche in note trasmissioni italiane che di scientifico hanno veramente ben poco.

Fatta questa premessa, capite subito che tale Norvalk sarebbe appunto un ricercatore nel senso catastrofista del termine. Se provate a cercare questo nome su internet, trovate in realta’ solo siti catastrofisti che si rimandano uno con l’altro facendo copia/incolla delle notizie.

Lasciando da parte il soggetto, vediamo invece di cosa si parla. In realta’, la storia raccontata da Norvalk su Rasputin e’ ben piu’ vecchia di quello che vorrebbero farci credere, mettendola in simulatanea con la fuga di notizie di Snowden. Di Rasputin e della profezia sul Sole, Norvalk parla  in un articolo del 1997 apparso su Weekly  World News. Ecco il link dove potete leggere quanto detto:

WWN, 1997

Come potete leggere, si tratta in realta’ di una serie di profezie che Norvalk attribuisce a Rasputin, divise in ordine temporale. Come vedete, per il 23 agosto 2013 si parla di “un fuoco che consumera’ tutte le cose viventi”, annunciando, senza mezzi termini la fine del mondo. Quanto scritto e’ stato poi identificato con la tempesta solare per far coincidere la storia con le presunte informazioni date da Snowden. Come vedremo in seguito, esistono in realta’ interpretazioni molto diverse.

Attenzione pero’, prima di questa data, ce ne sono molte altre. Proviamo a leggere: nel 1997, vi ricordo’ anno di uscita dell’articolo, ci sara’ un attentato terroristico negli USA che distruggera’ uno dei simboli dell’intero occidente. Nel 2000 un virus mortale uscira’ da un laboratorio, sempre negli Stati Uniti, causando innumerevoli vittime fino al 2003 quando verra’ fermato, e cosi’ via.

Ora, a questo punto potrei interrompere il racconto e chiudere dicendo che, dal momento che questi avvenimenti non ci sono stati, si tratta solo di una bufala. E’ pero’ interessante andare avanti per mostrare l’assurdita’ delle affermazioni in rete e per farvi capire meglio come lavora la macchina catastrofista tanto attiva in questi ultimi mesi.

Dal momento che questi avvenimenti non ci sono stati, il giornale in questione ha riproposto esattamente lo stesso articolo 3 anni piu’ tardi, nel 2000. Ovviamente, si e’ solo limitato a spostare di tre anni in avanti tutte le date, esclusa quella del 2013. Non ci credete? Ecco a voi la prova:

WWN, 2000

Perche’ le hanno spostate tutte tranne quella del 2013? E’ forse reale? Assolutamente no, semplicemente questa era l’unica data proposta piu’ lontana nel tempo per cui non era necessario spostarla, mentre tutte le altre gia’ non si erano avverate nel 1997 o erano troppo prossime al 2000!

Ecco da dove nasce la storia di Rasputin a sostegno di quella di Snowden. Apro un’altra breve parentesi, oltre alla notizia che stiamo commentando, provate a sfogliare la rivista che ho linkato per rendervi conto che tipologia di notizie pubblica questo giornale. Anche solo leggendo i titoli, capite subito in quale settore poter collocare lo stesso giornale.

Leggendo in rete, trovate pero’ anche un’altra notizia a sostegno dell’ipotesi Rasputin. Forse qualcuno un po’ piu’ sveglio ha capito che cosi’ come veniva raccontata non poteva essere credibile. Detto questo, viene dunque riportata una nuova fonte, un libro di uno scrittore russo che avrebbe riportato a sua volta le confessioni fatte da Rasputin riguardanti profezie future. Il titolo del libro e’ “100 profezie di Rasputin” e l’autore e’ un certo Andréi Brestski. Se provate a cercare notizie in rete, anche in questo caso non trovereste niente. Inizialmente la cosa aveva portato fuori strada anche il sottoscritto. Il libro in questione non lo potete trovare su nessuna libreria online, neanche internazionale, cosi’ come non trovate informazioni sul suo autore. Il motivo e’ che il libro esiste solo in russo. Fortunatamente, Google Books, permette di vedere un anteprima del libro in questione.

Ecco il link dove vedere il libro:

100 profezie di Rasputin

Cliccando su anteprima, potete vedere un certo numero di pagine. Unico problema, come anticipato, e’ che il libro e’ in russo. Se provate a cercare 23 agosto in russo, cioe’ 23 августа, trovate un risultato che veramente parla di questa data. Purtroppo, Google books vi fornisce immagini e non un testo da poter copiare e tradurre. Anche a questo c’e’ un rimedio, andando a questo link:

100 profezie di Rasputi, online

potete trovare, senza scaricare nulla e senza violare alcun copyright, il testo online. Bene, selezionando la parte che parla del 23 agosto, e traducendo con google, trovate:

La cosa peggiore per accadere 23 agosto 2013: “Il fuoco consuma tutta la vita sulla Terra, e poi la vita sul pianeta morirà e non ci arriverà silenzio sepolcrale” – così ha scritto il “vecchio uomo”. “È lui predice un olocausto nucleare?” – Chiede ai lettori. Non c’è una risposta …

Fate pero’ attenzione, anche il libro parla di fuoco sulla Terra, ma in realta’ parla di olocausto nucleare. Il primo spezzone e’ esattamente identico a quello di Norvalk visto prima. Qui pero’, viene aggiunta una parte riguardante l’olocausto nucleare. Cosa c’entra questo? Ora vi riporto lo spezzone di frase che compare prima di quello riportato:

Secondo la previsione di Rasputin, alla fine del primo decennio del XXI secolo, la potenza in Oriente, e cioè, in primo luogo in Iraq moderno e il Kuwait e l’Arabia Saudita, i fondamentalisti islamici prendono il sopravvento, che sarebbe stato chiamato negli Stati Uniti di un prodotto di Satana, e annuncerà la sua guerra implacabile – jihad. Durante questo periodo, il resto degli Stati Uniti arriverà al potere come ortodossi, ma solo della persuasione cristiana. Se ci sarà tra i due principali conflitto militare? Rasputin risponde a questa domanda in modo affermativo. Ha predetto che gli Stati Uniti erano e iniziare una nuova crociata contro l’Oriente musulmano. Questa campagna, o meglio la guerra durerà sette anni e sarà l’ultimo nella storia dell’umanità. Solo una grande battaglia su entrambi i lati morirà più di un milione di persone.

Come vedete, si parla di una guerra santa in corso a livello mondiale tra Oriente e Occidente. Guerra che poi culminera’ con l’olocausto nucleare del 23 agosto.

Ragioniamo un secondo: non mi sembra si parli di tempesta solare, questo dunque fa cadere ancora una volta la storiella di Swnoden, Raspunti e compagnia bella. Inoltre, 7 anni prima di questa data sarebbe iniziata questa guerra tra Stati Uniti e Oriente. Ragionando, se proprio volessimo identificare questi avvenimenti con le varie campagne in terra araba, allora il tutto sarebbe iniziato ben prima di 7 anni fa. Ritornando pero’ al link di Google Books in cui veniva mostrata l’anteprima del libro, vedete bene che la data di pubblicazione e’ solo del maggio 2013. Cosa significa questo? Semplice, si tratta di un testo che, molto probabilmente, ha ripreso di sana pianta la storia pubblicata su Weekly World News, riproponendola in forma di olocausto nucleare invece che di tempesta solare.

Inoltre, vorrei dire una cosa, e’ risaputo che Rasputin nel periodo alla corte dei Romanov avesse anche fatto profezie ma, al contrario di quello che vorrebbero farvi credere, non ci sono assolutamente indicazioni temporali precise, figuriamoci un giorno di un anno cosi’ lontano per il tempo.

Concludendo, questa storia sarebbe degna di una telenovelas: colpi di scena, distorsioni, ripensamenti, articoli che vengono modificati e ripubblicati, spionaggio internazionale. Peccato che, come visto, si tratta soltanto di storie inventate. Detto questo, non ci si aspetta nessuna tempesta solare per il 23 Agosto, figuriamoci una fine del mondo. Se poi ancora non foste convinti, non vi resta che aspettare solo pochi giorni per poter assistere alla tempesta solare perfetta o all’olocausto nucleare!

 

Ringrazio per le preziose informazioni e per la collaborazione: Luca, Daniel e Apollo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E-Cat meraviglia o grande bufala?

30 Mag

Viste le numerose richieste di informazioni, chiarimenti e spiegazioni che ho ricevuto, ho deciso di scrivere questo articolo sull’E-Cat. Perche’ non l’ho fatto prima? Semplicemente perche’, a mio avviso, e ne riparleremo dopo, mancavano dei presupposti essenziali per parlare di questa presunta invenzione in termini scientifici.

Ora cosa e’ cambiato?

A parte le numerose richieste ricevute, la rete e’ letteralmente esplosa in questi giorni perche’ sembrerebbe che finalmente sia arrivata la dimostrazione indipendente del funzionamento di questo prodigio.

Bene, analizziamo i fatti e cerchiamo di capire meglio di cosa stiamo parlando.

Per chi non lo sapesse, l’E-Cat e’ una presunta invenzione di Andrea Rossi che produrrebbe energia in un modo non noto. Mi spiego meglio. Si tratta di una sorta di generatore, alimentato da corrente elettrica, che pero’ produce piu’ energia di quanta ne assorbe. E’ strano questo? Assolutamente no. Non pensate che si stia violando qualche principio fisico basilare, semplicemnte si potrebbe sfruttare una qualche reazione chimica, fisica o sconosciuta mediante la quale si innescano dei processi esoenergetici, cioe’ che producono energia.

Poiche’ questo punto e’ molto importante, cerchiamo di capirlo bene e in modo semplice. Prendiamo, ad esempio, la fissione nucleare. Mediante questo proceso, nuclei di elementi fissili vengono spaccati in elementi piu’ leggeri, mediante neutroni, producendo energia. Ora, per produrre i neutroni da sparare avete bisogno di energia, ma quella che otteete alla fine del processo e’ maggiore di quella che avete speso, perche’ siete riusciti ad estrarre un’energia dall’interno del nucleo. Avete creato qualcosa dal nulla? No, avete semplicemente sfruttato un processo per produrre questa energia traformandola in qualcosa di utilizzabile ai vostri scopi.

Bene, l’invenzione di Rossi dovrebbe fare un qualcosa di equivalente. L’invenzione promette infatti di produrre molta piu’ energia di quella che deve essere immessa, sfruttando un processo, almeno al mometo, sconosciuto.

Qual e’ il carburante dell’E-Cat? Piu’ o meno il sistema funziona in questo modo: mettendo insieme Nichel e Idrogeno e fornendo un’energia iniziale al sistema, si dovrebbe innescare una reazione fortemente esoenergetica, in cui viene prodotta 5 o 6 volte piu’ energia. Attenzione pero’, gli ingredienti non bastano. Per poter funzionare, c’e’ bisogno anche di un catalizzatore da aggiungere al miscuglio Ni-H, tenuto segreto per motivi di spionaggio industriale.

Perche’ spionaggio industriale? Semplice, parlando di E-Cat, non stiamo parlando di una ricerca scientifica, bensi’ di una invenzione che deve essere lanciata sul mercato. Detto in altri termini, che deve essere venduta.

Quasta cosa ci sconvolge? Assolutamente no. Chiunque di noi puo’ pensare ad un’invenzione commerciale fattta esclusivamente per guadagnare. Non c’e’ nulla di male in questo, purche’, come vedremo, ci siano tutti i presupposti di affidabilita’ dell’invenzione.

Per chi gia’ conoscesse l’E-Cat, notate che ho parlato di una misteriosa reazione. Su molti giornali e siti internet, vedete che si parla di “fusione fredda” o “reazione nucleare a bassa energia”, ho omesso appositamente di tirare in causa questi concetti. Perche’? La fusione nucleare e’ quel processo secondo il quale dei nuclei leggeri vengono fusi tra loro per produrne uno piu’ grande, producendo energia. Questa ‘e la reazione utilizzata dal sole e dalle stelle per produrre energia, ed e’ quella a cui si vorrebbe puntare per sostituire le centrali nucleari a fissione. Il motivo e’ molto semplice, favorevoli o meno al nucleare, il punto piu’ discusso su queste tematiche e’ quello della produzione di scorie, cioe’ elementi nucleari di scarto con vite medie lunghe, cioe’ che restano attivi per molto tempo.

Qual e’ il problema principale della fusione?

Come detto, si devono fondere tra loro due nuclei leggeri per formarne uno pesante. Bene, cosa c’e’ dentro il nucleo? Neutroni, particelle neutre, e protoni, particelle di carica positiva. Come sappiamo bene, se avviciniamo due cariche dello stesso segno, come i protoni dei due nuclei, questi si respingono tra loro a causa della repulsione coulombiana. Ora pero’, se riuscissimo ad avvicinare moltissimo i due nuclei, si arriverebbe ad un punto in cui la forza nucleare forte, che e’ attrattiva, sarebbe molto maggiore della repulsione dovuta alle cariche elettriche, e i due nuclei si attirerebbero tra loro. Niente di complicato. Mentre li avvicinate, i due nuclei si respingono, quindi dovete spingerli con forza per farli avvicinare. Quando poi riuscite ad arrivare oltre una certa distanza, nota come barriera di Coulomb, a questo punto i due nuclei si attirano da soli e si innesca la fusione. Il problema delle centrali a fusione e’ proprio quello di trovare il modo piu’ conveniente ed efficace per fornire l’energia necessaria al superamento della barriera di Coulomb.

E la fusione fredda?

Come detto, parlando di fusione si parla di processi ad altissima temperatura, come avviene nelle stelle. La fusione fredda invece avverrebbe a temperatura ambiente. Al contrario di quanto si legge spesso in rete, non esitono evidenze di reazioni di questo tipo. Storicamente, i primi a parlare di fusione fedda furono gli americani Fleischmann e Pons, cui seguirono altre prove. Per nessuna di queste pero’, esiste la certezza scientifica che si sia trattato realmente di una reazione nucleare di questo tipo e, ancora oggi, c’e una forte discussione a proposito.

Perche’ per l’E-Cat si parla di fusione fredda?

In diverse fonti si parla della reazione tra Nichel e Idrogeno che verrebbero fusi tra loro per produrre Rame. Questo sarebbe il processo che avverrebbe a bassa energia e che fornirebbe l’energia dell’E-Cat. Ripeto, non sono d’accordo su questo punto e a breve mostreremo anche il perche’.

Prima di tutto, rivediamo un po’ la storia di questo E-Cat. Nel 2011 si e’ iniziato a parlare di questo generatore quando Rossi ha condotto due test rendendo pubblici i risultati. In questi esperimenti, fornendo un’energia al macchinario intorno ai 35 KWh, si sarebbero prodotti in un caso 70 KWh, nell’altro 160 KWh. Stando ai numeri, la reazione sarebbe effettivamente esoenergetica e molto conveniente. Qual’era il problema di questi test? Semplicemente, non ci sono prove scientifiche della validita’ dei risultati perche’ il tutto e’ stato condotto in maniera autonoma e senza un confronto indipendente. Cosa significa? Ai test sono stati invitati giornalisti rigorosamente selezionati, in veste di spettatori. Mi spiego meglio. I giornalisti sono stati invitati in questo capannone e hanno potuto vedre e filmere il test di Rossi riportando solo ed esclusivamente quelllo che l’inventore del macchinario affermava.

Ora, vedetela in questo modo. Un signore vi invita ad una dimostrazione in cui vi mostra una scatola nera in cui mette 10 euro e dall’altra parte ne escono 20. Basta, non vi viene detto altro ne’ vi vengono forniti dettagli su cosa c’e’ dentro la scatola. Non parlo a caso di scatola nera, infatti, molte delle parti dell’apparecchiatura sono tenute coperte e chiuse alla vista. Ovviamente, si tratta dei componenti fondamentali del sistema, incluso anche il misterioso catalizzatore che darebbe il via alla reazione.

Cosa dice la scienza a proposito? Come e’ facile immaginare, questo risultato non e’ stato accettato dalla comunita’ scientifica. Per sostenere qualcosa di questo tipo, seguendo i canoni della scienza, si dovrebbe mostrare il macchinario, studiare la reazione che avviene e il tutto deve essere ripetibile ovunque nelle stesse condizioni. Se queste informazioni mancano, il test e’ del tutto simile a quello di un’illusionista che vi mostra l’assistente tagliata in due all’interno di una scatola.

Come forse sapete, a seguito di questi test, e del completo rifiuto della scienza su questi risultati, Rossi e’ divenuto un “mito telematico”, metafora di quel genio che trova l’invenzione del secolo per il bene dell’umanita’ e a cui la scienza mette i bastoni tra le ruote perche’ corrotta dalle grandi multinazionali.

Se invece di gridare allo scandalo, si ragionasse su quanto detto, tutti si renderebbero conto che affermazioni di questo tipo non possono essere credibili se non verificate sperimentalmente. Il problema energetico dell’umanita’ non si risolve con la fiducia sulla parola, ma con numeri chiari verificabili e indiscutibili.

Perche’ ora, come anticipato, si parla di verifica indipendente? Nei mesi scorsi sarebbero stati condotti altri test. Questa volta pero’, avrebbero partecipato anche scienziati di diverse parti del mondo che avrebbero assistito agli esperimenti. Anche in questo caso, i risultati avrebbero mostrato un guadagno energetico del processo, confermando dunque la correttezza del metodo su cui si basa l’E-Cat.

Attenzione, facciamo una considerazione. Come premesso, in ambito commerciale, e’ lecito parlare di segreto industriale. Le regole del commercio sono diverse da quelle della scienza. A mio avviso, se il tutto venisse mostrato ad un gruppo di scienziati affidabili ed in grado di fornire un’opinione scientifica, sicuramente il test acquisterebbe di credibilita’. Purtroppo, non e’ andata cosi’.

L’altro punto fondamentale su cui si e’ dibattuo a lungo e’ la mancanza di una “peer review” sull’esperimento. Cosa significa? Quando si pubblica un articolo su una qualche rivista internazionale, si passa attraverso il processo di “referaggio”. Prima di pubblicare il lavoro, la rivista nomina un altro ricercatore internazionale di chiara fama ed esperto del settore che ha il compito di analizzare in dettaglio il contenuto dell’articolo. Se ci sono punti poco chiari, l’esperto puo’ chiedere maggiori spiegazioni al fine di chiarire il tutto ed evitare, nella migliore delle ipotesi, errori sfuggiti agli autori. Solo al termine di questo processo il vostro lavoro, se accettato, viene pubblicato.

Partendo proprio da questo punto, gli ultimi test seguiti dal gruppo di scienziati avrebbero risolto anche questo problema.

Perche’?

Solo pochi giorni fa, e’ stato pubblicato un articolo sull’archivio della Cornell University, che trovate a questo link:

ArXiv E-Cat

A questo punto, tutti i dubbi iniziali dovrebbero essere risolti: il test e’ stato eseguito indipendentemente da un gruppo di ricercatori e questi hanno anche pubblicato un articolo, ovviamente confermando i risultati dei primi test.

Cosa c’e’ che non va?

Prima di tutto, quello di cui vi ho dato il link, non e’ un articolo su rivista internazionale che ha subito un processo di peer review. Il database in questione e’ semplicemente un archivio di articoli in cui i ricercatori possono mettere i loro lavori. Non c’e’ nessun controllo sul contenuto degli articoli, a parte la buona fede dei ricercatori stessi. Generalmente, almeno nel campo della fisica, i lavori vengono caricati su arXiv prima che questi vengano pubblicati sulle riviste, cioe’ mentre e’ in corso il processo di review. Detto questo, non e’ assolutamente risolto il problema del peer review per l’E-Cat.

Purtroppo, neanche la prima critica e’ stata risolta. Come potete leggere nel testo dell’articolo, non si e’ trattato assolutamente di una verifica indipendente, ma solo di uno spettacolino riservato a persone esperte del settore. Cosa significa? Nei primi test erano stati invitati dei giornalisti, ora dei ricercatori, ma lo svolgimento e’ stato esattamente lo stesso. I ricercatori non hanno potuto toccare nulla, ma si sono limitati a guardare il test condotto da Rossi nei suoi laboratori. Inoltre, molte delle parti del sistema su cui si era discusso, sono rimaste chiuse all’interno di scatole nere in cui era impossibile guardare dentro e, come e’ facile pensare, tra queste vi era anche il misterioso catalizzatore. L’articolo di cui stiamo parlando e’ dunque un insieme di osservazioni e considerazioni fatte dai ricercatori.

Cosa e’ cambiato rispetto al passato? Ovviamente, i ricercatori intervenuti hanno potuto misurare il calore in uscita mediante una termocamera, valutando in questo modo sia la potenza in uscita che quella in ingresso utilizzando sistemi elettrici. A parte al correttezza o meno di questo processo indiretto e della valutazione dell’incertezza ottenuta misurando la potenza con una termocamera, non  si e’ assolutamente trattato di una prova “indipendente”.

C’e’ anche qualche altra considerazione importante da fare. Come detto in precedenza, a mio avviso non si e’ trattato di fusione fredda. Un processo di questo tipo necessariamente producce radiazione in uscita. Effetto non riportato in nessun caso e impossibile da schermare in sistemi di questo tipo. Tra l’altro, conosco personalmente uno dei ricercatori intervenuti ed e’ un esperto di radioprotezione dell’Universita’ di Uppsala in Svezia.

Oltre a questo, la quantita’ d rame che si sarebbe prodotta corrisponderebbe ad un rendimento del sistema molto piu’ alto di quello che ci si aspetta e soprattutto il rame in questione sarebbe non eterogeneo, cioe’ mancano isotopi diversi dalla forma piu’ commerciale e abbondamente in natura.

Ulima considerazione scientifica, dal punto di vista energetico, la fusione di nichel e idrogeno sarebbe possibile e verrebbe prodotto rame, ma la barriera coulombiana per questi nuclei e’ elevatissima. Questo solo per dire che un processo del genere a bassa energia e’ scientificamente molto difficile da digerire. Teoricamente si potrebbe citare l’effetto tunnel, ma questo non spiegherebbe neanche la certezza della reazione di fusione cosi’ come altri processi quantistici non deterministici.

Concludendo, alla luce delle considerazioni fatte e degli ultimi aggiornamenti, non pssiamo assolutamente affermare che l’E-Cat sia un sistema reale e che possa essere accettato dalla scienza. Questo non significa che potrebbe esistere questo generatore in grado di fare quello che Rossi promette. Semplicemente, se anche esistesse, non e’ comprensibile la reazione su cui sarebbe basato e soprattutto mancano dati certi su cui ragionare e da cui estrarre certezze scientifiche. Al momento, almeno secondo me, siamo ancora al livello dll’illusionista che taglia l’assistente con la sega.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ad un anno dal sisma, la terra ribolle in Emilia

20 Mag

In questi giorni, sta facendo molto discutere un fenomeno alquanto curioso che sta avvenendo in alcune zone in provincia di Mantova.

Di cosa si tratta?

Sembrerebbe che la terra stia ribollendo, emettendo uno strano gorgoglio e, almeno secondo le testimonianze, venga emesso un gas non ancora identificato.

Il fenomeno e’ stato osservato per la prima volta a San Giovanni del Dosso e da ieri anche a Campagnola nella Bassa Reggiana. I primi a parlare di questo avvenimento, sono stati i giornalisti della Gazzaetta di Mantova che sono anche intervenuti sul posto. Per farvi capire di cosa stiamo parlando, vi riporto il link al giornale in cui potete vedere e sentire il misterioso borbottio:

Gazzetta di Mantova, San Giovanni del Dosso

Come raccontato dal giornale, in entrambi i casi, il fenomeno e’ stato osservato in campi agricoli e sono state allertate le autorita’ per cercare di capire l’origine di questi strani rumori. Ad oggi, non si sa ancora l’origine certa ne’ tantomeno il meccanismo geologico che innesca questi movimenti.

Di questo strano fenomeno, ho discusso con un nostro lettore che vive proprio nella zona e che mi ha contattato per cercare di capire cosa stia accadendo. Ovviamente, non avendo a disposizione dati certi, e’ possibile fare solo delle ipotesi basate sui video che trovate in rete.

Prima di parlare di ipotesi, cerchiamo di contestualizzare la situazione. Proprio oggi, e’ l’anniversario della prima scossa che ha interessato l’Emilia, il 20 Maggio 2012. Di questo evento, cosi’ come di quello del 29, abbiamo parlato moltissimo in questo blog per analizzare e smentire le tantissime ipotesi che volevano il terremoto indotto dall’uomo o legato a qualche strana attivita’ di fratturazione idraulica.

Parlando di una zona con ancora vivo il ricordo di quei momenti, e’ abominevole pensare che in rete ci sia una fortissima speculazione anche su questo ultimo fenomeno. Purtroppo, come ormai sappiamo bene, pur di fare profitto non si guarda in faccia nessuno.

Analizziamo un attimo i fatti. Stando a quanto riportato dai testimoni, oltre a questo strano rumore, dal terreno sarebbe emesso anche un gas. Per certo, sappiamo che non si tratta di metano. Questo perche’, con un metodo alquanto discutibile dal punto di vista scientifico, le persone intervenute sul luogo hanno accertato che avvicinando una fiamma il gas non si incendiava. Si potrebbe discutere sul metodo “scientifico” utilizzato, ma non e’ questo l’importante ora.

Quali sono le spiegazioni che trovate in rete? La piu’ citata e’ che il gas emesso sia radon. Perche’ questa ipotesi? Semplice, per creare la connessione con le teorie di Giuliani e quindi far intendere che da qui a pochi giorni ci potrebbe essere una nuova scossa. Di queste teorie abbiamo parlato piu’ volte, discutendo come le emissioni di radon dal sottosuolo non possano essere considerate un precursore sismico. Non mi stanchero’ mai di ripetere che: ci possono essere terremoti preceduti da emissioni di radon, ci possono essere terremoti non preceduti da emissioni di radon, ci possono essere emissioni di radon senza terremoti. Nell’ottica dell’individuazione di un precursore sismico, capite dunque che questo parametro non e’ assolutamente affidabile.

Detto questo, ci sono poi tantissimi siti che parlano dello stesso fenomeno avvenuto pochissimi giorni prima della violenta scossa del 20 maggio 2012. Cosa significa questo? Semplice, far credere alle persone che tra pochi giorni ci potrebbe essere di nuovo un forte terremoto.

Prima di farci prendere dal panico, andiamo con ordine e cerchiamo di inquadrare la cosa.

Prima di tutto, parlando dei terremoti del 2012, abbiamo parlato di fenomeni simili a questi che stiamo analizzando ora, in questi post:

Una prova del fracking in Emilia?

Inalzamento dei pozzi in Emilia prima del sisma

Spesso i vulcanelli vengono citati in tanti articoi attuali, dimenticando pero’ un particolare fondamentale: come visto nel post, questo fenomeno non e’ un precursore sismico, bensi’ una conseguenza di un forte sisma. Cosa significa? Che, dopo un forte sisma, in prossimita’ dell’epicentro, possono (ma non e’ detto) formarsi questi vulcanelli di sabbia dovuti a fenomeni di liquefazione del terreno. E’ un precursore? No, non avvengono prima, casomai dopo un sisma.

Allora cosa sono questi strani rumori che si avvertono?

Dunque, come anticipato, non abbiamo ancora dati in mano per formulare ipotesi certe, ma dobbiamo considerare due aspetti molto importanti: a seguito del sisma del 2012, la struttura morfologica del terreno potrebbe essere stata modificata. Inoltre, fino a pochi giorni fa, si sono registrate fortissime piogge proprio sull’area in questione.

Alla luce di questo, cosa potrebbe creare il rumore?

Tra le tante ipotesi che si leggono, secondo me due sono verosimili. La prima e’ che la liquefazione della sabbia, documentata nei post precedenti, abbia creato spazi vuoti nel terreno. In questo caso, l’acqua delle precipitazioni e’ entrata nel terreno ed e’ andata a riempire questi spazi. Il rumore che si sente e’ semplicemente dovuto ad un gioco di pressioni. Sacche che vengono riempite dall’acqua che passa nel terreno, possono creare pressioni diverse e dunque l’acqua si sposta creando questo rumore. Se volete e’ un po’ come i vasi comunicanti. In questo senso, il gas che uscirebbe dal terreno sarebbe soltanto l’aria che era contenuta nelle sacche e che lascia il posto all’acqua proveniente dalla superficie.

La seconda ipotesi plausibile e’ che si tratti di anidride carbonica. In questo caso, il discorso e’ del tutto equivalente a quello precedente, solo che le sacche sarebbero piene di anidride carbonica. Questo gas potrebbe essere accumulato da vegetali o anche da piccoli giacimenti sotterranei.

Personalmente, ma potrei sbagliare, credo sia piu’ plausibile la prima ipotesi. In tal senso, come visto, questo fenomeno sarebbe comunque connesso agli sconvolgimenti del terremoto del 2012, ma causato direttamente dalle violente piogge dei giorni scorsi.

Permettetmi un pensiero a voce alta. E’ gia ‘qualche giorno che si parla di questo fenomeno, possibile che in tutta Mantova non si sia trovato un laboratorio attrezzato per fare una semplice analisi e capire prima di tutto che gas viene emesso dal terreno? Non credo sia una cosa tanto difficile, forse solo un pochino di piu’ che avvicinarsi con un accendino al terreno, ma sicuramente molto piu’ scientifico.

Ad oggi, sono state anche scavate delle buche nel terreno fino a 80 cm, ma non hanno rivelato nulla di anomalo. A questo punto, non resta che attendere qualche giorno e aspettare i risultati delle analisi per potere capire finalmente di che fenomeno si tratta.

L’unica cosa che vorrei sottolineare, e’ l’assoluta non correlazione tra questo fenomeno ed un sisma. Se parliamo di vulcanelli, intendiamo una coseguenza non un precursore di terremoto. Se parliamo di radon, facciamo illazioni sia dal punto di vista del fenomeno, dal momento che non e’ noto il gas che fuoriesce, sia dal punto di vista, come detto, dei precursori. Dunque, rimaniamo calmi e cerchiamo di capire veramente di cosa si tratta, non dando soddisfazione ai tanti speculatori di cui la rete e’ ormai satura.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.