Tag Archives: rossi

Studiare le stelle da casa

4 Feb

Dopo qualche giorno di assenza, purtroppo, al contrario di quello che pensano i catastrofisti, il mio lavoro non e’ solo fare disinformazione attraverso questo blog, eccoci di nuovo qui con un articolo di scienza pura.

Come avrete sentito, solo qualche giorno fa, e’ stato inaugurata a Padova la macchina acceleratrice “Prima”. Per dirla semplicemente, si tratta di una macchina in grado di accelerare atomi fino ad energie di 16 milioni di Watt. Questa importante infrastruttura nasce da una collaborazione tra l’Istituto di Fisica Nucleare, il CNR, l’ENEA, l’Universita’ di Padova e le Acciaierie Venete.

Ovviamente parliamo di un grande successo per la ricerca italiana. Pensandoci bene, mi rendo pero’ conto di come un successo di questo tipo, possa risultare abbastanza difficile da capire per un non addetto ai lavori. Detto in altri termini: a cosa serve questa macchina?

Molto semplice, come spesso avviene, ricerche di questo tipo sono assolutamente multidisciplinari e possono servire per condurre studi su tantissimi settori. Tra questi, quello che sicuramente interessa di piu’ e’ senza dubbio lo studio della fusione nucleare controllata.

Di fusione abbiamo parlato in diversi articoli:

Sole: quanta confusione!

La stella in laboratorio

mostrando come questo sia il processo attraverso il quale le stelle, e ovviamente il nostro Sole,  producono energia.  Purtroppo, ad oggi, non siamo ancora stati capaci di sfruttare la fusione per produrre energia per noi. Per essere piu’ precisi, ancora non siamo riusciti a realizzare un processo in cui l’energia necessaria per attivare la fusione sia maggiore di quella che poi viene data all’esterno. Detto in parole povere, ad oggi abbiamo ancora un processo “in cui ci rimettiamo”, cioe’ diamo piu’ energia rispetto a quella che otteniamo in uscita.

Una delle chimere della fusione nucleare, e’ senza dubbio il discorso della fusione fredda e di tutti quei processi che gli ruotano intorno. Anche di questi processi abbiamo parlato diverse volte in articoli come questi:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come sapete bene, e come potete verificare leggendo gli articoli citati, la nostra posizione non e’ mai stata di chiusura totale verso queste ipotesi solo che, e su questo non ho mai trovato una smentita reale e credibile, ad oggi non ci sono le prove necessarie per dimostrare scientificamente che queste soluzioni, ed in particolare l’E-Cat, siano in grado di funzionare.

Fatta questa doverosa premessa, torniamo a parlare di PRIMA.

Come visto negli articoli specifici sulla fusione, la ricerca ufficiale sta investendo molte risorse in alcuni progetti europei e mondiali di notevole portata. Tra questi, ruolo d’eccezione spetta sicurametne ad ITER. Come sapete bene, si tratta di un primo prototipio su grande scala di un reattore a fusione per ricerca. Tra alti e bassi, la costruzione di questa importante pietra miliare nella storia della fusione sta procedendo in Francia e speriamo possa portare i risultati sperati ed in grado di aprire le porte alla produzione di energia mediante la fusione mnucleare.

La macchina PRIMA studiera’ proprio la parte di, definiamola cosi’, iniezione di ITER, cioe’ il fascio neutro che servira’ per riscaldare il plasma fino alle temperature richieste per far partire la fusione. Oltre ad ITER, la macchina servira’ anche per studiare i materiali piu’ adatti per contenere la fusione e che saranno un punto molto importante anche nella costruzione del primo reattore, chiamato IFMIF, che sara’ costruito in Giappone.

Prima di chiudere, vorrei invitarvi ad una riflessione. Permettemi di riprendere quanto detto un po’ di tempo fa in questi articoli:

Perche’ la ricerca: scienza e tecnologia

Perche’ la ricerca: economia

Prima di tutto, gli studi condotti per la costruzione dei magneti di LHC sono stati fondamentali per la costruzione dei magneti da utilizzare su PRIMA. Questo solo per dire come la ricerca non e’ mai fine a se stessa ma consente di farci applicare studi condotti su un particolare settore a qualcosa di diverso, non dovendo ogni volta ripartire da zero. Oltre a questo, per parlare invece di economia, la costruzione di macchine di questo tipo mettono sempre in moto un’economia assolutamente non trascurabile. Cosi’ come e’ avvenuto per LHC, anche per PRIMA ci sono state importanti commesse per le aziende italiane non solo legate alla costruzione di magneti. Questo solo per ribadire come i soldi dati alla ricerca rappresentino sempre un investimento. Purtroppo, il tasso di interesse o i tempi per poter maturare questo tasso non sono sempre scritti o sicuri anzi, lasciatemi dire, possono maturare in settori completamente diversi.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le scale sismologiche

6 Giu

Nella sezione:

Hai domade o dubbi

e’ stata fatta una richiesta molto interessante che riguarda le scala sismologiche. In particolare, si chiedeva di illustrare nel blog la scala ESI 2007, ma credo che sia molto interessante parlare in generale di quali scale vengono utilizzate per classificare un sisma e quali sono le differenze tra queste.

Di principio, tutti conoscono la scala Mercalli e la scala Richter, che sono quelle apparentemente piu’ utilizzate e che sentiamo nominare in occasione di qualche sisma che avviene nel mondo. Ho detto “apparentemente” perche’ prima di tutto ci sono molte altre scale utilizzate soprattutto dai sismologi ed inoltre molte di queste riescono a classificare i terremoti in modo piu’ scientifico, basandosi proprio sulla natura fisica del fenomeno, piuttosto che, ad esempio, sui danni creati da un sisma.

Dal punto di vista storico, la prima scala basata su presupposti scientifici fu la Rossi-Forel a dieci gradi. Proprio da questa, il sismologo e vulcanologo Mercalli derivo’ una scala a 12 gradi basata sull’intensita’ di un sisma. Fate attenzione, per prima cosa, parlando di terremoti, e’ molto importante distinguere tra intensita’ e magnitudo, termini spesso confusi tra loro dai non addetti ai lavori. Per far capire questa differenza, su cui torneremo in seguito descrivendo i processi fisici, basti pensare che due terremoti di uguale magnitudo possono avere intensita’ diversa se, ad esempio, avvengono con ipocentri a profondita’ diversa tra loro.

Detto questo, la scala Mercalli e’ basata sugli effetti che un terremoto puo’ avere su persone, cose e manufatti. Alla luce di quanto detto, appare evidente che un terremoto di altissima magnitudo che avviene in una zona desertica non popolata, avra’ un grado Mercalli inferiore proprio per la mancanza di danni a cose e persone.

Per essere precisi, l’attuale scala utilizzata e’ detta Mercalli-Cancani-Siedberg ed e’ a 12 gradi. In origine, la scala Mercalli, cosi’come la Rossi-Forel, aveva solo 10 gradi. Fu proprio il sismologo Cancani ad esternderla a 12 gradi. Generalmente, i gradi piu’ bassi della scala vengono attribuiti in base alla percezione delle persone, mentre per i gradi piu’ alti ci si basa sugli effetti agli edifici e ai manufatti in generale.

Da quanto detto, appare evidente che la scala Mercalli non e’ basata su nessuna quantita’ fisica legata al terremoto, ma solo agli effetti del sisma. Se vogliamo, questo inizialmente potrebbe essere un vantaggio di questa scala dal momento che per l’attribuzione dell grado non e’ necessaria alcuna strumentazione specifica.

Proprio queste considerazioni hanno poi portato alla formulazione della scala Richter. Piccola premessa, il termine scala Richter, non e’ in realta’ molto utilizzato dalla comunita’ sismologica in quanto la scala viene detta “Magnitudo Locale”. Come e’ definita? Come anticipato, questa scala misura la magnitudo del sisma ed e’ direttamente legata all’energia rilasciata nel sottosuolo. Questo parametro viene stimato per il terremoto all’ipocentro ed e’ dunque non dipendente, come e’ evidente, dalle tecniche costruttive utilizzate in una determinata zona. A parte il particolare sismografo utilizzato per determinare il grado Richter, questa e’ una scala logaritmica in cui vengono definiti i decimi di magnitudo (M X.Y) ed in cui, ad esempio, una determinata magnitudo e’ circa 32 volte maggiore della successiva: M6=32M5, ecc.

Ora, date queste due scale, perche’ avremmo bisogno di altro? Come detto, la scala Mercalli e’ relativa ai danni del terremoto, la acala Richter invece e’ direttamente legata all’energia rilasciata dal sisma e dunque descrive la meccanica del fenomeno. In realta’, quest’ultima scala presenta dei problemi di saturazione per i gradi maggiori, dovuti al fatto che, sopra M8.5, terremoti di magnitudo diversa possono risultare nello stesso valore della scala.

Per risolvere questo problema, e’ stata poi introdotta la scala del “momento sismico”. Analogamente alla Richter, anche questa scala e’ di tipo logaritmico e si basa sulla stima dell’energia rilasciata nell’ipocentro. A differenza pero’ della prima, non presenta i problemi di saturazione.

Da quanto detto, appare evidente come queste scale siano completamente scorrelate tra loro, trattando un sisma sotto aspetti diversi. Se ci pensiamo bene, entrambi i parametri utilizzati potrebbero essere utili per una valutazione e per una comparazione, ad esempio, per sismi successivi avvenuti nello stesso luogo. Sulla base di questo, e’ stata sviluppata la “Scala Macrosismica Europea”, o EMS-98. In questa definizione, si distingue un sisma in base alla forza degli effetti di un terremoto in un luogo specifico. In questo senso, entra ovviamente l’energia del sisma, ma anche i danni provocati dal fenomeno in un determinato luogo, caratterizzato da specifiche tecniche costruttive e densita’ abitative. Anche la EMS-98 presenta 12 gradi e, passando dai livelli piu’ bassi a quelli piu’ alti, di volta in volta la percezione umana del sisma lascia spazio ai danni agli oggetti provocati dal fenomeno. Per quanto piu’ precisa e meglio utilizzabile, anche questa scala presenta delle limitazioni simili a quelle dei suoi predecessori: confusione nell’attribuzione di un livello alto, influenze soggettive nella valutazione dei danni agli edifici.

Per evitare queste problematiche, nel 2007 e’ stata sviluppata una nuova scala detta “Environmental Seismic Intensity Scale”, o ESI-2007. Come suggerisce il nome stesso, questa scala si basa sugli effetti ambientali che un sisma puo’ avere in un determinato luogo. Fate attenzione, stiamo parlando di ambiente in generale, non solo di antropizzazione. In tal senso, questa scala va proprio a valutare la fagliazione provocata nel terreno, fenomeni di subsidenza, liquefazione, frattura, ecc. Come visto in diversi articoli, questi sono tutti effetti seguenti ad un sisma e che possono essere utilizzati per descrivere il fenomeno partendo proprio dalle sue conseguenze sull’ambiente.

Qual e’ il vantaggio di questa tecnica? Come sappiamo, molto spesso un terremoto tende a ripetersi in zone in cui e’ gia’ avvenuto. Valutare, e dunque raccontare, il sisma basandosi proprio sui suoi effetti sull’ambiente, puo’ aiutarci a prevenire i danni del terremoto. In che modo? Parlare di case distrutte, non e’ di per se un parametro utilie, ad esempio, per confrontarci con fenomeni avvenuti decenni prima. Questo e’ evidente se si pensa alle diverse tecniche costruttive, ma anche al grado di antropizzazione di un determinato luogo. Parlando invece di conseguenze sull’ambiente, e’ possibile prima di tutto confrontarci con gli eventi passati, ma soprattutto ci permette di predisporre piani di emergenza mirati, conoscendo le eventuali problematiche che potrebbero verificarsi in concomitanza con un sisma di alta intensita’.

Ultima considerazione che vi sara’ venuta in mente: perche’ parliamo di nuova scala se il nome e’ qualcosa-2007? Semplicemente perche’ nel 2007 e’ stta presentata questa divisione, ma prima di poter essere utilizzata, sono richiesti 5 anni di sperimentazione, cosi’ come avvenuto.

Concludendo, esistono diverse scale sismologiche per poter valutare e distinguere tra loro i diversi terremoti. Cme visto pero’, queste presentano alcune limitazioni specifiche dovute alla stima dei danni o alla caratteristica fisica presa in considerazione. Distinzione molto importante e’ quella tra magnitudo e intensita’ che, come visto, sono due termini spesso confusi ma che in realta’ caratterizzano cose completamente diverse tra loro. La nuova scala ESI-2007, consente di valutare gli effetti provocati da un sisma sull’ambiente, determiando cosi’ un confronto diretto e sempre possibile in un luogo specifico. Come potete facilmente immaginare, per poter definire esattamente il grado ESI di un sisma, i sismologi devono recarsi sul luogo per poter stimare al meglio gli effetti ambientali lasciati. Oltre a quelle viste, vi sono poi altre scale, spesso simili alle altre, ma il cui utilizzo e’, ad esempio, specifico di un determinato luogo per motivi storici o culturali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E-Cat meraviglia o grande bufala?

30 Mag

Viste le numerose richieste di informazioni, chiarimenti e spiegazioni che ho ricevuto, ho deciso di scrivere questo articolo sull’E-Cat. Perche’ non l’ho fatto prima? Semplicemente perche’, a mio avviso, e ne riparleremo dopo, mancavano dei presupposti essenziali per parlare di questa presunta invenzione in termini scientifici.

Ora cosa e’ cambiato?

A parte le numerose richieste ricevute, la rete e’ letteralmente esplosa in questi giorni perche’ sembrerebbe che finalmente sia arrivata la dimostrazione indipendente del funzionamento di questo prodigio.

Bene, analizziamo i fatti e cerchiamo di capire meglio di cosa stiamo parlando.

Per chi non lo sapesse, l’E-Cat e’ una presunta invenzione di Andrea Rossi che produrrebbe energia in un modo non noto. Mi spiego meglio. Si tratta di una sorta di generatore, alimentato da corrente elettrica, che pero’ produce piu’ energia di quanta ne assorbe. E’ strano questo? Assolutamente no. Non pensate che si stia violando qualche principio fisico basilare, semplicemnte si potrebbe sfruttare una qualche reazione chimica, fisica o sconosciuta mediante la quale si innescano dei processi esoenergetici, cioe’ che producono energia.

Poiche’ questo punto e’ molto importante, cerchiamo di capirlo bene e in modo semplice. Prendiamo, ad esempio, la fissione nucleare. Mediante questo proceso, nuclei di elementi fissili vengono spaccati in elementi piu’ leggeri, mediante neutroni, producendo energia. Ora, per produrre i neutroni da sparare avete bisogno di energia, ma quella che otteete alla fine del processo e’ maggiore di quella che avete speso, perche’ siete riusciti ad estrarre un’energia dall’interno del nucleo. Avete creato qualcosa dal nulla? No, avete semplicemente sfruttato un processo per produrre questa energia traformandola in qualcosa di utilizzabile ai vostri scopi.

Bene, l’invenzione di Rossi dovrebbe fare un qualcosa di equivalente. L’invenzione promette infatti di produrre molta piu’ energia di quella che deve essere immessa, sfruttando un processo, almeno al mometo, sconosciuto.

Qual e’ il carburante dell’E-Cat? Piu’ o meno il sistema funziona in questo modo: mettendo insieme Nichel e Idrogeno e fornendo un’energia iniziale al sistema, si dovrebbe innescare una reazione fortemente esoenergetica, in cui viene prodotta 5 o 6 volte piu’ energia. Attenzione pero’, gli ingredienti non bastano. Per poter funzionare, c’e’ bisogno anche di un catalizzatore da aggiungere al miscuglio Ni-H, tenuto segreto per motivi di spionaggio industriale.

Perche’ spionaggio industriale? Semplice, parlando di E-Cat, non stiamo parlando di una ricerca scientifica, bensi’ di una invenzione che deve essere lanciata sul mercato. Detto in altri termini, che deve essere venduta.

Quasta cosa ci sconvolge? Assolutamente no. Chiunque di noi puo’ pensare ad un’invenzione commerciale fattta esclusivamente per guadagnare. Non c’e’ nulla di male in questo, purche’, come vedremo, ci siano tutti i presupposti di affidabilita’ dell’invenzione.

Per chi gia’ conoscesse l’E-Cat, notate che ho parlato di una misteriosa reazione. Su molti giornali e siti internet, vedete che si parla di “fusione fredda” o “reazione nucleare a bassa energia”, ho omesso appositamente di tirare in causa questi concetti. Perche’? La fusione nucleare e’ quel processo secondo il quale dei nuclei leggeri vengono fusi tra loro per produrne uno piu’ grande, producendo energia. Questa ‘e la reazione utilizzata dal sole e dalle stelle per produrre energia, ed e’ quella a cui si vorrebbe puntare per sostituire le centrali nucleari a fissione. Il motivo e’ molto semplice, favorevoli o meno al nucleare, il punto piu’ discusso su queste tematiche e’ quello della produzione di scorie, cioe’ elementi nucleari di scarto con vite medie lunghe, cioe’ che restano attivi per molto tempo.

Qual e’ il problema principale della fusione?

Come detto, si devono fondere tra loro due nuclei leggeri per formarne uno pesante. Bene, cosa c’e’ dentro il nucleo? Neutroni, particelle neutre, e protoni, particelle di carica positiva. Come sappiamo bene, se avviciniamo due cariche dello stesso segno, come i protoni dei due nuclei, questi si respingono tra loro a causa della repulsione coulombiana. Ora pero’, se riuscissimo ad avvicinare moltissimo i due nuclei, si arriverebbe ad un punto in cui la forza nucleare forte, che e’ attrattiva, sarebbe molto maggiore della repulsione dovuta alle cariche elettriche, e i due nuclei si attirerebbero tra loro. Niente di complicato. Mentre li avvicinate, i due nuclei si respingono, quindi dovete spingerli con forza per farli avvicinare. Quando poi riuscite ad arrivare oltre una certa distanza, nota come barriera di Coulomb, a questo punto i due nuclei si attirano da soli e si innesca la fusione. Il problema delle centrali a fusione e’ proprio quello di trovare il modo piu’ conveniente ed efficace per fornire l’energia necessaria al superamento della barriera di Coulomb.

E la fusione fredda?

Come detto, parlando di fusione si parla di processi ad altissima temperatura, come avviene nelle stelle. La fusione fredda invece avverrebbe a temperatura ambiente. Al contrario di quanto si legge spesso in rete, non esitono evidenze di reazioni di questo tipo. Storicamente, i primi a parlare di fusione fedda furono gli americani Fleischmann e Pons, cui seguirono altre prove. Per nessuna di queste pero’, esiste la certezza scientifica che si sia trattato realmente di una reazione nucleare di questo tipo e, ancora oggi, c’e una forte discussione a proposito.

Perche’ per l’E-Cat si parla di fusione fredda?

In diverse fonti si parla della reazione tra Nichel e Idrogeno che verrebbero fusi tra loro per produrre Rame. Questo sarebbe il processo che avverrebbe a bassa energia e che fornirebbe l’energia dell’E-Cat. Ripeto, non sono d’accordo su questo punto e a breve mostreremo anche il perche’.

Prima di tutto, rivediamo un po’ la storia di questo E-Cat. Nel 2011 si e’ iniziato a parlare di questo generatore quando Rossi ha condotto due test rendendo pubblici i risultati. In questi esperimenti, fornendo un’energia al macchinario intorno ai 35 KWh, si sarebbero prodotti in un caso 70 KWh, nell’altro 160 KWh. Stando ai numeri, la reazione sarebbe effettivamente esoenergetica e molto conveniente. Qual’era il problema di questi test? Semplicemente, non ci sono prove scientifiche della validita’ dei risultati perche’ il tutto e’ stato condotto in maniera autonoma e senza un confronto indipendente. Cosa significa? Ai test sono stati invitati giornalisti rigorosamente selezionati, in veste di spettatori. Mi spiego meglio. I giornalisti sono stati invitati in questo capannone e hanno potuto vedre e filmere il test di Rossi riportando solo ed esclusivamente quelllo che l’inventore del macchinario affermava.

Ora, vedetela in questo modo. Un signore vi invita ad una dimostrazione in cui vi mostra una scatola nera in cui mette 10 euro e dall’altra parte ne escono 20. Basta, non vi viene detto altro ne’ vi vengono forniti dettagli su cosa c’e’ dentro la scatola. Non parlo a caso di scatola nera, infatti, molte delle parti dell’apparecchiatura sono tenute coperte e chiuse alla vista. Ovviamente, si tratta dei componenti fondamentali del sistema, incluso anche il misterioso catalizzatore che darebbe il via alla reazione.

Cosa dice la scienza a proposito? Come e’ facile immaginare, questo risultato non e’ stato accettato dalla comunita’ scientifica. Per sostenere qualcosa di questo tipo, seguendo i canoni della scienza, si dovrebbe mostrare il macchinario, studiare la reazione che avviene e il tutto deve essere ripetibile ovunque nelle stesse condizioni. Se queste informazioni mancano, il test e’ del tutto simile a quello di un’illusionista che vi mostra l’assistente tagliata in due all’interno di una scatola.

Come forse sapete, a seguito di questi test, e del completo rifiuto della scienza su questi risultati, Rossi e’ divenuto un “mito telematico”, metafora di quel genio che trova l’invenzione del secolo per il bene dell’umanita’ e a cui la scienza mette i bastoni tra le ruote perche’ corrotta dalle grandi multinazionali.

Se invece di gridare allo scandalo, si ragionasse su quanto detto, tutti si renderebbero conto che affermazioni di questo tipo non possono essere credibili se non verificate sperimentalmente. Il problema energetico dell’umanita’ non si risolve con la fiducia sulla parola, ma con numeri chiari verificabili e indiscutibili.

Perche’ ora, come anticipato, si parla di verifica indipendente? Nei mesi scorsi sarebbero stati condotti altri test. Questa volta pero’, avrebbero partecipato anche scienziati di diverse parti del mondo che avrebbero assistito agli esperimenti. Anche in questo caso, i risultati avrebbero mostrato un guadagno energetico del processo, confermando dunque la correttezza del metodo su cui si basa l’E-Cat.

Attenzione, facciamo una considerazione. Come premesso, in ambito commerciale, e’ lecito parlare di segreto industriale. Le regole del commercio sono diverse da quelle della scienza. A mio avviso, se il tutto venisse mostrato ad un gruppo di scienziati affidabili ed in grado di fornire un’opinione scientifica, sicuramente il test acquisterebbe di credibilita’. Purtroppo, non e’ andata cosi’.

L’altro punto fondamentale su cui si e’ dibattuo a lungo e’ la mancanza di una “peer review” sull’esperimento. Cosa significa? Quando si pubblica un articolo su una qualche rivista internazionale, si passa attraverso il processo di “referaggio”. Prima di pubblicare il lavoro, la rivista nomina un altro ricercatore internazionale di chiara fama ed esperto del settore che ha il compito di analizzare in dettaglio il contenuto dell’articolo. Se ci sono punti poco chiari, l’esperto puo’ chiedere maggiori spiegazioni al fine di chiarire il tutto ed evitare, nella migliore delle ipotesi, errori sfuggiti agli autori. Solo al termine di questo processo il vostro lavoro, se accettato, viene pubblicato.

Partendo proprio da questo punto, gli ultimi test seguiti dal gruppo di scienziati avrebbero risolto anche questo problema.

Perche’?

Solo pochi giorni fa, e’ stato pubblicato un articolo sull’archivio della Cornell University, che trovate a questo link:

ArXiv E-Cat

A questo punto, tutti i dubbi iniziali dovrebbero essere risolti: il test e’ stato eseguito indipendentemente da un gruppo di ricercatori e questi hanno anche pubblicato un articolo, ovviamente confermando i risultati dei primi test.

Cosa c’e’ che non va?

Prima di tutto, quello di cui vi ho dato il link, non e’ un articolo su rivista internazionale che ha subito un processo di peer review. Il database in questione e’ semplicemente un archivio di articoli in cui i ricercatori possono mettere i loro lavori. Non c’e’ nessun controllo sul contenuto degli articoli, a parte la buona fede dei ricercatori stessi. Generalmente, almeno nel campo della fisica, i lavori vengono caricati su arXiv prima che questi vengano pubblicati sulle riviste, cioe’ mentre e’ in corso il processo di review. Detto questo, non e’ assolutamente risolto il problema del peer review per l’E-Cat.

Purtroppo, neanche la prima critica e’ stata risolta. Come potete leggere nel testo dell’articolo, non si e’ trattato assolutamente di una verifica indipendente, ma solo di uno spettacolino riservato a persone esperte del settore. Cosa significa? Nei primi test erano stati invitati dei giornalisti, ora dei ricercatori, ma lo svolgimento e’ stato esattamente lo stesso. I ricercatori non hanno potuto toccare nulla, ma si sono limitati a guardare il test condotto da Rossi nei suoi laboratori. Inoltre, molte delle parti del sistema su cui si era discusso, sono rimaste chiuse all’interno di scatole nere in cui era impossibile guardare dentro e, come e’ facile pensare, tra queste vi era anche il misterioso catalizzatore. L’articolo di cui stiamo parlando e’ dunque un insieme di osservazioni e considerazioni fatte dai ricercatori.

Cosa e’ cambiato rispetto al passato? Ovviamente, i ricercatori intervenuti hanno potuto misurare il calore in uscita mediante una termocamera, valutando in questo modo sia la potenza in uscita che quella in ingresso utilizzando sistemi elettrici. A parte al correttezza o meno di questo processo indiretto e della valutazione dell’incertezza ottenuta misurando la potenza con una termocamera, non  si e’ assolutamente trattato di una prova “indipendente”.

C’e’ anche qualche altra considerazione importante da fare. Come detto in precedenza, a mio avviso non si e’ trattato di fusione fredda. Un processo di questo tipo necessariamente producce radiazione in uscita. Effetto non riportato in nessun caso e impossibile da schermare in sistemi di questo tipo. Tra l’altro, conosco personalmente uno dei ricercatori intervenuti ed e’ un esperto di radioprotezione dell’Universita’ di Uppsala in Svezia.

Oltre a questo, la quantita’ d rame che si sarebbe prodotta corrisponderebbe ad un rendimento del sistema molto piu’ alto di quello che ci si aspetta e soprattutto il rame in questione sarebbe non eterogeneo, cioe’ mancano isotopi diversi dalla forma piu’ commerciale e abbondamente in natura.

Ulima considerazione scientifica, dal punto di vista energetico, la fusione di nichel e idrogeno sarebbe possibile e verrebbe prodotto rame, ma la barriera coulombiana per questi nuclei e’ elevatissima. Questo solo per dire che un processo del genere a bassa energia e’ scientificamente molto difficile da digerire. Teoricamente si potrebbe citare l’effetto tunnel, ma questo non spiegherebbe neanche la certezza della reazione di fusione cosi’ come altri processi quantistici non deterministici.

Concludendo, alla luce delle considerazioni fatte e degli ultimi aggiornamenti, non pssiamo assolutamente affermare che l’E-Cat sia un sistema reale e che possa essere accettato dalla scienza. Questo non significa che potrebbe esistere questo generatore in grado di fare quello che Rossi promette. Semplicemente, se anche esistesse, non e’ comprensibile la reazione su cui sarebbe basato e soprattutto mancano dati certi su cui ragionare e da cui estrarre certezze scientifiche. Al momento, almeno secondo me, siamo ancora al livello dll’illusionista che taglia l’assistente con la sega.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Strano arco rosso in cielo

10 Apr

Sfogliando i tanti siti catastrofisti che (purtroppo) animano la rete, mi sono imbattutto in una notizia che ha attirato la mia curiosita’. Molti siti infatti riportano di un misterioso e alquanto allarmante arco rosso che sarebbe state osservato nei cieli di tutta Europa solo un paio di giorni fa. Stando a quanto si legge in rete, questo arco sarebbe stato molto luminoso e visibile, testuali parole, su quasi tutta l’Europa, Italia compresa.

Ecco una foto di questo misterioso fenomeno:

Il presunto arco rosso sui cieli d'Europa

Il presunto arco rosso sui cieli d’Europa

Vi assicuro che la foto non e’ ritoccata, e dopo vedremo anche il perche’. Di cosa si tratta? Come sempre, non manca la solita cantilena: e’ un fenomeno misterioso, mai accaduto prima, gli scienziati non sanno dare una spiegazione certa di quanto accaduto. Qualche scienziato avrebbe provato a mettere in relazione questo fenomeno con il Sole, ma, sempre secondo i siti che pubblicano la notizia, questo accostamento e’ poco probabile. Dunque? Perche’ e’ comparso questo arco? Ovviamente per colpa della geoingegneria. Questo e’ solo uno dei tanti risultati delle scie chimiche e di HAARP che lavorano insieme modificando il nostro clima, avvelenando i cieli, uccidendoci pian piano. Insomma, come avete capito bene, la storia e’ sempre la stessa.

Messe da parte queste farneticazioni, cerchiamo di capire in primis se la notizia e’ reale e se esiste una spiegazione razionale a quanto accaduto.

Per prima cosa, come ho anticipato, la foto e’ reale e assolutamente non ritoccata al pc. Nella notizia che vi ho in parte riportato, ci sono pero’ una grossa serie di cantonate.

Andiamo con ordine.

Anche se reale, la foto mostrata non e’ assolutamente relativa al fenomeno di cui si sta parlando. Si tratta di una foto d’archivio dello stesso fenomeno avvenuto nel 2011. Per completezza, vi dico anche che la foto e’ stata scattata in Italia.

Qualche giorno fa, c’e’ stato nuovamente il fenomeno dell’arco rosso sui cieli d’Europa, ma questa volta l’arco non era visibile ad occhio nudo, mentre nel 2011 si. Quale e’ stato il ragionamento catastrofista per parlare di questa notizia? Ho letto di questo fenomeno, non so nemmeno di cosa si tratta, prendo una foto da internet senza sapere nemmeno se e’ relativa all’ultimo caso e poi ci ricamo sopra per alimentare il sospetto e per spingere il pensiero collettivo dove mi fa piu’ comodo. Questo e’ quello che tutti i giorni fanno i tanti siti catastrofisti che pubblicano notizie false o distorte solo per farci credere che qualcosa di pericoloso sia in atto.

Dunque, ricapitolando, qualche giorno fa c’e’ stato il fenomeno dell’arco rosso in Europa. L’arco pero’ non era visibile. Lo stesso fenomeno e’ avvenuto nel 2011 e questa volta era visibile.

Quanto detto apre una serie di interrogativi: se c’e’ stato l’arco rosso ma non era visibile, come facciamo a dire che c’e’ stato? Ma soprattutto, ci sono prove per sostenere quello che noi stiamo dicendo?

Cominciamo dall’ultima domanda. Volete una prova su quanto affermato? Ecco il link ad una pagina di livescience che parla di quanto avvenuto:

LiveScience Red Arc

Notate la data: 2/4/2013, dunque in linea con quanto affermato.

Come potete leggere nell’articolo, mentre nel 2011 il fenomeno fu visibile, quest’anno l’arco era invisibile ad occhio nudo anche a causa del notevole inquinamento presente sull’Europa. Il fenomeno e’ stato pero’ osservato dal telescopio ASIAGO (All-Sky Imaging Air-Glow Observatory) costruito proprio in Italia. Questo telescopio ha una strumentazione che gli consente di osservare il cielo con particolari filtri che, in questo caso, gli hanno anche permesso di osservare l’arco rosso.

Come potete vedere nell’articolo, l’immagine che viene riportata fa proprio il confronto tra l’immagine catturata da ASIAGO e quella del 2011 da cui siamo partiti.

A questo punto, cosa sarebbe questo arco rosso?

In funzione della normale attivita’ solare, piu’ o meno particelle cariche possono arrivare sulla nostra magnetosfera, cioe’ la regione dominata dal campo geomagnetico. Queste interazioni sono esattamente le stesse che danno luogo alle aurore nelle regioni polari. Mentre in questo caso l’effetto dell’interazione da luogo ad emissioni di particelle nel visibile, alle latitudini piu’ basse si possono formare appunto gli archi rossi. Questo fenomeno avviene ad un altitudine molto maggiore rispetto a quella delle Aurore, dal momento che gli archi vengono formati nella ionosfera tra 100 e 600 Km di altitudine. L’emissione ottica del processo avviene ad una specifica lunghezza d’onda, spostata appunto verso il rosso. Generalmente, l’emissione avviene con intensita’ molto debole e difficilmente il fenomeno degli archi rossi e’ visibile ad occhio nudo.

Solo per precisare, quando diciamo che “generalmente” non e’ visibile, significa che in alcuni casi lo e’. L’esempio del 2011 e’ proprio la prova della sporadica visibilita’ di questi fenomeni.

Dal punto di vista della ricerca, il telescopio ASIAGO non servira’ certo solo per vedere gli archi rossi in cielo. La sua funzione, anche attraverso l’osservazione di questo fenomeno, consentira’ di capire molte cose sulla nostra magnetosfera, sia dal punto di vista della composizione che sotto il profilo delle reazioni chimico-fisiche che avvengono. Inoltre, questo potrebbe essere un’ottima misura indiretta per valure in continuo l’attivita’ solare in corso.

Concludendo, anche in questo caso non c’e’ assolutamente nessun mistero. La notiza degli archi rossi, non riguarda assolutamente un fenomeno misterioso, ne tantomeno mai osservato o incomprensibile. Come dimostrato, ci sono altri esempi di archi rossi in cielo ed, in particolare, la foto che trovate in moltissimi siti riguarda proprio uno stesso evento, questa volta visibile ad occhio nudo, accaduto nel 2011.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Curiosita’ sui cicli solari

31 Dic

Nel post precedente, siamo tornati a parlare del Sole, per cercare di fare un po’ di chiarezza nel mare di informazioni piu’ o meno fasulle che trovate in rete:

Sole: quanta confusione!

In particolare, abbiamo visto come il Sole presenti un andamento temporale noto, con un periodo di 11 anni che trascorre tra un massimo ed un minimo di attivita’.

Per quanto riguarda i minimi, su cui ci siamo concentrati prima, come detto, un minimo molto prolungato dell’attivita’ solare, puo’ veramente avere delle conseguenze particolari sulla Terra. Come e’ facile immaginare, un lasso di tempo abbastanza lungo di bassa attivita’ solare, puo’ causare un sensibile abbassamento di temperatura sul nostro pianeta.

In questo post, vorrei proprio parlarvi di “storia” dei cicli solari e dei minimi prolungati e accentuati che ci sono stati nel corso dei secoli.

In particolare, il piu’ famoso minimo prolungato di attivita’ solare si e’ avuto negli anni tra 1645 e il 1715 ed e’ noto come minimo di Maunder o “Maunder minimum”. Altro minimo storico, ma meno drastico, si e’ avuto invece tra il 1790 e il 1830 ed e’ noto come minimo di Dalton.

Prima di tutto, voglio mostrarvi un grafico del numero di macchie solari registrate negli ultimi 400 anni. Come sappiamo bene, il numero di macchie solari e’ un indicatore molto importante per capire l’attivita’ solare ed e’ direttamente collegato al comportamento del nostro Sole.

Ecco il grafico:

Il numero di macchie solari registrate nel corso degli anni

Il numero di macchie solari registrate nel corso degli anni

Come vedete, il minimo di Maunder e’ facilmente riconoscibile. Maunder era un astronomo solare che in realta’ nacque nel 1851, quindi quando il minimo era gia’ finito, ma che scopri’ questa anomalia studiando le cronache passate con l’indicazione del numero di macchie solari osservate in passato.

A conferma di quanto detto in precedenza, il minimo di Maunder e’ anche noto come “piccola era glaciale”. In questo periodo si registro’ un lungo lasso di tempo in cui sul Sole erano quasi scomparse le macchie. In questi anni, in Europa ed in Nord America, si registrarono gli inverni piu’ freddi mai osservati. In realta’, molto probabilmente la stessa cosa avvenne anche in altre parti del mondo, ma purtroppo non vi sono dati storici a conferma di questo.

Capiamo subito un cosa, stiamo parlando di un periodo prolungato con un’attivita’ del Sole veramente molto bassa e caratterizzata quasi dalla scomparsa delle macchie solari. Come detto, questo non ha causato nessuna catastrofe sulla Terra a parte, come molto probabilmente si pensa, degli inverni piu’ rigidi. Questo solo per puntualizzare e per smentire nuovamente tutti quelli che vedrebbero in un’attivita’ anomala del Sole un segnale premonitore per catastrofi immani sulla Terra.

Detto questo, vorrei invece parlarvi di una curiosita’ poco nota, ma molto interessante.

Prima di tutto vi voglio mostrare un’immagine:

messiah

Sapete di cosa si tratta? E’ un violino, ma non uno qualsiasi, e’ uno Stradivari del 1716, in particolare forse uno degli Stradivari piu’ noti, il Messiah. Credo che tutti conoscano non solo il grande maestro liutaio cremonese, ma anche il valore quasi inestimabile dei suoi celebri violini. Cio’ che rende unici questi strumenti e la purezza del suono e l’unicita’ delle armoniche prodotte quando vengono suonati.

Proprio su questi violini vi vorrei racontare una curiosita’.

Antonio Stradivari nacque a Cremona nel 1644 ed ebbe il suo periodo d’oro nella costruzione di violini tra il 1700 e il 1720. Per costruire i suoi strumenti, utilizzo’ legno facilmente disponibile a Cremona e proveniente dalle Alpi. In particolare, utilizzo’ molto legno di abete proveniente dalla foresta di Paneveggio in Trentino.

Uno studio condotto su diverse foreste in Europa, ha mostrato per gli alberi cresciuti nel periodo del Maunder minimum un legno piu’ denso e con cerchi molto piu’ stretti. Questo e’ naturale se pensiamo alle temperature piu’ basse in quegli anni.

Effetto di questa crescita rallentata e’ stato un legno piu’ denso ma con proprieta’ armoniche molto particolari. Come e’ noto, Stradivari scelse il legno da utilizzare per i suoi strumenti proprio in base alle caratteristiche armoniche del materiale. Molto probabilmente, la bonta’ e l’unicita’ di queste armoniche sono in parte dovute anche alla piccola era glaciale degli anni precedenti.

Ovviamente questa considerazione non toglie nulla alle straordinarie doti di Stradivari nel costruire i suoi violini. Molto probabilmente il fatto che si utilizzo’ legno cresciuto proprio nel periodo del Maunder minimum ha dato solo un contributo all’unicita’ dei suoni emessi da questi fantastici strumenti.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

 

Lampi rossi in Danimarca

26 Ago

In diversi articoli abbiamo parlato di strani fenomeni atmosferici che hanno incuriosito e allarmato le popolazioni in diverse parti del mondo:

Una nuvola che fa pensare alla fine del mondo

Altra strana nube, questa volta in Giappone

Nuvole Sismiche

Per quanto non convenzionali, questi fenomeni sono ben conosciuti dalla scienza, ed in particolare dalla meteorologia, e la loro comprensione e origine e’ ben nota.

Qualche giorno fa, Jesper Gronne, un fotografo danese, ha scattato delle foto del cielo in una zona a circa 350 Km dal Mar del Nord, riuscendo ad immortalare qualcosa di veramente particolare.

Jesper Gronne: foto scattata a 350 Km dal Mar del Nord in Danimarca

Nella foto si vedono delle scariche elettriche simili a comuni fulmini, ma creati in una zona di cielo priva di nuvole e con una colorazione rosso acceso.

Cosa sono queste scariche?

Anche in questo caso, siamo di fronte ad un fenomeno gia’ conosciuto dalla scienza e noto con il termine di “Sprite”. Gli sprite sono un fenomeno di natura elettrica che puo’ sprigionarsi negli strati alti dell’atmosfera, fino ad 80 Km da terra. In genere, questo tipo di scariche avviene al di sopra di un fronte temporaleso ed e’ distinguibile dai normali fulmini sia per le diverse colorazioni, sia per l’altezza del fenomeno stesso.

In realta’, questi feomeni non sono molto rari. La loro particolarita’ e’ che generalmente avvengono con tempi molto piccoli, dell’ordine del centesimo di secondo, rendendo molto difficile la loro osservazione ad occhio nudo.

Per capire l’origine degli sprite, basta pensare ad una comune lampada al Neon. Infatti, anche questi sono dovuti alla ionizzazione dell’aria. Se una nube perde uno strato di carica, lo strato restante puo’ creare un forte campo elettrico in grado di accelerare elettroni. L’urto degli elettroni con le molecole dell’aria eccita i livelli e dalla conseguente diseccitazione si ha emissione di luce visibile, appunto gli sprite.La colorazione puo’ andare dal rosso al blu, in base all’altezza a cui avviene la scarica. La diversa pressione atmosferica sulle molecole puo’ infatti spostare la lunghezza d’onda dell’emissione, e quindi la colorazione delle scariche.

Resta da dire che Jesper Gronne e’ un fotografo professionista e la sua posizione era creata anche per cercare di fotografare gli sprite. La foto e’ stata scattata il 15 Agosto di quest’anno ed e’ un successo per questo fotografo professionista dopo anni di tentativi.

Come vedete, anche in questo caso siamo di fronte ad un fenomeno conosciuto e la cui foto e’ stata voluta e fatta appositamente. Anche in questo caso pero’, su alcuni siti questa verita’ inconfutabile e’ stata distorta cercando di spingere le opinioni verso un aumento di fenomeni senza spiegazione per aumentare la convizione che qualcosa di strano stia accadendo sulla nostra Terra. Per continuare ad analizzare questi e moltissimi altri fenomeni, partendo dalle profezie sul 2012, ma spaziando su tutta una serie di eventi sempre attuali, non perdete in libreria Psicosi 2012. Le risposte della scienza.

C’e’ la fine del mondo, niente scuola!

4 Apr

Davide Rossi, segretario della SISA (sindacato indipendente della scuola e ambiente), ha rilasciato un’intervista in cui dichiara di voler scrivere in prima persona al ministro Profumo per chiedere la chiusura delle scuole il 21 Dicembre 2012.

L’idea sarebbe quella di anticipare al 20 Dicembre la chiusura delle scuole per le vacanze di Natale 2012.

Nell’intervista, Rossi dichiara di non credere alla profezia circa la fine del mondo nel 2012. La richiesta infatti sarebbe dettata da motivi di ordine pubblico.

Secondo il segretario, i giorni antecedenti al 21 Dicembre, saranno caratterizzati da disordini e da gente pronta a correre nei negozi per fare incetta di prodotti di prima necessita’. Inoltre, si potrebbe assistere ad esodi di massa dalle citta’ verso le campagne. Questo ovviamente portera’ problemi di traffico e una diminuzione dell’affluenza dei nostri ragazzi a scuola.

L’unica soluzione per evitare questi problemi, e’ quella di anticipare di qualche giorno la chiusura delle scuole, facendo iniziare le vacanze natalizie il 19 Dicembre. Chiudere il 19 permetterebbe anche di organizzare eventuali esodi o rifornimenti alimentari il 20 Dicembre, in modo tale da essere pronti il 21 per assistere alla fine del mondo!

Cosa dobbiamo aspettarci per il 21 Dicembre? Possibile che tutte le profezie fatte siano prive di fondamento? Cosa dice la scienza ufficiale? Scopritelo leggendo Psicosi 2012. Le risposte della scienza.