Tag Archives: nuclei

La bomba più potente mai creata!

20 Ott

Eccoci di nuovo qui. Scusate, come al solito, la mia latitanza ma, in questi giorni, sono un po’ lontano dall’Italia e con qualche problema di fuso orario, oltre ai sempre presenti impegni lavorativi.

Detto questo, dopo questi due post:

Il suono del vinile

Il suono più forte mai udito

c’è un’ultima domanda che mi è stata rivolta via mail e che vorrei condividere con tutti perchè, a mio avviso, potrebbe essere molto interessante. La domanda fatta è, se vogliamo, molto semplice: qual è la bomba atomica più potente mai creata dall’uomo?

Premetto subito che il mio post non vuole urtare il pensiero di nessuno. Non è questa la sede per discutere tra chi è a favore dell’energia atomica e chi no, chi pensa una cosa e chi un’altra, ecc.. Lo scopo di questo post vuole essere puramente scientifico o, lasciatemi dire, nonostante l’argomento, di curiosità.

Bene, la bomba atomica più potente, e vedremo cosa significa, mai realizzata dall’uomo è la Bomba Zar, nome in codice Big Ivan, sviluppata in unione sovietica. Premetto subito che non si è trattato di un ordigno di offesa ma solo di un test militare. Anzi, come molti storici sotengono, più che un test militare, la costruzione e il seguente utilizzo della bomba è stato più che altro un messaggio di propaganda dell’ex-URSS per dimostrare ai suoi cittadini, e al mondo intero, cosa la nazione fosse in grado di realizzare.

Dal punto di vista tecnico, la bomba Zar, nella sua concezione iniziale, era una bomba a 3 stadi. Nel nucleo più interno il processo di fissione veniva fatto partire per fornire energia al secondo stadio in cui si aveva un’amplificazione grazie alla fusione di atomi di idrogeno, energia che serviva a sua volta per innescare una seconda fusione nel terzo e più esterno strato della bomba.

A livello progettuale, la bomba Zar era in grado di sviluppare una potenza di 100 Mt, cioè 100 milioni di tonnellate di TNT equivalente. A quanto equivale questa energia? Per farvi un esempio noto a tutti, l’atomica sganciata dagli USA su Hiroshima, Little Boy, aveva una potenza 3125 volte inferiore. Se potessimo far esplodere simultaneamente tutti gli esplosivi convenzionali utilizzati nella seconda guerra mondiale, l’esplosione sarebbe ancora 10 volte inferiore a quella della Bomba Zar.

Questo potentissimo ordigno venne sviluppato dall’Unione Sovietica da un team di fisici capeggiati da Andrej Sacharov, una delle menti più brillanti del XX secolo. Dopo aver contribuito in modo fondamentale allo sviluppo della bomba a idrogeno, Sacharov iniziò una lunga battaglia a favore dei diritti civili e contro l’uso dell’energia nucleare negli armamenti. Proprio questa sua attività gli valse il premio nobel per la pace.

Tornando a parlare dell’ordigno, per motivi di sicurezza, nell’unico test condotto, venne realizzata una versione depotenziata della Bomba Zar. A differenza del progetto iniziale, il terzo stadio venne sostituito da piombo, materiale in grado di rallentare e schermare le radiazioni prodotte dalla bomba. Questa versione poteva però raggiungere la sempre impressionante energia di 50 Mt. Il test venne poi eseguito il 30 Ottobre 1961, sull’isola di Novaja Zemlja, una località sperduta a nord del Circolo Polare.

Nonostante l’enorme potenza, la sostituzione del terzo stadio con piombo diminuì notevolmente la radiazione emessa attraverso il fallout successivo alla detonazione. Proprio per questo motivo, considerando il rapporto potenza/radiazione, la bomba Zar è anche stata l’ordigno nucleare più “pulito”.

Quali sono gli effetti di una detonazione del genere? Prima di tutto, consideriamo che la bomba venne fatta esplodere a 4000 metri dal suolo. Nonostante questo, la successiva onda sismica provocata dalla deflagrazione fece 3 volte il giro del pianeta. Testimoni a 1000 Km di distanza dal punto, poterono vedere chiaramente il lampo anche se il cielo era notevolmente nuvoloso. Altri testimoni riportarono di aver percepito il calore dell’onda sulla pelle fino a 270 Km di distanza. Praticamente tutto quello che era presente fino a 35 Km dal centro venne completamente spazzato via. Se ancora non vi basta, a 900 Km di distanza, in Finlandia, alcune case riportarono danni a porte e finestre provocati dall’onda d’urto dell’esplosione.

Ripeto, questa era la versione depotenziata di un un fattore 2 rispetto al reale progetto.

Spero che quanto raccontato sia sufficiente a far capire le potenzialità di questi ordigni. Ripeto, non voglio discutere se è giusto o meno costruire, o saper realizzare, bombe di questo tipo. Permettetemi però di dire, senza offesa per nessuno, che dal punto di vista tecnico è straordinario pensare a quanta energia possa essere sviluppata da un sistema di questo tipo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fusione, ci siamo quasi?

17 Feb

La chimera della produzione di energia attraverso processi nucleari e’ senza ombra di dubbio la fusione. Come sappiamo, detto in modo improprio, possiamo pensare a questo processo come qualcosa di inverso alla Fissione. Se in quest’ultimo caso, un nucleo atomico viene spezzato in due nuclei piu’ piccoli liberando energia, nella fusione abbiamo due elementi piu’ leggeri che vengono uniti in uno piu’ grande. Anche in questo caso, nel processo c’e’ un eccesso di energia che viene liberato verso l’esterno. Non si tratta di magia ma del bilancio energetico delle reazioni, facilmente calcolabile utilizzando i principi base della fisica nucleare.

Per la fissione, il processo e’ relativamente semplice ed in grado di autosostenersi. Quest’ultimo aspetto e’ fondamentale quando si considerano processi di questo tipo. Detto in altri termini, basta dare il “la” alla reazione per avere qualcosa in grado di autosostenersi autonomamente e continuare cosi’ a produrre energia. Come noto, siamo in grado di utilizzare questo processo molto bene sia con reazioni controllate nei reattori a fissione sia in modo non controllato attraverso la bomba atomica.

E per la fusione?

Qui il discorso e’ diverso. A partire dagli anni ’50, abbiamo iniziato a studiare queste reazioni per cercare di ottenere un bilancio positivo. Cosa significa? Prendete due nuclei leggeri. Per far avvenire la fusione dovete avvicinarli tra loro fino a formare qualcosa di piu’ grande. Semplice ma non scontato. Prendiamo il discorso in modo improprio ma comprensibile. Nei nuclei avete protoni e neutroni. Come ci hanno insegnato a scuola, se proviamo ad avvicinare cariche di uguale segno queste si respingono attraverso la forza coulombiana. Ma allora, perche’ nel nucleo i protoni sono fermi e tutti vicini tra loro? Avvicinando due particelle come i protoni, inizialmente avete la repulsione coulombiana dovuta alle cariche elettriche che tende ad allontanarle. Se resistete opponendovi a questa forza, vi accorgete che sotto una certa distanza interviene un’altra forza, questa volta attrattiva e molto piu’ intesa di quella dovuta alle cariche elettriche, la forza nucleare forte. Si tratta solo di un’altra interazione che pero’ agisce a distanze molto corte tra i nucleoni. La presenza dei neutroni nel nucleo serve proprio a tenere unito il nucleo stesso. Poiche’ i neutroni non hanno carica elettrica, non subiscono repulsione coulombiana mentre esercitano e subiscono l’interazione forte. Detto in altri termini, i neutroni fanno da collante per far si che la forza forte, attrattiva, vinca su quella coulombiana, repulsiva.

Bene, lo scopo del gioco della fusione e’ proprio questo. In qualche modo dobbiamo avvicinare i nuclei spingendoli fino a che la forza forte non diventi piu’ intensa di quella coulombiana. Sotto questo limite, ci sara’ un’attrazione spontanea che portera’ alla formazione di un nucleo piu’ pensate, rilasciando energia.

Qual e’ il limite nella produzione di energia da fusione? Ovviamente, dovete fare in modo che l’energia spesa per avvicinare i nuclei sia minore di quella che viene ceduta dopo la fusione. Questo e’ il famoso bilancio positivo di cui tanti parlano ma, lasciatemi dire, in pochi hanno veramente capito.

Di questi processi abbiamo parlato in diversi articoli mostrando le diverse tecniche che si stanno sperimentando nel mondo:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Contrapposti a questi, ci sono poi i diversi esperimenti per creare quella che viene definita “fusione fredda” e su cui tanta speculazione e’ stata fatta negli ultimi anni:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come detto e ripetuto piu’ volte, dobbiamo essere aperti di mente nei confronti di questi processi che pongono le loro radici in metodi scientifici conosciuti. Quello che pero’ manca, e’ una dimostrazione oggettiva che questi apparecchi, esempio su tutti l’E-Cat, siano veramente in grado di produrre energia in quantita’ maggiore di quella data in ingresso.

Perche’ torno nuovamente su questi argomenti?

Come forse avrete letto, solo pochi giorni fa e’ stato fatto un nuovo anuncio riguardante la ricerca sulla fusione nucleare. In un articolo pubblicato sulla rivista Nature, il NIF, National Ignition Facility, della California ha annunciato di aver ottenuto un bilancio positivo della reazione di fusione di isotopi di idrogeno in elio.

Del NIF abbiamo gia’ parlato nei precedenti articoli riportati sopra. Come sappiamo, in questo caso si utilizzano quasi 200 fasci laser per comprimere, mediante oro, atomi e isotopi di idrogeno, deuterio e trizio, per formare elio. Nel processo viene rilasciata l’energia della fusione.

Come capite bene, in questo caso il bilancio positivo si ha se l’energia rilasciata e’ maggiore di quella necessaria per far sparare nello stesso istante tutti i laser.

Nei primi anni di vita, il NIF ha rappresentato una grande speranza per la ricerca della fusione, attirando grandi finanziamenti. Finanziamenti che poi sono diminuiti quando i risultati ottenuti erano notevolmente inferiori alle aspettative.

Oggi, il NIF e’ riuscito ad ottenere per la prima volta un bilancio positivo, anche se solo minore dell’1%, rispetto all’energia richiesta per far andare i laser. Se proprio vogliamo dirla tutta, non siamo ancora contenti di questo risultato e saranno necessari tantissimi altri studi prima di poter gridare vittoria e prima di poter vedere la fusione utilizzata per la produzione di energia.

Come detto nell’introduzione, lo scopo di questo gioco e’ quello di tenere in qualche modo gli atomi fermi mentre li comprimiamo fino alla fusione. Nel NIF questo confinamento avviene sfruttando l’inerzia dei nuclei stessi e proprio per questo motivo si parla di “confinamento inerziale”. Diversamente, ad esempio per ITER, si cerchera’ di utilizzare forti campi magnetici per tenere i nuclei uniti, parlando di “confinamento magnetico”. La trattazione di questo aspetto non e’ affatto banale e rappresenta, a questo livello, un contributo assolutamente non trascurabile nel bilancio energetico finale della reazione.

Perche’ dico questo?

I risultati ottenuti dal NIF sono assolutamente ragguardevoli e sono un ordine di grandezza maggiore rispetto ai migliori risultati precedenti. Il bilancio positivo dell’1% non tiene pero’ conto dell’energia spesa per il confinamento. Questo per far capire quanto lavoro e’ ancora necessario.

La comunita’ scientifica della fusione, pone tutte le sue speranze, nel progetto internazionale ITER. Come sapete bene, in questo caso si parla di un vero e proprio reattore prototipale per la produzione di energia per fusione. Anche in questo caso, ci saranno diverse sfide tecnologiche da vincere ma la strada segnata dai successi degli ultimi anni non puo’ che farci ben sperare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fascio di anti-idrogeno? FATTO!

22 Gen

Uno degli aspetti della fisica che suscita maggior interesse nei non addetti ai lavori e’ senza dubbio il concetto di antimateria. Molto probabilmente, il motivo di questo interesse e’ da ricercarsi nelle tante storie fantascientifiche che sono state ispirate dall’esistenza di un qualcosa molto simile alla materia, se non fosse per la carica delle particelle che la compongono, che era presente prima del Big Bang ma che ora sembra totalmente scomparsa. Inoltre, come tutti sanno, se materia e antimateria vengono messe vicine tra loro si ha il fenomeno dell’annichilazione, qualcosa di assolutamente esotico nella mente dei non addetti ai lavori e che ha offerto trame sensazionali per tanti film e serie TV.

Come detto tante volte, dobbiamo fare una distinzione precisa tra quelle che chiamiamo antiparticelle e quella che invece viene intesa come antimateria. Cosi’ come avviene per la materia ordinaria, composta di particelle che, in questo schema, possiamo pensare come elettroni, protoni e neutroni, l’antimateria e’ a sua volta composta da anti-particelle. Spesso si tende a confondere questi due concetti, facendo, come si suole dire, di tutta l’erba un fascio.

Produrre anti-particelle e’ semplice e siamo in grado di farlo gia’ da diversi anni. Per darvi un esempio, molti collisori utilizzati per la ricerca nella fisica delle alte energie fanno scontrare fasci di particelle con antiparticelle. In questo contesto, molto usati sono i positroni, cioe’ gli anti-elettroni, e gli anti-protoni.

Completamente diverso e’ invece il caso dell’antimateria.

Per formare anti-atomi e’ necessario assemblare insieme le anti-particelle per comporre qualcosa simile nella struttura alla materia, ma composto a partire da mattoncini di anti-particelle.

Di questi concetti abbiamo gia’ parlato in articoli precedenti che trovate a questi link:

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

Come anticipato, prima del Big Bang, erano presenti in eguale quantita’ materia e anti-materia. Ad un certo punto pero’, l’anti-materia e’ scomparsa lasciando il posto solo alla materia che ha poi formato l’universo che vediamo oggi. Anche se questo meccanismo e’ in linea di principio ipotizzato dalla fisica, ci sono ancora punti da chiarire in quella che viene chiamata “asimmetria materia-antimateria”. Anche di questo abbiamo gia’ parlato in questi articoli:

E parliamo di questo Big Bang

Ancora sullo squilibrio tra materia e antimateria

Se, da un lato, produrre antiparticelle e’ semplice, metterle insieme per formare antiatomi non e’ assolutamente banale.

Nel 2011 al CERN di Ginevra era stato annunciato per la prima volta un risultato molto importante: atomi di anti-idrogeno erano stati formati e osservati per un tempo di circa 1000 secondi prima si scomparire. Questa osservazione aveva permesso di osservare alcune importanti proprieta’. Nel 2012, sempre al CERN, un altro esperimento era riuscito a misurare altre importanti proprieta’ di questi anti-atomi, facendo ben sperare per il futuro.

Ora, invece, sempre il CERN ha annunciato di essere riuscito per la prima volta a produrre addirittura un fascio di anti-idrogeni. L’annuncio ‘e stato dato sul sito del laboratorio svizzero:

CERN, ASACUSA NEWS

e pubblicato sull’autorevole rivista Nature.

La scoperta e’ stata realizzata dalla collaborazione internazionale ASACUSA, di cui fanno parte anche alcuni ricercatori del nostro Istituto Nazionale di Fiscia Nucleare.

Cosa sarebbero questi anti-idrogeni?

Seguendo il ragionamento fatto, questi speciali atomi sono composti dagli analoghi di antimateria di protone e elettrone. Se l’idrogeno ha un nucleo composto da un protone con un elettrone che gira intorno, un anti-idrogeno e’ composto da un anti-protone, carico negativamente, e un positrone che gira intorno, carico positivamente. Come potete facilmente capire, in questo gioco di costruzione di atomi, siamo alla struttura piu’ semplice conosciuta ma, come vedremo tra poco, fondamentale per la comprensione dell’universo.

Come e’ stato fatto questo esperimento?

L'esperimento ASACUSA del CERN

L’esperimento ASACUSA del CERN

Senza annoiarvi con tecnicismi, gli anti-idrogeni sono prodotti da un deceleratore di antiprotoni e poi allontanati dal punto di produzione ad una distanza sufficiente a non risentire dei campi magnetici. Questo accorgimento e’ fondamentale per stabilizzare gli anti-atomi che altrimenti si scomporrebbero scomparendo. Come vedete nella foto riportata, la camera da vuoto utilizzata e’ infatti un lungo tubo e gli anti-idrogeni sono stati osservati e immobilizzati ad una distanza di quasi 3 metri dal punto di produzione.

Perche’ e’ cosi’ importante l’anti-idrogeno?

La sua semplicita’ rispetto agli atomi piu’ pesanti, sia per materia che per anti-materia, ha fatto si che questi siano stati i primi atomi stabili creati nell’universo in espansione. Secondo la teoria, idrogeno e anti-idrogeno dovrebbero avere esattamente lo stesso spettro di emissione. Poter disporre in laboratorio di un fascio stabile di anti-atomi consentira’ di studiare a fondo le caratteristiche di questa struttura analizzando nei minimi dettagli ogni minima possibile discrepanza con l’idrogeno. Queste caratteristiche aiuterebbero notevolmente nella comprensione dell’asimmetria tra materia e anti-materia dando una notevola spinta in avanti nella comprensione della nascita del nostro universo e nella ricerca di ogni possibile accumulo di anti-materia.

Concludendo, questa importante notizia apre nuovi scenari nello studio della fisica di base, offrendo un’occasione fondamentale per comprende il nostro universo. Come spesso avviene, molti siti e giornali si sono lanciati in speculazioni parlando di pericoli o applicazioni fantascientifiche che lasciano un po’ il tempo che trovano. Sicuramente, il futuro in questa branca della ricerca ha ancora molto da offrire e non possiamo che essere entusiasti delle novita’ che ancora ci attendono.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Neologismi catastrofisti

22 Nov

Leggendo i giornali c’e’ sempre qualcosa di nuovo da imparare. Come sapete bene, ogni tanto i giornalisti si lasciano prendere un po’ la mano, gonfiando le notizie o, anche, cercando di rendere ad effetto notizie che altrimenti passerebbero in secondo piano.

Di queste cose, diverse volte abbiamo parlato in questo blog. Alcune volte, ci siamo trovati a dover proprio smentire notizie apparse sui giornali nazionale perche’ frutto di incomprensioni o, e questo e’ un problema piu’ frequente di quanto si immagini, per la mancanza di controllo delle fonti da cui le notizie vengono prese.

Questa volta vorrei parlare di pioggia. Lungi da me speculare su quanto accaduto in Sardegna dove la forza della natura ha causato morti e notevoli danni, ma proprio quanto accaduto sull’isola rappresenta l’ultimo esempio di un cattivo costume per la ricerca di titoli ad affetto.

Negli ultimi anni, sempre piu’ spesso sentiamo parlare di forti piogge. Ora, il piu’ delle volte, anche di fronte a gravi problemi per le popolazioni, i giornali tendono a far apparire fenomeni stagionali comuni come eventi rari e inaspettati. Piogge torenziali, soprattutto in periodo autunnale o primaverile ci sono sempre state e sempre ci saranno. Nonostante questo, sempre piu’ spesso sentiamo parlare di “bombe d’acqua”, cioe’ violenti acquazzoni che interessano varie parti dell’Italia e di cui non avevamo mai sentito parlare.

Cosa sarebbero queste bombe d’acqua?

Se proviamo a consultare libri o siti specializzati, non troviamo una definizione di bombe d’acqua. Questo non ci deve sorprendere perche’, come anticipato, le bombe d’acqua in realta’ non esistono.

Ora, potrei far saltare dalla sedia molte persone preoccupate di quanto e’ accaduto in Sardegna o di altri fenomeni meno recenti. La mia considerazione e’ prettamente linguistica e metereologica. Fino a qualche anno fa, nessuno aveva mai sentito parlare di pioggia in questo senso, eppure, nell’ultimo periodo, sembrerebbe quasi che siano comparse queste bombe d’acqua come un fenomeno nuovo casuato da chissa’ quali diavolerie scientifiche o  da modificazioni climatiche naturali o indotte.

Onde evitare fraintendimenti, mi spiego meglio.

Le cosiddette “bombe d’acqua”, altro non sono che i violenti acquazzoni di cui abbiamo sempre sentito parlare. Perche’ allora si usa questo termine? L’origine, e come potrebbe essere diversamente, e’ giornalistica. Questo termine compare la prima volta in un articolo della Nazione di Firenze dopo il violento temporale del 2012. Ecco a voi l’articolo in questione:

La Nazione Firenze

Il termine e’ frutto di una cattiva traduzione dall’inglese dell’espressione “Cloud Burst”. Letteralmente suonerebbe come “Esplosione di Nuvola”. Con Cloud Burst, come potete leggere su wikipedia:

Cloud Burst

si indica un violento temporale con una durata limitata nel tempo ma con una quantita’ di precipitazioni in grado di provocare innondazioni. In molti di questi casi, si possono formare piu’ temporali in breve tempo che provocano appunto la grande quantia’ di precipitazione in uno spazio ristretto. Bene, il termine “bomba d’acqua” e’ dunque mutuato dall’inglese.

Ora pero’, provando a ragionare, si tratta di un termine qualitativo appicicato ad una scienza quantitativa come le meteorologia. Cosa significa tanta pioggia in poco tempo? Tanta quanta? Poco tempo quanto? Capite che, cosi’ come viene dato, questo termine non ha alcun significato se non quello soggettivo.

Operativamente, anche a seguito del diffondersi del termine, si e’ cercato di dare una definizione numerica al termine bomba d’acqua definendo in questo modo precipitazioni in grado di scaricare quantita’ maggiori di 30 mm di pioggia nell’arco di un’ora. Non si tratta di una definizione nel senso stretto del termine dal momento che autori diversi possono utilizzare numeri diversi. C’e’ chi parla di 50 mm in un’ora, chi di 20, chi parla di precipitazioni nell’arco di due ore, ecc.

Detto questo, capite bene come il termine sia in realta’ una forzatura di quello che, fino a pochi anni fa, eravamo soliti chiamare aquazzone ed inoltre non presenta una definizione univoca.

Prima di chiudere, ragioniamo ancora su un particolare: alla luce di quanto osserviamo, sembrerebbe che gli acquazzoni, o le bombe d’acqua, siano aumentati notevolmente negli ultimi anni. E’ una sensazione o l’aumento e’ tangibile? Su alcuni siti trovate numeri veramente sparati a caso. Su piu’ di una fonte ho trovato che prima si poteva parlare di una bomba d’acqua ogni 10 anni mentre ora questo fenomeno si presenta, nel solo territorio italiano, fino a 3-4 volte all’anno. Questo non e’ assolutamente vero.

Negli ultmi anni, il numero di acquazzoni e’ sensibilmente aumentato e questo e’ dovuto all’effetto serra e all’aumento della temperatura media dei mari. Perche’? Quando parliamo di aumento di temperatura delle acqua, al solito, ci si riferisce ad incrementi inferiori al grado, ma che possono avere effetti importanti sulle dinamiche atmosferiche. Durante la formazione delle nuvole temporalesche, la maggior differenza di temperatura tra terra e quota provoca un aumento dell’energia e delle precipitazioni potenziali del fronte. Proprio l’aumento di temperatura dei mari causa una maggior quantita’ di precipitazioni che, nella definizione data prima, provoca un aumento del numero di acquazzoni.

Concludendo, il termine bomba d’acqua non e’ una definizione metereologica ne tantomeno una quantita’ di piogge univocamente accettatata. Come visto, l’origine del termine e’ da ricercarsi nei giornali sempre troppo impegnati a trovare neologismi o parole ad effetto per attrarre maggiormente l’interesse dei lettori. Le bombe d’acqua di cui tanto si parla in questi ultimi tempi, altro non sono che gli acquazzoni violenti di cui abbiamo sempre sentito parlare. Come visto, il numero di fenomeni temporaleschi violenti e’ in sensibile aumento non a causa di strane attivita’ fatte dall’uomo sull’atmosfera ma a causa dell’effetto serra che provoca un aumento minimo della temperatura dei mari.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La stella in laboratorio

3 Ott

Attraverso le pagine del forum di Psicosi 2012:

Psicosi 2012, forum

mi e’ stato segnalato un articolo molto interessante. Perche’ lo definisco in questo modo? Semplice, l’articolo e’ talmente assurdo che merita di essere presentato qui sul blog.

Come diceva un proverbio: “Dagli amici mi guardi Dio perche’ da nemici mi guardo io”. Cosa significa? Mentre siamo guardinghi nei confronti dei nostri nemici,  ci sentiamo tranquilli verso gli amici. A volte questo puo’ creare la condizione per poter essere, come si dice, accoltellati alle spalle.

Cosa voglio dire con queste parole? Mentre ormai abbiamo capito bene quali sono i siti complottisti e catastrofisti e, almeno spero, abbiamo imparato a leggerli con occhio attento e guardingo, a volte quelli che dovrebbero essere siti seri e scientifici si lasciano prendere un po’ troppo la mano.

Questo e’ purtroppo il caso di una notiizia apparsa su ben due noti giornali online nazionali che, copiandosi spudoratamente tra di loro, hanno finito per sparare cavolate veramente fuori dalla grazia del Signore.

Prima di tuttto, vi segnalo gli articoli in questione:

Articolo 1

Articolo 2

Potete anche leggerne uno solo, tanto le parole utilizzate sono le stesse, ergo, non so chi dei due, ha fatto copia/incolla.

Avete letto bene? I ricercatori dell’istituto americano NIF, stanno per accendere una stella in laboratorio. Una stella? Proprio cosi’ dicono gli articoli. Si tratta di un esperimento di fusione in cui sono stati utilizzati laser con una potenza di 500 Tera Watt, 500 mila miliardi di watt di potenza. Come recita l’articolo, questa potenza e’ pari a 1000 volte quella che gli Stati Uniti stanno consumando in quel momento.

Signori, scusate le sfogo, ma questa e’ disinformazione scientifica sulle pagine di giornali nazionali che pretendono di avere una sezione di scienze! Poi, non ci sorprendiamo quando le persone pensano che al CERN si creeranno buchi neri che distruggeranno la Terra. Dall’altra parte dell’oceano stanno creando una stella in laboratorio.

Finito il mio piccolo sfogo personale, vorrei passare a commentare questa notizia. Al contrario di quanto fatto sui giornali citati, per poter capire questa notizia, e’ necessario capire bene il campo in cui ci andiamo a muovere, cioe’ la fusione nucleare.

Cercando di mantenere un approccio semplice e divulgativo, tutti conoscono le centrali nucleari per la produzione di energia elettrica. Questi reattori funzionano attraverso la fissione nucleare, cioe’ la scissione di un nucleo pesante, il combustibile, in nuclei piu’ leggeri. Questo processo, oltre ai due nuclei figli, produce un eccesso di energia. Il processo si dice dunque esoenergetico perche’ rilascia energia.

Detto in modo molto improprio, il processo inverso a quello di fissione nucleare e’ quello di fusione. In questo caso, si prendono due nuclei leggeri per fonderli insieme e formare un nucleo piu’ pesante. Questo processo e’ conveniente solo per nuclei molto leggeri, in linea di principio fino al ferro. Come viene fatto il processo? Quelli che dovete avvicinare sono degli atomi. Come sapete, nel nucleo sono presenti protoni con carica positiva. Avvicinando tra loro due cariche di segno uguale, queste si respingono tra loro con una forza che aumenta al diminuire della distanza. Sotto una certa distanza pero’, la forza coulombiana repulsiva, cioe’ quella tra cariche elettriche, diviene piu’ piccola della cosiddetta forza nucleare forte. Questa interazione e’ molto intensa, ma solo a distanze molto piccole. Detto in altri termini, dovete comprimere molto i nuclei tra loro, fino ad arrivare al punto in cui questi si attirano grazie alla forza forte.

Questa caratteristica rende il processo di fusione nucleare molto difficile da realizzare o meglio, molto difficile da sfruttare. Come anticipato, si tratta di un processo che rilascia energia. Per poter comprimere i nuclei tra loro dovete pero’ spendere un certo quantitativo di energia in qualche forma. Bene, per poter sfruttare questo processo, o meglio per guadagnarci, dovete fare in modo che l’energia spesa per attivare il processo, quella di compressione, sia minore di quella che poi viene rilasciata dai nuclei che si fondono.

Una delle possibili e piu’ studiate reazioni di fusione nucleare e’ quella del deuterio con il trizio:

D + T → 4He (3,5 MeV) + n (14,1 MeV)

In questa reazione i due reagenti, che altro non sono che isotopi piu’ pesanti dell’idrogeno, vengono fusi per formare un nucleo di elio, detto anche particella alfa, liberando anche un neutrone di una certa energia.

Vedete bene il processo. Indipendentemente da quello che ognuno di noi pensa delle centrali nucleari a fissione, il processo di fusione risolve automaticamente il problema delle scorie. In questo caso, non abbiamo sottoprodotti radioattivi a lunga vita media. Proprio per questo motivo, la costruzione di centrali di questo tipo e’ vista come la chimera della fisica nucleare e da diversi anni sono in corso ricerche per cercare di rendere il processo di fusione conveniente dal punto di vista energetico.

Il punto cruciale di questi studi e’ ovviamente come innescare il processo, cioe’ come far avvicinare tra loro i nuclei per far partire la fusione. Il caso visto negli articoli da cui siamo partiti e’ il cosiddetto confinamento inerziale ad ignizione laser. Detto in parole semplici, si utilizzano fasci laser per riscaldare e comprimere i nuclei e far partire la fusione.

Bene, a questo punto siamo in grado di rileggere gli articoli e di capire veramente quello che e’ successo nei laboratori del NIF.

Il laboratorio in questione utilizza 192 fasci laser per riscaldare e comprimere un sferetta di deuterio-trizio. Il numero elevato di laser serve prima di tutto per avere l’energia necessaria ma anche per poter riscaldare uniformemente la sfera di combustibile. Ovviamente, non serve irradiare continuamente il composto, ma e’ necessario che in un tempo molto breve l’energia arrivi tutta insieme sul campione. Quindi, proprio per questo si utilizzano fasci impulsati, cioe’ raggi molto intensi ma molto brevi nel tempo. Questo spiega l’enorme potenza in gioco. Data un’energia del fascio, tanto piu’ corto e’ il raggio, maggiore sara’ la potenza in gioco. Esattamente come in fisica definite la potenza come il rapporto tra lavoro e tempo per compierlo. Capite dunque da dove viene fuori quel valore enorme di 500 terawatt di potenza. Secondo voi, se fosse necessario avere 1000 volte la potenza che gli USA stanno consumando in quell’istante, chi sarebbe in grado di alimentare i laser? Nella migliore delle ipotesi, acceso il sistema salterebbe la corrente a tutti gli Stati Uniti. Direi che quanto affermato e’ quantomeno azzardato e dimostra la totale non conoscenza di quello che si sta raccontando.

Poi, cosa dice l’articolo? A questo punto, il sistema implode e si accende una stella.

Capiamo bene, perche’ implode? Lo schema semplificato del processo di fusione che avviene e’ questo:

Il meccanismo di ignizione laser per la fusione nucleare

Il meccanismo di ignizione laser per la fusione nucleare

Per compressione interna, si ha un implosione cioe’ un collassamento dei nuclei verso l’interno. Da come viene raccontato nell’articolo, sembra che ci sia una deflagrazione in laboratorio.

Poi si accende una stella ….

Perche’? Anche qui, si tratta di un’assurdita’ letta scopiazzando in giro. Il processo di fusione e’ quello grazie alla quale, ad esempio, le stelle producono la loro energia. Il nostro sole “funziona” grazie alla fusione degli atomi di idrogeno in elio. Quando si parla di processo vitale del sole e di passaggio allo stadio successivo, ci si riferisce proprio al momento in cui il combustibile finira’. Inoltre, se si vede la pagina Wikipedia dedicata al NIF:

Wikipedia, NIF

si legge una frase molto importante:

Oltre allo studio della fusione nucleare in campo energetico, al NIF si studieranno anche i segreti delle stelle; infatti quello che si sta tentando di fare è riprodurre il fenomeno della fusione dell’idrogeno che avviene sul Sole e su tutte le altre stelle.

Ecco da dove e’ nata l’idea che in laboratorio venga “accesa una stella”. Come vedete, l’autore dell’articolo ha provato a documentarsi sulla rete, ma non ha capito proprio il senso della frase riportata.

A questo punto, credo che l’assurdita’ di tali articoli sia evidente a tutti.

Tornando di nuovo a cose serie, perche’ e’ stata data questa notizia? Il motivo principale, e molto importante, e’ che, per la prima volta, e’ stato raggiunto il pareggio energetico. Cosa significa? Per la prima volta, si e’ riusciti ad ottenere la stessa quantita’ di energia che e’ stata necessaria per attivare il processo. Se prima l’energia per accendere la reazione era molto maggiore di quella che poi veniva prodotta, ora siamo in pareggio. Si tratta di un risultato molto importante, che dimostra i notevoli passi avanti fatti in questo campo. Certo, e’ vero che al momento non stiamo guadagnando nulla, ma prima, con lo stesso processo, ci rimettevamo tantissimo. Diciamo che il trend e’ dunque molto positivo.

Ovviamente, allo stato attuale, siamo ancora in un campo pioneristico. Magari, andando avanti, ci potremmo accorgere che si sono dei limiti alla produzione di energia che non siamo in grado di superare. Speriamo questo non avvenga e si riesca, in tempi rapidi, a spostare il bilancio energetico a nostro favore. Come detto prima, questa e’ la condizione per poter sperare nella realizzazione di centrali nucleari a fusione per la produzione di energia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E-Cat meraviglia o grande bufala?

30 Mag

Viste le numerose richieste di informazioni, chiarimenti e spiegazioni che ho ricevuto, ho deciso di scrivere questo articolo sull’E-Cat. Perche’ non l’ho fatto prima? Semplicemente perche’, a mio avviso, e ne riparleremo dopo, mancavano dei presupposti essenziali per parlare di questa presunta invenzione in termini scientifici.

Ora cosa e’ cambiato?

A parte le numerose richieste ricevute, la rete e’ letteralmente esplosa in questi giorni perche’ sembrerebbe che finalmente sia arrivata la dimostrazione indipendente del funzionamento di questo prodigio.

Bene, analizziamo i fatti e cerchiamo di capire meglio di cosa stiamo parlando.

Per chi non lo sapesse, l’E-Cat e’ una presunta invenzione di Andrea Rossi che produrrebbe energia in un modo non noto. Mi spiego meglio. Si tratta di una sorta di generatore, alimentato da corrente elettrica, che pero’ produce piu’ energia di quanta ne assorbe. E’ strano questo? Assolutamente no. Non pensate che si stia violando qualche principio fisico basilare, semplicemnte si potrebbe sfruttare una qualche reazione chimica, fisica o sconosciuta mediante la quale si innescano dei processi esoenergetici, cioe’ che producono energia.

Poiche’ questo punto e’ molto importante, cerchiamo di capirlo bene e in modo semplice. Prendiamo, ad esempio, la fissione nucleare. Mediante questo proceso, nuclei di elementi fissili vengono spaccati in elementi piu’ leggeri, mediante neutroni, producendo energia. Ora, per produrre i neutroni da sparare avete bisogno di energia, ma quella che otteete alla fine del processo e’ maggiore di quella che avete speso, perche’ siete riusciti ad estrarre un’energia dall’interno del nucleo. Avete creato qualcosa dal nulla? No, avete semplicemente sfruttato un processo per produrre questa energia traformandola in qualcosa di utilizzabile ai vostri scopi.

Bene, l’invenzione di Rossi dovrebbe fare un qualcosa di equivalente. L’invenzione promette infatti di produrre molta piu’ energia di quella che deve essere immessa, sfruttando un processo, almeno al mometo, sconosciuto.

Qual e’ il carburante dell’E-Cat? Piu’ o meno il sistema funziona in questo modo: mettendo insieme Nichel e Idrogeno e fornendo un’energia iniziale al sistema, si dovrebbe innescare una reazione fortemente esoenergetica, in cui viene prodotta 5 o 6 volte piu’ energia. Attenzione pero’, gli ingredienti non bastano. Per poter funzionare, c’e’ bisogno anche di un catalizzatore da aggiungere al miscuglio Ni-H, tenuto segreto per motivi di spionaggio industriale.

Perche’ spionaggio industriale? Semplice, parlando di E-Cat, non stiamo parlando di una ricerca scientifica, bensi’ di una invenzione che deve essere lanciata sul mercato. Detto in altri termini, che deve essere venduta.

Quasta cosa ci sconvolge? Assolutamente no. Chiunque di noi puo’ pensare ad un’invenzione commerciale fattta esclusivamente per guadagnare. Non c’e’ nulla di male in questo, purche’, come vedremo, ci siano tutti i presupposti di affidabilita’ dell’invenzione.

Per chi gia’ conoscesse l’E-Cat, notate che ho parlato di una misteriosa reazione. Su molti giornali e siti internet, vedete che si parla di “fusione fredda” o “reazione nucleare a bassa energia”, ho omesso appositamente di tirare in causa questi concetti. Perche’? La fusione nucleare e’ quel processo secondo il quale dei nuclei leggeri vengono fusi tra loro per produrne uno piu’ grande, producendo energia. Questa ‘e la reazione utilizzata dal sole e dalle stelle per produrre energia, ed e’ quella a cui si vorrebbe puntare per sostituire le centrali nucleari a fissione. Il motivo e’ molto semplice, favorevoli o meno al nucleare, il punto piu’ discusso su queste tematiche e’ quello della produzione di scorie, cioe’ elementi nucleari di scarto con vite medie lunghe, cioe’ che restano attivi per molto tempo.

Qual e’ il problema principale della fusione?

Come detto, si devono fondere tra loro due nuclei leggeri per formarne uno pesante. Bene, cosa c’e’ dentro il nucleo? Neutroni, particelle neutre, e protoni, particelle di carica positiva. Come sappiamo bene, se avviciniamo due cariche dello stesso segno, come i protoni dei due nuclei, questi si respingono tra loro a causa della repulsione coulombiana. Ora pero’, se riuscissimo ad avvicinare moltissimo i due nuclei, si arriverebbe ad un punto in cui la forza nucleare forte, che e’ attrattiva, sarebbe molto maggiore della repulsione dovuta alle cariche elettriche, e i due nuclei si attirerebbero tra loro. Niente di complicato. Mentre li avvicinate, i due nuclei si respingono, quindi dovete spingerli con forza per farli avvicinare. Quando poi riuscite ad arrivare oltre una certa distanza, nota come barriera di Coulomb, a questo punto i due nuclei si attirano da soli e si innesca la fusione. Il problema delle centrali a fusione e’ proprio quello di trovare il modo piu’ conveniente ed efficace per fornire l’energia necessaria al superamento della barriera di Coulomb.

E la fusione fredda?

Come detto, parlando di fusione si parla di processi ad altissima temperatura, come avviene nelle stelle. La fusione fredda invece avverrebbe a temperatura ambiente. Al contrario di quanto si legge spesso in rete, non esitono evidenze di reazioni di questo tipo. Storicamente, i primi a parlare di fusione fedda furono gli americani Fleischmann e Pons, cui seguirono altre prove. Per nessuna di queste pero’, esiste la certezza scientifica che si sia trattato realmente di una reazione nucleare di questo tipo e, ancora oggi, c’e una forte discussione a proposito.

Perche’ per l’E-Cat si parla di fusione fredda?

In diverse fonti si parla della reazione tra Nichel e Idrogeno che verrebbero fusi tra loro per produrre Rame. Questo sarebbe il processo che avverrebbe a bassa energia e che fornirebbe l’energia dell’E-Cat. Ripeto, non sono d’accordo su questo punto e a breve mostreremo anche il perche’.

Prima di tutto, rivediamo un po’ la storia di questo E-Cat. Nel 2011 si e’ iniziato a parlare di questo generatore quando Rossi ha condotto due test rendendo pubblici i risultati. In questi esperimenti, fornendo un’energia al macchinario intorno ai 35 KWh, si sarebbero prodotti in un caso 70 KWh, nell’altro 160 KWh. Stando ai numeri, la reazione sarebbe effettivamente esoenergetica e molto conveniente. Qual’era il problema di questi test? Semplicemente, non ci sono prove scientifiche della validita’ dei risultati perche’ il tutto e’ stato condotto in maniera autonoma e senza un confronto indipendente. Cosa significa? Ai test sono stati invitati giornalisti rigorosamente selezionati, in veste di spettatori. Mi spiego meglio. I giornalisti sono stati invitati in questo capannone e hanno potuto vedre e filmere il test di Rossi riportando solo ed esclusivamente quelllo che l’inventore del macchinario affermava.

Ora, vedetela in questo modo. Un signore vi invita ad una dimostrazione in cui vi mostra una scatola nera in cui mette 10 euro e dall’altra parte ne escono 20. Basta, non vi viene detto altro ne’ vi vengono forniti dettagli su cosa c’e’ dentro la scatola. Non parlo a caso di scatola nera, infatti, molte delle parti dell’apparecchiatura sono tenute coperte e chiuse alla vista. Ovviamente, si tratta dei componenti fondamentali del sistema, incluso anche il misterioso catalizzatore che darebbe il via alla reazione.

Cosa dice la scienza a proposito? Come e’ facile immaginare, questo risultato non e’ stato accettato dalla comunita’ scientifica. Per sostenere qualcosa di questo tipo, seguendo i canoni della scienza, si dovrebbe mostrare il macchinario, studiare la reazione che avviene e il tutto deve essere ripetibile ovunque nelle stesse condizioni. Se queste informazioni mancano, il test e’ del tutto simile a quello di un’illusionista che vi mostra l’assistente tagliata in due all’interno di una scatola.

Come forse sapete, a seguito di questi test, e del completo rifiuto della scienza su questi risultati, Rossi e’ divenuto un “mito telematico”, metafora di quel genio che trova l’invenzione del secolo per il bene dell’umanita’ e a cui la scienza mette i bastoni tra le ruote perche’ corrotta dalle grandi multinazionali.

Se invece di gridare allo scandalo, si ragionasse su quanto detto, tutti si renderebbero conto che affermazioni di questo tipo non possono essere credibili se non verificate sperimentalmente. Il problema energetico dell’umanita’ non si risolve con la fiducia sulla parola, ma con numeri chiari verificabili e indiscutibili.

Perche’ ora, come anticipato, si parla di verifica indipendente? Nei mesi scorsi sarebbero stati condotti altri test. Questa volta pero’, avrebbero partecipato anche scienziati di diverse parti del mondo che avrebbero assistito agli esperimenti. Anche in questo caso, i risultati avrebbero mostrato un guadagno energetico del processo, confermando dunque la correttezza del metodo su cui si basa l’E-Cat.

Attenzione, facciamo una considerazione. Come premesso, in ambito commerciale, e’ lecito parlare di segreto industriale. Le regole del commercio sono diverse da quelle della scienza. A mio avviso, se il tutto venisse mostrato ad un gruppo di scienziati affidabili ed in grado di fornire un’opinione scientifica, sicuramente il test acquisterebbe di credibilita’. Purtroppo, non e’ andata cosi’.

L’altro punto fondamentale su cui si e’ dibattuo a lungo e’ la mancanza di una “peer review” sull’esperimento. Cosa significa? Quando si pubblica un articolo su una qualche rivista internazionale, si passa attraverso il processo di “referaggio”. Prima di pubblicare il lavoro, la rivista nomina un altro ricercatore internazionale di chiara fama ed esperto del settore che ha il compito di analizzare in dettaglio il contenuto dell’articolo. Se ci sono punti poco chiari, l’esperto puo’ chiedere maggiori spiegazioni al fine di chiarire il tutto ed evitare, nella migliore delle ipotesi, errori sfuggiti agli autori. Solo al termine di questo processo il vostro lavoro, se accettato, viene pubblicato.

Partendo proprio da questo punto, gli ultimi test seguiti dal gruppo di scienziati avrebbero risolto anche questo problema.

Perche’?

Solo pochi giorni fa, e’ stato pubblicato un articolo sull’archivio della Cornell University, che trovate a questo link:

ArXiv E-Cat

A questo punto, tutti i dubbi iniziali dovrebbero essere risolti: il test e’ stato eseguito indipendentemente da un gruppo di ricercatori e questi hanno anche pubblicato un articolo, ovviamente confermando i risultati dei primi test.

Cosa c’e’ che non va?

Prima di tutto, quello di cui vi ho dato il link, non e’ un articolo su rivista internazionale che ha subito un processo di peer review. Il database in questione e’ semplicemente un archivio di articoli in cui i ricercatori possono mettere i loro lavori. Non c’e’ nessun controllo sul contenuto degli articoli, a parte la buona fede dei ricercatori stessi. Generalmente, almeno nel campo della fisica, i lavori vengono caricati su arXiv prima che questi vengano pubblicati sulle riviste, cioe’ mentre e’ in corso il processo di review. Detto questo, non e’ assolutamente risolto il problema del peer review per l’E-Cat.

Purtroppo, neanche la prima critica e’ stata risolta. Come potete leggere nel testo dell’articolo, non si e’ trattato assolutamente di una verifica indipendente, ma solo di uno spettacolino riservato a persone esperte del settore. Cosa significa? Nei primi test erano stati invitati dei giornalisti, ora dei ricercatori, ma lo svolgimento e’ stato esattamente lo stesso. I ricercatori non hanno potuto toccare nulla, ma si sono limitati a guardare il test condotto da Rossi nei suoi laboratori. Inoltre, molte delle parti del sistema su cui si era discusso, sono rimaste chiuse all’interno di scatole nere in cui era impossibile guardare dentro e, come e’ facile pensare, tra queste vi era anche il misterioso catalizzatore. L’articolo di cui stiamo parlando e’ dunque un insieme di osservazioni e considerazioni fatte dai ricercatori.

Cosa e’ cambiato rispetto al passato? Ovviamente, i ricercatori intervenuti hanno potuto misurare il calore in uscita mediante una termocamera, valutando in questo modo sia la potenza in uscita che quella in ingresso utilizzando sistemi elettrici. A parte al correttezza o meno di questo processo indiretto e della valutazione dell’incertezza ottenuta misurando la potenza con una termocamera, non  si e’ assolutamente trattato di una prova “indipendente”.

C’e’ anche qualche altra considerazione importante da fare. Come detto in precedenza, a mio avviso non si e’ trattato di fusione fredda. Un processo di questo tipo necessariamente producce radiazione in uscita. Effetto non riportato in nessun caso e impossibile da schermare in sistemi di questo tipo. Tra l’altro, conosco personalmente uno dei ricercatori intervenuti ed e’ un esperto di radioprotezione dell’Universita’ di Uppsala in Svezia.

Oltre a questo, la quantita’ d rame che si sarebbe prodotta corrisponderebbe ad un rendimento del sistema molto piu’ alto di quello che ci si aspetta e soprattutto il rame in questione sarebbe non eterogeneo, cioe’ mancano isotopi diversi dalla forma piu’ commerciale e abbondamente in natura.

Ulima considerazione scientifica, dal punto di vista energetico, la fusione di nichel e idrogeno sarebbe possibile e verrebbe prodotto rame, ma la barriera coulombiana per questi nuclei e’ elevatissima. Questo solo per dire che un processo del genere a bassa energia e’ scientificamente molto difficile da digerire. Teoricamente si potrebbe citare l’effetto tunnel, ma questo non spiegherebbe neanche la certezza della reazione di fusione cosi’ come altri processi quantistici non deterministici.

Concludendo, alla luce delle considerazioni fatte e degli ultimi aggiornamenti, non pssiamo assolutamente affermare che l’E-Cat sia un sistema reale e che possa essere accettato dalla scienza. Questo non significa che potrebbe esistere questo generatore in grado di fare quello che Rossi promette. Semplicemente, se anche esistesse, non e’ comprensibile la reazione su cui sarebbe basato e soprattutto mancano dati certi su cui ragionare e da cui estrarre certezze scientifiche. Al momento, almeno secondo me, siamo ancora al livello dll’illusionista che taglia l’assistente con la sega.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E parliamo di questo Big Bang

9 Apr

Dal momento che, in questo post:

Il primo vagito dell’universo

e in molti altri ancora, abbiamo parlato di nascita ed evoluzione del nostro universo, credo sia giunto il momento di dedicare un articolo apposito su questi concetti. Premetto, che cerchero’ di matenere un profilo piu’ semplice e divulgativo possibile, anche se ci stiamo addentrando in teorie, e spesso anche supposizioni, fisiche non del tutto banali. In questo senso, cerchero’ il piu’ possibile di utilizzare esempi anche volutamente forzati proprio per rendere il tutto maggiormente accessibile a tutti.

Partiamo dalle basi. Allo stato attuale della nostra conoscenza, la teoria maggiormente accettata all’orgine dell’universo e’ quella per cui il tutto si sarebbe formato da un’esplosione iniziale chiamata appunto Big Bang. Come visto nell’articolo precedentemente riportato, non dobbiamo immaginare questo evento come un classico boato, da cui tutti si sarebbe formato, bensi’ come un processo di espansione, anche non costante e molto veloce in alcuni istanti, ma che dura tutt’ora.

Perche’ e’ avvenuto il Big Bang?

Immaginiamo di fissare una scala temporale all’istante iniziale, cioe’ nel momento stesso in cui e’ iniziato il Big Bang. Per dirlo con parole semplici, immaginate di avere un cronometro e di farlo partire nel mometo in cui inizia questa espansione. Secondo la teoria, prima che iniziasse il big bang, materia e antimateria convivevano insieme in una singolarita’, cioe’ costituivano un volume, al limite occupante un punto, estremamemente denso e a temperatura elevatissima. Nella concezione fisica, in questa fase non esistevano le particelle, il tempo e le forze.

Poi cosa e’ successo?

Quando il sistema e’ divenuto instabile, dopo un tempo pari a 10^(-43) secondi, e’ avvenuta quella che si chiama la prima transizione di fase. Cosa significa? Le particelle si sono formate da questo plasma iniziale e ognuna di loro aveva un’energia molto elevata detta “energia di Planck”. In questa fase, detta di Grande Unificazione, tutte le forze, compresa quella gravitazionale, erano unificate, cioe’ si manifestavano come un’unica interazione.

Bene, fermiamoci un attimo e cerchiamo di capire meglio. Al punto in cui siamo arrivati, il big bang e’ gia iniziato. Le particelle cosi’ come le forze, anche se ancora unificate, si sono formate. Riprendiamo dall’inizio. Al tempo iniziale, cioe’ prima che iniziasse l’espansione, materia e antimateria convivano insieme. Dopo un tempo brevissimo, quando si formano le particelle, dopo 10^(-43) secondi, ci sono ancora materia e antimateria, appena 10^(-6) secondi dopo l’inizio, rimane solo materia.

Dove e’ finita l’antimateria?

Per chi lo avesse perso, abbiamo parlato in dettaglio di antimateria in questo post:

Due parole sull’antimateria

Il nostro attuale universo e’ formato solo da materia. L’antimateria e’ scomparsa. Perche’? Affiche’ questo sia possibile, e dunque sia iniziato il big bang, la fisica ci dice che devono essere state verificate le 3 condizioni di Sakharov. Senza entrare troppo nel dettaglio, in questa ipotesi, ci deve essere stata un’asimmetria tra materia e antimateria, che ha portato allo squilibrio che vediamo oggi. In particolare, in questo contesto si parla appunto di violazione di CP, cioe’ proprio di squilibrio della simmetria materia-antimateria nell’universo.

E’ possibile che siano rimaste delle sacche di antimateria da qualche parte oppure che l’universo sia formato da due distinte zone, una di materia ed una di antimateria?

La risposta e’ no. Capiamo il perche’. Quando entrano in contatto, materia e antimateria si annichilano, cioe’ ineragiscono distruggendosi a vicenda, e producendo radiazione gamma, cioe’, in linea di principio forzando l’esempio, luce. Se esistessero zone ben delimitate di materia e antimateria, nel punto di separazione tra di esse, si avrebbe annichilazione con la conseguente produzione di raggi gamma. Di questa radiazione non vi e’ nessuna evidenza ne’ dagli osservatori a Terra, ne’ dai satelliti, ne’ tantomeno dalle missioni esplorative che abbiamo mandato nello spazio.

Le condizioni di Sakharov offrono dunque un modello teorico in grado di spiegare perche’ potrebbe essere avvenuto questo squilibrio e quindi sia iniziato il big bang. Dico “potrebbe” perche’ al momento non tutte le condizioni sono state verificate e grande aiuto in questo senso dovrebbe venire dallo studio della fisica delle particelle agli acceleratori. Aprendo una piccola parentesi, quando in un acceleratore facciamo scontrare due fasci, questi interagiscono tra loro ad altissima energia. Man mano che aumentiamo l’energia, utilizzando sistemi sempre piu’ potenti, e’ come se andassimo indietro nel tempo tendendo verso il big bang. Ovviamente le energie oggi disponibili sono ancora molto lontane da quella iniziale, ma questo genere di studi ci consentono di comprendere molte cose importanti sul mondo delle particelle elementari.

Dunque, ricapitolando, abbiamo un sistema iniziale materia-antimateria, intervengono le condizioni di Sakharov e il sistema inizia ad espandersi facendo scomparire l’antimateria. Inizialmente le forze erano tutte unificate e le particelle si scontravano tra loro ad altissima energia.

Dopo, cosa e’ successo?

Man mano che il tempo scorreva, si passo’ attraverso varie fasi, ognuna caratterizzata da una rottura di simmetria di qualche tipo. In tal senso, le forza si divisero tra loro, lasciando quelle che oggi indichiamo come forze fondamentali: forte, debole, elettromagnetica e gravitazionale. In particolare, quest’ultima fu la prima a separarsi non appena la temperatura inizio’ a scendere e le onde gravitazionali poterono propagarsi liberamente.

Qualche minuto dopo l’istante iniziale, le particelle, cioe’ protoni e neutroni, poterono iniziare a combianrsi formando nuclei di Deuterio ed Elio. Questa importante fase viene chiamata “nucleosintesi”.

La temperatura dell’universo era pero’ ancora troppo elevata. Per osservare la formazione dei primi atomi, si dovette aspettare ancora circa 379000 anni, quando materia e radiazione finalmente si separarono e quest’ultima pote’ viaggiare libera nel cosmo. Di questo preciso istante, abbiamo anche parlato in questo post:

Universo: foto da piccolo

in cui, come visto, si ebbe la formazione della radiazione di fondo che oggi, alla temperatura attuale, e’ di 2.7K con uno spettro nelle microonde.

Dopo questa fase, gli addensamenti di materia cominciarono ad attrarsi gravitazionalmente, formando poi le galassie, le stelle, i pianeti, ecc, cioe’ , quello che vediamo oggi osservando l’universo.

Ma esistono delle prove di tutto questo? E se in realta’ il big bang non fosse mai avvenuto?

Come visto in altri post, ma anche come comprensibile da quanto detto, proprio la radiazione di fondo costituisce una prova del big bang. Detto in altri termini, la CMB non sarebbe altro che un’eco di quanto avvenuto, cioe’ un reperto fossile dell’esplosione iniziale.

Inoltre, la velocita’ di espansione delle Galassie, misurata per la prima volta da Hubble, costituisce un’altra prova a sostegno di questa teoria.

Partendo da quest’ultimo concetto, una domanda lecita che chiunque potrebbe farsi e’: “dove e’ avvenuto il Big Bang?”

Modello dell'espansione dal Big Bang

Modello dell’espansione dal Big Bang

In tal senso, se inizialmente si aveva un punto da cui poi tutto si e’ espanso, immaginando un rewind dovremmo essere in grado di identificare il punto iniziale del big bang. In realta’, non e’ cosi’. I fisici sono soliti dire che il Big Bang e’ avvenuto ovunque o anche che ogni punto dell’universo e’ un centro di espansione.

Che significa?

L’espansione dello spazio tempo avviene in piu’ di tre dimesioni, per cui non e’ facile immaginare a mente cosa sia avvenuto. Per capire questo concetto, immaginate l’universo come un palloncino inizialmente sgonfio. Ora, prendendo un pennarello, fate dei puntini sulla superificie. Se le pareti del palloncino sono l’universo che si espande, mentre gonfiate il palloncino, ciascun punto, tra quelli che avete disegnato, vedra’ gli altri allontarsi da lui. In questo contesto, ciascun punto e’ centro dell’espansione, cioe’ ogni punto vede gli altri punti allontarsi da lui in tutte le direzioni. L’animazione riportata potra’ aiutarvi a capire meglio questo discorso. Fissando un punto, tutti gli altri si allontanano da questo, indipendentemente da quello che scegliete come vostro centro. Dunque, se osservate l’universo dalla Terra, vedrete tutti gli altri corpi allontarsi da noi, come se la Terra fosse il centro dell’espansione.

Concludendo, esistono diverse prove sperimentali a sostegno del Big Bang, cioe’ di questa esplosione iniziale da cui, partendo da uno stato di equilibrio materia-antimateria, tutto si e’ formato passando attraverso diverse rotture di simmetrie. Ad oggi, o forse mai, nessuno potra’ spiegare perche’ questa materia e antimateria erano li o cosa c’era prima di questo equilibrio. Se volete, ognuno, con il suo pensiero e la sua convinzione, puo’ dare la sua spiegazione. I processi di evoluzione dal tempo zero, sono ipotizzati, ma ancora molto lavoro resta da fare per verificare queste teorie e capire a fondo perche’, come e con che intensita’ sino avvenuti determinati meccanismi. Insomma, di lavoro da fare ce n’e’ ancora molto.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

Antimateria sulla nostra testa!

17 Gen

Proprio oggi, su diversi siti catastrofisti e pseudoscientifici, e’ apparsa la notizia che il telescopio della NASA Fermi avrebbe individuato la produzione di antimateria durante i temporali. Stando a quanto si legge in rete, durante un temporale, i forti campi elettrici che si possono creare, sono in grado di trasformare l’aria in un plasma e produrre, grazie alle alte energie in gioco, antimateria sotto forma di positroni.

Ovviamente, non mancano ipotesi catastrofiste che richiamano la pericolosita’ dell’antimateria, oltre a puntare il dito contro questa sorgente posta solo a pochi kilometri dalle nostre teste. Su alcuni siti si ipotizza anche che potrebbe trattarsi di una modifica indotta del clima attraverso l’antimateria prodotta in questo modo. Se ci pensate, il collegamento e’ sempre il solito, l’uomo modifica il clima creando tempeste di fortissima intensita’, e mediante queste tempesta innesca la produzione dell’antimateria in atmosfera che sicuramente qualche effetto potrebbe darlo anche a noi che siamo subito sotto.

Inutile dirvi che in tutto questo discorso, che ripeto potete trovare su molti siti, si fa una gran confusione su argomenti scientifici ben noti e gia’ oggetto di studi da diversi anni.

Cerchiamo di capire meglio.

Prima di tutto, mi dispiace deludere tutti i fan di “Angeli e Demoni”, ma in questo fenomeno non viene prodotta antimateria, nel senso di antiatomi, ma solo antiparticelle, ed in particolare positroni, cioe’ anti-elettroni. Molto spesso, nell’immaginario colletivo, colpa anche dei tanti film fantascientifici, l’antimateria e’ vista come un qualcosa di molto pericoloso e che potrebbe addirittura essere usata per far scomparire la Terra. Di questi concetti abbiamo gia’ parlato in questi post:

Piccolo approfondimento sulla materia strana

Lotteria profetica 2012

Due parole sull’antimateria

Come sappiamo, le antiparticelle vengono prodotte tutti i giorni nei nostri laboratori di fisica delle alte energie. Molti degli acceleratori presenti nel mondo lavorano facendo scontrare fasci di particelle con fasci di antiparticelle. Se prima non eravate a conoscenza di questa produzione artificiale, non penso che ora possiate credere che produrre antiparticelle possa distruggere la Terra.

Premesso questo, torniamo alla scoperta fatta dal telescopio Fermi e cerchiamo di capire di cosa si tratta.

Durante un temporale, i forti campi elettrici che si generano possono accelerare gli elettroni presenti nell’atmosfera portandoli a velocita’ prossima a quella della luce. Durante il loro percorso, gli elettroni possono interagire con gli atomi dell’aria e perdere una parte della loro energia emettendo un fotone. Fin qui e’ semplice, la causa di tutto e’ l’elettrone che viene accelerato dal campo elettrico ed emette fotoni. Bene, questi fotoni, interagendo anche loro con i nuclei presenti in atmosfera, possono scomparire producendo una coppia elettrone-antielettrone. Questi effetti sono del tutto noti in fisica e non rappresentano assolutamente una novita’.

Rivediamo tutto il processo, elettrone dell’atmosfera, accelerato dal campo elettrico dovuto al temporale, produce un fotone. Il fotone decade formando una coppia elettrone-antielettrone. Su internet trovate una confusione enorme su questi processi in cascata. Spesso si confondono le particelle o i meccanismi descritti tirando fuori ipotesi completamente impossibili dal punto di vista fisico.

Dunque, abbiamo una coppia elettrone-antielettrone, quindi particelle e antiparticelle. Quello che e’ successo in Fermi, e da cui siamo partiti con la notizia iniziale, e’ che il telescopio ha osservato questi antielettroni, anche detti positroni, prodotti attraverso il meccanismo descritto. Per essere precisi, Fermi ha osservato l’annichilamento dei positroni nel telescopio.

Questo processo e’ ben descritto in questa rappresentazione che altro non e’ che una simulazione condotta proprio dalla NASA per comprendere il fenomeno alla base:

Produzione di un TGF. Fonte: NASA

Produzione di un TGF. Fonte: NASA

Ora, quello che in realta’ molti “dimenticano” di dire e’ che questo fenomeno non e’ stato osservato oggi da Fermi con grande stupore degli scienziati, ma e’ un processo che si conosceva e che anche questo telescopio aveva osservato a partire dal 2011.

Cerchiamo di capire meglio.

Questo genere di produzione di antielettroni avviene normalmente nello spazio in prossimita’ di buchi neri o di fenomeni di altissima energia cosmica. Nel 1994, qualche anno fa dunque, questo processo venne osservato per la prima volta nell’atmosfera terrestre, ad un’altezza tra 20 e 50Km, dalla NASA utilizzando il telescopio Compton. Il processo in atmosfera viene anche detto “Terrestrial Gamma Ray Flash”, TGF o TGRF.

Compton osservo ben 78 eventi di produzione di TGF nella nostra atmosfera durante tempeste tropicali.

Fermi ha gia’ osservato diversi TGF ed in piu’ ha scoperto che questi fenomeni possono avvenire anche a quote fino a 10Km. Dal momento che queste altezze comprendono i voli di linea, gia’ dal 2010 e’ stato formato un gruppo di ricerca congiunto tra INAF, ASI e ENAC, l’ente per la sicurezza in volo, per determinare gli eventuali rischi, sempre che sussistano, per i passeggeri dei voli di linea. Al momento, non e’ emersa nessuna pericolosita’ dei TGF.

Prima di chiudere, spendiamo due parole sul protagonista di questa notizia, cioe’ il telescopio Fermi.

Il telescopio e’ stato lanciato l’11 giugno 2008 e chiamato inizialmente GLAST, Telescopio Spaziale a Grande Area per Raggi gamma, e successivamente, il 26 Agosto 2008, ribattezzato Fermi Gamma Ray Space Telescope, in onore del nostro Enrico Fermi.

Raffigurazione del telescopio Fermi-GLAST in orbita

Raffigurazione del telescopio Fermi-GLAST in orbita

Questo telescopio ha la particolarita’ di essere dedicato all’osservazione dei raggi gamma, cioe’ ai fotoni di alta energia. L’osservazione di queste particelle e’ molto importante per l’identificazione di sorgenti gamma nella nostra galassia e fuori di questa, per lo studio dei cosiddetti Nuclei Galattici Attivi, per l’individuazione di Pulsar e resti di Supernove e per lo studio dei Gamma Ray burst, cioe’ l’emissione di raggi gamma da sorgenti energetiche, come descritto in precedenza.

Inoltre, lo studio dei fotoni nello spazio, puo’ aiutare nell’identificazione della materia oscura e per cercare di capire la natura di questa importante componente del nostro universo. Anche di materia oscura abbiamo parlato nei post riportati in precedenza dal momento che molto spesso anche questa viene chiamata in causa con assurdita’ scientifiche.

L’oosservazione dei TGF in Fermi e’ avvenuta proprio mentre il telescopio era interno a studiare l’universo lontano. I raggi gamma emessi da questo meccanismo raggiungono comunque i sensibili strumenti di Fermi che dunque e’ in grado di rivelarli con estrema precisione.

Concludendo, non c’e’ assolutamente nulla di allarmante nella scoperta della produzione di antiparticelle nell’atmosfera. Come visto, si tratta di un meccanismo ben compreso e che era gia’ conosciuto nella fisica. Per essere precisi, Fermi non ha assolutamente scoperto in questi giorni il fenomeno dei TGF, ma la loro prima osservazione risale al 1994 grazie al telescopio Compton. Fermi ha il pregio di poter studiare questi eventi con una risoluzione ed una precisione mai raggiunta prima ed inoltre, grazie proprio ai suoi strumenti, e’ stato possibile individuare questi fenomeni in strati piu’ bassi della nostra atmosfera, dove non si pensava potessero avvenire.

Anche in questo caso, l’informazione sulla rete presenta molti tratti catastrofisti del tutto ingiustificati, oltre ovviamente ad una sana componente di imprecisioni scientifiche a cui ormai dovremmo essere abituati.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Scie chimiche e cloud seeding

29 Ott

Nei post precedenti:

Alcune considerazione sulle scie chimiche

Scie Chimiche: il prelievo in quota

Abbiamo parlato in dettaglio dell’origine della teoria delle scie chimiche, mostrando come le diverse tipologie di scie di condensa, imputabili a sostanze chimiche secondo i complottisti, possano in realta’ essere spiegate appellandoci alla termodinamica. Inoltre, abbiamo visto come non esiste ad oggi nessun prelievo fatto in quota sulla scia degli aerei e come ci siano dei notevoli errori di concetto nella presunta misura fatta su un volo Ryanair.

In questo post, vi vorrei invece parlare del “cloud seeding”, cioe’ della tecnica utilizzata per causare in qualche modo le precipitazioni.

Nei post precedenti, abbiamo visto come i complottisti parlino di scie chimiche anche come metodo di controllo del clima. In particolare, spesso si fa riferimento appunto al cloud seeding come esempio di manipolazione con le chemtrails.

Vediamo prima di tutto cosa si intende per “cloud seeding” o tradotto “inseminazione delle nuvole”.

Questa tecnica, scoperta intorno al 1950, consiste nell’innescare o cambiare il tipo di precipitazioni mediante la dispersione in atmosfera di sostanza chimiche. Queste ultime servono per creare nuclei di condensazione, ovvero microparticelle igroscopiche in grado di far condensare in forma liquida il vapore acqueo, provocando dunque le precipitazioni. In base alla sostanza chimica utilizzata e alle condizioni termodinamiche, e’ possibile creare agglomerati liquidi o cristalli di ghiaccio.

Puntualizziamo subito un aspetto importante. Anche creando nuclei di condensazione, per poter innescare piogge e’ necessario che sia presente vapore acqueo nelle nuvole. Questo significa che la tecnica non e’ in grado, formalmente, di modificare il clima facendo piovere, ma solo di accelerare o innescare le precipitazioni. Questo per smentire subito le teorie sulle scie chimiche che puntano il dito contro il cloud seeding come esempio di modificazione del clima.

Un Cesna attrezzato per diffondere ioduro di argento. Autore Christian Jansky

Tornando alle tecniche, le sostanze chimiche possono essere sparate dal suolo, e portate in quota sfruttando le correnti d’aria, oppure rilasciate sulle nubi mediante aerei. Questo secondo caso e’ proprio quello preso in esame con le scie chimiche.

La sostanza chimica maggiormente utilizzata per il cloud seeding e’ lo Ioduro di Argento, ma a volte possono essere utilizzati anche il Ghiaccio Secco (anidride carbonica congelata), il sale o il propano liquido.

Per rispondere subito ai complottisti delle scie chimiche, cerchiamo di capire la pericolosita’ dello ioduro di argento. Come e’ facile capire, questo sale verra’ poi riportato a terra durante le precipitazioni. Su questo aspetto, esistono molti studi, non solo governativi ma anche di associazioni ecologiste, che dimostrano la non pericolosita’ di questa sostanza. Per capire meglio, la concentrazione di ioduro di argento dispersa e’ molto inferiore a quella emessa dagli scarichi industriali. Dal punto di vista della popolazione, anche usando intensivamente questa tecnica, ma come vedremo in seguito non e’ questo il caso, l’esposizione all’argento sarebbe molto inferiore a quella che si ha con una otturazione dentaria. Anche dal punto di vista della vegetazione, esistono diversi studi che dimostrano la non pericolosita’ delle sostanza usate per inseminare.

Assunta la non pericolosita’ della tecnica, resta da discutere l’effettiva efficacia del cloud seeding. Su questo punto il discorso e’ leggermente diverso e non definitivamente accettato. Molte critiche sono state mosse sull’efficacia dell’inseminazione. Secondo molti ricercatori non esiste la certezza che sia l’inseminazione a causare le piogge. Detto in altri termini, non possiamo sapere se le precipitazioni sarebbero avvenute anche senza spargere ioduro di argento. In contrasto pero’, alcuni studi condotti in Australia dimostrano un incremento delle precipitazioni del 30% nelle zone aride centrali utilizzando il seeding. Alcune compagnie private, soprattutto americane, offrono servizi di inseminazione per impedire la caduta delle grandine e salvaguardare cosi’ i raccolti.

La tecnica del seeding puo’ essere utilizzata anche con scopi di salvaguardia. Nel 1986, ad esempio, venne utilizzata anche in prossimita’ della centrale di Cernobyl per causare precipitazioni e dunque far ricadere i radionuclidi provenienti dalla centrale nucleare prima che raggiungessero la citta’ di Mosca.

In tempi piu’ recenti, ci sono stati anche casi “divertenti”. Il 2 Novembre 2009 il governo cinese ha utilizzato il cloud seeding su Pechino per inseminare un sistema nuvoloso in avvicinamento e combattere in questo modo la lunga siccita’ che affliggeva la regione. Come risultato, a causa di un abbassamento improvviso di temperatura, la citta’ su bloccata per 3 giorni per colpa di una abbondante nevicata.

Riassumendo, secondo le teorie complottiste, la tecnica del cloud seeding sarebbe un chiaro esempio di utilizzo di scie chimiche e di modificazione del clima. Come abbiamo visto, questa tecnica scientifica e’ nota gia’ da tempo e assolutamente non tenuta nascosta. L’utilizzo di ioduro di argento o di ghiaccio secco non e’, nelle quantita’ utilizzate, assolutamente dannoso ne’ per l’uomo ne’ per la vegetazione. Da quanto affermato, si tratta di una metodologia ancora contestata dal punto di vista dell’efficacia e utilizzata nel mondo solo per alcuni casi specifici.

Prima di credere a qualsiasi teoria, cercate sempre di prendere informazioni anche da altre fonti. Confrontare voci diverse, ragionare con la propria testa e non lasciarsi convincere da ipotesi prive di riscontro e’ l’unico modo per non cadere nel convincimento mediatico. Per analizzare le profezie sul 2012, ma soprattutto per ragionare su argomenti scientifici sempre attuali, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.