Archivio | maggio, 2013

E-Cat meraviglia o grande bufala?

30 Mag

Viste le numerose richieste di informazioni, chiarimenti e spiegazioni che ho ricevuto, ho deciso di scrivere questo articolo sull’E-Cat. Perche’ non l’ho fatto prima? Semplicemente perche’, a mio avviso, e ne riparleremo dopo, mancavano dei presupposti essenziali per parlare di questa presunta invenzione in termini scientifici.

Ora cosa e’ cambiato?

A parte le numerose richieste ricevute, la rete e’ letteralmente esplosa in questi giorni perche’ sembrerebbe che finalmente sia arrivata la dimostrazione indipendente del funzionamento di questo prodigio.

Bene, analizziamo i fatti e cerchiamo di capire meglio di cosa stiamo parlando.

Per chi non lo sapesse, l’E-Cat e’ una presunta invenzione di Andrea Rossi che produrrebbe energia in un modo non noto. Mi spiego meglio. Si tratta di una sorta di generatore, alimentato da corrente elettrica, che pero’ produce piu’ energia di quanta ne assorbe. E’ strano questo? Assolutamente no. Non pensate che si stia violando qualche principio fisico basilare, semplicemnte si potrebbe sfruttare una qualche reazione chimica, fisica o sconosciuta mediante la quale si innescano dei processi esoenergetici, cioe’ che producono energia.

Poiche’ questo punto e’ molto importante, cerchiamo di capirlo bene e in modo semplice. Prendiamo, ad esempio, la fissione nucleare. Mediante questo proceso, nuclei di elementi fissili vengono spaccati in elementi piu’ leggeri, mediante neutroni, producendo energia. Ora, per produrre i neutroni da sparare avete bisogno di energia, ma quella che otteete alla fine del processo e’ maggiore di quella che avete speso, perche’ siete riusciti ad estrarre un’energia dall’interno del nucleo. Avete creato qualcosa dal nulla? No, avete semplicemente sfruttato un processo per produrre questa energia traformandola in qualcosa di utilizzabile ai vostri scopi.

Bene, l’invenzione di Rossi dovrebbe fare un qualcosa di equivalente. L’invenzione promette infatti di produrre molta piu’ energia di quella che deve essere immessa, sfruttando un processo, almeno al mometo, sconosciuto.

Qual e’ il carburante dell’E-Cat? Piu’ o meno il sistema funziona in questo modo: mettendo insieme Nichel e Idrogeno e fornendo un’energia iniziale al sistema, si dovrebbe innescare una reazione fortemente esoenergetica, in cui viene prodotta 5 o 6 volte piu’ energia. Attenzione pero’, gli ingredienti non bastano. Per poter funzionare, c’e’ bisogno anche di un catalizzatore da aggiungere al miscuglio Ni-H, tenuto segreto per motivi di spionaggio industriale.

Perche’ spionaggio industriale? Semplice, parlando di E-Cat, non stiamo parlando di una ricerca scientifica, bensi’ di una invenzione che deve essere lanciata sul mercato. Detto in altri termini, che deve essere venduta.

Quasta cosa ci sconvolge? Assolutamente no. Chiunque di noi puo’ pensare ad un’invenzione commerciale fattta esclusivamente per guadagnare. Non c’e’ nulla di male in questo, purche’, come vedremo, ci siano tutti i presupposti di affidabilita’ dell’invenzione.

Per chi gia’ conoscesse l’E-Cat, notate che ho parlato di una misteriosa reazione. Su molti giornali e siti internet, vedete che si parla di “fusione fredda” o “reazione nucleare a bassa energia”, ho omesso appositamente di tirare in causa questi concetti. Perche’? La fusione nucleare e’ quel processo secondo il quale dei nuclei leggeri vengono fusi tra loro per produrne uno piu’ grande, producendo energia. Questa ‘e la reazione utilizzata dal sole e dalle stelle per produrre energia, ed e’ quella a cui si vorrebbe puntare per sostituire le centrali nucleari a fissione. Il motivo e’ molto semplice, favorevoli o meno al nucleare, il punto piu’ discusso su queste tematiche e’ quello della produzione di scorie, cioe’ elementi nucleari di scarto con vite medie lunghe, cioe’ che restano attivi per molto tempo.

Qual e’ il problema principale della fusione?

Come detto, si devono fondere tra loro due nuclei leggeri per formarne uno pesante. Bene, cosa c’e’ dentro il nucleo? Neutroni, particelle neutre, e protoni, particelle di carica positiva. Come sappiamo bene, se avviciniamo due cariche dello stesso segno, come i protoni dei due nuclei, questi si respingono tra loro a causa della repulsione coulombiana. Ora pero’, se riuscissimo ad avvicinare moltissimo i due nuclei, si arriverebbe ad un punto in cui la forza nucleare forte, che e’ attrattiva, sarebbe molto maggiore della repulsione dovuta alle cariche elettriche, e i due nuclei si attirerebbero tra loro. Niente di complicato. Mentre li avvicinate, i due nuclei si respingono, quindi dovete spingerli con forza per farli avvicinare. Quando poi riuscite ad arrivare oltre una certa distanza, nota come barriera di Coulomb, a questo punto i due nuclei si attirano da soli e si innesca la fusione. Il problema delle centrali a fusione e’ proprio quello di trovare il modo piu’ conveniente ed efficace per fornire l’energia necessaria al superamento della barriera di Coulomb.

E la fusione fredda?

Come detto, parlando di fusione si parla di processi ad altissima temperatura, come avviene nelle stelle. La fusione fredda invece avverrebbe a temperatura ambiente. Al contrario di quanto si legge spesso in rete, non esitono evidenze di reazioni di questo tipo. Storicamente, i primi a parlare di fusione fedda furono gli americani Fleischmann e Pons, cui seguirono altre prove. Per nessuna di queste pero’, esiste la certezza scientifica che si sia trattato realmente di una reazione nucleare di questo tipo e, ancora oggi, c’e una forte discussione a proposito.

Perche’ per l’E-Cat si parla di fusione fredda?

In diverse fonti si parla della reazione tra Nichel e Idrogeno che verrebbero fusi tra loro per produrre Rame. Questo sarebbe il processo che avverrebbe a bassa energia e che fornirebbe l’energia dell’E-Cat. Ripeto, non sono d’accordo su questo punto e a breve mostreremo anche il perche’.

Prima di tutto, rivediamo un po’ la storia di questo E-Cat. Nel 2011 si e’ iniziato a parlare di questo generatore quando Rossi ha condotto due test rendendo pubblici i risultati. In questi esperimenti, fornendo un’energia al macchinario intorno ai 35 KWh, si sarebbero prodotti in un caso 70 KWh, nell’altro 160 KWh. Stando ai numeri, la reazione sarebbe effettivamente esoenergetica e molto conveniente. Qual’era il problema di questi test? Semplicemente, non ci sono prove scientifiche della validita’ dei risultati perche’ il tutto e’ stato condotto in maniera autonoma e senza un confronto indipendente. Cosa significa? Ai test sono stati invitati giornalisti rigorosamente selezionati, in veste di spettatori. Mi spiego meglio. I giornalisti sono stati invitati in questo capannone e hanno potuto vedre e filmere il test di Rossi riportando solo ed esclusivamente quelllo che l’inventore del macchinario affermava.

Ora, vedetela in questo modo. Un signore vi invita ad una dimostrazione in cui vi mostra una scatola nera in cui mette 10 euro e dall’altra parte ne escono 20. Basta, non vi viene detto altro ne’ vi vengono forniti dettagli su cosa c’e’ dentro la scatola. Non parlo a caso di scatola nera, infatti, molte delle parti dell’apparecchiatura sono tenute coperte e chiuse alla vista. Ovviamente, si tratta dei componenti fondamentali del sistema, incluso anche il misterioso catalizzatore che darebbe il via alla reazione.

Cosa dice la scienza a proposito? Come e’ facile immaginare, questo risultato non e’ stato accettato dalla comunita’ scientifica. Per sostenere qualcosa di questo tipo, seguendo i canoni della scienza, si dovrebbe mostrare il macchinario, studiare la reazione che avviene e il tutto deve essere ripetibile ovunque nelle stesse condizioni. Se queste informazioni mancano, il test e’ del tutto simile a quello di un’illusionista che vi mostra l’assistente tagliata in due all’interno di una scatola.

Come forse sapete, a seguito di questi test, e del completo rifiuto della scienza su questi risultati, Rossi e’ divenuto un “mito telematico”, metafora di quel genio che trova l’invenzione del secolo per il bene dell’umanita’ e a cui la scienza mette i bastoni tra le ruote perche’ corrotta dalle grandi multinazionali.

Se invece di gridare allo scandalo, si ragionasse su quanto detto, tutti si renderebbero conto che affermazioni di questo tipo non possono essere credibili se non verificate sperimentalmente. Il problema energetico dell’umanita’ non si risolve con la fiducia sulla parola, ma con numeri chiari verificabili e indiscutibili.

Perche’ ora, come anticipato, si parla di verifica indipendente? Nei mesi scorsi sarebbero stati condotti altri test. Questa volta pero’, avrebbero partecipato anche scienziati di diverse parti del mondo che avrebbero assistito agli esperimenti. Anche in questo caso, i risultati avrebbero mostrato un guadagno energetico del processo, confermando dunque la correttezza del metodo su cui si basa l’E-Cat.

Attenzione, facciamo una considerazione. Come premesso, in ambito commerciale, e’ lecito parlare di segreto industriale. Le regole del commercio sono diverse da quelle della scienza. A mio avviso, se il tutto venisse mostrato ad un gruppo di scienziati affidabili ed in grado di fornire un’opinione scientifica, sicuramente il test acquisterebbe di credibilita’. Purtroppo, non e’ andata cosi’.

L’altro punto fondamentale su cui si e’ dibattuo a lungo e’ la mancanza di una “peer review” sull’esperimento. Cosa significa? Quando si pubblica un articolo su una qualche rivista internazionale, si passa attraverso il processo di “referaggio”. Prima di pubblicare il lavoro, la rivista nomina un altro ricercatore internazionale di chiara fama ed esperto del settore che ha il compito di analizzare in dettaglio il contenuto dell’articolo. Se ci sono punti poco chiari, l’esperto puo’ chiedere maggiori spiegazioni al fine di chiarire il tutto ed evitare, nella migliore delle ipotesi, errori sfuggiti agli autori. Solo al termine di questo processo il vostro lavoro, se accettato, viene pubblicato.

Partendo proprio da questo punto, gli ultimi test seguiti dal gruppo di scienziati avrebbero risolto anche questo problema.

Perche’?

Solo pochi giorni fa, e’ stato pubblicato un articolo sull’archivio della Cornell University, che trovate a questo link:

ArXiv E-Cat

A questo punto, tutti i dubbi iniziali dovrebbero essere risolti: il test e’ stato eseguito indipendentemente da un gruppo di ricercatori e questi hanno anche pubblicato un articolo, ovviamente confermando i risultati dei primi test.

Cosa c’e’ che non va?

Prima di tutto, quello di cui vi ho dato il link, non e’ un articolo su rivista internazionale che ha subito un processo di peer review. Il database in questione e’ semplicemente un archivio di articoli in cui i ricercatori possono mettere i loro lavori. Non c’e’ nessun controllo sul contenuto degli articoli, a parte la buona fede dei ricercatori stessi. Generalmente, almeno nel campo della fisica, i lavori vengono caricati su arXiv prima che questi vengano pubblicati sulle riviste, cioe’ mentre e’ in corso il processo di review. Detto questo, non e’ assolutamente risolto il problema del peer review per l’E-Cat.

Purtroppo, neanche la prima critica e’ stata risolta. Come potete leggere nel testo dell’articolo, non si e’ trattato assolutamente di una verifica indipendente, ma solo di uno spettacolino riservato a persone esperte del settore. Cosa significa? Nei primi test erano stati invitati dei giornalisti, ora dei ricercatori, ma lo svolgimento e’ stato esattamente lo stesso. I ricercatori non hanno potuto toccare nulla, ma si sono limitati a guardare il test condotto da Rossi nei suoi laboratori. Inoltre, molte delle parti del sistema su cui si era discusso, sono rimaste chiuse all’interno di scatole nere in cui era impossibile guardare dentro e, come e’ facile pensare, tra queste vi era anche il misterioso catalizzatore. L’articolo di cui stiamo parlando e’ dunque un insieme di osservazioni e considerazioni fatte dai ricercatori.

Cosa e’ cambiato rispetto al passato? Ovviamente, i ricercatori intervenuti hanno potuto misurare il calore in uscita mediante una termocamera, valutando in questo modo sia la potenza in uscita che quella in ingresso utilizzando sistemi elettrici. A parte al correttezza o meno di questo processo indiretto e della valutazione dell’incertezza ottenuta misurando la potenza con una termocamera, non  si e’ assolutamente trattato di una prova “indipendente”.

C’e’ anche qualche altra considerazione importante da fare. Come detto in precedenza, a mio avviso non si e’ trattato di fusione fredda. Un processo di questo tipo necessariamente producce radiazione in uscita. Effetto non riportato in nessun caso e impossibile da schermare in sistemi di questo tipo. Tra l’altro, conosco personalmente uno dei ricercatori intervenuti ed e’ un esperto di radioprotezione dell’Universita’ di Uppsala in Svezia.

Oltre a questo, la quantita’ d rame che si sarebbe prodotta corrisponderebbe ad un rendimento del sistema molto piu’ alto di quello che ci si aspetta e soprattutto il rame in questione sarebbe non eterogeneo, cioe’ mancano isotopi diversi dalla forma piu’ commerciale e abbondamente in natura.

Ulima considerazione scientifica, dal punto di vista energetico, la fusione di nichel e idrogeno sarebbe possibile e verrebbe prodotto rame, ma la barriera coulombiana per questi nuclei e’ elevatissima. Questo solo per dire che un processo del genere a bassa energia e’ scientificamente molto difficile da digerire. Teoricamente si potrebbe citare l’effetto tunnel, ma questo non spiegherebbe neanche la certezza della reazione di fusione cosi’ come altri processi quantistici non deterministici.

Concludendo, alla luce delle considerazioni fatte e degli ultimi aggiornamenti, non pssiamo assolutamente affermare che l’E-Cat sia un sistema reale e che possa essere accettato dalla scienza. Questo non significa che potrebbe esistere questo generatore in grado di fare quello che Rossi promette. Semplicemente, se anche esistesse, non e’ comprensibile la reazione su cui sarebbe basato e soprattutto mancano dati certi su cui ragionare e da cui estrarre certezze scientifiche. Al momento, almeno secondo me, siamo ancora al livello dll’illusionista che taglia l’assistente con la sega.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Possiamo scegliere tra era glaciale o desertificazione

28 Mag

Diversi lettori mi hanno chiesto di fare un aggiornamento sull’attuale ciclo solare, di cui molto si sta discutendo in rete. Come sappiamo, stiamo attualmente attraversando il massimo del 24mo ciclo, un picco che pero’, almeno attualmente, si sta rivelando molto meno intenso di quanto ci si aspettava.

Fate attenzione, proprio la frase “meno intenso di quanto ci si aspettava” e’ il nucleo della discussione che dobbiamo fare e su cui ho letto davvero di tutto e di piu’, un po’ per ignoranza, molto spesso solo per il gusto di voler speculare su argomenti scientifici poco noti.

Di cili solari abbiamo parlato, ad esempio, in questi post:

Evidenze dal Sole?

Le macchie solari AR1504

Gli effetti di AR1504

Sole: quanta confusione!

Come visto, il nostro Sole ha un comportamento che non e’ costante nel tempo ma che oscilla tra massimi e minimi. La durata “media” di questi cicli solari e’ di 11 anni e, in concomitanza, si registra, come visto in questo post:

Inversione dei poli terrestri

un’inversione del campo magnetico solare che dunque ritorna alla condizione originale ogni 22 anni, cioe’ ogni 2 cicli. Detto in altri termini, partite da una condizione, dopo 11 anni invertite i poli, per tornare alla condizione iniziale servono altri 11 anni e quindi un’altra inversione dei poli.

Come sottolineato diverse volte, si tratta di meccanismi statisticametne noti ma che, in quanto tali, sono parametrizzabili da numeri medi. Il nostro Sole e’ una stella “viva”, passatemi questo termine, condizione per cui riusciamo a parametrizzarlo mediante modelli veri sempre “in media”.

Detto questo, quando parliamo di ciclo di 11 anni, non ci deve affatto sorprendere se gli anni sono 10 o 12.

Inoltre, massimi e minimi solari non sono tutti uguali tra loro, ma possono avere intensita’ variabili nel tempo. Detto questo, ci possono essere massimi piu’ o meno intensi, cosi’ come minimi piu’ o meno deboli.

Bene, alla luce di quanto detto, passiamo ad analizzare il ciclo attuale.

Prima affermazione che trovate in rete, il massimo era previsto per la fine del 2012, secondo alcuni proprio il 21 Dicembre 2012, e dunque c’e’ un “forte” ritardo da parte del Sole. Queste affermazioni sono del tutto false. Come visto in questo articolo:

Nuova minaccia il 22 Settembre?

non e’ assolutamente vero che il massimo era atteso per la fine del 2012, ne’ tantomeno per il 21 Dicembre. Questa affermazione nasce da una simulazione condotta diversi anni fa dalla NASA mirata a valutare gli effetti di un eventuale massimo di alta intensita’ sulla nostra attuale societa’, fortemente legata alla trasmissione dei segnali a lunga distanza.

Quando e’ atteso il massimo?

Dalle simulazioni fatte, il massimo sarebbe atteso per la fine del 2013. Di questo abbiamo parlato in questo post:

Come seguire il ciclo solare

In particolare, in questo articolo abbiamo fornito anche tutti i link per poter seguire il ciclo solare e valutare giorno per giorno i diversi parametri che consentono di valutare la reale attivita’ del Sole insieme anche a modelli previsionali.

Se invece della fine del 2013, fosse maggio 2013 o maggio 2014, la cosa ci sorprenderebbe? Alla luce di quanto detto circa la modellizzazione dei fenomeni, assolutamente no.

Perche’ si parla ora di massimo solare?

A partire dai primi di maggio, dopo un periodo relativamente calmo, il nostro sole ha iniziato a riprendere vigore con diverse emissioni di classe X. Per chi non lo avesse letto, delle diverse classi di emissioni abbiamo parlato sempre nel post:

Le macchie solari AR1504

E’ giusto dire che e’ iniziato il massimo vero e proprio? In linea di principio no. Se volete e’ come il detto “una rondine non fa primavera”. Con questo intendo dire che per capire l’andamento del ciclo solare, si dovranno attendere, se ci saranno, nuove emissioni per poter affermare che il Sole sta attraversado il punto piu’ alto del suo massimo.

Ora, come fatto nell’articolo precedentemente citato, vi riporto anche il grafico aggiornato dello stato del nostro Sole:

Il numero di macchie solari osservate sul sole nel corso degli anni

Il numero di macchie solari osservate sul sole nel corso degli anni

Come spiegato in passato, in questo grafico viene riportato il numero di macchie solari contate sulla superficie del sole e che rappresentano un parametro direttamente legato all’attivita’ solare.

Notiamo prima di tutto una cosa molto importante: la linea rossa indica l’attivita’ solare prevista dalle simulazioni. Come potete vedere, il numero di macchie finora osservate e’ sensibilmente piu’ basso rispetto al valore atteso. E’ sconvolgente questo? Neanche per idea. Come visto, si tratta dei modelli, per cui sempre affetti da fluttuazioni statistiche e da incertezze.

Attenzione pero’, su questo punto molto si sta parlando in rete. Secondo molte fonti, questa differenza tra aspettato e osservato, come visto assolutamente non sconvolgente, indicherebbe niente poco di meno che “una nuova era glaciale”! Perche’ si parla di questo? Come visto in questo post:

Curiosita’ sui cicli solari

e come e’ facilmente immaginabile, l’attivita’ del nostro Sole influisce sulle condizioni ambientali della Terra, e non potrebbe essere diversamente. Ora, sempre per la solita rondine che non fa primavera, e’ assurdo parlare di era glaciale perche’ c’e’ un massimo meno intenso del previsto. Come visto nell’articolo riportato, nel caso del Maunder Minimum, si registro’ una totale assenza di macchie solari per un periodo compreso tra il 1645 e il 1700, macchie che poi inizarono lentamente a ricomparire fino a tornare alla normalita’ solo nel 1715. Alcune fonti parlano di diversi massimi poco intensi e dunque di un andamento che punterebbe ad una mini era glaciale. Anche in questo caso, si tratta di una esagerazione speculativa, atta solo a cercare di insinuare evidenze dove queste non ci sono.

Inoltre, facciamo una considerazione aggiuntiva molto importante. Come detto in precedenza, i famosi 11 anni di ciclo solare, non vanno visti come un dictat inviolabile, ma come una stima media della durata del ciclo. Perche’ dico questo? Come avvenuto in diverse occasioni, e anche nel precedente massimo, e’ possibile che il sole presenti due picchi all’interno dello stesso massimo. Riguardiamo per un attimo il grafico di prima, e concentriamoci sul massimo precedente. Come potete vedere, ci sono due picchi facilmente distinguibili, uno a meta’ el 2000 e l’altro alla fine del 2002. Anche questo comportamento rientra nelle normali fluttuazioni che il nostro Sole puo’ avere nel corso degli anni.

Perche’ abbiamo fatto questa considerazione?

Alla luce di questa, e’ lecito pensare che, anche in questo caso, quello che stiamo attraversando sia solo un primo picco di intensita’, seguito poi, anche a distanza di uno o due anni, da un secondo massimo piu’ intenso. Non ci sarebbe assolutamente nulla di sconvolgente in un comportamento del genere e soprattutto, non e’ preventivabile ne’ facilmente modellizzabile.

Riassumendo, stiamo sicuramente attraversando il massimo atteso del 24mo ciclo solare. Non e’ facilmente comprensibile capire se stiamo andando verso il picco, lo abbiamo gia’ passato e se ci sara’ un ulteriore picco a distanza di qualche mese. Quello che e’ evidente dai dati riportati e’ che, fino ad oggi, l’intensita’ di questo massimo e’ relativamente bassa e inferiore alle stime fatte. Questo pero’ rientra nelle normali fluttuazioni statistiche della fisica del sistema, non facilmente prevedibili ne’ tantomeno modellizzabili. E’ assolutamente fuori luogo parlare dell’inizio di una prossima era glaciale, soprattutto se citata da quelle fonti che fino a ieri parlavano di desertificazione a causa di un misterioso e incompreso riscaldamento globale.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Energia? Salute? No, Birra!

27 Mag

In diversi post, ci siamo occupati delle tecniche di fracking, o fratturazione idraulica, che stanno radicalmente modificando non solo l’estrazione di gas e petrolio dal sottosuolo, ma soprattutto gli equilibri economici legati al fondamentale mercato delle energie.

Come visto, di fracking se ne era parlato abbondantemente come causa del terremoto in Emilia del 2012:

Una prova del fracking in Emilia?

ma, come dimostrato scientificamente, queste tecniche non possono assolutamente causare terremoti di notevole intensita’, ma, al massimo e in territori predisposti, piccoli sismi secondari dovuti ai movimenti indotti nella crosta.

In questo post:

Fratturazione idraulica

abbiamo visto in dettaglio come funziona questa tecnica, ma, negli ultimi tempi, si e’ di nuovo tornati a parlare prepotentemente di fratturazione grazie alla possibilita’ di estrarre lo shale gas, che rappresenta una noteovole risorsa energetica per molti paesi.

In particolare, la possibile estrazione dello shale gas ha fatto iniziare una corsa, a mio avviso prematura, all’estrazione di questa risorsa per soli scopi economici. Come visto in questo articolo:

Scisti e gas naturale

si tratta di una tecnica ancora poco studiata a livello tecnico-scientifico e che ha di contro, almeno allo stato attuale, un rischio concreto di inquinamento delle falde acquifere. Come visto nell’articolo, molti problemi si stanno verificando negli Stati Uniti dal momento che questo e’ il primo paese che e’ ricorso pesantemente alla tecnica per l’estrazione del gas.

Perche’ si ricorre al fracking per estrarre il gas dagli scisti?

Come visto negli altri articoli, la risposta e’ molto semplice. Ad oggi, mediante questa tecnica, gli USA pagano un prezzo che e’ circa 1/3 degli altri paesi europei per l’energia estraendola in casa piuttosto che importandola dalla Russia e da altri paesi ricchi di giacimenti convenzionali.

Proprio queste analisi economiche, stanno richiamando l’attenzione anche di altri paesi europei. Solo pochi giorni fa, la Germania ha emanato una legge per una esplorazione preventiva delle proprie risorse mediante la tecnica del fracking. Cosa e’ accaduto a seguito di questa legge? I primi che si sono messi sul piede di guerra sono i birrai. Avete capito bene, i produttori di birra sono i primi che si sono preoccupati dell’utilizzo della fratturazione in territorio tedesco. Non pensate che sia una cosa da poco. La lobby dei produttori di birra e’ una delle piu’ potenti e antiche della Germania, con un giro di affari di 8 miliardi di euro all’anno e con la produzione di 90 milioni di ettolitri.

Come visto nell’articolo precedente, l’utilizzo di questa tecnica mette a rischio di contaminazione le falde acquifere in primis per la possibile fuoriuscita di gas, ma poi anche per il rischio di contaminazione da petrolio e dai solventi chimici utilizzati per facilitare la fratturzione delle rocce. Il video dell’americano che fuoco all’acqua del suo rubinetto e’ solo un esempio.

Per farvi capire quanto antica sia la tecnica di produzione della birra in Germania, molti produttori si rifanno ad una legge promulgata da Guglielmo IV di Baviera nel 1516 e nota come Reinheitsgebot, cioe’ “editto sulla purezza”. Secondo questa legge, la birra tedesca deve essere prodotta solo ed esclusivamente utilizzando luppolo, orzo e acqua pura di fonte. Proprio per questo motivo, molti birrai prelevano l’acqua da profondi pozzi privati che garantiscono purezza al loro prodotto. Anche se oggi una nuova legge ammette altri ingredienti consentiti, molti birrifici tedeschi utilizzano ancora l’antica legge come standard di purezza e garanzia di qualita’.

Bene, a questo punto gli interessi energetici della Germania si stanno scontrando con una potente lobby impegnata da secoli nella produzione del prodotto per eccelenza tedesco. L’industria della birra da lavoro a circa 25000 tedeschi e il sindacato dei birrai ha gia’ mandato una lettere ufficiale a 6 ministri del governo annunciando, qualora necessario, battaglie legali in tutti i gradi possibili.

Alla luce di quanto detto, le paure dei birrai sono del tutto fondate. Allo stato attuale, la tecnica del fracking non e’ ancora da considerarsi matura e senza rischio. Manca ancora una attenta valutazione scientifica del processo di estrazione, purtroppo, messo da parte per interessi economici. Se vogliamo, e’ grottesco che gli unici che stanno facendo battaglia al governo per questa scelta siano i produttori di birra, ma in realta’ questo non ci deve sorprendere. Come visto, l’eventuale inquinamento delle falde acquifere metterebbe a repentaglio un volume d’affari notevole oltre a numerosi posti di lavoro. Non resta che attendere gli sviluppi e vedere tra le due parti chi avra’ la meglio!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ma ci fanno o ci sono?

27 Mag

Diverse volte su questo blog abbiamo parlato di avvistamenti UFO, in particolare, come visto in questi articoli:

Lens Flare e avvistamenti UFO

Avvistamenti UFO?

molti di questi avvistamenti possono essere ricondotti a fenomeni completamente comprensibili e noti ma che, per chi non li conosce, possono condurre fuori strada. Ora, questa sarebbe la chiave di lettura “ingenua” di molti fenomeni. Altre volte, purtroppo, c’e’ anche una buona dose di speculazione di chi, per solo interesse personale, crea il caso dove questo non esiste ridicolizzandosi ma soprattutto approfittandosi di molte persone impressionabili e di chi, e ce ne sono molti, credono fermamente al fenomeno UFO e spendono moltissimo lavoro per trovare prove tangibili.

Agli appartenenti a quest’ultima categoria va tutto il mio rispetto. Come evidenziato in altri post:

Messaggio alieno nelle aurore?

Il segnale WOW!

la scienza po’ relamente interrogarsi sul fenomeno UFO, ma discutendo in termini statistici l’esistenza di forme di vita extraterrestre e cercando di valutare quante siano le possibilita’ che gli alieni esistano e che possano un giorno entrare in contatto con noi.

Perche’ torno su questi argomenti?

Se dovessi parlare di ogni nuovo video pubblicato su youtube con presunti avvistamenti UFO, non riuscirei a stare dietro alla rete ma, a volte, ci sono episodi talmente ridicoli, che meritano di essere analizzati. E’ questo il caso di un presunto avvistamento avvenuto in Norvegia, e precisamente a Bergen, e di cui si e’ parlato molto sul web. Anche se questo video e’ stato gia’ smentito da tante fonti, credo sia interessante parlarne a chi non ha avuto ancora la possibilita’ di visionarlo.

Ecco il video in questione:

Come vedete dal titolo, si parla di una “spettacolare manifestazione di sfere di luce a Bergen”. Il sito che ha pubblicato la notizia e’ uno dei soliti siti catastrofisti che spesso pubblicano notizie abbastanza assurde. Per chi lo avesse dimenticato, e’ lo stesso sito di questa famosa notizia di cui abbiamo parlato tempo fa:

Il video dell’alieno catturato vivo

Ora, guardate bene il video. Oltre alle sfere in cielo, si vede una sorta di palco, ma soprattutto si vede gente che passeggia davanti alla telecamera tranquillamente. Secondo voi, se fosse in corso questa epocale invasione aliena, la gente continuerebbe come se niente fosse?

Questo e’ solo un primo indizio. Secondo l’articolo pubblicato da questo sito, l’incredibile manifestazione sarebbe avvenuta il 22 Maggio 2013, ricordo di nuovo, a Bergen in Norvegia.

Bene, come potete verificare immediatamente su internet, proprio in quel giorno era in corso la cerimonia d’apertura del festival internazionale della musica di Bergem.

Cosa c’entra il festival con gli UFO?

Nella cerimonia d’apertura era previsto uno spettacolo di luci chiamato “Murmuration”. In cosa consiste? Come potete leggere nelle pagine del festival:

Murmuration

la cerimonia d’apertura prevedeva uno spettacolo di luci in cielo organizzato dalla societa’ privata “Ars Electronica”. Durante la performance sono stati utilizzati 35 mini velivoli senza pilota dotati di lucette al LED  che servivano per creare una coreografia di sicuro effetto. Questo era garantito da un sistema di controllo computerizzato che prevedeva una sorta di danza a ritmo di musica cordinata con il pezzo suonato sul palco.

Ecco una foto dello spettacolo in corso:

Lo spettacolo Murmuration al festival di Bergen

Lo spettacolo Murmuration al festival di Bergen

Mentre questo e’ il sito internet della “Ars Electronica” in cui trovate il profilo societario e le caratteristiche del Murmuration oltre a tantissimi altri progetti svolti da questa societa’:

Sito Ars Electronica

Concludendo, non c’e’ assolutamente nulla da segnalare su questo avvistamento di Bergen, a parte la solita speculazione che molti siti internet vogliono fare su episodi del genere. Come anticipato, la smentita di questo fatto e’ gia’ stata data da diversi siti, ma vista vista l’assurdita’ della notizia ho ritenuto opportuno dargli un po’ di spazio.

Per chi ancora non lo avesse capito, siti internet di questo tipo molto spesso creano le notizie dove queste non ci sono. Ora, questo e’ un caso davvero eclatante, cosi’ come ne avevamo visti altri in passato. Alla luce di questo, credete veramente che ci si possa fidare di siti di questo tipo quando parlano di catastrofismo e complottismo ad opera della scienza?

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Detersivi ecologici

26 Mag

Nella sezione:

Hai domande o dubbi?

e’ stato fatto un commento davvero molto interessante. Come potete leggere, l’osservazione e’ sui cosiddetti Detersivi Ecologici, cioe’ quella gamma di prodotti che promettono di non arrecare danni all’ambiente. Sulla base di questo, credo sia molto interessante fare un ragionamento non solo su questi prodotti, ma anche sull’effettivo danno all’ambiente che i nostri detersivi arrecano e sulle possibili soluzioni che il mercato offre.

Prima di tutto, ragioniamo su una cosa: quanti detersivi ci sono dentro una casa tipo? Cosi’ su due piedi, ognuno di noi ha sicuramente: detersivo per i piatti a mano, detersivo per la lavastoviglie, detersivo per il bucato a mano e per la lavatrice, oltre ovviamente a diversi prodotti per: vetri, mattonelle, macchina a gas, sgrassatore, pulizia del forno, pavimenti, candeggina. Insomma, abbiamo un prodotto specifico per qualsiasi cosa. Quelli che ho citato sono solo i principali, sicuramente poi ce ne sono tanti altri ancora riservati ad applicazioni particolari, ormai indispensabili per la pulizia della nostra casa.

Bene, guardiamo il tutto da un’altra prospettiva. Quei prodotti che abbiamo in casa, sono equivalenti ad un armadio per le sostanze chimiche, analogo a quello che trovate in un laboratorio di ricerca. Provate a leggere le etichette, ma soprattutto le indicazioni riportate sopra, per intenderci, quei simboli arancioni e neri presenti per legge su ogni prodotto: corrosivo, irritante, esplosivo, ecc. Detto questo, capiamo subito che quei prodotti non possono che essere una minaccia per l’ambiente.

Quanto inquiniamo pulendo la nostra casa? Diverse stime fatte anche dall’organizzazione mondiale della sanita’, hanno mostrato come circa il 30% dell’inquinamento dei nostri mari, derivi dai detersivi che usiamo in casa. Oltre a questo, si deve necessariamente valutare anche l’impatto ambientale del semplice imballo, troppo spesso sottovalutato: bottiglie in plastica, cartoni, lattine di alluminio, ecc. Ovviamente, molto spesso questi imballi sono reciclabili, ma, ad esempio, riciclare la plastica e’ un processo dispendioso dal punto di vista energetico e, purtroppo ancora in molte zone dell’Italia, la mentalita’ del riciclo stenta a prendere piede.

Perche’ sono inquinanti i detersivi? Tolto il discorso imballo, la principale fonte di inquinamento viene dei fosfati presenti in molti prodotti. Una volta liberati nell’ambiente, queste sostanze favoriscono il proliferare delle alghe che sottraggono ossigeno all’acqua, creando un ambiente inospitale per pesci e altri animali acquatici. Inoltre, i tensioattivi, cioe’ le schiume prodotte dai detersivi, provocano un notevole danno ambientale grazie anche ai prodotti petrolchimici presenti e ai metalli pesanti che necessariamente finiscono nei mari e nei corsi d’acqua. Detto in parole povere, il danno che arrechiamo e’ notevole e assolutamente non trascurabile. Da quanto detto, perche’ non eliminare i fosfati? Semplice, queste sostanze non sono certo messe per fare un dispetto all’ambiente, il loro ruolo e’ fondamentale, ad esempio, per garantire un buon potere smacchiante dei detersivi oltre a tantissime altre proprieta’ di cui difficilmente potremmo fare a meno.

Nel commento da cui siamo partiti, si parlava invece dei detersivi ecologici. Come scritto, questi prodotti vengono ricavati da fonti biodgradabili e hanno liveli bassissimi di metalli inquinanti come Nichel, Cromo e Cobalto. Qual e’ il rovescio della medaglia? Purtroppo, molto spesso quanto indicato non e’ esattamente vero. Se, ad esempio, prendiamo un fustino di detersivo in polvere per la lavatrice, chiunque potrebbe scrivere che quel contenitore e’ assolutamente riciclabile e non arreca danno all’ambiente. Questo e’ verissimo e scontato. Se, pero’, prendiamo quel fustino e lo buttiamo su una spiaggia, arrechiamo un danno ambientale. Questo solo per dire che, molto spesso, quello che viene scritto dai produttori deve essere interpretato in modo corretto.

Dal punto di vista legislativo, l’unione Europea ha imposto dalla fine del 2013, un abbassamento dei livelli di fosfati presenti nei detersivi per piatti. Nota positiva e’ che i prodotti commercializzati in Italia per il lavaggio a mano, rispettano gia’ questi limiti, al contrario di altre nazioni Europee. Discorso diverso e’ quello per i prodotti per lavastoviglie, in cui i livelli di fosfati presenti sono ancora troppo alti.

Da quanto detto, appare evidente che questa indicazione legislativa non e’ sufficiente. I fosfati rappresentano una notevole fonte inquinante, ma non l’unica presente. Inoltre, analizziamo un altro aspetto relativo in generale a tutti i prodotti a basso impatto ambientale, non solo i detersivi. Molto spesso, questo genere di prodotti hanno un prezzo che va dal leggermente al notevolmente maggiore di quelli tradizionali. Analizziamo questo aspetto. Non vorrei dire un’ovvieta’, ma e’ evidente che al giorno d’oggi, causa la crisi, ci sono tantissime famiglie in difficolta’ economica e che spesso arrivano solo a stento alla fine del mese. Dunque, non inquinare e’ bellissimo, ma se per rispettare l’ambiente si deve scegliere tra l’arrivare a fine mese oppure no, forse le cose non stanno funzionando nel migliore dei modi. E’ inutile fare i finti benpensanti e dire che non si deve inquinare, pensiamo a dare a tutti i mezzi per salvaguardare l’ambiente, almeno a parita’ di prezzo.

Partendo proprio da questo discorso economico, vorrei parlarvi di altre due soluzioni possibili sempre nel caso specifico dei detersivi, tralasciando i prodotti commerciali a basso impatto che, come visto, molto spesso, anche se non sempre, non rispettano pienamente quanto dichiarato, e che comunque non risolvono a pieno il problema ambientale.

Sul territorio nazionale, stanno nascendo sempre piu’ punti vendita di detersivi alla spina. Cosa significa? Per chi non li conoscesse, si tratta di negozi che vendono i detersivi a quantita’ mediante distributori automatici. Voi andate in questi negozi, e comprate un litro, due litri o quello che volete di detersivo. Se ne siete sprovvisti, potete comprare a parte un contenitore e poi riutilizzarlo le volte successive per ricaricarlo. Qual e’ la soluzione di questi negozi? Alla luce di quanto detto in precedenza, mediante questo sistema, si potrebbe risolvere il problema dell’imballo del detersivo. Ricaricando di volta in volta, si utilizza sempre lo stesso contenitore che dunque non finisce direttamente nell’ambiente. Riprendendo in mano il discorso economico, questa soluzione e’ sicuramente piu’ conveniente di quella tradizionale. Il motivo e’ molto facile da capire, voi comprate solo ed esclusivamente il detersivo, non l’imballo, la pubblicita’, ecc. Tutte cose che alzano il prezzo ma che non c’entrano nulla con il prodotto.

Quella dei prodotti alla spina e’ ovviamente una soluzione. Ricapitolando, i prodotti ecologici commerciali esistono, ma costano di piu’ e non risolvono il problema dell’imballo. I detersivi alla spina risolvono solo il problema dell’imballo, ma spesso i prodotti venduti sono del tutto tradizionali, dunque a notevole impatto ambientale.

Come risolvere tutti i problemi insieme?

Negli ultimi tempi, complice sempre la crisi, gli aumenti dell’IVA, la pressione fiscale, ecc, si sta tornando un po’ alle origini, e sempre piu’ persone ricorrono ad una soluzione tutt’alro che innovativa, ma sicuramente efficace: quella di prodursi i detersivi in casa!

Se pensate che questa sia una cosa difficile, vi sbagliate di grosso. Ovviamente, non serve una laurea in chimica, ma un minimo di nozioni di base. Ad aiutare in questo senso, ci pensano i numerosi siti internet che offrono gratuitamente ricette fai da te per produrre qualsiasi tipo di detersivo per la casa, ma anche creme e trucchi. Magari per i primi tempi, e ‘ consigliabile fare riferimento a questi siti, perche’ se siete proprio digiuni di chimica, dovreste evitare almeno di mescolare tra loro acidi e basi, o di fare reazioni di idrolisi.

Quali sono gi ingredienti che servono a tale scopo?

In realta’, gli ingredienti di base sono molto semplici e facilmente reperibili. Molto utilizzato e’ il bicarbonato, l’aceto bianco, il percarbonato, l’acqua ossigenata. Insomma, tutti prodotti che ognuno di noi ha in casa o che comunque puo’ reperire con facilita’ e a basso costo. Non pensate che si tratti di una soluzione di seconda scelta, i prodotti che potete realizzare in casa, sono efficaci tanto quanto quelli commerciali, con la differenza che potete dosare al meglio le quantita’ e decidere da soli il grado di concentrazione della parte attiva. Infatti, dal punto di vista ecologico, anche le quantita’ di prodotto utilizzato giocano un ruolo essenziale. Pensate che a livello chimico, la meta’ della quantita’ di prodotto che viene generalmente consigliata, e’quella necessaria ad assicurare il risultato finale. La seconda meta’ serve come fattore di sicurezza e apporta solo migliorie minori al risultato.

Nella produzione dei detersivi in casa, spesso si fa ricorso anche ad oli essenziali che potete trovare, ad esempio, nelle erboristerie. In questo modo, potete decidere da soli l’aroma da dare al vostro prodotto e scegliere quello che piu’ vi aggrada, oltre ovviamente l’intensita’.

Analizzando dunque quanto detto, i biodetersivi potrebbero essere una soluzione, ma non risolvono il problema dell’imballo e costano spesso di piu’. I prodotti alla spina risolvono solo il problema dell’imballo e nient’altro. Ricorrere invece alla produzione domestica di detersivi potrebbe essere la soluzione economica, senza imballo e che sfrutta solo prodotti naturali e non derivati petrolchimici. Come detto, esistono tantissimi siti che offrono gratuitamente ricette per la produzione di detersivi e sulla rete sta nascendo una vera e propria comunita’ di persone che si scambiano ricette tra loro un po’ come si fa per la cucina. Personalmente, credo che questa potrebbe essere una soluzione da provare e che veramente potrebbe aiutare l’ambiente, oltre ovviamente le nostre tasche.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ i pinguini non volano?

24 Mag

Guardando le lunghe, e permettetemi anche buffe, marce dei pinguini sul ghiaccio, tutti quanti ci siamo chiesti: perche’ non volano? In fondo, il pinguino e’ del tutto simile ad un uccello, ha le ali, eppure non vola.

La risposta a questa semplice domanda, e’ arrivata proprio pochi giorni fa da un contributo presentato all’Accademia Nazionale delle Scienze degli Stati Uniti.

In realta’, scopo di questa ricerca condotta da diverse universita’ era quello di analizzare le differenze biomeccaniche dei corpi di diversi mammiferi a confine tra il terrestre ed il marino, proprio per capire come l’evoluzione naturale della specia sia stata in grado di traformare nel tempo i corpi degli animali, facendoli adattare al meglio all’ambiente e alle caratteristiche che si volevano raggiungere.

Lo studio ha preso in esame tre diversi animali: il pinguino, l’uria di Brünnich e il cormorano pelagico, studiando in particolare le doti di ciascuna specie al volo e al nuoto.

foto

Come e’ noto, mentre il pinguino e’ un ottimo nuotatore ma e’ incapace di volare, l’uria, molto simile come forma, riesce a fare entrambe le funzioni. Per analizzare queste caratteristiche, sono stati sviluppati dei modelli di simulazione biomeccanica, appositamente creati per studiare il dispendio di ossigeno degli animali durante queste attivita’. Detto in parole povere, l’analisi permetteva di capire la “fatica” fatta dagli animali durante il volo o il nuoto.

Il risultato fondamentale dello studio e’ molto semplice: un’ala fatta per nuotare, non puo’ essere fatta per volare.

Cerchiamo di capire meglio.

Le ali dei pinguini sono molto corte e vengono utilizzate come delle efficienti pinne durante il nuoto. Al contrario, le ali dell’uria, simili per forma e dimensione a quelle del pinguino, consentono molto agilmente di nuotare, ma, anche se lo permettono, non sono progettate per volare al meglio. Cosa significa? Per mantenersi in volo, l’uria deve sbattere le ali molto velocemente, con un conseguente alto dispendio di energia. In tal senso, questo animale riesce a volare, ma lo fa molto goffamente e in modo assolutamente non conveniente.

Cosa significa questo? Mentre l’ala del pinguino si e’ specializzata nel nuoto, abbandonando completamente il volo, quella dell’uria e’ in grado di volare con estrema fatica, ma consente un nuoto molto veloce, anche se meno efficiente di quello del pinguino.

Secondo questa chiave di lettura, l’uria e’ l’anello di congiunzione tra le specie volatili e quelle che invece hanno completamente abbandonato il volo dedicandosi esclsivamente al nuoto.

Al contrario, il cormorano ha delle buone capacita’ di volo, ma le sue ali, troppo grandi, non vengono utilizzate nella fase in acqua. Per spingere durante il nuoto, il cormorano pelagico utilizza infatti i piedi.

In termini evoluzionistici dunque, l’uria riesce ancora a volare anche se con estrema fatica, mentre il pinguino ha completamente abbandonato questa attivita’ modificando la propria ala solo ed esclusivamente per il nuoto.

Notiamo una cosa fondamentale: l’evoluzione naturale degli animali consente di migliorare o comunque adattare al meglio il proprio corpo in funzione dell’ambiente e delle attivita’ piu’ seguite. Come e’ noto, il pinguino tuffandosi in acqua puo’ sfuggiare ai predatori terrestri, ma soprattutto puo’ reperire molto cibo in mare. Al contrario, l’utria ha preferito mantenere la fase di volo per la sua sopravvivenza, a scapito di una peggiore propulsione nella fase di nuoto.

Concludendo, e’ l’evoluzione naturale che ha modificato il corpo del pinguino abbandonando completamente la fase di volo. Questi cambiamenti, lunghi e studiati al meglio, consentono alle specie animali di trasformare in modo efficiente il proprio corpo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Grappoli di asteroidi in arrivo!

23 Mag

Tra i vari commenti degli articoli, molto spesso si torna a parlare di Nibiru che, come ormai tutti sanno, e’ il fantasioso pianeta che, secondo le teorie catastrofiste, dovrebbe arrivarci in testa da un momento all’altro. Se proprio vogliamo essere ironici, questo “momento” viene rimandato giorno per giorno, divenendo poi sempre una data piu’ in avanti.

Di Nibiru ne abbiamo parlato in tantissimi articoli, utilizzando il motore di ricerca in alto a destra, trovate decine di articoli che ne parlano, ed in ognuno di questi puntualmente abbiamo analizzato le ipotesi fatte, smentendo sempre tutto attraverso semplici considerazioni, il piu’ delle volte di buon senso, molte volte scientifiche.

Perche’ torno su questo argomento? Semplice, in questi ultimi giorni, la teoria dell’esistenza di Nibiru e’ tornata nuovamente in auge e molti siti internet si stanno di nuovo popolando di articoli pseudo-scientifici riguardo alla prossima fine del mondo dovuta alla collisione di questo pianeta con la Terra.

La causa scatenante, purtroppo, e’ sempre la stessa, cioe’ l’ipotesi che uno dei segni premonitori dell’avvicinarsi di Nibiru sarebbe nell’aumento di asteroidi scagliati verso il sistema solare interno e dunque anche verso la Terra. Dal punto di vista scientifico, l’ipotesi, sbagliata, e’ semplice: entrando nel sistema solare, il pianeta X apporterebbe degli squilibri nella fascia degli asteroidi con il conseguente distacco di corpi massivi dalla zona, che verrebbero poi lanciati verso l’interno. Di questo argomento, abbiamo parlato in questo post:

Nibiru: la prova del trattore gravitazionale

In particolare, abbiamo visto come, dati alla mano, il presunto aumento di asteroidi vicini alla Terra sia del tutto falso e assolutamente non supportato dai conteggi ufficiali. Purtroppo, come spesso accade, molte fonti dimenticano che per sostenere un qualcosa ci vogliono delle prove, o meglio, dei dati certi su cui discutere.

Ora, cosa c’e’ di nuovo? In questo periodo, la Terra sarebbe “sfiorata” addirittura da un grappolo di asteroidi. Ben quattro corpi transiteranno vicino al nostro pianeta, mettendo a rischio la nostra incolumita’. Ovviamente, la causa di questo non puo’ che essere il misterioso pianeta ormai entrato nel sistema solare e che, da qui a poco, ma troppo tardi, vedremo puntare dritto verso la Terra.

Cosa c’e’ di vero in tutto questo?

Il fatto che in questo periodo ci sia il transito di ben quattro asteroidi e’ versissimo, ma e’ assolutamente falso sia che “sfioreranno” la Terra, sia, dunque, che ci sara’ rischio di collisione con il nostro pianeta.

Andiamo con ordine.

Il 17 maggio e’ transitato 2013KA. Si tratta di un asteroide di 10 metri di diametro, passato a 800000 km da noi. Inoltre, su molti siti si punta il dito contro la scienza perche’ questo corpo e’ stato identificato solo il giorno prima del suo passaggio alla minima distanza.

Attenzione, avete capito bene, stiamo parlando di un sasso di 10 metri, dico “metri”, di diametro che e’ transitato a 800000, ottocentomila, kilometri da noi. E’ stato scoperto solo il giorno prima? Vero, ma parliamo sempre di un sasso di 10 metri e che comunque e’ stato individuato.

Andiamo oltre.

Il 21 Maggio e’ passato 2013KT1. Questa volta “addirittura” si tratta di un asteroide di 20 metri di diametro che e’ transitato a 1.3 “milioni” di kilometri dalla Terra. Considerando che la distanza Terra-Luna e’ di circa 400000 Km, direi che non c’e’ assolutamente pericolo.

Solo ieri, 22 Maggio, sono invece passati altri due asteroidi, 2013KB e 2013KS1, rispettivamente con diametri di 18 e 15 metri, anche in questo caso parliamo di diametri di tutto rispetto. Ovviamente l’ironia e’ d’obbligo. Dimenticavo, a che distanza sono passati da noi? 2013KB a circa 1.4 milioni di kilometri, 2013KS1 a 2 milioni di kilometri.

Davvero vogliamo parlare di terra sfiorata? Per favore, restiamo seri.

Attenzione pero’, alla fine di questo “grappolo” c’e’ anche la sorpresa. Il 31 Maggio passera’ 1998QE2, questo con un diametro di 2.1 kilometri. Anche in questo caso pero’, alla minima distanza, questo asteroide passera’ a ben 15 distanze lunari da noi. Non credo dunque sia il caso di preoccuparsi neanche in questo caso.

Analizziamo quanto detto.

Ci sono due punti discussi in rete: il primo e’ che, molto spesso, questi asteroidi vengono identificati solo pochi giorni prima del loro passaggio alla minima distanza, il secondo e’ che siamo di fronte ad un vero e proprio bombardamento.

Per rispondere a questi due punti, basta in realta’ ragionare.

Il punto non e’ che questi asteroidi vengono visti solo pochi giorni prima, bensi’ che “vengono visti”. Mi spiego meglio. Fino a poco tempo fa, era impensabile identificare oggetti cosi’ piccoli a distanze cosi’ grandi. Oggi, siamo in grado di vedere corpi con diametri fino a pochi metri, che transitano a centinai di migliaia di kilometri da noi. Partendo da questo presupposto, e’ anomalo questo passaggio? Puo’ dipendere da Nibiru? Assolutamente no. Il poter vedere oggi questi fenomeni dipende dal fatto che fino a ieri eravamo ciechi per corpi di questo tipo.

Facciamo un esempio. Supponiamo che esista una regione della Terra in cui non ci sono sismografi. Un giorno andate in quella zona e posizionate una fitta rete di monitoraggio sismico. Attraverso questi strumenti vedete che il giorno dopo ci sono tre terremoti. Cosa concludete? Che e’ in corso qualcosa di misterioso per cui ci sono stati ben tre terremoti in un giorno? Assolutamente no, non potete in alcun modo sapere cosa era successo prima dell’installazione dei sismografi.

Il discorso “grappolo di asteroidi” e’ del tutto analogo. Non ha senso parlare di fenomeni anomali, dal momento che, fino a poco tempo fa, non sapevamo neanche del passaggio di questi corpi.

Ultima considerazione. In molti siti ho letto che la stessa cosa e’ avvenuta per 1998QE2. Anche in questo caso, l’asteroide sarebbe stato visto solo pochi giorni fa, nonostante la sua grande dimensione. Notate una cosa, in diversi post abbiamo parlato di asteroidi. Come ormai sappiamo, il nome che viene assegnato a questi corpi e’ in realta’ una sigla che contiene diverse informazioni. La piu’ scontata e’ ovviamente l’indicazione della data di scoperta. Secondo voi, un asteroide che si chiama 1998 qualcosa, quando e’ stato scoperto?

Concludendo, anche in questo caso e’ interessante analizzare le ipotesi catastrofiste su Nibiru per due motivi. Il primo e’ di natura psicologica; la fantasia di alcune persone viaggia veramente a velocita’ enorme e con capacita di distorsione della realta’ che lasciano basito. La seconda e’ ovviamente di natura scientifica. Come visto, migliorando la nostra vista verso lo spazio, riusciamo oggi a vedere oggetti che solo fino a poco tempo fa erano per noi completamente trasparenti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

IceCube e l’esplorazione del cosmo con i neutrini

22 Mag

Nell’articolo precedente, abbiamo parlato di neutrini:

EniGma con Nadir Mura

come visto nell’intervista, e come sicuramente ricorderete, queste particelle sono balzate agli onori delle cronache soprattutto a seguito della misura, poi trovata affetta da errori strumentali, che voleva i neutrini viaggiare ad una velocita’ superiore a quella della luce.

Ora, vorrei tornare nuovamente a parlare di queste particelle, a causa di una nuova misura fisica che sta facendo molto discutere.

Come sappiamo bene, i neutrini sono particelle molto particolari soprattutto a cusa della loro bassa probabilita’ di interazione con la materia, che li rende difficilmente rivelabili. Fino a pochi ani fa, si pensava addirittura che i neutrini non avessero massa, cosa smentita poi grazie alla ricerca e all’osservazione dell’oscillazione dei neutrini, cioe’ della proprieta’ di queste particelle di trasformarsi durante il cammino da una famiglia all’altra.

Proprio a causa di queste proprieta’ cosi’ particolari, i neutrini vengono studiati in diversi esperimenti e, molto spesso, in condizioni quasi estreme. Come detto, la bassa probabilita’ di osservazione, impone agli esperimenti di eliminare all’origine tutto il “rumore” da altre fonti, cioe’ quanto piu’ possibile, ogni altro evento prodotto da particelle diverse e che rischierebbe di coprire, a cuasa della maggiore probabilita’, i neutrini da rivelare.

Proprio per qusto motivo, si sente spesso parlare di rivelatori disposti in angoli remoti del mondo, all’interno delle miniere, sotto kilometri di roccia come nei laboratoridel Gran Sasso o anche immersi ad elevate profondita’ nel mare. Il motivo di questo e’, come anticipato, avere uno schermo naturale in grado di fermare le altre particelle lascinado passare i neutrini. Questi ultimi, a causa della bassa probabilita’ di interazione, passano con molta facilita’ kilometri di materiale senza interagire con la materia.

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Posizionamento di uno dei rivelatori di IceCube nel ghiaccio

Dopo questa doverosa introduzione, vorrei parlarvi di IceCube, uno dei maggiori rivelatori di neutrini, costruito addirittura sotto i ghiacci dell’Antartide. IceCube e’ composto da un elevato numero di elementi sensibili, sepolti ad ua profondita’ variabile tra 1500 e 2500 metri di ghiaccio. La matrice cosi’ ottenuta consente di avere una superficie da rivelare dell’odine di 1 kilometro cubo.

Perche’ sto parlando di neutrini ed in particolare di IceCube?

Scopo di questi esperimenti e’ quello di studiare i neutrini provenienti dal sole o dai raggi cosmici, anche per rivelare nuove sorgenti astrofisiche. Il motivo di questo e’ molto semplice: studire le emissioni di neutrini da parte di oggetti nell’universo, consente di ottenere una sorta di telescopio con queste particelle e dunnque poter analizzare, anche in questo modo, lo spazio che ci circonda.

Bene, l’anno scorso, quasi per caso, IceCube ha individuato due neutrini con l’energia piu’ alta mai registrata sulla Terra, dell’ordine del petaelettronvolt. Per capire quanto sia elevata questa energia, basti pensare che LHC, il grande collisore del CERN, fa scontrare particelle con energia di 3.5 teraelettronvolt, cioe’ circa 300 volte inferiore a quella osservata da ICeCube. Durante l’analisi dei dati condotta per studiare questi eventi particolari, ci si e’ accorti che tra il 2010 e il 2012, il rivelatore avrebbe visto 26 eventi di alta energia, circa 10 volte quella di LHC.

Perche’ sono importanti questi eventi? Nel nostro sistema solare, l’unica sorgente di neutrini presente e’ il Sole. Questi pero, avendo energia molto piu’ bassa, non possono aver generato quanto osservato dai fisici di IceCube. Come potete capire, si tratta, con ottima probabilita’, di una sorgente extragalattica, non ancora identificata.

Dai modelli elaborati, le sorgenti di neutrini nello spazio potrebbero essere le esplosioni di Supernovae, i gamma ray burst o i quasar. Nell’idea, come anticipato, di realizzare un telescopio a neutrini dell’universo, molto interessante sarebbe individuare questa sorgente. Purtroppo, ad oggi, questo non e’ stato ancora possibile, soprattutto a causa dei pochi eventi raccolti all’esperimento.

Anche se manca la spiegazione ufficiale, possaimo provare a formulare ipotesi circa l’origine di questi eventi, soprattutto per capire l’importanza di questo risultato.

Dei gamma ray burst abbiamo parlato in questo post:

WR104: un fucile puntato verso la Terra?

Ccome visto, la conoscenza di questi eventi, ma soprattutto, eventualmente, il poter studiare il loro comportamento diretto, ci permetterebbe di aumentare la nostra conoscenza dell’universo e, perche’ no, magari in futuro farci confermare o smentire idee catastrofiste.

In passato, precisamente nel 1987, sulla Terra arrivarono, ad esempio, i neutrini prodotti da una supernova molto distante nella Nube di Magellano. Anche in questo caso, eventi come quelli delle esplosioni di supernovae ci consentono di comprendere meglio importanti meccanismi alla base dell’universo.

Altre ipotesi formulate riguardano invece la materia oscura, di cui abbiamo parlato in questi post:

La materia oscura

Troppa antimateria nello spazio

Come visto, ad oggi, ci accorgiamo della presenza di materia oscura mediante considerazioni indirette. Purtroppo, non e’ stato ancora possibile individuare questa curiosa forma di materia, anche se molte ipotesi sono state formulate. Proprio l’astrofisica a neutrini potrebbe aiutare a sciogliere qualche riserva. Secondo alcune ipotesi infatti, i neutrini potrebbero essere stati prodotti dallo scontro di materia oscura nel centro della nostra Galassia. In questo caso, studiare in dettaglio i parametri dei candidati, aiuterebbe molto ad individuare la sorgente di produzione dei neutrini ma anche, e soprattutto, di ottenere maggiori informazioni sull’origine della Via Lattea e sulla natura della meteria oscura.

Concludendo, IceCube ha individuato 26 neutrini di alta energia che hanno attraversato i suoi rivelatori. Statisticamente, la probabilita’ che si tratti di un errore e’ inferiore  allo 0,004% per cui sara’ interessante analizzare i dati e capire meglio quali test organizzare nel futuro per cercare di risolvere importanti dubbi che ormai da troppo tempo sono in attesa di una spiegazione ufficiale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

EniGma con Nadir Mura

21 Mag

Dopo l’intervista per “Catastrofi nel Mondo” su Rai 2, in cui avevamo parlato di Nibiru:

Catastrofi nel mondo

Nella trasmissione EniGma, in onda in Albania sul canale Digitalb, e’ andata in onda un’intervista che avevo rilasciato qualche tempo fa.

Nell’intervista si parlava dei viaggi nel tempo. In particolare, veniva affrontato il discorso della misura sui neutrini del Gran Sasso e di John Titor. Come potete ascoltare, i miei condizionali si sono poi rivelati giusti. La misura del Gran Sasso e’ stata poi smentita perche’ causata da un errore sperimentale, difficile da prevedere e che ha falsato completamente il risultato.

Ecco il video dell’intervista con Nadir Mura, conosciuto anche in Italia perche’ ha lavorato per diverso tempo in Rai:

Se non conoscete l’albanese, potete andare direttamente al minuto 35:40 per ascoltare il mio pezzo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.