Tag Archives: processo

Ancora sul 23 agosto ….

20 Ago

Come sapete, sul web si e’ diffusa la notizia che il 23 agosto ci sara’ la fine del mondo a causa di una violentissima tempesta solare in grado di cancellare l’umanita’ dalla faccia della Terra. Questa nuova profezia viene niente poco di meno che da Rasputin, il famoso veggente-santone-consigliere russo, e sarebbe confermata anche dall’esule Snowden che ne sarebbe venuto a conoscenza da rapporti tra la NSA americana e la NASA.

Di questa profezia ne abbiamo parlato in dettaglio in questo articolo:

Ci risiamo: il mondo finira’ il 23 agosto

Come visto, le basi su cui si fonda questa diceria sono assolutamente deboli. Il tutto nasce da un articolo pubblicato su una rivista pseudoscientifica, World Weekly News, nel 1997 e poi riproposto anche nel 2000 quando i primi segnali premonitori non sarebbe sistematicamente avvenuti.

Perche’ torno su questo argomento?

img_poc21_4

In realta’, solo per un breve aggiornamento. Come sapete, siamo riusciti a tradurre la parte centrale in russo che parlerebbe della profezia utilizzando il traduttore di Google. Ora, avendo selezionato solo la parte di nostro interesse e avendo utilizzato internet per la traduzione, proprio per essere sicuri che le cose fossero cosi’, mi sono fatto aiutare da una persona che il russo lo parla davvero, essendo originaria proprio della Russia. La persona in questione e’ Julia, una fan della pagina facebook di Psicosi 2012:

Psicosi2012, facebook

che ha volentieri accettato di darci una mano.

Cosa dice la nostra Julia?

Tramite mail, Julia mi dice che il giorno 23 ricorre molte volte nel libro che abbiamo citato, 100 profezie di Rasputin come visto nell’articolo precedente. Solo nel pezzo precedentemente analizzato si fa riferimento al 23 agosto 2013. In tutti gli altri casi, il 23 e’ riferito a mesi ed anni differenti.

Inoltre, Julia ci conferma quello che avevamo detto, cioe’ che nel pezzo preso di mira da catastrofisti, non c’e’ assolutamente nessun riferimento al Sole. Questa e’ la traduzione letterale:

Il 23 agosto 2013 il fuoco prenderà tutta la terra,dopo di che moriranno tutte quanti e ci sarà tranquilità in questa terra

Molto probabilmente, come detto in precedenza, il riferimento e’ ad un ordigno nucleare. Infatti, nelle vere profezie di Rasputin si fa riferimento ad una terza guerra mondiale.

Non c’e’ invece nessun riferimento al fatto che la guerra sara’ combattuta tra Stati Uniti e mondo islamico. Questa e’ un’altra storia inventata dall’autore del libro, in realta’ copiata dall’autore dell’articolo originale, per rendere piu’ verosimile la profezia. Al tempo di Rasputin infatti, non c’era nessun conflitto in atto, ne tantomeno non dichiarato, tra occidente e mondo islamico. Come potete capire, si tratta solo di un mucchio di cavolate raccontate partendo da una base, forse attribuibile a Rasputin, ma poi condita con elementi moderni per far coincidere la profezia con i nostri giorni.

Tra l’altro, come anticipato anche nel precedente post, nell’articolo di giornale si parla di una guerra che durera’ 7 anni e che terminera’ nel modo visto, dunque, forse, con una bomba atomica.

Sempre Julia ci fa notare un’altra cosa importante. Le profezie di Rasputin, sono appositamente scritte per avere molteplici interpretazioni. Questa e’ ovviamente la chiave per formulare profezie durature, non smentibili ma neanche identificabili con precisione e che possono essere adattate a tutti gli eventi, le stagioni, i giorni, o quello che volete.

Altra cosa fondamentale, cercando in rete i commenti originali in russo, Julia ci dice che le vere profezie di Rasputin non sono in realta’ note, se non in parte. Questo significa che nel corso degli anni, il buontempone di turno, si diverte ad aggiungere pezzi o particolari che non hanno nulla a che fare con il veggente russo.

Concludendo, quanto carpito dai nostri ragionamenti nell’articolo precedente e’ stato confermato da una traduzione letterale. Come visto, non c’e’ assolutamente nessun riferimento al Sole ne tantomeno a tempeste solari che dovrebbero abbattersi sulla Terra. Purtroppo, anche in questo caso, dobbiamo segnalare la presenza di forti distorsioni e modificazioni fatte nel corso degli anni e che nulla hanno a che fare con le profezie originali. A questo punto, mi sembra che il discorso 23 agosto sia pienamente sfatato.

Ringrazio ovviamente Julia per la preziosissima collaborazione!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La calamita piu’ potente e’ nella Via Lattea

16 Ago

In questi giorni di calura estiva, in cui la pletora di informazioni politiche ed economiche e’ ridotta all’osso, molti giornali si dedicano con lunghi articoli all’informazione scientifica. Questo non puo’ che essere un bene, anche se, molto spesso, la quantita’ di informazioni date viene allungata mettendo in mezzo un po’ di tutto e finendo per sparare qualche castroneria.

Fatto questo necessario preambolo, vi vorrei parlare di una notizia molto importante proprio di questi giorni. Come sicuramente avrete letto, un gruppo di scienziati, in larga parte composto da italiani e del nostro paese e’ anche il coordinatore, e’ riuscito per la prima volta a misurare il campo magnetico di una magnetar.

Di questa tipologia di stelle avevamo parlato in questo post:

Lampi radio dall’universo lontano

Come visto, il nome deriva dalla crasi delle parole magnetic star. Si tratta di uno stadio dell’evoluzione delle stelle, riservato a corpi con masse tra 10 e 25 volte quella del Sole, che possono trasformarsi in stelle di neutroni dotate di un notevole campo magnetico.

Quale scoperta sarebbe stata fatta?

Su alcuni giornali leggete che sono state scoperte per la prima volta le magnetar, oppure che si conoscevano in teoria ma non erano mai state viste, oppure che l’osservazione sarebbe un importante conferma piu’ precisa di qualcosa che si conosceva, ecc. Insomma, hanno scoperto o no qualcosa? Di cosa si tratterebbe?

Cerchiamo di fare un po’ di chiarezza.

Come visto nell’articolo gia’ citato, le magnetar sono state ossevate gia’ da diverso tempo nel nostro sistema solare. L’introduzione di questo particolare stadio di evoluzione stellare, risale addirittura al 1992. Fino ad oggi pero’, della caratteristica principale di queste stelle, cioe’ l’intenso campo magnetico, si avevano prove indirette osservando effetti intorno alle stelle. Attraverso la ricerca di cui stiamo parlando, e’ stato invece possibile misurare per la prima volta il campo magnetico generato, fino ad oggi solo ipotizzato. Come potete capire, si tratta di uno studio molto importante, tanto da essere pubblicato proprio in questi giorni sulla prestigiosa rivista Nature. Unica nota per i giornalisti, evitate di ridicolizzare con interventi inutili, non veri e fuorvianti una misura gia’ di per se estremamente importante nell’ambito dell’astrofisica.

Quanto e’ intenso il campo magnetico di una magnetar?

Come sicuramente avrete letto, si tratta del piu’ potente campo magnetico mai osservato prima, dell’ordine del milione di miliardi di Gauss. Ve bene, ma quanti sono un milione di miliardi di Gauss? Per capire questi numeri, e’ necessario avere un termine di confronto.

Pensate che il campo magnetico della nostra Terra e’ inferiore al Gauss. Il campo magnetico presente all’interno dell’esperimento ATLAS, il piu’ potente tra gli esperimenti del CERN, ha un’intensita’ di 20000 Gauss. Dati questi numeri, capite bene quanto immensamente piu’ alto sia il campo magnetico prodotto dalla magnetar.

Parlando invece di situzioni reali e conosciute da tutti, un campo magnetico di soli 10 Gauss a breve distanza e’ in grado di smagnetizzare qualsiasi supporto di archiviazione dei dati. Se andiamo a valori piu’ alti, il campo magnetico di una magnetar potrebbe essere letale a migliaia di kilometri di distanza. Un’intensita’ cosi’ alta, sarebbe infatti in grado di strappare letteralmente i tessuti del corpo umano, a causa delle proprieta’ magnetiche dell’acqua che li compone.

Come e’ stato misurato un campo cosi’ intenso?

Per prima cosa, la magnetar presa in esame e’ nota come SGR 0418+5729, distante da noi 6500 anni luce. Si tratta di una delle circa 20 magnetar identificate nella nostra Via Lattea. Per poter misurare il campo magnetico dela stella, ci si e’ basati sui dati raccolti durante il 2009 dal telescopio XMM-Newton dell’agenzia spaziale europea. I dati riguardavano l’emissione di raggi X dalla stella. La frequenza di queste particelle e’ infatti direttamente proporzionale all’intensita’ del campo magnetico che attraversano. In questo modo, si e’ potuti risalire ad una misura diretta del campo cercato.

Altra caratteristica importante che si e’ osservata e’ che l’intensita’ del campo sulla superficie della stella non e’ uniforme. Si sono infatti identificate zone con campi magnetici piu’ o meno intensi. Questa caratteristica era attesa e non fa che confermare i dati analizzati. Differenze superficiali sulla magnetar, potrebbero essere le cause delle emissioni cosmiche osservata in passato e del tutto simili a quelle del nostro Sole.

Concludendo, la ricerca pubblicata in questi giorni, riguarda la prima misura diretta del campo magnetico delle magnetar. lo studio di questi corpi celesti, ci potrebbe consentire di capire meglio l’origine e l’evoluzione del nostro universo. Si suppone infatti che possano esistere o siano esistite nell’universo magnetar con campo ancora piu’ intensi. Inoltre, si sospetta che proprio queste stelle siano responsabili delle violente esplosioni cosmiche, simili a quelle del nostro sole, che ogni tanto investono anche la Terra e possono, in taluni casi, portare disturbi alle telecomunicazioni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ci risiamo: il mondo finira’ il 23 Agosto

13 Ago

Lasciatemi dire: “finalmente ci risiamo”. Vi confesso che ero un po’ preoccupato per i nostri amici catastrofisti. Gia’ da qualche settimana, mancava una nuova data per la prossima fine del mondo. Ad essere sinceri, sospettavo che sarebbe arrivato il notizione tale da far impazzire la rete. Ebbene, ora ci siamo, abbiamo la prossima fine del mondo servita. Non prendete impegni per il 23 di agosto, si avete capito bene, tra una decina di giorni, perche’ il mondo finira’ tra le fiamme a causa della immane e spaventosa tempesta solare che verra’ scatenata.

Devo dire che la cosa e’ stata costruita in modo davvero eccelso. Da diversi giorni, abbiamo cominciato a mettere insieme pezzi presi dal web e ora abbiamo finalmente un quadro chiaro. Tutto questo non sarebbe stato possibile senza le discussioni e lo scambio di idee e opinioni avute con i tanti utenti che hanno commentato nella sezione apposita del blog:

Hai domande o dubbi?

e sul forum di Psicosi 2012, disponibile a questo indirizzo:

Psicosi 2012, forum

Fatta questa doverosa premessa, torniamo alla nostra fine del mondo. Come anticipato, per il 23 agosto si preannuncia la piu’ forte tempesta solare mai avuta. La prima curiosita’ che viene in mente e’: chi lo dice?

Mi raccomando, non vi distraete perche’ il discorso e’ abbastanza ingarbugliato.

Prima di tutto, a parlare di tempeste solari sarebbe stato l’esule Snowden. Sicuramente avrete sentito parlare di lui nei vari telegiornali. Si tratta di un ex agente della NSA americana che ha reso note molte informazioni top secret del suo governo. Inutile ricordare lo scandalo che questa fuga di notizie ha avuto a livello mondiale. Come sicuramente sapete, inoltre, Snowden e’ ora “ospitato” dalla Russia che si e’ rifiutata di rimandarlo negli Stati Uniti per essere processato. Bene, proprio tra Russia e Stati Uniti si ambienta la nuova fine del mondo.

Come anticipato, Snowden, tra i tanti segreti spifferati, avrebbe anche parlato di lunghi studi condotti dalla NASA per comprendere il comportamento del nostro Sole. Come sapete, quella della tempesta solare era una delle argomentazioni maggiormente citate per il 21 Dicembre 2012. Durante il suo ciclo naturale, il Sole passa attraverso dei massimi e minimi di attivita’. Inoltre, eruzioni solari possono provocare emissione di particelle e radiazione verso la Terra che, in alcuni casi, possono provocare disturbi alle comunicazioni. Ad essere sinceri, l’effetto piu’ frequente che queste emissioni possono avere sulla Terra e’ la formazione di Aurore.

Analizzando il 21 Dicembre 2012, piu’ volte abbiamo parlato di queste tempeste solari:

La piu’ grande tempesta solare ….

Come detto, queste tempeste di radiazioni potrebbero interferire con i nostri sistemi di comunicazione portando, nei casi piu’ intensi, a blackout in alcune zone. Poiche’, oggi come oggi, la nostra societa’ e’ fortemente legata all’energia elettrica, un blackout prolungato in una zona molto estesa potrebbe avere conseguenze molto importanti per le popolazioni del luogo. Vi ricordo pero’ che parlando di interruzioni prolungate di corrente, stiamo parlando di eventi assai poco frequenti e, almeno in epoca moderna, dove le comunicazioni hanno assunto un rulo cosi’ importante, mai registrate.

Detto questo, e’ ovvio che la ricerca sia impegnata nella comprensione e nella simulazione del comportamento del nostro Sole. Ovviamente, non possiamo pensare di mettere un tappo alla nostra stella, ma, sicuramente, saper prevedere comportamenti fuori dalla norma, potrebbe aiutarci ad evitare conseguenze piu’ gravi.

Bene, approfittando della storia di Snowden, alcuni siti catastrofisti hanno inventato la storia della ormai prossima tempesta solare. Ripeto, parlare di studi della NASA su questo e’ dire cose ovvie. Non e’ assolutamente un segreto che siano costantemente in corso analisi sempre piu’ accurate per migliorare gli algoritmi di simulazione solare.

Come visto parlando del 2012, anche per il 22 settembre dell’anno scorso si parlava dell’arrivo di questa tempesta perfetta. Ne abbiamo parlato in questo articolo:

Nuova minaccia il 22 Settembre?

Anche in questo caso si parlava di simulazioni fatte della NASA. La data del 22 settembre era in realta’ una data fittizia inserita nella simulazione ed in cui si pensava potesse capitare il massimo di attivita’ del Sole. Ad oggi, non mi sembra di dover nuovamente smentire questa data dal momento che tutti possiamo testimoniare che non e’ accaduto nulla.

Fate pero’ attenzione, se la storia fosse finita qui si tratterebbe di una riproposizione di argomenti gia’ utilizzati. Ovviamente c’e’ dell’altro.

Prima di tutto, almeno stando alla bufala inventata su web, Snowden avrebbe solo indicato il pericolo, ma non sarebbe a conoscenza della data precisa. Per sostenere maggiormente la storia, la data precisa viene attribuita ad un’altra profezia che annuncerebbe lo stesso imminente pericolo. Si tratta di una profezia di Grigorij Rasputin, noto semplicemente come Rasputin, che in un suo scritto avrebbe lasciato un’indicazione molto precisa.

Sicuramente tutti conosco Rasputin come quel discusso personaggio alla corte dei Romanov che passo’ alla storia come la persona in grado di influenzare pesantemente le scelte dello Tzar di Russia. Oltre che un presunto guaritore, Rasputin sarebbe stato anche un profeta in grado di annunciare molti avvenimenti successivi alla sua morte, anche questa profetizzata molti anni prima.

Stando a quanto potete leggere su internet, gli scritti di Rasputin in questione sarebbero stati portati alla luce proprio in questo periodo da un certo, David W. Norvalk. Piccola parentesi che spesso crea confusione a chi cerca di informarsi sulla rete. Molto spesso, quando leggete di “ricercatori” sui siti castrofisti, non dovete quasi mai pensare a addetti ai lavori o persone che si occupano di fare ricerca presso qualche ente su argomenti particolari. Per i nostri amici catastrofisti, un ricercatore e’ chiunque si occupi di ricercare, anche solo su internet, delle informazioni. Capite bene il giochino utilizzato per confondere le persone. In alcuni casi trovate anche un termine che trovo eccezionale “ricercatore indipendente”, cioe’, tradotto per tutti, uno che da casa sua si collega a google e cerca informazioni. Questa definizione viene spesso utilizzata anche in note trasmissioni italiane che di scientifico hanno veramente ben poco.

Fatta questa premessa, capite subito che tale Norvalk sarebbe appunto un ricercatore nel senso catastrofista del termine. Se provate a cercare questo nome su internet, trovate in realta’ solo siti catastrofisti che si rimandano uno con l’altro facendo copia/incolla delle notizie.

Lasciando da parte il soggetto, vediamo invece di cosa si parla. In realta’, la storia raccontata da Norvalk su Rasputin e’ ben piu’ vecchia di quello che vorrebbero farci credere, mettendola in simulatanea con la fuga di notizie di Snowden. Di Rasputin e della profezia sul Sole, Norvalk parla  in un articolo del 1997 apparso su Weekly  World News. Ecco il link dove potete leggere quanto detto:

WWN, 1997

Come potete leggere, si tratta in realta’ di una serie di profezie che Norvalk attribuisce a Rasputin, divise in ordine temporale. Come vedete, per il 23 agosto 2013 si parla di “un fuoco che consumera’ tutte le cose viventi”, annunciando, senza mezzi termini la fine del mondo. Quanto scritto e’ stato poi identificato con la tempesta solare per far coincidere la storia con le presunte informazioni date da Snowden. Come vedremo in seguito, esistono in realta’ interpretazioni molto diverse.

Attenzione pero’, prima di questa data, ce ne sono molte altre. Proviamo a leggere: nel 1997, vi ricordo’ anno di uscita dell’articolo, ci sara’ un attentato terroristico negli USA che distruggera’ uno dei simboli dell’intero occidente. Nel 2000 un virus mortale uscira’ da un laboratorio, sempre negli Stati Uniti, causando innumerevoli vittime fino al 2003 quando verra’ fermato, e cosi’ via.

Ora, a questo punto potrei interrompere il racconto e chiudere dicendo che, dal momento che questi avvenimenti non ci sono stati, si tratta solo di una bufala. E’ pero’ interessante andare avanti per mostrare l’assurdita’ delle affermazioni in rete e per farvi capire meglio come lavora la macchina catastrofista tanto attiva in questi ultimi mesi.

Dal momento che questi avvenimenti non ci sono stati, il giornale in questione ha riproposto esattamente lo stesso articolo 3 anni piu’ tardi, nel 2000. Ovviamente, si e’ solo limitato a spostare di tre anni in avanti tutte le date, esclusa quella del 2013. Non ci credete? Ecco a voi la prova:

WWN, 2000

Perche’ le hanno spostate tutte tranne quella del 2013? E’ forse reale? Assolutamente no, semplicemente questa era l’unica data proposta piu’ lontana nel tempo per cui non era necessario spostarla, mentre tutte le altre gia’ non si erano avverate nel 1997 o erano troppo prossime al 2000!

Ecco da dove nasce la storia di Rasputin a sostegno di quella di Snowden. Apro un’altra breve parentesi, oltre alla notizia che stiamo commentando, provate a sfogliare la rivista che ho linkato per rendervi conto che tipologia di notizie pubblica questo giornale. Anche solo leggendo i titoli, capite subito in quale settore poter collocare lo stesso giornale.

Leggendo in rete, trovate pero’ anche un’altra notizia a sostegno dell’ipotesi Rasputin. Forse qualcuno un po’ piu’ sveglio ha capito che cosi’ come veniva raccontata non poteva essere credibile. Detto questo, viene dunque riportata una nuova fonte, un libro di uno scrittore russo che avrebbe riportato a sua volta le confessioni fatte da Rasputin riguardanti profezie future. Il titolo del libro e’ “100 profezie di Rasputin” e l’autore e’ un certo Andréi Brestski. Se provate a cercare notizie in rete, anche in questo caso non trovereste niente. Inizialmente la cosa aveva portato fuori strada anche il sottoscritto. Il libro in questione non lo potete trovare su nessuna libreria online, neanche internazionale, cosi’ come non trovate informazioni sul suo autore. Il motivo e’ che il libro esiste solo in russo. Fortunatamente, Google Books, permette di vedere un anteprima del libro in questione.

Ecco il link dove vedere il libro:

100 profezie di Rasputin

Cliccando su anteprima, potete vedere un certo numero di pagine. Unico problema, come anticipato, e’ che il libro e’ in russo. Se provate a cercare 23 agosto in russo, cioe’ 23 августа, trovate un risultato che veramente parla di questa data. Purtroppo, Google books vi fornisce immagini e non un testo da poter copiare e tradurre. Anche a questo c’e’ un rimedio, andando a questo link:

100 profezie di Rasputi, online

potete trovare, senza scaricare nulla e senza violare alcun copyright, il testo online. Bene, selezionando la parte che parla del 23 agosto, e traducendo con google, trovate:

La cosa peggiore per accadere 23 agosto 2013: “Il fuoco consuma tutta la vita sulla Terra, e poi la vita sul pianeta morirà e non ci arriverà silenzio sepolcrale” – così ha scritto il “vecchio uomo”. “È lui predice un olocausto nucleare?” – Chiede ai lettori. Non c’è una risposta …

Fate pero’ attenzione, anche il libro parla di fuoco sulla Terra, ma in realta’ parla di olocausto nucleare. Il primo spezzone e’ esattamente identico a quello di Norvalk visto prima. Qui pero’, viene aggiunta una parte riguardante l’olocausto nucleare. Cosa c’entra questo? Ora vi riporto lo spezzone di frase che compare prima di quello riportato:

Secondo la previsione di Rasputin, alla fine del primo decennio del XXI secolo, la potenza in Oriente, e cioè, in primo luogo in Iraq moderno e il Kuwait e l’Arabia Saudita, i fondamentalisti islamici prendono il sopravvento, che sarebbe stato chiamato negli Stati Uniti di un prodotto di Satana, e annuncerà la sua guerra implacabile – jihad. Durante questo periodo, il resto degli Stati Uniti arriverà al potere come ortodossi, ma solo della persuasione cristiana. Se ci sarà tra i due principali conflitto militare? Rasputin risponde a questa domanda in modo affermativo. Ha predetto che gli Stati Uniti erano e iniziare una nuova crociata contro l’Oriente musulmano. Questa campagna, o meglio la guerra durerà sette anni e sarà l’ultimo nella storia dell’umanità. Solo una grande battaglia su entrambi i lati morirà più di un milione di persone.

Come vedete, si parla di una guerra santa in corso a livello mondiale tra Oriente e Occidente. Guerra che poi culminera’ con l’olocausto nucleare del 23 agosto.

Ragioniamo un secondo: non mi sembra si parli di tempesta solare, questo dunque fa cadere ancora una volta la storiella di Swnoden, Raspunti e compagnia bella. Inoltre, 7 anni prima di questa data sarebbe iniziata questa guerra tra Stati Uniti e Oriente. Ragionando, se proprio volessimo identificare questi avvenimenti con le varie campagne in terra araba, allora il tutto sarebbe iniziato ben prima di 7 anni fa. Ritornando pero’ al link di Google Books in cui veniva mostrata l’anteprima del libro, vedete bene che la data di pubblicazione e’ solo del maggio 2013. Cosa significa questo? Semplice, si tratta di un testo che, molto probabilmente, ha ripreso di sana pianta la storia pubblicata su Weekly World News, riproponendola in forma di olocausto nucleare invece che di tempesta solare.

Inoltre, vorrei dire una cosa, e’ risaputo che Rasputin nel periodo alla corte dei Romanov avesse anche fatto profezie ma, al contrario di quello che vorrebbero farvi credere, non ci sono assolutamente indicazioni temporali precise, figuriamoci un giorno di un anno cosi’ lontano per il tempo.

Concludendo, questa storia sarebbe degna di una telenovelas: colpi di scena, distorsioni, ripensamenti, articoli che vengono modificati e ripubblicati, spionaggio internazionale. Peccato che, come visto, si tratta soltanto di storie inventate. Detto questo, non ci si aspetta nessuna tempesta solare per il 23 Agosto, figuriamoci una fine del mondo. Se poi ancora non foste convinti, non vi resta che aspettare solo pochi giorni per poter assistere alla tempesta solare perfetta o all’olocausto nucleare!

 

Ringrazio per le preziose informazioni e per la collaborazione: Luca, Daniel e Apollo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il processo di decaffeinizzazione

8 Ago

Nella sezione:

Hai domande o dubbi?

una nostra cara lettrice ci chiede di parlare del “caffe’ decaffeinato”. Credo che questo argomento sia molto interessante perche’ molto spesso si sentono tantissime leggende su questa soluzione. Tutti noi, almeno una volta, avremo sentito dire: “fa bene”, “fa male”, “e’ cancerogeno”, “e’ buono”, “fa schifo”, ecc. Come al solito, tante opinioni in disaccordo tra loro. Cerchiamo dunque di capire meglio come viene realizzato questo caffe’, cioe’ quali sono le tecniche maggiormente utilizzate per la decaffeinizzazione e, soprattutto, che genere di risultato si ottiene.

Qualche tempo fa, avevamo gia’ parlato della cosiddetta “fisica del caffe'”, parlando del principio di funzionamento della moka, spesso ignorato da molti, anche tra gli addetti ai lavori:

La fisica del caffe’

A questo punto, non resta che parlare invece della materia prima necessaria!

Come sapete bene, la caffeina, il cui nome chimico e’ 1,3,7-trimetilxantina, fu isolata per la prima volta nel 1820 ed e’ contenuta in almeno 60 varieta’ di piante, tra cui, ovviamente, caffe’, the, guarana’, cacao, ecc. La caffeina e’ un potente stimolante ed interagisce sul nostro umore aumentando i livelli di dopamina e bloccando i recettori dell’adenosina. Per inciso, quando i livelli di quest’ultima raggiungono una certa soglia, avvertiamo la sensazione di sonno.

Queste caratteristiche sono purtroppo sia il pro che il contro della caffeina. L’assunzione di questa sostanza puo’ infatti avere effetti dannosi in persone ansiose, con problemi di sonnoloenza, tachicardia, ecc. Come anticipato, l’effetto della caffeina e’ tutt’altro che blando, a livello biologico, questa molecola e’ un vero e proprio veleno, che risulta letale sopra una certa soglia, ovviamente non raggiungibile assumendo tazzine di caffe’.

Ora pero’, molte persone, tra cui il sottoscritto, adorano il caffe’ anche solo per il suo sapore o per la ritualita’ dell’assunzione. Proprio per questo motivo, si sono affinate diverse tecniche per eliminare la caffeina dai chicchi di caffe’, ottenendo una bevanda non stimolante, appunto il caffe’ decaffeinato.

Il decaffeinato fu inventato a Brema nel 1905 dal tedesco Ludwig Roselius, figlio di un assaggiatore di caffè, per conto della azienda “Kaffee Handels Aktien Gesellschaft”. Proprio in onore del nome dell’azienda, questo tipo di caffe’ venne chiamato prendendo le iniziali e dunque commercializzato come Caffe’ HAG. Per ottenere questo risultato, i chicchi di caffe’ venivano cotti a vapore con una salamoia di acqua e benzene. Quest’ultimo era il solvente in grado di estrarre la caffeina dal chicco.

Successivamente, questo metodo venne abbandonato trovando soluzioni alternative da utilizzare prima della tostatura, cioe’ quando il fagiolo e’ ancora verde. La tecnica maggiormente utilizzata fino a pochi anni fa, era quella che prevedeva l’utilizzo di diclorometano per estrarre la caffeina. Successivamente a questo trattamento, il caffe’ veniva lavato a vapore per eliminare il diclorometano, che ha un punto di ebollizione di circa 40 gradi. A questo punto, si passava alla essiccatura e tostatura dei chicchi a 200 gradi.

Questo metodo presentava purtroppo alcuni problemi, che poi sono quelli che spingono ancora oggi le leggende di cui parlavamo all’inizio.

Il diclorometano e’ una sostanza cancerogena per l’essere umano. Come anticipato, successivamente al suo utilizzo, il caffe’ passava per altri due processi con temperature notevolmente superiori al punto di ebollizione del diclorometano. Questo trattamento assicurava la completa evaporazione del potenziale cancerogeno sui chicchi.

Perche’ allora e’ stata abbandonata la tecnica?

Il problema reale di questa tecnica di decaffeinizzazione e’ che durante il trattamento con diclorometano, oltre alla caffeina, venivano estratte altre sostanze chimiche dai chicchi che contribuiscono al sapore della bevanda finale. In tal senso, il decaffeinato ottenuto con questa soluzione, aveva un sapore molto diverso da quello originale. Inoltre, anche altre sostanze benefiche per l’organismo venivano estratte dal caffe’ mentre venivano prodotti oli contenenti molecole da alcuni ritenute dannose per l’uomo.

Detto questo, capite bene dove nascono le leggende da cui siamo partiti, circa il sapore del decaffeinato e la pericolosita’ del suo utilizzo.

Oggi, la tecnica con diclorometano e’ quasi completamente abbandonata a favore dell’utilizzo della CO2 supercritica. Con questo termine si intende solo una stato con pressioni e temperature tali da renderla una via di mezzo tra un gas e un fluido. Nel processo di decaffeinizzazione, i chicchi di caffe’ vengono prima inumiditi con vapore per rigonfiarli ed aumentare la percentuale di acqua. Questo sempre con fagioli verdi, cioe’ prima della tostatura. A questo punto, i chicchi passano in colonne di estrattori insieme alla CO2 ad una tempratura tra 40 e 80 gradi ed una pressione intorno alle 150 atmosfere. Questo passaggio permette all’anidride carbonica di portare via la caffeina, toccando in minima parte le altre sostanze contenute nel caffe’. A seguito di questo passaggio, si procede ovviamente alla tostatura.

Quali sono i vantaggi di questa tecnica rispetto alla precedente?

Prima di tutto, si utilizza solo CO2, cioe’ una sostanza non pericolosa per l’essere umano. Il processo consente di estrarre gran parte della caffeina contenuta nel caffe’. Per legge, un caffe’ decaffeinato non deve avere piu’ del 0,1% di caffeina. Non intaccando, se non in minima parte, le altre sostanze, il sapore del caffe’ rimane quasi invariato, e quindi e’ molto piu’ simile all’analogo con caffeina.

Oltre a questi aspetti, la CO2 in uscita dal processo e’ ovviamente ricca di caffeina. Questa sostanza e’ notevolmente utilizzata in diversi settori tra cui la medicina, la farmacologia, la botanica, ecc. Proprio per questo motivo, in virtu’ del processo utilizzato, e’ possibile estrarre caffeina pura dall’anidride carbonica mediante un abbassamento di temperatura o utilizzando carboni attivi.

Lo stesso processo viene utilizzato anche su altre piante, oltre che per l’estrazione del colosterolo dal burro o dell’essenza dai fiori di luppolo, utilizzata nella produzione della birra.

Concludendo, molte delle leggende intorno al decaffeinato nascono in virtu’ del precedente metodo utilizzato per l’estrazione della caffeina dai chicchi. Oggi, l’utilizzo di CO2 supercritica consente di estrarre la maggior parte della caffeina, che oltre tutto puo’ essere recuperata e utilizzata in altri settori, lasciando quasi del tutto inalterate le altre sostanze che contribuiscono la sapore di questa ottima bevanda.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E-Cat meraviglia o grande bufala?

30 Mag

Viste le numerose richieste di informazioni, chiarimenti e spiegazioni che ho ricevuto, ho deciso di scrivere questo articolo sull’E-Cat. Perche’ non l’ho fatto prima? Semplicemente perche’, a mio avviso, e ne riparleremo dopo, mancavano dei presupposti essenziali per parlare di questa presunta invenzione in termini scientifici.

Ora cosa e’ cambiato?

A parte le numerose richieste ricevute, la rete e’ letteralmente esplosa in questi giorni perche’ sembrerebbe che finalmente sia arrivata la dimostrazione indipendente del funzionamento di questo prodigio.

Bene, analizziamo i fatti e cerchiamo di capire meglio di cosa stiamo parlando.

Per chi non lo sapesse, l’E-Cat e’ una presunta invenzione di Andrea Rossi che produrrebbe energia in un modo non noto. Mi spiego meglio. Si tratta di una sorta di generatore, alimentato da corrente elettrica, che pero’ produce piu’ energia di quanta ne assorbe. E’ strano questo? Assolutamente no. Non pensate che si stia violando qualche principio fisico basilare, semplicemnte si potrebbe sfruttare una qualche reazione chimica, fisica o sconosciuta mediante la quale si innescano dei processi esoenergetici, cioe’ che producono energia.

Poiche’ questo punto e’ molto importante, cerchiamo di capirlo bene e in modo semplice. Prendiamo, ad esempio, la fissione nucleare. Mediante questo proceso, nuclei di elementi fissili vengono spaccati in elementi piu’ leggeri, mediante neutroni, producendo energia. Ora, per produrre i neutroni da sparare avete bisogno di energia, ma quella che otteete alla fine del processo e’ maggiore di quella che avete speso, perche’ siete riusciti ad estrarre un’energia dall’interno del nucleo. Avete creato qualcosa dal nulla? No, avete semplicemente sfruttato un processo per produrre questa energia traformandola in qualcosa di utilizzabile ai vostri scopi.

Bene, l’invenzione di Rossi dovrebbe fare un qualcosa di equivalente. L’invenzione promette infatti di produrre molta piu’ energia di quella che deve essere immessa, sfruttando un processo, almeno al mometo, sconosciuto.

Qual e’ il carburante dell’E-Cat? Piu’ o meno il sistema funziona in questo modo: mettendo insieme Nichel e Idrogeno e fornendo un’energia iniziale al sistema, si dovrebbe innescare una reazione fortemente esoenergetica, in cui viene prodotta 5 o 6 volte piu’ energia. Attenzione pero’, gli ingredienti non bastano. Per poter funzionare, c’e’ bisogno anche di un catalizzatore da aggiungere al miscuglio Ni-H, tenuto segreto per motivi di spionaggio industriale.

Perche’ spionaggio industriale? Semplice, parlando di E-Cat, non stiamo parlando di una ricerca scientifica, bensi’ di una invenzione che deve essere lanciata sul mercato. Detto in altri termini, che deve essere venduta.

Quasta cosa ci sconvolge? Assolutamente no. Chiunque di noi puo’ pensare ad un’invenzione commerciale fattta esclusivamente per guadagnare. Non c’e’ nulla di male in questo, purche’, come vedremo, ci siano tutti i presupposti di affidabilita’ dell’invenzione.

Per chi gia’ conoscesse l’E-Cat, notate che ho parlato di una misteriosa reazione. Su molti giornali e siti internet, vedete che si parla di “fusione fredda” o “reazione nucleare a bassa energia”, ho omesso appositamente di tirare in causa questi concetti. Perche’? La fusione nucleare e’ quel processo secondo il quale dei nuclei leggeri vengono fusi tra loro per produrne uno piu’ grande, producendo energia. Questa ‘e la reazione utilizzata dal sole e dalle stelle per produrre energia, ed e’ quella a cui si vorrebbe puntare per sostituire le centrali nucleari a fissione. Il motivo e’ molto semplice, favorevoli o meno al nucleare, il punto piu’ discusso su queste tematiche e’ quello della produzione di scorie, cioe’ elementi nucleari di scarto con vite medie lunghe, cioe’ che restano attivi per molto tempo.

Qual e’ il problema principale della fusione?

Come detto, si devono fondere tra loro due nuclei leggeri per formarne uno pesante. Bene, cosa c’e’ dentro il nucleo? Neutroni, particelle neutre, e protoni, particelle di carica positiva. Come sappiamo bene, se avviciniamo due cariche dello stesso segno, come i protoni dei due nuclei, questi si respingono tra loro a causa della repulsione coulombiana. Ora pero’, se riuscissimo ad avvicinare moltissimo i due nuclei, si arriverebbe ad un punto in cui la forza nucleare forte, che e’ attrattiva, sarebbe molto maggiore della repulsione dovuta alle cariche elettriche, e i due nuclei si attirerebbero tra loro. Niente di complicato. Mentre li avvicinate, i due nuclei si respingono, quindi dovete spingerli con forza per farli avvicinare. Quando poi riuscite ad arrivare oltre una certa distanza, nota come barriera di Coulomb, a questo punto i due nuclei si attirano da soli e si innesca la fusione. Il problema delle centrali a fusione e’ proprio quello di trovare il modo piu’ conveniente ed efficace per fornire l’energia necessaria al superamento della barriera di Coulomb.

E la fusione fredda?

Come detto, parlando di fusione si parla di processi ad altissima temperatura, come avviene nelle stelle. La fusione fredda invece avverrebbe a temperatura ambiente. Al contrario di quanto si legge spesso in rete, non esitono evidenze di reazioni di questo tipo. Storicamente, i primi a parlare di fusione fedda furono gli americani Fleischmann e Pons, cui seguirono altre prove. Per nessuna di queste pero’, esiste la certezza scientifica che si sia trattato realmente di una reazione nucleare di questo tipo e, ancora oggi, c’e una forte discussione a proposito.

Perche’ per l’E-Cat si parla di fusione fredda?

In diverse fonti si parla della reazione tra Nichel e Idrogeno che verrebbero fusi tra loro per produrre Rame. Questo sarebbe il processo che avverrebbe a bassa energia e che fornirebbe l’energia dell’E-Cat. Ripeto, non sono d’accordo su questo punto e a breve mostreremo anche il perche’.

Prima di tutto, rivediamo un po’ la storia di questo E-Cat. Nel 2011 si e’ iniziato a parlare di questo generatore quando Rossi ha condotto due test rendendo pubblici i risultati. In questi esperimenti, fornendo un’energia al macchinario intorno ai 35 KWh, si sarebbero prodotti in un caso 70 KWh, nell’altro 160 KWh. Stando ai numeri, la reazione sarebbe effettivamente esoenergetica e molto conveniente. Qual’era il problema di questi test? Semplicemente, non ci sono prove scientifiche della validita’ dei risultati perche’ il tutto e’ stato condotto in maniera autonoma e senza un confronto indipendente. Cosa significa? Ai test sono stati invitati giornalisti rigorosamente selezionati, in veste di spettatori. Mi spiego meglio. I giornalisti sono stati invitati in questo capannone e hanno potuto vedre e filmere il test di Rossi riportando solo ed esclusivamente quelllo che l’inventore del macchinario affermava.

Ora, vedetela in questo modo. Un signore vi invita ad una dimostrazione in cui vi mostra una scatola nera in cui mette 10 euro e dall’altra parte ne escono 20. Basta, non vi viene detto altro ne’ vi vengono forniti dettagli su cosa c’e’ dentro la scatola. Non parlo a caso di scatola nera, infatti, molte delle parti dell’apparecchiatura sono tenute coperte e chiuse alla vista. Ovviamente, si tratta dei componenti fondamentali del sistema, incluso anche il misterioso catalizzatore che darebbe il via alla reazione.

Cosa dice la scienza a proposito? Come e’ facile immaginare, questo risultato non e’ stato accettato dalla comunita’ scientifica. Per sostenere qualcosa di questo tipo, seguendo i canoni della scienza, si dovrebbe mostrare il macchinario, studiare la reazione che avviene e il tutto deve essere ripetibile ovunque nelle stesse condizioni. Se queste informazioni mancano, il test e’ del tutto simile a quello di un’illusionista che vi mostra l’assistente tagliata in due all’interno di una scatola.

Come forse sapete, a seguito di questi test, e del completo rifiuto della scienza su questi risultati, Rossi e’ divenuto un “mito telematico”, metafora di quel genio che trova l’invenzione del secolo per il bene dell’umanita’ e a cui la scienza mette i bastoni tra le ruote perche’ corrotta dalle grandi multinazionali.

Se invece di gridare allo scandalo, si ragionasse su quanto detto, tutti si renderebbero conto che affermazioni di questo tipo non possono essere credibili se non verificate sperimentalmente. Il problema energetico dell’umanita’ non si risolve con la fiducia sulla parola, ma con numeri chiari verificabili e indiscutibili.

Perche’ ora, come anticipato, si parla di verifica indipendente? Nei mesi scorsi sarebbero stati condotti altri test. Questa volta pero’, avrebbero partecipato anche scienziati di diverse parti del mondo che avrebbero assistito agli esperimenti. Anche in questo caso, i risultati avrebbero mostrato un guadagno energetico del processo, confermando dunque la correttezza del metodo su cui si basa l’E-Cat.

Attenzione, facciamo una considerazione. Come premesso, in ambito commerciale, e’ lecito parlare di segreto industriale. Le regole del commercio sono diverse da quelle della scienza. A mio avviso, se il tutto venisse mostrato ad un gruppo di scienziati affidabili ed in grado di fornire un’opinione scientifica, sicuramente il test acquisterebbe di credibilita’. Purtroppo, non e’ andata cosi’.

L’altro punto fondamentale su cui si e’ dibattuo a lungo e’ la mancanza di una “peer review” sull’esperimento. Cosa significa? Quando si pubblica un articolo su una qualche rivista internazionale, si passa attraverso il processo di “referaggio”. Prima di pubblicare il lavoro, la rivista nomina un altro ricercatore internazionale di chiara fama ed esperto del settore che ha il compito di analizzare in dettaglio il contenuto dell’articolo. Se ci sono punti poco chiari, l’esperto puo’ chiedere maggiori spiegazioni al fine di chiarire il tutto ed evitare, nella migliore delle ipotesi, errori sfuggiti agli autori. Solo al termine di questo processo il vostro lavoro, se accettato, viene pubblicato.

Partendo proprio da questo punto, gli ultimi test seguiti dal gruppo di scienziati avrebbero risolto anche questo problema.

Perche’?

Solo pochi giorni fa, e’ stato pubblicato un articolo sull’archivio della Cornell University, che trovate a questo link:

ArXiv E-Cat

A questo punto, tutti i dubbi iniziali dovrebbero essere risolti: il test e’ stato eseguito indipendentemente da un gruppo di ricercatori e questi hanno anche pubblicato un articolo, ovviamente confermando i risultati dei primi test.

Cosa c’e’ che non va?

Prima di tutto, quello di cui vi ho dato il link, non e’ un articolo su rivista internazionale che ha subito un processo di peer review. Il database in questione e’ semplicemente un archivio di articoli in cui i ricercatori possono mettere i loro lavori. Non c’e’ nessun controllo sul contenuto degli articoli, a parte la buona fede dei ricercatori stessi. Generalmente, almeno nel campo della fisica, i lavori vengono caricati su arXiv prima che questi vengano pubblicati sulle riviste, cioe’ mentre e’ in corso il processo di review. Detto questo, non e’ assolutamente risolto il problema del peer review per l’E-Cat.

Purtroppo, neanche la prima critica e’ stata risolta. Come potete leggere nel testo dell’articolo, non si e’ trattato assolutamente di una verifica indipendente, ma solo di uno spettacolino riservato a persone esperte del settore. Cosa significa? Nei primi test erano stati invitati dei giornalisti, ora dei ricercatori, ma lo svolgimento e’ stato esattamente lo stesso. I ricercatori non hanno potuto toccare nulla, ma si sono limitati a guardare il test condotto da Rossi nei suoi laboratori. Inoltre, molte delle parti del sistema su cui si era discusso, sono rimaste chiuse all’interno di scatole nere in cui era impossibile guardare dentro e, come e’ facile pensare, tra queste vi era anche il misterioso catalizzatore. L’articolo di cui stiamo parlando e’ dunque un insieme di osservazioni e considerazioni fatte dai ricercatori.

Cosa e’ cambiato rispetto al passato? Ovviamente, i ricercatori intervenuti hanno potuto misurare il calore in uscita mediante una termocamera, valutando in questo modo sia la potenza in uscita che quella in ingresso utilizzando sistemi elettrici. A parte al correttezza o meno di questo processo indiretto e della valutazione dell’incertezza ottenuta misurando la potenza con una termocamera, non  si e’ assolutamente trattato di una prova “indipendente”.

C’e’ anche qualche altra considerazione importante da fare. Come detto in precedenza, a mio avviso non si e’ trattato di fusione fredda. Un processo di questo tipo necessariamente producce radiazione in uscita. Effetto non riportato in nessun caso e impossibile da schermare in sistemi di questo tipo. Tra l’altro, conosco personalmente uno dei ricercatori intervenuti ed e’ un esperto di radioprotezione dell’Universita’ di Uppsala in Svezia.

Oltre a questo, la quantita’ d rame che si sarebbe prodotta corrisponderebbe ad un rendimento del sistema molto piu’ alto di quello che ci si aspetta e soprattutto il rame in questione sarebbe non eterogeneo, cioe’ mancano isotopi diversi dalla forma piu’ commerciale e abbondamente in natura.

Ulima considerazione scientifica, dal punto di vista energetico, la fusione di nichel e idrogeno sarebbe possibile e verrebbe prodotto rame, ma la barriera coulombiana per questi nuclei e’ elevatissima. Questo solo per dire che un processo del genere a bassa energia e’ scientificamente molto difficile da digerire. Teoricamente si potrebbe citare l’effetto tunnel, ma questo non spiegherebbe neanche la certezza della reazione di fusione cosi’ come altri processi quantistici non deterministici.

Concludendo, alla luce delle considerazioni fatte e degli ultimi aggiornamenti, non pssiamo assolutamente affermare che l’E-Cat sia un sistema reale e che possa essere accettato dalla scienza. Questo non significa che potrebbe esistere questo generatore in grado di fare quello che Rossi promette. Semplicemente, se anche esistesse, non e’ comprensibile la reazione su cui sarebbe basato e soprattutto mancano dati certi su cui ragionare e da cui estrarre certezze scientifiche. Al momento, almeno secondo me, siamo ancora al livello dll’illusionista che taglia l’assistente con la sega.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Se la morte fosse uno stato reversibile?

20 Mag

In un commento lasciato nella sezione:

Hai domande o dubbi?

un nostro nuovo lettore ha chiesto maggiori informazioni sulle esperienze di pre-morte, di cui abbiamo parlato in questo post:

Le esperienze di pre-morte

ma anche degli studi in corso per tornare indietro dallo stato di morte.

Se per la prima domanda avevamo gia’ discusso l’argomento in un post, la seconda richiesta e’ invece inedita.

Cosa significa tornare indietro dalla morte?

Riflettiamo un attimo su questa cosa. Quando moriamo? Vediamo, in modo che forse a qualcuno sembrera’ innaturale, il nostro corpo come una macchina. Ci sono tanti organi, ognuno con funzioni diverse, ma che funzionano attraverso la circolazione sanguigna. Questo flusso di sangue e’ prima di tutto spinto da una pompa che e’ il cuore. Ad ogni battito, il sangue va in circolo raggiungendo i diversi organi e alimentando in questo modo le cellule che li compongono.

Bene, quando moriamo cosa succede? In un modo o nell’altro, il nostro cuore smette di battere, cioe’ si interrompe l’alimentazione che faceva andare la macchina-uomo.

In questa concezione, possiamo vedere la morte come un istante, cioe’ quel preciso attimo in cui il cuore smette di battere. Prima di concludere, riflettiamo ancora su quanto detto. Noi non siamo solo il cuore. In termini automobilistici, questa e’ la pompa che manda in circolo la benzina, ma il motore qual e’? Tra tutti gli organi, sicuramente il cervello ha un ruolo molto importante e dunque concentriamoci su questo. Le cellule cerebrali, nel momento in cui il cuore si ferma, non ricevono piu’ sangue. Visto in questo modo, nell’istante in cui il cuore si ferma, inizia la morte delle cellule del nostro corpo che inizieranno un processo di decomposizione. Ovviamente, le cellule non muoiono nel preciso istante in cui il sangue smette di fluire, ma saranno ancora “vive” per un periodo piu’ o meno lungo.

Se utilizziamo questa chiave di lettura, la morte non e’ piu’ un singolo istante, bensi’ un processo che parte quando il cuore smette di battere e si conclude con la decomposizione cellulare.

Se ora, fossimo in grado di intervenire in questo lasso di tempo per risolere la causa che ha portato all’arresto cardiaco, potremmo pensare di tornare indietro dallo stato di morte.

Questo ragionamento e’ proprio quello alla base del pensiero del Dr. Sam Parnia, medico statunitense, capo del reparto di terapia intensiva dello Stony Brook University Hospital di New York. Sfidando il pensiero medico piu’ comune, Parnia ha condotto importanti studi sul processo di morte, cercando proprio di far tornare indietro i pazienti normalmente considerati deceduti.

Ora attenzione, su questi studi si possono leggere moltissime cose inesatte in rete, accompagnate dalla solita e immancabile speculazione. In particolare, non manca chi punta il dito contro la scienza e la medicina, sostenendo che gli esseri umani si vorrebbero sostituire a Dio nel decidere quando e come morire. Questo e’ completamente falso.

Ragioniamo un attimo su questi concetti. Nei reparti di terapia intensiva di tutto il mondo, si ricorre a particolari tecniche che consentono di mantenere in vita un paziente mediante circolazione extracorporea o respirazione indotta da macchinari. Anche in questi casi, quello che si fa e’ bloccare lo stato di morte, aiutando il paziente con l’ausilio di macchinari esterni al corpo.

Il dottor Parnia si e’ proprio specializzato in queste tecniche. Per farvi qualche esempio, molto usata in questi casi e’ la cosiddetta “rianimazione cardiopolmonare”, o CPR. Questa tecnica prevede l’ausilio di un macchinario per ossigenare il sangue del corpo e salvaguardare le cellule cerebrali in attesa che il problema del pazienta venga risolto e che possa riprendere la normale respirazione autonoma. Analoga funzione e’ quella dell’ECMO, cioe’ l’ossigenazione extracorporea mediante membrana, oltre ovviamente a tecniche criogeniche utilizzate per raffreddare il corpo e mantenere vitali le cellule.

Alla luce di quanto detto, queste tecniche sono del tutto normali. L’importante contributo del Dr. Parnia non e’ nella scoperta di queste tecniche, ripeto gia’ utilizzate in medicina, bensi’ in uno studio attento e specifico di come questi macchinari possano essere utilizzati al meglio per interrompere il processo di morte.

Forse parlare di interrompere il processo di morte, potrebbe far storcere il naso a qualcuno, ma, nell’ottica di un meccanismo che porta alla morte del paziente, quello che facciamo e’ limitarci ad intervenire nel momento giusto.

Detto questo, qual e’ questo momento giusto?

Dagli studi condotti negli USA, si e’ evidenziato come le cellule cerebrali possano restare in vita anche fino ad 8 ore dopo che il cuore ha smesso di battere. In questo senso, abbiamo un discreto lasso di tempo per intervenire sul paziente e cercare di ripristinare le normali funzioni vitali. Queste tecniche non devono assolutamente sconvolgere. Perche’, se ci facciamo un taglio profondo, andiamo in ospedale a mettere i punti piuttosto che morire dissanguati? Anche se un po’ azzardato, il discorso e’ lo stesso. In questo caso, il funzionamento del cuore e’ visto come un qualcosa di ripristinabile e su cui si puo’ agire per un discreto intervallo di tempo.

Personalmente, trovo gli studi di Parnia molto interessanti e degni di nota, soprattutto dal punto di vista scientifico. Ripeto nuovamente, quello che viene fatto e’ solo uno studio attento di tecniche di principio gia’ utilizzate. Lo scopo delle ricerche e’ migliorare queste procedure, ma soprattutto studiare tempi e soluzioni dei diversi casi.

Gli studi di Parnia stanno dando risultati? Assolutamente si. Per farvi un’idea, la media di pazienti rianimanti negli ospedali degli Stati Uniti e’ intorno al 16%. Allo Stony Brook University Hospital, si arriva a sfiorare il 33%.

Da quanto detto, non si deve assolutamente considerare Parnia uno stregone, ma solo uno scienziato impegnato in un campo di confine tra la vita e la morte.

Ovviamente, queste tecniche non sono sempre utilizzabili. Come detto fino a questo punto, affiche’ ci sia qualche possibilita’, si deve avere una morte improvvisa, in cui le cellule del nostro corpo da un istante all’altro si ritrovano senza sangue perche’ il cuore ha smesso di battere. Questo non e’, ad esempio, il caso delle malattie degenerative in cui il corpo muore gia’ lentamente quanto il cuore del soggetto e’ ancora in vita.

Concludendo, nell’ottica di vedere la morte come un processo che parte con l’arresto cardiaco e si conclude con il daneggiamento irreversibile delle cellule dell’organismo, il Dr. Parnia e’ impegnato nello studio delle tecniche per intervenire in questo lasso di tempo. In molti casi e’ infatti possibile rallentare la decomposizione cellulare ed intervenire per risolvere la causa scatenante dell’arresto cardiaco. Sicuramente si tratta di studi degni di nota e che speriamo portino altri risultati in un futuro piu’ o meno prossimo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Haarp, la causa di tutti i mali!

28 Dic

Il titolo del post la dice molto lunga. Vorrei tornare nuovamente a parlare del sistema Haarp, dal momento che viene molto spesso citato su tantissimi siti catastrofisti, complottisti o denigratori della scienza in generale.

Di questo sistema abbiamo gia’ parlato in questo post:

Haarp e terremoti indotti?

mostrando il vero scopo scientifico di questa installazione, e mostrando in particolare il perche’ si fanno questi studi, perche’ proprio in Alaska e anche perche’ si usano queste tipologie di onde nella ionosfera. In soldoni, abbiamo gia’ parlato di Haarp sotto il profilo ufficiale e scientifico. Restano pero’ da discutere molte ipotesi, alcune veramente fantasiose, che vedrebbe in Haarp una potente arma pronta a fare fuoco sugli esseri umani.

Array di antenne nell'istallazione Haarp

Array di antenne nell’istallazione Haarp

Oltre al gia’ citato articolo, piu’ volte abbiamo chiamato in causa questa installazione per rispondere a tutte quelle fonti che vorrebbero Haarp colpevole di terremoti in varie parti del mondo, della formazione di strane nuvole in cielo o anche solo un contributo per aumentare la distruzione apportata dalle scie chimiche.

Nel prossimo articolo, vi parlero’ sempre di Haarp, ma per rispondere agli ultimi articoli apparsi in rete che lo vedrebbero come una sorgente del “raggio della morte” di Tesla. Prima di poter rispondere a queste fonti e’ necessario aprire una parentesi sull’installazione e sulle basi “scientifiche” mosse dalle tante accuse.

In realta’, al solito basta utilizzare la rete internet in modo giusto per avere tutte le informazioni che si cercano. Stranamente, ovviamente sono ironico, se cercate Haarp sui motori di ricerca, trovate la homepage dell’esperimento con tutte le notizie tecniche a riguardo:

Sito ufficiale Haarp

Ora, molti di voi staranno pensando: “certo, sul sito internet mica mettono la verita’, scrivono solo quello che fa piu’ comodo!”. Diciamo che in linea di principio anche questo potrebbe essere un punto di vista accettabile. Per rispondere a questa affermazione, andiamo allora a vedere, tra i sostenitori del complotto, quali sono le basi scientifiche chiamate in causa.

Prima di tutto, fatemi fare un piccolo appunto. Sul sito ufficiale di Haarp, trovate anche una pagina di FAQ con incluse le risposte alle accuse piu’ comuni mosse in rete:

Haarp, FAQ

Detto questo, sfogliando i vari siti complottisti e catastrofisti, trovate che il principale accusatore di questa installazione e’ un certo prof. Fran de Aquino.

Chi e’ costui?

Basandoci su quello che troviamo in rete, scopriamo che Fran de Aquino e’ un grande fisico, docente all’universita’ di Maranhao in Brasile, autore di moltissime pubblicazioni su riviste internazionali, scopritore della quantizzazione della gravita’ e profondo conoscitore delle onde radio e dei meccanismi di interazione delle onde ELF con la ionosfera.

Un curriculum niente male. Sicuramente non conoscevo un collega cosi’ illustre per mia ignoranza. Perdonatemi …

Possibile che un genio di questa levatura sia cosi’ passato in sordina?

Andiamo con ordine e passiamo attraverso il curriculum di Fran de Aquino. Cercando in rete, trovate che de Aquino e’ realmente un docente di questa universita’ brasiliana e ha addirittura un suo blog personale:

Blog Fran de Aquino

Leggendo il riquadro a lato, vedete che vengono confermate le cose dette sopra sulla sua attivita’ e che trovate anche in rete, stranamente pero’ solo su determinati tipi di siti.

Andiamo con ordine dunque e cerchiamo di capire meglio.

Su alcuni siti viene addirittura messo il collegamento al sito di arXiv con le numerose, cosi’ viene detto, pubblicazioni di questo ricercatore:

arXiv de Aquino

Solo 14 pubblicazioni? Un po’ poche per un genio di questa levatura. Facciamo un piccolo esperimento. Non per mettermi al centro dell’attenzione, ma solo per avere un metro di giudizio su cui basarmi, ho cercato invece il mio nome sempre su arXiv. Questo e’ il risultato:

arXiv Martini KLOE

ho selezionato solo uno degli esperimenti a cui partecipo e ho trovto 24 risultati, quasi il doppio di de Aquino. Non commento oltre su questo punto.

Andiamo pero’ avanti nel suo CV.

Su internet e sul suo blog trovate: “scopritore della quantizzazione della gravita’”. Ora, questa e’ la cosa piu’ assurda in assoluto. Vi spiego brevemente. Nella teoria quantistica, scopo ultimo e’ quello di unire tra loro le quattro forze fondamentali: forte, dobole, elettromagnetica e gravitazionale. Mentre per le prime 3 il meccanismo teorico e’ abbastanza chiaro, a livello scientifico, la forza di gravita’ risulta molto diversa dalle altre. Per poter unire questa ultima forza alle altre, e’ necessario ricorrere a teorie di nuova fisica, ovvero diversa da quella quantistica relativistica, ricorrendo ad esempio alla teoria delle stringhe, delle brane, della supergravita’, ecc. Tutte teorie molto affascinanti e attualmente sotto studio da parte dei teorici. Come sapete bene, ad oggi non si ha certezza di quale di queste ipotesi potrebbe essere quella corretta, sempre se una di queste lo sia.

Dunque? Fran de Aquino ha quantizzato la gravita’? Capite bene l’assurdita’ scientifica di questa affermazione, fatta ovviamente su un blog pubblico frequentato da non addetti ai lavori, che forse potrebbero essere portati fuori strada sparando termini pomposi ma senza senso.

Fin qui abbiamo visto tanto fumo, ma assolutamente niente arrosto. Cerchiamo di capire quando, come e dove Fran de Aquino avrebbe parlato di Haarp.

Ovviamente i siti complottisti sono molto attenti alla bibliografia e vi indicano il link dove vedere l’articolo scientifico in questione:

Fran de Aquino, Haarp

La prima cosa che mi e’ saltata agli occhi e’ la mancanza di qualsiasi dicitura che rimandasse ad una rivista scientifica o a qualche istituzione internazionale.

Leggendo anche solo l’abstract, cioe’ il riassunto dell’articolo, trovate scritto di come Haarp sarebbe in grado di generare terremoti, di modificare il clima mondiale, di variare addirittura la struttura del tempo tutto questo mediante l’emissione di onde ELF con una potenza di 3.6GW.

Attenzione a questo punto.

Vi ho gia’ riportato sia il post in cui abbiamo parlato di Haarp, sia il sito ufficiale dell’installazione. La potenza di emissione di onde da parte di Haarp e’ di 3.6MW, cioe’ milioni di Watt, non GW, cioe’ “miliardi” di Watt. Forse il professor de Aquino non ha ripassato i multipli delle unita’ di misura comunemente usate in fisica!

Vi farei notare un altro particolare molto importante. Il link che vi ho dato per scaricare l’articolo in questione, punta ad un sito che si chiama “viXra.org”. Prima, ad esempio, per vedere il numero di articoli pubblicati da un ricercatore, facevamo riferimento ad un sito che si chiama arXiv.org. Molto curioso, un nome e’ l’anagramma dell’altro.

Per spiegare questo punto, devo illustrarvi molto brevemente come funziona il processo di pubblicazione di un articolo scientifico.

Immaginate di voler pubblicare un articolo di fisica. La prima cosa che fate e’ inviare il vostro lavoro al sito arXiv.org che e’ un database ufficiale di articoli scientifici gestito dalla Cornell University. Questo sito valuta inizialmente il vostro articolo e lo mette sotto forma di pre-print. Questa dicitura indica gli articoli scientifici non ancora pubblicati su riviste ufficiali. Successivamente, mandate il vostro articolo ad una rivista. Qui inizia quello che si chiama, in gergo, processo di referaggio. La rivista nomina un referee, esperto internazionale nel campo della vostra pubblicazione, che deve valutare il lavoro. Il referee giudica il tutto e puo’ decidere di chiedere spiegazioni o approfondimenti su una parte del lavoro, accettare il lavoro o anche rigettarlo. Dopo questo processo, se tutto va nel verso giusto e il vostro lavoro e’ meritevole, l’articolo viene pubblicato su quella rivista. Come potete immaginare, le riviste non sono tutte uguali tra loro, ma vengono classificate in base all’importanza scientifica. Maggiore e’ l’impatto scientifico della rivista, piu’ difficile sara’ il processo di referaggio.

Premesso questo, che differenza c’e’ tra arXiv e viXra? Abbiamo detto che arXiv e’ il database ufficiale. ViXra in realta’ e’ un database privato creato per accogliere tutti i lavori che sono stati rigettati anche nella fase di pre-print. Per conferma, vi riporto anche la pagina di wikipedia che parla di questo servizio:

Wikipedia, viXra

Dunque, il lavoro di de Aquino su Haarp non e’ stato pubblicato su nessuna rivista scientifica ed e’ stato rigettato anche dal database ufficiale della Cornell University. Perche’ questo? Semplicente perche’ e’ stato valutato scientificamente sbagliato!

Quindi? Di cosa stiamo parlando?

Le basi scientifiche su cui si baserebbero le teorie complottiste su Haarp sono proprio queste. Vi invito a cercare su internet il nome di Fran de Aquino e verificare da voi stessi come viene indicato questo ricercatore sui tanti siti complottisti. Siamo di fronte a teorie completamente campate in aria, prive di qualsiasi fondamento scientifico e rifiutate da qualsiasi rivista di settore.

Ovviamente, capite bene il giochino. Leggendo su qualche sito di un ricercatore universitario, autore di tantissime ricerche, scopritore di questo e quest’altro che parla di Haarp mostrando, attraverso un articolo, le conseguenze dell’utilizzo delle ELF nella ionosfera, chiunque potrebbe credere a queste teorie e credere dunque al grande complotto.

Fate sempre attenzione a tutto quello che vi viene detto, soprattutto su internet. E’ molto facile fornire informazioni sbagliate e spingere il pensiero comune in una direzione precisa. Cercate sempre di informarvi autonomamente. Solo in questo modo potrete avere un metro di giudizio insindacabile e non influenzato da terze parti.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

 

 

 

 

E se domani sorgessero due soli?

18 Dic

Il titolo la dice lunga, una delle ipotesi catastrofiste, molto proposta in rete in queste ultime ore, e’ proprio il sorgere di due Soli il 21 Dicembre 2012.

Al contrario di molte altre profezie di cui abbiamo parlato, questa non e’ un’ipotesi del tutto campata in aria, ma che merita un approfondimento attento.

Anche se molti di voi avranno subito pensato a Nibiru, non ci stiamo affatto riferendo a questo fantomatico decimo pianeta del Sistema Solare, di cui abbiamo parlato, smentendo la sua esistenza, in diversi post:

Asteroide Nibiru: considerazioni scientifiche

Finalmente le foto di Nibiru

La NASA torna a parlare di Nibiru

Evidenze di un decimo pianeta?

Nibiru e la deviazione delle Pioneer

Nibiru e’ monitorato dall’osservatorio di Arecibo?

Storia astronomica di Nibiru

Secondo le ipotesi, il secondo Sole in cielo sarebbe invece la stella Betelgeuse.

Cerchiamo di andare con ordine.

Betelgeuse e’ la seconda stella piu’ luminosa nella costellazione di Orione e distante, secondo gli ultimi calcoli, circa 640 anni luce dalla Terra. Per i non esperti vi ricordo che l’anno luce e’ soltanto un modo astronomico di misurare le distanze e che corrisponde alla distanza percorsa dalla luce in un anno. Dunque, sapendo che la luce si muove nel vuoto ad una velocita’ di 300000 Km/s, l’anno luce corrisponde ad una distanza di circa 10^13 Km, cioe’ 10000 miliardi di kilometri. Perche’ si usa l’anno luce? Semplicemente perche’ e’ piu’ pratico parlare di qualche anno luce, piuttosto che dire ogni volta milioni di miliardi di kilometri.

Betelgeuse e’ facilmente identificabile nel cielo stellato, cosi’ come l’intera costellazione di Orione, che, essendo posizionata vicino all’equatore celeste, risulta visibile da quasi ogni parte del mondo.

Ecco una foto delle costellazione di Orione, in cui la luce delle stelle formanti la figura e’ stata amplificata per renderla meglio visibile:

Foto di Orione amplificata con l'indicazione di Betelgeuse

Foto di Orione amplificata con l’indicazione di Betelgeuse

La stella indicata dalla freccia e’ proprio Betelgeuse.

Ora, veniamo alla profezia del 21 Dicembre. Betelgeuse e’ da sempre in quella posizione, perche’ mai il 21 Dicembre dovrebbe cambiare qualcosa e quella stella dovrebbe apparire come un secondo Sole?

La risposta che trovate online e’ molto semplice, perche’ Betelgeuse potrebbe esplodere in una supernova espandendo nell’universo la maggior parte della materia che la costituisce e apparire dunque come un oggetto molto luminoso.

La spiegazione sembra molto semplice, ma in realta’ per poterla comprendere a pieno e per capire se realmente esiste questa possibilita’, si devono introdurre dei concetti di scienza, e di astronomia in particolare, non troppo difficili ma che devono essere seguiti attentamente.

Cerchiamo di analizzare queste ipotesi, mantenendo sempre un approccio molto divulgativo e accessibile a tutti.

Come forse molti di voi gia’ sanno, le stelle non sono sempre costanti nel tempo, ma hanno un loro ciclo vitale. A cosa e’ dovuto il loro ciclo? Una stella funziona come una centrale a fusione nucleare. Al suo interno, gli elementi vengono fusi per formare atomi piu’ pesanti e in questo processo viene emessa energia. Questo e’ anche il processo grazie al quale viene prodotta luce, che poi altro non e’ che l’emissione verso l’esterno di questa energia.

Ora, immaginiamo la stella come un serbatoio di atomi. Man mano che li fondiamo, ne avremo sempre di meno a disposizione. Il paragone piu’ semplice e’ quello di una qualsiasi automobile. Quando la benzina finisce, la macchina si ferma. Analogamente, quando il combustibile nucleare si esaursisce, la stella si trasforma evolvendosi in qualcos’altro.

In realta’, il processo e’ solo leggermente piu’ complicato, dal momento che il combustibile primario e’ l’idrogeno che viene fuso per formare elio che a sua volta viene fuso per formare atomi piu’ pesanti, via via fino ad arrivare al Ferro che e’ un elemento stabile che non puo’ essere bruciato per fusione nucleare. Ma non preoccupiamoci di questo. Quello che ci interessa in questo contesto e’ capire di che morte muore una stella.

Dunque, siamo arrivati a capire che una stella avra’ un tempo di vita limitato dal combustibile a disposizione. Al termine di questo ciclo vitale, l’evoluzione allo stadio successivo non e’ univoca, ma dipende da alcuni parametri, primo tra tutti la massa della stella stessa. In astronomia, le stelle vengono ad esempio catalogate in base alla loro massa rispetto al nostro Sole. In questo contesto, a volte trovate scritto “e’ una stella di 10 masse solari”, o “di 0.1 masse solari” e cosi’ via.

Come anticipato, in base alla massa della stella, l’evoluzione naturale del ciclo vitale puo’ essere diverso da caso a caso. Betelgeuse e’ una stella di massa pari a circa 15-20 volte quella del nostro Sole ed e’ in uno stadio della sua evoluzione chiamato di “supergigante rossa”. Si tratta di uno stadio abbastanza avanzato del suo ciclo vitale, e presenta fluttuzioni di luminosita’ che fanno pensare che sia prossima a passare al gradino successivo della sua evoluzione.

Fin qui tutto bene. Betelgeuse e’ una supergigante rossa e potrebbe passare allo stadio successivo.

Qual’e’ questo stadio?

Le stelle di massa come Betelgeuse, al termine del loro ciclo vitale esplodono formando una brillantissima Supernova di tipo II. Anche qui andiamo con ordine. Una supernova e’ un’esplosione stellare, estremamente energetica, che costituisce uno stadio finale per stelle molto massive.

Cosa significa invece di tipo II? Semplicemente che l’esplosione si genera dal collasso interno di una stella con massa superiore a 9-10 volte quella del nostro Sole, come nel caso dunque di Betelgeuse. Durante il collasso in supernova, quasi tutta la materia contenuta all’interno della stella viene letteralmente “sparata” nello spazio circostante con emissione elevata di energia e dunque con luminosita’ molto elevate.

Come apparirebbe Betelgeuse se esplodesse in una supernova di tipo II? Come potete capire facilmente, la sua luminosita’ sarebbe molto elevata il che la renderebbe visibile tranquillamente anche ad occhio nudo ed anche in pieno giorno. Vi riporto una immagine ricostruita che mostra come apparirebbe Betelgeuse, all’interno di Orione, dopo il collasso:

Betelgeuse_supernova

Questo ci fa capire molto bene perche’ si parla di un secondo Sole.

Ora, la cosa piu’ importante da capire e’: ci sono possibilita’ che Betelgeuse esploda proprio il 21 Dicembre?

Ovviamente, in astronomia e’ impossibile fare previsioni precise per il giorno, ma sull’evoluzione di Betelgeuse non vi e’ un parere univoco degli astronomi. Secondo alcuni, per essere precisi i piu’, Betelgeuse sarebbe ancora in una fase poco avanzata dello stadio di supergigante rossa. Questo comporterebbe ancora un periodo, fino anche ad 1 milione di anni, prima di poter assistere a questo spettacolo naturale. Secondo altri, le fluttuazioni della luminosita’ indicherebbero uno stadio molto avanzato della vita della stella e dunque la possibilita’ di esplosione in tempi brevi. Fate attenzione, quando in astronomia si parla di tempi brevi, come in questo caso, ci si riferisce in un lasso di tempo di qualche secolo.

Esiste anche una terza ipotesi, dibattutta scientificamente, che vorrebbe la stella gia’ esplosa. In questo contesto, vediamo ancora Betelgeuse cosi’ com’e’ solo perche’, dopo l’esplosione, ci vogliono 640 anni prima di vedere l’evoluzione da Terra. Questo periodo e’ proprio dovuto alla distanza della stella da noi.

E’ necessario premettere prima di tutto che, scientificamente, questa terza ipotesi e’ quella meno probabile secondo la scienza, ma comunque presa in considerazione. Nonostante questo, capite bene che e’ del tutto impossibile stabilire esattamente il giorno in cui vedremo Betelgeuse esplodere in una supernova. Dunque, l’ipotesi di vedere l’evoluzione esattamente per il 21 Dicembre e’ del tutto campata in aria.

Nonostante questa conclusione, vorrei aprire una brevissima parentesi. Se anche vedessimo l’esplosione di una supernova in cielo, cosa comporterebbe questo per noi? Sarebbe la fine del mondo?

Anche in questo caso, potete dormire sonni tranquilli. Supernove che esplodono a centinaia di anni luce da noi, espellono verso lo spazio enormi quantita’ di materia, ma questa non arriva assolutamente fino a Terra. L’unico effetto reale a Terra, e’ un aumento del flusso di neutrini che attraversano il nostro pianeta e che vengono prodotti dalle reazioni nucleari durante l’esplosione. Solo per curiosita’, vi dico che queste particelle hanno una probabilita’ di interagire con la materia estremamente bassa e sono in grado di attraversare l’intera Terra senza interagire con nulla. Pensate che anche il nostro Sole produce un enorme flusso di neutrini che attraversano il nostro pianeta, senza nessuna conseguenza per gli esseri umani. Ovviamente il nostro Sole e’ dietro l’angolo se paragonato ad una supernova in una qualche parte della Via Lattea.

Questo ci fa capire bene che comunque non vi e’ nessun pericolo di “fine del mondo” in caso di un’esplosione di supernova.

Per darvi ancora un’altra prova, le cronache storiche sono piene di esplosioni di supernove nella nostra galassia, e osservate da Terra. La piu’ famosa e’ forse l’esplosione del 1054 che porto’ alla formazione della Nebulosa del Granchio e che venne opportunamente riportata nelle cronache cinesi. In ordine temporale, l’ultima supernova osservata nella Via Lattea e’ del 1604 osservata anche da Keplero. Vi sono poi altri casi piu’ recenti ma che non sono stati direttamente osservabili da Terra. Per darvi l’idea, di esplosioni di supernove nella nostra galassia, se ne contano piu’ o meno una ogni 50 anni, ovviamente senza nessuan conseguenza diretta per noi.

Concludendo, abbiamo capito il perche’ si parla di questa esplosione di Betelgeuse. Abbiamo visto come l’ipotesi di una supernova sia in realta’ possibile, ma assolutamente non aspettabile per  il 21 Dicembre. La cosa piu’ importante che abbiamo capito e’ che le esplosioni di Supernove nella nostra Galassia non sono un evento cosi’ raro, ma che comunque non comportano nessun problema a Terra e soprattutto sul genere umano.

Analizzare le profezie del 2012, significa affrontare temi sempre attuali della scienza e che spesso vengono poco divulgati ai non addetti ai lavori. Per un’analisi scientifica del 2012, ma soprattutto per leggere un libro di divulgazione chiaro ed accessibile a tutti, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.

Piccolo approfondimento sulla materia strana

23 Nov

Approfitto di questo post per aprire una piccola parentesi puramente scientifica.

Dopo l’articolo:

2012, fine del mondo e LHC

ho ricevuto alcune richieste di utenti che chiedevano maggiori informazioni sui cosiddetti “strangelet”. In particolare, alcuni di voi erano interessati a capire meglio di cosa si trattasse e perche’ sarebbero ipotizzati come potenziali cause di una fine del mondo.

Ovviamente anche in questo caso cerchero’ di mantenere un taglio estremamente divulgativo, cercando di farvi capire con parole semplici di cosa si tratta.

Prendiamo il discorso molto alla larga.

Tutti sapete che la materia e’ composta di atomi. All’interno degli atomi trovate un nucleo centrale e degli elettroni che girano intorno.  Ora, all’interno del nucleo ci sono protoni e neutroni. A loro volta, i protoni ed i neutroni non sono particelle elementari, ma sono formati da quark tenuti insieme dalla forza forte.

In parole povere, abbiamo una sorta di matrioska in cui il nostro gioco termina solo quando arriviamo ai costituenti fondamentali. Con questo si intendono quelle particelle che, ad oggi, non sono formate da “pezzi” piu’ piccoli. Se volete, siamo arrivati ai mattoncini fondamentali che formano la materia.

Il numero di mattoncini fondamentali non e’ elevatissimo, ma distinguiamo tra leptoni e quark.

Cercate di non perdere il filo del discorso. L’elettrone, di cui tutti conosciamo l’esistenza, appartiene alla famiglia dei leptoni. Oltre all’elettrone ci sono il muone, il tau e 3 neutrini, detti a loro volta elettronico, muonico e del tau.

Nella famiglia dei quark, ci sono invece 6 membri che hanno nomi alquanto fantasiosi: up, down, strange, charm, bottom, top. Tradotti in italiano: su, giu’, strano, affascinante, basso e alto.

Tabella riassuntiva dei costituenti fondamentali nel modello standard

Prima di far venire il mal di testa a chi legge, i mattoncini fondamentali che conosciamo sono solo i quark ed i leptoni. Per dirla tutta, a questi si dovrebbero aggiungere anche i mediatori delle forze fondamentali che sono: il fotone, il W, lo Z ed il gluone. Ma questi ultimi non ci servono nella nostra discussione.

La figura riportata ci puo’ aiutare a fissare in mente questi concetti.

Se siete riusciti a leggere fino a questo punto, ora avrete la strada in discesa.

Come detto prima, nel nucleo troviamo neutroni e protoni. Queste particelle, che come anticipato sono a loro volta composte di quark, sono in realta’ formati solo da combinazioni di quark up e down.

Facciamo ora questo ragionamento. Tutto cio’ che ci circonda, noi compresi, e’ formato da atomi. Rileggendo quanto detto, tutto cio’ che ci circonda e’ formato da elettroni e quark up e down (nei protoni e neutroni). La differenza tra i diversi atomi sta solo nel numero di protoni, neutroni e elettroni che abbiamo.

Cosa significa questo? Tutta la materia che ci circonda, e che vediamo intorno a noi, e’ formata solo da 3 particelle fondamentali. E tutte le altre che vediamo nell’immagine dei costituenti fondamentali che fine fanno?

Le altre particelle entrano nei processi di decadimento che osserviamo in natura e che, molto spesso, siamo in grado di riprodurre nei nostri laboratori. Molti di questi, chiamiamoli in modo improprio, “composti” sono instabili, cioe’ dopo un tempo molto breve decadono in altre particelle piu’ stabili.

In condizioni normali, sappiamo che il protone, il neutrone e l’elettrone, che stiamo ora discutendo, sono stabili nell’atomo. La prova di questo ce l’avete guardandovi intorno. Se, ad esempio, il protone decadesse in altre particelle, dovreste vedere la materia scomparire e lasciare il posto ad altro.

Bene, gli strangelets, di cui abbiamo parlato nell’articolo su LHC, altro non sono che stati legati contenenti quark strange. Proprio da questo, si parla di materia “strana”.

Nella teoria degli strangelet, queste particelle potrebbero essere stabili ed interagire con la materia ordinaria, trasformandola a sua volta in materia strana. Da qui la teoria vista per cui eventuali atomi di questo tipo potrebbero trasformare l’intera Terra in un blocco di materia strana.

La confutazione di questa teoria e’ stata gia’ fatta nel precedente articolo. Spero con questo post di essere riuscito a farvi capire meglio di cosa si parla quando si citano gli strangelet e la materia strana in generale.

Solo per completezza, si ipotizza che la materia strana possa essere contenuta all’interno delle stelle di neutroni. Per questi corpi, l’alta densita’ di materia nel nucleo e l’elevata pressione a cui questa materia e’ sottoposta, potrebbero generare stati legati stabili contenenti quark strani.

Parlare di 2012 e profezie per la fine del mondo ci consente di esplorare aree e argomenti della scienza moderna, molto spesso considerati ostici e poco divulgabili al grande pubblico. Per continuare ad analizzare le profezie sul 2012, ma soprattutto a parlare di scienza vera e sempre attuale, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.