Tag Archives: processo

Fusione Nucleare tra 10 anni?

20 Ott

Diverse volte su queste pagine ci siamo fermati a discutere il cosiddetto scenario energetico per i prossimi anni. Come è noto a tutti, con una società sempre più energivora e la popolazione in continua crescita, tra non molto avremo un sostanziale problema di disponibilità energetica. Tutto questo è poi aggravato da quella che per molto tempo abbiamo fatto finta di ignorare, cioè la questione ambientale. Sfruttare in modo non controllato le nostre risorse ci porta ad esaurire e compromettere l’equilibrio dell’ecosistema Terra, equilibrio ormai assolutamente poco stabile a causa del contributo determinante proprio dell’attività umana.

Parlando in generale di scenario energetico, ed in particolare dei due orizzonti temporali più citati, cioè 2020 e 2050, in questo post avevo riportato un’intervista che mi era stata fatta al termine di un convegno su queste tematiche in cui avevo partecipato proprio esponendo la situazione nucleare:

Scenario energetico 2050

Per quanto riguarda la fissione, anche se nella concezione comune, soprattutto oggi, queste centrali sono viste come sinonimo di incidenti, c’è da sempre una notevole attività di ricerca proprio per migliorare le prestazioni e incrementare la sicurezza dei reattori.

Fissione a parte, la vera chimera del sostentamento energetico è da sempre la reazione di fusione per produzione energetica.

A parte le notevoli discussioni fatte per discutere i processi LENR a bassa energia:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Abbiamo visto in alcuni articoli:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Fusione, ci siamo quasi?

quanto possa essere difficile realizzare questi reattori che produrrebbero energia senza rilasciare praticamente scorie dirette. Come visto, anche se questo è il processo che utilizzano le stelle per produrre energia, applicare questi concetti in modo controllato sulla Terra non è semplice per problematiche tecnologiche ancora oggi assolutamente aperte. Come sappiamo, la scelta del sistema di contenimento del plasma è uno dei problemi aperti della questione. Diversi gruppi sono da decenni impegnati nella ricerca della miglior soluzione, applicabile e che consenta di raggiungere un bilancio positivo del sistema, cioè produrre più energia di quella che viene richiesta dal reattore per funzionare.

Perchè torno a parlare di questi argomenti? Vi mostro prima di tutto il link dove è possibile leggere un annuncio che sta facendo discutere moltissimo in queste ore:

Lockheed, Fusione

Si tratta di una “news” scritta sul sito internet della Lockheed Martin, società che tutti conoscono se non altro per i suoi sistemi aeronautici. L’annuncio è molto semplice, la Lockheed sostiene di poter arrivare nel giro di 10 anni alla realizzazione commerciale di reattori a fusione portatili, cioè con dimensioni notevolmente inferiori a quelle dei reattori oggi in fase di studio. Questi sistemi potrebbero addirittura essere montati su un camion ed essere trasportati producendo energia in modo mobile. Come viene spiegato, il rendimento di un reattore a fusione sarebbe fino a 5-6 volte maggiore di quelli oggi utilizzati e che sfruttano la fissione.

E’ possibile questo?

Cerchiamo di ragionare insieme. Premetto che moltissimi giornali e siti internet, ecco un esempio:

Repubblica, Lockheed

hanno pubblicato questa notizia con toni enfatici e annunciando alla rivoluzione energetica. Se così fosse, nei nostri articoli precedenti avremmo sbagliato tutto, così come nell’intervista in cui parlavo di fusione che non sarebbe arrivata, se non in fase di sperimentazione (forse) per il 2050. Ora, la Lockheed parla di “realizzazione” nel giro di 10 anni.

Chi sta sbagliando?

Come nostra abitudine, vi dico subito che non voglio essere scettico per partito preso, ma voglio che i miei ragionamenti siano chiari, o almeno pubblici, per tutti. Tra notevoli difficoltà e con costi altissimi, stiamo cercando di realizzare la macchina ITER. Questo reattore sperimentale darebbe la possibilità di fare studi fondamentali per il confinamento del plasma di fusione. Si tratta, come anticipato, di un reattore per ricerca cioè, detto in parole veramente povere, “dobbiamo provarci e vedere cosa succede”. Immaginate la lunga trafila che si prospetta, si realizza un reattore di ricerca, si fa ricerca, se le cose vanno bene si pensa al futuro, cioè ad un qualcosa che dovrebbe, come prototipo, produrre energia per scopi commerciali. Tempi lunghissimi e investimenti, sia in termini economici che di ricerca, lunghissimi.

La Lockheed nel giro di 10 anni dovrebbe avere un reattore da montare su un camion? Quale è stato fino ad oggi il ruolo di questa società nel campo della fusione? Non esiste uno, e dico uno, articolo scientifico pubblicato dalla Lockheed sulla fusione nucleare. Nella pagina che vi ho linkato all’inizio si parla di test tra un anno e produzione entro 10 anni. Ma di cosa? Come vedete, non c’è uno straccio di affermazione scientifica su cui discutere. Stiamo parlando di un qualcosa che nessuno conosce? Di un confinamento particolare? Di altro? Eppure, parliamo di una società grande e da sempre impegnata, anche se in settori completamente diversi, in ambito ricerca. Questo per dire due cose: fino ad oggi la Lockheed non ha mai parlato di fusione e, almeno sulla carta, conosce molto bene come la ricerca avviene e quali passi deve fare.

Cosa penso di questa storia?

Non voglio mettere un punto alla questione ma, al momento, sono fortemente scettico. Se vi fosse una scoperta fondamentale della scienza, ci sarebbero articoli pubblicati. Se l’applicazione sfruttasse processi classici, cioè già testati, ma in modo diverso, ci sarebbero riferimenti scientifici nell’annuncio. Niente di questo è presente. Un comunicato del genere è pesante perchè, qualora confermato, rimescolerebbe tutte le carte del settore energetico e sarebbe un qualcosa di veramente sensazionale per il nostro futuro energetico.

Personalmente, non capisco i toni di molti giornali, alcuni anche scientifici, che hanno accolto questa notizia come una bomba mediatica senza chiedersi come questa rivoluzione dovrebbe avvenire. Ad oggi, ma sarà un mio limite, io non capisco come questi signori vorrebbero fare la fusione. Alla luce di questo, ripeto “oggi”, sono fortemente scettico sull’annuncio ma, come sempre, resto in attesa di sviluppi pe capire meglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Ebola, la nuova goduria complottista ….. attenzione però!

17 Ago

Tante volte lo abbiamo detto, i nostri amici complottisti negli ultimi tempi erano giù di morale. E’ vero che c’è ancora chi la spara grossa su Nibiru, comete varie, asteroidi, Maya, ecc., ma ormai non sono tanti quelli che ancora ci credono. Questo apparente “medioevo complottista” era però un periodo transitorio, un’incubatrice dove le idee erano in attesa di venire fuori attendendo la prossima occasione ghiotta. Purtroppo, per tanti buoni motivi che ora vedremo, questa occasione è arrivata e si chiama “ebola”.

Non credo di dire nula di nuovo dicendo che, in questi giorni più che mai, la nuova psicosi è rappresentata da un’epidemia di questo temibile virus che molti temono possa arrivare in Italia.

Prima affermazione importante che è doveroso fare e che più avanti contestualizzeremo in modo opportuno: non c’è nessun caso di Ebola in Italia. Ripeto: “nessuno” in nessun luogo del nostro paese.

Ma cerchiamo, come nostra abitudine, di andare con ordine e capire in dettaglio l’origine, la situazione e gli ipotetici sviluppi futuri di quella che potrebbe rappresentare una bomba sanitaria mondiale.

Come noto, diversi paesi dell’Africa, tra cui Guinea, Sierra Leone e Liberia, sono da diversi mesi alla prese con l’epidemia di Ebola che ha già fatto registrare decine di vittime e un numero sempre crescente di contagiati.

Come è nata questa epidemia?

Solo in questi giorni si è riusciti ad identificare quello che, in gergo medico, viene definito caso zero. Il primo ad aver contratto questo virus è stato un bambino di 2 anni nella Guinea, deceduto il 6 dicembre 2013. L’infezione di ebola è molto devastante a livello fisico perchè si presenta con febbre alta, diarrea, vomito e, nel 90% dei casi, 100% se non gestita adeguatamente, porta alla morte nel giro di pochi giorni. Come è ovvio, anche perchè si tratta del primo caso, i componenti della famiglia del bambino in questione si ammalarono molto velocemente. Piccola parentesi, il contagio di ebola avviene solo ed esclusivamente attraverso il contatto dei fluidi corporei. Nel giro di una settimana, sono morte la mamma, la sorella e la nonna del bambino in questione. Proprio al funerale della nonna, erano presenti due persone che vennero contagiate e portarono il virus nei loro rispettivi villaggi. Qui, un infermiere che era venuto a contatto con il malato, venne a sua volta contagiato. In un paese come la Guinea in cui il sistema nazionale molto spesso si riduce ad un solo infermiere che si occupa di diverse comunità di persone, potete capire cosa sia accaduto.

Nel giro di pochi mesi, quando finalmente l’epidemia venne riconosciuta e compresa, si registravano già decine di casi in diversi villaggi della Guinea e primi casi erano già presenti in Liberia e Sierra Leone. Da qui in poi, potete capire come questo fenomeno sia cresciuto praticamente in modo esponenziale.

Ad oggi, vengono registrati anche alcuni sporadici casi in Nigeria ma non ci sono ulteriori conferme di persone contagiate dall’ebola in nessun altro paese. Come noto, tutte le voci riguardanti casi in USA, Canada, Hong Kong, Arabia Saudita e, come anticipato, Italia e Germania, si sono rivelati dei falsi perchè bufale o perchè smentiti da analisi di laboratorio prontamente eseguite.

Capita l’origine, l’evoluzione e lo stato attuale della situazione ebola, torniamo ai nostri amici complottisti. Come anticipato, non potevano certo farsi sfuggire questa occasione d’oro. Se avate avuto modo di leggere gli articoli pubblicati da queste “testate”, spero vivamente vi siate fatti quattro risate senza lasciarvi prendere dal panico.

Andiamo con ordine. Di certo, non poteva mancare chi ha attribuito l’epidemia di ebola al volere del solito Nuovo Ordine Mondiale per sterminare metà della popolazione mondiale. Al solito, non fraintendete, non è mia intenzione prendere spunto da una situazione globale drammatica che sta mietendo vittime. Questa è l’intenzione di coloro di cui stiamo parlando e sui quali la gente deve sapere la verità. Oltre al motivo del contagio, c’è invece chi ricama sulla tipologia di malattia. Quella in corso non sarebbe assolutamnete un’epidemia di ebola, ma di Morgellons. Esatto, avete capito proprio bene. Secondo alcuni siti, l’epidemia in corso sarebbe di questa inventata malattia di cui abbiamo parlato in questo apposito post:

Il morbo di Morgellons

Perchè? Anche questo è molto prevedibile. Loro sono anni che accusano i governi di spargere veleni attraverso le scie chimiche e ora sono arrivate le conseguenze. Le persone sarebbero state “avvelenate” a seguito del contagio con gli inquinanti sparsi mediante aerosol atmosferico. Piccola parentesi riflessiva: non mi sembra che fino ad oggi qualcuno abbia mai parlato di scie chimiche in Africa, eppure il contagio è iniziato li. Va bene, non facciamo i precisini, si sa, le scie chimiche vanno un pò ovunque.

Detto questo, esiste un problema reale per l’Italia? Purtroppo, anche se ripeto ad oggi non ci sono stati casi nel nostro paese, come tutti sanno, esiste il problema reale e e conosciuto dei continui sbarchi nel nostro paese di parte di migranti provenienti dai paesi africani. Ora, non è questa la sede per affrontare un discorso relativo agli sbarchi, è giusto, è sbagliato, vanno fermati, Renzi, Alfano, Mare Nostrum, ecc.. Nonostante questo, dati i continui flussi migratori, è ovviamente richiesta, ed è ovviamente stata attuata, una politica sanitaria di emergenza per scongiurare che l’epidemia si estenda anche all’Europa.

A questo punto vi chiederete: perchè nel titolo del post ho scritto “attenzione però?” Molto semplice, come forse avrete avuto modo di leggere, e come discusso poche righe fa, i complottisti non si sono lasciati sfuggire la ghiotta occasione dell’ebola. A volte, però, si esagera.

Cosa intendo?

Sui social network è circolata nei giorni scorsi la notizia secondo la quale a Lampedusa ci sarebbero diversi casi, chi parla di unità chi di decine, di ebola. Neanche a dirlo, i contagiati sarebbero immigrati sbarcati sulle coste della nostra isola e il contagio si sarebbe già esteso al personale dei centri di prima accoglienza. In tutta questa favola, non poteva certo mancare il carico: il governo, in accordo con l’Europa, è a conoscenza del problema, ma non vuole informare la popolazione. Il motivo? Sempre perchè il tutto fa parte del progetto di sterminio della popolazione oppure per non creare panico o, ancora, perchè si sta sottovalutando il problema.

Cosa c’è di vero in tutto questo? Assolutamente nulla.

Il particolare che però rende diversa questa bufala lanciata sui social network dalle altre è che questa volta siamo di fronte ad un caso di sicurezza nazionale. Questo “dettaglio” ha comportato la rapida risposta da parte delle autorità che, mediante la polizia postale, hanno già identificato l’autore della falsa notizia. Il tizio in questione è stato ovviamente denunciato con accuse molto gravi e di mezzo c’è anche l’associazione degli albergatori di Lampedusa che si è costituita parte civile nel processo. Perchè? Molto semplice. La notizia circolata sulla rete è divenuta subito virale e, dopo averla letta, molti turisiti hanno disdetto la loro pronatazione sull’isola per paura del contagio. Come potete facilmente capire, l’economia di Lampedusa, da sempre basata sul turismo, si trova in una fase estremamente delicata proprio a causa dei continui sbarchi di migranti. La falsa notizia fatta circolare ha dato il colpo di grazia al turismo atteso per questa stagione. Risultato? L’associazione degli albergatori ha chiesto al simpatico bufalaro un risarcimento di dieci milioni di euro! Ovviamente ci sarà da attendere il processo per vedere come la cosa andrà a finire ma, per il momento, questa richiesta segna una svolta molto importante per le continue bufale che circolano in rete.

Cari amici complottisti, pensate bene a quello che scrivete e dite. Oltre a creare psicosi collettive, molto spesso le vostre pseudo-notizie creano danni incalcolabili e che, prima o poi, come in questo caso, qualcuno vi chiederà di pagare!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La prova regina per eccellenza

21 Giu

In questi giorni sta facendo molto discutere il caso di Yara Gambirasio e l’arresto di quello che sembrerebbe il presunto assassino. Mi rendo conto che la tematica non è delle più semplici ed in questa sede, come è la natura stessa del blog, non voglio entrare in discussioni riguardanti il caso in se ne tantomeno discutere giustizialismo o meno. Come sappiamo tutti, quello che ad oggi è identificato come l’assassino di Yara è stato identificato dopo una lunga e costosa inchiesta che si è basata notevolmente sul test del DNA e sulla comparazione di circa 18000 campioni prelevati da cittadini della zona con delle tracce biologiche rinvenute su un indumento della vittima.

L’identificazione del presunto assassino ha portato però una lunga coda di discussioni sulla certezza o meno della colpevolezza. Senza entrare nel merito della discussione sulle dichiarazioni rilasciate anche da esponenti di governo, il fulcro della questione è rappresentato dalla validità o meno, o meglio dalla precisione o meno, del test del DNA eseguito.

Per cercare di capire meglio la questione, proviamo a capire come vengono eseguiti questi test e se veramente ci sono margini di errore significativi tali da mettere in discussione l’impianto accusatorio per il sospetto.

Come anticipato, durante l’inchiesta sono stati prelevati circa 18000 campioni di DNA da altrettante persone che frequentavano luoghi di interesse per l’indagine e che potevano essere entrate in contatto in qualche modo con la vittima. Tra queste persone è stato identificato un notevole grado di somiglianza tra il campione rinvenuto ed un frequentatore di una nota discoteca della zona. Da qui si è poi risaliti a tre fratelli il cui DNA era ancora più somigliante alla prova e al loro padre, morto nel 1999, ma il cui DNA è stato estratto dalla saliva dietro un bollo della patente e confermato poi dalle ossa riesumate per le indagini. Come è noto, da qui si è passati ad identificare la madre dell’assassino che avrebbe avuto una coppia di gemelli illegittimi dal padre in questione. L’identificazione madre-figlio è sempre stata fatta mediante il test del DNA e nello specifico mediante la comparazione di quello che si chiama DNA mitocondriale, trasferito interamente da madre a figlio. A questo punto, proprio nel maschio della coppia di gemelli è stato identificato il presunto assassino di Yara.

Tutta questa storia sembra più la sceneggiatura di un film o di una serie poliziesca piuttosto che una normale indagine. Ovviamente, il costo di tutte queste procedure è stato elevatissimo. Ed ora? Dopo circa 4 anni, milioni di euro spesi, perché continuiamo ad avere dubbi? Questo è il tema che vorremmo affrontare per capire meglio il perché di tutta questa discussione dopo che il test del DNA viene da diverse fonti considerata la prova regina per la risoluzione di indagini rompicapo.

Come avrete letto e ascoltato, la certezza della corrispondenza tra la traccia rinvenuta sugli indumenti e il DNA del presunto assassino è del 99,99999987%, dunque la probabilità di errore è di uno su miliardi. Allora? Uno su miliardi sembrerebbe una certezza assoluta. In realtà, non è così. Cerchiamo di capire meglio.

Per rima cosa, come viene fatto il test del DNA? Come sappiamo, la molecola del DNA, la famosa doppia elica, è composta da catene lunghissime di basi che contengono tutte le informazioni necessarie a codificare l’essere umano. Se prediamo il DNA di due persone qualsiasi, non parenti, fratelli o altro, ma persone qualsiasi, questi sono identici tra loro per circa il 99.9%. Bene, questa quasi totalità identica è quella che si chiama “genoma umano”. La restante parte del DNA è composta da sequenze non codificate e che non entrano nella sintesi proteica. Proprio questa parte è formata da sequenze di coppie che si ripetono casualmente e la cui struttura è talmente arbitraria da potersi considerare un’evoluzione moderna delle classiche impronte digitali. Detto in altri termini, questa parte minore di DNA è diversa da individuo ad individuo ma è rappresentata non da sequenze a caso, ma da coppie che si ripetono un numero fisso di volte. Bene, analizzando questa parte del DNA, cioè contando quanti e quali coppie e quante volte si ripetono, è possibile effettuare il test del DNA per confrontare tra loro due campioni. Questa tipologia di analisi è la stessa che viene utilizzata anche per il test di paternità utilizzato per riconoscere o meno un figlio.

Detto questo, se consideriamo il numero elevatissimo di combinazioni possibili di queste sequenze, una volta confrontati due campioni e visto che questi hanno le stesse sequenza ripetute, arriviamo agilmente a probabilità di appartenenza che sfiorano il 100%. In altri termini, trovato un campione di DNA, la probabilità che questo appartenga ad una persona a caso piuttosto che a colui che viene identificato è una su miliardi di casi. Tra l’altro, si tratta di un test abbastanza semplice e che è possibile portare a termine nell’arco di un paio d’ore.

Detto questo, con le probabilità che abbiamo detto prima, dove sarebbe la possibilità di errore?

In realtà, è vero che la probabilità di errore è così bassa, ma si tratta solo della probabilità che due persone possano avere le stesse sequenze ripetute nella parte di DNA analizzato. Purtroppo, come la scienza ci insegna, si deve sempre tenere conto degli errori apportati nella misura.

Cosa significa?

Come detto, in questa tipologia di misura si contano, nel vero senso del termine, le sequenze ripetute. E se ci sbagliamo a contare? Questo in realtà potrebbe essere un problema. E’ vero che la sequenza del DNA in esame, per conoscenza i microsatelliti, sono una caratteristica quasi unica, ma alcuni laboratori dichiarano percentuali di errori anche fino al 2%, dunque infinitamente maggiore di quelle considerate, nell’identificazione delle sequenze. Ora, se confrontiamo il 2% con il zero virgola tanti zeri qualcosa visto prima, le cose cambiano decisamente verso.

Oltre a questo, c’è poi il problema della contaminazione dei campioni. Molti citato in questi giorni è il cosiddetto caso del fantasma di Heilbronn, un caso del 1993 in cui in numerosi omicidi in Germania venne rinvenuto lo stesso DNA appartenente ad una donna. Nei mesi successivi, lo stesso campione venne identificato anche in altri casi simili ma in paesi diversi. Da qui, come è ovvio, si pensò ad un caso di serial killer europeo autore di tantissimi omicidi. Il tutto si risolse poi nel nulla quando dopo qualche anno si capì che il DNA in questione apparteneva ad una operaia della ditta che forniva i campioni per i test a diversi paesi e che per errore era entrata in contatto con materiale dopo la sterilizzazione.

Ovviamente, quello del fantasma di Heilbronn è un caso limite, ma ci fa capire come le probabilità di errore sono sempre presenti e non si limitano alla sola precisione del test che, sbagliando, viene spesso citata da sola.

Detto questo, anche in termini giuridici, il test del DNA, in casi come questo, viene considerato come un forte indizio ma non come una prova schiacciante. Come potete capire, per poter chiudere definitivamente il caso è necessario ricostruire il tutto e inchiodare con certezza il soggetto identificato dal test con tutta una serie di altri indizi che rendono la cosa inattaccabile. Questa è la ricostruzione dell’impianto accusatorio a cui si sono appellati gli avvocati difensori di quello che, ad oggi, possiamo considerare il sospettato numero uno.

Solo per chiarire il tutto, insieme al test del DNA in questi giorni viene spesso citato il database dei cellulari che si sono agganciati alla cella telefonica del campo in cui è stato rinvenuto il corpo. Proprio nell’articolo precedente:

Tempeste solari e problemi ai telefoni?

abbiamo parlato di rete mobile parlando della zona coperta dalla cella intesa come stazione mobile. Anche su quest’altra prova a sostegno, gli avvocati difensori si sono appellati al fatto che la stessa cella copre sia il campo già citato, ma anche abitazioni in cui il sospetto poteva essere in quel momento perché di sua proprietà o di parenti stretti.

Dunque? Sicuramente la persona identificata ha un pesante e sospetto di colpevolezza ma, come visto, prima di poter dichiarare il caso chiuso, sarà necessario ricostruire molti altri dettagli che metteranno in correlazione l’assassino con la la vittima e, soprattutto, chiuderanno il caso con una perfetta ricostruzione di quanto accaduto. Divulgare notizie troppo velocemente, potrebbe solo complicare l’indagine e rallentare il lavoro degli inquirenti.

Restiamo dunque in attesa di seguire l’evolversi delle indagini anche se, per una accusa di colpevolezza, serve sempre il processo!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Quante miglia con un litro di acqua di mare?

15 Apr

Diversi lettori mi hanno contatto privatamente per chiedere info riguardo una notizia che sicuramente avrete letto e che e’ stata rimbalzata su praticamente tutti i giornali nazionali. Come avrete capito dal titolo di questo post, mi riferisco alla notizia di qualche giorno fa in cui la Marina Americana, o meglio il centro ricerche di questo corpo militare, ha annunciato al mondo di essere riuscito a produrre carburante a base di idrocarburi partendo dall’acqua di mare.

Se provate a documentarvi in rete, e vi chiedo di farlo, troverete, come sempre e come cattiva abitudine, 2 o 3 testi differenti ricopiati spudoratamente su tutti i giornali, siti e blog della rete.

Perche’ mi preoccupo di questo? Semplice, non nel caso specifico ma come visto per altre notizie, se la fonte primaria presenta un errore, un dettaglio sbagliato e non spiega alcuni passaggi importanti, tutti gli altri gli vanno dietro dimostrando ancora una volta l’effetto gregge!

Detto questo, come richiesto, torniamo a pensare alla famosa notizia in questione. Leggendo la notizia trovate scritto che, come anticipato, i ricercatori al servizio della Marina avrebbero prodotto combustibile partendo solo ed esclusivamnete dall’acqua di mare. Questo combustibile puo’ gia’ essere utilizzato per alimentare navi da guerra e caccia militari. La dimostrazione? Semplice, come testimonia il vidoe che trovate praticamente ovunque, il combustibile e’ stato usato per far voare un modello di Mustang P-51, tipo di aereo utilizzato durante la seconda guerra mondiale. Secondo i ricercatori coinvolti, la produzione di combustibile dall’acqua di mare e’ gia’ realta’, ma saranno necessari altri 10 anni prima che questa tecnologia venga utilizzata per il rifornimento.

Vantaggi?

Evidenti, ma e’ meglio elencarli di nuovo: le navi potranno percorrere tratti piu’ lunghi in mare aperto senza dover attraccare nei porti per il rifornimento, adottare questa alimentazione eliminerebbe i rischi tecnici e ambientali che un rifornimento in mare aperto prevede ma, soprattutto, usate acqua per produrre combustibile!

Vi rendete conto?

Acqua di mare, tanta, pulita, semplice e assolutamente rinnovabile per produrre combustibile. Altro che re Mida che trasformava in oro quello che toccava o la pietra filosofale degli alchimisti, acqua salata in combustibile. Vi rendete conto di questo? Sono decenni che parliamo di green economy, energie rinnovabili, ambiente, ecc e ora si puo’ produrre combustibile dall’acqua di mare. Commento molto frequente sulla rete su questa notizia: a questo punto potremmo finalmente rottamare quelle pericolose navi nucleari che solcano i nostri mari e che sono delle vere e proprie bombe atomiche galleggianti.

Perche’ aspettare 10 anni per questa rivoluzione, investiamo tutto in questa ricerca e portiamola a conclusione. Facciamo in modo che questa soluzione possa essere commerciale subito, magari anche per altri mezzi di trasporto.

Vi sto insospettendo con questo mix di entusiasmo in forma grottesca? Forse, ed in questo caso l’espressione e’ proprio azzeccata, non e’ tutto oro quello che luccica.

Prima cosa, che molti giornali dimenticano di dire perche’ troppo affannati a fare copia/incolla e gridare al miracolo: come si trasforma l’acqua di mare in combustibile?

Senza spiegare in dettaglio la chimica delle varie reazioni, il processo puo’ essere cosi’ descritto: si sfrutta ovviamente l’acqua ma anche l’anidride carbonica normalmente sciolta nell’acqua di mare. In che modo? Anidride carbonica e idrogeno vengono separati facendoli passare attraverso una cella elettrificata. In questa fase, nell’anodo e nel catodo si accumulano rispettivamente ioni idrogeno e gas idrogeno e anidride carbonica. Successivamente i prodotti vengono fatti passare attraverso una camera riscaldata in cui viene posto un catalizzatore ferroso. Compito di quest’ultimo e’ favorire la produzione di idrocarburi con 8-9 atomi di carbonio che vengono poi raccolti da un catalizzatore al nichel. Risultato, una miscela di idrocarburi utilizzabile come combustibile per la vostra nave.

Quale sarebbe il problema di questo processo? Voi mettete l’acqua e ottenete idrocarburi. Rileggete quanto scritto in precedenza, anidride carbonica e idrogeno vengono “separati” utilizzando una cella “elettrificata”. Inoltre, i prodotti vengono fatti passare attraverso una camera “riscaldata” con un catalizzatore.

Vi dicono niente le parole “elettrificata” e “riscaldata”? Come si elettrifica o si riscalda qualcosa? Semplice, dovete dargli energia.

Cosa significa questo?

Come potete facilmente immaginare, il processo non e’ assolutamente gratuito o cosi’ miracoloso come i giornali vorrebbero farvi credere. Attenzione, non sto facendo il bastian contrario per partito preso, sto solo cercando di mostrare, appunto, che non e’ tutto oro quello che luccica.

Nessun giornale che propone la notizia parla di “rendimento” di questo processo. Purtroppo, allo stato attuale delle cose, l’efficienza della reazione, ottenuta confrontando prima di tutto l’energia contenuta in un litro di carburante con l’energia spesa per produrre quel litro ma anche il rendimento della produzione di quella stessa energia elettrica, non e’ assolutamente elevata. Anzi, per dirla tutta, questo processo e’, allo stato attuale, energeticamente sfavorevole.

Ora, dire “energeticamente sfavorevole” non significa buttare via tutto. La notizia riportata mostra un ottimo punto “di ricerca” raggiunto in questo ambito ma ci vorranno ancora molti anni per arrivare a qualcosa di realmente utilizzabile. Mia opinione personale e’ che i 10 anni di cui si parla siano assolutamente una sottostima dei tempi necessari.

Perche’ dico questo?

Come detto all’inizio, la notizia e’ di questi giorni. Cercando in rete, si trova pero’ un documento, sempre della Marina americana, datato 2010, in cui si fa il punto proprio su questa ipotetica tecnologia:

Documento 2010, combustibile da acqua salata

Leggendo quanto riportato, si parla di un’energia richiesta per la produzione del carburante, in particolare della prima elettrolisi nella cella elettrificata, doppia rispetto a quella realmente ottenibile dal carburante prodotto. Ora, nel gito di 4 anni, le cose sono sensibilmente migliorate, ma siamo ancora abbastanza lontani da poter definire questa tecnologia matura per essere commercializzata.

Altra osservazione importante. Per la prima elettrolisi serve energia. Tralasciando il rapporto tra quella spesa e quella prodotta, se siamo in mezzo al mare, dove prendiamo questa energia? Semplice, la produciamo con sistemi nucleari! Capito bene? Con sistemi nucleari che producono energia elettrica per la nave. Non fraintendete, personalmente non mi sto affatto sconvolgendo, trovo semplicemente grottesco che tanti annuncino entusiasti questa notizia parlando di sostituzione del nucleare sulle navi, non sapendo che per far andare questa tecnologia la stessa marina militare avrebbe pensato di utilizzare energia prodotta da fissione nucleare.

Se e’ tutto vero quello che scrivo, perche’ non commento il video dell’aereo che vola con questo carburante? Ho scritto da qualche parte che la notizia e’ una bufala al 100%? Non mi sembra, uno dei prodotti finale delle reazioni e’ proprio una sorta di combustibile utilizzabile. Notate pero’ una cosa, quello che vi mostrano e’ un modellino molto in miniatura di un aereo militare. Per far volare questo oggetto servono pochi ml di combustibile, quantita’ infinitamente minore di quella che servirebbe anche solo per far partire una nave da guerra.

Conclusione, la notizia riguardante questa scoperta e’ stata ridicolizzata a causa del sensazionalismo imperante ormai su tutti i giornali. La ricerca e’ assolutamente interessante e degna di osservazione. Quanto proposto e’ da intendersi come un “work in progress” e cosi’ sara’ ancora per molto tempo. Qualora si riuscisse ad ottimizzare l’intero processo e a migliorarne il rendimento, sicuramente questa soluzione potrebbe apportare notevoli miglioramenti non solo in termini navali ma, soprattutto, in termini ambientali. Non ci resta che continuare a monitorare questo settore e vedere se ci saranno novita’ nei prossimi anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La maledizione dei templari

10 Mar

Nella sezione:

Hai domande o dubbi?

un nostro caro lettore ci ha posto una domanda, tra l’altro gia’ fatta anche sul nostro forum:

Psicosi 2012, forum

davvero molto interessante. Il quesito, molto attuale, riguarda la cosiddetta profezia, o maledizione che dir si voglia, pronunciata da Jacques de Molay, ultimo gran maestro dei Templari, prima di essere bruciato vivo sul rogo.

Di cosa si tratta e perche’ e’ cosi attuale?

La storia dei Cavalieri del Tempio e’ nota a tutti. Come sapete, l’atto che porto’ al conclusivo scioglimento dell’ordine fu la messa al rogo appunto dell’ultimo Gran Maestro con l’accusa di stregoneria e blasfemia per quello stesso ordine che per diversi anni combatte’ per il papato. Il motivo storico che porto’ a questa conclusione e’ facilmente riconducibile all’antipatia, leggasi interessi, di Filippo il Bello nei confronti dei Templari e alla mancanza di polso da parte del papa Clemente V, pontefice in un periodo difficile soprattutto per i rapporti tra la corte di Francia e il Vaticano.

Andiamo con ordine. Il processo all’ordine duro’ ben 7 anni fino a quando, dopo altrettanti anni di prigionia e di torture, il Gran Maestro Jacques de Molay confesso’ tutte le colpe attribuite a lui ed ai suoi cavalieri. Anche se in seguito la confessione venne ritrattata, questo non servi’ ad evitare il rogo per molti cavalieri e per il Gran Maestro in persona.

La condanna venne eseguita il 19 Marzo 1314 a pochi passi dalla cattedrale di Notre Dame. Cosa successe in questo storico giorno? Secondo molte voci, poco prima che la pira venne accesa, Jacques de Molay si rivolse a quelli che considerava i suoi inguisti carnefici pronunciando alcune frasi molto importanti.

Prima di tutto, de Molay disse “Vi prego di lasciarmi unire le mani per un’ultima preghiera. Morirò presto e Dio sa che e’ ingiusto. Ma io vi dico che la disgrazia cadrà su coloro che ci condannano ingiustamente.” Rivolgendosi poi a Filippo il Bello e al Papa disse: “Vi affido entrambi al tribunale di Dio, tu Clemente nei prossimi 40 giorni e tu Filippo prima della fine dell’anno”.

Cosa significano queste frasi? Come potete immaginare, piu’ che una minaccia, questa potrebbe essere vista come una vera e propria maledizione lanciata dall’ultimo Gran Maestro nei confronti di coloro i quali avevano ingiustamente denigrato e portato allo scioglimento un nobile ordine come quello dei Tamplari.

Si avvero’ questa maledizione?

Leggendo la storia, potremmo dire proprio di si. Clemente V si ammalo’ e mori’ nel giro di un mese mentre Filippo il Bello, in seguito ad una caduta da cavallo, mori’ prima della fine dell’anno.

Ora pero’, secondo alcuni, queste non furono le uniche maledizioni lanciate dal Gran Maestro prima di morire. Stando alle diverse fonti che trovate in rete, a queste prime due frasi se ne devono aggiungere altrettante pronunciate con lo stesso tono di vendetta.

Sempre prima di morire, Jacques de Molay si rivolse alla monarchia francese dicendo: La casa reale Francese cadrà definitivamente entro la tredicesima generazione da Filippo IV e, ancora, rivolgendo lo sguardo verso la cattedrale di Notre Dame: Il Papato terminerà entro 700 anni dalla mia morte.

Analizziamo queste altre due frasi. Come noto, la monarchia francese termino’ definitivamente, ed in malo modo, con Luigi XVI. Facendo due rapidi calcoli, si trova che Luigi XVI fu effettivamente il tredicesimo discendente di Filippo il Bello.

A questo punto, siamo a 3 maledizioni avverate su quattro. cosa dire della quarta? Si e’ avverata? Direi proprio di no dal momento che il Papato e’ ancora in piedi. Quando scadranno i termini per questa profezia? Semplice, Jacques de Molay venne arso vivo il 19 Marzo 1314, dal momento che is parla di 700 anni tondi tondi, la scadenza della maledizione e’ il 18 Marzo 2014.

18 Marzo 2014? Proprio cosi’, esattamente tra pochi giorni scadranno i termini della quarta parte della profezia dell’ultimo Gran Maestro dei Templari. Dal momento che ben 3 profezie su 4 si sono avverate, non vedo perche’ dovremmo pensare che anche la quarta non si possa avverare. Se cosi’ fosse, tra poco meno di una settimana, dovrebbe terminare il papato.

Quali sono le conclusioni a tutto questo? Semplice, se leggete in rete, i furbacchioni non aggiungono altro ma si limitano a dire “non resta che attendere”. In fondo, se 3 su 4 si sono avverate, pensate quello che volete.

Aspettate un attimo pero’. Ma siamo davvero sicuri che tutta questa storia sia reale? Forse, prima di giungere a conclusioni affrettate, e’ il caso di ragionare un po’ meglio su tutta questa storia.

Prima di tutto, quali sono i documenti storici a supporto di questa storia? Purtroppo, o per fortuna, nessun documento originale del tempo. Se ci concentriamo sulle prime due maledizioni, quelle di Clemente e Filippo, le prime documentazioni che riportano di questa profezia pronunciata da Jacques de Molay sono in realta’ della fine del 1300, cioe’ circa 80 anni dopo i fatti. Cosa significa questo? E’ vero che quelli non erano propriamente anni in cui la liberta’ di stampa e di pensiero era in voga, ma, anche in questo caso, siamo di fronte a maledizioni e profezie che spuntano dopo che i fatti sono avvenuti. Detto in altre parole, le due famose frasi di cui stiamo discutendo vengono riportate solo diversi anni dopo che i fatti stessi sono avvenuti. Ormai, di profezie in questo modo ne abbiamo viste fin troppe.

Se invece passiamo alla terza profezia, quella sulla monarchia di Francia, anche in questo caso, non troviamo documentazione se non diversi anni dopo la famosa ultima ghigliottina. Nel corso dei secoli poi, si e’ anche sparsa la diceria secondo la quale il boia incaricato, tale Charles-Henri Sasson, poco prima di far cadere la ghigliottina avrebbe pronunciato nell’orecchio dell’ultimo re di Francia la frase “sono un Templare e sono qui per portare a compimento la maledizione di Jacques de Molay”. Ovviamente, anche questa diceria e’ stata tirata fuori diversi anni dopo la fine della monarchia francese.

A questo punto, cosa dire della quarta e ultima maledizione? A voi la conclusione. Visto quanto detto, non credo sia il caso di tenere in considerazione questa profezia. Anche dal nostro punto di vista, se vogliamo, potremmo dire “non resta che attendere qualche giorno e vedere cosa succede”. Sicuramente, il periodo storico che stiamo vivendo, lascia molto spazio a profezie di questo tipo. Come potete facilmente immaginare, non manca chi cerca di cavalcare questa profezia, parlando di evidente fine gia’ in corso, e testimoniata dalla presenza simultanea di due Papi. Ci sono poi anche altre voci interessanti propro su questo punto e che meritano di essere citate. Secondo queste fonti, la presenza di due Pontefici sarebbe invece necessaria per far fronte all’imminente pericolo e sarebbe dunque un segnale divino per mostrarci la vicinanza di Dio per il momento difficile che stiamo per affrontare.

Come ormai siamo abituati, a profezie di questo tipo, che non hanno nulla di reale, non mancano mai tutte quelle voci e dicerie pronte solo ad amplificare l’eventuale paura di chi le legge.

Prima di concludere, vorrei condividere con voi un pensiero. In questo caso, come in questi altri articoli:

La monaca di Dresda

Le profezie di Benjamin Solari Parravicini

2012 e la profezia di Malachia

Si avvera la profezia di Malachia

La mano di Dio sulle dimissioni del Papa

Ultime notizie (o profezie rispolverate) dal Vaticano

Pietro II: il primo papa di colore

Malachia-Francesco: cosi’ e’ troppo facile!

Abbiamo parlato di profezie riguardanti la fine del Papato. Ripeto: la fine del Papato, non la “fine del mondo”. Tutte le volte, pero’, queste profezie vengono interpretate come qualcosa pronto a mettere in discussione la continuazione del mondo stesso, della nostra civilta’ o della razza umana. Perche’ avviene questo?

La domanda che mi sono posto e’: se veramente il Papato finisse, cosa dovrebbe accadere?

La risposta a questa domanda non e’ assolutamente semplice ne tantomeno scontata. Il primo errore che si potrebbe fare e’ quello di pensare alla fine della religione Cristiana Cattolica o del concetto di Dio. Questo e’ ovviamente sbagliato. Il mio pensiero, indipendentemente dall’essere credenti, non credenti, Cristiani o altro, riguarda solo ed esclusivamente la fine del Papato. Oggi, da un momento all’altro, non esiste piu’ un Papa o lo stesso Vaticano. Cosa cambierebbe? Sicuramente, ma su questo qualcuno potrebbe avere idee diverse, cambierebbero molti equilibri a livello mondiale e, forse, anche molte opere caritatevoli fatte da e per conto del Papa o del Vaticano. Secondo alcuni, la fine del Papato sarebbe un sollievo per via degli scandali e del potere economico e politico accumulato negli anni. Indipendentemente da quello che possiate pensare, la fine del Papato, almeno a mio avviso, non riguarderebbe certo la fine del mondo. Sicuramente, molti aspetti della societa’, cosi’ come la conosciamo, ne uscirebbero fortemente modificati ma il mondo continuerebbe ad andare avanti. Qualcuno potrebbe paragonare il Papato alla piu’ longeva monarchia di tutti i tempi ma, nel corso dei secoli, abbiamo visto Regni e Imperi che sembravano intramontabili terminare da un momento all’altro e tutto questo senza che il mondo sia finito.

Ora, ognuno di noi potrebbe riflettere su questo punto e farsi la propria idea analizzando aspetti sociali, politici, religiosi, economici e via dicendo. Non credo pero’ che qualcuno arrivi al termine del raginamento prevedendo la fine del mondo a causa della fine del Papato. Tutto questo fermo restando che nessuna profezia sta veramente mettendo a rischio il Papato stesso.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fusione, ci siamo quasi?

17 Feb

La chimera della produzione di energia attraverso processi nucleari e’ senza ombra di dubbio la fusione. Come sappiamo, detto in modo improprio, possiamo pensare a questo processo come qualcosa di inverso alla Fissione. Se in quest’ultimo caso, un nucleo atomico viene spezzato in due nuclei piu’ piccoli liberando energia, nella fusione abbiamo due elementi piu’ leggeri che vengono uniti in uno piu’ grande. Anche in questo caso, nel processo c’e’ un eccesso di energia che viene liberato verso l’esterno. Non si tratta di magia ma del bilancio energetico delle reazioni, facilmente calcolabile utilizzando i principi base della fisica nucleare.

Per la fissione, il processo e’ relativamente semplice ed in grado di autosostenersi. Quest’ultimo aspetto e’ fondamentale quando si considerano processi di questo tipo. Detto in altri termini, basta dare il “la” alla reazione per avere qualcosa in grado di autosostenersi autonomamente e continuare cosi’ a produrre energia. Come noto, siamo in grado di utilizzare questo processo molto bene sia con reazioni controllate nei reattori a fissione sia in modo non controllato attraverso la bomba atomica.

E per la fusione?

Qui il discorso e’ diverso. A partire dagli anni ’50, abbiamo iniziato a studiare queste reazioni per cercare di ottenere un bilancio positivo. Cosa significa? Prendete due nuclei leggeri. Per far avvenire la fusione dovete avvicinarli tra loro fino a formare qualcosa di piu’ grande. Semplice ma non scontato. Prendiamo il discorso in modo improprio ma comprensibile. Nei nuclei avete protoni e neutroni. Come ci hanno insegnato a scuola, se proviamo ad avvicinare cariche di uguale segno queste si respingono attraverso la forza coulombiana. Ma allora, perche’ nel nucleo i protoni sono fermi e tutti vicini tra loro? Avvicinando due particelle come i protoni, inizialmente avete la repulsione coulombiana dovuta alle cariche elettriche che tende ad allontanarle. Se resistete opponendovi a questa forza, vi accorgete che sotto una certa distanza interviene un’altra forza, questa volta attrattiva e molto piu’ intesa di quella dovuta alle cariche elettriche, la forza nucleare forte. Si tratta solo di un’altra interazione che pero’ agisce a distanze molto corte tra i nucleoni. La presenza dei neutroni nel nucleo serve proprio a tenere unito il nucleo stesso. Poiche’ i neutroni non hanno carica elettrica, non subiscono repulsione coulombiana mentre esercitano e subiscono l’interazione forte. Detto in altri termini, i neutroni fanno da collante per far si che la forza forte, attrattiva, vinca su quella coulombiana, repulsiva.

Bene, lo scopo del gioco della fusione e’ proprio questo. In qualche modo dobbiamo avvicinare i nuclei spingendoli fino a che la forza forte non diventi piu’ intensa di quella coulombiana. Sotto questo limite, ci sara’ un’attrazione spontanea che portera’ alla formazione di un nucleo piu’ pensate, rilasciando energia.

Qual e’ il limite nella produzione di energia da fusione? Ovviamente, dovete fare in modo che l’energia spesa per avvicinare i nuclei sia minore di quella che viene ceduta dopo la fusione. Questo e’ il famoso bilancio positivo di cui tanti parlano ma, lasciatemi dire, in pochi hanno veramente capito.

Di questi processi abbiamo parlato in diversi articoli mostrando le diverse tecniche che si stanno sperimentando nel mondo:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Contrapposti a questi, ci sono poi i diversi esperimenti per creare quella che viene definita “fusione fredda” e su cui tanta speculazione e’ stata fatta negli ultimi anni:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come detto e ripetuto piu’ volte, dobbiamo essere aperti di mente nei confronti di questi processi che pongono le loro radici in metodi scientifici conosciuti. Quello che pero’ manca, e’ una dimostrazione oggettiva che questi apparecchi, esempio su tutti l’E-Cat, siano veramente in grado di produrre energia in quantita’ maggiore di quella data in ingresso.

Perche’ torno nuovamente su questi argomenti?

Come forse avrete letto, solo pochi giorni fa e’ stato fatto un nuovo anuncio riguardante la ricerca sulla fusione nucleare. In un articolo pubblicato sulla rivista Nature, il NIF, National Ignition Facility, della California ha annunciato di aver ottenuto un bilancio positivo della reazione di fusione di isotopi di idrogeno in elio.

Del NIF abbiamo gia’ parlato nei precedenti articoli riportati sopra. Come sappiamo, in questo caso si utilizzano quasi 200 fasci laser per comprimere, mediante oro, atomi e isotopi di idrogeno, deuterio e trizio, per formare elio. Nel processo viene rilasciata l’energia della fusione.

Come capite bene, in questo caso il bilancio positivo si ha se l’energia rilasciata e’ maggiore di quella necessaria per far sparare nello stesso istante tutti i laser.

Nei primi anni di vita, il NIF ha rappresentato una grande speranza per la ricerca della fusione, attirando grandi finanziamenti. Finanziamenti che poi sono diminuiti quando i risultati ottenuti erano notevolmente inferiori alle aspettative.

Oggi, il NIF e’ riuscito ad ottenere per la prima volta un bilancio positivo, anche se solo minore dell’1%, rispetto all’energia richiesta per far andare i laser. Se proprio vogliamo dirla tutta, non siamo ancora contenti di questo risultato e saranno necessari tantissimi altri studi prima di poter gridare vittoria e prima di poter vedere la fusione utilizzata per la produzione di energia.

Come detto nell’introduzione, lo scopo di questo gioco e’ quello di tenere in qualche modo gli atomi fermi mentre li comprimiamo fino alla fusione. Nel NIF questo confinamento avviene sfruttando l’inerzia dei nuclei stessi e proprio per questo motivo si parla di “confinamento inerziale”. Diversamente, ad esempio per ITER, si cerchera’ di utilizzare forti campi magnetici per tenere i nuclei uniti, parlando di “confinamento magnetico”. La trattazione di questo aspetto non e’ affatto banale e rappresenta, a questo livello, un contributo assolutamente non trascurabile nel bilancio energetico finale della reazione.

Perche’ dico questo?

I risultati ottenuti dal NIF sono assolutamente ragguardevoli e sono un ordine di grandezza maggiore rispetto ai migliori risultati precedenti. Il bilancio positivo dell’1% non tiene pero’ conto dell’energia spesa per il confinamento. Questo per far capire quanto lavoro e’ ancora necessario.

La comunita’ scientifica della fusione, pone tutte le sue speranze, nel progetto internazionale ITER. Come sapete bene, in questo caso si parla di un vero e proprio reattore prototipale per la produzione di energia per fusione. Anche in questo caso, ci saranno diverse sfide tecnologiche da vincere ma la strada segnata dai successi degli ultimi anni non puo’ che farci ben sperare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Classifica delle specie piu’ longeve

24 Nov

Mentre sfogliavo alcuni siti, mi sono imbattuto in una notizia che mi ha fatto riflettere: come forse saprete, nel 2006 un team di biologi che stava facendo ricerche nel nord dell’Atlantico pesco’ un esemplare di Arctica islandica che divenne famosa per un motivo ben preciso. Questa particolare vongola passo’ infatti alla cronaca come l’animale piu’ longevo mai osservato.

Ecco una foto di quella che e’ stata poi ribattezzata “Ming” in ricordo della lunga dinastia cinese:

Ming, la Vongola Artica di 507 anni

Ming, la Vongola Artica di 507 anni

Per questi animali l’eta’ puo’ essere stimata come per le piante contando gli anelli sul guscio. Conoscendo infatti il ritmo di crescita si puo’ risalire all’eta’ della vongola semplicemente contando le zigrinature presenti. Quando venne pescata nel 2006, si stimo’ un’eta’ compresa tra 405 e 410 anni. Gia’ questo rappresentava un record assoluto dal momento che l’esemplare piu’ longevo della stessa specie pescato in precedenza aveva solo 220 anni.

Solo pochi giorni fa, l’eta’ di Ming e’ stata ricorretta verso l’alto dopo un’analisi piu’ accurata del guscio. Come potete leggere su diversi siti, la vongola pescata nel 2006 avrebbe un’eta’ addirittura di 507 anni.

Molto interessante. Ora pero’, proprio leggendo questa notizia ho pensato: ma quali sono le specie viventi piu’ longeve in assoluto?

Generalmente, come e’ noto, quando pensiamo ad organismi in grado di vivere per secoli, il nostro pensiero va subito verso specie vegetali.

Quali sono gli alberi piu’ vecchi del pianeta?

Se vogliamo stilare una classifica, al terzo posto troviamo un tasso del Galles di ben 4000 anni. Al secondo posto Matusalemme, un pino dai coni setolosi che si trova in California la cui eta’ stimata e’ di ben 4700 anni. Al primo posto, sicuramente indiscusso, troviamo Pando, il cosiddetto Gigante Tremante, un pioppo dello Utah con un’eta’ stimata di circa 80000 anni. Pando non ha la forma classica di un albero dal momento che si tratta di un genet di pioppi, cioe’ un insieme di ramificazioni, o moduli, cha fanno parte di un unico organismo vivente con ramificazioni sotterranee.

Genet di pioppi nel parco di Fish Lake nello Utah

Genet di pioppi nel parco di Fish Lake nello Utah

Numeri veramente impressionanti. Ma se volessimo pensare invece a specie animali?

Nella cultura popolare, ad esempio, le tartarughe sono animali molto longevi. In questo caso pero’, l’eta’ difficilmente supera i 200 anni. Sicuramente numeri di tutto rispetto, ma che niente hanno a che vedere con quelli visti per gli alberi.

In natura esistono pero’ altri animali che possono vivere piu’ a lungo delle tartarughe.

Come visto prima, le vongole della specie Arctica islandica, che sono senza dubbio animali, battono di gran lunga le tartarughe.

Se non bastasse, abbiamo poi una tipologia di spugna artica nota per il suo ritmo di crescita estremamente basso:

Spugna Antartica

Spugna Antartica

Queste spugne sono profondamente differenti dalle parenti che vivono ai tropici. Trattandosi di spugne, possiamo vederle come animali e non come vegetali. Questa tipologia di spugna artica e’ in grado di vivere a lungo anche perche’ e’ dotata di un guscio protettivo che la protegge dai predatori. L’eta massima registrata per questi animali, determinata da osservazioni dirette, e’ di ben 1500 anni.

Se ci fermassimo qui, le piante batterebbero di gran lunga le specie animali per quanto riguarda la longevita’. In realta’, manca da giocare la carta segreta, cioe’ questa:

Turritopsis nutricula

Turritopsis nutricula

Cosa sarebbe?

Ovviamente si tratta di una medusa, anche se molto particolare. Questo particolare animale e’ noto come Turritopsis nutricula, anche detto “medusa immortale”.

Cosa ha di tanto speciale? Perche’ immortale?

Questo animale ha una caratteristica unica: in caso di difficolta’, quando si trova nello stato sessualmente sviluppato, puo’ regredire allo stato originario di polipo da cui e’ nata. Attenzione, parliamo di polipo non di polpo. A questa tipologia appartengono gli anemoni, i coralli e altre specie che nulla hanno a che vedere con i molluschi.

La medusa immortale e’ originaria dei Caraibi ma oggi e’ diffusa un po’ in tutto il mondo. Le sue dimensioni non superano mai i 4-5 mm come diametro della campana superiore. La particolare caratteristica di cui abbiamo parlato, e che puo’ essere ripetuta all’infinito, rende questo animali praticamente immortale.

Attenzione pero’, non e’ stato, ovviamente, possibile stimare l’eta’ di questi naimali anche se il processo descritto renderebbero la capacita’ di rigenerazione e ringiovanimento perpetui. Inoltre, appartenendo alle specie che formano il plancton questi animali, potenzialmente immortali, hanno vite medie molto basse dettate dai numerosi predatori.

Detto questo, il record indiscusso per quanto riguarda la longevita’ spetta senza dubbio alla medusa immortale. Anche le specie vegetali si difendono molto bene raggiungendo, come visto, le decine di migliaia di anni. Ovviamente si tratta di valori lontanissimi dalla vita media di un essere umano che comunque, come valore medio, ha subito un rapido incremento negli ultimi decenni grazie al miglioramento della qualita’ della vita e ai progressi medici.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La stella in laboratorio

3 Ott

Attraverso le pagine del forum di Psicosi 2012:

Psicosi 2012, forum

mi e’ stato segnalato un articolo molto interessante. Perche’ lo definisco in questo modo? Semplice, l’articolo e’ talmente assurdo che merita di essere presentato qui sul blog.

Come diceva un proverbio: “Dagli amici mi guardi Dio perche’ da nemici mi guardo io”. Cosa significa? Mentre siamo guardinghi nei confronti dei nostri nemici,  ci sentiamo tranquilli verso gli amici. A volte questo puo’ creare la condizione per poter essere, come si dice, accoltellati alle spalle.

Cosa voglio dire con queste parole? Mentre ormai abbiamo capito bene quali sono i siti complottisti e catastrofisti e, almeno spero, abbiamo imparato a leggerli con occhio attento e guardingo, a volte quelli che dovrebbero essere siti seri e scientifici si lasciano prendere un po’ troppo la mano.

Questo e’ purtroppo il caso di una notiizia apparsa su ben due noti giornali online nazionali che, copiandosi spudoratamente tra di loro, hanno finito per sparare cavolate veramente fuori dalla grazia del Signore.

Prima di tuttto, vi segnalo gli articoli in questione:

Articolo 1

Articolo 2

Potete anche leggerne uno solo, tanto le parole utilizzate sono le stesse, ergo, non so chi dei due, ha fatto copia/incolla.

Avete letto bene? I ricercatori dell’istituto americano NIF, stanno per accendere una stella in laboratorio. Una stella? Proprio cosi’ dicono gli articoli. Si tratta di un esperimento di fusione in cui sono stati utilizzati laser con una potenza di 500 Tera Watt, 500 mila miliardi di watt di potenza. Come recita l’articolo, questa potenza e’ pari a 1000 volte quella che gli Stati Uniti stanno consumando in quel momento.

Signori, scusate le sfogo, ma questa e’ disinformazione scientifica sulle pagine di giornali nazionali che pretendono di avere una sezione di scienze! Poi, non ci sorprendiamo quando le persone pensano che al CERN si creeranno buchi neri che distruggeranno la Terra. Dall’altra parte dell’oceano stanno creando una stella in laboratorio.

Finito il mio piccolo sfogo personale, vorrei passare a commentare questa notizia. Al contrario di quanto fatto sui giornali citati, per poter capire questa notizia, e’ necessario capire bene il campo in cui ci andiamo a muovere, cioe’ la fusione nucleare.

Cercando di mantenere un approccio semplice e divulgativo, tutti conoscono le centrali nucleari per la produzione di energia elettrica. Questi reattori funzionano attraverso la fissione nucleare, cioe’ la scissione di un nucleo pesante, il combustibile, in nuclei piu’ leggeri. Questo processo, oltre ai due nuclei figli, produce un eccesso di energia. Il processo si dice dunque esoenergetico perche’ rilascia energia.

Detto in modo molto improprio, il processo inverso a quello di fissione nucleare e’ quello di fusione. In questo caso, si prendono due nuclei leggeri per fonderli insieme e formare un nucleo piu’ pesante. Questo processo e’ conveniente solo per nuclei molto leggeri, in linea di principio fino al ferro. Come viene fatto il processo? Quelli che dovete avvicinare sono degli atomi. Come sapete, nel nucleo sono presenti protoni con carica positiva. Avvicinando tra loro due cariche di segno uguale, queste si respingono tra loro con una forza che aumenta al diminuire della distanza. Sotto una certa distanza pero’, la forza coulombiana repulsiva, cioe’ quella tra cariche elettriche, diviene piu’ piccola della cosiddetta forza nucleare forte. Questa interazione e’ molto intensa, ma solo a distanze molto piccole. Detto in altri termini, dovete comprimere molto i nuclei tra loro, fino ad arrivare al punto in cui questi si attirano grazie alla forza forte.

Questa caratteristica rende il processo di fusione nucleare molto difficile da realizzare o meglio, molto difficile da sfruttare. Come anticipato, si tratta di un processo che rilascia energia. Per poter comprimere i nuclei tra loro dovete pero’ spendere un certo quantitativo di energia in qualche forma. Bene, per poter sfruttare questo processo, o meglio per guadagnarci, dovete fare in modo che l’energia spesa per attivare il processo, quella di compressione, sia minore di quella che poi viene rilasciata dai nuclei che si fondono.

Una delle possibili e piu’ studiate reazioni di fusione nucleare e’ quella del deuterio con il trizio:

D + T → 4He (3,5 MeV) + n (14,1 MeV)

In questa reazione i due reagenti, che altro non sono che isotopi piu’ pesanti dell’idrogeno, vengono fusi per formare un nucleo di elio, detto anche particella alfa, liberando anche un neutrone di una certa energia.

Vedete bene il processo. Indipendentemente da quello che ognuno di noi pensa delle centrali nucleari a fissione, il processo di fusione risolve automaticamente il problema delle scorie. In questo caso, non abbiamo sottoprodotti radioattivi a lunga vita media. Proprio per questo motivo, la costruzione di centrali di questo tipo e’ vista come la chimera della fisica nucleare e da diversi anni sono in corso ricerche per cercare di rendere il processo di fusione conveniente dal punto di vista energetico.

Il punto cruciale di questi studi e’ ovviamente come innescare il processo, cioe’ come far avvicinare tra loro i nuclei per far partire la fusione. Il caso visto negli articoli da cui siamo partiti e’ il cosiddetto confinamento inerziale ad ignizione laser. Detto in parole semplici, si utilizzano fasci laser per riscaldare e comprimere i nuclei e far partire la fusione.

Bene, a questo punto siamo in grado di rileggere gli articoli e di capire veramente quello che e’ successo nei laboratori del NIF.

Il laboratorio in questione utilizza 192 fasci laser per riscaldare e comprimere un sferetta di deuterio-trizio. Il numero elevato di laser serve prima di tutto per avere l’energia necessaria ma anche per poter riscaldare uniformemente la sfera di combustibile. Ovviamente, non serve irradiare continuamente il composto, ma e’ necessario che in un tempo molto breve l’energia arrivi tutta insieme sul campione. Quindi, proprio per questo si utilizzano fasci impulsati, cioe’ raggi molto intensi ma molto brevi nel tempo. Questo spiega l’enorme potenza in gioco. Data un’energia del fascio, tanto piu’ corto e’ il raggio, maggiore sara’ la potenza in gioco. Esattamente come in fisica definite la potenza come il rapporto tra lavoro e tempo per compierlo. Capite dunque da dove viene fuori quel valore enorme di 500 terawatt di potenza. Secondo voi, se fosse necessario avere 1000 volte la potenza che gli USA stanno consumando in quell’istante, chi sarebbe in grado di alimentare i laser? Nella migliore delle ipotesi, acceso il sistema salterebbe la corrente a tutti gli Stati Uniti. Direi che quanto affermato e’ quantomeno azzardato e dimostra la totale non conoscenza di quello che si sta raccontando.

Poi, cosa dice l’articolo? A questo punto, il sistema implode e si accende una stella.

Capiamo bene, perche’ implode? Lo schema semplificato del processo di fusione che avviene e’ questo:

Il meccanismo di ignizione laser per la fusione nucleare

Il meccanismo di ignizione laser per la fusione nucleare

Per compressione interna, si ha un implosione cioe’ un collassamento dei nuclei verso l’interno. Da come viene raccontato nell’articolo, sembra che ci sia una deflagrazione in laboratorio.

Poi si accende una stella ….

Perche’? Anche qui, si tratta di un’assurdita’ letta scopiazzando in giro. Il processo di fusione e’ quello grazie alla quale, ad esempio, le stelle producono la loro energia. Il nostro sole “funziona” grazie alla fusione degli atomi di idrogeno in elio. Quando si parla di processo vitale del sole e di passaggio allo stadio successivo, ci si riferisce proprio al momento in cui il combustibile finira’. Inoltre, se si vede la pagina Wikipedia dedicata al NIF:

Wikipedia, NIF

si legge una frase molto importante:

Oltre allo studio della fusione nucleare in campo energetico, al NIF si studieranno anche i segreti delle stelle; infatti quello che si sta tentando di fare è riprodurre il fenomeno della fusione dell’idrogeno che avviene sul Sole e su tutte le altre stelle.

Ecco da dove e’ nata l’idea che in laboratorio venga “accesa una stella”. Come vedete, l’autore dell’articolo ha provato a documentarsi sulla rete, ma non ha capito proprio il senso della frase riportata.

A questo punto, credo che l’assurdita’ di tali articoli sia evidente a tutti.

Tornando di nuovo a cose serie, perche’ e’ stata data questa notizia? Il motivo principale, e molto importante, e’ che, per la prima volta, e’ stato raggiunto il pareggio energetico. Cosa significa? Per la prima volta, si e’ riusciti ad ottenere la stessa quantita’ di energia che e’ stata necessaria per attivare il processo. Se prima l’energia per accendere la reazione era molto maggiore di quella che poi veniva prodotta, ora siamo in pareggio. Si tratta di un risultato molto importante, che dimostra i notevoli passi avanti fatti in questo campo. Certo, e’ vero che al momento non stiamo guadagnando nulla, ma prima, con lo stesso processo, ci rimettevamo tantissimo. Diciamo che il trend e’ dunque molto positivo.

Ovviamente, allo stato attuale, siamo ancora in un campo pioneristico. Magari, andando avanti, ci potremmo accorgere che si sono dei limiti alla produzione di energia che non siamo in grado di superare. Speriamo questo non avvenga e si riesca, in tempi rapidi, a spostare il bilancio energetico a nostro favore. Come detto prima, questa e’ la condizione per poter sperare nella realizzazione di centrali nucleari a fusione per la produzione di energia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E quindi uscimmo a riveder le stelle

10 Set

Nella sezione:

Hai domande o dubbi?

e’ stata fatta una richiesta davvero molto interessante. Come potete leggere, si chiede come vengano ricostruite le immagini astronomiche che spesso ci vengono mostrate e catturate dai tanti telescopi a terra e in orbita. Questa richiesta sembra apparentemente molto semplice, ma nasconde in realta’ una vera e propria professione. Oggi come oggi, molti astronomi dedicano il loro lavoro proprio alla visione e all’elaborazione di immagini astronomiche. Cerchiamo di capire meglio come funzionano queste tecniche per poter meglio apprezzare anche il lavoro che c’e’ dietro una bella immagine che troviamo sulla rete.

Come sapete bene, al giorno d’oggi, per esplorare l’universo non si utilizzano piu’ solo telescopi nel visibile. In questo caso, come facilmente immaginabile, questi sistemi catturano immagini esattamente come farebbe il nostro occhio. Oltre a questi, si utilizzano telescopi, sia a terra che in orbita, sensibili all’infrarosso, ai raggi X, all’ultravioletto, oltre ad enormi antenne pensate per catturare segnali radio provenienti dal cosmo.

Che differenza c’e’ tra queste radiazioni?

Per capire bene il concetto, vi mostro quello che normalmente si chiama lo spettro della radiazione elettromagnetica:

Spettro della radiazione elettromagnetica

Diverse lunghezze d’onda vengono accorpate in famiglie. Come vedete, la parte visibile, cioe’ quella a cui i nostri occhi sono sensibili, e’ in realta’ solo una strettra frazione dell’intero spettro. Per fare un esempio, tutti conosciamo le immagini infrarosse utilizzate per esempio per identificare le fonti di calore. Bene, questo e’ un esempio di immagine fuori dallo spettro visibile. Si tratta di particolari che i nostri occhi non sarebbero in grado di vedere, ma che riusciamo a visualizzare utilizzando tecnologie appositamente costruite. Non si tratta di immagini false o che non esistono, semplicemente, mediante l’ausilio di strumentazione, riusciamo a “vedere” quello che i nostri occhi non sono in grado di osservare.

Bene, il principio dietro l’astronomia nelle diverse lunghezze d’onda e’ proprio questo. Sfruttando parti dello spettro normalmente non visibili, si riesce ad osservare dettagli che altrimenti sarebbero invisibili.

Per dirla tutta, anche le normali immagini visibili, subiscono un’opera di elaborazione pensata per ricostruire i dettagli e per ottimizzare la visione. Cosa significa? Nella concezione comune, un telescopio nel visibile e’ paragonabile ad una normale macchina digitale. Questo non e’ esattamente vero. Molto spesso, le immagini catturate da questi sistemi sono ottenute mediante una sovrapposizione di dati raccolti utilizzando filtri diversi.

Cosa significa?

Prendiamo come esempio il telescopio Hubble. In questo caso, il sistema acquisisce immagini a diverse lunghezze d’onda, o isolando una particolare frequenza piuttosto che altre. Si tratta di immagini in bianco e nero che poi vengono colorate artificialmente e sovrapposte per formare l’immagine finale. Attenzione, non dovete pensare che la colorazione artificiale sia un trucco per far apparire piu’ belle le foto. Questa tecnica e’ di fondamentale importanza per far esaltare dei particolari che altrimenti verrebbero confusi con il resto. Questa tecnica si chiama dei “falsi colori”, proprio perche’ la colorazione non e’ quella originale ma e’ stata creata artificialmente.

Per capire meglio, proviamo a fare un esempio.

Prendiamo una delle foto piu’ famose di Hubble, quella della galassia ESO 510-G13:

ESO 510-G13 da Hubble

Questa immagine e’ ottenuta con la tecnica del “colore naturale”, cioe’ esattamente come la vedrebbero i nostri occhi se fossero potenti come quelli di Hubble. In questo caso dunque, la colorazione e’ quella che potremmo vedere anche noi ma anche questa immagine e’ stata ottenuta sovrapponendo singoli scatti ripresi dal telescopio.

In particolare, si sono sovrapposte tre immagini in bianco e nero, ognuna ottenuta selezionando solo la radiazione visibile blu, rossa e verde:

ESO 510-G13 immagini a colore singolo

Perche’ viene fatto questo?

Selezionando solo una piccola parte dello spettro visibile, cioe’ il singolo colore, e’ possibile sfruttare il sistema per catturare al meglio i singoli dettagli. In questo modo, come visibile nelle foto, ciascuna immagine e’ relativa ad un solo colore, ma al meglio della risoluzione. Sommando poi le singole parti, si ottiene il bellissimo risultato finale che abbiamo visto.

Analogamente, in alcuni casi, si amplificano determinate lunghezze d’onda rispetto ad altre, per rendere piu’ visibili alcuni dettagli. Anche in questo caso vi voglio fare un esempio. Questa e’ una bellissima immagine della Nebulosa dell’Aquila:

Nebulosa testa d'aquila

Cosa significa amplificare alcuni colori?

Nella foto riportata, oltre ad ammirarla, gli astronomi riescono a vedere le emissioni di luce da parte dei singoli gas costituenti la nebulosa. Questo studio e’ importante per determinare la concentrazione di singoli elementi, e dunque identificare particolari tipologie di corpi celesti. Per capire meglio, nella ricostruzione a posteriori dell’immagine, e’ stato assegnato il colore verde all’emissione degli atomi di idrogeno, il rosso agli ioni di zolfo e il blu alla luce emessa dall’ossigeno ionizzato. Perche’ questo artificio grafico? Se non venisse elaborata, nell’immagine la luce emessa dalla zolfo e dall’idrogeno sarebbero indistinguibili tra loro. Se ora rileggete l’assegnazione dei colori riportata e rivedete l’immagine della nebulosa, siete anche voi in grado di determinare quali gas sono piu’ presenti in una zona piuttosto che in un’altra. Ovviamente questi sono processi che devono essere fatti analiticamente, elaborando le informazioni di ogni singolo pixel.

Analogo discorso puo’ essere fatto per la radioastronomia. In questo caso, come sapete e come anticipato, quelli che vengono registrati sono dei segnali radio provenienti dai diversi settori in cui viene diviso l’universo. Non avendo delle immagini, nei radiotelescopi si hanno degli impulsi radio che devono essere interpretati per identificare il tipo di sorgente, ma soprattutto la zona da cui il segnale proviene.

Per farvi capire meglio questo concetto, vi racconto la storia dell’inizio della radioastronomia. Nel 1929 un radiotecnico americano che lavorava in una stazione di Manila, mentre era al lavoro per eliminare disturbi dalle trasmissioni, si accorse che vi era un particolare rumore di fondo che si intensifica in determinati momenti della giornata. Nello stesso anno, Jansky, un ingegnere della compagnia americana Bell, anche lui al lavoro per cercare di migliorare le comunicazioni transoceaniche, arrivo’ alla stessa conclusione del radiotecnico. L’ingegnere pero’ calcolo’ il momento preciso in cui questi disturbi aumentavano, trovando che il periodo che intercorreva tra i massimi corrispondeva esattamente alla durata del giorno sidereo, 23 ore e 56 minuti. Solo anni piu’ tardi, riprendendo in mano questi dati, ci si accorse che la fonte di questo disturbo era il centro della nostra galassia. I segnali radio captati erano massimi quando il ricevitore passava davanti al centro della galassia, emettitore molto importante di segnali radio.

Oggi, mediante i nostri radiotelescopi, riusciamo ad identificare moltissime sorgenti radio presenti nell’universo e, proprio studiando questi spettri, riusciamo a capire quali tipologie di sorgenti si osservano e da quale punto dell’universo e’ stato inviato il segnale. A titolo di esempio, vi mostro uno spettro corrispondente ai segnali radio captati nell’arco del giorno con un semplice radiotelescopio:

Spettro giornaliero di un radiotelescopio con antenna da 3.3 metri. Fonte: Univ. di Pisa

Come vedete, sono chiaramente distinguibili i momenti di alba e tramonto, il passaggio davanti al centro galattico e quello corrispondente al braccio di Perseo. Come potete facilmente capire, si tratta di misure, chiamiamole, indirette in cui i nostri occhi sono proprio le antenne dei telescopi.

Concludendo, ci sono diversi metodi per pulire, migliorare o amplificare le immagini raccolte dai telescopi sia a terra che in orbita. Quello che facciamo e’ amplificare la nostra vista o utilizzando sistemi molto potenti, oppure ampliando lo spettro delle radiazioni che altrimenti non sarebbero visibili. I telescopi divengono dunque degli occhi sull’universo molto piu’ potenti e precisi dei nostri. Metodi diversi, ottico, UV, IR, radio, ecc, possono aiutare a capire dettagli o strutture che altrimenti sarebbero invisibili in condizioni normali. Detto questo, capite quanto lavoro c’e’ dietro una bella immagine che trovate su internet e soprattutto perche’ la foto ha una specifica colorazione o particolari sfumature.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.