Tag Archives: rivista

Presunte previsioni di Terremoti

22 Apr

Di Patrizia Esposito

———————————————————————————————————————–

Torno ad “approfittare” dello spazio che Matteo mi ha concesso sul blog per parlare nuovamente di terremoti. Il titolo dell’articolo che vi presento oggi è il nome di una sezione del forum Psicosi 2012, dedicata alle previsioni “ad capocchiam” dei terremoti, cioè quelle che indicano il giorno e il luogo esatti di un sisma (preferibilmente catastrofico) sulla base dei parametri più bislacchi (apparizioni, profezie, ecc.). L’ultimissima della serie- segnalata da un nostro caro utente- è quella di un tizio che aveva previsto per il 17 aprile scorso niente poco di meno che il Big One in California. Ma magari bastasse la lettura dei tarocchi per prevedere eventi catastrofici e salvare vite umane! La previsione dei terremoti è una materia spinosa e complessa alla quale si dedicano anima e corpo ricercatori scientifici seri. A tal proposito, vorrei illustrarvi qui di seguito uno studio tutto italiano che, a mio avviso, aggiunge un tassello interessante al mosaico della comprensione dei meccanismi che generano i terremoti. Buona lettura a tutti.

———————————————————————————————————————–

Sul numero di marzo di Le Scienze è stato pubblicato un sunto dello studio condotto da Carlo Doglioni, Salvatore Barba, Eugenio Carminati e Federica Riguzzi. (1) Gli autori hanno analizzato la relazione tra la sismicità e il tasso di deformazione, evidenziando come le aree con terremoti più intensi siano quelle in cui la velocità di deformazione delle rocce è più bassa rispetto alle aree circostanti. Sono partiti dal considerare la crosta terrestre suddivisa in due porzioni: crosta superiore e crosta inferiore. La prima, spessa mediamente 15 km, ha un comportamento fragile ed è influenzata dalla pressione: il carico litostatico, che aumenta con la profondità, esercita una forza di contenimento sulle rocce, rendendole più stabili e aumentandone la resistenza. La crosta inferiore, invece, ha un comportamento duttile ed è influenzata dalla temperatura: il gradiente termico, che diminuisce con la profondità, indebolisce i legami dei reticoli cristallini rendendo le rocce meno stabili. Che cosa significa questo? Significa che le rocce crostali non si deformano tutte allo stesso modo. Infatti, quelle della crosta superiore si deformano “a scatti” attraverso l’attivazione delle faglie, quelle della crosta inferiore, invece, si deformano costantemente nel tempo, senza perdita di coesione, attraverso la distorsione dei reticoli cristallini:

Diverso comportamento meccanico della crosta superiore e della crosta inferiore.

Diverso comportamento meccanico della crosta superiore e della crosta inferiore.

I terremoti sono associati alle deformazione fragili. La transizione tra le due porzioni crostali con diverso comportamento meccanico, detta “transizione fragile-duttile”, corrisponde alla massima resistenza delle rocce, cioè la profondità a cui è necessaria l’energia massima per romperle. Più è profonda questa transizione e più lunga è una faglia, maggiore è il volume di rocce coinvolte nel sisma, quindi maggiore sarà la magnitudo. Per descrivere un evento sismico si utilizzano diversi valori numerici, come la magnitudo momento, la magnitudo locale e l’intensità macrosismica (il fatto stesso che per descrivere un sisma si prendano in considerazione diversi parametri sta ad indicare la complessità del fenomeno).

La legge di Gutenberg-Richter è l’espressione analitica della forza che agisce contemporaneamente sul guscio terrestre e che è responsabile della distribuzione sismica sul pianeta. L’origine di questa forza è ancora nel campo delle ipotesi, tra le quali sono contemplati i moti convettivi nel mantello e gli effetti della rotazione terrestre che spiegherebbero l’attuale deriva verso ovest delle placche litosferiche. La diversa velocità di queste ultime dipende dal grado di disaccoppiamento mantello-litosfera che è funzione della variazione di viscosità nel mantello: maggiore è la viscosità, minore è la velocità della placca.

Funzionamento delle faglie in funzione della transizione “fragile-duttile”.

Funzionamento delle faglie in funzione della transizione “fragile-duttile”.

In figura è illustrato il funzionamento delle faglie in relazione alla transizione fragile-duttile. Nel caso di faglia distensiva la transizione si configura come una zona dilatata in cui si formano delle fratture e dei vuoti che si riempiono di fluidi, in conseguenza all’accomodamento della crosta inferiore in lento ma costante movimento rispetto alla crosta superiore bloccata. Questa zona si espanderà fino a quando non sarà più in grado di sorreggere la parte alta (“tetto” della faglia), a quel punto le rocce si romperanno, il blocco cadrà sotto il suo stesso peso e l’energia potenziale gravitazionale accumulata sarà liberata attraverso le onde sismiche del terremoto. I fluidi presenti saranno espulsi come quando si strizza una spugna e migreranno verso l’alto: ecco perché un evento sismico è accompagnato da una risalita delle falde e da un aumento della portata delle sorgenti. Dopo la scossa principale, il tetto della faglia deve raggiungere una nuova condizione di equilibrio e questo avviene mediante le scosse di assestamento. Nel caso di faglia inversa, invece, la transizione si configura come una fascia in sovrapressione . Le rocce accumulano energia elastica fino al punto di rottura, quando le forze di deformazione superano la resistenza delle rocce e il tetto della faglia viene scagliato verso l’alto, originando il terremoto (possiamo assimilare questo meccanismo ad una molla prima totalmente compressa e poi espansa). Generalmente i terremoti associati a faglie compressive sono più violenti perché occorre più energia per vincere le forze di compressione e perché in questo contesto geodinamico occorre vincere anche la forza di gravità.

Relazione tra tasso di deformazione e magnitudo dei terremoti.

Relazione tra tasso di deformazione e magnitudo dei terremoti.

In figura sono riportati i risultati di osservazioni effettuate sulla sismicità in Italia in un intervallo temporale che va dal 1° gennaio 2007 al 31 dicembre 2011.

In particolare, sono stati messi in relazione i terremoti di magnitudo superiore a 3 con i tassi di deformazione ottenuti in corrispondenza di ciascuno degli epicentri. Il dato più importante è rappresentato dal fatto che i terremoti di magnitudo superiore a 4 sono avvenuti tutti in aree in cui il tasso di deformazione è inferiore a 40 nanostrain per anno (1 nanostrain= 1 mm ogni 1000 chilometri). Cosa significa questo? Significa che le aree che si deformano più lentamente rispetto alle aree circostanti sono le aree crostali “bloccate” che stanno accumulando energia . Anche se l’intervallo di osservazione ha dei limiti temporali, il valore stabilito può essere preso in considerazione come un parametro utile ad individuare aree a sismicità significativa. Sulla mappa della velocità di deformazione si possono sovrapporre le faglie attive note. E’ interessante notare come il terremoto de L’Aquila (2009) e quello in Emilia (2012) siano avvenuti in aree a basso tasso di deformazione. Lo studio condotto si è basato sui dati forniti dalla rete GPS e su modelli numerici. In conclusione: questa nuova idea sui terremoti non serve a sapere con esattezza quando e dove si registrerà un sisma ma può indirizzare gli studi verso aree con maggiore “urgenza” sismica, in cui fare prevenzione attraverso l’adeguamento antisismico degli edifici non a norma e l’educazione al rischio sismico. Vorrei sottolineare ancora una volta come lo studio dei terremoti sia reso complicato dall’impossibilità di investigare il sottosuolo alle profondità di interesse e quella di riprodurre perfettamente in laboratorio le condizioni di stress a cui sono sottoposte le rocce in profondità. Di certo un approccio multidisciplinare può migliorare i metodi di previsione.

Ad ogni modo, diffidate da tutte le previsioni “ad capocchiam” di cui è piena la rete!!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Vaccino anti-influenzale, ci risiamo!

29 Gen

Come ricorderete, e per aggiornare chi avesse perso questa chicca di scienza, nei commenti di questo articolo:

Scie chimiche con la scusa dei vaccini

c’e’ stata una lunghissima discussione con un sostenitore del grande complotto dei vaccini. Cosa sarebbe il complotto dei vaccini? Semplice, un diabolico piano pensato appositamente dalle case farmaceutiche e dai governi per sterminare la popolazione mondiale. Inutile riprendere questo discorso dal momento che tutti i commenti sono stati lasciati appositamente al loro posto, proprio per lasciare ai posteri la saggezza di coloro che sostengono queste ipotesi.

Proprio stasera pero’, trovo un altro articolo su alcuni siti complottisti che mi ha lasciato davvero basito. Al contrario di quanto facciamo abitualmente, in cui evitiamo di publicizzare articoli di questo tipo, questa volta vi riporto il link dell’articolo:

Vaccino anti-influenzale

Perche’ lo faccio? Premetto subito che questo sito credo si sia limitato a copiare da altre fonti che, tra l’altro, trovate alla fine. Metto il link perche’ sono amareggiato e arrabiato pensando a questa storia. Moltissime persone credono a notizie di questo tipo e, come potete leggere da soli nel link riportato, puntano il dito contro la scienza, i medici, la ricerca, ecc. Questo discorso prende spunto dai vaccini, ma puo’ essere allargato a moltissimi complotti di cui abbiamo discusso in questo blog.

Ora, tornando in tema, lungi da me santificare le case farmaceutiche che, ovviamente, sono aziende che puntano al profitto, ma articoli di questo tipo fanno soltanto disinformazione nelle persone che sono manipolabili e si lasciano convincere da questi pseudo-predicatori.

Se questi siti, cosi’ come potete leggere nei commenti del nostro articolo riportato all’inizio, guadagnano sulla vostra testa, convincendovi di cose assurde e’ perche’ alcuni, e sono sempre troppi, lo permettono. Signori, noi non vogliamo convincervi raccontando favole, come qualcuno sostiene, ma questo e’ quello che permettete solo e soltanto a siti di questo tipo.

Scusate lo sfogo, ma queste storie sono veramente senza senso.

Ora, al contrario di quello che viene fatto nell’articolo linkato, vogliamo passare attraverso queste favole per dimostrarvi quanto assurde siano.

Partiamo dall’inizio. Stando allo studio citato, si e’ dimostrato come la somministrazione di vitamina D3 a certi quantitativi sia in grado di ridurre notevolmente i casi di influenza di stagione nei bambini. Che significa notevolmente? La vitamina D3 sarebbe ben 800 volte, leggasi “ottocento”, piu’ efficace dei normali vaccini anti-influenzali. Come, potete leggere nell’articolo, non vi stanno mica prendendo in giro. Il tutto e’ stato dimostrato da una ricerca seria, condotta in modo scientifico, da scienziati con analisi statistiche. Se non vi basta, la ricerca e’ stata pubblicata su una rivista di medicina seria ed ha anche subito il processo di peer-review. Questo solo per specificare tutta la trafila dei controlli subita dall’analisi e per prevenire quei fastidiosi “disinformatori” che si attaccano sempre a questi particolari per attaccare chi non la pensa come loro, cioe’ i complottisti.

Vi pregherei di leggere con attenzione l’articolo linkato per vedere la grande quantita’ di dettagli dati. Inoltre, giustamente, l’autore si chiede perche’ non si utilizza la vitamina D3 invece dei vaccini? Ovviamente, trovate anche la risposta a questa domanda retorica, perche’ gli scienziati sono un gruppo di venduti schiavi delle case farmaceutiche che li pagano profumatamente per falsificare dati a discapito della salute della popolazione.

Bene, fatto un riassunto minimale dell’articolo, che vi ripeto di nuovo di leggere per intero, ora diciamo qualcosa anche noi.

Per prima cosa, basta cercare in rete per trovare l’articolo originale, cioe’ proprio quello richiamato con tutti i dati sbandierati ai quattro venti. Ecco a voi il link:

Articolo originale

Da questo link potete scaricare tutto l’articolo, non solo l’abstract. Scusate se e’ in inglese ma, come sapete, le ricerche scientifiche vengono pubblicate nella lingua riconosciuta a livello mondiale.

Cosa dice l’articolo? Semplice, come giustamente detto, si e’ preso un campione di studenti e lo si e’ diviso in due gruppi. Al primo e’ stata somministrata vitamina D3 per il periodo considerato, un inverno, mentre al secondo e’ stato dato un placebo. Tutto lo studio e’ stato fatto seguendo rigorosi protocolli e analizzando i dati utilizzando tecniche statistiche accettate.

Cosa si e’ visto?

Nel primo gruppo, quello della D3, si sono registrati casi di influenza nel 10% dei bambini. Nel secondo, quello del placebo, si sono registrati il 18% di casi di influenza. 18-10, correggetemi se sbaglio, fa 8. Il famoso 8% sbandierato nell’articolo complottista. Ora pero’, come avete letto, il complottista di turno dice che questo numero deve essere paragonato con le statistiche dei vaccini. Secondo le sue fonti, i vaccini darebbero una riduzione dell’1% dei casi di influenza ergo la vitamina D3 e’ piu’ efficace di 800 volte.

Aspettate un attimo.

Prima cosa, con D3 siamo passati da 18% a 8%. Secondo lui, il vaccino riduce solo dell’1%. Premesso che statisticamente un calcolo del genere non ha senso, 8 diviso 1 fa 8. Come viene fuori 800? Non ne ho idea e neanche mi interessa, questa non e’ l’unica, ne tantomeno la principale, assurdita’ che vi stanno raccontando.

Riaprite il famoso link del sito complottista. Se per i numeri riguardanti l’efficacia della viamina D3 si fa sempre riferimento all’articolo scientifico, quando si parla di vaccino e dell’1% di efficacia si fa riferimento ad un sito amico loro che si chiama “natural news”. Che sito e’? Semplice, apritelo e guardate da voi. E’ un sito di prodotti naturali ma soprattutto e’ un sito di commercio di prodotti naturali che non ha nessuna valenza scientifica. Insomma, come si dice dalle mie parti “macellaio e’ buona la carne?”. Cosa dovrebbe rispondere il macellaio?

Procando a cercare in rete, troverete tantissimi articoli scientifici che vi riportano numeri completamente diversi, con un’efficacia dei vaccini tra il 50 e il 70%. I numeri oscillano a causa della difficolta’ di inserimento del cosiddetto “Effetto gregge”, cioe’ della riduzione dei contagi dovuta alla vaccinazione delle persone maggiormente a rischio. Secondo me, ma vi prego controllate anche voi in rete, 50-70 e’ molto molto diverso da uno.

Ora pero’ mi viene un dubbio: possibile che l’articolo scientifico spari numeri a caso?

Assolutamente no. Se sfogliate il pdf che vi ho linkato, vedrete come l’articolo si limita a parlare dell’efficacia della vitamina D3, senza fare alcun riferimento ai normali vaccini anti-influenzali. Praticamente, si sta studiando l’effetto di questa sostanza nella prevenzione dei mali di stagione senza assolutamente confrontare o voler sostituire la D3 ai vaccini.

Basta cosi’?

No. Gia’ che ci siamo, diciamoci tutto fino in fondo. Leggete le conclusioni dell’articolo scientifico dove vedrete come funziona un articolo di scienza vera. Gli autori fanno alla fine un’analisi critica del loro lavoro, mostrando ed evidenziando probabili fonti di errore. Prima di tutto, il campione utilizzato er a statisticamente poco significativo. Inoltre, mancanza di un controllo in funzione del quantitativo di D3 somministrata, mancanza di dati relativi al calcio nelle urine, importante utilizzando questa vitamina, mancanza di analisi sul numero di anticorpi eventualmente sviluppati, ecc.

Cosa significa questo?

Semplice, si tratta di una prima ricerca a cui magari ne seguiranno altre. Questo solo per dire che i risultati riportati sono ovviamente scientificamente validi, ma necessitano di tutta una serie di controlli che devono essere eseguiti prima di poter arrivare ad una conclusione definitiva.

Concludendo, non ho altro da aggiungere sull’articolo. Credo che quanto riportato parli da solo. Per il resto, non mi rivolgo ai complottisti che, come ormai e’ certo, non vogliono fare informazione ma solo speculazione sulle paure e sulle insicurezze delle persone. Mi rivolgo ancora a voi che credete ad articoli di questo tipo. Tutte le volte mi devo sentir dire che la scienza e’ marcia e c’e’ un qualche complotto che pero’ qualcuno molto sveglio e’ ruscito a mostrare. E’ vero, chi scrive fesserie di questo tipo e’ molto sveglio perche’ ha capito come fare breccia. Sfortunatamente pero’, voi che pensate di essere arrivat ialla verita’ siete solo le vittime di questi “furbi”.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

EQL: le luci prima del sisma

4 Gen

Nella sezione appositamente creata:

Hai domande o dubbi?

un nostro carissimo lettore ci ha segnalato un articolo comparso sui giornali a diffusione nazionale riguardante i terremoti ed, in particolare, alcuni segnali che potrebbero essere identificati come precursori di un sisma.

Di cosa stiamo parlando?

Come potete leggere nel commento iniziale, l’articolo in questione si riferisce alle cosiddette EQL, acronimo che sta per Earthquake Lights, cioe’ “luci del terremoto”. Con questo termine is intendono particolari fenomeni luminosi che possono avvenire in concomitanza, o anche diverso tempo prima, un sisma di elevata inensita’. Dal momento che un’immagine vale sicuramente piu’ di tante parole, gli EQL sono fenomeni di questo tipo:

Earthquake Light

Earthquake Light

Come vedete, si tratta di un effetto luminoso che compare come un flash di luce che puo’ durare anche diversi minuti, con colorazioni bianche o che possono comprendere anche piu’ colori dello spettro. La loro posizione non e’ sempre definita ma puo’ andare da altezze elevate fino a pochi centimetri da terra.

L’articolo segnalato afferma che finalmente i ricercatori hanno trovato la reale spiegazione di questi fenomeni sulla cui origine c’era molta confusione e diverse teorie citate. Purtroppo, l’articolo non si limita a dire questo, ma si lancia in supposizioni che lasciano un attimo interdetti. Qualora non lo aveste ancora fatto, vi invito a leggere l’articolo in questione:

Articolo EQL

Non solo si parla di EQL e di questa spiegazione finalmente arrivata, ma si afferma che questi sono senza dubbio dei segnali precursori dei sismi e, soprattutto, conclude con una affermazione alquanto discutibile su un prossimo terremoto catastrofico che avverra’ in Cina in una regione compresa in una striscia di soli 60 Km.

Purtroppo, come sappiamo bene, molto spesso alcuni giornalisti, e non mi riferisco solo al firmatario di quello segnalato visto che le stesse informazioni, piu’ o meno romanzate, le trovate anche su altri giornali, si lasciano prendere un po’ troppo la mano, non rendendosi conto di quello che affermano e soprattutto del panico che articoli di questo tipo possono portare nella popolazione.

Cerchiamo di andare con ordine, capendo prima di tutto cosa si e’ scoperto riguardo alle EQL. Senza dover inventare nulla, possiamo dare il link all’abstract e al riassunto del famoso articolo citato dai giornali:

Abstract

Supplemento all’articolo

Purtroppo, non possiamo dare link all’articolo completo dal momento che e’ pubblicato su una rivista a pagamento.

Prima di tutto, come potete leggere autonomamente, nell’articolo viene fatto uno studio approfondito su alcuni terremoti specifici che si sono avuti nel corso degli anni e su cui ci sono testimonianze di EQL osservate in concomitanza con il sisma principale. Cosa si ottiene da questa analisi? Il fenomeno delle luci sismiche non avviene assolutamente per tutti i sismi, ma solo per alcuni casi specifici in cui si ha un terremoto originato da faglie subverticali con angoli intorno ai 30-35 gradi. Come sappiamo bene, i terremoti sono dovuti al movimento della faglia, movimento che non e’ sempre identico a se stesso ma puo’ avvenire lungo piani ed in direzioni diverse. Bene, per alcuni casi specifici, come quelli descritti, si sono registrati, ma solo in alcuni casi, i fenomeni delle EQL.

Ragionate su questo punto. Il fenomeno e’ stato osservato solo per alcuni terremoti che avvengono con dinamiche particolari. Bene, cosa vi fa capire questo? Semplice, le EQL, allo stato attuale, non possono essere considerate un precursore sismico per ovvi motivi. Prima di tutto, non avvengono per qualsiasi terremoto, non avvengono sempre per un determinato terremoto e, inoltre, ci sono casi in cui sono state osservate anche senza un terremoto di grande intensita’.

Di cosa stiamo parlando? Ovviamente di un fenomeno fisico molto interessante che merita e deve essere studiato. Parlare pero’ di precursore sismico in questo caso e’ fare puramente terrorismo psicologico nelle persone.

A questo punto, cerchiamo anche di rispondere alla domanda iniziale fatta sull’articolo: perche’ avvengono questi fenomeni? L’ipotesi fatta nell’articolo e’ che durante il terremoto, il movimento del terreno negli strati intorno all’epicentro liberi elettroni o altri portatori di carica. Ora, queste cariche possono venire accelerate dalle onde sismiche, che sono ovviamente onde meccaniche, e, sfruttando anche aperture, arrivare in movimento verso la superficie. Nell’articolo si parla infatti di correnti, cioe’ di cariche elettriche in movimento. Arrivate in superficie, queste correnti possono in alcuni casi ionizzare le molecole d’aria che a loro volta si diseccitano emettendo fotoni nel visibile. Lunghezze d’onda diverse per la diseccitazione danno luogo a colorazioni diverse delle EQL. Se si hanno strati separati energeticamente, si possono avere fenomeni con colori simili a quelli dell’arcobaleno. Al contrario, se le eccitazioni, o meglio le conseguenti diseccitazioni, avvengono casualmente, si possono avere EQL biancastre in cui si ha una sovrapposizione di colori.

Questa e’ la spiegazione univoca del fenomeno?

Anche qui, l’articolo fa un passo un po’ troppo lungo. Questa fatta e’ ancora un’ipotesi per la spiegazione delle EQL. Ipotesi ovviamente non campata in aria ma frutto dello studio dei sismi fatto nell’articolo. Analogamente, esistono teorie parallele per spiegare le luci simiche. In particolare, un’altra ipotesi prende origine considerando la piezoelettricita’ dovuta alla rottura di rocce contenenti quarzo. In soldoni, si tratta sicuramente di un fenomeno di natura elettrica. Come queste correnti, ripeto cariche in movimento, vengono create non e’ ancora del tutto chiaro.

Concludendo, cercando di fare luce nella confusione creata, le EQL sono fenomeni osservati e costantemente studiati dai sismologi. L’ultimo lavoro pubblicato fa uno studio di terremoti passati osservando come questo fenomeno sia maggiormente possibile in determinati sismi. Ad oggi, non esiste ancora una spiegazione univoca sull’origine delle correnti di ionizzazione, ma diverse ipotesi tutte ugualmente possibili. Sicuramente, studiare fenomeni di questo tipo consente di avere un quadro molto piu’ chiaro sull’origine dei sismi e puo’ aiutare a capire se esiste un set di fenomeni che, magari correlati tra loro, possono portare a formulare algoritmi predittivi certi in grado di poterci permettere in futuro di predirre terremoti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

11 settembre 2001: USA sotto attacco

23 Set

Dalla discussione avuta con un nostro caro lettore, mi e’ stato richiesto eplicitamente un articolo sugli attentati dell’11 settembre 2001. Ovviamente, non posso che essere lusingato di questa richiesta, che mi chiede di analizzare con lo stile di questo blog, uno dei fatti piu’ cruenti e significativi degli ultimi anni.

Come sapete bene, proprio da questi fatti, molti analisti fanno iniziare la crisi economica, l’inizio di quella che potrebbe essere considerata una guerra tra Occidente e Islam ma anche un cambio di coscienza globale di una civilta’ che da un giorno all’altra si e’ trovata nell’era moderna. Queste considerazioni, non vengono fatte solo a scopo introduttivo. A mio avviso, questi fattori entrano prepotentemente nell’analisi che viene richiesta per poter inquadrare al meglio i fatti nello specifico.

Trattare il tema dell’11 settembre non e’ di per se facile. Per diversi giorni ho studiato materiale, letto interviste, visionato filmati. Come sapete bene, la rete e’ strapiena di cospirazioni pensate, o anche immaginate, riguardo a questi attentati. Ovviamente, sarebbe impossibile trattarle tutte e con elevato dettaglio. Di questo mi scuso da subito. Sono consapevole che questo articolo potrebbe scatenare una pletora di commenti, forse neanche troppo soft, di qualcuno che crede fortemente che quanto accaduta sia una grande montatura.

Proprio partendo da queste osservazioni, vorrei sottolineare una cosa. Molte teorie affondano le loro radici sul fatto che i servizi segreti sapessero in anticipo degli attentati, discutono del perche’ i caccia siano partiti troppo presto o troppo tardi dalle basi militari, del perche’ il presidente fosse rimasto cosi’ tanto tempo nella famosa scuola elementare invece di correre sul luogo dell’attentato. Se sperate di avere risposte a queste domande, vi dico subito che queste non verranno trattate e non sono materia di questo blog. Perche’? Noi siamo qui per parlare di scienza e per analizzare i complotti e le catastrofi che vengono annunciate. Fate attenzione, ho detto “analizzare”, non “smentire”. Questa e’ la sottile differenza che ci distingue da coloro che sostengono i complotti per partito preso, ma anche da coloro che cercano in tutti i modi di smontarli senza cognizione di causa. Dal nostro punto di vista, cerchiamo sempre di non partire prevenuti, ma di rimanere aperti ad ogni risultato il nostro ragionamento potrebbe raggiungere. In fondo la scienza ci insegna questo, un risultato non e’ bello o brutto a seconda che ci faccia comodo o no, e’ un risultato che deve essere sostenuto da ipotesi oggettive.

Bene, quello che dunque vogliamo analizzare in questo post e’ il discorso della caduta delle torri gemelle, anche dette WTC1 e WTC2, dell’ulteriore edificio caduto a 200 metri dalle torri, il WTC7 e dell’aereo arrivato sul Pentagono.

Come sapete bene, anche perche’ molti hanno fatto fortuna parlando di queste ipotesi, i complottisti sostengono che sia fisicamente impossibile che i due edifici principali del World Trade Center siano caduti per l’impatto degli aerei o per gli incendi sviluppati all’interno. Secondo queste teorie, il dirottamento degli aerei sarebbe stata solo una farsa creata ad hoc. In realta’, le torri sarebbero cadute perche’ precedentemente minate con esplosivo o peggio ancora con termite, una sostanza in grado di sviluppare altissime temperature con un innesco a bassa temperatura. Le prove di questo sarebbero date dalla dinmica del crollo delle torri, perfettamente compatibili con una distruzione pianificata, esattamente quella che viene fatta da esperti per buttare giu’ un palazzo. Altra teoria alternativa che sta riscuotendo sempre piu’ successo in rete, e’ quella di un ordigno nucleare fatto esplodere nel sottosuolo e che avrebbe provocato la caduta delle torri per un cedimento delle fondamenta.

Prima di analizzare il crollo delle torri, vorrei fare qualche ragionamento. Per prima cosa, tutti questi scenari si basano sul fatto che il dirottamento sarebbe stato una farsa. Ma allora la domanda e’: perche’ e’ stato fatto? Nelle innumerevoli ipotesi, non ho mai letto questa risposta. Se le torri fossero state minate o se fossero cadute per l’esplosione di una bomba atomica, perche’ dirottare gli aerei e lanciarli contro uno dei simboli degli USA? Come sapete, stiamo parlando di un attentato terroristico dunque, per sua stessa definizione, volto a creare “terrore” nelle persone. La strategia di questi gruppi non e’ tanto quella di fare migliaia di vittime, quanto quella di dimostrare di poter colpire dove e quando vogliono. Perche’ dico questo? Una delle ipotesi, con o senza esplosivo, e’ che tutto sia stato organizzato dagli USA stessi, cioe’ che quello delle torri gemelle sia stato un auto-attacco. Perche’? Semplice, almeno a quello che dicono i complottisti, questo avrebbe offerto le condizioni per far partire le diverse campagne contro l’Islam, per far crollare regimi totalitari, per impadronirsi del petrolio o di altre risorse, per controllare i paesi orientali, ecc.

E’ credibile questo? Personalmente spero di no, ma l’analisi di queste considerazioni, come anticipato, non rientra negli scopi di questo articolo. Qui vogliamo solo analizzare gli attentati e capire se e’ possibile che ci sia qualcosa sotto non dichiarato. Poi se volete possiamo parlare del fatto che gli USA non siano un governo trasparente sotto molti aspetti, ma anche qui vi farei notare che nessuno stato lo e’ su determinate questioni, tantomeno l’Italia. Ci sono tantissimi fatti della nostra storia su cui c’e’ ancora un’aura di mistero e di possibile complotto. Non meravigliamoci di questo. Certo, da qui a parlare di auto-attentato ce ne passa.

Torniamo dunque all’attentato. Per prima cosa, vorrei escludere da subito, e chiunque dotato di buon senso dovrebbe farlo altrettanto velocemente, l’ipotesi ordigno nucleare sotterraneo. Perche’? Per prima cosa, un’esplosione nucleare produce radiazioni. E’ vero che si parla di esplosione sotterranea ma chi ce l’ha messa? Come? Possibile che non ci sia stata nessuna fuga di radiazioni?

Se queste considerazioni non vi bastano ve ne dico una definitiva. Se il tutto fosse provocato da un’eplosione sotterranea, sarebbero state colpite prima di tutto le fondamenta delle torri e, di conseguenza, il cedimento sarebbe stato dal basso. Come tutti sanno, con le immagini di quegli attimi ben presenti nelle nostre menti, la caduta e’ iniziata dall’alto, cioe’ da dove sono arrivati gli aerei.

Questo esclude subito l’ipotesi ordigno nucleare.

Bene, passiamo ora all’altra importante teoria complottista: le torri sono state progettate per resistere all’urto di un aereo di linea per cui non potevano crollare. Quelle che hanno provocato il cedimento sono state cariche piazzate in diversi piani e che hanno provocato quella che si chiama una distruzione pianificata.

Prima considerazione, come avrebbero fatto a mettere tutte queste cariche? Con un edificio del genere, le cariche avrebbero dovuto essere in molti piani, in punti diversi ed in zone di normale passaggio di persone. Chi avrebbe avuto la possibilita’ di mettere queste cariche? Come sapete, le torri erano sede di moltissimi uffici ed erano frequentate nell’arco di quasi tutta la giornata. Ah certo, quasi dimenticavo, se l’attentato e’ stato fatto dagli USA, non avevano certo problemi nel piazzare ordigni ed entrare senza destare sospetto.

Considerazione interessante. Vi faccio pero’ riflettere su un’altra cosa, perche’ allora gli aerei? Avete imbottito le torri di esplosivo per farle crollare, perche’ dirottare degli aerei da lanciare contro le torri? Per aumentare l’affetto scenico? L’ipotesi non regge tanto. Inoltre, come avete visto dai video dei crolli, il cedimento e’ iniziato proprio nei piani sopra il punto di impatto, possibile che le cariche siano state fatte brillare nell’esatta sequenza, dall’alto verso il basso, e che i dirottatori abbiano centrato esattamente il punto che avevate concordato in precedenza? Personalmente, credo che si stia passando dal complottismo alla fantascienza.

Qual e’ l’altra motivazione che spinge a pensare che l’attaco sia stato auto-pianificato? Il piano era talmente tanto perfetto e l’esecuzione talmente impeccabile che l’organizzazione poteva solo essere fatta da un governo preparato e interno al paese, dunque gli USA stessi.

Facciamo una considerazione abbastanza meschina, soprattutto se pensiamo ai 3000 morti dell’11 settembre. Gli attentati sono stati perfetti? Assolutamente falso. Vi spiego il perche’. Avete dirottato 4 aerei, due sono andati a segno sulle torri, uno ha fatto danni marginali al pentagono e uno non e’ nemmeno arrivato a destinazione. Siete arrivati contro le torri in un orario sbagliato. Come sapete, gli attentati sono accaduti nelle prime ore della mattinata, quando le torri non erano ancora completamente piene. Se vogliamo essere sadici, un attentato ben riuscito avrebbe scelto un orario diverso, anche solo un paio di ore dopo. Inoltre, avete colpito le torri in punti molto alti. Questo ha consentito alle persone dei piani inferiori, in larga parte, di mettersi in salvo. Tra l’altro uno degli aerei e’ arrivato completamente storto all’impatto colpendo uno spigolo della torre. E’ un piano perfetto? Direi proprio di no. Dunque, anche questa ipotesi secondo me regge poco.

Detto questo, passiamo alla dinamica del crollo.

Secondo l’ipotesi complottista, il cedimento sarebbe stato causato da cariche opportunamente piazzate come in una demolizione controllata. Le prove? Prima di tutto, la caduta perfettamente verticale delle torri, secondo ampi sbuffi di fumo e detriti che uscivano dagli edifici negli istanti precedenti il crollo. Questi sarebbero gli inequivocabili segni dovuti all’esplosione delle cariche.

Perche’ vengono fatte queste ipotesi? Come detto, le torri erano progettate per resistere all’urto di un aereo di linea. Gli incendi sviluppati all’interno degli uffici non potevano di certo raggiungere la temperatura di fusione dell’acciaio delle strutture. Se queste sono venute giu’ e’ perche’ e’ stata usata termite, in grado di raggiungere le temperature di fusione dell’acciaio, o perche’ sono stati causati cedimenti strutturali lungo tutta l’altezza delle torri.

Bene, analizziamo queste considerazioni.

Per prima cosa, gli edifici erano in grado di resistere all’impatto di un aereo, come giustamente ricordato anche dall’ideatore delle Torri Gemelle. Le simulazioni fatte al tempo prevedevano pero’ aerei piu’ piccoli rispetto a quelli utilizzati nel 2001 e, soprattutto, scarichi di carburante. Perche’ questo? Semplice, nei calcoli si era presa in considerazione l’ipotesi in cui un velivolo in fase di atterraggio a New York, dunque con poco carburante, a causa della nebbia finisse contro gli edifici. La dinamica dell’attentato del 2001 e’ completamente diversa con aerei decollati da poco tempo e con serbatoi carichi, anche se non pieni, di kerosene.

Cosa e’ successo nell’impatto? Gli aerei sono penetrati all’iinterno degli edifici. A causa dell’urto, il kerosene dei serbatoi si e’ incendiato provocando la fiammata iniziale che tutti ricorderete.

Ingresso dell'aereo in una delle due torri

Ingresso dell’aereo in una delle due torri

Le fiamme hanno ovviamente provocato il divamparsi di incendi in tutti i piani interessati dall’urto. Vi ricordo che le torri erano sede di molti uffici per cui erano piene di carta, arredi d’ufficio, pc, tutte cose facilmente infiammabili.

Bene, abbiamo l’urto, abbiamo l’incendio, ma le torri sono ancora in piedi. Dunque? Perche’ solo a distanza di decine di minuti si e’ avuto il crollo delle torri, e per di piu’ la seconda colpita e’ caduta per prima?

Le risposte a quete domande sono quelle che segnano il confine tra complotto e spiegazione logica.

Andiamo con ordine.

Come sono fatte le torri?

Su diversi siti, non necessariamente di complottisti, ho letto molte cose inesatte sulla struttura delle torri. Capire questo punto e’ la chiave di interpretazione dei fatti.

La struttura delle torri e’ fatta da una serie di colonne perimetrali che corrono tutt’intorno gli edifici e da una parte di colonne centrali che costituiscono il core:

Struttura con travi di acciaio delle Torri

Struttura con travi di acciaio delle Torri

Abbiamo dunque una struttura portante di colonne d’acciaio, molto solida, ma sufficientemente elastica da resistere non solo ad attentati, ma anche a condizioni naturali e normali di utilizzo. Pensate ad esempio ad una scossa di terremoto che fa vibrare tutta la struttura o anche solo al vento in grado di sollecitare fortemente una struttura alta piu’ di 400 metri.

Come sono legate le due serie di colonne? Ovviamente con dei solai. Anche in questo caso, e’ stato utilizzato acciaio, per creare una struttura legata in questo modo:

Solai in acciaio

Solai in acciaio

Sui solai sono disposti i pavimenti dei vari piani costituiti da lastre di cemento.

Molte delle ipotesi complottiste partono dal fatto che per far crollare una struttura di questo tipo, e’ necessario far fondere completamente l’acciaio. Per ottenere questo risultato, si devono raggiungere temperature superiori ai 1500 gradi, cosa impossibile bruciando kerosene. Tra l’altro, le colonne di fumo nero che ricorderete intorno alle torri, sono sinonimo di cattiva combustione dunque di temperatura non troppo alta. Secondo alcuni, nel calcolo delle temperature, tra l’altro sulla rete ho letto degli strafalcioni incredibili di termodinamica senza distinguere temperatura e calore, mancherebbe l’apporto dei mobili e della carta. Anche in questo caso pero’, viene giustamente fatto notare che non si riesce a raggiungere la temperatura di fusione dell’acciaio.

Vero anche questo. Ma perche’ si dovrebbe far fondere l’acciaio? Premesso che per la fusione servono le temperature di cui abbiamo parlato, gia’ a 500 gradi l’acciaio lascia la sua fase elastica per arrivare a quella plastica. In queste condizioni, il materiale e’ molto morbido e presenta dunque una resistenza strutturale molto minore, anche del 90% inferiore, rispetto alle condizioni ambientali. Perche’ facciamo notare questo? Un materiale in queste condizioni, inficia in modo preponderante la resistenza della struttura.

Secondo i complottisti, la caduta degli edifici sarebbe stata perfettamente verticale, come in una demolizione studiata. Su questo punto, non c’e’ neanche da discutere. Per prima cosa, vi mostro una foto aerea della zona:

Detriti dovuti al crollo in tutta l'area del World Trade Center

Detriti dovuti al crollo in tutta l’area del World Trade Center

Come vedete, i residui dei crolli sono ovunque. Torneremo su questo punto, discutendo la caduta del WTC7.

Inoltre, e’ evidente dalle prove fotografiche che la caduta degli edifici non e’ stata assolutamente verticale. La parte di torre superiore al punto di ingresso degli aerei, si e’ staccata con un’angolazione molto pronunciata, circa 30 gradi per una torre e 15 per l’altra. Ecco una foto molto esplicativa:

Crollo inclinato della parte alta della torre

Crollo inclinato della parte alta della torre

Vedete quanto e’ inclinata la parte superiore? Non credo che, alla luce di questo, si possa parlare di caduta verticale.

Perche’ sono cadute le torri?

Come detto, gli edifici erano pensati per resistere all’impatto di un aereo, anche se scarico di carburante e di dimensioni minori di quelli dirottati. Nonostante questo, le torri hanno resistito all’impatto, infatti non sono cadute subito a causa dell’urto. La stessa cosa si puo’ dire per l’incendio. Gli edifici erano pensati per resistere 2 ore ad un incendo completo. Eppure sono cadute. Perche’?

Quello che spesso non viene considerato e’ il fattore combinato incendio-impatto.

Vi faccio un esempio molto semplice. Prendete una lattina di bibita da 33 cl. Quella lattina e’ fatta da un sottilissimo foglio di alluminio, ma ha una resistenza a compressione elevatissima. E’ in grado di reggere tranquillamente il peso di una persona. Se pero’ la schiacciate leggermente da un lato, basta una minima pressione per accartocciarla. Bene, quello che e’ successo alle torri e’ del tutto analogo all’esempio della lattina. L’ingresso dell’aereo ha provocato danni ad alcuni dei pilastri perimetrali, questo ovviamente compromette la stabilita’ della struttura, ma non del tutto. Il seguente incendio che si e’ sviluppato, ha portato non la liquefazione dell’acciaio, ma un suo ammorbidimento. Questo ovviamente in tutti quei piani interessati dall’urto. Inoltre, il calore ha modificato pesantemente la resistenza meccanica delle travi utilizzate per i solai. In questo caso, le travi si sono ritirate, a causa della minore resistenza meccanica, tirando le travi perimetrali verso quelle del core centrale.

In questa foto si vede un dettaglio della parte interessata dall’incendio ed in cui e’ chiaramente visibile l’avvicinamento della parete laterale verso l’interno:

Dettaglio dell'incendio con parete che rientra

Dettaglio dell’incendio con parete che rientra

Come detto, questo e’ sintomatico del cedimento meccanico delle travi dei solai.

A questo punto, avete una struttura molto debole in diverse parti. Dopo decine di minuti di incendio, la parte alta, tagliata sotto dall’ingresso dell’aereo, cede sotto il suo peso premendo sulla parte inferiore della torre. Una struttura meccanica gravemente compromessa come quella in esame ad un certo punto non riesce piu’ a resitere al peso e cede su se stessa.

E ‘ dimostrabile questo? Assolutamente si. Sono stati pubblicati diversi articoli con simulazioni FEM, tra l’altro su riviste internazionali, che hanno dimostrato come la caduta delle torri sia perfettamente compatibile, nei tempi e nei modi, con quella dell’attentato avvenuto. Uno di questi e’ scaricabile da questo link:

Usmani

Tra l’altro, proprio a causa del cedimento improvviso sotto il peso, la caduta delle torri e’ risultata quasi istantanea come un corpo in caduta libera. Questo perche’ i piani inferiori che via via venivano interessati, venivano schiacciati da un peso sempre crescente.

Altra considerazione importante, possibile che la torre sia caduta istantaneamente tutta insieme, polverizzando tutto? Anche queste considerazioni sono del tutto false. Prima cosa, come anticipato, la caduta non e’ stata verticale ma i detriti hanno interessato una vasta zona del World Trade Center. Inoltre, non e’ assolutamente vero che si e’ polverizzato tutto. Ci sono diverse prove come questo video:

Video, frammenti

che mostrano la caduta di detriti molto grandi, molto pesanti e soprattutto interi verso il basso.

Altra cosa rimasta in sospeso, cosa dire degli sbuffi che si vedevano durante il crollo delle torri? Per farvi capire meglio, i sostenitori del complotto si riferiscono ad esempi come questo:

Sbuffi di materiale interpretati come detonazioni

Sbuffi di materiale interpretati come detonazioni

Secondo alcuni, questa sarebbe la prova dell’esplosione di alcune bombe lungo la torre. Niente di piu’ falso. Come potete facilmente immaginare, si tratta soltanto dell’aria interna agli edifici che viene compressa per schiacciamento durante la caduta e che riesce a frantumare i vetri esterni. Allo stesso modo, le presunte esplosioni che vengono raccontate da alcuni testimoni durante il crollo, altro non sono che il rumore dei vetri che andavano in frantumi o anche quello delle lastre di cemento che costituivano i pavimenti dei piani. Come detto, a causa della variazione di tenuta dei pilastri del solaio, i pavimenti non possono far altro che cedere e precipitare verso i piani inferiori.

Detto questo, non credo ci dovrebbero essere dubbi sul fatto che la caduta delle torri e’ stata provocata dalla combinazione dell’impatto dell’aereo e dell’incendio che si e’ sviluppato. Come visto, non solo questo e’ documentabile dalle molte prove fotografiche di quel tremendo giorno, ma ci sono anche numerosi articoli a sostegno che dimostrano la veridicita’ delle ipotesi. Solo questi, e il fatto che la dinamica del crollo sia simulabile, dovrebbero smentire tutte quelle voci che cercano evidenze di qualcosa di diverso nel crollo del WTC1 e 2.

Detto questo, passiamo invece all’altro grande mistero di quel giorno, il crollo del WTC7. Per chi non ne fosse a conoscenza, l’area del World Trade Centrer, era composta da diversi edifici, di altezze diverse. L’11 settembre 2001, oltre alle due torri, cadde anche un altro edificio, appunto detto WTC7, che non venne assolutamente colpito da niente. Perche’ e’ importante questo fatto nelle teorie complottiste? Semplice, il fatto che questo sia caduto senza essere stato colpito, indica chiaramente che gli edifici della zona fossero stati minati precedentemente. Evidenza che sosterrebbe le ipotesi viste prima. Tra l’altro, come evidenziato dai complottisti, il WTC7 non puo’ essere stato colpito da detriti per due buone ragioni. La prima e’ che si trova a circa 200 metri dalla torre piu’ vicina e tra i due vi era un altro edificio, chiamato WTC6, che lo proteggeva completamente e che non e’ andato distrutto dopo il crollo della torre. Il secondo motivo e’ ancora piu’ semplice, dal momento che si e’ trattato di un crollo studiato e verticale e in cui i detriti sono stati polverizzati, niente sarebbe potuto cadere cosi’ lontano.

A questa seconda ipotesi abbiamo gia’ abbondantemente risposto, mostrando come i detriti ci sono, anche di notevole dimensione, e dimostrando come la caduta non sia stata verticale. Questa osservazione e’ dunque da scartare a priori.

Resta pero’ l’altra ipotesi. Tra la torre che crolla e il WTC7 c’e’ un altro edificio che non crolla. Come e’ possibile? Inoltre, il WTC7 e’ caduto dopo diverse ore dalle torri, altro aspetto inspiegabile. Per chi non lo sapesse, anche in questo caso, parliamo di un edificio di 47 piani con struttura in acciaio, dunque non un castello di carte che cade da solo per opera del vento.

Per capire questo crollo, e’ necessario vedere la planimetria del World Trade Center, quando ancora esisteva:

Mappa degli edifici del World Trade Center

Mappa degli edifici del World Trade Center

Come vedete, effettivamente il WTC7 e’ completamente protetto dal WTC6 che impedisce a qualsiasi detrito di danneggiare l’edificio.

Spesso pero’, quelli che pensano i complotti, dimenticano che le spiegazioni piu’ semplici sono quelle che andrebbero considerate per prime. Siamo a New York, Stati Uniti di America, dove si costruiscono grattacieli con altezze completamente diverse. Invece di fermarci alla planimetria, vediamo un prospetto della zona con le altezze in scala degli edifici:

Modello 3D degli edifici del World Trade Center

Modello 3D degli edifici del World Trade Center

Notato niente? Guardate quanto e’ alto il WTC7 rispetto al WTC6 che si trova di fronte. Praticamente questo edificio vede benissimo la torre di fronte ed e’ completamente esposto alla caduta dei detriti.

Cosa e’ successo precisamente l’11 settembre 2001?

Durante la caduta della torre piu’ vicina, il WTC7 ha subito alcuni danni strutturali, come riportato in questa foto:

Dettaglio del WTC7 dopo il crollo della torre piu' vicina

Dettaglio del WTC7 dopo il crollo della torre piu’ vicina

Come si vede, e come indicato enlla foto stessa utilizzata nei rapporti ufficiali, il WTC7 ha subito, durante il crollo della torre, danni evidenti ai piani alti. Sempre a causa della caduta di detriti, sono divampati anche incendi all’interno dell’edificio.

E’ strano questo?

Assolutamente no, come ricorderete bene, ci sono stati numerosissimi casi di incendi a terra a causa di detriti in fiamme caduti dalle torri. Uno di questi ha colpito il WTC7 in cui sono divampati incendi.

Allora, anche qui abbiamo un edificio danneggiato, anche se lievemente, ed un incendio in corso. Poi? Quello che e’ successo e’ evidente, l’edificio e’ stato lasciato crollare. Perche’? Ovviamente, tutti gli occupanti erano stati fatti evacuare. I pompieri erano in notevole difficolta’ per tenere sotto controllo le torri. Abbiamo un edifico vuoto, danneggiato e che brucia. Inoltre, per lungo tempo c’e’ stata mancanza di acqua per cui, anche volendo, i pompieri non hanno avuto modo di domare l’incendio all’interno del WTC7. Detto questo, l’edificio e’ stato lasciato al suo destino. In questo caso, come anticipato, ci e’ voluto molto piu’ tempo affinche’ il WTC7 crollasse e infatti, e su questo sono tutti d’accordo, il crollo e’ avvenuto solo nel pomeriggio inoltrato ora di New York.

Dunque, anche per il WTC7 esiste una spiegazione razionale ottenuta dall’analisi condotta fino a questo punto.

Resta da analizzare l’aereo che e’ arrivato contro il pentangono. In questo caso, le teorie complottiste parlano di una manovra impossibile da fare per un aereo di linea dal momento che il punto di impatto e’ tra il piano terra e il primo piano, dunque troppo vicino al terreno, che il carello si sarebbe abbassato da solo sotto una certa quota, ma soprattutto che un velivolo cosi’ basso avrebbe necessariamente fatto danni attraversando la vicina autostrada. Secondo queste ipotesi, in questo caso non si e’ nemmeno trattato di un aereo, bensi’ di un missile cruise. Questo avvalora l’ipotesi secondo la quale non si e’ trattato di un attentato ma di un auto attacco da parte del governo per permettere le future politiche in medio Oriente.

Prima cosa, molte delle foto che trovate in rete e che parlano di foro troppo piccolo e incompatibile con quello che lascerebbe un aereo sono false. Quelle reali, dimenticano di considerare che molte delle parti dell’aereo sono in realta’ estremamente leggere e dunque dotate di potere di penetrazione molto basso, soprattutto se rapportate con una struttura di cemento armato rinforzato come quella del pentagono. Detto questo, mi sento di escludere subito l’ipotesi missile.

Restano pero’ le altre supposizioni. Prima di tutto, e’ assolutamente falso dire che i carrelli degli aerei si abbassano da soli. Inoltre, non mi sembra che sia cosi’ impossibile centrare il bersaglio. Come giustamente fatto notare nelle controipotesi, ogni giorno tutti gli aerei centrano il bersaglio rappresentato dalla pista di atterraggio. Ci sono tantissimi aereoporti in cui le piste sono in posizioni davvero scomode, vicino al mare, deitro le montagne, ecc. Condizioni che devono essere studiate molto bene, ma che vengono eseguite senza problemi.

Inoltre, non e’ affatto vero che il volo radente dell’aereo non e’ passato sulla vicina autostrada. Vi mostro una foto:

Palo divelto sull'autostrada di fronte al pentagono

Palo divelto sull’autostrada di fronte al pentagono

Come vedete, questi sono i piloni dell’illuminazione dell’autostrada che sono stati abbattutti dal passaggio dell’aereo. Questa ipotesi viene utilizzata per mostrare l’incompatibilita’ della traiettoria seguita. Se l’aereo non ha toccato l’autostrada, come ha fatto a volare poi rasoterra vicino al pentagono? Questo implicherebbe una manovra non possibile con un aereo di quelle dimensioni. Questa foto che ho mostrato, come tante altre che trovate in rete, mostrano l’esatto contrario. Al passaggio sull’autostrada, il volo dirottato era gia’ molto basso e puntava dritto contro il pentangono.

Riassumendo, i crolli delle torri gemelle e del WTC7 sono perfettamente compatibili con la versione ufficiale. Inoltre, le simulazioni FEM fatte sugli edifici per studiare la dinamica dell’impatto hanno dato risultati perfettamente compatibili con quelli visti in quel tragico giorno. Questo solo per mentire tutte quelle voci che vorrebbero l’attentato mediante aerei solo una messa in scena per distrarre dalle cariche piazzate all’interno dell’edificio. Come visto, il crollo del WTC7 e’ del tutto compatibile con la caduta dei detriti che hanno dapprima danneggiato l’edificio e poi fatto divampare l’incendio che ha bruciato per ore. Questo dimostra anche la non fondatezza delle ipotesi sulla caduta verticale o sulla demolizione programmata delle torri.

Per quanto riguarda il pentagono, come visto, la traiettoria seguita dall’aereo e’ perfettamente compatibile con quella pensata. Il velivolo ha volato in assetto quasi parallelo al terreno gia’ quando si trovava sopra la vicina autostrda. A riprova di questo, ci sono prove fotografiche che mostrano i pali dell’illuminazione divelti dal passaggio a bassa quota. Questo anche per escludere l’ipotesi quanto mai fantasiosa del missile cruise.

Ultima considerazione. Come detto all’inizio di questo lunghissimo articolo, il mio scopo era solo quello di analizzare i crolli e ragionare sulle tante ipotesi di complotto che si sono alimentate nel corso degli anni. Non voglio fare un trattato di economia e politica internazionale, ne tantomeno parlare di governo centrale degli Stati Uniti. Possiamo dire che gli attentatori erano pagati dal governo USA? Personalmente, credo di no, ma non sta a me dirlo ne tantomeno riuscire a dimostrarlo ragionando scientificamente.

Vorrei pero’ farvi riflettere su un’ultima cosa. A mio avviso, gli attentati dell’11 settembre 2001 hanno mostrato un paese non pronto ad attacchi di questo tipo. Molti fanno ipotesi complottiste ragionando sul fatto che i caccia non si siano alzati per abbattere gli aerei dirottati o che non ci fosse un adeguato sistema di controllo e difesa. Secondo me, il discorso non e’ neanche questo. Gli Stati Uniti, prima del 2001, erano abituati a combattere guerre fuori dai loro confini. Con l’attentato del World Trade Center hanno scoperto che il mondo globalizzato era in grado di portare la guerra anche dentro i loro confini. E’ facile pensare ad una potenza bellica perfetta finche’ questa non viene testata sul campo. Nel caso degli USA, fino a quel momento, il paese pensava di essere invincibile e immune da attacchi di questo tipo. Purtroppo, anche sotto questo aspetto, l’11 settembre 2001 ha segnato un momento di svolta epocale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E-Cat meraviglia o grande bufala?

30 Mag

Viste le numerose richieste di informazioni, chiarimenti e spiegazioni che ho ricevuto, ho deciso di scrivere questo articolo sull’E-Cat. Perche’ non l’ho fatto prima? Semplicemente perche’, a mio avviso, e ne riparleremo dopo, mancavano dei presupposti essenziali per parlare di questa presunta invenzione in termini scientifici.

Ora cosa e’ cambiato?

A parte le numerose richieste ricevute, la rete e’ letteralmente esplosa in questi giorni perche’ sembrerebbe che finalmente sia arrivata la dimostrazione indipendente del funzionamento di questo prodigio.

Bene, analizziamo i fatti e cerchiamo di capire meglio di cosa stiamo parlando.

Per chi non lo sapesse, l’E-Cat e’ una presunta invenzione di Andrea Rossi che produrrebbe energia in un modo non noto. Mi spiego meglio. Si tratta di una sorta di generatore, alimentato da corrente elettrica, che pero’ produce piu’ energia di quanta ne assorbe. E’ strano questo? Assolutamente no. Non pensate che si stia violando qualche principio fisico basilare, semplicemnte si potrebbe sfruttare una qualche reazione chimica, fisica o sconosciuta mediante la quale si innescano dei processi esoenergetici, cioe’ che producono energia.

Poiche’ questo punto e’ molto importante, cerchiamo di capirlo bene e in modo semplice. Prendiamo, ad esempio, la fissione nucleare. Mediante questo proceso, nuclei di elementi fissili vengono spaccati in elementi piu’ leggeri, mediante neutroni, producendo energia. Ora, per produrre i neutroni da sparare avete bisogno di energia, ma quella che otteete alla fine del processo e’ maggiore di quella che avete speso, perche’ siete riusciti ad estrarre un’energia dall’interno del nucleo. Avete creato qualcosa dal nulla? No, avete semplicemente sfruttato un processo per produrre questa energia traformandola in qualcosa di utilizzabile ai vostri scopi.

Bene, l’invenzione di Rossi dovrebbe fare un qualcosa di equivalente. L’invenzione promette infatti di produrre molta piu’ energia di quella che deve essere immessa, sfruttando un processo, almeno al mometo, sconosciuto.

Qual e’ il carburante dell’E-Cat? Piu’ o meno il sistema funziona in questo modo: mettendo insieme Nichel e Idrogeno e fornendo un’energia iniziale al sistema, si dovrebbe innescare una reazione fortemente esoenergetica, in cui viene prodotta 5 o 6 volte piu’ energia. Attenzione pero’, gli ingredienti non bastano. Per poter funzionare, c’e’ bisogno anche di un catalizzatore da aggiungere al miscuglio Ni-H, tenuto segreto per motivi di spionaggio industriale.

Perche’ spionaggio industriale? Semplice, parlando di E-Cat, non stiamo parlando di una ricerca scientifica, bensi’ di una invenzione che deve essere lanciata sul mercato. Detto in altri termini, che deve essere venduta.

Quasta cosa ci sconvolge? Assolutamente no. Chiunque di noi puo’ pensare ad un’invenzione commerciale fattta esclusivamente per guadagnare. Non c’e’ nulla di male in questo, purche’, come vedremo, ci siano tutti i presupposti di affidabilita’ dell’invenzione.

Per chi gia’ conoscesse l’E-Cat, notate che ho parlato di una misteriosa reazione. Su molti giornali e siti internet, vedete che si parla di “fusione fredda” o “reazione nucleare a bassa energia”, ho omesso appositamente di tirare in causa questi concetti. Perche’? La fusione nucleare e’ quel processo secondo il quale dei nuclei leggeri vengono fusi tra loro per produrne uno piu’ grande, producendo energia. Questa ‘e la reazione utilizzata dal sole e dalle stelle per produrre energia, ed e’ quella a cui si vorrebbe puntare per sostituire le centrali nucleari a fissione. Il motivo e’ molto semplice, favorevoli o meno al nucleare, il punto piu’ discusso su queste tematiche e’ quello della produzione di scorie, cioe’ elementi nucleari di scarto con vite medie lunghe, cioe’ che restano attivi per molto tempo.

Qual e’ il problema principale della fusione?

Come detto, si devono fondere tra loro due nuclei leggeri per formarne uno pesante. Bene, cosa c’e’ dentro il nucleo? Neutroni, particelle neutre, e protoni, particelle di carica positiva. Come sappiamo bene, se avviciniamo due cariche dello stesso segno, come i protoni dei due nuclei, questi si respingono tra loro a causa della repulsione coulombiana. Ora pero’, se riuscissimo ad avvicinare moltissimo i due nuclei, si arriverebbe ad un punto in cui la forza nucleare forte, che e’ attrattiva, sarebbe molto maggiore della repulsione dovuta alle cariche elettriche, e i due nuclei si attirerebbero tra loro. Niente di complicato. Mentre li avvicinate, i due nuclei si respingono, quindi dovete spingerli con forza per farli avvicinare. Quando poi riuscite ad arrivare oltre una certa distanza, nota come barriera di Coulomb, a questo punto i due nuclei si attirano da soli e si innesca la fusione. Il problema delle centrali a fusione e’ proprio quello di trovare il modo piu’ conveniente ed efficace per fornire l’energia necessaria al superamento della barriera di Coulomb.

E la fusione fredda?

Come detto, parlando di fusione si parla di processi ad altissima temperatura, come avviene nelle stelle. La fusione fredda invece avverrebbe a temperatura ambiente. Al contrario di quanto si legge spesso in rete, non esitono evidenze di reazioni di questo tipo. Storicamente, i primi a parlare di fusione fedda furono gli americani Fleischmann e Pons, cui seguirono altre prove. Per nessuna di queste pero’, esiste la certezza scientifica che si sia trattato realmente di una reazione nucleare di questo tipo e, ancora oggi, c’e una forte discussione a proposito.

Perche’ per l’E-Cat si parla di fusione fredda?

In diverse fonti si parla della reazione tra Nichel e Idrogeno che verrebbero fusi tra loro per produrre Rame. Questo sarebbe il processo che avverrebbe a bassa energia e che fornirebbe l’energia dell’E-Cat. Ripeto, non sono d’accordo su questo punto e a breve mostreremo anche il perche’.

Prima di tutto, rivediamo un po’ la storia di questo E-Cat. Nel 2011 si e’ iniziato a parlare di questo generatore quando Rossi ha condotto due test rendendo pubblici i risultati. In questi esperimenti, fornendo un’energia al macchinario intorno ai 35 KWh, si sarebbero prodotti in un caso 70 KWh, nell’altro 160 KWh. Stando ai numeri, la reazione sarebbe effettivamente esoenergetica e molto conveniente. Qual’era il problema di questi test? Semplicemente, non ci sono prove scientifiche della validita’ dei risultati perche’ il tutto e’ stato condotto in maniera autonoma e senza un confronto indipendente. Cosa significa? Ai test sono stati invitati giornalisti rigorosamente selezionati, in veste di spettatori. Mi spiego meglio. I giornalisti sono stati invitati in questo capannone e hanno potuto vedre e filmere il test di Rossi riportando solo ed esclusivamente quelllo che l’inventore del macchinario affermava.

Ora, vedetela in questo modo. Un signore vi invita ad una dimostrazione in cui vi mostra una scatola nera in cui mette 10 euro e dall’altra parte ne escono 20. Basta, non vi viene detto altro ne’ vi vengono forniti dettagli su cosa c’e’ dentro la scatola. Non parlo a caso di scatola nera, infatti, molte delle parti dell’apparecchiatura sono tenute coperte e chiuse alla vista. Ovviamente, si tratta dei componenti fondamentali del sistema, incluso anche il misterioso catalizzatore che darebbe il via alla reazione.

Cosa dice la scienza a proposito? Come e’ facile immaginare, questo risultato non e’ stato accettato dalla comunita’ scientifica. Per sostenere qualcosa di questo tipo, seguendo i canoni della scienza, si dovrebbe mostrare il macchinario, studiare la reazione che avviene e il tutto deve essere ripetibile ovunque nelle stesse condizioni. Se queste informazioni mancano, il test e’ del tutto simile a quello di un’illusionista che vi mostra l’assistente tagliata in due all’interno di una scatola.

Come forse sapete, a seguito di questi test, e del completo rifiuto della scienza su questi risultati, Rossi e’ divenuto un “mito telematico”, metafora di quel genio che trova l’invenzione del secolo per il bene dell’umanita’ e a cui la scienza mette i bastoni tra le ruote perche’ corrotta dalle grandi multinazionali.

Se invece di gridare allo scandalo, si ragionasse su quanto detto, tutti si renderebbero conto che affermazioni di questo tipo non possono essere credibili se non verificate sperimentalmente. Il problema energetico dell’umanita’ non si risolve con la fiducia sulla parola, ma con numeri chiari verificabili e indiscutibili.

Perche’ ora, come anticipato, si parla di verifica indipendente? Nei mesi scorsi sarebbero stati condotti altri test. Questa volta pero’, avrebbero partecipato anche scienziati di diverse parti del mondo che avrebbero assistito agli esperimenti. Anche in questo caso, i risultati avrebbero mostrato un guadagno energetico del processo, confermando dunque la correttezza del metodo su cui si basa l’E-Cat.

Attenzione, facciamo una considerazione. Come premesso, in ambito commerciale, e’ lecito parlare di segreto industriale. Le regole del commercio sono diverse da quelle della scienza. A mio avviso, se il tutto venisse mostrato ad un gruppo di scienziati affidabili ed in grado di fornire un’opinione scientifica, sicuramente il test acquisterebbe di credibilita’. Purtroppo, non e’ andata cosi’.

L’altro punto fondamentale su cui si e’ dibattuo a lungo e’ la mancanza di una “peer review” sull’esperimento. Cosa significa? Quando si pubblica un articolo su una qualche rivista internazionale, si passa attraverso il processo di “referaggio”. Prima di pubblicare il lavoro, la rivista nomina un altro ricercatore internazionale di chiara fama ed esperto del settore che ha il compito di analizzare in dettaglio il contenuto dell’articolo. Se ci sono punti poco chiari, l’esperto puo’ chiedere maggiori spiegazioni al fine di chiarire il tutto ed evitare, nella migliore delle ipotesi, errori sfuggiti agli autori. Solo al termine di questo processo il vostro lavoro, se accettato, viene pubblicato.

Partendo proprio da questo punto, gli ultimi test seguiti dal gruppo di scienziati avrebbero risolto anche questo problema.

Perche’?

Solo pochi giorni fa, e’ stato pubblicato un articolo sull’archivio della Cornell University, che trovate a questo link:

ArXiv E-Cat

A questo punto, tutti i dubbi iniziali dovrebbero essere risolti: il test e’ stato eseguito indipendentemente da un gruppo di ricercatori e questi hanno anche pubblicato un articolo, ovviamente confermando i risultati dei primi test.

Cosa c’e’ che non va?

Prima di tutto, quello di cui vi ho dato il link, non e’ un articolo su rivista internazionale che ha subito un processo di peer review. Il database in questione e’ semplicemente un archivio di articoli in cui i ricercatori possono mettere i loro lavori. Non c’e’ nessun controllo sul contenuto degli articoli, a parte la buona fede dei ricercatori stessi. Generalmente, almeno nel campo della fisica, i lavori vengono caricati su arXiv prima che questi vengano pubblicati sulle riviste, cioe’ mentre e’ in corso il processo di review. Detto questo, non e’ assolutamente risolto il problema del peer review per l’E-Cat.

Purtroppo, neanche la prima critica e’ stata risolta. Come potete leggere nel testo dell’articolo, non si e’ trattato assolutamente di una verifica indipendente, ma solo di uno spettacolino riservato a persone esperte del settore. Cosa significa? Nei primi test erano stati invitati dei giornalisti, ora dei ricercatori, ma lo svolgimento e’ stato esattamente lo stesso. I ricercatori non hanno potuto toccare nulla, ma si sono limitati a guardare il test condotto da Rossi nei suoi laboratori. Inoltre, molte delle parti del sistema su cui si era discusso, sono rimaste chiuse all’interno di scatole nere in cui era impossibile guardare dentro e, come e’ facile pensare, tra queste vi era anche il misterioso catalizzatore. L’articolo di cui stiamo parlando e’ dunque un insieme di osservazioni e considerazioni fatte dai ricercatori.

Cosa e’ cambiato rispetto al passato? Ovviamente, i ricercatori intervenuti hanno potuto misurare il calore in uscita mediante una termocamera, valutando in questo modo sia la potenza in uscita che quella in ingresso utilizzando sistemi elettrici. A parte al correttezza o meno di questo processo indiretto e della valutazione dell’incertezza ottenuta misurando la potenza con una termocamera, non  si e’ assolutamente trattato di una prova “indipendente”.

C’e’ anche qualche altra considerazione importante da fare. Come detto in precedenza, a mio avviso non si e’ trattato di fusione fredda. Un processo di questo tipo necessariamente producce radiazione in uscita. Effetto non riportato in nessun caso e impossibile da schermare in sistemi di questo tipo. Tra l’altro, conosco personalmente uno dei ricercatori intervenuti ed e’ un esperto di radioprotezione dell’Universita’ di Uppsala in Svezia.

Oltre a questo, la quantita’ d rame che si sarebbe prodotta corrisponderebbe ad un rendimento del sistema molto piu’ alto di quello che ci si aspetta e soprattutto il rame in questione sarebbe non eterogeneo, cioe’ mancano isotopi diversi dalla forma piu’ commerciale e abbondamente in natura.

Ulima considerazione scientifica, dal punto di vista energetico, la fusione di nichel e idrogeno sarebbe possibile e verrebbe prodotto rame, ma la barriera coulombiana per questi nuclei e’ elevatissima. Questo solo per dire che un processo del genere a bassa energia e’ scientificamente molto difficile da digerire. Teoricamente si potrebbe citare l’effetto tunnel, ma questo non spiegherebbe neanche la certezza della reazione di fusione cosi’ come altri processi quantistici non deterministici.

Concludendo, alla luce delle considerazioni fatte e degli ultimi aggiornamenti, non pssiamo assolutamente affermare che l’E-Cat sia un sistema reale e che possa essere accettato dalla scienza. Questo non significa che potrebbe esistere questo generatore in grado di fare quello che Rossi promette. Semplicemente, se anche esistesse, non e’ comprensibile la reazione su cui sarebbe basato e soprattutto mancano dati certi su cui ragionare e da cui estrarre certezze scientifiche. Al momento, almeno secondo me, siamo ancora al livello dll’illusionista che taglia l’assistente con la sega.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le esperienze di pre-morte

17 Mar

Su suggerimento di un nostro lettore, vorrei parlarvi in questo articolo delle cosiddette esperienze di “pre-morte”. Con questo termine si intendono quelle esperienze vissute da persone che, a causa di eventi traumatici o malattie terminali, hanno sperimentato la soglia della morte potendo poi tornare indietro. Questo genere di esperienze vengono anche chiamate NDE, dall’inglese “Near Death Experiences”.

Premettiamo subito che in questo caso ci stiamo avventurando in un terreno molto complesso. Come vedremo infatti, secondo molti questo genere di esperienze non sono altro che la conferma dell’esistenza del paradiso o comunque di una vita dopo la morte. Indipendentemente da quello che ognuno di noi pensa, vogliamo concentrarci solo ed esclusivamente su queste esperienze appunto per cercare di capire se e come le NDE possano avere una spiegazione scientifica.

2476051569_8dbbd2c1d2

Leggendo diversi casi di NDE, ci si accorge che molto spesso questi racconti hanno diversi punti in comune. Molti soggetti parlano di un lungo tunnel scuro con una forte luce in fondo. Spesso si sente invece di una bellissima sensazione di pace e di un’astrazione fuori dallo spazio e dal tempo. Alcuni parlano anche della visione di un essere di luce che molti identificano in Dio. In moltissimi casi poi, le persone che raccontano di esperienze di premorte parlano di incontri con altri esseri e spesso parlano di persone care gia’ decedute e che li avrebbero tranquillizzati e accompagnati in questa loro esperienza.

In caso di NDE succeduta ad un evento traumatico, molti soggetti dicono di “aver rivisto tutta la loro vita scorrere davanti come in un film”. In realta’, nelle dichiarazioni rilasciate non si parla mai di “tutta la vita”, ma di episodi particolarmente significativi e che sono riaffiorati dai ricordi. In alcuni casi, alcuni soggetti parlano di ricordi completamente dimenticati e che vengono rivissuti in quei momenti.

Analogamente a questi punti in comune, molto spesso alcuni parlano di esperienze extra corporee. In diversi racconti, soprattutto a seguito di eventi traumatici come incidenti stradali o complesse operazioni, molti dicono di aver visto quello che succedeva al di fuori del proprio corpo e di aver osservato tutta la scena come dei semplici spettatori di se stessi.

Chi sono questi soggetti che hanno vissuto esperienze di pre-morte? In realta’ esistono diverse categorie tra cui la principale, come detto sopra, e’ quella delle persone che sono arrivate ad un passo dalla morte. Encefalogramma piatto, respirazione assente o arresto cardiocircolatorio sono alcune delle cause che determinano questo stato di pre-morte. Oltre a questi, vi sono innumerevoli altri casi come il risveglio dal coma, le fasi terminali di malattie degenerative o anche le lunghe anestesie per operazioni complesse.

La letteratura sulle esperienze di pre-morte e’ estremamente vasta. Vi sono moltissimi casi documentati e, come detto, molti contraddistinti da punti in comune. Esiste anche un categoria di casi celebri. Lo psichiatra Jung ha parlato della sua esperienza a causa di un coma successivo ad un incidente ma anche Hugo, Tolstoj e Hemingway riportano nelle loro biografie casi di questo tipo.

Proprio la vasta letteratura e i numerosi punti in comune ci ricordano immediatamente un altro fenomeno simile che abbiamo visto in questo post:

Abduction e falsi ricordi

Le abduction, cioe’ i rapimenti da parte di alieni, che tante persone dicono di aver subito, presentano tratti molto simili ai casi di premorte. Come visto, in questo caso si parla di falsi ricordi condizionati dai numerosi racconti letti o ascoltati e che, come dimostrato dal punto di vista medico, possono creare dei ricordi del tutto simili a quelli reali della persona.

Probabilmente, ovviamente senza puntare il dito contro nessuno, ma solo ragionando su quanto riportato, alcuni casi di esperienza di pre-morte potrebbero essere ricondotti ai falsi ricordi cosi’ come avviene per i rapimenti alieni. In tal senso, forse spinti dai tanti racconti che tutti i giorni si sentono, alcuni potrebbero aver subito questo processo di creazione di un ricordo che in realta’ non e’ relativo ad un esperienza veramente vissuta.

Nonstante questo pero’, esiste anche una spiegazione scientifica sui casi di pre-morte.

Andiamo con ordine e cerchiamo di analizzare i tanti punti in comune relativi alle esperienze raccontate dai protagonisti.

Ovviamente, dobbiamo contestualizzare queste esperienze nel momento particolare in cui vengono vissute. Come detto, stiamo parlando di momenti relativi ad uno stato molto vicino all morte. Questo particolare non deve essere dimenticato. Con questo intendiamo che le persone che vivono queste esperienze sono molto spesso gravemente malate o in un momento estremamente traumatico.

La sensazione di essere morti, ad esempio, e’ stato dimostrato essere indotta da una stimolazione anomala della corteccia prefrontale e parietale del nostro cervello. In particolare, la corteccia parietale determina il nostro stato di attenzione, mentre quella prefrontale puo’ provocare allucinazioni. Quest’ultima ha un ruolo determinante, per esempio, in particolati malattie come la schizofrenia. La stimolazione anomala di queste due regioni del cervello puo’ provocare la sensazione di essere morti.

La sensazione di osservare il proprio corpo dall’esterno, che come visto e’ comune in molte esperienze di pre-morte, puo’ essere invece ricondotta alla paralisi del sonno, cioe’ a quella sensazione che molte persone provano prima di addormentarsi o nei momenti che precedono il risveglio. In questo caso, quella che viene coinvolta e’ giunzione temporo-parietale destra del cervello responsabile della confusione sensoriale con cui si percepisce il proprio corpo.

Un punto molto delicato e su cui spesso si dibatte mettendo appunto in relazione queste esperienze con l’esistenza del paradiso e’ invece l’incontro con i cari defunti. In questo caso, la spiegazione scientifica e’ da ricercarsi nella dopamina, un neurotrasmettitore in grado di provocare allucinazioni. La dopamina presenta valori anomali, ad esempio, nei malati di Parkinson. Ricordiamoci sempre che esperienze di questo tipo intervengono dopo eventi traumatici in cui il nostro corpo non presenta uno stato normale di funzionamento ed in cui i neurotrasmettitori in circolo possono presentare concentrazioni anomale.

Sempre sulla stessa linea, abbiamo visto come molti parlano di episodi cruciali della propria vita rivisti in un attimo. Anche in questo caso, la causa e’ da ricercarsi a livello cerebrale ed in particolare nel locus ceruleus, la regione atta alla produzione di noradrenalina. I valori di questo ormone aumentano notevolmente in presenza di traumi e il locus ceruleus e’ strettamente connesso con l’amigdala e l’ipotalamo, regolatori rispettivamente delle emozioni e della memoria.

In ultimo, la sensazione principale che quasi tutti i soggetti riportano e’ quella di percorrere un lungo tunnel con una luce alla fine. Anche in questo caso, dobbiamo pensare che stiamo parlando di soggetti che hanno subito forti traumi. Quando gli occhi ricevono una quantita’ troppo bassa di sangue e ossigeno, a causa ad esempio di coma o arresto cardiocircolatorio, il campo visivo si stringe notevolmente dando appunto la sensazione di osservare un tunnel buio. La luce conclusiva di cui si parla non e’ altro che la parte rimasta attiva del campo visivo che dunque spicca notevolmente rispetto alle altre regioni buie.

Concludendo, come nel caso dei rapimenti alieni, non vogliamo assolutamente denigrare o mettere in ridicolo coloro che riportano queste esperienze. Come visto in questo articolo pero’, e come riportato in diversi articoli apparsi su riviste scientifiche, molti degli aspetti riportati nei casi di pre-morte possono essere ricondotti a malfunzionamenti del nostro organismo, del tutto comprensibili in uno stato post traumatico. Personalmente, non voglio discutere in questa sede l’esistenza o meno di una vita dopo la morte o del paradiso. Semplicemente, non trovo corretto mettere in relazione questi aspetti con le esperienze di pre-morte o, peggio ancora, utilizzare queste ultime come dimostrazioni inconfutabili di una divinita’ o di un’esistenza post terrena. Teniamo le due cose scorrelate tra loro. Ad oggi, molti passi avanti sono stati fatti nella comprensione del nostro cervello, ma, come sappiamo bene, questo organo ancora oggi presenta moltissimi lati ancora da scoprire e ci vorrano ancora molti anni prima che il suo funzionamento sia del tutto compreso.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Haarp, la causa di tutti i mali!

28 Dic

Il titolo del post la dice molto lunga. Vorrei tornare nuovamente a parlare del sistema Haarp, dal momento che viene molto spesso citato su tantissimi siti catastrofisti, complottisti o denigratori della scienza in generale.

Di questo sistema abbiamo gia’ parlato in questo post:

Haarp e terremoti indotti?

mostrando il vero scopo scientifico di questa installazione, e mostrando in particolare il perche’ si fanno questi studi, perche’ proprio in Alaska e anche perche’ si usano queste tipologie di onde nella ionosfera. In soldoni, abbiamo gia’ parlato di Haarp sotto il profilo ufficiale e scientifico. Restano pero’ da discutere molte ipotesi, alcune veramente fantasiose, che vedrebbe in Haarp una potente arma pronta a fare fuoco sugli esseri umani.

Array di antenne nell'istallazione Haarp

Array di antenne nell’istallazione Haarp

Oltre al gia’ citato articolo, piu’ volte abbiamo chiamato in causa questa installazione per rispondere a tutte quelle fonti che vorrebbero Haarp colpevole di terremoti in varie parti del mondo, della formazione di strane nuvole in cielo o anche solo un contributo per aumentare la distruzione apportata dalle scie chimiche.

Nel prossimo articolo, vi parlero’ sempre di Haarp, ma per rispondere agli ultimi articoli apparsi in rete che lo vedrebbero come una sorgente del “raggio della morte” di Tesla. Prima di poter rispondere a queste fonti e’ necessario aprire una parentesi sull’installazione e sulle basi “scientifiche” mosse dalle tante accuse.

In realta’, al solito basta utilizzare la rete internet in modo giusto per avere tutte le informazioni che si cercano. Stranamente, ovviamente sono ironico, se cercate Haarp sui motori di ricerca, trovate la homepage dell’esperimento con tutte le notizie tecniche a riguardo:

Sito ufficiale Haarp

Ora, molti di voi staranno pensando: “certo, sul sito internet mica mettono la verita’, scrivono solo quello che fa piu’ comodo!”. Diciamo che in linea di principio anche questo potrebbe essere un punto di vista accettabile. Per rispondere a questa affermazione, andiamo allora a vedere, tra i sostenitori del complotto, quali sono le basi scientifiche chiamate in causa.

Prima di tutto, fatemi fare un piccolo appunto. Sul sito ufficiale di Haarp, trovate anche una pagina di FAQ con incluse le risposte alle accuse piu’ comuni mosse in rete:

Haarp, FAQ

Detto questo, sfogliando i vari siti complottisti e catastrofisti, trovate che il principale accusatore di questa installazione e’ un certo prof. Fran de Aquino.

Chi e’ costui?

Basandoci su quello che troviamo in rete, scopriamo che Fran de Aquino e’ un grande fisico, docente all’universita’ di Maranhao in Brasile, autore di moltissime pubblicazioni su riviste internazionali, scopritore della quantizzazione della gravita’ e profondo conoscitore delle onde radio e dei meccanismi di interazione delle onde ELF con la ionosfera.

Un curriculum niente male. Sicuramente non conoscevo un collega cosi’ illustre per mia ignoranza. Perdonatemi …

Possibile che un genio di questa levatura sia cosi’ passato in sordina?

Andiamo con ordine e passiamo attraverso il curriculum di Fran de Aquino. Cercando in rete, trovate che de Aquino e’ realmente un docente di questa universita’ brasiliana e ha addirittura un suo blog personale:

Blog Fran de Aquino

Leggendo il riquadro a lato, vedete che vengono confermate le cose dette sopra sulla sua attivita’ e che trovate anche in rete, stranamente pero’ solo su determinati tipi di siti.

Andiamo con ordine dunque e cerchiamo di capire meglio.

Su alcuni siti viene addirittura messo il collegamento al sito di arXiv con le numerose, cosi’ viene detto, pubblicazioni di questo ricercatore:

arXiv de Aquino

Solo 14 pubblicazioni? Un po’ poche per un genio di questa levatura. Facciamo un piccolo esperimento. Non per mettermi al centro dell’attenzione, ma solo per avere un metro di giudizio su cui basarmi, ho cercato invece il mio nome sempre su arXiv. Questo e’ il risultato:

arXiv Martini KLOE

ho selezionato solo uno degli esperimenti a cui partecipo e ho trovto 24 risultati, quasi il doppio di de Aquino. Non commento oltre su questo punto.

Andiamo pero’ avanti nel suo CV.

Su internet e sul suo blog trovate: “scopritore della quantizzazione della gravita’”. Ora, questa e’ la cosa piu’ assurda in assoluto. Vi spiego brevemente. Nella teoria quantistica, scopo ultimo e’ quello di unire tra loro le quattro forze fondamentali: forte, dobole, elettromagnetica e gravitazionale. Mentre per le prime 3 il meccanismo teorico e’ abbastanza chiaro, a livello scientifico, la forza di gravita’ risulta molto diversa dalle altre. Per poter unire questa ultima forza alle altre, e’ necessario ricorrere a teorie di nuova fisica, ovvero diversa da quella quantistica relativistica, ricorrendo ad esempio alla teoria delle stringhe, delle brane, della supergravita’, ecc. Tutte teorie molto affascinanti e attualmente sotto studio da parte dei teorici. Come sapete bene, ad oggi non si ha certezza di quale di queste ipotesi potrebbe essere quella corretta, sempre se una di queste lo sia.

Dunque? Fran de Aquino ha quantizzato la gravita’? Capite bene l’assurdita’ scientifica di questa affermazione, fatta ovviamente su un blog pubblico frequentato da non addetti ai lavori, che forse potrebbero essere portati fuori strada sparando termini pomposi ma senza senso.

Fin qui abbiamo visto tanto fumo, ma assolutamente niente arrosto. Cerchiamo di capire quando, come e dove Fran de Aquino avrebbe parlato di Haarp.

Ovviamente i siti complottisti sono molto attenti alla bibliografia e vi indicano il link dove vedere l’articolo scientifico in questione:

Fran de Aquino, Haarp

La prima cosa che mi e’ saltata agli occhi e’ la mancanza di qualsiasi dicitura che rimandasse ad una rivista scientifica o a qualche istituzione internazionale.

Leggendo anche solo l’abstract, cioe’ il riassunto dell’articolo, trovate scritto di come Haarp sarebbe in grado di generare terremoti, di modificare il clima mondiale, di variare addirittura la struttura del tempo tutto questo mediante l’emissione di onde ELF con una potenza di 3.6GW.

Attenzione a questo punto.

Vi ho gia’ riportato sia il post in cui abbiamo parlato di Haarp, sia il sito ufficiale dell’installazione. La potenza di emissione di onde da parte di Haarp e’ di 3.6MW, cioe’ milioni di Watt, non GW, cioe’ “miliardi” di Watt. Forse il professor de Aquino non ha ripassato i multipli delle unita’ di misura comunemente usate in fisica!

Vi farei notare un altro particolare molto importante. Il link che vi ho dato per scaricare l’articolo in questione, punta ad un sito che si chiama “viXra.org”. Prima, ad esempio, per vedere il numero di articoli pubblicati da un ricercatore, facevamo riferimento ad un sito che si chiama arXiv.org. Molto curioso, un nome e’ l’anagramma dell’altro.

Per spiegare questo punto, devo illustrarvi molto brevemente come funziona il processo di pubblicazione di un articolo scientifico.

Immaginate di voler pubblicare un articolo di fisica. La prima cosa che fate e’ inviare il vostro lavoro al sito arXiv.org che e’ un database ufficiale di articoli scientifici gestito dalla Cornell University. Questo sito valuta inizialmente il vostro articolo e lo mette sotto forma di pre-print. Questa dicitura indica gli articoli scientifici non ancora pubblicati su riviste ufficiali. Successivamente, mandate il vostro articolo ad una rivista. Qui inizia quello che si chiama, in gergo, processo di referaggio. La rivista nomina un referee, esperto internazionale nel campo della vostra pubblicazione, che deve valutare il lavoro. Il referee giudica il tutto e puo’ decidere di chiedere spiegazioni o approfondimenti su una parte del lavoro, accettare il lavoro o anche rigettarlo. Dopo questo processo, se tutto va nel verso giusto e il vostro lavoro e’ meritevole, l’articolo viene pubblicato su quella rivista. Come potete immaginare, le riviste non sono tutte uguali tra loro, ma vengono classificate in base all’importanza scientifica. Maggiore e’ l’impatto scientifico della rivista, piu’ difficile sara’ il processo di referaggio.

Premesso questo, che differenza c’e’ tra arXiv e viXra? Abbiamo detto che arXiv e’ il database ufficiale. ViXra in realta’ e’ un database privato creato per accogliere tutti i lavori che sono stati rigettati anche nella fase di pre-print. Per conferma, vi riporto anche la pagina di wikipedia che parla di questo servizio:

Wikipedia, viXra

Dunque, il lavoro di de Aquino su Haarp non e’ stato pubblicato su nessuna rivista scientifica ed e’ stato rigettato anche dal database ufficiale della Cornell University. Perche’ questo? Semplicente perche’ e’ stato valutato scientificamente sbagliato!

Quindi? Di cosa stiamo parlando?

Le basi scientifiche su cui si baserebbero le teorie complottiste su Haarp sono proprio queste. Vi invito a cercare su internet il nome di Fran de Aquino e verificare da voi stessi come viene indicato questo ricercatore sui tanti siti complottisti. Siamo di fronte a teorie completamente campate in aria, prive di qualsiasi fondamento scientifico e rifiutate da qualsiasi rivista di settore.

Ovviamente, capite bene il giochino. Leggendo su qualche sito di un ricercatore universitario, autore di tantissime ricerche, scopritore di questo e quest’altro che parla di Haarp mostrando, attraverso un articolo, le conseguenze dell’utilizzo delle ELF nella ionosfera, chiunque potrebbe credere a queste teorie e credere dunque al grande complotto.

Fate sempre attenzione a tutto quello che vi viene detto, soprattutto su internet. E’ molto facile fornire informazioni sbagliate e spingere il pensiero comune in una direzione precisa. Cercate sempre di informarvi autonomamente. Solo in questo modo potrete avere un metro di giudizio insindacabile e non influenzato da terze parti.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

 

 

 

 

2012? No, volevamo dire 2116 …

2 Nov

Partiamo da quello che sappiamo e che tutti i giorni TV, internet e giornali ci ricordano, il 21 Dicembre 2012 ci sara’ la fine del mondo o, se preferite, un grande cambiamento per l’umanita’, l’inizio della eta’ dell’oro, la rivelazione, ecc ecc. Sappiamo anche che questa data indica la fine del Lungo Computo Maya. Del perche’ questa data abbia assunto un significato cosi’ nefasto ci siamo gia’ occupati in questo post:

Perche’ il mondo dovrebbe finire?

Nell’ultimo anno poi, diversi nuovi ritrovamenti Maya ci hanno fatto prima ricredere sulla fine del calendario e poi nuovamente confermare questa data:

Scoperto in Guatemala il piu’ antico calendario Maya

Nuova conferma Maya al 2012

Nuovo ritrovamento conferma il 21 Dicembre

Della struttura del calendario, della sua conclusione e di cosa questa data significasse per i Maya ne abbiamo discusso in dettaglio nel libro “Psicosi 2012. Le risposte della scienza”.

Perche’ stiamo tornando su questi argomenti? In questi ultimi giorni si e’ tornati abbondantemente a parlare della data conclusiva del Lungo Computo a causa di una nuova sensazionale notizia. Stando a quanto si legge, soprattutto su web, un nuovo studio metterebbe in discussione la data del 21 Dicembre 2012 come giorno conclusivo del calendario Maya. Lo studio sarebbe stato realizzato da due fratelli, Bohumil e Vladimir Bohm, rispettivamente un matematico ed un docente di storia a cultura Maya, e pubblicato sulla rivista scientifica Astronomische Nachrichten.

Lo studio condotto dai fratelli Bohm riguarda direttamente il problema della correlazione, cioe’ come convertire le date dal Lungo Computo nel nostro calendario gregoriano. Secondo l’articolo, l’associazione che porta al 21 Dicembre 2012 non sarebbe in realta’ corretta. Nel precedente calcolo, condotto dall’archeologo John Eric Sidney Thompson, non sarebbe stato considerato un lungo periodo di guerra che blocco’ il conteggio dei giorni nel sistema Maya. Se si corregge l’errore riaggiornando il conteggio, ci si accorge che la data conclusiva del Lungo Computo viene spostata in avanti e precisamente al 2116, cioe’ ben 114 anni piu’ tardi.

Cominciamo subito col dire che l’articolo e’ vero e gli autori sono veramente esperti come riportato nella notizia che circola in queste ore. Quello che invece e’ completamente falso e’ che si tratta di una notizia dell’ultim’ora. Questo studio e’ stato pubblicato nel 2008, cioe’ ben 4 anni fa. La rivista in questione e’ a pagamento, ma a dimostrazione di quanto affermato, vi riporto il link dove potete vedere la prima pagina dell’articolo:

Articolo fratelli Bohm

Raffigurazione dei fratelli Bohm

Dunque tutto rimandato al 2116? Diciamo si e no. Come detto sopra, la corretta conversione tra le date espresse nel sistema del Lungo Computo e il nostro attuale calendario Gregoriano e’ affetta dal problema della correlazione. Di questo se ne parla in dettaglio nel libro “Psicosi 2012. Le risposte della scienza”.

Cerchiamo di capire meglio questo problema. Esistono diversi ritrovamenti Maya che indicano eventi specifici e riportano l’indicazione temporale espressa nel Lungo Computo. Di questi, gli eventi utili per definire la conversione sono quelli astronomici. Se ad esempio troviamo una raffigurazione di un’eclissi solare possiamo tornare indietro e vedere quando sono avvenute le eclissi solari. Ora pero’, quasi tutti gli eventi astronomici sono caratterizzati da una certa ciclicita’. Questo significa che con questo metodo possiamo avere piu’ soluzioni possibili per la conversione delle date. Allo stesso modo dunque, non esiste una relazione univoca tra la fine del lungo computo e il nostro calendario.

La data del 21 Dicembre 2012 non e’ affatto univoca. Esistono moltissime altre ipotesi di data per la fine del lungo computo, anche molto diverse tra loro. Per darvi un’idea, sono state fatte ipotesi diverse anche di migliaia di anni. La soluzione proposta dai fratelli Bohm e’ solo una di queste.

Cosa significa questo? In primis che la notizia che stiamo analizzando e’ uscita fuori in questi giorni per qualche motivo, ma non e’ affatto una novita’. Inoltre, la soluzione del 2116 e’ solo una delle tante proposte fatte per la fine del Lungo Computo Maya. Come abbiamo visto, non esiste una data unica conclusiva per il conteggio, e dunque anche il 2012 e’ solo una delle ipotesi tra le tante fatte.

Per capire come era strutturato il sistema di calendari Maya e soprattutto per affrontare in dettaglio il problema della correlazione, vedendo anche le varie ipotesi fatte nel corso degli anni da archeologi, matematici e studiosi in generale, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.