Tag Archives: quanto

Earth Overshoot Day: una riflessiva ricorrenza

19 Ago

Se stamattina vi siete dilettati nel leggere le notizie nelle rubriche di scienza dei principali quotidiani, non vi sarà sicuramente sfuggita la notizia riguardante il cosiddetto Earth Overshoot Day. Come da titolo, credo che sia importante, prima di tutto, comprendere a pieno cosa questo nome significhi ma, soprattutto, aprire una riflessione per il futuro energetico della nostra Terra.

Al solito, vi giuro non vorrei dirlo ma sono costretto, molti dei nostri amati giornali, anche a diffusione nazionale, pubblicano notizie perchè devono, senza minimamente comprendere di cosa si stia parlando. Perchè dico questo? Leggendo diversi articoli, e conoscendo già di mio il significato della ricorrenza, ho provato a mettermi nei panni di qualcuno ignorante sulla questione. Questa sarà anche una mia personale posizione, ma leggendo le notizie in rete, credo che molto difficilmente ci si possa informare capendo realmente quello di cui si sta parlando. Ora, non voglio assolutamente mettermi su un piedistallo, non ne avrei diritto ne tantomeno le competenze, ma, vi prego, prima di scrivere qualcosa, cercate di capirlo almeno voi.

Perchè dico questo? Molti giornali esauriscono la notizia in poche righe riassumendo in questo modo: oggi è il giorno in cui abbiamo ufficialmente consumato tutte le risorse rinnovabili che la Terra è in grado di produrre fino alla fine dell’anno solare. Come direte voi, ma se le risorse sono rinnovabili sono rinnovabili sempre. Come faccio ad aver già consumato quello che la Terra produrrà nei prossimi mesi? Inoltre, per farla breve, ma se ci siamo mangiati tutto quello che avevamo a disposizione fino alla fine dell’anno, domani cosa mangiamo? Per fare un esempio, è come una famiglia che fa la spesa per l’intera settimana senza la possibilità di riandare a comprare nulla. Arrivati a giovedi, le scorte sono completamente finite. Poi?

Cerchiamo di essere seri e comprendere a pieno cosa significa questa fantomatica data.

Ogni anno, l’organizzazione no profit Global Footprint Network, ripeto “organizzazione” non centro di ricerca come qualche giornale ha scritto, calcola la data in cui la nostra società globale ha consumato tutte le risorse rinnovabili annuali. Cosa significa? Prendiamo come esempio un campo coltivato con insalata. Nell’arco dell’anno, questo campo riuscirà a produrre 100 Kg di insalata. Arrivati ad agosto, noi abbiamo già mangiato 100 Kg di insalata, dunque abbiamo raggiunto molto in anticipo le risorse che il nostro campo sarà in grado di produrre. Dunque, se vogliamo mangiare altra insalata dobbiamo prenderla nel campo del nostro vicino.

Ora, come è ovvio, non mangiamo solo insalata. Infatti, questo calcolo viene fatto prendendo in esame tutte le risorse rinnovabili che abbiamo a disposizione sul nostro pianeta. Tra queste, oltre ai cibi, entrano ovviamente anche beni diversi: l’elettricità prodotta da fonti rinnovabili, i tessuti naturali che utilizziamo per i nostri capi d’abbigliamento, ecc..

Nel calcolo di questa data, entra ovviamnete anche la produzione di CO2 che immettiamo in atmosfera. Come è ovvio, il nostro pianeta è in grado di assorbire una frazione degli inquinanti che espelliamo, oltre questa soglia, questi gas restano in atmosfera formando strati inquinanti.

A questo punto, spero di essere riuscito a far capire come è possibile calcolare questa data e quali sono i fattori principali che entrano in questo computo.

Come anticipato, oggi è l’Earth overshoot Day, cioè come il nome stesso indica, il giorno in cui abbiamo superato le risorse della Terra.

Ci deve preoccupare questa data?

Ovviamente si ma, soprattutto, ci deve far riflettere molto. Praticamente, noi stiamo vivendo come parassiti in grado di consumare molto velocemente le risorse del pianeta che ci ospita. Come potete facilmente immaginare, questo trend negativo è solo peggiorato negli ultimi anni.

Visitando il sito dell’associazione:

Global Footprint Network

che oltre a questa data, ha tutta una serie di attività tese a sensibilizzare le società sul problema energetico, troviamo una tabella molto interessante:

Data dell'overshoot day nel corso degli anni

Data dell’overshoot day nel corso degli anni

Quanto riportato mostra l’overshoot day calcolato nel corso degli anni. Come evidente, se nel 1987 eravamo quasi in pari con una data prossima alla fine dell’anno solare, nel corso del tempo l’overshoot day si è sempre notevolmente anticipato. Come spesso sentiamo ripeterci, poichè oggi à il 19 agosto, secondo questo calcolo, per poter vivere noi oggi avremmo bisogno di 1.5 Terre in grado di fornirci le risorse rinnovabili di cui abbiamo bisogno.

Ovviamente, questo è un calcolo mediato su tutti i paesi. Come è facile immaginare, esiste uno squilibrio notevole anche in questo caso. Per un dettaglio su alcuni paese campione, possiamo far riferimento a questa tabella:

Paesi-equivalenti richiesti dai consumi dei singoli stati

Paesi-equivalenti richiesti dai consumi dei singoli stati

In questo caso, il calcolo è sul singolo paese tenendo conto delle risorse che il paese stesso è in grado di fornire alla propria popolazione. Notiamo che ci sono dei casi veramente disastrosi. Esempi? Gli Emirati Arabi avrebbero bisogno di più di 12 paesi equivalenti! Inoltre, non fatevi ingannare dal dato sugli USA. Considerando la grandezza del paese, il numero di abitanti e le risorse a disposizione, se il modello di consumi USA fosse “esportato” anche negli altri paesi, il nostro deficit peggiorerebbe in modo significativo.

Se ci concentriamo sul caso Italia, anche se, almeno in questo caso, non siamo i peggiori in assoluto, sicuramente ci mettiamo del nostro. Come vedete, ad oggi, noi richiediamo 4 volte le risorse del nostro paese. Praticamente, se il calcolo fosse relativo solo al nostro paese, il nostro overshoot day cadrebbe intorno alla fine di marzo.

Per completezza di informazione, esistono ovviamente dei paesi “virtuosi” che contribuiscono ad abbassare il nostro debito naturale. Tra questi, ad esempio, Brasile, Australia, Indonesia e Svezia.

Se volete “divertirvi” a calcolare il vostro contributo a questo calcolo, la Global Footprint Network ha a disposizione un semplice questionario in grado di calcolare il vostro singolo contributo basandosi sui vostri consumi medi. Visto che sbandieriamo sempre la sincerità, vi pubblico il mio profilo:

Il mio contributo all'Overshoot Day

Il mio contributo all’Overshoot Day

Come vedete, anche io faccio la mia parte in negativo anche se sono sotto la media nazionale (2.5 paesi verso 4 di media) ma sopra la media mondiale. Il mio contributo principale, neanche a dirlo, viene dal consumo di cibo.

Per calcolare il vostro contributo, potete compilare il rapido questionario disponibile, anche in Italiano, a questa pagina:

Footprint personale

Inutile dire che non si tratta di un gioco ma il nostro personale risultato deve spingerci ad una riflessione sui nostri consumi e, preferibilmente, a cambiare il nostro stile di vita per cercare, tutti quanti, di interrompere questo trend negativo di cui abbiamo discusso.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Ma questa crema solare …. come dobbiamo sceglierla?

30 Giu

Sempre alla nostra sezione:

– Hai domande o dubbi?

va il merito, ma ovviamente tutto il merito va a voi che rendete questo blog vivo ed interessante, di aver richiamato da una nostra cara lettrice una nuova interessantissima domanda. Questa volta però, vi preannuncio che l’argomento scelto è molto complesso nella sua apparente semplicità, oltre ad essere assolutamente in linea con il periodo dell’anno. Come potete leggere, la domanda riguarda le creme solari e tutte le leggende che girano, non solo in rete, e che da sempre abbiamo ascoltato.

Come anticipato, non è semplice cercare di trovare la giusta strada nella giungla di informazioni disponibili. Se provate a confrontare dieci fonti, troverete dieci versioni diverse: le creme solari devono essere usate. No, non devo essere usate. Il sole è malato. Il sole provoca il cancro. No, sono le creme che creano il cancro alla pelle. Insomma, di tutto di più, e non pensate di rifuggire nella frase: “mi metto sotto l’ombrellone”, perché, come vedremo, anche questo lascia filtrare alcune componenti dei raggi solari e, sempre scimmiottando quello che trovate in rete, vi può venire il cancro. Allora sapete che c’è? Me ne sto chiuso dentro casa fino a settembre! Va bene così? No, sicuramente non prendi il sole (e quindi non ti viene il cancro), ma non ti si fissa la vitamina D e quindi potresti soffrire di rachitismo.

Insomma, come la mettete la mettete, sbagliate sempre. Cosa fare allora? Sicuramente, in linea con il nostro stile, quello che possiamo fare è “andare con ordine” e provare a verificare quali e quante di queste affermazioni corrispondono al vero. Solo in questo modo potremo capire quale crema solare scegliere, come applicarla e quali sono i rischi che possiamo correre con l’esposizione al Sole.

Prima di tutto, non dobbiamo considerare i raggi solari come un’unica cosa, ma è necessario distinguere la radiazione che ci arriva. Questa suddivisione è essenziale perché l’interazione della nostra pelle con i fotoni emessi dal sole non è sempre uguale, ma dipende dalla lunghezza d’onda. Bene, in tal senso, possiamo distinguere la parte dei raggi solari che ci interessa in tre grandi famiglie, in particolare, per i nostri scopi, ci concentreremo sulla parte ultravioletta dello spettro, che è quella di interesse in questo campo.

La parte cosiddetta ultravioletta è quella con lunghezza d’onda immediatamente inferiore alla parte visibile. Normalmente, questa parte dello spettro viene divisa in UVA, con lunghezza d’onda tra 400 e 315 nanometri, UVB, tra 315 e 280 nanometri e UVC, tra 280 e 100 nanometri. Quando parliamo di tintarella o di danni provocati dalla radiazione solare, dobbiamo riferirci alla parte UV ed in particolare a queste 3 famiglie.

Bene, la componente più pericolosa della radiazione solare è quella degli UVC cioè con lunghezza d’onda minore. Perché? Sono radiazioni utilizzate come germicidi, ad esempio nella potabilizzazione dell’acqua, a causa del loro potere nel modificare il DNA e l’RNA delle cellule. Per nostra fortuna, questa componente della radiazione è completamente bloccata dallo strato di ozono che circonda la Terra. Di questo, e soprattutto dello stato di salute dello strato di ozono, abbiamo parlato in un post specifico:

– Che fine ha fatto il buco dell’ozono?

Per la parte più pericolosa dello spettro, quella degli UVC, possiamo dunque tirare un respiro di sollievo. Vediamo le altre due componenti.

Gli UVA, a causa della lunghezza d’onda maggiore, penetrano più a fondo nella pelle, promuovendo il rilascio di melanina e dunque l’abbronzatura. Che significa? Molto semplice, quando prendiamo il sole, la nostra pelle reagisce cercando di proteggersi autonomamente appunto rilasciando melanina. Questa sostanza serve a far scurire gli strati più superficiali della pelle appunto come protezione dai raggi. Riguardo ala dannosità? Su questo punto, purtroppo, non si ha ancora chiarezza. Per prima cosa, dobbiamo dire che l’esposizione crea meno danni a tempi brevi rispetto, come vedremo, a quella agli UVB. Questa componente però è una delle maggiori sospettate per i danni a lungo termine, connessi anche con l’insorgere di tumori alla pelle, e provoca un invecchiamento veloce della pelle. Gli UVA sono molto conosciuti da coloro che frequentano i centri estetici per sottoporsi alle “lampade”. Questi sistemi infatti hanno sistemi di illuminazione concentrati negli UVA appunto per promuovere un’abbronzatura rapida.

Per quanto riguarda gli UVB invece, si tratta della radiazione più pericolosa nell’immediato. Questa componente dello spettro solare infatti, è responsabile della classica “scottatura”, in alcuni casi vera e propria ustione, provocata da un’esposizione prolungata al Sole. Anche se potenzialmente dannosa, la radiazione UVB è comunque importante per il nostro organismo perché promuove la sintesi della vitamina D. Come è noto, in assenza di questo fondamentale processo possono insorgere casi di rachitismo, soprattutto in soggetti non ancora adulti.

Bene, abbiamo capito come è divisa la radiazione ultravioletta del sole e abbiamo finalmente capito a cosa si riferiscono tutti questi nomi che siamo soliti ascoltare o leggere riguardo la tintarella.

Passiamo dunque a parlare di creme solari. Cosa dobbiamo cercare? Perché? Quali sono i prodotti più indicati?

Ripensando a quanto scritto, viene evidente pensare che una buona crema debba proteggerci dagli UVA e UVB poiché per gli UVC ci pensa lo strato di ozono. Primo pensiero sbagliato! Quando acquistiamo una crema solare, che, come vedremo, offre una certa protezione, questo valore si riferisce alla sola componente B della radiazione. Perché? Semplice, come visto, gli UVB sono responsabili delle scottature immediate. Se ci proteggiamo da questa componente salviamo la pelle garantendo la tintarella. Questo è assolutamente falso, soprattutto pensando ai danni a lungo termine dati da un’esposizione troppo prolungata agli UVA.

Solo negli ultimi anni, sono comparse sul mercato creme con protezioni ad alto spettro. Fate bene attenzione a questa caratteristica prima di acquistare un qualsiasi prodotto. Una buona crema deve avere un fattore di protezione per gli UVA non inferiore ad 1/3 di quello garantito per gli UVB.

Ora però, anche seguendo quanto affermato, parliamo appunto di queste protezioni. Fino a qualche anno fa, ricordo benissimo gli scaffali dei negozi strapieni di creme solari con fattori di protezione, SPF cioè fattore di protezione solare, che andavano da 0 a qualcosa come 100. Già allora mi chiedevo, ma che significa zero? A che cosa serve una crema con protezione 0 e, allo stesso modo, protezione 100 o, come qualcuno scriveva “protezione totale”, significa che è come mettersi all’ombra?

Capite già l’assurdità di queste definizioni create solo ed esclusivamente a scopo commerciale. Fortunatamente, da qualche anno, è stata creata una normativa apposita per questo tipo di cosmetici aiutando il consumatore a comprendere meglio il prodotto in questione. Oggi, per legge, esistono solo 4 intervalli di protezione che sono: basso, medio, alto e molto alto. Questi intervalli, in termini numerici, possono essere compresi utilizzando la seguente tabella:

 

Protezione SPF

Bassa 6 – 10

Media 15 – 20 – 25

Alta 30 – 50

Molto alta 50+

Notiamo subito che sono scomparse quelle orribili, e insensate, definizioni “protezione zero” e “protezione totale”. Ma, in soldoni, cosa significa un certo valore di protezione? Se prendo una crema con SPF 30 è il doppio più efficace di una con SPF 15? In che termini?

Detto molto semplicemente, il valore numerico del fattore di protezione indica il tempo necessario affinché si creino scottature rispetto ad una pelle non protetta. Detto in questo modo, una SPF 15 significa che la vostra pelle si brucerà in un tempo 15 volte maggiore rispetto a quello che impiegherebbe senza quella crema. Dunque, anche con una crema protettiva posso scottarmi? Assolutamente si. In termini di schermo alla radiazione, il potere schermante non è assolutamente proporzionale allo SPF ma, come visto, solo ai tempi necessari per l’insorgere di scottature.

A questo punto, abbiamo capito cosa significa quel numerello che corrisponde al fattore di protezione, ma come fanno le creme a schermare effettivamente dai raggi solari?

Per rispondere a questa domanda, dobbiamo in realtà dividere la protezione in due tipi: fisico e chimico. La protezione fisica avviene in modo pressoché meccanico aumentando il potere riflettente della pelle. Per questo scopo, nelle creme solari sono presenti composti come il biossido di titanio e l’ossido di zinco, sostanze opache che non fanno altro che far riflettere verso l’esterno la radiazione solare che incide sul nostro corpo.

Primo appunto, secondo alcuni l’ossido di zinco potrebbe essere cancerogeno! Ma come, mi metto la crema per proteggermi dai raggi solari ed evitare tumori alla pelle e la crema crea tumori alla pelle? In realtà, come al solito, su questo punto si è fatta molta confusione, tanto terrorismo e si è corsi, per convenienza, a conclusioni affrettate. Alcune ricerche hanno mostrato come tessuti cosparsi di molecole di ossido di zinco e sottoposti ad irraggiamento UV possano sviluppare radicali liberi che a loro volta reagiscono con le cellule modificandone il DNA. Questo processo può portare alla formazione di melanomi, per la pelle, e di altri tumori, per le altre cellule. Ora, si tratta di studi preliminari basati su valori di irraggiamento più alti rispetto a quelli che normalmente possono derivare da un’esposizione, anche prolungata, anche nelle ore centrali della giornata, al Sole. Detto molto semplicemente, questi studi necessitano di ulteriori ricerche per poter definire margini di errore e valori corretti. Gli stessi autori di queste analisi preliminari si sono raccomandati di non male interpretare il risultato dicendo che le creme solari provocano il cancro alla pelle. In altre parole, si corrono più rischi non proteggendosi dal sole piuttosto che proteggendosi con una crema contenente ossido di zinco. Tra le altre cose, questa molecola è molto nota tra le mamme che utilizzano prodotti all’ossido di zinco per alleviare le ustioni da pannolino nei loro bambini.

Detto questo, abbiamo poi la protezione chimica. Come potete facilmente immaginare, in questo caso si tratta di una serie di molecole (oxibenzone, fenilbenzilimidazolo, acido sulfonico, butil metoxidibenzoilmetano, etilexil metoxicinnamato, ecc.) che hanno il compito di assorbire la radiazione solare e di cedere parte di questa energia sotto forma di calore. Perché possiamo trovare così tante molecole in una crema solare? Semplice, ognuna di queste è specifica per una piccola parte dello spettro di radiazione, sia UVA che UVB. Anche su queste singole molecole, ogni tanto qualcuno inventa storie nuove atte solo a fare terrorismo, molto spesso verso case farmaceutiche. Singolarmente, come nel caso dell’ossido di titanio, ci possono essere studi più o meno avanzati, più o meno veritieri, sulla pericolosità delle molecole. Anche qui però, molto spesso si tratta di effetti amplificati, ben oltre la normale assunzione attraverso la cute e, ripeto per l’ennesima volta, si rischia molto di più esponendosi al sole piuttosto che utilizzando creme solari.

Ennesima cavolata in voga fino a qualche anno fa e ora vietata: creme solari “water proof”, cioè creme resistenti completamente all’acqua. Ve le mettete una volta, fate quanti bagni volete e siete a posto. Ma secondo voi, è possibile qualcosa del genere? Pensate di spalmarvi una crema o di farvi un tatuaggio indelebile? Oggi, per legge, la dicitura water proof è illegale e ha lasciato spazio, al massimo, a “water resistant”, cioè resistente all’acqua. Una qualsiasi crema solare, a causa del bagno, del sudore, del contatto con il telo, tende a rimuoversi e, proprio per questo motivo, si consiglia di riapplicare la crema ogni 2-3 ore circa per garantire la massima protezione possibile.

Riassumendo, abbiamo capito che conviene, sempre ed in tutti i casi, utilizzare una crema solare protettiva, ma quale scegliere?

Molto brevemente, in questo caso, si deve valutare quello che è definito il proprio fenotipo. Come potete immaginare, si tratta di una serie di caratteristiche fisiche che determinano, in linea di principio, l’effetto dell’esposizione la Sole. Per poter determinare il proprio fenotipo, possiamo fare riferimento a questa tabella:

fenotipo

Ovviamente, per i valori più bassi (I e II) è consigliabile utilizzare una crema ad alto SPF, valore che può diminuire qualora fossimo meno soggetti a scottature ed ustioni.

Credo che a questo punto abbiamo un quadro molto più chiaro riguardo alla creme solari ed alla loro utilità. Ripeto, per l’ennesima volta, in ogni caso, proteggersi è sempre meglio che esporsi al sole senza nessuna protezione. Ultimo appunto, che vuole sfatare un mito molto diffuso, sotto l’ombrellone siamo comunque esposti alla radiazione solare. In primis, il tessuto di molti ombrelloni lascia passare buona parte dello spettro solare ma, soprattutto, la riflessione dei raggi solari, ad esempio ad opera della sabbia, raggiunge comunque un soggetto tranquillo e (falsamente) riparato sotto l’ombrellone. In genere, la riflessione dei raggi solari può incrementare, e anche molto, la quantità di radiazione a cui siamo esposti. Stando nell’acqua, ad esempio, abbiamo sia un’esposizione diretta ai raggi solari sia una indiretta dovuta ai raggi riflessi dalla superficie. Come potete immaginare questo amplifica molto l’esposizione.

Concludendo, utilizzate le creme solari ma, soprattutto, leggete bene le etichette prima di acquistare o, peggio ancora utilizzare, un qualsiasi prodotto. Ovviamente, qualsiasi prodotto diventa non efficace se unito alla nostra incoscienza. Se pensate di potervi spalmare una crema e stare come lucertole sotto il Sole dalle 10 del mattino al tramonto … forse questa spiegazione è stata inutile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Arrivata la spiegazione per il geyser di Fiumicino

23 Giu

Qualche tempo fa ci siamo occupati di uno strano fenomeno apparso a Fiumicino:

– Geyser di 5 metri a Fiumicino

Nuovo geyser a Fiumicino

Come ricorderete, dapprima in una strada confinante con l’aeroporto e poi in mare, erano apparsi due geyser che per diverso tempo hanno fatto fuoriuscire tonnellate di gas, principalmente anidride carbonica.

Come al solito, e come già detto, anche su questo fenomeno non erano mancate sviolinate catastrofiche legate all’inquinamento della zona o, peggio ancora, a particolari fenomeni improvvisi legati a malesseri del nostro pianeta e della zona in particolare.

Solo pochi giorni fa, un gruppo di ricercatori italiani del CNR, dell’università Roma Tre e dell’INGV sono riusciti a vederci chiaro e ad identificare l’origine di questi gas. In un articolo pubblicato sulla rivista “Journal of Volcanology and Geothermal Research”, il gruppo di ricerca ha pubblicato i suoi risultati basati su mesi di studi intensivi e analisi del terreno fino ad elevate profondità.

Per chi volesse, l’abstract dell’articolo in questione è disponibile sul sito stesso della rivista:

Abstract articolo spiegazione geyser Fiumicino

Come potete leggere, la spiegazione del fenomeno, per quanto possa apparire “strana” agli occhi dei non esperti, è del tutto naturale. Per prima cosa, studiando gli archivi storici, come accennato anche negli articoli precedenti, è emerso come fenomeni di questo tipo non sono affatto nuovi nella zona di Fiumicino e nei terreni limitrofi. Diverse volte infatti, sempre in occasione di operazioni di scavo per costruzioni edili o marine, in prossimità dei lavori erano emersi geyser e vulcanetti con fuoriuscita di gas e fango dal sottosuolo.

Come è ovvio pensare, la spiegazione del fenomeno è da ricercare nei depositi di gas contenuti ad alta pressione nel terreno. A seguito di analisi specifiche e tomografie del terreno, gli studi hanno evidenziato, nel caso del primo fenomeno osservato, che depositi di anidride carbonica sono presenti a circa 40-50 metri di profondità all’interno di uno strato di ghiaia spesso tra 5 e 10 m. La ghiaia comprende una falda acquifera compresa tra due strati di argilla, uno superiore ed uno inferiore, geologicamente molto diversi tra loro. Lo strato inferiore è molto permeabile e lascia filtrare i gas provenienti da profondità maggiori e generati dall’attività vulcanica propria dei Castelli Romani, e ancora oggi attiva. Lo strato superiore invece appare molto meno permeabile e funge da tappo per intrappolare i gas impedendo così la loro risalita in superficie.

A questo punto cosa succede?

Semplice, il gas è intrappolato dallo strato superiore fino a che una perturbazione esterna, come una trivella o uno scavo per costruzioni edili, non “smuove” il terreno e libera il gas. L’anidride carbonica in pressione a questo punto è libera di salite in superficie portando con se anche il fango che incontra durante il suo percorso. Ecco spiegato il meccanismo di formazione dei geyser della zona.

Cosa c’è di anomalo in tutto questo? Assolutamente nulla. Questa spiegazione, supportata da dati e analisi scientifiche, mostra anche il perché di eventi simili in passato e non esclude ovviamente nuovi fenomeni per il futuro. Ovviamente, vista la quantità di gas contenuto nel sottosuolo sarà sempre necessario valutare a priori lo scavo da realizzare e porre rimedio qualora si liberassero grossi volumi in superficie. Pericolo ovviamente amplificato qualora le emissioni avvenissero in prossimità della zona abitata, vista anche la tossicità dei gas in questione.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Flusso oscuro e grandi attrattori

28 Feb

Nella ormai celebre sezione:

Hai domande o dubbi?

in cui sono usciti fuori davvero gli argomenti piu’ disparati ma sempre contraddistinti da curiosita’ e voglia di discutere, una nostra cara lettrice ci ha chiesto maggiori lumi sul cosiddetto “dark flow” o flusso oscuro. Una richiesta del genere non puo’ che farci piacere, dal momento che ci permette di parlare nuovamente di scienza e, in particolare, di universo.

Prima di poterci addentrare in questo argomento scientifico ma, anche a livello di ricerca, poco conosciuto, e’ necessario fare una piccolissima premessa iniziale che serve per riprendere in mano concetti sicuramente conosciuti ma su cui spesso non si riflette abbastanza.

Per iniziare la discussione, voglio mostrarvi una foto:

sir-isaac-newtons-philosophic3a6-naturalis-principia-mathematica

Quello che vedete non e’ un semplice libro, ma uno dei tre volumi che compongono il Philosophiae Naturalis Principia Mathematica o, tradotto in italiano, “I principi naturali della filosofia naturale”. Quest’opera e’ stata pubblicata il 5 luglio 1687 da Isaac Newton.

Perche’ e’ cosi’ importante questa opera?

Questi tre volumi sono considerati l trattato piu’ importante del pensiero scientifico. Prima di tutto, contengono la dinamica formulata da Newton che per primo ha posto le basi per lo studio delle cause del moto ma, soprattutto, perche’ contengono quella che oggi e’ nota come “Teoria della Gravitazione Universale”.

Sicuramente, tutti avrete sentito parlare della gravitazione di Newton riferita al famoso episodio della mela che si stacco’ dall’albero e cadde sulla testa del celebre scienziato. Come racconta la leggenda, da questo insignificante episodio, Newton capi’ l’esistenza della forza di gravita’ e da qui la sua estensione all’universo. Se vogliamo pero’ essere precisi, Newton non venne folgorato sulla via di Damasco dalla mela che cadeva, ma questo episodio fu quello che fece scattare la molla nella testa di un Newton che gia’ da tempo studiava questo tipo di interazioni.

Volendo essere brevi, la teoria della gravitazione di Newton afferma che nello spazio ogni punto materiale attrae ogni altro punto materiale con una forza che e’ proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza. In soldoni, esiste una forza solo attrattiva che si esercita tra ogni coppia di corpi dotati di massa e questa interazione e’ tanto maggiore quanto piu’ grandi sono le masse e diminuisce con il quadrato della loro distanza.

Semplice? Direi proprio di si, sia dal punto di vista fisico che matematico. Perche’ allora chiamare questa legge addirittura con l’aggettivo “universale”?

Se prendete la male di Newton che cade dall’albero, la Luna che ruota intorno alla Terra, la Terra che ruota intorno al Sole, il sistema solare che ruota intorno al centro della Galassia, tutti questi fenomeni, che avvengono su scale completamente diverse, avvengono proprio grazie unicamente alla forza di gravita’. Credo che questo assunto sia sufficiente a far capire l’universalita’ di questa legge.

Bene, sulla base di questo, l’interazione che regola l’equilibrio delle masse nell’universo e’ dunque la forza di gravita’. Tutto quello che vediamo e’ solo una conseguenza della sovrapposizione delle singole forze che avvengono su ciascuna coppia di masse.

Detto questo, torniamo all’argomento principale del post. Cosa sarebbe il “flusso oscuro”? Detto molto semplicemente, si tratta del movimento a grande velocita’ di alcune galassie in una direzione ben precisa, situata tra le costellazioni del Centauro e della Vela. Questo movimento direzionale avviene con velocita’ dell’ordine di 900 Km al secondo e sembrerebbe tirare le galassie in un punto ben preciso al di fuori di quello che definiamo universo osservabile.

Aspettate, che significa che qualcosa tira le galassie fuori dall’universo osservabile?

Per prima cosa, dobbiamo definire cosa significa “universo osservabile”. Come sappiamo, l’universo si sta espandendo e se lo osserviamo da Terra siamo in grado di vedere le immagini che arrivano a noi grazie al moto dei fotoni che, anche se si muovono alla velocita’ della luce, si spostano impiegando un certo tempo per percorrere delle distanze precise. Se sommiamo questi due effetti, dalla nostra posizione di osservazione, cioe’ la Terra, possiamo vedere solo quello che e’ contenuto entro una sfera con un raggio di 93 miliardi anni luce. Come potete capire, l’effetto dell’espansione provoca un aumento di quello che possiamo osservare. Se l’universo ha 14.7 miliardi di anni, ci si potrebbe aspettare di poter vedere dalla terra la luce partita 14.7 miliardi di anni fa, cioe’ fino ad una distanza di 14.7 miliardi di anni luce. In realta’, come detto, il fatto che l’universo sia in continua espansione fa si che quello che vediamo oggi non si trova piu’ in quella posizione, ma si e’ spostato a causa dell’espansione. Altro aspetto importante, la definizione di sfera osservabile e’ vera per ogni punto dell’universo, non solo per quella sfera centrata sulla Terra che rappresenta cquello che noi possiamo vedere.

Bene, dunque si sarebbe osservato un flusso di alcune galassie verso un punto preciso fuori dall’universo osservabile. Proprio dal fatto che questo flusso e’ all’esterno del nostro universo osservabile, si e’ chiamato questo movimento con l’aggettivo oscuro.

Aspettate un attimo pero’, se le galassie sono tirate verso un punto ben preciso, cos’e’ che provoca questo movimento? Riprendendo l’introduzione sulla forza di gravitazione, se le galassie, che sono oggetti massivi, sono tirate verso un punto, significa che c’e’ una massa che sta esercitando una forza. Poiche’ la forza di gravitazione si esercita mutuamente tra i corpi, questo qualcosa deve anche essere molto massivo.

Prima di capire di cosa potrebbe trattarsi, e’ importante spiegare come questo flusso oscuro e’ stato individuato.

Secondo le teorie cosmologiche riconosciute, e come spesso si dice, l’universo sarebbe omogeneo e isotropo cioe’ sarebbe uguale in media in qualsiasi direzione lo guardiamo. Detto in altri termini, non esiste una direzione privilegiata, almeno su grandi scale, in cui ci sarebbero effetti diversi. Sempre su grandi scale, non esisterebbe neanche un movimento preciso verso una direzione ma l’isotropia produrrebbe moti casuali in tutte le direzioni.

Gia’ nel 1973 pero’, si osservo’ un movimento particolare di alcune galassie in una direzione precisa. In altri termini, un’anomalia nell’espansione uniforme dell’universo. In questo caso, il punto di attrazione e’ all’interno del nostro universo osservabile e localizzato in prossimita’ del cosiddetto “ammasso del Regolo”, una zona di spazio dominata da un’alta concentrazione di galassie vecchie e massive. Questa prima anomalia gravitazionale viene chiamata “Grande Attrattore”. In questa immagine si vede appunto una porzione di universo osservabile da Terra ed in basso a destra trovate l’indicazione del Grande Attrattore:

800px-2MASS_LSS_chart-NEW_Nasa

Questa prima anomalia dell’espansione venne osservata tramite quello che e’ definito lo spostamento verso il rosso. Cosa significa? Se osservate un oggetto che e’ in movimento, o meglio se esiste un movimento relativo tra l’osservatore e il bersaglio, la luce che arriva subisce uno spostamento della lunghezza d’onda dovuto al movimento stesso. Questo e’ dovuto all’effetto Doppler valido, ad esempio, anche per le onde sonore e di cui ci accorgiamo facilmente ascoltando il diverso suono di una sirena quando questa si avvicina o si allontana da noi.

220px-Redshift_blueshift.svg

Bene, tornando alle onde luminose, se la sorgente si allontana, si osserva uno spostamento verso lunghezze d’onda piu’ alte, redshift, se si avvicina la lunghezza d’onda diminuisce, blueshift. Mediate questo semplice effetto, si sono potuti osservare molti aspetti del nostro universo e soprattutto i movimenti che avvengono.

Tornando al grnde attrattore, questa zona massiva verso cui si osserva un moto coerente delle galassie del gruppo e’ localizzato a circa 250 milioni di anni luce da noi nella direzione delle costellazioni dell’Hydra e del Centauro e avrebbe una massa di circa 5×10^15 masse solari, cioe’ 5 milioni di miliardi di volte il nostro Sole. Questa, come anticipato, e’ soltanto una anomalia dell’espansione dell’universo che ha creato una zona piu’ massiva in cui c’e’ una concentrazione di galassie che, sempre grazie alla gravita’, attraggono quello che hanno intorno.

Discorso diverso e’ invece quello del Dark Flow. Perche’? Prima di tutto, come detto, questo centro di massa si trova talmente lontano da essere al di fuori del nostro universo osservabile. Visto da Terra poi, la zona di spazio che crea il flusso oscuro si trova piu’ o meno nella stessa direzione del Grande Attrattore, ma molto piu’ lontana. Se per il Grande Attrattore possiamo ipotizzare, detto in modo improprio, un grumo di massa nell’universo omogeneo, il flusso oscuro sembrerebbe generato da una massa molto piu’ grande ed in grado anche di attrarre a se lo stesso Grande Attrattore.

Il flusso oscuro venne osservato per la prima volta nel 2000 e descritto poi a partire dal 2008 mediante misure di precisione su galassie lontane. In questo caso, l’identificazione del flusso e’ stata possibile sfruttando il cosiddetto effetto Sunyaev-Zel’dovich cioe’ la modificazione della temperatura dei fotoni della radiazione cosmica di fondo provocata dai raggi X emessi dalle galassie che si spostano. Sembra complicato, ma non lo e’.

Di radiazione di fondo, o CMB, abbiamo parlato in questi articoli:

Il primo vagito dell’universo

E parliamo di questo Big Bang

Come visto, si tratta di una radiazione presente in tutto l’universo residuo del Big Bang iniziale. Bene, lo spostamento coerente delle galassie produce raggi X, questi raggi X disturbano i fotoni della radiazione di fondo e noi da terra osservando queste variazioni ricostruiamo mappe dei movimenti delle Galassie. Proprio grazie a queste misure, a partire dal 2000, e’ stato osservato per la prima volta questo movimento coerente verso un punto al di fuori dell’universo osservabile.

Cosa potrebbe provocare il Flusso Oscuro? Bella domanda, la risposta non la sappiamo proprio perche’ questo punto, se esiste, come discuteremo tra un po’, e’ al di fuori del nostro universo osservabile. Di ipotesi a riguardo ne sono ovviamente state fatte una miriade a partire gia’ dalle prime osservazioni.

Inizialmente si era ipotizzato che il movimento potrebbe essere causato da un ammasso di materia oscura o energia oscura. Concetti di cui abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Se il vuoto non e’ vuoto

Universo: foto da piccolo

Queste ipotesi sono pero’ state rigettate perche’ non si osserva la presenza di materia oscura nella direzione del Dark Flow e, come gia’ discusso, per l’energia oscura il modello prevede una distribuzione uniforme in tutto l’universo.

Cosi’ come per il Grande Attrattore, si potrebbe trattare di un qualche ammasso molto massivo in una zona non osservabile da Terra. Sulla base di questo, qualcuno, non tra gli scienziati, aveva ipotizzato che questo effetto fosse dovuto ad un altro universo confinante con il nostro e che provoca l’attrazione. Questa ipotesi non e’ realistica perche’ prima di tutto, la gravitazione e’ frutto dello spazio tempo proprio del nostro universo. Se anche prendessimo in considerazione la teoria dei Multiversi, cioe’ universi confinanti, l’evoluzione di questi sarebbe completamente diversa. Il flusso oscuro provoca effetti gravitazionali propri del nostro universo e dovuti all’attrazione gravitazionale. Il fatto che sia fuori dalla nostra sfera osservabile e’ solo dovuto ai concetti citati in precedenza figli dell’accelerazione dell’espansione.

Prima di tutto pero’, siamo cosi’ sicuri che questo Flusso Oscuro esista veramente?

Come anticipato, non c’e’ assolutamente la certezza e gli scienziati sono ancora fortemente divisi non solo sulle ipotesi, ma sull’esistenza stessa del Flusso Oscuro.

Per farvi capire la diatriba in corso, questo e’ il link all’articolo originale con cui si ipotizzava l’esistenza del Flusso Oscuro:

Dark Flow

Subito dopo pero’, e’ stato pubblicato un altro articolo che criticava questo sostenendo che i metodi di misura applicati non erano corretti:

Wright risposta al Dark Flow

Dopo di che, una lunga serie di articoli, conferme e smentite, sono stati pubblicati da tantissimi cosmologi. Questo per mostrare quanto controversa sia l’esistenza o meno di questo flusso oscuro di Galassie verso un determinato punto dell’universo.

Venendo ai giorni nostri, nel 2013 e’ stato pubblicato un articolo di analisi degli ultimi dati raccolti dal telescopio Planck. In questo paper viene nuovamente smentita l’esistenza del dark flow sulla base delle misure delle velocita’ effettuate nella regione di spazio in esame:

Planck, 2013

Dunque? Dark Flow definitivamente archiviato? Neanche per sogno. Un altro gruppo di cosmologi ha pubblicato questo ulteriore articolo:

Smentita alla smentita

in cui attacca i metodi statistici utilizzati nel primo articolo e propone un’analisi diversa dei dati da cui si mostra l’assoluta compatibilita’ di questi dati con quelli di un altro satellite, WMAP, da cui venne evidenziata l’esistenza del dark flow.

Credo che a questo punto, sia chiaro a tutti la forte discussione ancora in corso sull’esistenza o meno di questo Dark Flow. Come potete capire, e’ importante prima di tutto continuare le analisi dei dati e determinare se questo flusso sia o meno una realta’ del nostro universo. Fatto questo, e se il movimento venisse confermato, allora potremmo fare delle ipotesi sulla natura di questo punto di attrazione molto massivo e cercare di capire di cosa potrebbe trattarsi. Ovviamente, sempre che venisse confermata la sua esistenza, stiamo ragionando su qualcosa talmente lontano da noi da essere al di fuori della nostra sfera osservabile. Trattare questo argomento ci ha permesso prima di tutto di aprire una finestra scientifica su un argomento di forte e continua attualita’ per la comunita’ scientifica. Come sappiamo, trattando argomenti di questo tipo, non troviamo risposte certe perche’ gli studi sono ancora in corso e, cosi’ come deve avvenire, ci sono discussioni tra gli scienziati che propongono ipotesi, le smentiscono, ne discutono, ecc, come la vera scienza deve essere. Qualora ci fossero ulteriori novita’ a riguardo, ne parleremo in un futuro articolo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Elogio della stupidita’ (le ragioni del catastrofismo)

20 Feb

Dopo questi articoli:

Cos’e’ successo in Sardegna?

La sequenza sismica del Matese

Nuovo appuntamento con gli articoli della nostra amica e assidua lettrice Patrizia. Questa volta non si parla di geologia ma Patrizia ci riporta una considerazione molto interessante sul catastrofismo, argomento di cui ormai siamo diventati esperti e assoluti “intenditori”, anche se dall’altra parte della barricata.

A questo punto, ecco a voi “Elogio alla Stupidita’ (le ragioni del catastrofismo)”

di Patrizia Esposito

 

 

La parola “stupidità” deriva dal latino Stupiditas, termine che ha la stessa radice del verbo Stupeo, che significa essere stordito (fisicamente o moralmente) ma anche stupire e rimanere stupito (per meraviglia, ammirazione, spavento).

La stupidità esiste da sempre, ma una volta suscitava meraviglia perché era come uno spettacolo inatteso, al giorno d’oggi invece è diventata una consuetudine perciò non sorprende più.

Mentre la follia viene annoverata tra i disturbi psichici, la stupidità non è una patologia perché non deriva da un’anomalia fisiologica.

Al pari dell’intelligenza, è una funzione della mente e del comportamento umano, quindi coesiste con l’intelligenza, ha una sua strutturazione ben precisa e possiede anche una sua giustificazione darwiniana.

Infatti, in linea con l’evoluzione e gli imperativi della sopravvivenza, la stupidità tende alla massificazione dei caratteri e dei comportamenti umani, attraverso la progressiva riduzione delle diversità fino alla loro eliminazione.

Nella società attuale la stupidità ha preso piede a discapito dell’intelligenza che è diventata così un’anomalia, una debolezza mentale, la diversità.

Vediamo perché.

La stupidità è un grandissimo volano del profitto: con la stupidità si fa carriera, ci si arricchisce, si diventa felici.

Chi è stupido ritiene di essere superiore ad un altro e di avere per questo un potere da esercitare. Il potere all’ennesima potenza crede di essere eterno, in grado di incorporare gli dei o di diventarne alleato, per questo compra anche gli uomini di Dio.

Chi è stupido non ha dubbi né incertezze né paura di sbagliare perciò è felice. Non importa chi ci sia nella stanza dei bottoni, l’importante è che chi è al timone della nave garantisca tempo buono e navigazione incontrastata.

Le ragioni del catastrofismo allignano nella stupidità (a mio avviso).

In un momento storico di incertezze, istanze non corrisposte, bisogni non soddisfatti, l’individuo usa la stupidità per trarne profitto e vantaggio.

I catastrofisti- categoria alla quale appartengono anche persone culturalmente molto preparate e intelligenti- seguendo perfettamente la logica del profitto (o la vogliamo chiamare legge del più forte?) e speculando morbosamente sulle paure della gente, negli ultimi anni hanno prodotto (e ahimè continuano a farlo) una “letteratura” pseudoscientifica a metà strada tra il fantasy e l’horror, profetizzando sciagure di ogni specie, come moderne Cassandre. E guadagnando parecchi soldini.

I seguaci del catastrofismo- categoria alla quale appartengono anche persone culturalmente molto preparate e intelligenti- hanno trovato risposte esistenziali (!) nelle pesudocertezze catastrofiste che, seppure inquietanti e ansiogene, sembrano dare comunque un senso alla precarietà del vivere attuale.

Della serie: stiamo tranquilli, tanto non c’è niente da fare perché sta arrivando la fine del mondo!

Fuori dalla stupidità c’è la libertà, ma la libertà, che appartiene all’intelligenza, non ripaga, anzi ci rende fragili perché ci fa dubitare ed esercitare il senso critico (che responsabilità!) , perciò non la vuole nessuno (o quasi).

Vorrei concludere con un’immagine mitologica: quella di Prometeo che rubò il fuoco agli dei per farne dono agli uomini e che, per questo, finì incatenato ad una rupe, condannato per l’eternità.

Non vorremo vanificare il sacrificio dell’audace titano con la nostra stupidità?

 

(Libera elaborazione da Le nostre paure, di Vittorino Andreoli, Rizzoli 2010)

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fusione, ci siamo quasi?

17 Feb

La chimera della produzione di energia attraverso processi nucleari e’ senza ombra di dubbio la fusione. Come sappiamo, detto in modo improprio, possiamo pensare a questo processo come qualcosa di inverso alla Fissione. Se in quest’ultimo caso, un nucleo atomico viene spezzato in due nuclei piu’ piccoli liberando energia, nella fusione abbiamo due elementi piu’ leggeri che vengono uniti in uno piu’ grande. Anche in questo caso, nel processo c’e’ un eccesso di energia che viene liberato verso l’esterno. Non si tratta di magia ma del bilancio energetico delle reazioni, facilmente calcolabile utilizzando i principi base della fisica nucleare.

Per la fissione, il processo e’ relativamente semplice ed in grado di autosostenersi. Quest’ultimo aspetto e’ fondamentale quando si considerano processi di questo tipo. Detto in altri termini, basta dare il “la” alla reazione per avere qualcosa in grado di autosostenersi autonomamente e continuare cosi’ a produrre energia. Come noto, siamo in grado di utilizzare questo processo molto bene sia con reazioni controllate nei reattori a fissione sia in modo non controllato attraverso la bomba atomica.

E per la fusione?

Qui il discorso e’ diverso. A partire dagli anni ’50, abbiamo iniziato a studiare queste reazioni per cercare di ottenere un bilancio positivo. Cosa significa? Prendete due nuclei leggeri. Per far avvenire la fusione dovete avvicinarli tra loro fino a formare qualcosa di piu’ grande. Semplice ma non scontato. Prendiamo il discorso in modo improprio ma comprensibile. Nei nuclei avete protoni e neutroni. Come ci hanno insegnato a scuola, se proviamo ad avvicinare cariche di uguale segno queste si respingono attraverso la forza coulombiana. Ma allora, perche’ nel nucleo i protoni sono fermi e tutti vicini tra loro? Avvicinando due particelle come i protoni, inizialmente avete la repulsione coulombiana dovuta alle cariche elettriche che tende ad allontanarle. Se resistete opponendovi a questa forza, vi accorgete che sotto una certa distanza interviene un’altra forza, questa volta attrattiva e molto piu’ intesa di quella dovuta alle cariche elettriche, la forza nucleare forte. Si tratta solo di un’altra interazione che pero’ agisce a distanze molto corte tra i nucleoni. La presenza dei neutroni nel nucleo serve proprio a tenere unito il nucleo stesso. Poiche’ i neutroni non hanno carica elettrica, non subiscono repulsione coulombiana mentre esercitano e subiscono l’interazione forte. Detto in altri termini, i neutroni fanno da collante per far si che la forza forte, attrattiva, vinca su quella coulombiana, repulsiva.

Bene, lo scopo del gioco della fusione e’ proprio questo. In qualche modo dobbiamo avvicinare i nuclei spingendoli fino a che la forza forte non diventi piu’ intensa di quella coulombiana. Sotto questo limite, ci sara’ un’attrazione spontanea che portera’ alla formazione di un nucleo piu’ pensate, rilasciando energia.

Qual e’ il limite nella produzione di energia da fusione? Ovviamente, dovete fare in modo che l’energia spesa per avvicinare i nuclei sia minore di quella che viene ceduta dopo la fusione. Questo e’ il famoso bilancio positivo di cui tanti parlano ma, lasciatemi dire, in pochi hanno veramente capito.

Di questi processi abbiamo parlato in diversi articoli mostrando le diverse tecniche che si stanno sperimentando nel mondo:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Contrapposti a questi, ci sono poi i diversi esperimenti per creare quella che viene definita “fusione fredda” e su cui tanta speculazione e’ stata fatta negli ultimi anni:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come detto e ripetuto piu’ volte, dobbiamo essere aperti di mente nei confronti di questi processi che pongono le loro radici in metodi scientifici conosciuti. Quello che pero’ manca, e’ una dimostrazione oggettiva che questi apparecchi, esempio su tutti l’E-Cat, siano veramente in grado di produrre energia in quantita’ maggiore di quella data in ingresso.

Perche’ torno nuovamente su questi argomenti?

Come forse avrete letto, solo pochi giorni fa e’ stato fatto un nuovo anuncio riguardante la ricerca sulla fusione nucleare. In un articolo pubblicato sulla rivista Nature, il NIF, National Ignition Facility, della California ha annunciato di aver ottenuto un bilancio positivo della reazione di fusione di isotopi di idrogeno in elio.

Del NIF abbiamo gia’ parlato nei precedenti articoli riportati sopra. Come sappiamo, in questo caso si utilizzano quasi 200 fasci laser per comprimere, mediante oro, atomi e isotopi di idrogeno, deuterio e trizio, per formare elio. Nel processo viene rilasciata l’energia della fusione.

Come capite bene, in questo caso il bilancio positivo si ha se l’energia rilasciata e’ maggiore di quella necessaria per far sparare nello stesso istante tutti i laser.

Nei primi anni di vita, il NIF ha rappresentato una grande speranza per la ricerca della fusione, attirando grandi finanziamenti. Finanziamenti che poi sono diminuiti quando i risultati ottenuti erano notevolmente inferiori alle aspettative.

Oggi, il NIF e’ riuscito ad ottenere per la prima volta un bilancio positivo, anche se solo minore dell’1%, rispetto all’energia richiesta per far andare i laser. Se proprio vogliamo dirla tutta, non siamo ancora contenti di questo risultato e saranno necessari tantissimi altri studi prima di poter gridare vittoria e prima di poter vedere la fusione utilizzata per la produzione di energia.

Come detto nell’introduzione, lo scopo di questo gioco e’ quello di tenere in qualche modo gli atomi fermi mentre li comprimiamo fino alla fusione. Nel NIF questo confinamento avviene sfruttando l’inerzia dei nuclei stessi e proprio per questo motivo si parla di “confinamento inerziale”. Diversamente, ad esempio per ITER, si cerchera’ di utilizzare forti campi magnetici per tenere i nuclei uniti, parlando di “confinamento magnetico”. La trattazione di questo aspetto non e’ affatto banale e rappresenta, a questo livello, un contributo assolutamente non trascurabile nel bilancio energetico finale della reazione.

Perche’ dico questo?

I risultati ottenuti dal NIF sono assolutamente ragguardevoli e sono un ordine di grandezza maggiore rispetto ai migliori risultati precedenti. Il bilancio positivo dell’1% non tiene pero’ conto dell’energia spesa per il confinamento. Questo per far capire quanto lavoro e’ ancora necessario.

La comunita’ scientifica della fusione, pone tutte le sue speranze, nel progetto internazionale ITER. Come sapete bene, in questo caso si parla di un vero e proprio reattore prototipale per la produzione di energia per fusione. Anche in questo caso, ci saranno diverse sfide tecnologiche da vincere ma la strada segnata dai successi degli ultimi anni non puo’ che farci ben sperare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Neologismi catastrofisti

22 Nov

Leggendo i giornali c’e’ sempre qualcosa di nuovo da imparare. Come sapete bene, ogni tanto i giornalisti si lasciano prendere un po’ la mano, gonfiando le notizie o, anche, cercando di rendere ad effetto notizie che altrimenti passerebbero in secondo piano.

Di queste cose, diverse volte abbiamo parlato in questo blog. Alcune volte, ci siamo trovati a dover proprio smentire notizie apparse sui giornali nazionale perche’ frutto di incomprensioni o, e questo e’ un problema piu’ frequente di quanto si immagini, per la mancanza di controllo delle fonti da cui le notizie vengono prese.

Questa volta vorrei parlare di pioggia. Lungi da me speculare su quanto accaduto in Sardegna dove la forza della natura ha causato morti e notevoli danni, ma proprio quanto accaduto sull’isola rappresenta l’ultimo esempio di un cattivo costume per la ricerca di titoli ad affetto.

Negli ultimi anni, sempre piu’ spesso sentiamo parlare di forti piogge. Ora, il piu’ delle volte, anche di fronte a gravi problemi per le popolazioni, i giornali tendono a far apparire fenomeni stagionali comuni come eventi rari e inaspettati. Piogge torenziali, soprattutto in periodo autunnale o primaverile ci sono sempre state e sempre ci saranno. Nonostante questo, sempre piu’ spesso sentiamo parlare di “bombe d’acqua”, cioe’ violenti acquazzoni che interessano varie parti dell’Italia e di cui non avevamo mai sentito parlare.

Cosa sarebbero queste bombe d’acqua?

Se proviamo a consultare libri o siti specializzati, non troviamo una definizione di bombe d’acqua. Questo non ci deve sorprendere perche’, come anticipato, le bombe d’acqua in realta’ non esistono.

Ora, potrei far saltare dalla sedia molte persone preoccupate di quanto e’ accaduto in Sardegna o di altri fenomeni meno recenti. La mia considerazione e’ prettamente linguistica e metereologica. Fino a qualche anno fa, nessuno aveva mai sentito parlare di pioggia in questo senso, eppure, nell’ultimo periodo, sembrerebbe quasi che siano comparse queste bombe d’acqua come un fenomeno nuovo casuato da chissa’ quali diavolerie scientifiche o  da modificazioni climatiche naturali o indotte.

Onde evitare fraintendimenti, mi spiego meglio.

Le cosiddette “bombe d’acqua”, altro non sono che i violenti acquazzoni di cui abbiamo sempre sentito parlare. Perche’ allora si usa questo termine? L’origine, e come potrebbe essere diversamente, e’ giornalistica. Questo termine compare la prima volta in un articolo della Nazione di Firenze dopo il violento temporale del 2012. Ecco a voi l’articolo in questione:

La Nazione Firenze

Il termine e’ frutto di una cattiva traduzione dall’inglese dell’espressione “Cloud Burst”. Letteralmente suonerebbe come “Esplosione di Nuvola”. Con Cloud Burst, come potete leggere su wikipedia:

Cloud Burst

si indica un violento temporale con una durata limitata nel tempo ma con una quantita’ di precipitazioni in grado di provocare innondazioni. In molti di questi casi, si possono formare piu’ temporali in breve tempo che provocano appunto la grande quantia’ di precipitazione in uno spazio ristretto. Bene, il termine “bomba d’acqua” e’ dunque mutuato dall’inglese.

Ora pero’, provando a ragionare, si tratta di un termine qualitativo appicicato ad una scienza quantitativa come le meteorologia. Cosa significa tanta pioggia in poco tempo? Tanta quanta? Poco tempo quanto? Capite che, cosi’ come viene dato, questo termine non ha alcun significato se non quello soggettivo.

Operativamente, anche a seguito del diffondersi del termine, si e’ cercato di dare una definizione numerica al termine bomba d’acqua definendo in questo modo precipitazioni in grado di scaricare quantita’ maggiori di 30 mm di pioggia nell’arco di un’ora. Non si tratta di una definizione nel senso stretto del termine dal momento che autori diversi possono utilizzare numeri diversi. C’e’ chi parla di 50 mm in un’ora, chi di 20, chi parla di precipitazioni nell’arco di due ore, ecc.

Detto questo, capite bene come il termine sia in realta’ una forzatura di quello che, fino a pochi anni fa, eravamo soliti chiamare aquazzone ed inoltre non presenta una definizione univoca.

Prima di chiudere, ragioniamo ancora su un particolare: alla luce di quanto osserviamo, sembrerebbe che gli acquazzoni, o le bombe d’acqua, siano aumentati notevolmente negli ultimi anni. E’ una sensazione o l’aumento e’ tangibile? Su alcuni siti trovate numeri veramente sparati a caso. Su piu’ di una fonte ho trovato che prima si poteva parlare di una bomba d’acqua ogni 10 anni mentre ora questo fenomeno si presenta, nel solo territorio italiano, fino a 3-4 volte all’anno. Questo non e’ assolutamente vero.

Negli ultmi anni, il numero di acquazzoni e’ sensibilmente aumentato e questo e’ dovuto all’effetto serra e all’aumento della temperatura media dei mari. Perche’? Quando parliamo di aumento di temperatura delle acqua, al solito, ci si riferisce ad incrementi inferiori al grado, ma che possono avere effetti importanti sulle dinamiche atmosferiche. Durante la formazione delle nuvole temporalesche, la maggior differenza di temperatura tra terra e quota provoca un aumento dell’energia e delle precipitazioni potenziali del fronte. Proprio l’aumento di temperatura dei mari causa una maggior quantita’ di precipitazioni che, nella definizione data prima, provoca un aumento del numero di acquazzoni.

Concludendo, il termine bomba d’acqua non e’ una definizione metereologica ne tantomeno una quantita’ di piogge univocamente accettatata. Come visto, l’origine del termine e’ da ricercarsi nei giornali sempre troppo impegnati a trovare neologismi o parole ad effetto per attrarre maggiormente l’interesse dei lettori. Le bombe d’acqua di cui tanto si parla in questi ultimi tempi, altro non sono che gli acquazzoni violenti di cui abbiamo sempre sentito parlare. Come visto, il numero di fenomeni temporaleschi violenti e’ in sensibile aumento non a causa di strane attivita’ fatte dall’uomo sull’atmosfera ma a causa dell’effetto serra che provoca un aumento minimo della temperatura dei mari.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Rapido aggiornamento sulla ISON

20 Ott

Uno degli argomenti che maggiormente fa discutere sul web, sia sotto il profilo scientifico che catastrofista, e’ senza dubbio la cometa Ison. Come sappiamo bene, gia’ da mesi circolano leggende riguardo a questa cometa, racconti di fantasia che vorrebbero la cometa essere in realta’ questo o quest’altro, essere in rotta di collisione con la Terra o tante altre storielle non documentate che fanno sorridere piu’ che riflettere.

Dal canto nostro, diverse volte abbiamo parlato della ISON:

2013 o ancora piu’ oltre?

E se ci salvassimo?

Che la ISON abbia pieta’ di noi!

– Se la Ison non e’ cometa, allora e’ …

Come sappiamo bene, questa cometa era stata annunciata come la cometa del secolo. Onde evitare fraintendimenti, vi ricordo che un calcolo simulato della reale traiettoria di qusto tipo di oggetti non e’ banalmente eseguibile. Con questo non intendo dire che la cometa potrebbe essere in rotta di collisione con la Terra, bensi’ che determinare a priori, e a distanza di mesi, se la Ison sia in grado di sopravvivere al massimo avvicinamento con il sole non e’ affatto facile.

Detto questo, credo sia interessante dare un rapido aggiornamento sulla Ison per capire quali sono i risultati delle ultime osservazioni.

Ad oggi, la Ison si trova ancora dalle parti di Marte ed ha superato la cosiddetta linea di gelo di cui avevamo parlato negli articoli precedenti.

In rete si trovano alcune foto molto interessanti scattate alla cometa. Per prima cosa vi voglio mostrare questa immagine:

Immagine della Ison al 1 Ottobre scattata dal MRO.

Immagine della Ison al 1 Ottobre scattata dal MRO.

Queste immagini sono state scattate il 1 Ottobre, quando la ISON e’ passata a circa 6.5 milioni di kilometri dalla superficie del pianeta rosso, distanza estremamente minore di quella di minimo avvicinamento alla Terra. Le foto sono state fatte dalla sonda MRO che sta esplorando la superficie di Marte. Se pensate che la risoluzione delle immagini sia troppo bassa, vi dico subito che le foto sono state fatte utilizzando la camera HiRISE della sonda, normalmente utilizzata per osservare ad alta risoluzione la superificie del pianeta. Questo spiega il perche’ della bassa risoluzione ma soprattutto vi fa capire quanto versatile sia questa camera montata sul MRO.

Oltre a questa prima foto, in queste ultime ore e’ stata pubblicata un’altra immagine spettacolare della cometa:

Immagine della Ison del 9 Ottobre, scattata dal telescopio Hubble.

Immagine della Ison del 9 Ottobre, scattata dal telescopio Hubble.

Inutile dire che questa immagine e’ davvero sensazionale. La foto e’ stata scattata il 9 ottobre dal telescopio Hubble. In questo caso, lo strumento utilizzato era ovviamente ottimizzato per questo genere di riprese e l’immagine e’ stata ottenuta sovrapponendo le informazioni di due diversi filtri.

Fate attenzione ad una cosa, notate come la parte centrale della cometa appaia molto compatta ed uniforme. Cosa significa questo? Semplicemente, che il nucleo della cometa non si e’ frammentato ma e’ ancora del tutto compatto. Questa informazione e’ molto importante per poter valutare il destino della Ison nel passaggio al perielio.

Dunque? Se il nucleo e’ compatto, siamo pronti allo spettacolo tanto atteso?

Purtroppo, questa sarebbe una conclusione affrettata. Da una stima preliminare, e al contrario di quanto affermato nelle settimane scorse dai tanti siti catastrofisti, il nucleo della Ison ha una dimensione molto minore di quella aspettata. In questo caso, parliamo di un nucleo con un diametro tra 0.5 e 2 km appena, molto minore di quello, ad esempio, della Hale Bopp di cui tutti abbiamo uno splendido ricordo.

Ovviamente, il fatto di avere un nucleo compatto da qualche speranza in piu’ per il passaggio al perielio, anche se, viste le dimensioni, e almeno in questa fase preliminare, ridimensiona molto lo spettacolo che ci attende qualora la cometa sopravviva al passaggio radente intorno al Sole. Sicuramente, anche in queste condizioni, la Ison sara’ in grado di offire un buon spettacolo, ma, molto probabilmente, non ai livelli che molti attendevano.

Nonostante questo, non dimentichiamo che ogni passaggio di questi oggetti ci consente di capire meglio molte importanti caratteristiche delle comete. Allo stato attuale, la Ison potrebbe essere molto ben visibile a Dicembre, dopo il passaggio al perielio il 28 novembre. Purtroppo, molto probabilmente, non avremo un qualcosa piu’ luminoso della luna ne tantomeno visibile in pieno giorno.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

11 settembre 2001: USA sotto attacco

23 Set

Dalla discussione avuta con un nostro caro lettore, mi e’ stato richiesto eplicitamente un articolo sugli attentati dell’11 settembre 2001. Ovviamente, non posso che essere lusingato di questa richiesta, che mi chiede di analizzare con lo stile di questo blog, uno dei fatti piu’ cruenti e significativi degli ultimi anni.

Come sapete bene, proprio da questi fatti, molti analisti fanno iniziare la crisi economica, l’inizio di quella che potrebbe essere considerata una guerra tra Occidente e Islam ma anche un cambio di coscienza globale di una civilta’ che da un giorno all’altra si e’ trovata nell’era moderna. Queste considerazioni, non vengono fatte solo a scopo introduttivo. A mio avviso, questi fattori entrano prepotentemente nell’analisi che viene richiesta per poter inquadrare al meglio i fatti nello specifico.

Trattare il tema dell’11 settembre non e’ di per se facile. Per diversi giorni ho studiato materiale, letto interviste, visionato filmati. Come sapete bene, la rete e’ strapiena di cospirazioni pensate, o anche immaginate, riguardo a questi attentati. Ovviamente, sarebbe impossibile trattarle tutte e con elevato dettaglio. Di questo mi scuso da subito. Sono consapevole che questo articolo potrebbe scatenare una pletora di commenti, forse neanche troppo soft, di qualcuno che crede fortemente che quanto accaduta sia una grande montatura.

Proprio partendo da queste osservazioni, vorrei sottolineare una cosa. Molte teorie affondano le loro radici sul fatto che i servizi segreti sapessero in anticipo degli attentati, discutono del perche’ i caccia siano partiti troppo presto o troppo tardi dalle basi militari, del perche’ il presidente fosse rimasto cosi’ tanto tempo nella famosa scuola elementare invece di correre sul luogo dell’attentato. Se sperate di avere risposte a queste domande, vi dico subito che queste non verranno trattate e non sono materia di questo blog. Perche’? Noi siamo qui per parlare di scienza e per analizzare i complotti e le catastrofi che vengono annunciate. Fate attenzione, ho detto “analizzare”, non “smentire”. Questa e’ la sottile differenza che ci distingue da coloro che sostengono i complotti per partito preso, ma anche da coloro che cercano in tutti i modi di smontarli senza cognizione di causa. Dal nostro punto di vista, cerchiamo sempre di non partire prevenuti, ma di rimanere aperti ad ogni risultato il nostro ragionamento potrebbe raggiungere. In fondo la scienza ci insegna questo, un risultato non e’ bello o brutto a seconda che ci faccia comodo o no, e’ un risultato che deve essere sostenuto da ipotesi oggettive.

Bene, quello che dunque vogliamo analizzare in questo post e’ il discorso della caduta delle torri gemelle, anche dette WTC1 e WTC2, dell’ulteriore edificio caduto a 200 metri dalle torri, il WTC7 e dell’aereo arrivato sul Pentagono.

Come sapete bene, anche perche’ molti hanno fatto fortuna parlando di queste ipotesi, i complottisti sostengono che sia fisicamente impossibile che i due edifici principali del World Trade Center siano caduti per l’impatto degli aerei o per gli incendi sviluppati all’interno. Secondo queste teorie, il dirottamento degli aerei sarebbe stata solo una farsa creata ad hoc. In realta’, le torri sarebbero cadute perche’ precedentemente minate con esplosivo o peggio ancora con termite, una sostanza in grado di sviluppare altissime temperature con un innesco a bassa temperatura. Le prove di questo sarebbero date dalla dinmica del crollo delle torri, perfettamente compatibili con una distruzione pianificata, esattamente quella che viene fatta da esperti per buttare giu’ un palazzo. Altra teoria alternativa che sta riscuotendo sempre piu’ successo in rete, e’ quella di un ordigno nucleare fatto esplodere nel sottosuolo e che avrebbe provocato la caduta delle torri per un cedimento delle fondamenta.

Prima di analizzare il crollo delle torri, vorrei fare qualche ragionamento. Per prima cosa, tutti questi scenari si basano sul fatto che il dirottamento sarebbe stato una farsa. Ma allora la domanda e’: perche’ e’ stato fatto? Nelle innumerevoli ipotesi, non ho mai letto questa risposta. Se le torri fossero state minate o se fossero cadute per l’esplosione di una bomba atomica, perche’ dirottare gli aerei e lanciarli contro uno dei simboli degli USA? Come sapete, stiamo parlando di un attentato terroristico dunque, per sua stessa definizione, volto a creare “terrore” nelle persone. La strategia di questi gruppi non e’ tanto quella di fare migliaia di vittime, quanto quella di dimostrare di poter colpire dove e quando vogliono. Perche’ dico questo? Una delle ipotesi, con o senza esplosivo, e’ che tutto sia stato organizzato dagli USA stessi, cioe’ che quello delle torri gemelle sia stato un auto-attacco. Perche’? Semplice, almeno a quello che dicono i complottisti, questo avrebbe offerto le condizioni per far partire le diverse campagne contro l’Islam, per far crollare regimi totalitari, per impadronirsi del petrolio o di altre risorse, per controllare i paesi orientali, ecc.

E’ credibile questo? Personalmente spero di no, ma l’analisi di queste considerazioni, come anticipato, non rientra negli scopi di questo articolo. Qui vogliamo solo analizzare gli attentati e capire se e’ possibile che ci sia qualcosa sotto non dichiarato. Poi se volete possiamo parlare del fatto che gli USA non siano un governo trasparente sotto molti aspetti, ma anche qui vi farei notare che nessuno stato lo e’ su determinate questioni, tantomeno l’Italia. Ci sono tantissimi fatti della nostra storia su cui c’e’ ancora un’aura di mistero e di possibile complotto. Non meravigliamoci di questo. Certo, da qui a parlare di auto-attentato ce ne passa.

Torniamo dunque all’attentato. Per prima cosa, vorrei escludere da subito, e chiunque dotato di buon senso dovrebbe farlo altrettanto velocemente, l’ipotesi ordigno nucleare sotterraneo. Perche’? Per prima cosa, un’esplosione nucleare produce radiazioni. E’ vero che si parla di esplosione sotterranea ma chi ce l’ha messa? Come? Possibile che non ci sia stata nessuna fuga di radiazioni?

Se queste considerazioni non vi bastano ve ne dico una definitiva. Se il tutto fosse provocato da un’eplosione sotterranea, sarebbero state colpite prima di tutto le fondamenta delle torri e, di conseguenza, il cedimento sarebbe stato dal basso. Come tutti sanno, con le immagini di quegli attimi ben presenti nelle nostre menti, la caduta e’ iniziata dall’alto, cioe’ da dove sono arrivati gli aerei.

Questo esclude subito l’ipotesi ordigno nucleare.

Bene, passiamo ora all’altra importante teoria complottista: le torri sono state progettate per resistere all’urto di un aereo di linea per cui non potevano crollare. Quelle che hanno provocato il cedimento sono state cariche piazzate in diversi piani e che hanno provocato quella che si chiama una distruzione pianificata.

Prima considerazione, come avrebbero fatto a mettere tutte queste cariche? Con un edificio del genere, le cariche avrebbero dovuto essere in molti piani, in punti diversi ed in zone di normale passaggio di persone. Chi avrebbe avuto la possibilita’ di mettere queste cariche? Come sapete, le torri erano sede di moltissimi uffici ed erano frequentate nell’arco di quasi tutta la giornata. Ah certo, quasi dimenticavo, se l’attentato e’ stato fatto dagli USA, non avevano certo problemi nel piazzare ordigni ed entrare senza destare sospetto.

Considerazione interessante. Vi faccio pero’ riflettere su un’altra cosa, perche’ allora gli aerei? Avete imbottito le torri di esplosivo per farle crollare, perche’ dirottare degli aerei da lanciare contro le torri? Per aumentare l’affetto scenico? L’ipotesi non regge tanto. Inoltre, come avete visto dai video dei crolli, il cedimento e’ iniziato proprio nei piani sopra il punto di impatto, possibile che le cariche siano state fatte brillare nell’esatta sequenza, dall’alto verso il basso, e che i dirottatori abbiano centrato esattamente il punto che avevate concordato in precedenza? Personalmente, credo che si stia passando dal complottismo alla fantascienza.

Qual e’ l’altra motivazione che spinge a pensare che l’attaco sia stato auto-pianificato? Il piano era talmente tanto perfetto e l’esecuzione talmente impeccabile che l’organizzazione poteva solo essere fatta da un governo preparato e interno al paese, dunque gli USA stessi.

Facciamo una considerazione abbastanza meschina, soprattutto se pensiamo ai 3000 morti dell’11 settembre. Gli attentati sono stati perfetti? Assolutamente falso. Vi spiego il perche’. Avete dirottato 4 aerei, due sono andati a segno sulle torri, uno ha fatto danni marginali al pentagono e uno non e’ nemmeno arrivato a destinazione. Siete arrivati contro le torri in un orario sbagliato. Come sapete, gli attentati sono accaduti nelle prime ore della mattinata, quando le torri non erano ancora completamente piene. Se vogliamo essere sadici, un attentato ben riuscito avrebbe scelto un orario diverso, anche solo un paio di ore dopo. Inoltre, avete colpito le torri in punti molto alti. Questo ha consentito alle persone dei piani inferiori, in larga parte, di mettersi in salvo. Tra l’altro uno degli aerei e’ arrivato completamente storto all’impatto colpendo uno spigolo della torre. E’ un piano perfetto? Direi proprio di no. Dunque, anche questa ipotesi secondo me regge poco.

Detto questo, passiamo alla dinamica del crollo.

Secondo l’ipotesi complottista, il cedimento sarebbe stato causato da cariche opportunamente piazzate come in una demolizione controllata. Le prove? Prima di tutto, la caduta perfettamente verticale delle torri, secondo ampi sbuffi di fumo e detriti che uscivano dagli edifici negli istanti precedenti il crollo. Questi sarebbero gli inequivocabili segni dovuti all’esplosione delle cariche.

Perche’ vengono fatte queste ipotesi? Come detto, le torri erano progettate per resistere all’urto di un aereo di linea. Gli incendi sviluppati all’interno degli uffici non potevano di certo raggiungere la temperatura di fusione dell’acciaio delle strutture. Se queste sono venute giu’ e’ perche’ e’ stata usata termite, in grado di raggiungere le temperature di fusione dell’acciaio, o perche’ sono stati causati cedimenti strutturali lungo tutta l’altezza delle torri.

Bene, analizziamo queste considerazioni.

Per prima cosa, gli edifici erano in grado di resistere all’impatto di un aereo, come giustamente ricordato anche dall’ideatore delle Torri Gemelle. Le simulazioni fatte al tempo prevedevano pero’ aerei piu’ piccoli rispetto a quelli utilizzati nel 2001 e, soprattutto, scarichi di carburante. Perche’ questo? Semplice, nei calcoli si era presa in considerazione l’ipotesi in cui un velivolo in fase di atterraggio a New York, dunque con poco carburante, a causa della nebbia finisse contro gli edifici. La dinamica dell’attentato del 2001 e’ completamente diversa con aerei decollati da poco tempo e con serbatoi carichi, anche se non pieni, di kerosene.

Cosa e’ successo nell’impatto? Gli aerei sono penetrati all’iinterno degli edifici. A causa dell’urto, il kerosene dei serbatoi si e’ incendiato provocando la fiammata iniziale che tutti ricorderete.

Ingresso dell'aereo in una delle due torri

Ingresso dell’aereo in una delle due torri

Le fiamme hanno ovviamente provocato il divamparsi di incendi in tutti i piani interessati dall’urto. Vi ricordo che le torri erano sede di molti uffici per cui erano piene di carta, arredi d’ufficio, pc, tutte cose facilmente infiammabili.

Bene, abbiamo l’urto, abbiamo l’incendio, ma le torri sono ancora in piedi. Dunque? Perche’ solo a distanza di decine di minuti si e’ avuto il crollo delle torri, e per di piu’ la seconda colpita e’ caduta per prima?

Le risposte a quete domande sono quelle che segnano il confine tra complotto e spiegazione logica.

Andiamo con ordine.

Come sono fatte le torri?

Su diversi siti, non necessariamente di complottisti, ho letto molte cose inesatte sulla struttura delle torri. Capire questo punto e’ la chiave di interpretazione dei fatti.

La struttura delle torri e’ fatta da una serie di colonne perimetrali che corrono tutt’intorno gli edifici e da una parte di colonne centrali che costituiscono il core:

Struttura con travi di acciaio delle Torri

Struttura con travi di acciaio delle Torri

Abbiamo dunque una struttura portante di colonne d’acciaio, molto solida, ma sufficientemente elastica da resistere non solo ad attentati, ma anche a condizioni naturali e normali di utilizzo. Pensate ad esempio ad una scossa di terremoto che fa vibrare tutta la struttura o anche solo al vento in grado di sollecitare fortemente una struttura alta piu’ di 400 metri.

Come sono legate le due serie di colonne? Ovviamente con dei solai. Anche in questo caso, e’ stato utilizzato acciaio, per creare una struttura legata in questo modo:

Solai in acciaio

Solai in acciaio

Sui solai sono disposti i pavimenti dei vari piani costituiti da lastre di cemento.

Molte delle ipotesi complottiste partono dal fatto che per far crollare una struttura di questo tipo, e’ necessario far fondere completamente l’acciaio. Per ottenere questo risultato, si devono raggiungere temperature superiori ai 1500 gradi, cosa impossibile bruciando kerosene. Tra l’altro, le colonne di fumo nero che ricorderete intorno alle torri, sono sinonimo di cattiva combustione dunque di temperatura non troppo alta. Secondo alcuni, nel calcolo delle temperature, tra l’altro sulla rete ho letto degli strafalcioni incredibili di termodinamica senza distinguere temperatura e calore, mancherebbe l’apporto dei mobili e della carta. Anche in questo caso pero’, viene giustamente fatto notare che non si riesce a raggiungere la temperatura di fusione dell’acciaio.

Vero anche questo. Ma perche’ si dovrebbe far fondere l’acciaio? Premesso che per la fusione servono le temperature di cui abbiamo parlato, gia’ a 500 gradi l’acciaio lascia la sua fase elastica per arrivare a quella plastica. In queste condizioni, il materiale e’ molto morbido e presenta dunque una resistenza strutturale molto minore, anche del 90% inferiore, rispetto alle condizioni ambientali. Perche’ facciamo notare questo? Un materiale in queste condizioni, inficia in modo preponderante la resistenza della struttura.

Secondo i complottisti, la caduta degli edifici sarebbe stata perfettamente verticale, come in una demolizione studiata. Su questo punto, non c’e’ neanche da discutere. Per prima cosa, vi mostro una foto aerea della zona:

Detriti dovuti al crollo in tutta l'area del World Trade Center

Detriti dovuti al crollo in tutta l’area del World Trade Center

Come vedete, i residui dei crolli sono ovunque. Torneremo su questo punto, discutendo la caduta del WTC7.

Inoltre, e’ evidente dalle prove fotografiche che la caduta degli edifici non e’ stata assolutamente verticale. La parte di torre superiore al punto di ingresso degli aerei, si e’ staccata con un’angolazione molto pronunciata, circa 30 gradi per una torre e 15 per l’altra. Ecco una foto molto esplicativa:

Crollo inclinato della parte alta della torre

Crollo inclinato della parte alta della torre

Vedete quanto e’ inclinata la parte superiore? Non credo che, alla luce di questo, si possa parlare di caduta verticale.

Perche’ sono cadute le torri?

Come detto, gli edifici erano pensati per resistere all’impatto di un aereo, anche se scarico di carburante e di dimensioni minori di quelli dirottati. Nonostante questo, le torri hanno resistito all’impatto, infatti non sono cadute subito a causa dell’urto. La stessa cosa si puo’ dire per l’incendio. Gli edifici erano pensati per resistere 2 ore ad un incendo completo. Eppure sono cadute. Perche’?

Quello che spesso non viene considerato e’ il fattore combinato incendio-impatto.

Vi faccio un esempio molto semplice. Prendete una lattina di bibita da 33 cl. Quella lattina e’ fatta da un sottilissimo foglio di alluminio, ma ha una resistenza a compressione elevatissima. E’ in grado di reggere tranquillamente il peso di una persona. Se pero’ la schiacciate leggermente da un lato, basta una minima pressione per accartocciarla. Bene, quello che e’ successo alle torri e’ del tutto analogo all’esempio della lattina. L’ingresso dell’aereo ha provocato danni ad alcuni dei pilastri perimetrali, questo ovviamente compromette la stabilita’ della struttura, ma non del tutto. Il seguente incendio che si e’ sviluppato, ha portato non la liquefazione dell’acciaio, ma un suo ammorbidimento. Questo ovviamente in tutti quei piani interessati dall’urto. Inoltre, il calore ha modificato pesantemente la resistenza meccanica delle travi utilizzate per i solai. In questo caso, le travi si sono ritirate, a causa della minore resistenza meccanica, tirando le travi perimetrali verso quelle del core centrale.

In questa foto si vede un dettaglio della parte interessata dall’incendio ed in cui e’ chiaramente visibile l’avvicinamento della parete laterale verso l’interno:

Dettaglio dell'incendio con parete che rientra

Dettaglio dell’incendio con parete che rientra

Come detto, questo e’ sintomatico del cedimento meccanico delle travi dei solai.

A questo punto, avete una struttura molto debole in diverse parti. Dopo decine di minuti di incendio, la parte alta, tagliata sotto dall’ingresso dell’aereo, cede sotto il suo peso premendo sulla parte inferiore della torre. Una struttura meccanica gravemente compromessa come quella in esame ad un certo punto non riesce piu’ a resitere al peso e cede su se stessa.

E ‘ dimostrabile questo? Assolutamente si. Sono stati pubblicati diversi articoli con simulazioni FEM, tra l’altro su riviste internazionali, che hanno dimostrato come la caduta delle torri sia perfettamente compatibile, nei tempi e nei modi, con quella dell’attentato avvenuto. Uno di questi e’ scaricabile da questo link:

Usmani

Tra l’altro, proprio a causa del cedimento improvviso sotto il peso, la caduta delle torri e’ risultata quasi istantanea come un corpo in caduta libera. Questo perche’ i piani inferiori che via via venivano interessati, venivano schiacciati da un peso sempre crescente.

Altra considerazione importante, possibile che la torre sia caduta istantaneamente tutta insieme, polverizzando tutto? Anche queste considerazioni sono del tutto false. Prima cosa, come anticipato, la caduta non e’ stata verticale ma i detriti hanno interessato una vasta zona del World Trade Center. Inoltre, non e’ assolutamente vero che si e’ polverizzato tutto. Ci sono diverse prove come questo video:

Video, frammenti

che mostrano la caduta di detriti molto grandi, molto pesanti e soprattutto interi verso il basso.

Altra cosa rimasta in sospeso, cosa dire degli sbuffi che si vedevano durante il crollo delle torri? Per farvi capire meglio, i sostenitori del complotto si riferiscono ad esempi come questo:

Sbuffi di materiale interpretati come detonazioni

Sbuffi di materiale interpretati come detonazioni

Secondo alcuni, questa sarebbe la prova dell’esplosione di alcune bombe lungo la torre. Niente di piu’ falso. Come potete facilmente immaginare, si tratta soltanto dell’aria interna agli edifici che viene compressa per schiacciamento durante la caduta e che riesce a frantumare i vetri esterni. Allo stesso modo, le presunte esplosioni che vengono raccontate da alcuni testimoni durante il crollo, altro non sono che il rumore dei vetri che andavano in frantumi o anche quello delle lastre di cemento che costituivano i pavimenti dei piani. Come detto, a causa della variazione di tenuta dei pilastri del solaio, i pavimenti non possono far altro che cedere e precipitare verso i piani inferiori.

Detto questo, non credo ci dovrebbero essere dubbi sul fatto che la caduta delle torri e’ stata provocata dalla combinazione dell’impatto dell’aereo e dell’incendio che si e’ sviluppato. Come visto, non solo questo e’ documentabile dalle molte prove fotografiche di quel tremendo giorno, ma ci sono anche numerosi articoli a sostegno che dimostrano la veridicita’ delle ipotesi. Solo questi, e il fatto che la dinamica del crollo sia simulabile, dovrebbero smentire tutte quelle voci che cercano evidenze di qualcosa di diverso nel crollo del WTC1 e 2.

Detto questo, passiamo invece all’altro grande mistero di quel giorno, il crollo del WTC7. Per chi non ne fosse a conoscenza, l’area del World Trade Centrer, era composta da diversi edifici, di altezze diverse. L’11 settembre 2001, oltre alle due torri, cadde anche un altro edificio, appunto detto WTC7, che non venne assolutamente colpito da niente. Perche’ e’ importante questo fatto nelle teorie complottiste? Semplice, il fatto che questo sia caduto senza essere stato colpito, indica chiaramente che gli edifici della zona fossero stati minati precedentemente. Evidenza che sosterrebbe le ipotesi viste prima. Tra l’altro, come evidenziato dai complottisti, il WTC7 non puo’ essere stato colpito da detriti per due buone ragioni. La prima e’ che si trova a circa 200 metri dalla torre piu’ vicina e tra i due vi era un altro edificio, chiamato WTC6, che lo proteggeva completamente e che non e’ andato distrutto dopo il crollo della torre. Il secondo motivo e’ ancora piu’ semplice, dal momento che si e’ trattato di un crollo studiato e verticale e in cui i detriti sono stati polverizzati, niente sarebbe potuto cadere cosi’ lontano.

A questa seconda ipotesi abbiamo gia’ abbondantemente risposto, mostrando come i detriti ci sono, anche di notevole dimensione, e dimostrando come la caduta non sia stata verticale. Questa osservazione e’ dunque da scartare a priori.

Resta pero’ l’altra ipotesi. Tra la torre che crolla e il WTC7 c’e’ un altro edificio che non crolla. Come e’ possibile? Inoltre, il WTC7 e’ caduto dopo diverse ore dalle torri, altro aspetto inspiegabile. Per chi non lo sapesse, anche in questo caso, parliamo di un edificio di 47 piani con struttura in acciaio, dunque non un castello di carte che cade da solo per opera del vento.

Per capire questo crollo, e’ necessario vedere la planimetria del World Trade Center, quando ancora esisteva:

Mappa degli edifici del World Trade Center

Mappa degli edifici del World Trade Center

Come vedete, effettivamente il WTC7 e’ completamente protetto dal WTC6 che impedisce a qualsiasi detrito di danneggiare l’edificio.

Spesso pero’, quelli che pensano i complotti, dimenticano che le spiegazioni piu’ semplici sono quelle che andrebbero considerate per prime. Siamo a New York, Stati Uniti di America, dove si costruiscono grattacieli con altezze completamente diverse. Invece di fermarci alla planimetria, vediamo un prospetto della zona con le altezze in scala degli edifici:

Modello 3D degli edifici del World Trade Center

Modello 3D degli edifici del World Trade Center

Notato niente? Guardate quanto e’ alto il WTC7 rispetto al WTC6 che si trova di fronte. Praticamente questo edificio vede benissimo la torre di fronte ed e’ completamente esposto alla caduta dei detriti.

Cosa e’ successo precisamente l’11 settembre 2001?

Durante la caduta della torre piu’ vicina, il WTC7 ha subito alcuni danni strutturali, come riportato in questa foto:

Dettaglio del WTC7 dopo il crollo della torre piu' vicina

Dettaglio del WTC7 dopo il crollo della torre piu’ vicina

Come si vede, e come indicato enlla foto stessa utilizzata nei rapporti ufficiali, il WTC7 ha subito, durante il crollo della torre, danni evidenti ai piani alti. Sempre a causa della caduta di detriti, sono divampati anche incendi all’interno dell’edificio.

E’ strano questo?

Assolutamente no, come ricorderete bene, ci sono stati numerosissimi casi di incendi a terra a causa di detriti in fiamme caduti dalle torri. Uno di questi ha colpito il WTC7 in cui sono divampati incendi.

Allora, anche qui abbiamo un edificio danneggiato, anche se lievemente, ed un incendio in corso. Poi? Quello che e’ successo e’ evidente, l’edificio e’ stato lasciato crollare. Perche’? Ovviamente, tutti gli occupanti erano stati fatti evacuare. I pompieri erano in notevole difficolta’ per tenere sotto controllo le torri. Abbiamo un edifico vuoto, danneggiato e che brucia. Inoltre, per lungo tempo c’e’ stata mancanza di acqua per cui, anche volendo, i pompieri non hanno avuto modo di domare l’incendio all’interno del WTC7. Detto questo, l’edificio e’ stato lasciato al suo destino. In questo caso, come anticipato, ci e’ voluto molto piu’ tempo affinche’ il WTC7 crollasse e infatti, e su questo sono tutti d’accordo, il crollo e’ avvenuto solo nel pomeriggio inoltrato ora di New York.

Dunque, anche per il WTC7 esiste una spiegazione razionale ottenuta dall’analisi condotta fino a questo punto.

Resta da analizzare l’aereo che e’ arrivato contro il pentangono. In questo caso, le teorie complottiste parlano di una manovra impossibile da fare per un aereo di linea dal momento che il punto di impatto e’ tra il piano terra e il primo piano, dunque troppo vicino al terreno, che il carello si sarebbe abbassato da solo sotto una certa quota, ma soprattutto che un velivolo cosi’ basso avrebbe necessariamente fatto danni attraversando la vicina autostrada. Secondo queste ipotesi, in questo caso non si e’ nemmeno trattato di un aereo, bensi’ di un missile cruise. Questo avvalora l’ipotesi secondo la quale non si e’ trattato di un attentato ma di un auto attacco da parte del governo per permettere le future politiche in medio Oriente.

Prima cosa, molte delle foto che trovate in rete e che parlano di foro troppo piccolo e incompatibile con quello che lascerebbe un aereo sono false. Quelle reali, dimenticano di considerare che molte delle parti dell’aereo sono in realta’ estremamente leggere e dunque dotate di potere di penetrazione molto basso, soprattutto se rapportate con una struttura di cemento armato rinforzato come quella del pentagono. Detto questo, mi sento di escludere subito l’ipotesi missile.

Restano pero’ le altre supposizioni. Prima di tutto, e’ assolutamente falso dire che i carrelli degli aerei si abbassano da soli. Inoltre, non mi sembra che sia cosi’ impossibile centrare il bersaglio. Come giustamente fatto notare nelle controipotesi, ogni giorno tutti gli aerei centrano il bersaglio rappresentato dalla pista di atterraggio. Ci sono tantissimi aereoporti in cui le piste sono in posizioni davvero scomode, vicino al mare, deitro le montagne, ecc. Condizioni che devono essere studiate molto bene, ma che vengono eseguite senza problemi.

Inoltre, non e’ affatto vero che il volo radente dell’aereo non e’ passato sulla vicina autostrada. Vi mostro una foto:

Palo divelto sull'autostrada di fronte al pentagono

Palo divelto sull’autostrada di fronte al pentagono

Come vedete, questi sono i piloni dell’illuminazione dell’autostrada che sono stati abbattutti dal passaggio dell’aereo. Questa ipotesi viene utilizzata per mostrare l’incompatibilita’ della traiettoria seguita. Se l’aereo non ha toccato l’autostrada, come ha fatto a volare poi rasoterra vicino al pentagono? Questo implicherebbe una manovra non possibile con un aereo di quelle dimensioni. Questa foto che ho mostrato, come tante altre che trovate in rete, mostrano l’esatto contrario. Al passaggio sull’autostrada, il volo dirottato era gia’ molto basso e puntava dritto contro il pentangono.

Riassumendo, i crolli delle torri gemelle e del WTC7 sono perfettamente compatibili con la versione ufficiale. Inoltre, le simulazioni FEM fatte sugli edifici per studiare la dinamica dell’impatto hanno dato risultati perfettamente compatibili con quelli visti in quel tragico giorno. Questo solo per mentire tutte quelle voci che vorrebbero l’attentato mediante aerei solo una messa in scena per distrarre dalle cariche piazzate all’interno dell’edificio. Come visto, il crollo del WTC7 e’ del tutto compatibile con la caduta dei detriti che hanno dapprima danneggiato l’edificio e poi fatto divampare l’incendio che ha bruciato per ore. Questo dimostra anche la non fondatezza delle ipotesi sulla caduta verticale o sulla demolizione programmata delle torri.

Per quanto riguarda il pentagono, come visto, la traiettoria seguita dall’aereo e’ perfettamente compatibile con quella pensata. Il velivolo ha volato in assetto quasi parallelo al terreno gia’ quando si trovava sopra la vicina autostrda. A riprova di questo, ci sono prove fotografiche che mostrano i pali dell’illuminazione divelti dal passaggio a bassa quota. Questo anche per escludere l’ipotesi quanto mai fantasiosa del missile cruise.

Ultima considerazione. Come detto all’inizio di questo lunghissimo articolo, il mio scopo era solo quello di analizzare i crolli e ragionare sulle tante ipotesi di complotto che si sono alimentate nel corso degli anni. Non voglio fare un trattato di economia e politica internazionale, ne tantomeno parlare di governo centrale degli Stati Uniti. Possiamo dire che gli attentatori erano pagati dal governo USA? Personalmente, credo di no, ma non sta a me dirlo ne tantomeno riuscire a dimostrarlo ragionando scientificamente.

Vorrei pero’ farvi riflettere su un’ultima cosa. A mio avviso, gli attentati dell’11 settembre 2001 hanno mostrato un paese non pronto ad attacchi di questo tipo. Molti fanno ipotesi complottiste ragionando sul fatto che i caccia non si siano alzati per abbattere gli aerei dirottati o che non ci fosse un adeguato sistema di controllo e difesa. Secondo me, il discorso non e’ neanche questo. Gli Stati Uniti, prima del 2001, erano abituati a combattere guerre fuori dai loro confini. Con l’attentato del World Trade Center hanno scoperto che il mondo globalizzato era in grado di portare la guerra anche dentro i loro confini. E’ facile pensare ad una potenza bellica perfetta finche’ questa non viene testata sul campo. Nel caso degli USA, fino a quel momento, il paese pensava di essere invincibile e immune da attacchi di questo tipo. Purtroppo, anche sotto questo aspetto, l’11 settembre 2001 ha segnato un momento di svolta epocale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.