Tag Archives: simulazioni

Buon appetito Sagitarius A*

5 Mag

Un nostro caro lettore, nella sezione:

Hai domande o dubbi?

ci ha segnalato delle pagine davvero molto interessanti, dal nostro punto di vista, riguardanti un evento cosmico molto affascinante che sta iniziando proprio in questi mesi e durera’ per almeno una decina di anni.

Di cosa si tratta?

Molto probabilmente, se siete appassionati di astronomia e eventi cosmici, avrete sentito parlare di G2, una nube di gas che si sta avvicinando verso il centro della nostra galassia. Cosa c’e’ di speciale in questo movimento? In alcuni articoli abbiamo gia’ parlato del centro della Galassia e soprattutto di Sagitarius A*, il buco nero super massivo che si trova in questo punto:

Nube assassina dallo spazio

Meteorite anche a Cuba e dark rift

Nuova sconvolgente Teoria

Come visto, non c’e’ assolutamente nulla di anormale nella presenza di questo buco nella nostra galassia anzi, per dirla tutta, si pensa che oggetti di questo tipo siano presenti nel centro di molte galassie.

Ora, cosa sarebbe G2? Anche in questo caso, dietro questo nome misterioso, non c’e’ nulla di sorprendente. Si tratta di una nube di gas con una massa circa 3 volte quella della Terra che pero’ si trova molto vicina a Sagitarius. Come e’ ormai noto, parlando cosmologicamente di “molto vicino”, intendiamo comunque dimensioni molto elevate. Nel caso di G2, la sua orbita prevede un passaggio ravvicinato con una minima distanza dal buco nero di circa 260 unita’ astronomiche. Come visto in questo articolo:

I buchi neri che … evaporano

questa distanza corrisponde pero’ a circa 3000 volte il raggio dell’orizzonte degli eventi del buco nero. Come potete facilmente immaginare, ad una distanza cosi’ “piccola”, la nube sara’ attratta dalla gravita’ del buco nero per cui gli effetti di questa forza saranno molto intensi per il gas.

G2 e’ stata scoperta nel 2002, ma solo nel 2012 si e’ iniziato a studiarla in dettaglio proprio quando si e’ ricostruita con maggiore precisione la sua orbita. Il passaggio ravvicinato con Sagitarius A*, rappresenta un evento cosmico molto importante dal punto di vista dell’astrofisica. Durante questo incontro, sara’ infatti possibile studiare in dettaglio diverse caratteristiche dei buchi neri, ancora poco noti, come, ad esempio, il processo di accrescimento, la gravita’, l’orizzonte degli eventi, ecc..

Perche’ questo evento viene richiamato da alcuni siti catastrofisti? La motivazione e’ sempre, purtroppo, la stessa: speculare su eventi assolutamente non pericolosi pur di aumentare le visite ai propri siti. Come visto negli articoli precedenti, la Terra si trova a circa 26000 anni luce dal centro della Galassia. Questo significa che, anche volendo, qualunque cosa, radiazione o materia, sparata da Sagitarius A verso la Terra impieghera’ al minimo 26000 anni per raggiungerci. Detto questo, non credo sia il caso di preoccuparci ne’ di questo incontro, ne’ di qualunque altro evento cosmico che possa interessare il centro della nostra galassia.

Oltre a questa speculazione “scontata”, come sottolineato nel commento iniziale da cui siamo partiti, ci sono alcuni siti, apparentemente camuffati da siti scientifici, che propongono teorie “alternative” per G2 e per il suo passaggio ravvicinato. La prima ipotesi che salta agli occhi e’ che si vorrebbe far credere che G2 non sia in realta’ una nube di gas ma una stella. E’ possibile questo? In realta’ si, ma questa ipotesi, prima che su questi siti, e’ stata discussa a livello scientifico. Esistono infatti diverse ipotesi sull’origine e sulla struttura di G2. Come detto all’inizio, si pensa con maggiore probabilita’ che questa sia una nube di gas. Da dove proviene? Ipotesi possibili potrebbero essere che si tratti di una nube di gas cosmico isolata oppure che si tratti dell’atmosfera di una qualche stella strappata da eventi cosmici. Un’idea alternativa prevede invece, da studi sull’orbita, che non si tratti esclusivamente di gas, ma che, all’interno della nube osservata, ci sia un corpo massivo come una stella nelle fasi finali della propria esistenza. Altre ipotesi alternative prevedono che G2 sia un proto-pianeta, cioe’ quello che rappresentava un disco di accrescimento di un corpo massivo che pero’ non e’ riuscito a formarsi a causa della temperatura troppo alta dei gas. Tutte ipotesi possibili scientifiche e su cui ancora oggi si dibatte.

Dal punto di vista del passaggio ravvicinato, cosa comporterebbe una struttura diversa di G2?

Ovviamente, la reale natura della nube, continuiamo a chiamarla cosi’, determinera’ uno “spettacolo” diverso durante il passaggio. Per essere precisi, e per smentire alcuni siti e giornali che hanno usato titoli pomposi, questo passaggio non rappresentera’ un lauto pasto per Sagitarius A*, ma piu’ che altro uno spuntino. La minima distanza di passaggio sara’ tale da far avvertire l’attrazione gravitazionale da parte del buco nero ma, molto probabilmente, G2 sopravvivera’ all’incontro perche’ troppo distante dall’orizzonte degli eventi.

Diverse simulazioni condotte in questi mesi hanno mostrato scenari possibili in cui G2 sopravvivera’ anche se la sua orbita e la sua struttura saranno fortemente modificati. In particolare, dopo l’incontro, la nube di gas potrebbe essere talmente diffusa da non apparire piu’ come compatta. Inoltre, se G2 fosse composta solo ed esclusivamente di gas, durante l’assorbimento da parte di Sagitarius A*, verranno emessi brillamenti di radiazione soprattutto nei raggi X. Al contrario, se all’interno fosse presente un corpo massivo, questo effetto sarebbe notevolmente ridimensionato. Come potete capire molto bene, dall’emissione di radiazione nel passaggio, sara’ dunque possibile capire anche la struttura intima di G2.

Vi mostro anche una simulazione di uno degli scenari possibili dell’attrazione di G2 da parte del buco nero:

Simulazione dell'attrazione di G2 da parte di Sagitarius A*

Simulazione dell’attrazione di G2 da parte di Sagitarius A*

Come vedete, l’orbita seguita dalla nube viene deviata verso la parte centrale a causa dell’attrazione gravitazionale esercitata da Sagitarius A*.

Concludendo, a partire dal 2013 e’ iniziato il passaggio ravvicinato di una nube di gas, G2, in prossimita’ del buco nero che occupa il centro della nostra galassia, Sagitarius A*. Questo evento cosmico durera’ uan decina di anni che rappresentano comunque un intervallo molto breve sulle scale del nostro universo. A parte le speculazioni sempre presenti per eventi di questo tipo, si tratta di un evento assolutamente non pericoloso, ma estremamente affascinante dal punto di vista scientifico. Come visto nell’articolo, osservando questo passaggio, sara’ possibile ottenere informazioni molto importanti sulla nube di gas, sulla sua struttura interna ma, soprattutto, sara’ possibile carpire informazioni molto importanti per comprendere meglio i buchi neri e i processi che ne regolano il loro accrescimento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Sperimentazione animale

2 Gen

Sul forum di Psicosi 2012:

Psicosi 2012 forum

e’ nata una discussione molto interessante sulle conseguenze che le campagne di disinformazione e coinvincimento da parte di alcuni siti possono avere sulle persone. In particolare, il dibattito era incentrato sull’emotivita’ e su quanto il voler creare odio e complottismo puo’ sfociare in reazioni esagerate e fuori controllo. All’interno di questa discussione, si e’ poi arrivati al caso, molto discusso in questi giorni, della ragazza di Bologna che ha riacceso il dibattito sulla sperimentazione animale.

Per chi non fosse informato sui fatti, credo pochi se non altro per l’enorme eco mediatica che la notizia ha avuto,  una ragazza, per la precisione Caterina Simonsen, ha inizialmente pubblicato sul suo profilo facebook questa foto:

La foto su facebook che ha acceso il dibattito sulla sperimentazione animale

La foto su facebook che ha acceso il dibattito sulla sperimentazione animale

Come vedete, si tratta di un messaggio in cui si difende la sperimentazione medica animale grazie alla quale la ragazza e’ ancora in vita. Testuali parole, ne riparleremo tra poco, recitano: “senza la ricerca sarei morta a 9 anni”.

Per essere precisi, tale Caterina e’ affetta da quattro malattie rare: immunodeficienza primaria, deficit di proteina C e proteina S, deficit di alfa-1 antitripsina, neuropatia dei nervi frenici, abbinate al prolattinoma, un tumore ipofisario, e a reflusso gastroesofageo, asma allergica e tiroidite autoimmune. Come potete ben capire, il quadro clinico in questione non e’ assolutamente semplice. Diverse volte la ragazza e’ stata sul punto di morire ricoverata in terapia intensiva e anche in questi giorni si trova ricoverata in ospedale a causa di un aggravamento della situazione. Ad oggi, Caterina e’ costretta a passare quasi 20 ore al giorno collegata ad un respiratore e ad assumere moltissimi medicinali che le consentono di rimanere stabile.

Veniamo prima ai fatti, come e’ noto, questa foto ha scatenato le ire di molti animalisti e persone facenti capo ad associazioni per la difesa degli animali. Purtroppo, le ire sono sfociate in insulti anche molto gravi. Non sono mancati, per la precisione se ne contano una trentina, auguri di morte per Caterina, moltissimi incernierati intorno al concetto “se morivi a 9 anni non importava niente a nessuno”.

Piccola parentesi iniziale necessaria e doverosa, come piu’ volte chiesto e preteso anche su questo blog, quando si vanno a discutere argomenti delicati e contestati come questo, e’ normale che ci siano opinioni anche completamente discordanti. Questo pero’ non deve prescinedere da una dialettica “educata” e veicolata dall’umanita’ e dal buon senso. Augurare la morte a qualcuno perche’ ha un’opinione diversa dalla nostra significa tornare indietro di centinaia di anni. In un dibattito costruttivo, ognuno ha le sue motivazioni che puo’ esternare e che possono essere costruttive per gli altri. Probabilmente, alla fine, ognuno rimarra’ della sua opinione ma tutti avranno imparato qualcosa, se non altro avendo un quadro completo del pensiero e delle tesi dell’altro fronte.

Ora, lungi da me discutere o sensibilizzare sulla situazione di salute della ragazza in questione. Umanamente, e’ normale sentirsi vicini a persone in questo stato e, magari, voler sensibilizzare l’opinione pubblica facendo leva sul quadro clinico di Caterina. Questo pero’, a mio avviso, e’ sbagliato e, sempre mia opinione personale, non era nelle intenzione della ragazza stessa. Quanto accaduto deve invece innescare una discussione costruttiva su un tema molto delicato e che spesso lascia spazio solo ad estremismi piuttosto che ad una discussione scientifica seria. Come sapete, e come normale, esistono diverse associazioni in difesa o contro la sperimentazione animale, molto spesso pero’, si creano su questi temi partitismi fondamentalisti che puntano piu’ all’emotivita’ e alla sensibilita’ delle persone piuttosto che ad una discussione scientifica e costruttiva.

Detto questo, cerchiamo di fare il punto sulla sperimentazione animale cercando di capire pro e contro, e soprattutto l’utilita’ o meno, di questa tecnica in ambito medico.

Per prima cosa, parlare di sperimentazione animale non e’ del tutto completo. Si deve infatti distinguere tra sperimentazione di base e applicata. Nel primo caso, ci si limita ad un’osservazione, ad esempio del comportamento, per comprendere determinati aspetti. Nella sperimentazione applicata invece, alcuni animali vengono utilizzati come modelli attivi per comprendere una determinata caratteristica biologica o genetica di un’altra specie, molto spesso quella umana. Ovviamente, ma la distinzione era obbligatoria, quando parliamo di “sperimentazione animale” ci riferiamo alla ricerca applicata.

Bene, a questo punto le domande fondamentali a cui dobbiamo provare a dare una risposta sono essenzialmente due: e’ veramente utile la sperimentazione sugli animali? Esistono metodi alternativi? Come potete facilmente immaginare, i due fronti, favorevoli e contrari, danno risposte completamente discordanti che sono, rispettivamente, SI-NO e NO-SI.

Vediamo prima di tutto le motivazioni alla base di queste risposte partendo proprio dal fronte contrario alla sperimentazione.

In soldoni, il punto fondamentale portato dal fronte contrario e’ che la sperimentazione animale non porta risultati certi dal momento che e’ fatta, come e’ ovvio, su esseri viventi simili ma non esattamente uguali all’uomo. Detto in altri termini, quando si utilizza una determinta specie per studiare la genetica, provare farmaci o osservare il decorso di una malattia, si utilizza un essere che potrebbe non avere esattamente lo stesso comportamente o la stessa reazione dell’uomo. Generalmente, dal punto di vista del DNA, si utilizzano specie che hanno mappature uguali fino al 95% a quelle dell’uomo. Cosa significa questo? Semplice, quel 5% di differenza, in media e ovviamente per dare qualche numero, puo’ essere determinante in quel preciso studio, portando risultati completamente sballati e che poi non saranno identici sull’uomo. E’ vero questo? Assolutamente si, ed e’ normale che sia cosi’. Prendendo specie diverse, non possiamo certo aspettarci di avere un comportamento speculare al 100% se cosi’ fosse, avremmo non specie simili ma identiche.

Fate pero’ attenzione, come anticipato, parliamo di verosimiglianza a percentuali molto alte. E’ ovvio che per una determinata sperimentazione si prendano animali che, da quel determinato punto di vista, possano essere paragonabili con un’alta percentuale all’uomo. Ovviamente, analisi diverse prendono in esame specie diverse ma simili all’essere umano per un determinato aspetto.

Qual e’ dunque la conclusione del fronte contrario alla sperimentazione? Testare un protocollo sugli animali e’ un’inutile violenza dal momento che il risultato ottenuto non e’ univoco. In altri termini, e’ sempre necessaria una sperimentazione sull’uomo per valutare aspetti specifici che non e’ possibile predeterminare sull’animale. Esempio classico portato a sostegno: farmaci che al termine della sperimentazione devono essere tolti dal mercato perche’ danno vita a reazioni non attese e non osservate nella fase sperimentativa.

Questa conclusione e’ assolutamente fuorviante frutto dell’ignoranza dei protocolli. Rimaniamo, per semplicita’, sul discorso farmaci. Un medicinale, prima di essere immesso sul mercato, affronta un lungo protocollo sperimentativo che parte, generalmente, sull’animale passando poi ad una fase preliminare su soggetti volontari e poi, se tutto va bene, arriva nelle farmacie. Ora, come normale, anche nella fase di somministrazione volontaria si parla di un numero limitato di soggetti. Quella che viene fatta e’ una valutazione statistica degli effetti. Persone diverse, possono avere reazioni diverse. Durante la fase volontaria si studiano eventuali effetti collaterali e viene redatto il bugiardino. Alcune volte, dopo l’immissione sul mercato, proprio perche’ di fronte ad una statistica maggiore di casi, si possono manifestare controindicazioni con probabilita’ minori. In questo caso, come e’ normale, viene aggiornato il bugiardino includendo questi nuovi casi. Detto in parole molto semplici per capire il concetto, una casa farmaceutica mette in commercio un farmaco che salva la vita a molte persone. In un solo caso, questo farmaco ha una reazione allergica che crea danni ad un individuo. Toglialmo il farmaco dal mercato? Assolutamente no, quel prodotto e’ utile per tante persone per cui si aggiorna il bugiardino solo includendo quel caso specifico.

Lasciamo ora questo esempio per tornare alla discussione iniziale. Seguendo questo ragionamento, il fronte contrario alla sperimentazione sostiene che esistano metodi alternativi per verificare l’efficacia e le controindicazioni di un determinato prodotto. Ripeto, parliamo genericamente di prodotto solo per semplificare, il ragionamento va bene per farmaci, terapie, analisi, ecc. Quali sono i metodi alternativi? Primo tra tutti, la simulazione della risposta dell’organismo. Cosa significa? Ad oggi, abbiamo una conoscenza abbastanza avanzata anche solo del genoma umano e del comportamento biololgico-genetico dell’uomo. Sfruttando queste conocenze, e la possibilita’ di utilizzare calcolatori molto potenti, possiamo sostituire la sperimentazione sugli animali con una simulazione informatica della risposta.

Analizziamo questo aspetto. Come visto, uno dei punti cardine del fronte contrario e’ che la risposta dell’animale non e’ determinante per il risultato, e’ sempre necessaria una sperimentazione sull’uomo. Perche’? Come detto, e come normale, la percentuale di somiglianza non e’ e non puo’ essere 100%. Bene, secondo voi, una simulazione al computer puo’ essere identica alla risposta dell’essere umano? Come potete facilmente capire, la risposta e’ no. Facciamo, al solito, un esempio riduttivo ma utile alla comprensione. Al computer possiamo simulare, ad esempio, l’interazione di un farmaco con un organo bersaglio specifico. Prima di tutto, questo non e’ assolutamente corretto. Che livello di precisione possiamo ottenere? Supponiamo di simulare l’interazione di una molecola con i succhi gatrici, simulazione che comunque implica un calcolo lungo e attento. Bene, noi non siamo solo “succhi gastrici”. Magari, quella molecola puo’ avere effetti collaterali gravi sullo stomaco, oppure interagire dannosamente con un altro organo collegato allo stomaco o, anche, influire sulla circolazione mediante l’interazione con il sangue. Cosa significa questo? Se da un lato un animale puo’ essere simile al 95% con l’uomo, una simulazione, in quanto tale, avra’ una somiglianza, supponiamo anche piu’ alta del 95%, per un determinato aspetto dell’uomo. Tornado all’esempio visto, possiamo pensare ad un programma che simula anche al 99% il comportamento dei succhi gastrici, ma in quella simulazione stiamo ignorando lo stomaco, la digestione, il sangue, la circolazione, insomma, l’essere umano. Come potete facilmente rendervi conto, non possiamo pensare di simulare il comportamento e le reazioni dell’uomo completamente al 100%. Se cosi’ fosse, avremmo ridotto l’essere umano ad una semplice macchina.

Detto questo, capite bene l’assurdita’ del pensare che una simulazione possa essere paragonata all’uomo. Prima di tutto, per quanto avanzata, la nostra conoscenza medica non e’ assolutamente completa. Inoltre, per sua stessa definizione uan simulazione prende in esame aspetti specifici e ristretti di un particolare fenomeno. Senza contare poi eventuali errori di software che potrebbero portare risultati completamente diversi.

La sperimentazione animale porta sicuramente delle incongruenze che devono essere testate preliminarmente sull’uomo, ma questi errori possono essere ben piu’ ampi parlando di “metodi alternativi”. Punto di arrivo di questo ragionamento, ripeto personale ma supportato da considerazioni numeriche, e’ che, ad oggi, la sperimentazione animale e’ ancora fondamentale in ambito di ricerca medica. Praticamente tutti i farmaci e tutti i protocolli che utilizziamo, dall’influenza fino alle patologie piu’ gravi, vengono testati su animali all’interno dei centri di ricerca. Tutti quei fondamentalisti, non comuni cittadini che hanno un pensiero ma, ad esempio, gli autori dei commenti visti prima sul caso della ragazza di Bologna, dovrebbero essere consapevoli del ruolo della sperimentazione e del fatto che molti dei farmaci che utilizzano sono sicuri anche per questo motivo.

Prima di concludere, vorrei fare delle ulteriori considerazioni personali. Come premesso, cosi’ come avviene su molti altri aspetti discussi anche in questo blog, la creazione di fazioni fondamentaliste preclude la sana discussione costruttiva. Insultare la ragazza di Bologna augurandole la morte, non serve certo a spiegare le motivazioni della propria contrarieta’ alla sperimentazione animale. Dal mio punto di vista, se vogliamo parlare di umanita’ e rispetto per specie viventi, allora di dovrebbe parlare di allevamenti intensivi di animali da pelliccia. Se proprio vogliamo essere franchi, quelli sono sacrifici che possono essere eliminati utili solo per un mero vezzo estetico. Allo stesso modo, non possiamo paragonare la sperimentazione di un farmaco con quella di prodotti cosmetici. Come potete capire, esistono molte sfumature di questo aspetto che non possono essere unificate nascondendosi dietro all’ormai famosa espressione “no, senza se e senza ma”.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

ENI green data center

5 Nov

Nella sezione:

Hai domande o dubbi?

un nostro affezionato lettore ci ha chiesto delucidazioni sulla nuova struttura chiamata ENI green data center che e’ stata inaugurata solo pochi giorni fa.

Come spesso accade in Italia, la filosofia e la costruzione, non che la messa in opera, di questo importante polo e’ passato molto in sordina con solo pochi articoli su qualche giornale specializzato. Questo e’ completamente assurdo. La struttura rappresenta un’innovazione tecnologica molto importante a livello mondiale e meriterebbe, molto piu’ di tante notizie che riempono i giornali tutti i giorni, di essere pubblicizzata.

Per sapere qualcosa su questo centro, potete andare direttamente sul sito internet:

ENI green data center

Se proprio devo essere sincero, e questo e’ in primis un monito per i tecnici dell’ENI che hanno poco curato questo aspetto, leggendo il sito non e’ chiaramente comprensibile lo scopo di questo centro. Forse, anche questo aspetto ha contribuito alla poca pubblicita’ ricevuta sui giornali.

Cerchiamo dunque di supplire a questa mancanza di informazioni provando a spiegare quali sono gli obiettivi e l’eccellenza di questo centro tutto made in Italy.

L’ENI green data center sorge vicino Pavia, precisamente a Ferrera Erbognone, ed e’ stato inaugurato il 29 ottobre. Questa data cade poco meno di due anni dopo la posa della prima pietra. Anche questa informazione ci fa capire quanto il progetto sia stato seguito in maniera puntuale e rapida.

A cosa serve?

Questa e’ ovviamente la domanda principale. Per capirlo, cerchiamo di fare un ragionamento insieme. Ogni qual volta si richiede un calcolo molto complesso, e’ necessario disporre di una potenza di calcolo notevole. Con questo intendo dire che per risolvere algoritmi complessi e lunghi e’ necessario disporre di tanti pc equivalenti che lavorano insieme. Ovviamente, la cosa sarebbe possibile anche con il vostro pc di casa, ma, probabilmente, richiederebbe anni e anni per poter arrivare ad un risultato. Bene, per velocizzare il tutto, si utilizzano dei potenti centri di calcolo che racchiudono molte CPU, cioe’ molti processori, che lavorano in simultanea dividendosi il lavoro. In questo modo, potete raggiungere lo stesso risultato in brevissimo tempo. Questo e’ quello che viene indicato come potenza di calcolo.

Chi utilizza questi centri?

In realta’, questi speciali centri tecnologici trovano applicazione in tantissimi settori anche profondamente diversi tra loro. Qualche esempio? Nella fisica, scusate l’esempio scontato ma e’ quello che conosco meglio, i centri di calcolo servono per poter analizzare i dati, impacchetarli secondo una struttura facilmente leggibile dall’utente finale ma anche per lavorare in tampi velocissimi per produrre quello che viene chiamato un “trigger”, cioe’ decidere in tempo reale se un particolare evento raccolto e’ interessante per la fisica, e quindi deve essere registrato, oppure no. Come potete facilmente capire, per concludere queste operazioni in tempi brevissimi, magari quelli delle collissioni che avvengono dentro gli acceleratori, e’ necessario disporre di tanti processori.

Altri campi di utilizzo: l’economia, la biologia, la geologia, la matematica, l’ingegneria e cosi’ via. In che modo? Per fare qualche esempio, in economia per simulare un modello economico nel tempo, in biologia per studiare le risposte, ad esempio, del DNA in cui vengono inclusi tutti i costituenti ed e’ necessario simulare in dettaglio le interazioni con diverse molecole. In ingegneria per simulare la risposta di una struttura, anche molto grande e complessa, alle varie sollecitazioni che incontrera’ durante il suo utilizzo.

Come potete facilmente capire, questi centri di calcolo risultano fondamentali per studiare diversi scenari molto complessi e proprio per questo motivo la ricerca in questo settore ha mostrato un boom negli ultimi anni senza precedenti.

Ma a cosa serve questo centro allENI?

Una volta capita l’importanza di un centro di calcolo all’avanguardia, e’ lecito chiedersi a cosa serve questo tipo di struttura ad un’azienda come l’ENI. Quello che molto spesso i non addetti ai lavori ignorano e’ che le grandi societa’, appunto come l’ENI, hanno sempre un reparto di ricerca e sviluppo all’avanguardia nei propri settori, fondamentali proprio per mantenere un ruolo di leader sul mercato.

Nel caso dell’ENI, al nuovo data center sara’ inviata tutta la richiesta informatica dell’azienda. Oltre ai sempli algoritmi per l’elaborazione delle bollette, il centro sara’ specializzato nello studio di settori strategici per l’azienda.

Solo per fare un esempio, prima di procedere ad una trivellazione in un punto, visto l’enorme costo che operazioni di questo tipo comportano, e’ importante essere sicuri che il punto sia quello buono. Per capire questo aspetto, e’ necessario simulare in dettaglio la regione o comunque la zona di terreno in esame. Per fare questo si devono costruire modelli, cioe’ algoritmi, quanto mai simili alla realta’, che includono dunque tantissimi aspetti del terreno e delle sue relazioni con il restante ecosistema. Anche in questo caso, per analizzare strutture di questo tipo e’ necessario manipolare tantissimi dati con algoritmi complessi e che richiedono dunque una notevole potenza di calcolo.

Bene, e cosa ha di speciale il nuovo green data center?

Piu’ che rispondere a questa domanda, che comunque affrontiamo, e’ importante chiedersi perche’ compare l’aggettivo “green” nel nome.

Pensate al vostro pc, come sapete benissimo all’interno sono presenti una serie di ventole e dissipatori. A cosa servono? Ovviamente per raffreddare il processore, la scheda video, l’alimentatore, ecc. Questo perche’ abbiamo elementi che scaldano molto quando vengono utilizzati al pieno delle prestazioni. Il calore e’ nemico dell’elettronica che per poter funzionare richiede un intervallo di temperature che non sia troppo alto.

Bene, allo stesso modo, pensate quanto faticoso possa essere eliminare, cioe’ portare via, il calore da un centro di calcolo in cui sono presenti tantissime CPU.

Per darvi una stima, nel green data center dell’ENI sono presenti qualcosa come 60000 CPU.

Per poter far girare le ventole che servono al raffreddamento, dovete spendere dell’energia. Rapportate sempre questi ragionamenti ad un centro di calcolo e capite subito come questi numeri divengono immediatamente importanti. Sempre per fare esempi pratici, durante l’anno scorso la quantita’ di CO2 emessa solo dai centri di calcolo presenti nel mondo, che e’ direttamente rapportata alla richiesta di energia per il funzionamento, e’ stata il 2% del totale, paragonabile quindi a quella emessa dagli aerei civili utilizzati per il trasporto. Detto questo, capite bene che non stiamo parlando di numeri trascurabili.

L’ENI green data center rappresenta un record mondiale per il basso consumo di energia con potenze che arrivano fino a 50 KW per metro quadrato occupato. Il vero record sta poi nell’utilizzo che viene fatto di questa energia. Se si calcola il rapporto tra energia consumata e quella spesa per far funzionare la parte dei processori, dunque se volete una sorta di efficienza del sistema, si trovano numeri davvero innovativi. Per la maggior parte dei centri di calcolo al mondo, questo rapporto si aggira intorno a 2 o 3. Questo significa che se vi serve 1Kw per i computer, ne dovete richiedere fino a 3 dalla rete perche’ servono per il raffreddamento o per altri elementi che comuqnue disperdono energia non lasciandola ai sistemi informatici veri e propri. Per l’ENI green data center, questo rapporto vale solo 1.2 rappresentando un record mondiale assoluto raggiunto in Italia.

Uno degli aspetti piu’ importanti e che contraddistingue il nuovo centro dai suoi predecessori e’ la presenza di alti camini sugli edifici. Questi sono molto importanti per permetter la ventilazione forzata dell’aria e dunque risparmiare energia elettrica.

L’enorme potenza di calcolo sviluppata e le migliorie tecnologiche fatte hanno anche richiamato diverse societa’ private ed istituzioni universitarie. Da queste sono poi nate delle collaborazioni internazionali con enti accreditati che non fanno altro che sostenere ed incentivare la ricerca italiana in questo settore.

Concludendo, l’ENI green data center in provincia di Pavia rappresenta un notevole passo avanti nello sviluppo e nella ricerca sui centri di calcolo. Purtroppo, l’inaugurazione di questo innovativo polo e’ passata un po’ in sordina tra i vari media che non hanno assolutamente pubblicizzato la struttura dando la giusta enfasi che meritava. Come visto, potenze di calcolo notevoli richiamano collaborazioni da istituzioni sia private che pubbliche favorendo ancora di piu’ la collaborazione scientifica ed in progressi che solo in questo modo potrebbero essere portati avanti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

11 settembre 2001: USA sotto attacco

23 Set

Dalla discussione avuta con un nostro caro lettore, mi e’ stato richiesto eplicitamente un articolo sugli attentati dell’11 settembre 2001. Ovviamente, non posso che essere lusingato di questa richiesta, che mi chiede di analizzare con lo stile di questo blog, uno dei fatti piu’ cruenti e significativi degli ultimi anni.

Come sapete bene, proprio da questi fatti, molti analisti fanno iniziare la crisi economica, l’inizio di quella che potrebbe essere considerata una guerra tra Occidente e Islam ma anche un cambio di coscienza globale di una civilta’ che da un giorno all’altra si e’ trovata nell’era moderna. Queste considerazioni, non vengono fatte solo a scopo introduttivo. A mio avviso, questi fattori entrano prepotentemente nell’analisi che viene richiesta per poter inquadrare al meglio i fatti nello specifico.

Trattare il tema dell’11 settembre non e’ di per se facile. Per diversi giorni ho studiato materiale, letto interviste, visionato filmati. Come sapete bene, la rete e’ strapiena di cospirazioni pensate, o anche immaginate, riguardo a questi attentati. Ovviamente, sarebbe impossibile trattarle tutte e con elevato dettaglio. Di questo mi scuso da subito. Sono consapevole che questo articolo potrebbe scatenare una pletora di commenti, forse neanche troppo soft, di qualcuno che crede fortemente che quanto accaduta sia una grande montatura.

Proprio partendo da queste osservazioni, vorrei sottolineare una cosa. Molte teorie affondano le loro radici sul fatto che i servizi segreti sapessero in anticipo degli attentati, discutono del perche’ i caccia siano partiti troppo presto o troppo tardi dalle basi militari, del perche’ il presidente fosse rimasto cosi’ tanto tempo nella famosa scuola elementare invece di correre sul luogo dell’attentato. Se sperate di avere risposte a queste domande, vi dico subito che queste non verranno trattate e non sono materia di questo blog. Perche’? Noi siamo qui per parlare di scienza e per analizzare i complotti e le catastrofi che vengono annunciate. Fate attenzione, ho detto “analizzare”, non “smentire”. Questa e’ la sottile differenza che ci distingue da coloro che sostengono i complotti per partito preso, ma anche da coloro che cercano in tutti i modi di smontarli senza cognizione di causa. Dal nostro punto di vista, cerchiamo sempre di non partire prevenuti, ma di rimanere aperti ad ogni risultato il nostro ragionamento potrebbe raggiungere. In fondo la scienza ci insegna questo, un risultato non e’ bello o brutto a seconda che ci faccia comodo o no, e’ un risultato che deve essere sostenuto da ipotesi oggettive.

Bene, quello che dunque vogliamo analizzare in questo post e’ il discorso della caduta delle torri gemelle, anche dette WTC1 e WTC2, dell’ulteriore edificio caduto a 200 metri dalle torri, il WTC7 e dell’aereo arrivato sul Pentagono.

Come sapete bene, anche perche’ molti hanno fatto fortuna parlando di queste ipotesi, i complottisti sostengono che sia fisicamente impossibile che i due edifici principali del World Trade Center siano caduti per l’impatto degli aerei o per gli incendi sviluppati all’interno. Secondo queste teorie, il dirottamento degli aerei sarebbe stata solo una farsa creata ad hoc. In realta’, le torri sarebbero cadute perche’ precedentemente minate con esplosivo o peggio ancora con termite, una sostanza in grado di sviluppare altissime temperature con un innesco a bassa temperatura. Le prove di questo sarebbero date dalla dinmica del crollo delle torri, perfettamente compatibili con una distruzione pianificata, esattamente quella che viene fatta da esperti per buttare giu’ un palazzo. Altra teoria alternativa che sta riscuotendo sempre piu’ successo in rete, e’ quella di un ordigno nucleare fatto esplodere nel sottosuolo e che avrebbe provocato la caduta delle torri per un cedimento delle fondamenta.

Prima di analizzare il crollo delle torri, vorrei fare qualche ragionamento. Per prima cosa, tutti questi scenari si basano sul fatto che il dirottamento sarebbe stato una farsa. Ma allora la domanda e’: perche’ e’ stato fatto? Nelle innumerevoli ipotesi, non ho mai letto questa risposta. Se le torri fossero state minate o se fossero cadute per l’esplosione di una bomba atomica, perche’ dirottare gli aerei e lanciarli contro uno dei simboli degli USA? Come sapete, stiamo parlando di un attentato terroristico dunque, per sua stessa definizione, volto a creare “terrore” nelle persone. La strategia di questi gruppi non e’ tanto quella di fare migliaia di vittime, quanto quella di dimostrare di poter colpire dove e quando vogliono. Perche’ dico questo? Una delle ipotesi, con o senza esplosivo, e’ che tutto sia stato organizzato dagli USA stessi, cioe’ che quello delle torri gemelle sia stato un auto-attacco. Perche’? Semplice, almeno a quello che dicono i complottisti, questo avrebbe offerto le condizioni per far partire le diverse campagne contro l’Islam, per far crollare regimi totalitari, per impadronirsi del petrolio o di altre risorse, per controllare i paesi orientali, ecc.

E’ credibile questo? Personalmente spero di no, ma l’analisi di queste considerazioni, come anticipato, non rientra negli scopi di questo articolo. Qui vogliamo solo analizzare gli attentati e capire se e’ possibile che ci sia qualcosa sotto non dichiarato. Poi se volete possiamo parlare del fatto che gli USA non siano un governo trasparente sotto molti aspetti, ma anche qui vi farei notare che nessuno stato lo e’ su determinate questioni, tantomeno l’Italia. Ci sono tantissimi fatti della nostra storia su cui c’e’ ancora un’aura di mistero e di possibile complotto. Non meravigliamoci di questo. Certo, da qui a parlare di auto-attentato ce ne passa.

Torniamo dunque all’attentato. Per prima cosa, vorrei escludere da subito, e chiunque dotato di buon senso dovrebbe farlo altrettanto velocemente, l’ipotesi ordigno nucleare sotterraneo. Perche’? Per prima cosa, un’esplosione nucleare produce radiazioni. E’ vero che si parla di esplosione sotterranea ma chi ce l’ha messa? Come? Possibile che non ci sia stata nessuna fuga di radiazioni?

Se queste considerazioni non vi bastano ve ne dico una definitiva. Se il tutto fosse provocato da un’eplosione sotterranea, sarebbero state colpite prima di tutto le fondamenta delle torri e, di conseguenza, il cedimento sarebbe stato dal basso. Come tutti sanno, con le immagini di quegli attimi ben presenti nelle nostre menti, la caduta e’ iniziata dall’alto, cioe’ da dove sono arrivati gli aerei.

Questo esclude subito l’ipotesi ordigno nucleare.

Bene, passiamo ora all’altra importante teoria complottista: le torri sono state progettate per resistere all’urto di un aereo di linea per cui non potevano crollare. Quelle che hanno provocato il cedimento sono state cariche piazzate in diversi piani e che hanno provocato quella che si chiama una distruzione pianificata.

Prima considerazione, come avrebbero fatto a mettere tutte queste cariche? Con un edificio del genere, le cariche avrebbero dovuto essere in molti piani, in punti diversi ed in zone di normale passaggio di persone. Chi avrebbe avuto la possibilita’ di mettere queste cariche? Come sapete, le torri erano sede di moltissimi uffici ed erano frequentate nell’arco di quasi tutta la giornata. Ah certo, quasi dimenticavo, se l’attentato e’ stato fatto dagli USA, non avevano certo problemi nel piazzare ordigni ed entrare senza destare sospetto.

Considerazione interessante. Vi faccio pero’ riflettere su un’altra cosa, perche’ allora gli aerei? Avete imbottito le torri di esplosivo per farle crollare, perche’ dirottare degli aerei da lanciare contro le torri? Per aumentare l’affetto scenico? L’ipotesi non regge tanto. Inoltre, come avete visto dai video dei crolli, il cedimento e’ iniziato proprio nei piani sopra il punto di impatto, possibile che le cariche siano state fatte brillare nell’esatta sequenza, dall’alto verso il basso, e che i dirottatori abbiano centrato esattamente il punto che avevate concordato in precedenza? Personalmente, credo che si stia passando dal complottismo alla fantascienza.

Qual e’ l’altra motivazione che spinge a pensare che l’attaco sia stato auto-pianificato? Il piano era talmente tanto perfetto e l’esecuzione talmente impeccabile che l’organizzazione poteva solo essere fatta da un governo preparato e interno al paese, dunque gli USA stessi.

Facciamo una considerazione abbastanza meschina, soprattutto se pensiamo ai 3000 morti dell’11 settembre. Gli attentati sono stati perfetti? Assolutamente falso. Vi spiego il perche’. Avete dirottato 4 aerei, due sono andati a segno sulle torri, uno ha fatto danni marginali al pentagono e uno non e’ nemmeno arrivato a destinazione. Siete arrivati contro le torri in un orario sbagliato. Come sapete, gli attentati sono accaduti nelle prime ore della mattinata, quando le torri non erano ancora completamente piene. Se vogliamo essere sadici, un attentato ben riuscito avrebbe scelto un orario diverso, anche solo un paio di ore dopo. Inoltre, avete colpito le torri in punti molto alti. Questo ha consentito alle persone dei piani inferiori, in larga parte, di mettersi in salvo. Tra l’altro uno degli aerei e’ arrivato completamente storto all’impatto colpendo uno spigolo della torre. E’ un piano perfetto? Direi proprio di no. Dunque, anche questa ipotesi secondo me regge poco.

Detto questo, passiamo alla dinamica del crollo.

Secondo l’ipotesi complottista, il cedimento sarebbe stato causato da cariche opportunamente piazzate come in una demolizione controllata. Le prove? Prima di tutto, la caduta perfettamente verticale delle torri, secondo ampi sbuffi di fumo e detriti che uscivano dagli edifici negli istanti precedenti il crollo. Questi sarebbero gli inequivocabili segni dovuti all’esplosione delle cariche.

Perche’ vengono fatte queste ipotesi? Come detto, le torri erano progettate per resistere all’urto di un aereo di linea. Gli incendi sviluppati all’interno degli uffici non potevano di certo raggiungere la temperatura di fusione dell’acciaio delle strutture. Se queste sono venute giu’ e’ perche’ e’ stata usata termite, in grado di raggiungere le temperature di fusione dell’acciaio, o perche’ sono stati causati cedimenti strutturali lungo tutta l’altezza delle torri.

Bene, analizziamo queste considerazioni.

Per prima cosa, gli edifici erano in grado di resistere all’impatto di un aereo, come giustamente ricordato anche dall’ideatore delle Torri Gemelle. Le simulazioni fatte al tempo prevedevano pero’ aerei piu’ piccoli rispetto a quelli utilizzati nel 2001 e, soprattutto, scarichi di carburante. Perche’ questo? Semplice, nei calcoli si era presa in considerazione l’ipotesi in cui un velivolo in fase di atterraggio a New York, dunque con poco carburante, a causa della nebbia finisse contro gli edifici. La dinamica dell’attentato del 2001 e’ completamente diversa con aerei decollati da poco tempo e con serbatoi carichi, anche se non pieni, di kerosene.

Cosa e’ successo nell’impatto? Gli aerei sono penetrati all’iinterno degli edifici. A causa dell’urto, il kerosene dei serbatoi si e’ incendiato provocando la fiammata iniziale che tutti ricorderete.

Ingresso dell'aereo in una delle due torri

Ingresso dell’aereo in una delle due torri

Le fiamme hanno ovviamente provocato il divamparsi di incendi in tutti i piani interessati dall’urto. Vi ricordo che le torri erano sede di molti uffici per cui erano piene di carta, arredi d’ufficio, pc, tutte cose facilmente infiammabili.

Bene, abbiamo l’urto, abbiamo l’incendio, ma le torri sono ancora in piedi. Dunque? Perche’ solo a distanza di decine di minuti si e’ avuto il crollo delle torri, e per di piu’ la seconda colpita e’ caduta per prima?

Le risposte a quete domande sono quelle che segnano il confine tra complotto e spiegazione logica.

Andiamo con ordine.

Come sono fatte le torri?

Su diversi siti, non necessariamente di complottisti, ho letto molte cose inesatte sulla struttura delle torri. Capire questo punto e’ la chiave di interpretazione dei fatti.

La struttura delle torri e’ fatta da una serie di colonne perimetrali che corrono tutt’intorno gli edifici e da una parte di colonne centrali che costituiscono il core:

Struttura con travi di acciaio delle Torri

Struttura con travi di acciaio delle Torri

Abbiamo dunque una struttura portante di colonne d’acciaio, molto solida, ma sufficientemente elastica da resistere non solo ad attentati, ma anche a condizioni naturali e normali di utilizzo. Pensate ad esempio ad una scossa di terremoto che fa vibrare tutta la struttura o anche solo al vento in grado di sollecitare fortemente una struttura alta piu’ di 400 metri.

Come sono legate le due serie di colonne? Ovviamente con dei solai. Anche in questo caso, e’ stato utilizzato acciaio, per creare una struttura legata in questo modo:

Solai in acciaio

Solai in acciaio

Sui solai sono disposti i pavimenti dei vari piani costituiti da lastre di cemento.

Molte delle ipotesi complottiste partono dal fatto che per far crollare una struttura di questo tipo, e’ necessario far fondere completamente l’acciaio. Per ottenere questo risultato, si devono raggiungere temperature superiori ai 1500 gradi, cosa impossibile bruciando kerosene. Tra l’altro, le colonne di fumo nero che ricorderete intorno alle torri, sono sinonimo di cattiva combustione dunque di temperatura non troppo alta. Secondo alcuni, nel calcolo delle temperature, tra l’altro sulla rete ho letto degli strafalcioni incredibili di termodinamica senza distinguere temperatura e calore, mancherebbe l’apporto dei mobili e della carta. Anche in questo caso pero’, viene giustamente fatto notare che non si riesce a raggiungere la temperatura di fusione dell’acciaio.

Vero anche questo. Ma perche’ si dovrebbe far fondere l’acciaio? Premesso che per la fusione servono le temperature di cui abbiamo parlato, gia’ a 500 gradi l’acciaio lascia la sua fase elastica per arrivare a quella plastica. In queste condizioni, il materiale e’ molto morbido e presenta dunque una resistenza strutturale molto minore, anche del 90% inferiore, rispetto alle condizioni ambientali. Perche’ facciamo notare questo? Un materiale in queste condizioni, inficia in modo preponderante la resistenza della struttura.

Secondo i complottisti, la caduta degli edifici sarebbe stata perfettamente verticale, come in una demolizione studiata. Su questo punto, non c’e’ neanche da discutere. Per prima cosa, vi mostro una foto aerea della zona:

Detriti dovuti al crollo in tutta l'area del World Trade Center

Detriti dovuti al crollo in tutta l’area del World Trade Center

Come vedete, i residui dei crolli sono ovunque. Torneremo su questo punto, discutendo la caduta del WTC7.

Inoltre, e’ evidente dalle prove fotografiche che la caduta degli edifici non e’ stata assolutamente verticale. La parte di torre superiore al punto di ingresso degli aerei, si e’ staccata con un’angolazione molto pronunciata, circa 30 gradi per una torre e 15 per l’altra. Ecco una foto molto esplicativa:

Crollo inclinato della parte alta della torre

Crollo inclinato della parte alta della torre

Vedete quanto e’ inclinata la parte superiore? Non credo che, alla luce di questo, si possa parlare di caduta verticale.

Perche’ sono cadute le torri?

Come detto, gli edifici erano pensati per resistere all’impatto di un aereo, anche se scarico di carburante e di dimensioni minori di quelli dirottati. Nonostante questo, le torri hanno resistito all’impatto, infatti non sono cadute subito a causa dell’urto. La stessa cosa si puo’ dire per l’incendio. Gli edifici erano pensati per resistere 2 ore ad un incendo completo. Eppure sono cadute. Perche’?

Quello che spesso non viene considerato e’ il fattore combinato incendio-impatto.

Vi faccio un esempio molto semplice. Prendete una lattina di bibita da 33 cl. Quella lattina e’ fatta da un sottilissimo foglio di alluminio, ma ha una resistenza a compressione elevatissima. E’ in grado di reggere tranquillamente il peso di una persona. Se pero’ la schiacciate leggermente da un lato, basta una minima pressione per accartocciarla. Bene, quello che e’ successo alle torri e’ del tutto analogo all’esempio della lattina. L’ingresso dell’aereo ha provocato danni ad alcuni dei pilastri perimetrali, questo ovviamente compromette la stabilita’ della struttura, ma non del tutto. Il seguente incendio che si e’ sviluppato, ha portato non la liquefazione dell’acciaio, ma un suo ammorbidimento. Questo ovviamente in tutti quei piani interessati dall’urto. Inoltre, il calore ha modificato pesantemente la resistenza meccanica delle travi utilizzate per i solai. In questo caso, le travi si sono ritirate, a causa della minore resistenza meccanica, tirando le travi perimetrali verso quelle del core centrale.

In questa foto si vede un dettaglio della parte interessata dall’incendio ed in cui e’ chiaramente visibile l’avvicinamento della parete laterale verso l’interno:

Dettaglio dell'incendio con parete che rientra

Dettaglio dell’incendio con parete che rientra

Come detto, questo e’ sintomatico del cedimento meccanico delle travi dei solai.

A questo punto, avete una struttura molto debole in diverse parti. Dopo decine di minuti di incendio, la parte alta, tagliata sotto dall’ingresso dell’aereo, cede sotto il suo peso premendo sulla parte inferiore della torre. Una struttura meccanica gravemente compromessa come quella in esame ad un certo punto non riesce piu’ a resitere al peso e cede su se stessa.

E ‘ dimostrabile questo? Assolutamente si. Sono stati pubblicati diversi articoli con simulazioni FEM, tra l’altro su riviste internazionali, che hanno dimostrato come la caduta delle torri sia perfettamente compatibile, nei tempi e nei modi, con quella dell’attentato avvenuto. Uno di questi e’ scaricabile da questo link:

Usmani

Tra l’altro, proprio a causa del cedimento improvviso sotto il peso, la caduta delle torri e’ risultata quasi istantanea come un corpo in caduta libera. Questo perche’ i piani inferiori che via via venivano interessati, venivano schiacciati da un peso sempre crescente.

Altra considerazione importante, possibile che la torre sia caduta istantaneamente tutta insieme, polverizzando tutto? Anche queste considerazioni sono del tutto false. Prima cosa, come anticipato, la caduta non e’ stata verticale ma i detriti hanno interessato una vasta zona del World Trade Center. Inoltre, non e’ assolutamente vero che si e’ polverizzato tutto. Ci sono diverse prove come questo video:

Video, frammenti

che mostrano la caduta di detriti molto grandi, molto pesanti e soprattutto interi verso il basso.

Altra cosa rimasta in sospeso, cosa dire degli sbuffi che si vedevano durante il crollo delle torri? Per farvi capire meglio, i sostenitori del complotto si riferiscono ad esempi come questo:

Sbuffi di materiale interpretati come detonazioni

Sbuffi di materiale interpretati come detonazioni

Secondo alcuni, questa sarebbe la prova dell’esplosione di alcune bombe lungo la torre. Niente di piu’ falso. Come potete facilmente immaginare, si tratta soltanto dell’aria interna agli edifici che viene compressa per schiacciamento durante la caduta e che riesce a frantumare i vetri esterni. Allo stesso modo, le presunte esplosioni che vengono raccontate da alcuni testimoni durante il crollo, altro non sono che il rumore dei vetri che andavano in frantumi o anche quello delle lastre di cemento che costituivano i pavimenti dei piani. Come detto, a causa della variazione di tenuta dei pilastri del solaio, i pavimenti non possono far altro che cedere e precipitare verso i piani inferiori.

Detto questo, non credo ci dovrebbero essere dubbi sul fatto che la caduta delle torri e’ stata provocata dalla combinazione dell’impatto dell’aereo e dell’incendio che si e’ sviluppato. Come visto, non solo questo e’ documentabile dalle molte prove fotografiche di quel tremendo giorno, ma ci sono anche numerosi articoli a sostegno che dimostrano la veridicita’ delle ipotesi. Solo questi, e il fatto che la dinamica del crollo sia simulabile, dovrebbero smentire tutte quelle voci che cercano evidenze di qualcosa di diverso nel crollo del WTC1 e 2.

Detto questo, passiamo invece all’altro grande mistero di quel giorno, il crollo del WTC7. Per chi non ne fosse a conoscenza, l’area del World Trade Centrer, era composta da diversi edifici, di altezze diverse. L’11 settembre 2001, oltre alle due torri, cadde anche un altro edificio, appunto detto WTC7, che non venne assolutamente colpito da niente. Perche’ e’ importante questo fatto nelle teorie complottiste? Semplice, il fatto che questo sia caduto senza essere stato colpito, indica chiaramente che gli edifici della zona fossero stati minati precedentemente. Evidenza che sosterrebbe le ipotesi viste prima. Tra l’altro, come evidenziato dai complottisti, il WTC7 non puo’ essere stato colpito da detriti per due buone ragioni. La prima e’ che si trova a circa 200 metri dalla torre piu’ vicina e tra i due vi era un altro edificio, chiamato WTC6, che lo proteggeva completamente e che non e’ andato distrutto dopo il crollo della torre. Il secondo motivo e’ ancora piu’ semplice, dal momento che si e’ trattato di un crollo studiato e verticale e in cui i detriti sono stati polverizzati, niente sarebbe potuto cadere cosi’ lontano.

A questa seconda ipotesi abbiamo gia’ abbondantemente risposto, mostrando come i detriti ci sono, anche di notevole dimensione, e dimostrando come la caduta non sia stata verticale. Questa osservazione e’ dunque da scartare a priori.

Resta pero’ l’altra ipotesi. Tra la torre che crolla e il WTC7 c’e’ un altro edificio che non crolla. Come e’ possibile? Inoltre, il WTC7 e’ caduto dopo diverse ore dalle torri, altro aspetto inspiegabile. Per chi non lo sapesse, anche in questo caso, parliamo di un edificio di 47 piani con struttura in acciaio, dunque non un castello di carte che cade da solo per opera del vento.

Per capire questo crollo, e’ necessario vedere la planimetria del World Trade Center, quando ancora esisteva:

Mappa degli edifici del World Trade Center

Mappa degli edifici del World Trade Center

Come vedete, effettivamente il WTC7 e’ completamente protetto dal WTC6 che impedisce a qualsiasi detrito di danneggiare l’edificio.

Spesso pero’, quelli che pensano i complotti, dimenticano che le spiegazioni piu’ semplici sono quelle che andrebbero considerate per prime. Siamo a New York, Stati Uniti di America, dove si costruiscono grattacieli con altezze completamente diverse. Invece di fermarci alla planimetria, vediamo un prospetto della zona con le altezze in scala degli edifici:

Modello 3D degli edifici del World Trade Center

Modello 3D degli edifici del World Trade Center

Notato niente? Guardate quanto e’ alto il WTC7 rispetto al WTC6 che si trova di fronte. Praticamente questo edificio vede benissimo la torre di fronte ed e’ completamente esposto alla caduta dei detriti.

Cosa e’ successo precisamente l’11 settembre 2001?

Durante la caduta della torre piu’ vicina, il WTC7 ha subito alcuni danni strutturali, come riportato in questa foto:

Dettaglio del WTC7 dopo il crollo della torre piu' vicina

Dettaglio del WTC7 dopo il crollo della torre piu’ vicina

Come si vede, e come indicato enlla foto stessa utilizzata nei rapporti ufficiali, il WTC7 ha subito, durante il crollo della torre, danni evidenti ai piani alti. Sempre a causa della caduta di detriti, sono divampati anche incendi all’interno dell’edificio.

E’ strano questo?

Assolutamente no, come ricorderete bene, ci sono stati numerosissimi casi di incendi a terra a causa di detriti in fiamme caduti dalle torri. Uno di questi ha colpito il WTC7 in cui sono divampati incendi.

Allora, anche qui abbiamo un edificio danneggiato, anche se lievemente, ed un incendio in corso. Poi? Quello che e’ successo e’ evidente, l’edificio e’ stato lasciato crollare. Perche’? Ovviamente, tutti gli occupanti erano stati fatti evacuare. I pompieri erano in notevole difficolta’ per tenere sotto controllo le torri. Abbiamo un edifico vuoto, danneggiato e che brucia. Inoltre, per lungo tempo c’e’ stata mancanza di acqua per cui, anche volendo, i pompieri non hanno avuto modo di domare l’incendio all’interno del WTC7. Detto questo, l’edificio e’ stato lasciato al suo destino. In questo caso, come anticipato, ci e’ voluto molto piu’ tempo affinche’ il WTC7 crollasse e infatti, e su questo sono tutti d’accordo, il crollo e’ avvenuto solo nel pomeriggio inoltrato ora di New York.

Dunque, anche per il WTC7 esiste una spiegazione razionale ottenuta dall’analisi condotta fino a questo punto.

Resta da analizzare l’aereo che e’ arrivato contro il pentangono. In questo caso, le teorie complottiste parlano di una manovra impossibile da fare per un aereo di linea dal momento che il punto di impatto e’ tra il piano terra e il primo piano, dunque troppo vicino al terreno, che il carello si sarebbe abbassato da solo sotto una certa quota, ma soprattutto che un velivolo cosi’ basso avrebbe necessariamente fatto danni attraversando la vicina autostrada. Secondo queste ipotesi, in questo caso non si e’ nemmeno trattato di un aereo, bensi’ di un missile cruise. Questo avvalora l’ipotesi secondo la quale non si e’ trattato di un attentato ma di un auto attacco da parte del governo per permettere le future politiche in medio Oriente.

Prima cosa, molte delle foto che trovate in rete e che parlano di foro troppo piccolo e incompatibile con quello che lascerebbe un aereo sono false. Quelle reali, dimenticano di considerare che molte delle parti dell’aereo sono in realta’ estremamente leggere e dunque dotate di potere di penetrazione molto basso, soprattutto se rapportate con una struttura di cemento armato rinforzato come quella del pentagono. Detto questo, mi sento di escludere subito l’ipotesi missile.

Restano pero’ le altre supposizioni. Prima di tutto, e’ assolutamente falso dire che i carrelli degli aerei si abbassano da soli. Inoltre, non mi sembra che sia cosi’ impossibile centrare il bersaglio. Come giustamente fatto notare nelle controipotesi, ogni giorno tutti gli aerei centrano il bersaglio rappresentato dalla pista di atterraggio. Ci sono tantissimi aereoporti in cui le piste sono in posizioni davvero scomode, vicino al mare, deitro le montagne, ecc. Condizioni che devono essere studiate molto bene, ma che vengono eseguite senza problemi.

Inoltre, non e’ affatto vero che il volo radente dell’aereo non e’ passato sulla vicina autostrada. Vi mostro una foto:

Palo divelto sull'autostrada di fronte al pentagono

Palo divelto sull’autostrada di fronte al pentagono

Come vedete, questi sono i piloni dell’illuminazione dell’autostrada che sono stati abbattutti dal passaggio dell’aereo. Questa ipotesi viene utilizzata per mostrare l’incompatibilita’ della traiettoria seguita. Se l’aereo non ha toccato l’autostrada, come ha fatto a volare poi rasoterra vicino al pentagono? Questo implicherebbe una manovra non possibile con un aereo di quelle dimensioni. Questa foto che ho mostrato, come tante altre che trovate in rete, mostrano l’esatto contrario. Al passaggio sull’autostrada, il volo dirottato era gia’ molto basso e puntava dritto contro il pentangono.

Riassumendo, i crolli delle torri gemelle e del WTC7 sono perfettamente compatibili con la versione ufficiale. Inoltre, le simulazioni FEM fatte sugli edifici per studiare la dinamica dell’impatto hanno dato risultati perfettamente compatibili con quelli visti in quel tragico giorno. Questo solo per mentire tutte quelle voci che vorrebbero l’attentato mediante aerei solo una messa in scena per distrarre dalle cariche piazzate all’interno dell’edificio. Come visto, il crollo del WTC7 e’ del tutto compatibile con la caduta dei detriti che hanno dapprima danneggiato l’edificio e poi fatto divampare l’incendio che ha bruciato per ore. Questo dimostra anche la non fondatezza delle ipotesi sulla caduta verticale o sulla demolizione programmata delle torri.

Per quanto riguarda il pentagono, come visto, la traiettoria seguita dall’aereo e’ perfettamente compatibile con quella pensata. Il velivolo ha volato in assetto quasi parallelo al terreno gia’ quando si trovava sopra la vicina autostrda. A riprova di questo, ci sono prove fotografiche che mostrano i pali dell’illuminazione divelti dal passaggio a bassa quota. Questo anche per escludere l’ipotesi quanto mai fantasiosa del missile cruise.

Ultima considerazione. Come detto all’inizio di questo lunghissimo articolo, il mio scopo era solo quello di analizzare i crolli e ragionare sulle tante ipotesi di complotto che si sono alimentate nel corso degli anni. Non voglio fare un trattato di economia e politica internazionale, ne tantomeno parlare di governo centrale degli Stati Uniti. Possiamo dire che gli attentatori erano pagati dal governo USA? Personalmente, credo di no, ma non sta a me dirlo ne tantomeno riuscire a dimostrarlo ragionando scientificamente.

Vorrei pero’ farvi riflettere su un’ultima cosa. A mio avviso, gli attentati dell’11 settembre 2001 hanno mostrato un paese non pronto ad attacchi di questo tipo. Molti fanno ipotesi complottiste ragionando sul fatto che i caccia non si siano alzati per abbattere gli aerei dirottati o che non ci fosse un adeguato sistema di controllo e difesa. Secondo me, il discorso non e’ neanche questo. Gli Stati Uniti, prima del 2001, erano abituati a combattere guerre fuori dai loro confini. Con l’attentato del World Trade Center hanno scoperto che il mondo globalizzato era in grado di portare la guerra anche dentro i loro confini. E’ facile pensare ad una potenza bellica perfetta finche’ questa non viene testata sul campo. Nel caso degli USA, fino a quel momento, il paese pensava di essere invincibile e immune da attacchi di questo tipo. Purtroppo, anche sotto questo aspetto, l’11 settembre 2001 ha segnato un momento di svolta epocale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Possiamo scegliere tra era glaciale o desertificazione

28 Mag

Diversi lettori mi hanno chiesto di fare un aggiornamento sull’attuale ciclo solare, di cui molto si sta discutendo in rete. Come sappiamo, stiamo attualmente attraversando il massimo del 24mo ciclo, un picco che pero’, almeno attualmente, si sta rivelando molto meno intenso di quanto ci si aspettava.

Fate attenzione, proprio la frase “meno intenso di quanto ci si aspettava” e’ il nucleo della discussione che dobbiamo fare e su cui ho letto davvero di tutto e di piu’, un po’ per ignoranza, molto spesso solo per il gusto di voler speculare su argomenti scientifici poco noti.

Di cili solari abbiamo parlato, ad esempio, in questi post:

Evidenze dal Sole?

Le macchie solari AR1504

Gli effetti di AR1504

Sole: quanta confusione!

Come visto, il nostro Sole ha un comportamento che non e’ costante nel tempo ma che oscilla tra massimi e minimi. La durata “media” di questi cicli solari e’ di 11 anni e, in concomitanza, si registra, come visto in questo post:

Inversione dei poli terrestri

un’inversione del campo magnetico solare che dunque ritorna alla condizione originale ogni 22 anni, cioe’ ogni 2 cicli. Detto in altri termini, partite da una condizione, dopo 11 anni invertite i poli, per tornare alla condizione iniziale servono altri 11 anni e quindi un’altra inversione dei poli.

Come sottolineato diverse volte, si tratta di meccanismi statisticametne noti ma che, in quanto tali, sono parametrizzabili da numeri medi. Il nostro Sole e’ una stella “viva”, passatemi questo termine, condizione per cui riusciamo a parametrizzarlo mediante modelli veri sempre “in media”.

Detto questo, quando parliamo di ciclo di 11 anni, non ci deve affatto sorprendere se gli anni sono 10 o 12.

Inoltre, massimi e minimi solari non sono tutti uguali tra loro, ma possono avere intensita’ variabili nel tempo. Detto questo, ci possono essere massimi piu’ o meno intensi, cosi’ come minimi piu’ o meno deboli.

Bene, alla luce di quanto detto, passiamo ad analizzare il ciclo attuale.

Prima affermazione che trovate in rete, il massimo era previsto per la fine del 2012, secondo alcuni proprio il 21 Dicembre 2012, e dunque c’e’ un “forte” ritardo da parte del Sole. Queste affermazioni sono del tutto false. Come visto in questo articolo:

Nuova minaccia il 22 Settembre?

non e’ assolutamente vero che il massimo era atteso per la fine del 2012, ne’ tantomeno per il 21 Dicembre. Questa affermazione nasce da una simulazione condotta diversi anni fa dalla NASA mirata a valutare gli effetti di un eventuale massimo di alta intensita’ sulla nostra attuale societa’, fortemente legata alla trasmissione dei segnali a lunga distanza.

Quando e’ atteso il massimo?

Dalle simulazioni fatte, il massimo sarebbe atteso per la fine del 2013. Di questo abbiamo parlato in questo post:

Come seguire il ciclo solare

In particolare, in questo articolo abbiamo fornito anche tutti i link per poter seguire il ciclo solare e valutare giorno per giorno i diversi parametri che consentono di valutare la reale attivita’ del Sole insieme anche a modelli previsionali.

Se invece della fine del 2013, fosse maggio 2013 o maggio 2014, la cosa ci sorprenderebbe? Alla luce di quanto detto circa la modellizzazione dei fenomeni, assolutamente no.

Perche’ si parla ora di massimo solare?

A partire dai primi di maggio, dopo un periodo relativamente calmo, il nostro sole ha iniziato a riprendere vigore con diverse emissioni di classe X. Per chi non lo avesse letto, delle diverse classi di emissioni abbiamo parlato sempre nel post:

Le macchie solari AR1504

E’ giusto dire che e’ iniziato il massimo vero e proprio? In linea di principio no. Se volete e’ come il detto “una rondine non fa primavera”. Con questo intendo dire che per capire l’andamento del ciclo solare, si dovranno attendere, se ci saranno, nuove emissioni per poter affermare che il Sole sta attraversado il punto piu’ alto del suo massimo.

Ora, come fatto nell’articolo precedentemente citato, vi riporto anche il grafico aggiornato dello stato del nostro Sole:

Il numero di macchie solari osservate sul sole nel corso degli anni

Il numero di macchie solari osservate sul sole nel corso degli anni

Come spiegato in passato, in questo grafico viene riportato il numero di macchie solari contate sulla superficie del sole e che rappresentano un parametro direttamente legato all’attivita’ solare.

Notiamo prima di tutto una cosa molto importante: la linea rossa indica l’attivita’ solare prevista dalle simulazioni. Come potete vedere, il numero di macchie finora osservate e’ sensibilmente piu’ basso rispetto al valore atteso. E’ sconvolgente questo? Neanche per idea. Come visto, si tratta dei modelli, per cui sempre affetti da fluttuazioni statistiche e da incertezze.

Attenzione pero’, su questo punto molto si sta parlando in rete. Secondo molte fonti, questa differenza tra aspettato e osservato, come visto assolutamente non sconvolgente, indicherebbe niente poco di meno che “una nuova era glaciale”! Perche’ si parla di questo? Come visto in questo post:

Curiosita’ sui cicli solari

e come e’ facilmente immaginabile, l’attivita’ del nostro Sole influisce sulle condizioni ambientali della Terra, e non potrebbe essere diversamente. Ora, sempre per la solita rondine che non fa primavera, e’ assurdo parlare di era glaciale perche’ c’e’ un massimo meno intenso del previsto. Come visto nell’articolo riportato, nel caso del Maunder Minimum, si registro’ una totale assenza di macchie solari per un periodo compreso tra il 1645 e il 1700, macchie che poi inizarono lentamente a ricomparire fino a tornare alla normalita’ solo nel 1715. Alcune fonti parlano di diversi massimi poco intensi e dunque di un andamento che punterebbe ad una mini era glaciale. Anche in questo caso, si tratta di una esagerazione speculativa, atta solo a cercare di insinuare evidenze dove queste non ci sono.

Inoltre, facciamo una considerazione aggiuntiva molto importante. Come detto in precedenza, i famosi 11 anni di ciclo solare, non vanno visti come un dictat inviolabile, ma come una stima media della durata del ciclo. Perche’ dico questo? Come avvenuto in diverse occasioni, e anche nel precedente massimo, e’ possibile che il sole presenti due picchi all’interno dello stesso massimo. Riguardiamo per un attimo il grafico di prima, e concentriamoci sul massimo precedente. Come potete vedere, ci sono due picchi facilmente distinguibili, uno a meta’ el 2000 e l’altro alla fine del 2002. Anche questo comportamento rientra nelle normali fluttuazioni che il nostro Sole puo’ avere nel corso degli anni.

Perche’ abbiamo fatto questa considerazione?

Alla luce di questa, e’ lecito pensare che, anche in questo caso, quello che stiamo attraversando sia solo un primo picco di intensita’, seguito poi, anche a distanza di uno o due anni, da un secondo massimo piu’ intenso. Non ci sarebbe assolutamente nulla di sconvolgente in un comportamento del genere e soprattutto, non e’ preventivabile ne’ facilmente modellizzabile.

Riassumendo, stiamo sicuramente attraversando il massimo atteso del 24mo ciclo solare. Non e’ facilmente comprensibile capire se stiamo andando verso il picco, lo abbiamo gia’ passato e se ci sara’ un ulteriore picco a distanza di qualche mese. Quello che e’ evidente dai dati riportati e’ che, fino ad oggi, l’intensita’ di questo massimo e’ relativamente bassa e inferiore alle stime fatte. Questo pero’ rientra nelle normali fluttuazioni statistiche della fisica del sistema, non facilmente prevedibili ne’ tantomeno modellizzabili. E’ assolutamente fuori luogo parlare dell’inizio di una prossima era glaciale, soprattutto se citata da quelle fonti che fino a ieri parlavano di desertificazione a causa di un misterioso e incompreso riscaldamento globale.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

A-380 modificato per spargere scie chimiche

24 Gen

Di scie chimiche abbiamo gia’ parlato in diversi post:

Alcune considerazione sulle scie chimiche

Scie Chimiche: il prelievo in quota

Scie chimiche e cloud seeding

Come difendersi dalle scie chimiche

Il Dibromoetano e le scie chimiche

Ci tengo a sottolineare un aspetto molto importante. In questo blog, qualsiasi notizia viene analizzata, non partiamo mai da conclusioni gia’ scritte o di altri. Su ogni argomento cerchiamo sempre di analizzare i fatti concreti che abbiamo in mano e da questi tiriamo poi le nostre proprie conclusioni.

Come visto nei precedenti post, la teoria delle scie chimiche, per quanto molto seguita soprattutto in rete, non presenta nessun aspetto verificabile scientificamente. Ad oggi, non vi sono assolutamente evidenze delle fantomatiche emissioni che vengono raccontate. Molte volte, si fa riferimento a fatti o episodi, che poi ad un’attenta analisi, si rivelano assolutamente non credibili.

Sulla base di questo, vorrei ora raccontarvi di un documento che sta riscuotendo molto successo in rete proprio in questi giorni. Si tratta di un filmato di origine russa, in cui viene ripreso un Airbus A-380 apparentemente modificato ad hoc per creare le scie chimiche. Senza troppi giri di parole, vi riporto subito il video:

Anche se in russo, il senso del video e’ assolutamente chiaro. Come vedete, nelle immagini si vede questo velivolo senza sedili per i passeggeri, ma con molti serbatoi installati all’interno. Come indicato dal video, questi serbatoi sarebbero proprio quelli utilizzati per caricare i gas da immettere in atmosfera.

Capite subito che se il video fosse vero, si tratterebbe di una prova schiacciante a favore dell’esistenza delle scie chimiche.

Perche’ utilizzo il condizionale?

Presentazione dell'A380 nel 2005

Presentazione dell’A380 nel 2005

Questo video e’ ovviamente reale cosi’ come le immagini riprese all’interno dell’aereo. Su internet, in diversi siti e social network, si sta gridando allo scandalo o finalmente alla prova definitiva delle scie chimiche. Secondo alcuni, questo video andrebbe diffuso nei telegiornali nazionali per far aprire finalmente gli occhi alle persone che ancora non credono all’avvelenamento sistematico mediante aerosol.

Ora, lasciatemi aprire una parentesi. Perche’ invece di gridare allo scandalo, non si ragiona su questi documenti? Molte volte abbiamo fatto questa considerazione, ma ad oggi ancora non abbiamo trovato una risposta. Spesso, e’ il pensiero collettivo che guida le convinzioni di molte persone. Basta sbandierare un’idea, affinche’ molti la prendano per loro senza ragionarci sopra.

Ripeto, il video e’ reale, ma e’ il contesto in cui e’ stato girato che e’ completamente mistificato!

Cerchiamo di capire meglio.

Facciamo qualche osservazione. Notiamo prima di tutto, come si vede nelle immagini all’esterno, che il velivolo e’ completamente sprovvisto di loghi di compagnie aeree. Secondo voi, se dovessimo far volare un aereo senza attirare l’attenzione, partendo da un aereoporto civile, lo faremmo utilizzando velivoli senza loghi? Credo proprio di no. Il modo migliore sarebbe quello di utilizzare esattamente un aereo identico a tanti altri e dunque non riconoscibile.

Ma questo se vogliamo e’ ancora un dettaglio. In realta’, come vedremo a breve, non del tutto trascurabile.

Durante le immagini, si vede il cronista e l’intervistato che parlano normalmente e viene ripreso l’interno compresi anche questi misteriosi serbatoi. Il tono della chiacchierata non mi sembra assolutamente catastrofico, ne tantomeno allarmista. In alcuni siti si dice che l’inviato sia riuscito ad eludere i controlli di sicurezza intrufolandosi dentro l’aereo. Come? E poi, intervisterebbe normalmente qualcuno all’interno della carlinga?

Vedete come le tante ipotesi che circolano in rete, presentano in realta’ alcuni aspetti molto controversi.

A cosa servono quei serbatoi?

La risposta e’ molto piu’ semplice e meno misteriosa di quanto vogliono farci credere. L’aereo in questione e’ privo di loghi perche’ ancora non appartiene ad una compagnia. Si tratta infatti di un aereo-laboratorio, utilizzato fare test sperimentali sugli aerei.

Vi siete mai chiesti come viene testato un aereo?

In realta’, molti dei test vengono fatti mediante simulazioni al calcolatore. Ovviamente, tantissime prove devono necessariamente essere fatte sul campo proprio sull’aereo.

Facciamo un’altra considerazione. Durante il suo utilizzo reale, un aereo per il trasporto passeggeri, molto probabilmente “trasportera’ passeggeri”. A parte le cose ovvie, in base al numero di persone, possiamo avere diverse distribuzioni di peso, sbilanciamenti in una zona rispetto ad un’altra, movimenti in quota, ecc. Come facciamo a realizzare queste situazioni nei test? Non possiamo certo pensare di chiamare 800 comparse da mettere sull’aereo. Questa situazione viene simulata proprio mediante quei serbatoi che vedete. Mediante valvole di connessione, e’ possibile riempire diversamene i serbatoi o anche spostare la zavorra da un contenitore all’altro, simulando i diversi carichi che si possono verificare nel normale funzionamento.

Non siete ancora convinti?

A conferma di questo, vi voglio mostrare un altro video, guarda caso sempre girato in Russia, e molto probabilmente sullo stesso aereo del video incriminato:

Come vedete nella descrizione, si tratta di alcune riprese fatte durante il “Salone Internazionale dell’Aviazione” che si svolge ogni 2 anni in Russia. In particolare, il video mostrato, cosi’ come quello da cui siamo partiti, riguardano l’edizione 2011, in cui e’ stato messo in mostra proprio un Airbus A-380 utilizzato per fare le prove sul campo.

Per completezza, vi riporto anche l’indirizzo del Salone (MAKS) da cui potete scaricare altre informazioni, foto e video delle edizioni precedenti:

MAKS, Russia

Concludendo, anche in questo caso, le tanto acclamate prove delle scie chimche non sono arrivate. Nel momento in cui leggete di teorie di questo tipo, prima di gridare allo scandalo, fermatevi 2 minuti a riflettere ed analizzare le prove portate a sostegno. Molto spesso, dietro l’aura di sensazionalismo non si nasconde niente di piu’ che una fumosa montatura creata solo per alimentare il sospetto.

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Sole: quanta confusione!

31 Dic

Come sappiamo bene, il Sole rappresenta da sempre uno degli argomenti piu’ citati e piu’ inflazionati dai siti catastrofisti. Se ci pensiamo e’ naturale. Questa stella consente la vita sulla nostra Terra. Molti di noi sono abituati a vederlo sempre li e a pensarlo immutabile nel corso del tempo. Annunciare teorie allarmanti sul Sole e’ molto semplice. Stiamo parlando di un reattore a fusione estremamente potente e che praticamente si trova dietro l’angolo, solo 8 minuti luce di distanza dalla Terra.

Parlare di emissioni anomale e pericolose da parte del Sole e’ molto semplice e fa facilmente leva sulle persone.

Della nostra stella abbiamo gia’ parlato tante volte, ottimi esempi sono questi post:

Nuova minaccia il 22 Settembre?

– Come seguire il ciclo solare

Ora, come detto piu’ e piu’ volte, per il 2012 era atteso un massimo solare. In realta’ questo e’ quello che molti volevano farci credere dal momento che il massimo del XXIV ciclo e’ in realta’ atteso per la primavera del 2013. Come visto, questo massimo non avra’, almeno dalle previsioni e dal comportamente attuale, nessun carattere di eccezionalita’, anzi si presentera’ come un massimo molto soft e notevolmente meno intenso di altri occorsi in passato.

Bene, questo e’ quello che ci e’ stato detto e ridetto. Ora, come per magia, su molti siti si lancia un allarme completamente opposto: “fate attenzione, il Sole sta diventando sempre meno intenso”. Questo potrebbe comportare un abbassamento drastico delle temperature sulla Terra, una nuova era glaciale potrebbe arrivare, questo e’ sicuramente un anuncio di nuove catastrofi in arrivo.

Ma come? Fino a ieri dovevamo aspettare un massimo di attivita’ e cuocerci sotto le radiazioni solari, oggi dobbiamo congelarci perche’ il Sole si spegne?

Capite bene il titolo scelto per il post. Forse e’ il caso di fare un po’ di chiarezza.

Come visto nei post precedenti, l’attivita’ del nostro Sole non e’ affatto costante nel tempo. Per attivita’ intendiamo l’emissione di radiazione e particelle in tutte le direzioni dello spazio, compresa quella che investe la nostra Terra. Dalle osservazioni solari, si e’ capito che il Sole segue un ciclo di 11 anni tra un massimo e un minimo di attivita’. Questo e’ appunto quello che chiamiamo ciclo solare. Al contrario della Terra, il campo magnetico del Sole si inverte, cioe’ scambia la posizione dei suoi poli nord e sud, ogni 11 anni. Serve dunque un periodo di 22 anni, due cicli, per tornare nella posizione originale del campo magnetico. Su questo punto non c’e’ assolutamente nulla di strano o di allarmante, e’ cosi’ da sempre ed e’ un comportamento implicito nel funzionamento del nostro Sole.

Molto spesso poi sentiamo parlare di macchie solari. Queste altro non sono che zone piu’ scure che compaiono sulla superficie del Sole ed indicano dei punti in cui ci sono anomalie di campo magnetico. Queste macchie appaiono piu’ scure a causa della temperatura relativamente piu’ bassa di queste zone rispetto al resto della superficie (6000 gradi contro 4000). Il numero di macchie solari e’ un indicatore dell’attivita’ del Sole. Maggiore e’ il numero di macchie, piu’ alta e’ l’attivita’ solare in quel momento.

Il numero di macchie solari, o sunspot, e’ un parametro osservato da moltissimo tempo e su cui abbiamo raccolto una statistica considerevole. Il primo che osservo’ ed annoto’ il numero di macchie fu lo stesso Galileo grazie al telescopio da lui stesso inventato.

Bene, fino a questo punto nulla di difficile o di allarmante.

Dunque, cosa dobbiamo aspettarci un massimo o un minimo? Come anticipato, stiamo andando verso il massimo di attivita’ solare del XXIV ciclo. Tra l’altro, solo per compeltezza, fino a questo punto il Sole sta avendo un comportamento leggermente piu’ basso rispetto a quello che ci si aspettava. Questo e’ preoccupante? Anche in questo caso, la risposta e’ NO. Quando si dice “quello che si aspettava” si intendono le simulazioni che vengono fatte a priori per capire, piu’ o meno, quello che ci si deve aspettare nei mesi successivi. Queste simulazioni si basano sulla conoscenza attuale del comportamento del Sole, ma soprattutto sui dati che giorno per giorno vengono raccolti. Detto questo, capite bene che all’aumentare dei dati raccolti, e’ necessario ricorreggere le simulazioni per aggiornare lo stato attuale del Sole e modificare quanto ci si deve aspettare per il futuro.

Detto in parole povere, le simulazioni del comportamento del Sole, sono un po’ come le previsioni del tempo. Non a caso spesso si parla di Meteo-Solare. In quest’ultimo caso come funziona? Si vede la condizione attuale e si utilizzano modelli matematici per dare dei pronostici futuri. Se oggi vedreste le previsioni ad una settimana avreste dei risultati, se li rivedreste tra 3 giorni il risultato potrebbe cambiare e sicuramente essere piu’ preciso.

Spero che quanto detto sia sufficiente a farvi capire come vengono fatte queste simulazioni su cui tanta speculazione viene fatta.

Ora, nel post precedente riportato, abbiamo gia’ visto come seguire il ciclo solare. A distanza di qualche mese da quel post, vi riporto nuovamente il grafico dell’attivita’ solare, per mostrarvi gli ultimi aggiornamenti:

Numero di macchie Solari aggiornato a Dicembre 2012

Numero di macchie Solari aggiornato a Dicembre 2012

Vi ricordo che questi dati sono in rete e sono liberamente accessibili a tutti visitando questo indirizzo:

NOAA sun cycle

Alcune considerazioni. Come vedete dalla linea rossa, che rappresenta la simulazione, stiamo andando verso il massimo di attivita’ solare. Il picco piu’ alto e’ atteso per Maggio-Giugno 2013. Notate anche un’altra cosa che conferma quanto detto: i punti sperimentali, cioe’ quelli ossservati, nel 2012 sono piu’ bassi della sinusoide rossa. Questa e’ la conferma che l’attivita’ del Sole e’ leggermente piu’ bassa di quanto atteso. Assolutamente questo non significa che il Sole si sta spegnendo!

Vorrei anche darvi un’altra informazione aggiuntiva, utile a capire meglio il comportamento del Sole e le simulazioni fatte. Come detto sopra, uno dei parametri importanti per capire il Sole e’ dato dal numero di macchie solari sulla superificie. Sempre utilizzando il sito del NOAA, possiamo andare a vedere il numero di macchie osservate sul sole e confrontarlo anche con i dati ottenuti dalle simulazioni.

Ecco, in particolare, le previsioni:

SunSpot Estimation

Guardate una cosa, per ogni mese viene dato il numero di macchie atteso, ma anche un massimo ed un minimo. Questi valori indicano proprio l’incertezza della predizione. Dalle simulazioni non ottenete un valore preciso, ma una banda entro cui vi aspettate sia contenuto il numero di macchie solari. Notate anche come il numero di macchie atteso sale fino a Maggio-Giugno e poi ridiminuisce. Questo e’ proprio il massimo atteso e di cui parlavamo prima.

Dunque? Come vedete non c’e’ assolutamente nulla di strano o di misterioso riguardo al Sole. E’ assolutamente falso parlare di un massimo di forte intensita’ atteso tra pochi mesi, cosi’ come e’ assolutamente falso parlare di Sole al minimo o anche vicino allo spegnimento.

Al solito, la raccomandazione e’ sempre la stessa: non credete a tutte le teorie bislacche e assolutamente antiscientifiche che trovate in rete. Questi parametri sono noti alla scienza e pubblici su internet. La cosa principale e’ imparare ad utilizzare internet per quello che in realta’ e’: un potente strumento di informazione.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

 

 

Storia astronomica di Nibiru

31 Ott

Come sappiamo, uno degli argomenti piu’ citati nelle profezie del 2012 e’ l’esistenza, e l’eventuale scontro con la Terra, di un decimo pianeta del Sistema Solare. Cercando in rete, trovate molte varianti possibili su questo corpo celeste. Oltre ad un pianeta, qualcuno ipotizza una nana bruna, una nana bianca, un buco nero, un sistema solare, e anche dal punto di vista del nome oltre a Nibiru trovate Tyche, Tiamat e Pianeta X. In particolare, questo ultimo nome ha la duplice funzione di indicare il decimo pianeta del Sistema Solare ma anche la natura misteriosa del corpo.

Del pianeta Nibiru, limitiamoci a considerarlo tale e chiamarlo in questo modo, abbiamo parlato in moltissimi post. Alcuni esempi sono:

Finalmente le foto di Nibiru

Nibiru e’ vicino, la prova delle orbite

La NASA torna a parlare di Nibiru

Evidenze di un decimo pianeta?

Nibiru e la deviazione delle Pioneer

Nibiru: la prova del trattore gravitazionale

Nibiru e’ monitorato dall’osservatorio di Arecibo?

Come abbiamo visto, ad oggi, non vi e’ assolutamente nessuna evidenza dell’esistenza di questo decimo pianeta. La rete abbonda di video, foto e presunte prove, ma, come detto, in molti casi si tratta o di materiale falso  o di materiale reale ma non riguardante Nibiru. Un chiaro esempio di quest’ultimo caso e’ dato dal post precedente sulle foto del pianeta.

Dell’origine storica di Nibiru, cosi’ come delle diverse ipotesi a riguardo e delle misura scientifiche “vere”, ne abbiamo parlato abbondantemente nel libro “Psicosi 2012. Le risposte della scienza”. In quest post, invece, vogliamo raccontare l’origine e la ricerca “scientifica” del decimo pianeta.

Molti, anche tra i sostenitori della sua esistenza, ignorano il fatto che la scienza ha per diversi anni cercato un decimo pianeta e su questi argomenti c’e’ stato un dibattito, anche acceso, tra diversi astronomi. Prima di addentrarci in questa rivisitazione storica e’ pero’ necessario fare una piccola introduzione scientifica spiegando alcuni concetti importanti.

Come sapete, il nostro sistema solare e’ costituito da un Sole, di grande massa, e da una serie di pianeti che orbitano intorno a questa stella centrale su orbite ellittiche. La forza gravitazionale e’ la “colla” che tiene in equilibrio tutto il sistema. Questa interazione e’ di tipo attrattivo e dipende direttamente dalle masse dei pianeti considerati e inversamente dal quadrato della loro distanza. Ogni pianeta ruota dunque intorno al Sole grazie all’attrazione gravitazionale.

Anche se l’interazione principale e’ quella del Sole, dal momento che la forza gravitazionale si esercita tra ciascuna coppia di pianeti, ogni corpo risentira’ anche dell’attrazione degli altri pianeti ed in particolare di quelli ad esso piu’ vicini. Date le masse, questa interazione sara’ molto meno intensa di quella del Sole, e costituira’ una “correzione” rispetto a quella dominante della stella centrale.

Abbiamo fatto questa premessa solo per presentare un metodo indiretto di ricerca dei corpi celesti. Nell’astronomia, anche se non siete in grado di vedere direttamente un corpo, potreste riuscire ad individuarlo osservando i suoi effetti, cioe’ le perturbazioni gravitazionali apportate da questo sugli altri corpi nelle vicinanze.

Facciamo un esempio. Immaginate di vedere soltanto 3 pianeti che orbitano intorno al Sole. Mediante calcoli matematici siamo in grado di calcolare in modo preciso le orbite occupate da questi pianeti considerando l’interazione con il Sole, principale, e le interazioni tra ciascuna coppia di pianeti, correzioni. Ora avete il vostro modello matematico, ovviamente basato sulla fisica. Andiamo poi a confrontare questo risultato con quello che vedete realmente con i telescopi. Se la vostra simulazione coincide con quello che vedete significa che il vostro modello e’ reale. In caso contrario, dando ovviamente per scontato che i calcoli siano fatti bene, misurate delle discrepanze tra mondo reale e simulazione. A cosa sono dovute? Una delle ipotesi piu’ probabili e’ che ci sia un altro corpo, che non avete considerato nella simulazione, e che apporti delle modificazioni alla forza di gravita’.

Seguendo questo schema, e’ stato possibile, ad esempio, scoprire Nettuno nel 1846. Dalle incongruenze tra simulazione e realta’ nell’orbita di Urano, gli astronomi ipotizzarono la presenza di un altro pianeta piu’ esterno che perturbasse con la sua presenza l’orbita di Urano. Allo stesso modo, nel 1930 venne scoperto anche Plutone, poi declassato da pianeta a planetoide.

Ora, nonostante la scoperta di Nettuno e Plutone, l’orbita calcolata di Urano presentava ancora delle piccole perturbazioni rispetto a quella osservata dagli astronomi. Seguendo il ragionamento appena fatto, queste perturbazioni potevano essere dovute ad un altro pianeta, appunto il decimo del Sistema Solare, che perturbasse gravitazionalmente con la sua presenza il moto di Urano.

Siamo intorno agli anni ’70 e partendo da queste misurazioni ebbe inizio la ricerca del decimo pianeta del Sistema Solare.

Molti astronomi si dedicarono allo studio e alla ricerca del pianeta X, tra questi Harrington, Jackson, Killen e Maltese, solo per citarne alcuni. Stiamo parlando di astronomi di notevole esperienza e che attraverso la ricerca del decimo pianeta pubblicarono articoli pioneristici su diversi argomenti astronomici molto importanti come lo studio dei sistemi binari, le risonanze tra pianeti, l’interazione gravitazionale a molti corpi e cosi’ via.

Pianeti del Sistema Solare incluso Nibiru

Ora, ripensiamo a quanto detto sull’equilibrio gravitazionale del Sistema Solare. Mediante simulazioni e confrontando di volta in volta i risultati con quanto osservato nella realta’, e’ possibile, mediante calcoli matematici, ipotizzare la posizione, l’orbita e la massa che dovrebbe avere il decimo pianeta per spiegare le perturbazioni osservate. Detto in altri termini, e’ possibile “aggiustare” la simulazione ipotizzando un pianeta addizionale la cui presenza sia in grado di far coincidere la simulazione con la realta’. Proprio da questi calcoli vengono estratti i parametri che spesso trovate in rete su Nibiru riguardanti la sua grandezza, la sua orbita, la distanza dal Sole e la posizione attuale nel sistema solare.

Fin qui dunque e’ tutto chiaro. Procedendo come per le scoperte di Nettuno e Plutone, si ipotizza la presenza di un ulteriore pianeta in grado di spiegare le perturbazioni ancora ossservate nell’orbita di Urano.

A differenza pero’ di Nettuno e Plutone, il decimo pianeta ipotizzato non e’ mai stato osservato, tantomeno nella posizione indicata dalle simulazioni fatte dai vari astronomi.

Questo risolve solo una parte del problema. Anche se non abbiamo osservato il decimo pianeta, sappiamo che Urano presenta delle perturbazioni nella sua orbita. Come detto in precedenza, in astronomia anche se non osserviamo direttamente un corpo possiamo intuire la sua presenza dagli effetti gravitazionali apportati ai pianeti vicini. Le perturbazioni dell’orbita di Urano possono essere una prova dell’esistenza del decimo pianeta. Forse non lo osserviamo perche’ noi non siamo in grado di farlo.  Questo ragionamento e’ quello portato avanti in moltissimi siti a favore di Nibiru e astronomicamente, in base a quanto detto fino a questo punto, e’ un discorso assolutamente lecito.

Dunque? Cosa non abbiamo considerato?

Torniamo a ragionare su quanto detto riguardo all’attrazione gravitazionale. Due corpi qualsiasi si attraggono mediante la forza di gravita’. Questa interazione dipende direttamente dalle masse dei pianeti ed e’ inversamente proporzionale al quadrato della loro distanza. Teniamo questo a mente.

L’orbita di Urano dipende principalmente dall’interazione con il Sole, ma anche dalle correzioni apportate dagli altri pianeti intorno ad esso. Essendo Nettuno subito dopo Urano, questo avra’ un’attrazione importante sulla sua orbita.

Proprio queste considerazioni sono alla base dell’inesistenza del decimo pianeta. Nelle simulazioni erano presenti delle discrepanze nell’orbita di Urano proprio perche’ era considerata una massa leggermente sbagliata di Nettuno. Ragioniamo insieme. La forza gravitazionale con cui Nettuno disturba Urano, dipende, come detto, dalla massa di entrambi i pianeti. Se utilizziamo una massa di Nettuno leggermente diversa da quella reale, nella simulazione avremo una perturbazione diversa rispetto a quella reale e dunque un orbita simulata leggermente diversa da quella osservata. Proprio questa differenza ci porta a cercare un ulteriore pianeta che giustifichi la perturbazione osservata.

Questo e’ esattamente quello che e’ successo storicamente. La massa di Nettuno conosciuta fino agli inizi degli anni ’90 differiva da quella reale di un -0.5%. Questa apparentemente piccola differenza e’ responsabile delle discrepanze osservata tra teoria e simulazione. Il valore preciso della massa di Nettuno venne calcolato solo nel 1990 a seguito del passaggio sopra il pianeta della sonda Voyager 2. Proprio in questa occasione si pote’ misurare con precisione la massa ed accorgersi della differenza rispetto al valore fino a quel punto conosciuto in astronomia, e dunque utilizzato nelle simulazioni.

Nel 1993 venne infatti pubblicato un articolo di Standish dal titolo: “Pianeta X: Nessuna evidenza dinamica nelle osservazioni ottiche”. Potete leggere l’articolo da questo link:

Articolo Standish 1993

Come si legge nell’introduzione: “Viene mostrato come le anomalie nell’orbita di Urano scompaiono prendendo in esame il valore corretto della massa di Nettuno“. E ancora: “Non c’e’ nessuna evidenza che richieda o indichi l’esistenza di un oggetto delle dimensioni di un pianeta (oltre Plutone). A questo punto non vi e’ piu’ nessuna necessita’ di ipotizzare l’esistenza di un decimo pianeta nel Sistema Solare“.

Questo articolo, datato 1993, e’ la conclusione della ricerca astronomica del decimo pianeta. Da quanto detto, non erano sbagliate le simulazioni fatte o i parametri calcolati del decimo pianeta, quello che era sbagliato era il punto di partenza della discussione. Le anomalie nell’orbita di Urano, cioe’ le differenze tra l’orbita osservata e quella calcolata, e da cui si ipotizzo’ l’esistenza di Nibiru, non erano reali, ma dovute all’errore sulla massa di Nettuno. Misurando meglio la massa del pianeta, le anomalie scompaiono e non c’e’ nessuna necessita’ di ipotizzare un decimo pianeta.

Come vedete, nel corso degli anni gli astronomi hanno cercato un decimo pianeta nel sistema solare. Oltre all’introduzione sumera, molti sostenitori di Nibiru si rifanno a questa parte storica per sostenere le loro ipotesi. Quella che pero’ viene spesso ignorata, e’ proprio la conclusione scientifica a cui si e’ giunti nel 1993. Il decimo pianeta viene ipotizzato per spiegare qualcosa. Se questo qualcosa in realta’ non esiste, perche’ c’era un errore a monte, non serve parlare del decimo pianeta.

Non lasciatevi convincere da ipotesi senza fondamento o non supportate da prove. Seguendo un approccio scientifico, possiamo motivare i nostri ragionamenti e le nostre conclusioni mostrando dati, leggi fisiche e, come in questo caso, articoli di astronomia consultabili a tutti. Per affrontare scientificamente, ma senza nessun preconcetto, tutte le profezie del 2012, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.