Tag Archives: complesso

Chi e’ Eugene Goostman?

10 Giu

Oggi, moltissimi giornali hanno riportato una notizia molto interessante anche se, come spesso accade, alcuni giornalisti si sono limitati a fare copia/incolla o, peggio ancora, non documentandosi bene prima di scrivere, hanno arricchito i loro articoli di cosa alquanto fantasiose.

Visto che sicuramente avrete letto la notizia a cui mi riferisco, mi limito ad un breve riassunto: il 7 giugno, in occasione del 60esimo anniversario della morte di Alan Turing, un software e’ riuscito a superare il cosiddetto Test di Turing.

In cosa consiste questo test?

Immaginiamo di avere 3 persone: A, B e C. A e B, non necessariamente in ordine giusto, sono un uomo e una donna. C, che si trova in un’altra stanza, deve indovinare mediante una serie di domande dattiloscritte, chi e’ l’uomo e chi la donna. Su questa base, Turing sviluppo’ il suo test per verificare la bonta’ di un’intelligenza artificiale. Se uno dei due tra A e B e’ una macchina, cioe’ un software, C deve indovinare chi e’ l’umano e chi il programma informatico.

Cosa significa tutto questo?

Molto semplice, se il software riesce a farsi passare per un umano, cioe’ e’ in grado di ragionare come una persona in carne e ossa, allora siamo di fronte ad una vera e propria intelligenza artificiale in grado di cammufarsi tra gli umani.

Leggendo queste righe, sicuramente vi saranno venuti in mente moltissimi scenari, o film, di fantascienza in cui le macchine si confondono tra gli esseri umani e sono in grado di ragionare e provare emozioni. Lo scopo del test di Turing e’ proprio quello di verificare quanto una macchina sia in grado di ragionare, dunque elaborare pensieri complessi e non solo rispondere ad una serie di istruzioni gia’ scritte.

Del genio di Alan Turing abbiamo gia’ parlato in un articolo specifico:

Un perdono atteso 70 anni

In particolare, in questo articolo abbiamo parlato di Turing in relazione al suo lavoro durante la seconda guerra mondiale e il suo ruolo di primo piano nella decriptazione dei messaggi della macchina Enigma. Turing fu un vero e proprio genio dei suoi tempi e uno dei padri della moderna informatica. Come visto nell’articolo precedente pero’, la sua omosessualita’, contestualizzata al momento storico in cui visse, gli costo’ molto cara e questo “reato” lo spinse al suicidio esattamente il 7 Giugno 1954.

Proprio nell’ambito dei suoi studi sull’intelligenza artificiale, Turing formulo’ il test di cui abbiamo parlato, prendendo spunto dal “Discorso sul metodo” di Cartesio. Nel corso degli anni, diversi software hanno provato a superare il test sempre fallendo.

Come funziona il test?

Da quanto detto in precedenza, un giudice deve riconoscere, mediante un numero limitato di domande o comunque in un tempo prefissato, un programma informatico da una persona in carne e ossa. Ovviamente, non abbiamo un singolo giudice ma una vera e propria giuria. Nel regolamente ufficiale, ogni giudice ha a disposizione 5 minuti di domande e il test si ritiene superato se almeno il 30% dei giudici confonde il software per un umano.

Dunque? E’ stato superato o no questo test?

Dal regolamento riportato, il test e’ stato effettivamemte superato dal momento che, nella prova del 7 giugno di quest’anno, il 33% dei giudici, cioe’ un terzo della giuria, ha scambiato la macchina per un essere umano.

Che tipo di software e’ stato utilizzato?

Come sicuramente avrete letto, il software si chiama Eugene Goostman, che poi e’ il nome completo di un ragazzo ucraino di 13 anni, che e’ il personaggio simulato dal programma. Questo portentoso software e’ stato sviluppato da tre programmatori e’ gia’ nel 2006 era andato molto vicino a superare il test con il 29% dei giudici ingannati.

computer supera il test di Turing

Per chi avesse dubbi sulla regolarita’ della prova, il test e’ stato condotto adirittura alla Royal Society di Londra nel corso, appunto, delle celebrazioni per i 60 anni della morte di Turing.

Cosa dire su questo risultato?

Sicuramente si tratta di un passo molto importante per lo sviluppo dell’intelligenza artificiale ma cerchiamo di non scadere anche nei nel sensazinalismo. Per prima cosa, il software, come richiesto dal test, ha superato la soglia del 30%, ma siamo ben lontani dall’aver ingannato tutti i giudici. Alcuni scettici puntano il dito sul fatto che il personaggio simulato fosse un ragazzino di soli 13 anni e non madrelingua inglese. Questo particolare potrebbe aver tratto in inganno alcuni giudici che potrebbero aver pensato ad informazioni non note per la giovane eta’ o a problemi di comprensione dovuti alla diversita’ linguistica.

A parte questo, il test e’ stato comunque superato. Sicuramente, la pubblicita’, assolutamente giusta dal mio punto di vista visto il risultato storico, contribuira’ a far crescere gli investimenti nella ricerca per l’intelligenza artificiale che, test a parte, potrebbe trovare applicazione in moltissimi settori. Per darvi un’idea, la stessa Google ha da poco investito ingenti capitali in questo settore, circa 400 milioni di dollari, per acquisire societa’ piu’ piccole ed incentivare lo sviluppo di software sempre piu’ pensanti. Per chi volesse provare un sistema di questo tipo, anche se molto meno raffinato di Eugene Goostman, ci sono due possibilita’: i sistemi di assistenza vocale dei moderni cellulari (Siri per fare un esempio) o programmi online apprendenti:

Tobby chat bot

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

ENI green data center

5 Nov

Nella sezione:

Hai domande o dubbi?

un nostro affezionato lettore ci ha chiesto delucidazioni sulla nuova struttura chiamata ENI green data center che e’ stata inaugurata solo pochi giorni fa.

Come spesso accade in Italia, la filosofia e la costruzione, non che la messa in opera, di questo importante polo e’ passato molto in sordina con solo pochi articoli su qualche giornale specializzato. Questo e’ completamente assurdo. La struttura rappresenta un’innovazione tecnologica molto importante a livello mondiale e meriterebbe, molto piu’ di tante notizie che riempono i giornali tutti i giorni, di essere pubblicizzata.

Per sapere qualcosa su questo centro, potete andare direttamente sul sito internet:

ENI green data center

Se proprio devo essere sincero, e questo e’ in primis un monito per i tecnici dell’ENI che hanno poco curato questo aspetto, leggendo il sito non e’ chiaramente comprensibile lo scopo di questo centro. Forse, anche questo aspetto ha contribuito alla poca pubblicita’ ricevuta sui giornali.

Cerchiamo dunque di supplire a questa mancanza di informazioni provando a spiegare quali sono gli obiettivi e l’eccellenza di questo centro tutto made in Italy.

L’ENI green data center sorge vicino Pavia, precisamente a Ferrera Erbognone, ed e’ stato inaugurato il 29 ottobre. Questa data cade poco meno di due anni dopo la posa della prima pietra. Anche questa informazione ci fa capire quanto il progetto sia stato seguito in maniera puntuale e rapida.

A cosa serve?

Questa e’ ovviamente la domanda principale. Per capirlo, cerchiamo di fare un ragionamento insieme. Ogni qual volta si richiede un calcolo molto complesso, e’ necessario disporre di una potenza di calcolo notevole. Con questo intendo dire che per risolvere algoritmi complessi e lunghi e’ necessario disporre di tanti pc equivalenti che lavorano insieme. Ovviamente, la cosa sarebbe possibile anche con il vostro pc di casa, ma, probabilmente, richiederebbe anni e anni per poter arrivare ad un risultato. Bene, per velocizzare il tutto, si utilizzano dei potenti centri di calcolo che racchiudono molte CPU, cioe’ molti processori, che lavorano in simultanea dividendosi il lavoro. In questo modo, potete raggiungere lo stesso risultato in brevissimo tempo. Questo e’ quello che viene indicato come potenza di calcolo.

Chi utilizza questi centri?

In realta’, questi speciali centri tecnologici trovano applicazione in tantissimi settori anche profondamente diversi tra loro. Qualche esempio? Nella fisica, scusate l’esempio scontato ma e’ quello che conosco meglio, i centri di calcolo servono per poter analizzare i dati, impacchetarli secondo una struttura facilmente leggibile dall’utente finale ma anche per lavorare in tampi velocissimi per produrre quello che viene chiamato un “trigger”, cioe’ decidere in tempo reale se un particolare evento raccolto e’ interessante per la fisica, e quindi deve essere registrato, oppure no. Come potete facilmente capire, per concludere queste operazioni in tempi brevissimi, magari quelli delle collissioni che avvengono dentro gli acceleratori, e’ necessario disporre di tanti processori.

Altri campi di utilizzo: l’economia, la biologia, la geologia, la matematica, l’ingegneria e cosi’ via. In che modo? Per fare qualche esempio, in economia per simulare un modello economico nel tempo, in biologia per studiare le risposte, ad esempio, del DNA in cui vengono inclusi tutti i costituenti ed e’ necessario simulare in dettaglio le interazioni con diverse molecole. In ingegneria per simulare la risposta di una struttura, anche molto grande e complessa, alle varie sollecitazioni che incontrera’ durante il suo utilizzo.

Come potete facilmente capire, questi centri di calcolo risultano fondamentali per studiare diversi scenari molto complessi e proprio per questo motivo la ricerca in questo settore ha mostrato un boom negli ultimi anni senza precedenti.

Ma a cosa serve questo centro allENI?

Una volta capita l’importanza di un centro di calcolo all’avanguardia, e’ lecito chiedersi a cosa serve questo tipo di struttura ad un’azienda come l’ENI. Quello che molto spesso i non addetti ai lavori ignorano e’ che le grandi societa’, appunto come l’ENI, hanno sempre un reparto di ricerca e sviluppo all’avanguardia nei propri settori, fondamentali proprio per mantenere un ruolo di leader sul mercato.

Nel caso dell’ENI, al nuovo data center sara’ inviata tutta la richiesta informatica dell’azienda. Oltre ai sempli algoritmi per l’elaborazione delle bollette, il centro sara’ specializzato nello studio di settori strategici per l’azienda.

Solo per fare un esempio, prima di procedere ad una trivellazione in un punto, visto l’enorme costo che operazioni di questo tipo comportano, e’ importante essere sicuri che il punto sia quello buono. Per capire questo aspetto, e’ necessario simulare in dettaglio la regione o comunque la zona di terreno in esame. Per fare questo si devono costruire modelli, cioe’ algoritmi, quanto mai simili alla realta’, che includono dunque tantissimi aspetti del terreno e delle sue relazioni con il restante ecosistema. Anche in questo caso, per analizzare strutture di questo tipo e’ necessario manipolare tantissimi dati con algoritmi complessi e che richiedono dunque una notevole potenza di calcolo.

Bene, e cosa ha di speciale il nuovo green data center?

Piu’ che rispondere a questa domanda, che comunque affrontiamo, e’ importante chiedersi perche’ compare l’aggettivo “green” nel nome.

Pensate al vostro pc, come sapete benissimo all’interno sono presenti una serie di ventole e dissipatori. A cosa servono? Ovviamente per raffreddare il processore, la scheda video, l’alimentatore, ecc. Questo perche’ abbiamo elementi che scaldano molto quando vengono utilizzati al pieno delle prestazioni. Il calore e’ nemico dell’elettronica che per poter funzionare richiede un intervallo di temperature che non sia troppo alto.

Bene, allo stesso modo, pensate quanto faticoso possa essere eliminare, cioe’ portare via, il calore da un centro di calcolo in cui sono presenti tantissime CPU.

Per darvi una stima, nel green data center dell’ENI sono presenti qualcosa come 60000 CPU.

Per poter far girare le ventole che servono al raffreddamento, dovete spendere dell’energia. Rapportate sempre questi ragionamenti ad un centro di calcolo e capite subito come questi numeri divengono immediatamente importanti. Sempre per fare esempi pratici, durante l’anno scorso la quantita’ di CO2 emessa solo dai centri di calcolo presenti nel mondo, che e’ direttamente rapportata alla richiesta di energia per il funzionamento, e’ stata il 2% del totale, paragonabile quindi a quella emessa dagli aerei civili utilizzati per il trasporto. Detto questo, capite bene che non stiamo parlando di numeri trascurabili.

L’ENI green data center rappresenta un record mondiale per il basso consumo di energia con potenze che arrivano fino a 50 KW per metro quadrato occupato. Il vero record sta poi nell’utilizzo che viene fatto di questa energia. Se si calcola il rapporto tra energia consumata e quella spesa per far funzionare la parte dei processori, dunque se volete una sorta di efficienza del sistema, si trovano numeri davvero innovativi. Per la maggior parte dei centri di calcolo al mondo, questo rapporto si aggira intorno a 2 o 3. Questo significa che se vi serve 1Kw per i computer, ne dovete richiedere fino a 3 dalla rete perche’ servono per il raffreddamento o per altri elementi che comuqnue disperdono energia non lasciandola ai sistemi informatici veri e propri. Per l’ENI green data center, questo rapporto vale solo 1.2 rappresentando un record mondiale assoluto raggiunto in Italia.

Uno degli aspetti piu’ importanti e che contraddistingue il nuovo centro dai suoi predecessori e’ la presenza di alti camini sugli edifici. Questi sono molto importanti per permetter la ventilazione forzata dell’aria e dunque risparmiare energia elettrica.

L’enorme potenza di calcolo sviluppata e le migliorie tecnologiche fatte hanno anche richiamato diverse societa’ private ed istituzioni universitarie. Da queste sono poi nate delle collaborazioni internazionali con enti accreditati che non fanno altro che sostenere ed incentivare la ricerca italiana in questo settore.

Concludendo, l’ENI green data center in provincia di Pavia rappresenta un notevole passo avanti nello sviluppo e nella ricerca sui centri di calcolo. Purtroppo, l’inaugurazione di questo innovativo polo e’ passata un po’ in sordina tra i vari media che non hanno assolutamente pubblicizzato la struttura dando la giusta enfasi che meritava. Come visto, potenze di calcolo notevoli richiamano collaborazioni da istituzioni sia private che pubbliche favorendo ancora di piu’ la collaborazione scientifica ed in progressi che solo in questo modo potrebbero essere portati avanti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Coltivare senza terra

29 Ott

Coltivare senza terra? Due sono le possibilita’: o siamo impazziti o siamo in vena di scherzi.

Pensateci bene, una delle tecniche piu’ antiche di sostentamento dell’uomo, l’agricoltura, attraversa da diverso tempo una profonda crisi. Coltivare la terra non e’ affatto semplice e, come e’ noto, non e’ neanche redditizio. Tanta fatica, lavoro e poi? Basta una grandinata, un parassita, un periodo di siccita’ e tutto il lavoro viene buttato al vento con conseguente perdita del raccolto e dell’investimento fatto.

Queste sono considerazioni oggettive con cui chi coltiva la terra e’ abituato a vivere ogni giorno.

Altro pensiero, l’agricoltura e’ una tecnica antichissima e’ vero ma, a parte macchinari tecnologicamente avanzati, questa tecnica e’ rimasta uguale a se stessa per secoli. Fate una buca, ci mettete un seme, annaffiate e con l’aiuto del sole avete la vostra pianta o, meglio ancora, un frutto commestibile.

Possibile che non esiste niente di nuovo?

In realta’ si. Anche in questo campo, si sono condotti, e sono ancora in corso, diversi studi mirati proprio a semplificare la vita e rendere l’agricoltura meno rischiosa e piu’ redditizia. Ovviamente, non mi sto riferendo a bombe chimiche in grado di trasformare le piante in qualcosa di resistente o a farle crescere piu’ velocemente e piu’ grandi.

Quello di cui vorrei parlarvi in questo articolo e’ la tecnica di coltivazione senza terra.

Come e’ possibile?

Questa tecnica e’ nota con il nome di idroponica. Come anticipato, le piante non crescono piu’ nella terra ma su substrati inerti. Attenzione, la terra serve a dare alle piante le sostanze nutritive di cui ha bisogno. Senza la terra dove le prendiamo? In questa tecnica, le radici delle piante crescono immerse in una soluzione a pH controllato ricca di sostanze nutritive. Non si tratta di ritrovati chimici sintetici, ma di sostanze naturali concentrate da cui la pianta riceve tutto il nutrimento.

Nell’idroponica, si utilizzano substrati inerti come lana di roccia o argilla espansa che vengono utilizzati per far aggrappare le radici delle piante. Come nelle normali coltivazioni, la crescita delle piante prevede tre momenti salienti: germinazione, crescita, fioritura. Nella prima fase, le radici vengono fatte crescere direttamente immerse nella sostanza nutriente per poi crescere ed arrivare fino alla fioritura, o al frutto.

Esempio di sistema idroponico

Esempio di sistema idroponico

Con questa tecnica, si utilizza un sistema di pompe per far circolare l’acqua in modo da poter sempre irrigare le radici ma anche per recuperare i reflussi da poter riutilizzare nel circuito. In questo modo si ottiene un notevole risparmio di acqua. Pensate che da stime fatte, per far crescere una singola pianta serve un volume circa 1/10 rispetto alle normali tecniche interrate.

In rete trovate gia’ molti sistemi pronti da acquistare e montare in casa. La tecnica idroponica nasce infatti proprio per favorire la coltivazione indoor di piante commestibili. L’investimento iniziale, che ovviamente dipende dal numero di piante che si vogliono far crescere, non e’ proprio economico ma si tratta, appunto, di un investimento iniziale. Come potete immaginare questo kit si compone di una vasca per l’acqua, i liquidi nutritivi per le piante e i circuiti idrici di flusso e reflusso per il recupero.

Con l’idroponia si possono far crescere moltissime varieta’ di piante tra cui, per fare un esempio, lattuga, pomodori, fragole, fagiolini. Insomma, un vero e proprio orto domestico da poter realizzare con spazi e irrigazione molto ridotti.

Quali sono gli svantaggi di questa tecnica rispetto a quella tradizionale?

Ovviamente, e’ necessario un continuo monitoraggio delle piante e del sistema. Il fatto di non avere terra consente di ridurre al minimo la possibilita’ di crescita batterica e di microorganismi dannosi, ma la presenza costante di acqua potrebbe favorire, se non controllate precisamente il pH della soluzione, la crescita di alghe dannose per le piante. Ovviamente, questi inconvenienti sono governabili con una buona manutenzione ed un controllo costante del sistema. Come anticipato, questa tecnica sta cominciando a prendere molto piede perche’ economica su lungo periodo ma soprattutto in grado di massimizzare il rapporto produzione/spesa. In periodi di crisi come questo, sicuramente molti stanno cominciando a rivalutare la possibilita’ di una piccola produzione domestica di ortaggi.

Coltivazione aeroponica

Coltivazione aeroponica

In alternativa all’idroponica vi e’ poi l’aeroponica. In questo caso parliamo di una tecnica ancora piu’ recente e, se vogliamo, innovativa. Nell’aeroponica non abbiamo terra ma neanche substrato inerte che, in alcune condizioni, puo’ favorire una crescita batterica e comunque esurisirsi nel tempo.

Sostanzialmente, la tecnica aeroponica e’ simile a quella precedente ma, a differenza dell’idroponica, non abbiamo una soluzione acquosa sotto le radici, bensi’ un sistema di nebulizzatori che tengono umide le radici con sostanze in soluzione acquosa atte a favorire la crescita e a fornire il nutrimento.

In questo caso, le piante possono essere fatte crescere ovunque utilizzando dei sostegni di poliuretano espanso che servono solo a tenere in piedi la pianta. Ovviamente, necessitando di una continua irrigazione, e’ necessario predisporre un timer che faccia partire i nebulizzatori sotto le radici. Questo rende il sistema solo un po’ piu’ complesso del precedente, ma riduce ulteriormente la possibilita’ di crescita di batteri.

Dal punto di vista economico, i sistemi gia’ pronti per l’aeroponica sono leggermente piu’ costosi, ma parliamo sempre di un migliaio di euro per un sistema finito ed in grado di ospitare fino a 60 piante. Per come e’ realizzato, la spesa relativa all’acqua per l’irrigazione e’ assolutamente minimizzata e l’avere le radici completamente scoperte e nebulizzate consente di massimizzare l’ossigenazione.

Unica pecca del sistema ad aria e’ la necessita’ di calibrare il timer del nebulizzatore. Se non fatto correttamente si rischia di inumidire troppo le radici o di far seccare le piante. Anche in questo caso pero’, in rete si trovano moltissimi manuali pronti all’uso che spiegano tutte le fasi del processo.

Altra considerazione importante, a parte timer e pompe, sia per l’idroponico che per l’aeroponico abbiamo sistemi semplici costruiti che possono anche essere realizzati con un po’ di semplice bricolage utilizzando materiali assolutamente economici.

Come visto, in periodi di crisi come quello che stiamo vivendo, avere la possibilita’ di realizzare un orto in casa con poco spazio, minimizzando i consumi di acqua e senza il rischio di infezioni parassitarie alle piante e’ sicuramente un buon vantaggio. Come detto, si tratta di tecniche innovative ma che stanno gia’ riscuotendo notevole successo anche per le coltivazioni specifiche soprattutto all’interno di serre.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’ipotesi Gaia

25 Giu

In questi giorni, su molti giornali e’ apparso un articolo che ha suscitato il mio interesse. Secondo alcuni ricercatori, esisterebbe l’ipotesi secondo la quale la vita si autoregola. In tal senso, l’equilibrio creato sulla terra dai numerosi esseri viventi potrebbe arrivare, principalmente a causa dell’uomo, ad un punto di non ritorno. In queste condizioni, la vita sarebbe in grado di spostare il suo punto di equilibrio, trovando nuove condizioni di stabilita’. Questo sarebbe possibile magari modificando i parametri atmosferici o ambientali. Ora, sempre secondo questo studio, non e’ assolutamente certo che le nuove condizioni create siano adatte per ospitare la vita umana sulla Terra.

Questo e’ quello che dice l’articolo pubblicato su una rivista scientifica. In realta’, molti giornali hanno romanzato su questa ricerca, mettendo titoli del tipo “la vita si autoregola e prima o poi si sbarazzera’ di noi”. Tra le altre cose, non mancano i riferimenti ad una tempesta perfetta in grado di spazzare via la vita umana e dunque di far ripartire la Terra senza la nostra, diciamo anche scomoda, presenza.

Come detto, si tratta di un articolo reale basato, in verita’, su studi di simulazione computazionale. In questo senso, diversi parametri sono stati simulati e riprodotti in un algoritmo informatico in modo da studiare l’evoluzione temporale del comportamento di questi parametri. Studi di questo tipo sono molto importanti ed interessanti perche’ consentono di capire meglio lo stato attuale di alcuni aspetti ambientali e, se vogliamo dirlo in altri termini, lo stato di salute del nostro pianeta.

Nonostante questo, lo studio richiama un po’ l’ipotesi Gaia fatta nel 1979 dal chimico inglese Lovelock. Come forse saprete, secondo questo approccio, la Terra stessa e’ vista come una sorta di organismo vivente. Questo e’ in realta’ improprio perche’ nell’ipotesi Gaia, il comportamento adattivo del pianeta e’ dato dalla complessita’ della biosfera, cioe’ nelle relazioni che si possono creare tra gli organismi viventi e con l’ambiente stesso. In particolare, tanto piu’ e’ complesso il sistema, cioe’ maggiori sono le interrelazioni tra i componenti, tanto maggiori saranno le capacita’ adattive del pianeta.

Al tempo, l’ipotesi Gaia e’ stata fortemente criticata da molti esperti, perche’ sembrerebbe assurdo pensare ad un pianeta Terra in grado di prendere decisioni. Personalmente, trovo in realta’ l’ipotesi molto affascinante. Dal punto di vista informatico, ad esempio, sistemi del genere sono fatti per studiare l’eveoluzione su larga scala di modelli complessi. Esempio forse noto a tutti e’ il cosiddetto “Game of Life”. In questi algoritmi, si definiscono delle regole semplici valide per un piccolo insieme, dopo di che si parte da un insieme grande la cui evoluzione, anche se governata da semplici regole locali, non e’ assolutamente certa. Questo avviene perche’ su larga scala l’enorme quantita’ di variabili rendono il sistema fortemente instabile al punto da assumere quasi un comportamento intelligente e non scontato.

Per capire meglio l’ipotesi Gaia, cerchiamo di fare qualche esempio. Al tempo della sua formulazione, Lovelock era impiegato per la NASA per lo studio della possibilita’ di vita sugli altri pianeti in base alla composizione dell’atmosfera. Lovelock trovo’, ironia della sorte, risultati molto interessanti anche applicando i suoi modelli al pianeta Terra. Nel nostro caso, infatti, avere metano e ossigeno simultaneamente, dovrebbe portare, sotto l’azione della radiazione solare, alla rapida formazione di anidride carbonica e vapore acqueo. Se questo meccanismo fosse l’unico, in rapido tempo le condizioni stesse per la vita verrebbero a mancare. Cio’ che rende il sistema stabile, cioe’ con una quantita’ pressocche’ costante di componenti, e’ principalmente il continuo apporto di ossigeno da parte della vegetazione.

Sempre parlando di atmosfera, ci sono molte specie sia acquatiche che terrestri che, ad esempio, contribuiscono a mantenere costante la temperatura media della Terra. Come vedete, ci sono tantissimi fattori, molto spesso collegati tra loro, che consentono di regolare e mantenere le condizioni adatte alla vita. Nell’ipotesi Gaia, sono proprio queste interrelazioni che rendono il sistema quasi pensante ed in grado di adattarsi, cioe’ di trovare nuovi punti di equilibrio quando fortemente sollecitato.

Secondo alcune ipotesi, a seguito, ad esempio, del riscaldamento globale, l’ecosistema Gaia, che, come detto, rappresenta la totalita’ delle relazioni tra specie animali e vegetali, potrebbe rispondere con un abbassamento della temperatura fino a portare ad una nuova era glaciale. Proprio riguardo a questa ipotesi, prima, ad esempio, del Maunder minimum, cioe’ della piccola era glaciale, si erano registrati significativi aumenti della temperatura media in Europa.

Come potete capire, lo studio pubblicato in questi giorni, riprende proprio questi concetti. Se, per qualsiasi motivo, il sistema fosse messo sotto pressione nel modificare alcuni parametri, la Terra potrebbe rispondere spostando e creando un nuovo punto di equilibrio. Ora, non possiamo affermare a priori che questo nuovo equilibrio sia adatto per la vita umana.

Personalmente, trovo lo studio di questi aspetti molto affascinante, ma ovviamente non banale. Da quanto detto, non voglio certo creare io ipotesi catastrofiste, lo scopo di questo articolo e’ solo quello di mostrare il fitto intreccio di relazioni che ci sono non solo tra esseri viventi, ma anche tra specie animali e vegetali o anche con i parametri ambientali. Modificare pesantemente i punti di equilibrio potrebbe portare a rapide modificazioni dell’ecosistema naturale. Detto in altre parole, Gaia non e’ sempre in grado di aggiustare i parametri e fare fronte a tutte le pesanti modifiche che noi gli imponiamo. In questa chiave, non dobbiamo certamente, come forse stiamo facendo, calcare troppo la mano. Prima o poi, potremmo avere conseguenze notevoli sul nostro ecosistema.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le previsioni del tempo

20 Gen

Molto spesso mi viene chiesto come sono fatte le previsioni del tempo. In questi ultimi giorni poi, l’argomento e’ molto di moda anche grazie ai continui annunci di copiose nevicate, ad esempio su Roma, che pero’ ancora non si sono viste.

Cerchiamo di fare un po’ di ordine ma soprattutto di capire quale e quanto lavoro c’e’ dietro quelle previsioni fatte a 1, 2, 3 giorni o, a volte, anche a mesi di distanza.

Al giorno d’oggi, le previsioni del tempo si basano su equazioni numeriche in grado di descrivere i complessi movimenti delle masse d’aria nel mondo, ma soprattutto nell’evoluzione temporale di questi parametri. In soldoni, la fisica vi descrive il movimento di queste masse d’aria e, misurando i parametri in questo momento, viene costruita una simulazione che cerca di fornire la situazione che si avra’ a distanza di tempo.

Meteo

Fate subito attenzione ad una cosa. Come detto, vengono presi i parametri atmosferci ad un certo istante e da questi viene costruita la modellizzazione nel tempo del meteo. Capite subito che tanto piu’ vicina sara’ la previsione richiesta, tanto piu’ affidabile sara’ il risultato fornito.

Per capire questo fondamentale limite, vi faccio un esempio molto facile. Immaginate di vedere una persona che cammina per strada e di voler simulare come cambiera’ nel tempo la sua posizione. L’istante iniziale e’ quello in cui osservate la persona. Ora, immaginando di vedere la persona che sta camminando con una certa velocita’ in una direzione potete dire, senza continuare a guardarla, che dopo 10 secondi sara’ arrivata in quest’altra posizione, dopo 20 secondi in quest’altra, e cosi’ via. Dove sara’ la persona dopo 3 ore? Assolutamente non siete in grado di dare questa risposta perche’ il vostro modello, basato solo sull’osservazione della direzione della persona ad un certo istante, non riesce a rispondere a questa domanda (la persona potrebbe essersi fermata, essere arrivata ad un bivio, potrebbe essere tornata indietro, ecc).

Le previsioni del tempo funzionano piu’ o meno in questo modo. I modelli ovviamente sono molto complessi dal momento che devono descrivere il movimento nel tempo delle enormi masse d’aria circolanti sul nostro pianeta.

La raccolta dei dati per le previsioni atmosferiche viene fatta utilizzando stazioni a terra, palloni sonda e satelliti metereologici. Le informazioni raccolte vengono poi inviate ed analizzate mediante potenti supercomputer in grado non di risolvere le equazioni del modello, ma di dare la risposta piu’ probabile, cioe’ la situazione del tempo ad una certa data.

A questo punto la domanda e’: quali sono i parametri che vengono misurati e perche’ le previsioni a volte sbagliano?

Mentre la prima risposta e’ abbastanza semplice ed intuibile per tutti, la seconda e’ una domanda un po’ piu’ complessa e che merita qualche considerazione aggiuntiva.

Riguardo ai parametri, come potete facilmente immaginare, si tratta di osservare le nuvole, la quantita’ di precipitazioni nel mondo, i gradienti di temperatura e pressione lungo l’atmosfera, i venti ma soprattutto di modellizzare i fenomeni meteorologici dal punto di vista fisico. Se due masse d’aria di temperatura diversa si scontrano, con quale probabilita’ si formeranno nuvole cariche di pioggia? Come vedete, in questo senso, il comportamento in atmosfera, e dunque la fisica, deve essere coniugato con i parametri osservati sul campo.

Partiamo dunque proprio dalla misure sul campo per capire l’affidabilita’ delle previsioni.

Prima di tutto, le osservazioni si basano su una griglia di misura che non copre in maniera adeguata tutta la superficie terrestre. Mentre i satelliti possono osservare praticamente tutto il mondo, le sonde in atmosfera, che forniscono i parametri ambientali, lasciano ampie aree scoperte. Con questo si intende che alcune zone della Terra non sono affatto sfiorate dalle misure. Dovendo trattare un sistema complesso come l’atmosfera, avere delle aree scoperte rappresenta sicuramente un limite. Inolre, l’atmosfera cambia i suoi parametri molto rapidamente, mentre per le previsioni i dati vengono letti ad intervalli regolari e, quindi, non con continuita’.

Sempre sulla stessa scia della griglia dei parametri, ad oggi ancora non e’ del tutto chiaro come la temperatura superficiale delle acque, cioe’ degli oceani, possa influire sul meteo. Come e’ facile immaginare, negli oceani possono essere presenti correnti a temperatura diversa ma e’ impensabile misurare in ogni punto dell’oceano la temperatura superficiale. A riprova di questo, basti pensare, ad esempio, al fenomeno del Nino o della Nina.

Ad oggi, l’affidabilita’ di una previsione a 24 ore e’ circa del 90%, mentre diviene dell’80% a distanza di 3 giorni. Questa stima scende rapidamente al 50% calcolando invece le previsioni ad una settimana. Praticamente, e’ come lanciare una monetina. Visti questi numeri, capite immediatamente come sia assurdo dare previsioni a 2 settimane, oppure sentir parlare ora di come sara’ il tempo quest’estate. Previsioni di questo tipo sono per scopi puramente commerciali e niente hanno a che vedere con la scienza.

Molto spesso, mi viene fatto l’esempio delle previsioni in formula 1. In un gran premio, se dicono che dopo 5 minuti iniziera’ a piovere, potete essere sicuri che accadra’. Perche’? Prima di tutto, si tratta di previsioni a brevissima scadenza, massimo a 30 minuti. Inoltre, si tratta di previsioni fatte in una zona ben precisa e circoscritta che riguarda l’area del circuito. In questo senso, l’attendibilita’ delle previsioni date arriva quasi a sfiorare il 100%.

A questo punto pero’ vorrei spezzare una lancia in favore della meteorologia per farvi capire le difficolta’ reali nell’elaborazione dei dati.

Credo che quasi tutti conoscano il cosiddetto “Effetto Farfalla”: Il battito di ali di una farfalla in Europa puo’ provocare un uragano negli Stati Uniti. Spesso viene raccontato utilizzando luoghi diversi, ma il senso e’ sempre lo stesso: basta un avvenimento minimo per cambiare irreparabilmente il futuro di qualcosa.

Da dove nasce l’effetto farfalla? Forse non tutti sanno che venne formulato proprio parlando di meteorologia.

Il supercomputer ENIAC del 1947

Il supercomputer ENIAC del 1947

Il primo che provo’ a calcolare previsioni meteo in maniera scientifica fu John Von Neumann utilizzando il piu’ potente Super Computer disponibile nel 1950, l’ENIAC. Si tratto’ del quarto computer realizzato nella storia ed in grado di fare calcoli che farebbero ridere un’odierna calcolatrice tascabile. Pensate che durante la cerimonia di inaugurazione, l’ENIAC lascio’ tutti a bocca aperta perche’ calcolo’ in un secondo il risultato di 97367 elevato alla 5000 causando un blackout in una vasta zona di Filadelfia. L’utilizzo principale di questo computer era per il calcolo balistico nel lancio dei missili, ma venne poi utilizzato anche per altri scopi, tra cui per le previsioni del tempo da Von Neumann.

Per darvi un’idea, dati i valori in ingresso, l’ENIAC era in grado di fornire in 24 ore, la previsione per le prossime 24 ore. Capite dunque l’inutilita’ di queste previsioni, arrivato il risultato bastava aprire la finestra per verificarlo, ma servi’ per spianare la strada ai moderni calcoli.

Cosa c’entrano l’ENIAC, Von Naumann e l’effetto farfalla con l’affidabilita’ delle previsioni del tempo?

Dalle previsioni di Von Neumann con l’ENIAC si evidenzio’ come modificando i parametri in ingresso di una quantita’ piccola a piacere, il risultato a distanza di 24 ore, poteva essere radicalmente diverso. Questo risultato venne poi ripreso da Lorenz che fu il primo a formulare l’effetto farfalla cosi’ come lo conosciamo oggi.

Analizzando questi risultati, capite bene quali siano le difficolta’ delle previsioni del tempo. Abbiamo a disposizione dati spesso incompleti, i parametri atmosferici possono cambiare repentinamente modificando completamente la situazione, una minima variazione dei parametri atmosferici puo’ cambiare radicalmente il risultato della previsione anche a breve termine.

Concludendo, la meterologia e’ una scienza molto complessa e non facilmente parametrizzabile mediante funzioni matematiche. Questo limite delle simulazioni e’ esattamente lo stesso di cui abbiamo parlato analizzando il calcolo della rotta di un asteroide. Anche in questo caso, una minima variazione delle condizioni al contorno del nostro problema possono modificare completamente il risultato. Proprio per questo motivo, in astrofisica cosi’ come in meteorologia e’ importante misurare in continuazione i dati ambientali.

Detto questo, se le previsioni a 2 settimane risultano sbagliate, la colpa e’ anche nostra che pretendiamo di avere qualcosa di non calcolabile. Se le previsioni ad un giorno sono sbagliate, pensate che forse c’e’ stata qualche farfalla di troppo.

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Cosa succede in Campania?

14 Gen

In passato, piu’ volte ci siamo trovati a parlare di fenomeni sismici, sia in Italia che all’estero, soprattutto per analizzare tutte quelle voci allarmistiche che vedevano, soprattutto in vista del 21/12, un aumento della sismicita’ mondiale:

Riassunto sui Terremoti

Cattiva informazione sui terremoti

Dati falsi sui Terremoti

In particolare, abbiamo visto come la statistica dei fenomeni registrati nel mondo non presenti assolutamente nessuna impennata, ma anzi una diminuzione rispetto ai valori medi a cui eravamo abituati:

Analisi statistica dei terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Premetto subito due cose. La prima e’ che, come potete vedere nei post riportati, qui non stiamo parlando di numeri a caso, ma stiamo consultando database ufficiali e molto spesso abbiamo anche fatto confronti tra i dati riportati in diversi siti, ottenendo sempre gli stessi risultati. La seconda e’ che, al contrario di quanto vorrebbero farvi credere, avere una diminuzione a livello statistico non significa neanche in questo caso che ci sia qualcosa di misterioso. Come detto in diverse occasioni, la statistica ci puo’ aiutare a tracciare un andamento del numero di terremoti, molto utile per fare calcoli e raffronti, ma e’ assolutamente sbagliato utilizzare la statistica per prevedere terremoti o prendere i risultati come verita’ di fede aspettandoci esattamente lo stesso numero di terremoti ogni anno.

Detto questo, molti di voi mi hanno inviato messaggi e commenti per chiedere il mio punto di vista sulla situazione campana. Prima di tutto, e’ necessario distinguere due fenomeni che, molto spesso, vengono equiparati o confusi tra loro su molti siti catastrofisti, il Vesuvio e i Campi Flegrei.

Negli ultimi tempi, si sta speculando molto su questi aspetti, con l’unico risultato di alimentare il panico nelle persone coinvolte. Ovviamente, come al solito, cerchiamo di fare chiarezza, senza alimentare il panico ma anche senza sminuire i fatti o cercare di tranquillizzare ciecamente le persone.

Cominciamo dal Vesuvio.

Stiamo parlando di un vulcano che tutti conoscono, che si trova a circa 10Km dal centro della citta’ di Napoli e sulle cui pendici si stima vivano circa 700000 persone. Capite subito l’importanza, ma soprattutto il rischio, che un’eruzione improvvisa avrebbe. L’altezza del Vesuvio e’ di circa 1280 metri e con una caldera di 4Km di diametro.

Negli ultimi tempi, si e’ parlato spesso di Vesuvio e molte fonti si sono divertite ad annunciare un imminente risveglio di questo vulcano esplosivo. Ad alimentare queste voci, sono state diverse micro-scosse sismiche avvertite dalla popolazione e che sono state fortemente pubblicizzate soprattutto su internet.

Cosa possiamo dire del Vesuvio?

Prima di tutto, senza nascondere nulla, stiamo parlando di un vulcano esplosivo attivo, considerato in una fase di quiescenza, cioe’ di riposo. L’ultima eruzione di questo vulcano risale al 1944 e venne documentata molto bene, anche con l’ausilio di registrazioni, dalle forze americane che occupavano la citta’ di Napoli durante la seconda guerra mondiale. L’eruzione distrusse le citta’ di Massa e San Sebastiano oltre a ricoprire di cenere gran parte del meridione.

La zona rossa di pericolo del Vesuvio

La zona rossa di pericolo del Vesuvio

Un’altra forte eruzione del Vesuvio avvenne nel 1631, anche se la piu’ famosa rimane quella del 79 d.C. legata alle vicende di Pompei ed Ercolano.

Cosa possiamo dire sulla stato attuale? Prima di tutto, stando alle statistiche delle eruzioni avvenute in passato, si sta registrando un ritardo. Questo non significa assolutamente che un evento esposivo e’ ormai prossimo, ma neanche che il Vesuvio e’ ormai spento. Dal punto di vista statistico, siamo esattamente come nel caso dei terremoti, di cui abbiamo discusso prima. Un vulcano e’ un sistema naturale molto complesso e che puo’ modificare il suo comportamento e le sue caratteristiche a seguito delle precedenti eruzioni. Dalle stime geologiche reali, si riscontrano opinioni diverse che parlano di una nuova eruzione nel giro di pochi anni, o anche tra 50-100 anni. Per escludere invece le voci che vorrebbero il Vesuvio ormai spento, una ricerca dell’universita’ di Napoli del 2001 ha mostrato come a soli 8Km dalla superificie sia presente un accumulo di magma su un’area di circa 400 Km^2. Dunque, il Vesuvio e’ attivo e potenzialmente molto pericoloso.

Vista la pericolosita’ del vulcano, soprattutto in termini abitativi, l’intera area del monte e’ costantemente tenuta sotto controllo per registrare fenomeni sismici ma anche emissioni di gas dal sottosuolo. I lievi terremoti avvertiti nei mesi scorsi, non sono assolutamente un’anomalia. Normalmente, nell’area di Somma Vesuviana, vengono registrate circa 100 scosse al mese, di cui solo 4-5 avvertibili dalla popolazione. Se queste 4 o 5 scosse vengono pubblicizzate senza sosta su internet, capite subito come si possa creare un caso geologico dove in realta’ non c’e’.

Solo per darvi un’idea, prima della grande eruzione del 1631, vennero osservati diversi eventi premonitori tra i quali: un crescendo di eventi sismici, rigonfiamento del suolo e prosciugamento delle fonti. Teniamo sempre a mente che stiamo parlando del 1631. Sicuramente l’intera area non era costantemente monitorata come ai giorni nostri.

Sul Vesuvio dunque, assolutamente nulla da riportare. Questo ovviamente non esclude la possibilita’ di avere nuove eruzioni a medio o lungo termine. L’importante al solito e’ monitorare la zona ed essere pronti qualora si prospetti una situazione di pericolo.

Passiamo invece ai Campi Flegrei.

Con questo nome si intende una vasta area di origine vulcanica situata a nord-ovest della citta’ di Napoli. Geologicamente, i campi Flegrei sono costituiti da una caldera di circa 15Km di diametro, attualmente in stato di riposo, e che comprende circa 24 crateri o piccoli edifici vulcanici. La zona include il massiccio tufaceo di Monte Gauro, la solfatara di Pozzuoli, il cratere degli Astroni, questi solo per citarne alcuni.

L’intera area presenta notevoli fenomeni di bradisismo che hanno comportato sollevamenti del terreno che, soprattutto nella zona del porto di Pozzuoli, hanno sfiorato i due metri nel corso dei secoli.

L'area dei campi Flegrei

L’area dei campi Flegrei

Negli ultimi mesi, molto si e’ sentito parlare a proposito dei campi Flegrei, anche in questo caso speculando sul presunto aumento di attivita’ sismica della zona, minacciando prossime eruzioni vulcaniche o anche parlando di eventi esplosivi che potrebbero interessare vaste aree popolate del napoletano.

Qual’e’ la situazione reale della zona?

Nel mese di gennaio si sono registrati ancora spostamenti significativi del terreno. Parliamo di circa 3 cm al mese. Questi valori, hanno portato la situazione in uno stato di “allerta” per la protezione civile. Ovviamente, non significa che ci si aspetta un fenomeno violento nei prossimi giorni, ma solo che e’ in corso un monitoraggio ancora piu’ capillare della zona. Qualora ci fosse la possibilita’ di un evento eruttivo nella zona dei campi Flegrei, per apertura di una bocca vulcanica, si parla di circa 400000 persone coinvolte.

Come potete capire, e’ giustissimo monitorare la zona, e lo e’ ancora di piu’ non far finta che il problema non ci sia.

Da qui a pochi mesi, la protezione civile, insieme anche ai sindaci dei comuni della zona, dovra’ presentare un piano di evacuazione reale della popolazione a rischio.

Attenzione, non stiamo assolutamente cercando di alimentare il panico, ma e’ giusto che il problema non venga trascurato. Parlando di terremoti, molte volte abbiamo criticato il non fare niente. Anche in questo caso, la prevenzione, un piano reale di evacuazione, ma soprattutto informare le persone del pericolo, possono aiutare a salvare molte vite.

Come detto, sia per il Vesuvio che per i campi Flegrei, e’ in corso un continuo monitoraggio delle zone interessate. Proprio per trasparenza e per informare le persone del reale pericolo, i dati raccolti dall’Osservatorio Vesuviano, sono resi pubblici su internet. Per consultarli, basta andare a questa pagina:

Osservatorio Vesuviano, banca dati

Concludendo, un potenziale pericolo c’e’, ma c’e’ anche molta incertezza sui possibili sviluppi della situazione. Ripetiamo nuovamente che, dal punto di vista geologico, sia il Vesuvio che i campi Flegrei rappresentano dei potenziali pericoli. E’ giusto predisporre piani di evacuazione ed informare le persone, ma questo non deve assolutamente essere una scusa per alimentare il panico o per far credere che in tempi brevi qualcosa di catastrofico possa accadere.

 

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

Breve aggiornamento su “Las dos Aguilas”

15 Dic

In prossimita’ del 21/12, ci siamo “divertiti” a vedere come la psicosi 2012 stia dilagando in diverse parti del mondo. In particolare, abbiamo parlato di Russia, Spagna, Australia, ma anche della nostra cara Italia:

21 Dicembre: fenomeno italiano?

Il 21/12 in Australia

Russia, Medvedev tranquillizza i suoi!

E in Spagna?

Ancora non avete prenotato?

Tra ieri e oggi pero’, sulla rete, si e’ iniziato a parlare insistentemente anche di un piccolo villaggio costruito in Messico, chiamato “Las dos Aguilas”.

Come forse ricorderete, abbiamo gia’ parlato di questo vilaggio in un precedente post:

Dove trascorrere il 21 Dicembre

Come potete leggere, si tratta di un agglomerato di strutture costruito vicino al villaggio di Xul, appunto in Messico, da circa 80 persone di origine italiana.

Perche’ si e’ tornati a parlare di questa soluzione?

Semplice, qualche simpatico sito web ha deciso di rilanciare la notizia dicendo che questi italiani trasferiti in Messico, in realta’ sono una comunita’ di persone di spicco, molto famose nel nosro paese, e tra loro ci sarebbero anche degli scienziati, soprattutto astrofisici. Il solito copia/incolla che imperversa in rete ha fatto da cassa di risonanza.

Come potete capire bene, l’idea che un gruppo di “addetti ai lavori” si sia spostato in Messico, all’interno di strutture rinforzate, non puo’ che alimentare il sospetto, in primis verso la scienza, ma soprattutto verso questa fine del mondo annunciata per il 21 Dicembre.

Cosa c’e’ di vero in questa notizia? Assolutamente nulla.

Come visto nel precedente articolo, il villaggio di “Las dos Aguilas” e’ realmente stato costruito da un gruppetto di circa 80 persone di origine italiana, ma non si tratta assolutamente di scienziati.

Queste persone fanno parte di un’associazione detta “Quinta essencia”, nata con scopi ecologisti per il ristabilimento del corretto equilibrio ambientale sulla Terra. Per dirla tutta, questo e’ il motivo di facciata. In realta’ si tratta di qualcosa molto simile ad una setta. In rete trovate pochissime informazioni su questa associazione, le uniche notizie certe le potete trovre andando a studiare i quotidiani locali, ovviamente in lingua spagnola:

La Republica, Xul

Prima di tutto, solo per chiarire dei punti, il villaggio e’ costituito da una quarantina di “edifici”, molto simili a ville. Come riportato in rete, e come detto nel precedente articolo, l’abitato e’ integrato da una fitta rete di gallerie sotterranee dotate di tutti i sistemi di sicurezza e di controllo: ricambio d’aria, filtri, generatori di corrente e camminatoi tra le abitazioni. Le ville stesse presentano un apparente esterno residenziale, ma avrebbero muri spessi oltre 50 cm con vetri rinforzati, che le rendono molto simili a bunker camuffati da ville.

Come anticipato, e’ molto difficile trovare informazioni sui siti italiani o immagini della struttura. Le uniche foto possono essere prese da Google Maps.

Questa e’ la zona, con il vicino villaggio di Xul:

Il villaggio di Xul con Las dos Aguilas

Il villaggio di Xul con Las dos Aguilas

Nel cerchietto rosso, c’e’ il villaggio fortezza.

In questo zoom, vedete il villaggio di Las dos Aguilas, con il laghetto artificiale di cui parlavamo nell’altro post:

Las dos Aguilas con il laghetto artificiale

Las dos Aguilas con il laghetto artificiale

Ovviamente non esiste uno street view della zona, ma solo una foto visualizzabile su maps:

Una foto di Las Dos Aguilas

Una foto di Las Dos Aguilas

Come vedete la struttura e’ molto simile ad un complesso residenziale.

Ora, come anticipato, si tratta di un’associazione con un carattere molto simile ad una setta. Al contrario di quanto si legge in rete, dove si vuole far credere che la popolazione locale sia preoccupata di quanto sta accadendo, i locali sono ben felici di questo insediamento. La costruzione del villaggio sta dando lavoro a tantissime persone vista l’enorme quantita’ di manodopera richiesta per la realizzazione.

Inoltre, non e’ assolutamente vero che questo gruppo di persone si e’ stabilito nella zona in vista del 21/12. Come riportato dalla stampa locale, il gruppo occuperebbe la zona dal 1993. Nello stesso anno, con l’ausilio di altre associazioni ecologiste, avrebbero creato l’associazione “Quinta essencia”. Per dirla tutta, solo l’origine di queste persone e’ italiana, dal momento che, sempre nel 1993, hanno ottenuto la cittadinanza messicana dal dipartimento per l’immigrazione:

Mexico, Notizie Yahoo

Su alcuni quotidiani, si evince anche lo spirito ecologista di cui parlavamo. Il gruppo sarebbe molto riservato e solo una volta a settimana manderebbe una delegazione nei paesi vicini per acquistare provviste. All’interno dell’area del villaggio sarebbero stati sistemati anche alcuni bovini, per tendere all’autonomia alimentare e alla sopravvivenza.

Ovviamente, anche gli operai locali chiamati a lavorare avrebbero il vincolo di non divulgare le notizie e la struttura interna del villaggio. Ma come accade spesso, le notizie poi trapelano sui giornali.

Come vedete, stiamo parlando di una vera e propria setta per niente legata alla scienza. Non cedete al complottismo dilagante in rete soprattutto in questi ultimi giorni.

Per analizzare scientificamente le profezie del 2012, ma soprattutto per imparare a difendersi dalla false notizie che tovate in rete, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.