Tag Archives: 20

Tanti auguri WWW

2 Mag

Dell’utilita’ della ricerca scientifica abbiamo parlato tante volte. In particolar modo, si e’ cercato di mettere in evidenza non solo le scoperte scientifiche, che spesso lasciano indifferenti molti non addetti ai lavori, ma soprattutto, le innovazioni in campo tecnologico e anche l’indotto economico che la ricerca puo’ apportare nella nostra societa’:

Perche’ la ricerca: scienza e tecnologia

Perche’ la ricerca: economia

Parlando di invenzioni e innovazioni sviluppate nell’ambito della ricerca e poi entrate di diritto nella vita di tutti i giorni, sicuramente il WEB, o meglio il World Wide Web, e’ quella piu’ conosciuta sia per origine che per attuale utilizzo.

Come sicuramente avrete letto su moltissimi giornali e siti internet, il 30 Aprile il WWW ha festeggiato i suoi primi 20 anni di vita. Per essere pignoli, non si parla di 20 anni di vita, ma di 20 anni di utilizzo pubblico.

Come e’ noto, il WWW venne sviluppato al CERN di Ginevra per facilitare lo scambio di file tra i ricercatori che operavano nei vari progetti. Dal momento che ho letto molte cose inesatte in giro per la rete, credo sia il caso di capire meglio alcuni concetti chiave ma soprattutto di ripercorrere le tappe che hanno portato all’utilizzo mondiale della “grande ragnatela”.

Spesso, si considerano come sinonimi “internet” e “www”, ovviamente sbagliando. Mentre internet e’ la grande rete che mette in connessione i computer di tutto il mondo, il WWW e’ un servizio della rete che consente di accedere a moltissimi contenuti attraverso pagine e navigando tramite i link presenti. Si parla di ragnatela perche’ i nodi che compongono il web sono collegati tra loro attraverso i collegamenti, formando un enorme ipertesto navigabile. Tutti questi servizi sono resi disponibili attraverso dei server che ospitano le pagine e a cui l’utente accede visitando i vari collegamenti.

Il primo server WEB della storia

Il primo server WEB della storia

Il web venne pensato da Tim Berners-Lee, un ricercatore del CERN, gia’ nel 1989. Lo stesso ricercatore racconta di aver avuto l’idea del web osservando il modo in cui un gruppo di ricercatori italiani scambiavano dati attraverso la linea telefonica e visualizzando le informazioni su terminali. Proprio da questo primitivo modo di scambio dei dati, Berners-Lee ebbe la sua idea, creare una ragnatela di connessioni per fare in modo che le informazioni fossero facilmente raggiungibili da tutti.

Proprio nel 1989, Berners-Lee presento’ il suo progetto e inizio’ a scrivere il codice necessario per realizzare la sua idea. Il 6 Agosto 1991 e’ il vero giorno della nascita del web. Proprio in questa data venne messo online il primo server web, chiamato NEXT, attraverso cui i ricercatori potevano scambiare informazioni.

Non pensate al web come lo conoscete adesso, si trattava di pagine statiche visualizzabili con il programma Conkeror, il primo browser della storia. Ecco un’immagine della prima pagina web in assoluto:

La prima pagina WWW della storia

La prima pagina WWW della storia

Attraverso i collegamenti ipertestuali era possibile navigare nelle pagine e anche capire come funzionava questa novita’ assoluta.

Nel giro di poco tempo, vennero create diverse pagine web caricate sul server, creando proprio la prima ragnatela tutta interna al CERN:

Uno screenshot delle pagine web del CERN

Uno screenshot delle pagine web del CERN

Dunque? Perche’ si parla di 30 Aprile 1993? Come detto, la data di collegamento del primo server e’ del 1991 e nei due anni successivi vennero create diverse pagine dal momento che i ricercatori cominciarono subito a sfruttare questo potente mezzo che semplificava notevolmente lo scambio di dati.

Proprio il successo del web, porto’ il CERN ad una decisione storica: il 30 Aprile 1993 il CERN decise di rendere pubblico l’utilizzo del web rinunciando a tutti i diritti d’autore. Questo e’ un esempio sublime di innovazione apportata dalla ricerca e donata al mondo intero. Oggi, ogni qual volta navigate in rete, attraverso pagine che divengono sempre piu’ complesse e interattive, state utilizzando proprio l’evoluzione di questa prima invenzione fatta al CERN. Come detto, rinunciando a qualsiasi diritto d’autore.

In un mondo come il nostro, in cui le grandi aziende di prodotti di alta tecnologia e di sviluppo software passano la maggior parte del tempo facendosi causa per la paternita’ di questo o quest’altro pezzo, forse si dovrebbe ricordare quanto avvenuto solo 20 anni fa.

Per festeggiare i 20 anni del WEB, il CERN ha deciso di ricaricare le prime storiche pagine sul suo sito in modo da mostrare a tutti cosa significasse navigare a quel tempo. Vi consiglio vivamente di visitare questo link e di fare un tuffo nei primi anni ’90:

CERN, WEB 1993

Oltre che per gli ovvi motivi di festeggiamento, il CERN ha deciso di creare un apposito progetto proprio per fare in modo che la storia di questa importante invenzione non vada persa. Come potete vedere, le pagine sono perfettamente navigabili e sono proprio costruite utilizzando i primi algoritmi implementati nel 1993.

Visto che proprio grazie a questa invenzione, oggi noi siamo qui a leggere questi articoli, non possiamo che fare gli auguri al web per i suoi primi 20 anni, o meglio 22 se partiamo dal 1991.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Si avvera la profezia di Malachia?

11 Feb

Diversi mesi fa, discutendo delle diverse ipotesi per la fine del mondo attesa per il 21 Dicembre 2012, abbiamo parlato anche della nota profezia di Malachia:

2012 e la profezia di Malachia

Come forse tutti sanno, questa profezia consiste in una lista di 112 frasi in latino che dovrebbe descrivere tutti i papi a partire da Celestino II eletto nel 1143.

Come visto nel precedente articolo, molto probabilmente si tratta di un falso storico, neanche opera di San Malachia. In particolare, la lista sarebbe stata compilata solo nel 1595 ed infatti tutti i papi prima di questa data vengono perfettamente descritti dalla propria frase, mentre per quelli dopo i motti divengono talmente vaghi che possono essere attribuiti a chiunque, trovando in un modo o nell’altro una corrispondenza.

Perche’ allora stiamo tornando a parlare di questa profezia? Semplice, poche ore fa, Bendetto XVI ha fatto l’annuncio di voler lasciare il pontificato a partire dalle ore 20 del 28 Febbraio 2012. Dopo questo momento, la chiesa sara’ senza guida e spettera’ al Camerlengo di istituire un nuovo Conclave per l’elezione di un nuovo papa.

++ PAPA:MONDO VELOCE,SERVE VIGORE PER GUIDA BARCA PIETRO ++

Piccola parentesi solo per chiarire gli errori storici che leggo su alcuni giornali, questo non e’ assolutamente un fatto inedito, ma e’ gia’ accaduto nel passato che un papa abdicasse ancora in vita. Il caso piu’ recente e’ ovviamente quello di Celestino V nel 1294, ma prima di lui stessa cosa fecero Clemente I, Ponziano e Benedetto IX.

Premesso questo, cosa c’entra la rinuncia di  Ratzinger con la profezia di Malachia? Come visto nel precedente post, secondo alcune interpretazioni, Benedetto XVI e’ visto come il 111 papa, cioe’ il penultimo prima di Petrus Romanus, colui che dovrebbe coincidere con la fine della chiesa Cattolica.

Inoltre, i sostenitori di questa ipotesi utilizzano anche un’altra prova a sostegno. Il cardinal Camerlengo che traghettera’ la chiesa al prossimo Concilio e’ Tarcisio Pietro Bertone, nato a Romano Canavese nel 1934. Secondo questa ipotesi, non servira’ nemmeno eleggere il prossimo papa per avere la fine del mondo, il Camerlengo ha infatti “Pietro” all’interno del nome e “Romano” nel paese dove e’ nato.

E’ possibile tutto questo?

Certo che si. Come sappiamo bene, con definizioni cosi’ vaghe, possiamo trovare corrispondenze con qualsiasi papa venga eletto. Anche se venissi eletto papa io, la profezia tornerebbe. Il mio terzo nome e’ Pietro e sono nato in provincia di Roma.

Inoltre. vi farei notare un’altra cosa, fino a ieri si diceva che in realta’ Benedetto XVI era gia’ l’ultimo papa dal momento che la sua descrizione rientrava meglio in quella del 112mo pontefice. Come far tornare i conti? Semplice, Giovanni Paolo II vale doppio, un primo pontificato prima dell’attentato ed uno dopo.

Secondo altri, nel conteggio non sono considerati o sono considerati in parte, in realta’ solo per far tornare i conti in un modo o nell’altro, gli antipapi. In questo caso, mancherebbero quindi almeno altri 10 papi al 112esimo.

Capite bene che potete convincervi di quello che volete.

Vi faccio anche un altro esempio. Supponiamo si arrivi al Conclave e venga eletto un nuovo pontefice. Allora se il pontefice sara’ scuro di pelle o gesuita, si tornera’ a parlare del Caput Nigrum, se invece, sempre per ipotesi, venisse eletto un cardinale nato a Roma, allora si tornerebbe a parlare di “Romanus”. Se ancora non vi basta, ironia della sorte il prossimo papa, per sfatare ogni mito, si chiamera’ “Pietro II”.

Dunque?

Il risultato e’ semplice, fatto o non fatto il papa, ci sara’ sempre una chiave di lettura adatta per far discutere della profezia di Malachia, della monaca di Dresda, del libro di Daniele, del web-bot, del primo che assaggia sostanze stupefacenti e fa una visione catastrofica. Insomma, scegliete voi la fine del mondo che piu’ vi piace.

Per il momento, io che da sempre sono appassionato di diritto ecclesiastico, conclavi e rituali sacri, non posso che attendere con ansia il prossimo conclave per gustarmelo. E’ vero che ci sono stati altri casi di papi che hanno lasciato ancora in vita, ma se andate a studiare la storia, per tutti non e’ chiaro che questa decisione sia stata presa autonomamente. In questo caso, avremo un conclave con il papa uscente ancora in vita, una eredita’ pesante, nel bene o nel male, e, al momento, non e’ ancora chiaro che ruolo avra’ nella chiesa Benedetto XVI, anzi Joseph Ratzinger, in futuro.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il futuro verde comincia da Masdar

10 Feb

Solo qualche giorno fa, parlavamo delle tante promesse verdi fatte in campagna elettorale, che poi restano ovviamente solo promesse:

Elezioni, promesse verdi e protocollo di Kyoto

In particolare, abbiamo posto l’attenzione sul fatto che gli incentivi statali per l’installazione domestica di pannelli solari sono iniziative buone, ma assolutamente lontane da essere la soluzione ad ampio respiro, cioe’ per i prossimi 20-30 anni. Come visto nel post, sarebbe opportuno incentivare la ricerca sulle rinnovabili, in modo da poter trovare soluzioni ad efficienza maggiore e che garantiscano in futuro l’indipendenza della produzione energetica dal petrolio, dal carbone e dalle altre fonti fossili, tutte destinate ad esaurirsi in tempi brevi.

Detto questo, su suggerimento di un nostro lettore, vorrei parlarvi di un progetto che forse non tutti conoscono ma che riveste una grndissima importanza in questo settore, il progetto Masdar.

Masdar-City-Project-c

Masdar e’ una futura cittadina che sorgera’ a pochi kilometri di Abu Dhabi negli Emirati Arabi Uniti ed ha la pretesa di essere la prima citta’ interamente ad impatto zero, cioe’ senza emissione di gas nocivi, interamente alimentata da sorgenti rinnovabili, senza produzione di rifiuti e senza spreco di acqua.

Se pensate che questo progetto sia impossibile, al momento Masdar e’ ancora un cantiere aperto, ma dovrebbe essere completata nel 2016, rispettando interamente i tempi pianificati per la costruzione.

Masdar occupera’ un’area di circa 6 Km^2 e potra’ ospitare 50000 residenti e 60000 lavoratori al giorno. Il prezzo complessivo del progetto e’ di 22 miliardi di dollari.

Come e’ possibile garantire queste caratteristiche? Circa l’80% dell’energia proviene ovviamente da impianti fotovoltaici. Pannelli sui tetti di ogni edificio ed integrati anche nei vetri, piu’ un grande impianto subito al di fuori di Masdar. La restante quota di energia viene invece da impianti eolici e geotermici.

Il 99% dei rifiuti sara’ reciclato o utilizzato negli impianti di compostaggio. Piu’ della meta’ dell’acqua consumata verra’ depurata e reinserita nel circuito di distribuzione. Inoltre, il progetto prevede la realizzazione di collettori per la pioggia, impianti di desalinizzazione e sistemi specifici realizzati per le acque grigie.

Dal punto di vista dei trasporti, capite bene che la citta’ e’ off-limits per le automobili tradizionali. A Masdar saranno in funzione circa 2500 navette elettriche che assicureranno percorsi a tutte le ore ed in tutte le zone della citta’.

Come dicevamo prima, ogni giorno saranno presenti in questa citta’ avveniristica circa 60000 lavoratori. Di che lavoratori si tratta? Il progetto Masdar nasce in collaborazione con moltissime multinazionali, ma anche con importanti universita’ e centri di ricerca del mondo. A Masdar sorgera’, ad esempio, una scuola di alta formazione specifica per le ricerche nel campo delle energie rinnovabili. Quest progetto sara’ curato e gestito in collaborazione con il MIT, il Massachusetts Institute of Technology. Oltre a questo, a Masdar saranno costruiti molti laboratori di ricerca completi di tutto, che consentiranno di avere, gia’ dall’inizio, circa 1500 aziende internazionali in citta’.

what_is_masdar(1)

A questo punto, facciamo una breve considerazione sul progetto Masdar. Siamo arrivati a discutere questo, partendo dalla campagna elettorale in Italia. Come abiamo gia’ detto, l’Italia e’ un paese estremamente ricco di energie rinnovabili, sia solare che eolico, eppure non facciamo tanta ricerca in questo settore, ma preferiamo dare incentivi statali per l’installazione del pannello sopra il nostro tetto, o continuiamo a comprare corrente dalla Francia che la produce subito dopo il confine con centrali nucleari. Non vi sembra un controsenso?

Ragioniamo invece sugli Emirati Arabi. Questo e’ il paese che domina il mondo dal punto di vista del petrolio. Nell’immaginario collettivo, gli abitanti degli Emirati Arabi sono sceicchi talmente ricchi che non sanno nemmeno cosa fare con i soldi. Niente di piu’ falso. E’ vero che si tratta di un paese ricchissimo, ma i signori del petrolio hanno capito prima di noi che questa risorsa e’ destinata a finire. Dunque? Come continuare a mantenere una forma di egemonia sul mondo intero? Semplice, bruciando le tappe e mettendo per primi le mani sulle rinnovabili. Masdar e’ un ottimo progetto, ma non pensate sia un punto di arrivo. Questa citta’ e’ un esperimento, ma la cosa piu’ importante non e’ assolutamnete costruire una cittadina di 6 Km^2 ad emissione zero, la parte piu’ importante del progetto e’ il Masdar Institute of Science and Technology, cioe’ l’accademia di alta formazione e ricerca creata con il MIT. Vi ricordo che questa istituzione sara’ completamente dedicata alla ricerca sulle rinnovabili e sullo studio di migliorie future da mettere in pratica. Un progetto del genere, sicuramente richiamera’ molti cervelli da tutto il mondo, creando il miglior ambiente per la ricerca in questo settore. Capite bene che in questo modo, si stanno gettando le basi per dominare in futuro la scena mondiale anche dal punto di vista delle rinnovabili.

Solo per concludere, l’altra grande potenza che sta sgomitando per controllare il mondo, come puo’ aver reagito? Se state pensando agli Stati Uniti, vi sbagliate di grosso, ovviamente mi riferisco alla Cina. Bene, proprio in questi anni stanno iniziando i lavori per la cotruzione della risposta cinese al progetto Masdar, si tratta del Tianjin Eco-City, un’altra citta’ dalle caratteristiche simili a Masdar ma che, stando a quanto riportano i cinesi, sara’ molto piu’ efficiente. Indipendentemente dal progetto ad efficienza migliore, credo che questi due paesi avranno molto da dire nei prossimi anni su questo settore.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Gli UFO sbarcano anche al parlamento italiano

12 Gen

Stimare una probabilita’ per l’esistenza di forme di vita extraterrestri e circa la possibilita’ che queste possano entrare in contatto diretto con noi, e’ materia della scienza, e di cui abbiamo parlato molte volte su questo blog. Nonostante questo, credere o meno all’esistenza degli extraterrestri, se vogliamo, e’ invece un giudizio personale e, dunque, non sindacabile.

Piu’ volte, la materia UFO e’ finita anche nei lavori di alcuni parlamenti, dal momento che qualche “uomo politico” ha chiesto di aprire tavoli di discussione o anche di mostrare documenti segreti, di cui magari aveva sentito solo parlare, ma di cui non conosceva nemmeno il vero significato.

Qualche tempo fa, abbiamo, ad esempio, parlato della richiesta dell’On Borghezio all’europarlamento per chiedere il rilascio proprio dei documenti segreti sugli UFO a suo avviso custoditi dai governi degli stati membri:

Se lo dice Borghezio ….

Perche’ torniamo su questi argomenti? Questa volta vorrei raccontarvi di una richiesta fatta invece al nostro parlamento. In realta’ si tratta di una vera e propria interrogazione scritta presentata dai deputati Vatinno e Barbato dell’Italia dei Valori e indirizzata al ministro della Difesa e a quello degli Esteri in data 20 Dicembre 2012.

Cosa dice questa interrogazione? Perche’ si parla di UFO?

La richiesta presentata, si riduce in realta’ in poche righe di testo conclusive:

se i Ministri interrogati sono informati dei fatti esposti in premessa che, ad avviso degli interroganti meritano un approfondimento e, se dispongano notizie in merito, nonché se il Governo intenda reperire elementi anche sul piano internazionale sull’argomento esposto, come ad esempio l’esistenza dell’Area 51, se l’Italia disponga e dove di eventuali strutture delle Forze armate o di altri Corpi dello Stato dediti allo studio del fenomeno ufologico, se siano stati prodotti documenti e relazioni riservati in ambito nazionale o Nato, se infine in Italia si possa prevedere la creazione di una struttura dedicata munita dei requisiti di trasparenza pubblica.

Come vedete, si chiede se l’Italia preveda la creazione di una struttura di qualche corpo statale per lo studio del fenomeno ufologico o anche se il nostro governo intenda reperire informazioni, anche a livello internazionale, per meglio comprendere il fenomeno UFO.

La cosa sembra molto seria. Leggendo una notizia del genere, la prima domanda che viene in mente e’: quali sono le basi a sostegno di questa ipotesi? E’ trapelato qualcosa negli ambienti governativi di cui non siamo a conoscenza?

Purtroppo, mi dispiace deludervi. Quelle che vi ho mostrato sono solo le conclusioni, o meglio la richiesta, dell’interrogazione. Prima di questa ovviamente vengono mostrate le motivazioni che hanno spinto i due parlamentari a presentare il documento.

Ecco la prima:

presso l’Onu, Organizzazione delle nazioni unite sarebbe sorto l’Unoosa, Ministero degli affari spaziali e Mazlan Othman, l’astrofisica malese sarebbe stata messa a capo della struttura con il fine di accogliere gli extraterrestri (lastampa.it, 29 settembre 2010);

la nomina sarebbe avvenuta in occasione della conferenza della Royal Society Kavli foundation nel Buckinghamshire, in cui la Othman avrebbe anche presentato il proprio «piano». La divulgazione dei progetti seguiti dall’astrofisica, che è stata a capo dell’agenzia spaziale malesiana con cui ha organizzato la preparazione al lancio del primo astronauta del suo Paese, si sarebbe resa necessaria data la scoperta di centinaia di nuovi pianeti che, secondo la stessa scienziata, «aumenterà le possibilità di rilevare la presenza di vita extraterrestre nel cosmo». E questo significa che l’Onu deve essere pronto a coordinare la risposta dell’umanità a un eventuale «primo contatto», come riportato dal Telegraph;

Si parla di un ministero all’Onu, coordinato da un’astrofisica, per gestire un contatto con gli alieni. Se vogliamo, sarebbe una specie di ambasciatrice pronta ad accogliere e a dialogare con gli extraterrestri che sbarcheranno sulla Terra.

Questa prima motivazione non solo appare molto debole, ma anche del tutto falsa.

L’Unoosa e’ l’ufficio delle Nazioni Unite per gli affari dello spazio extra-atmosferico ed e’ veramente gestito dalla Othman. Questo ufficio pero’ non si occupa di alieni, bensi’ ha il compito di supervisionare i programmi spaziali delle nazioni, di finanziare progetti spaziali pacifici e anche di tenere il registro di tutti gli oggetti lanciati nello spazio. Se pensiamo all’affollamento di satelliti che girano sulla nostra testa, quest’ultimo compito appare quanto mai importante. Potete verificare queste informazioni anche direttamente dalla pagina di Wikipedia relativa all’Unoosa:

Wikipedia Unoosa

La notizia citata nell’interrogazione e’ stata veramente data da alcuni giornali dopo la nomina della Othman, ma altri giornali hanno subito smentito citando interviste direttamente ai membri dell’Onu. Ecco un articolo dello stesso periodo preso dal Corriere:

Corriere 2010, Unoosa

La notizia del Telegraph era infatti completamente infondata. Ripeto, parliamo di argomenti di un paio di anni fa, smentiti gia’ da tempo, ma di cui forse i proponenti dell’interrogazioni non erano stati informati.

Diciamo che come motivazione non mi sembra molto forte.

Fortunatamente, o purtroppo, non e’ questa l’unica motivazione. Proseguo nella lettura:

Dimitri Medvedev, premier della Federazione russa, – un lancio agenzia Ansa 9 dicembre 2012 riferisce che nel corso di un fuori onda televisivo – avrebbe detto ad un giornalista che insieme alla valigetta con i codici nucleari, gli sarebbe consegnato una speciale cartella «top secret». «Questa cartella contiene solo informazioni sugli alieni che hanno visitato il nostro pianeta». «Inoltre, gli viene consegnato un rapporto del servizio segretissimo che esercita il controlla sugli alieni sul nostro territorio nazionale», aggiunge Medvedev, secondo cui «informazioni più dettagliate su questo argomento potete ricavarle dal noto film “Men in Black”», «però non vi dirò quanti di loro sono fra noi perché questo creerebbe panico», ha aggiunto il premier;

Vi ricordate questa notizia? Ne abbiamo parlato in questo post:

Russia, Medvedev tranquillizza i suoi!

Come detto gia’ l’8 dicembre, quindi anche questa volta prima dell’interrogazione, si trattava di uno scherzo di Medvedev in un fuori onda in un programma Russo. Anche di questo abbiamo parlato in dettaglio, dicendo come questo siparietto, molto pubblicizzato in Italia, non aveva avuto assolutamente tutta questa eco in Russia.

Da qui in poi, ci sono tantissime altre motivazioni alla base della richiesta dei due parlamentari, ma purtroppo tutte su questa lunghezza d’onda. Si tratta di argomentazioni vecchie, digerite e che solo su internet continuano a fare notizia o a creare veli di mistero soprattutto nei confronti della scienza o di qualche governo.

Potete vedere il testo completo presentato alla Camera a questo link:

Testo Vatinno-Barbato

Visto che piu’ volte se ne e’ parlato, in un prossimo post parlero’ anche dell’Area 51, dal momento che questa installazione suscita da sempre l’interesse di molti appassionati.

Concludendo sull’interrogazione, come abbiamo visto, non c’e’ assolutamente nessuna nuova informazione o segreto trapelato da fonti governative. Le motivazioni a sostegno della richiesta non hanno nessuna validita’ scientifica ma si tratta solo di “sentito dire” o di argomenti vecchi e gia’ discussi piu’ e piu’ volte. Per dirla tutta, sembrerebbe il pensiero di uno dei peggiori siti catastrofisti che potete trovare in rete. La differenza principale e’ che in questo caso non si tratta di articoletti apparsi su internet, bensi’ di un documento della camera dei deputati. Questo solo perche’ i proponenti hanno il potere di presentare documenti di questo tipo invece che creare siti internet pseudo-scientifici.

Ultima nota. L’On. Vatinno si e’ anche reso partecipe di un siparietto su twitter che personalmente credo non si addica ad un parlamentare della nostra repubblica. Dalle domande delle persone circa l’interrogazione, ne sono nati degli insulti abbastanza gratuiti e poco carini, soprattutto nei confronti di Anna Rita Longo della rivista Queryonline, ma, purtroppo, non sono stati i soli, come potete leggere in questo articolo:

Gionalettismo Vatinno

Come detto all’inizio, ognuno e’ libero di credere o meno all’esistenza degli UFO. La scienza e’ in grado di fare ipotesi e calcolare probabilita’, ma, al momento, non ha certo una risposta definitiva. Questo appunto rende il punto di vista personale e non criticabile. Nonostante questo, le motivazioni per un pensiero o per l’altro non possono essere campate in aria o riproposizioni di fatti noti e gia’ del tutto spiegati.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Scie Chimiche: il prelievo in quota

28 Ott

Nel post precedente, abbiamo iniziato a parlare di scie chimiche:

Alcune considerazioni sulle scie chimiche

mostrando in particolare l’origine di questa teoria complottista e facendo considerazioni sulla formazione fisica delle scie di condensa. Come abbiamo visto, il comportamento e la formazione della condensa da parte di velivoli, non e’ assolutamente univoca, e consente di smentire molte ipotesi mosse dai sostenitori delle scie chimiche.

Come detto, una prova fondamentale che manca ai complottisti delle scie chimiche e’ proprio un prelievo in quota nella scia dell’aereo ed un’analisi formale che mostri la presenza di metalli pesanti o agenti patogeni nella condensa.

Proprio in questi giorni, molti siti sostenitori delle ipotesi sulle scie chimiche hanno pubblicato a gran voce questa prova.

Cerchiamo di andare con ordine.

Come annunciato su molti siti, tra cui anche il principale sito a sostegno delle scie, ovvero:

tanker enemy

su un volo di linea, e precisamente sul volo Ryanair da Pisa a Creta, un utente avrebbe fatto un prelievo di polveri. Dalla successiva analisi di queste polveri sarebbe emersa una concetrazione elevata di Alluminio, Cadmio e Bario.

Se questo fosse vero, sarebbe la prova inconfutabile dell’esistenza delle scie chimiche.

Per capire meglio, cerchiamo prima di tutto di capire come e dove e’ stato fatto questo prelievo.

Come anticipato, il prelievo sarebbe stato fatto da un utente privato su un volo di linea Ryanair e le analisi condotte da un laboratorio, anche questo privato. Ovviamente viene mantenuto l’anonimato sia sull’utente che sul laboratorio di analisi.

Come e’ stato fatto questo prelievo?

Come potete immaginare, e’ impossibile che un utente privato abbia prelevato un campione di aria nella scia dell’aereo. Infatti, stando a quanto affermato dagli stessi siti, il campione di polvere sarebbe stato prelevato dai cardini di aggancio del tavolino del sedile.

Zona del prelievo di polvere. Fonte: Tanker Enemy

Ora, cerchiamo di capire meglio. Perche’ e’ stato effettuato il prelievo all’interno dell’aereo?

Una parte dell’aria all’interno della cabina degli aerei viene prelevata da sotto la conchiglia del motore. Dunque, secondo i sostenitori delle scie chimiche, gli stessi agenti presenti nella scia entrano anche all’interno del velivolo.

Questo e’ in parte falso ed il perche’ e’ facilmente comprensibile. Come sapete bene, piu’ saliamo in altezza, piu’ l’aria e’ rarefatta, cioe’ minore e’ la concentrazione di ossigeno. In base a questo, l’aria prelevata dall’esterno e’ una minima frazione, mentre la maggior parte viene reciclata all’interno del velivolo stesso.

Da questa semplice considerazione tecnica, capite subito che il prelievo fatto all’interno del velivolo non e’ asssolutamente in relazione con quello che si vuole dimostrare. Inoltre, come vedete nell’immagine stessa, il prelievo e’ stato fatto utilizzando un fazzoletto di carta. Per poter fare una misura reale, il campione dovrebbe essere prelevato in modo scientifico utilizzando lo strumento adeguato e poi essere conservato senza possibilita’ di inquinamento esterno. Capite bene che prendere un campione in questo modo, non sapendo come viene conservato e quale laboratorio ha fatto l’analisi non ha assolutamente un valore scientifico in questa ricerca.

Come visto in precedenza, i sostenitori delle scie chimiche parlano di metalli pesanti nelle scie quali Alluminio, Stronzio, Titanio, Silicio. Di questi, solo l’allumino e’ stato trovato nelle analisi, come e’ possibile vedere nel risultato:

Risultato delle analisi sul campione Ryanair

Cerchiamo di fare qualche considerazione conclusiva. Il metodo di prelievo del campione e’ completamente sbagliato e il campione stesso che e’ stato prelevato non puo’ essere messo in relazione con le sostanze contenute nelle eventuali scie chimiche.

Inoltre, ragioniamo su un ultimo aspetto. Tutte le compagnie low cost, e dunque anche Ryanair, fanno diversi voli al giorno con gli stessi aerei. In generale, un aereo arriva a destinazione, si ferma il tempo necessario al rifornimento e ai controlli, e poi riparte verso l’aereoporto di partenza. Il breve lasso di tempo in cui l’aereo e’ fermo, viene utilizzato per risistemare la cabina ed effettuare una veloce pulizia. Con questo non sto assolutamente dicendo che gli aerei low cost sono sporchi, ma capite bene che se andate a cercare negli interstizi piu’ nascosti, come quello del campione, e’ facile trovare polvere.

I metalli che compongono la polvere possono provenire da molte fonti diverse. Prima di tutto, molte parti dei sedili degli aerei sono di alluminio. Eventuali polveri di questo metallo possono essere anche residui della lavorazione, cosi’ come gli altri metalli possono prevenire da inserti meccanici di lavorazione durante la produzione.

Concludendo, quello che mancava per la conferma dell’esistenza delle scie chimiche era un prelievo in quota. L’analisi tanto pubblicizzata dai soliti siti, non rappresenta assolutamente una misura di questo tipo. Ci sono molti punti scoperti nel prelievo del campione, nella modalita’ di prelievo e anche nell’analisi delle polveri.

Ad oggi, non vi sono prove dell’esistenza delle scie chimiche sia dal punto di vista scientifico sulla formazione della condensa che dal punto di vista dell’analisi in quota.

Per rimanere aggiornati non solo sulle profezie del 2012, ma per capire come utilizzare un metodo di analisi scientifica su molti concetti troppo spesso lasciati al complottismo, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.

 

Alcune considerazioni sulle scie chimiche

28 Ott

Anche se non direttamente legato alle profezie del 2012, vorrei dedicare qualche post al fenomeno delle “scie chimiche”. Molti utenti mi hanno chiesto di esprimere il mio punto di vista su questo tanto dibattuto e controverso aspetto degli ultimi anni. Parlare di scie chimiche significa inesorabilmente parlare non solo di scienza, ma anche delle tantissime teorie del complotto nate, soprattutto su internet, su questi argomenti. Di questi aspetti abbiamo parlato nel post:

Il complotto del complottista

In questo blog, abbiamo accennato alle scie chimiche guardando alla relazione tra questi eventi e i suoni dell’apocalisse o anche con la scoperta della nuvola “Undulatus Asperatus”:

I misteriosi suoni dell’apocalisse

Scoperta nuova nuvola?

Andando con ordine, cosa sono le scie chimiche e a cosa ci si riferisce? Tutti quanti, guardando il cielo, avrete visto, almeno una volta, la scia bianca lasciata da alcuni aerei.  Si tratta di scie di condensazione che, come vedremo nel seguito del post, sono prodotte in atmosfera dai motori dei velivoli. Secondo la teoria delle scie chimiche, alcune di queste sarebbero composte da agenti biologici, metalli pesanti, veleni in genere, disperse sulla Terra per opera di organizzazioni segrete, massoneria, governi senza scrupoli, al solo scopo di avvelenare la popolazione, causare particolari disturbi o anche modificare il clima. Il tutto avverrebbe alla luce del Sole, sfruttando la complicita’ di compagnie aeree, piloti e ENAV.

Presunte scie chimiche nei cieli italiani

Dal punto di vista biologico, le scie chimiche sarebbero la causa di un particolare morbo, noto come morbo di Margellon, di cui parleremo in dettaglio in un altro post. Per l’aspetto invece atmosferico e metereologico, le scie sarebbero usate per modificare il clima con la tecnica del “cloud seeding”, tecnica che, come vedremo in un post specifico, e’ gia’ non solo conosciuta e riconosciuta dalla scienza ufficiale, ma anche utilizzata in passato per impedire l’insorgenza di grandinate dannose ai raccolti.

Partendo dalle teorie complottiste metereologiche, non poteva certo mancare un collegamento con l’ormai famoso sistema HAARP. Secondo queste fonti, l’emissione di onde nell’atmosfera sarebbe in grado di aumentare la diffusione degli agenti sparsi dalle scie causandone la ricaduta in aree molto vaste. Di HAARP abbiamo gia’ parlato in un post specifico:

HAARP e terremoti indotti

mostrando la vera natura scientifica del progetto e parlando anche in dettaglio delle infondate teorie complottiste su questo sistema, in particolare per l’induzione di terremoti.

Torniamo dunque alle scie chimiche e cerchiamo di fare un po’ di chiarezza.

Nel mondo si inizia a parlare di questi fenomeni intorno alla meta’ degli anni 90, quando molte trasmissioni televisive e radiofoniche iniziano a diffondere ipotesi cospirazioniste sulle scie di condensa parlando di eventi “non chiari”. Con questo si intendono casi di scie con comportamenti diversi rispetto a quelle normalmente lasciate dagli aerei. Inoltre, secondo queste teorie, prima del 1995, non si avrebbero immagini di scie di condensa lasciate dagli aerei, ma di questo avremo modo di parlarne meglio in seguito.

Prima di lanciarci in ipotesi o conclusioni affrettate, cerchiamo di spiegare meglio cosa sono le scie di condensa, per poi scendere nel dettaglio delle scie chimiche.

Le scie di condensa si formano dopo il passaggio di un aereo e sono costituite da prodotti di condensazione e successiva solidificazione del vapore acqueo. Sono del tutto simili a strisce nuvolose che tendono poi ad allargarsi dopo il passaggio del velivolo. Come potete facilmente immaginare, affinche’ possa avvenire la solidificazione del vapore, sono necessarie particolari condizioni in atmosfera che dipendono non solo dalla temperatura, ma anche dalla pressione.

Ovviamente, i sostenitori delle scie chimiche hanno studiato in dettaglio il fenomeno e, secondo la loro interpretazione, le scie di condensa si possono formare ad una quota superiore agli 8000 metri, dove l’aria e’ molto fredda e rarefatta, con temperature inferiori ai -40 gradi centigradi. Il fatto dunque di osservare presunte scie di condensa anche a quote inferiori, e’ un chiaro segno che non si tratti di normale condensa, ma del rilascio in atmosfera di qualche sostanza chimica.

A riprova di questo, su molti siti si fa riferimento addirittura ad un pagina gestita dalla NASA ed in cui viene spiegato il meccanismo di formazione della condesa:

NASA science FAQ

Come potete leggere nel sito:

Contrails are human-induced clouds that usually form at very high altitudes (usually above 8 km – about 26,000 ft) where the air is extremely cold (less than -40ºC).

Dunque e’ evidente, secondo queste teorie, che scie formate ad altitudini diverse, non possono essere solo di condensa.

Ora, quello che si evidenzia e’ una scarsa conoscenza non solo dell’inglese, ma anche della fisica. La parola “usually” sta appunto ad indicare che “generalmente” le scie di condensa si formano in queste condizioni, ma non e’ il solo caso possibile. Tenete conto che si sta facendo riferimento ad una pagina, gestita dalla NASA, ma di divulgazione. In questo contesto non si scende assolutamente nel dettaglio.

Per poter chiarire questo concetto, cerchiamo di andare un po’ piu’ nel dettaglio nella formazione delle condensa. In primis, partendo dal sito della NASA, le scie di condensa si possono formare per raffreddamento dei gas di scarico degli aereomobili i quali espellono in atmosfera una notevole quantita’ di vapore acqueo e nuclei di condensazione. In questo caso, che e’ quello in grado di provocare le scie piu’ persistenti, la temperatura dell’aria deve essere compresa tra i -25 e i -40 gradi centigradi, o inferiore in base alle condizioni di pressione. Se consideriamo che il gradiente termico verticale, cioe’ la diminuzione di temperatura in funzione dell’altezza da terra, e’ di -6.5 gradi ogni 1000 metri, partendo da una temperatura al suolo di 20 gradi, intorno agli 8000 metri la temperatura e’ circa -30 gradi, dunque compatibile con le condizioni sopra esposte.

Oltre a questo caso, si possono formare anche scie di convezione. In questo caso, la condensa e’ formata dai moti convettivi che si generano in un’aria umida per opera del passaggio dell’aereo. In questo caso la temperatura deve essere compresa tra 0 e -20 gradi. Sempre utilizzando il gradiente verticale, troviamo questi valori ad un’altitudine tra 3000 e 6000 metri, dunque molto inferiori a quelli precedenti e dove, secondo la teoria complottista, non potrebbe formarsi condensa. Inoltre, in questo caso, considerando proprio i meccanismi termodinamici del fenomeno, la condensa non si forma immediatamente dopo il passaggio dell’aereo, ma occorre un certo tempo prima che il vapore si porti alla temperatura di condensazione. Questo significa che e’ possibile vedere un aereo ed una scia che inizia centinaia di metri alle sue spalle.

Ultimo metodo di formazione di condensa sono le cosiddette scie aerodinamiche. Durante il suo passaggio, l’aereo comprime localmente un volume d’aria e, se l’atmosfera e’ molto umida, il vapore acqueo puo’ condensare provocando una scia. In questo caso, oltre all’elevata umidita’, e’ richiesta una temperatura compresa tra 0 e +10 gradi. Questo significa che questo tipo di scie possono formarsi anche ad altitudini molto basse, inferiori anche a quelle convettive.

Da queste semplici considerazioni scientifiche, capite dunque l’infondatezza delle ipotesi mosse a sostegno delle scie chimiche.

Sempre secondo i sostenitori del complotto, la differenza tra scie di condensa e scie chimiche sarebbe facilmente visibile dal diverso comportamento in atmosfera dei rilasci. Come visto, la diversa formazione della condensa interviene in condizioni di altitudine, temperatura, pressione e umidita’ differenti. Queste determina anche un diverso comportamento dinamico del vapore che puo’ perdurare piu’ a lungo, espandersi, rimanere compatto o evaporare velocemente.

Scie di condensa di bombardieri B17 nel 1943

In diversi siti, si mostrano foto in cui due scie prodotte nello stesso istante hanno comportamenti radicalmente differenti tra loro. Anche questo e’ facilmente spiegabile dalla fisica. Prima di tutto, guardando da terra due scie a grande distanza, non siamo in grado di percepire esattamente la terza dimensione, cioe’ l’altezza relativa tra le due formazioni. Quelle che ci possono sembrare due scie sovrapposte, possono essere ad altezze molto diverse tra loro. Inoltre, come visto nei diversi metodi di formazione della condensa, la natura dinamica della scia dipende fortemente dai parametri atmosferici ma anche relativi all’aereo stesso, prima di tutto la velocita’ per le scie aerodinamiche.

Per concludere questa prima parte sulle scie chimiche, vorrei riprendere anche il discorso dell’origine di queste teorie. Come detto all’inizio, secondo queste fonti, non esisterebbero prove di scie di condensa prima degli anni ’90. Questo e’ del tutto falso, le prime scie di condensa vennero osservate gia’ a partire degli anni ’20. Al contrario di quanto affermato, anche se sprovvisti di cabine pressurizzate, i velivoli potevano salire a quote elevate dal momento che i piloti erano dotati di bombole di ossigeno e tutte scaldate elettricamente. Solo per darvi un’idea, nel 1937 il record di altitudine era di 17000 metri. Il detentore di questo record era l’italiano Mario Pezzi che, osservando per la prima volta la scia di condensa, penso’ ad un guasto del suo aereo.

Tirando le somme, dal punto di vista scientifico, non vi e’ nessuna evidenza di fenomeni inconsueti riguardanti le scie di condensa. Come abbiamo visto, parlare di una bassa altitudine come prova della diversita’ tra scie chimiche e scie di condensa non e’ assolutamente corretto.

Ad oggi, non vi sono prove inconfutabili del rilascio di elementi diversi dal vapore acque nelle scie. Molti siti complottisti fanno riferimento a presunte analisi condotte a terra dopo il passaggio di aerei. Come potete immaginare, molto spesso non vengono mostrati i risultati di queste analisi, ma anche se ci fossero, non vi sarebbe nessuna prova della correlazione tra rilascio in quota e deposito a Terra a causa dell’eventuale spostamento per opera di venti e gradienti termici. Sulla stessa linea, e al contrario di quanto anunciato dai soliti siti, non vi sono assolutamente analisi di campioni prelevati in quota in coda ad un aereo.

Nei prossimi post cercheremo di analizzare l’unico prelievo fatto in quota, anche se non in coda ad un aereo, e di parlare del cloud seeding e del morbo di Margellon.

L’approccio scientifico, l’analisi dei dati e il confronto tra fonti diverse, ci consente di fare un po’ di chiarezza su molti concetti non solo legati alle profezie del 2012. Per affrontare questi e molti altri argomenti, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.

Eclissi Totale il 13 Novembre, cosa dire …

21 Ott

Visto che ho ricevuto molti messaggi di persone che chiedevano il mio punto di vista sull’eclissi totale del 13 Novembre, ho deciso di rispondere a tutti in questo post.

Zona di visibilita’ dell’eclissi del 13 Novembre

Non ho postato nuovi articoli su questo avvenimento, perche’ lo avevo gia’ fatto in passato. Questo non significa che, come qualcuno afferma, mantengo il segreto sull’evento perche’ penso che qualcosa possa accadere.

A dimostrazione di questo, vi riporto nuovamente il testo pubblicato il 12 Giugno 2012, completo di tutti i link utili alla comprensione. Per chi non lo avesse letto, per il 13 Novembre 2012 e’ attesa una eclissi totale di Sole, in realta’ visibile solo in una zona molto ristretta, come mostrato nell’animazione riportata.

Come potete facilmente immaginare, questo evento e’ stato di nuovo preso in considerazione da tutti quelli che vorrebbero una relazione tra i movimenti dei pianeti e le maree liquide. Con questo intendiamo le teorie secondo le quali le variazioni della forza gravitazionale, dovute all’allineamento tra pianeti, sarebbero in grado di provocare movimenti tellurici sulla Terra.

Come abbiamo visto, queste variazioni sono del tutto trascurbili e non in grado di provocare effetti di questo tipo.

Fatta questa dovuta anticipazione, vi riporto nuovamente il testo dell’articolo del 12 Giugno intitolato:

Eclissi totale il 13 Novembre 2012

 

Ecco a voi il testo:

 

Come vi abbiamo anticipato in questo articolo:

5 giugno, 6 giugno, 21 dicembre e non solo

La prossima data attesa dai sostenitori della fine del mondo, sara’ quello del 13 Novembre 2012.

Come abbiamo visto in questo articolo invece:

Prossima data importante?

per questa data e’ prevista un’eclissi di Sole, che in realta’ sara’ totale solo in una ristretta zona, e parziale in una regione di spazio maggiore. Questo semplicemente perche’ il cono d’ombra proiettato dal Sole sulla Luna occupera’ uno spazio piu’ grande.

Perche’ questa data sara’ la prossima attesa per la fine del mondo?

Come ormai abbiamo imparato, molti filo-catastrofisti (e non) vorrebbero delle correlazioni tra eventi astronomici di questo tipo (eclissi, super Luna, transiti di pianeti) e il verificarsi di Terremoti sulla Terra.

Di questo abbiamo gia’ abbondantemente discusso in molti articoli, ed in particolare, abbiamo dimostrato come, ad esempio, il transito di Venere sul disco del Sole causi delle variazioni estremamente piccole all’interazione gravitazionale subita dalla Terra. Queste variazioni non possono in alcun caso giustificare il fenomeno delle cosidette “maree solide”, cioe’ la perturbazione delle placche continentali ad opera della forza gravitazionale esercitata dai pianeti.

Alla luce di questo, perche’ ancora una volta si mette in relazione un’eclissi solare con la possibilita’ di avere Terremoti?

Se ricordate bene, come abbiamo visto in questo articolo:

Allineamenti e Terremoti

Il giorno stesso del primo terremoto in Emilia del 20 Maggio 2012, ci fu un’eclissi anulare di Sole visibile da gran parte dell’Oceano Pacifico e del Nord America.

Sempre in questo articolo, abbiamo analizzato come in realta’ l’insorgenza annuale di feomeni di questo tipo e di questa intensita’, non e’ affatto straordinaria. Ogni anno, sulla Terra, si verificano diversi Terremoti anche di grande intensita’, e statisticamente non si nota ne un aumento di questi fenomeni avvicinandosi al 2012, ne tantomeno un aumento significativo in corrispondenza di fenomeni astronomici importanti.

Eclissi anulare del 20 Maggio 2012

Alla luce di quanto discusso insieme, potete facilmente immaginare quanti stanno gia’ mettendo (o metteranno) in relazione l’eclissi del 13 Novembre con Terremoti di forte intensita’.

Inoltre, se teniamo conto che il 20 Maggio c’e’ stata solo un’eclissi parziale, mentre per il 13 Novembre e’ attesa un’eclissi totale, potete subito immaginare come questa data assuma un significato ancora piu’ nefasto.

Da quanto detto fino a questo punto, siamo gia’ in grado di escludere ogni possibile relazione tra questi fenomeni. Non ci aspettiamo nessun fenomeno sismico legato a questa eclissi, come non ci si aspetta nessun terremoto per alcun evento astrofisico. Ovviamente, come ormai sappiamo bene, puo’ succedere che, in una finestra che va da alcuni giorni prima fino ad alcuni giorni fopo l’eclissi, avvengano terremoti in qualche zona del mondo. Questa non sarebbe una casualita’, ma la normale statistica di eventi che ogni anno registriamo sulla Terra a causa delle tensioni tra le placche.

Altro punto non da sottovalutare, e che spesso viene tralasciato anche dai sostenitori di queste correlazioni, e’: perche’ un eclissi visibile in una zona della Terra dovrebbe causare un terremoto in una zona completamente diversa? Semplicemente perche’, come abbiamo discusso in altri articoli, e’ facile far “capitare” un terremoto in una qualsiasi zona in una finestra di qualche giorno.

Come abbiamo visto in questo articolo:

Forte terremoto nel sud Italia tra 3 e 6 giugno

quando si prova ad azzardare una previsione specifica in una regione, anche se grande, limitata rispetto all’intero globo terrestre, e’ molto facile sbagliare!

Se volete analizzare insieme a noi tutte le profezie fatte sul 2012, sempre utilizzando un metodo scientifico e ragionando solo e unicamente su teorie certe e dati incontrovertibili, leggete “Psicosi 2012. Le risposte della scienza”.

 

Prossimi terremoti secondo la statistica

27 Set

In questi giorni, si sta diffondendo in rete una nuova notizia secondo la quale la probabilita’ di un forte terremoto in Italia nei prossimi anni sarebbe molto alta. Come potete facilmente immaginare, questa nuova informazione viene al solito utilizzata per aumentare la paura in prossimita’ del 21 Dicembre e, piu’ in generale, per sfruttare la psicosi attuale su questo genere di fenomeni.

In questo stesso blog, abbiamo piu’ volte chiamato in causa la statistica per analizzare il fenomeno dei terremoti, concentrandoci principalmente sullo studio degli eventi passati. Come ribadito piu’ volte, allo stato attuale non esistono precursori sismici per prevedere, anche a breve termine, un terremoto. La statistica puo’ pero’ aiutarci a capire gli andamenti nel tempo di questi fenomeni, per tracciare mappe di pericolosita’ e per confutare l’ipotesi catastrofista che vorrebbe un aumento progressivo dei terremoti in vista del 21 Dicembre.

I post principali in cui abbiamo parlato di terremoti e statistica sono:

Analisi statistica dei terremoti

Riassunto sui terremoti

Dati falsi sui terremoti

Terremoti, basta chiacchiere. Parliamo di numeri

Nella notizia in questione, invece, la statistica e’ stata utilizzata per dare una previsione indicativa della probabilita’ dei prossimi eventi.

Prima di qualsiasi considerazione, analizziamo la notizia.

Come riportato da diversi siti, dall’analisi degli eventi passati, ad oggi (settembre 2012) la probabilita’ che si verifichi in Italia un terremoto di magnitudo superiore a M6.5 sarebbe, in funzione degli anni:

– 15% entro i prossimi 5 anni

– 33% entro i prossimi 10 anni

– 68% entro i prossimi 20 anni

Cosa significa questo? Semplicemente che abbiamo una probabilita’ del 68% che si possa verificare in Italia un terremoto superiore a M6.5 nei prossimi 20 anni.

Sempre in questa notizia, se a 20 anni da oggi, non si e’ verificato nessun evento di questo tipo, allora le probabilita’ per gli anni successivi sarebbero:

– 30% per i successivi 5 anni

– 52% per i successivi 10 anni

– 87% per i successivi 20 anni

Riassumendo, se partendo da oggi, nei prossimi 20 anni non ci sara’ nessun evento superiore a M6.5, allora la probabilita’ che questo possa accadere nei successivi 20 anni e’ ben dell’87%!

Effettivamente questi numeri fanno riflettere. Se ci pensiamo da oggi a 40 anni, abbiamo quasi il 90% delle probabilita’ che si possa verificare un terremoto di grande intensita’ in Italia.

Purtroppo, questi numeri sono reali. Prima di saltare sulla sedia pero’, cerchiamo di capire come vengono ricavati.

Ovviamente in questo blog non vogliamo fare terrorismo psicologico ne tantomeno nascondere dati importanti. Il nostro scopo e’ analizzare scientificamente notizie di questo tipo per cercare di capire a fondo le basi e le eventuali conseguenze.

Partiamo dalla prima tabella, cioe’ quella, partendo da oggi, di avere un terremoto dopo un certo numero di anni.

Per ricavare questi numeri, dobbiamo analizzare storicamente, in media, ogni quanti anni, in Italia, si verificano eventi di questo tipo. Per trovare questa informazione potete consultare anche le pagine di wikipedia:

Terremoti in Italia nel XX secolo

Terremoti in Italia nel XXI secolo

Come potete facilmente verificare, ci sono stati 5 eventi di magnitudo superiore a M6.5 in un periodo di circa 100 anni. Tradotto in numeri, possiamo dire che, in media, si verifica un evento di questo tipo ogni 20 anni circa.

Senza entrare nello specifico, per fare analisi di questo tipo si costruisce un istogramma con tutti gli eventi e si va a misurare la larghezza della distribuzione, ricavando quella che viene detta deviazione standard. Nel nostro caso, possiamo utilizzare, senza commettere grossolani errori, direttamente la media degli eventi.

Cosa significa la “media” in questo caso? Semplicemente che, appunto, “in media” ogni 20 anni si verifica un terremoto di questo tipo. Come sapete bene, la statistica dice 20 anni, ma potrebbero essere 10 come 30 e la cosa non ci turberebbe. Quant’e’ la probabilita’ che l’evento si verifichi dopo un periodo pari alla sua media? Appunto del 68%, che e’ il valore che trovate sulla prima tabella. Analogamente, dopo un tempo pari a meta’ della media (10 anni), la probabilita’ e’ del 52%.

Ora cerchiamo invece di verificare i dati della seconda tabella. Sappiamo che, in media, c’e’ un terremoto di questo tipo ogni 20 anni. Supponendo che in 20 anni da adesso non si verifichino eventi, qual’e’ la probabilita’ che possa accadere negli anni successivi?

In questo caso, non e’ piu’ sufficiente l’analisi della media degli eventi, ma si deve ricorrere ad una probabilita’ combinata. In questo blog, non vogliamo riportare formule o teoremi, ma vogliamo comprendere il risultato semplicemente ragionando, in modo da dare un spiegazione chiara per tutti.

Facciamo un esempio diverso. Supponiamo di comprare un frigorifero, proprio per fare esempi concreti e comprensibili, e che in media questo funzioni senza rotture per 5 anni. Possiamo essere sfortunati e buttare il frigo dopo 1 anno cosi’ come non avere guasti per 20 anni. Nel nostro caso, non stiamo parlando di fortuna, ma stiamo utilizzando la statistica per studiare questo problema. Se dopo 5 anni, il frigo funziona perfettamente, quant’e’ la probabilita’ che si rompa nei successivi anni? Questa e’ la probabilita’ combinata, detta anche, neanche a farlo apposta, “probabilita’ di sopravvivenza”. Ovviamente, se per 5 anni non e’ successo nulla, la probabilita’ di subire un guasto aumenta progressivamente al trascorrere degli anni.

Nel caso dei terremoti, il calcolo fatto e’ analogo. In media ce n’e’ uno ogni 20 anni. Se per 20 anni non e’ accaduto, la probabilita’ che un evento di questo tipo possa verificarsi aumenta di anno in anno. I dati della seconda tabella sono proprio ricavati studiando le probabilita’ di sopravvivenza del fenomeno.

Ovviamente parlare di un terremoto di forte intensita’ e’ diverso dal parlare del frigorifero di casa, ma il calcolo statistico delle probabilita’ e’ del tutto analogo. Se sapete che il frigo dura in media 5 anni e dopo 10 anni ancora e’ perfettamente funzionante, vi sentite ovviamente fortunati, ma sapete che un guasto potrebbe arrivare da un momento all’altro. In particolare, la probabilita’ che si guasti entro 5 anni dopo i primi 5 anni e’ del 87%. Esattamente lo stesso numero che abbiamo visto nella tabella dei terremoti.

Come vedete, quella che viene tanto pubblicizzata come una spada di Damocle sulla nostra testa, altro non e’ che un semplice calcolo statistico.

Mappa del rischio sismico espressa in funzione dell’accelerazione

A questo punto pero’, prima di concludere, facciamo qualche importante considerazione statistica. I terremoti possono essere analizzati statisticamente, ma ovviamente non stiamo parlando di dadi. Questo per dire che il fenomeno non e’ completamente aleatorio ma dipende da moltissimi fattori geologici. Se in media c’e’ un forte terremoto ogni 20 anni, non significa assolutamente che dopo 20 anni ne dobbiamo aspettare uno. Parlare poi dell’Italia nel suo insieme non serve a nulla. Come potete vedere dalle mappe di rischio sismico, ciascuna zona ha una sua morfologia e una sua storia diversa.

Utilizzare la statistica sui terremoti, ci consente di fare importanti considerazioni su questo fenomeno, ma assolutamente non ci permette di prevedere eventi futuri. La natura geologica del fenomeno, non ci consente di fare previsioni statistiche inconfutabili nel tempo.

Anche in questo caso, si sono presi dei dati scientifici, senza comprenderli a fondo, con il solo scopo di aumentare il terrore nelle persone. Purtroppo la disinformazione e il solito business economico, fanno si che si tenda a pubblicare notizie non veritiere con il solo scopo di mantenere alto il livello di guardia e quindi per incrementare visite su siti e giornali catastrofisti.

Purtroppo, anche in questo caso, ragionare sul problema e sui dati che vengono presentati e’ l’unico modo per non cadere nelle innumerevoli trappole che troviamo nei diversi mezzi di informazione. Per analizzare scientificamente eventi sempre attuali e troppo spesso strumentalizzati, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.