Tag Archives: software

Chi e’ Eugene Goostman?

10 Giu

Oggi, moltissimi giornali hanno riportato una notizia molto interessante anche se, come spesso accade, alcuni giornalisti si sono limitati a fare copia/incolla o, peggio ancora, non documentandosi bene prima di scrivere, hanno arricchito i loro articoli di cosa alquanto fantasiose.

Visto che sicuramente avrete letto la notizia a cui mi riferisco, mi limito ad un breve riassunto: il 7 giugno, in occasione del 60esimo anniversario della morte di Alan Turing, un software e’ riuscito a superare il cosiddetto Test di Turing.

In cosa consiste questo test?

Immaginiamo di avere 3 persone: A, B e C. A e B, non necessariamente in ordine giusto, sono un uomo e una donna. C, che si trova in un’altra stanza, deve indovinare mediante una serie di domande dattiloscritte, chi e’ l’uomo e chi la donna. Su questa base, Turing sviluppo’ il suo test per verificare la bonta’ di un’intelligenza artificiale. Se uno dei due tra A e B e’ una macchina, cioe’ un software, C deve indovinare chi e’ l’umano e chi il programma informatico.

Cosa significa tutto questo?

Molto semplice, se il software riesce a farsi passare per un umano, cioe’ e’ in grado di ragionare come una persona in carne e ossa, allora siamo di fronte ad una vera e propria intelligenza artificiale in grado di cammufarsi tra gli umani.

Leggendo queste righe, sicuramente vi saranno venuti in mente moltissimi scenari, o film, di fantascienza in cui le macchine si confondono tra gli esseri umani e sono in grado di ragionare e provare emozioni. Lo scopo del test di Turing e’ proprio quello di verificare quanto una macchina sia in grado di ragionare, dunque elaborare pensieri complessi e non solo rispondere ad una serie di istruzioni gia’ scritte.

Del genio di Alan Turing abbiamo gia’ parlato in un articolo specifico:

Un perdono atteso 70 anni

In particolare, in questo articolo abbiamo parlato di Turing in relazione al suo lavoro durante la seconda guerra mondiale e il suo ruolo di primo piano nella decriptazione dei messaggi della macchina Enigma. Turing fu un vero e proprio genio dei suoi tempi e uno dei padri della moderna informatica. Come visto nell’articolo precedente pero’, la sua omosessualita’, contestualizzata al momento storico in cui visse, gli costo’ molto cara e questo “reato” lo spinse al suicidio esattamente il 7 Giugno 1954.

Proprio nell’ambito dei suoi studi sull’intelligenza artificiale, Turing formulo’ il test di cui abbiamo parlato, prendendo spunto dal “Discorso sul metodo” di Cartesio. Nel corso degli anni, diversi software hanno provato a superare il test sempre fallendo.

Come funziona il test?

Da quanto detto in precedenza, un giudice deve riconoscere, mediante un numero limitato di domande o comunque in un tempo prefissato, un programma informatico da una persona in carne e ossa. Ovviamente, non abbiamo un singolo giudice ma una vera e propria giuria. Nel regolamente ufficiale, ogni giudice ha a disposizione 5 minuti di domande e il test si ritiene superato se almeno il 30% dei giudici confonde il software per un umano.

Dunque? E’ stato superato o no questo test?

Dal regolamento riportato, il test e’ stato effettivamemte superato dal momento che, nella prova del 7 giugno di quest’anno, il 33% dei giudici, cioe’ un terzo della giuria, ha scambiato la macchina per un essere umano.

Che tipo di software e’ stato utilizzato?

Come sicuramente avrete letto, il software si chiama Eugene Goostman, che poi e’ il nome completo di un ragazzo ucraino di 13 anni, che e’ il personaggio simulato dal programma. Questo portentoso software e’ stato sviluppato da tre programmatori e’ gia’ nel 2006 era andato molto vicino a superare il test con il 29% dei giudici ingannati.

computer supera il test di Turing

Per chi avesse dubbi sulla regolarita’ della prova, il test e’ stato condotto adirittura alla Royal Society di Londra nel corso, appunto, delle celebrazioni per i 60 anni della morte di Turing.

Cosa dire su questo risultato?

Sicuramente si tratta di un passo molto importante per lo sviluppo dell’intelligenza artificiale ma cerchiamo di non scadere anche nei nel sensazinalismo. Per prima cosa, il software, come richiesto dal test, ha superato la soglia del 30%, ma siamo ben lontani dall’aver ingannato tutti i giudici. Alcuni scettici puntano il dito sul fatto che il personaggio simulato fosse un ragazzino di soli 13 anni e non madrelingua inglese. Questo particolare potrebbe aver tratto in inganno alcuni giudici che potrebbero aver pensato ad informazioni non note per la giovane eta’ o a problemi di comprensione dovuti alla diversita’ linguistica.

A parte questo, il test e’ stato comunque superato. Sicuramente, la pubblicita’, assolutamente giusta dal mio punto di vista visto il risultato storico, contribuira’ a far crescere gli investimenti nella ricerca per l’intelligenza artificiale che, test a parte, potrebbe trovare applicazione in moltissimi settori. Per darvi un’idea, la stessa Google ha da poco investito ingenti capitali in questo settore, circa 400 milioni di dollari, per acquisire societa’ piu’ piccole ed incentivare lo sviluppo di software sempre piu’ pensanti. Per chi volesse provare un sistema di questo tipo, anche se molto meno raffinato di Eugene Goostman, ci sono due possibilita’: i sistemi di assistenza vocale dei moderni cellulari (Siri per fare un esempio) o programmi online apprendenti:

Tobby chat bot

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Due parole sulla stampa in 3D

5 Giu

Diversi utenti mi hanno contattato per avere un approfondimento sulle stampanti 3D. Oggi come oggi, questo tipo di tecnologia e’ entrato pesantemente nella nostra vita e tutti noi, almeno una volta, abbiamo sentito parlare di questa tecnologia anche se, a volte, si ignora completamente il processo realizzativo alla base di questi nuovi strumenti.

Se provate a cercare in rete, trovate una definizione della stampa 3D molto semplice: si tratta dell’evoluzione naturale della classica stampa in 2D, utilizzata pero’ per realizzare oggetti reali in materiali diversi.

Personalmente, trovo questa definizione molto semplicistica e assolutamente riduttiva. Perche’? Semplice, non possiamo confrontare una stampa 2D con una 3D proprio perche’ relativa ad una concezione di realizzazione estremamente diversa. Detto molto semplicemente, sarebbe come voler paragonare la pittura con la scultura, parlando di quest’ultima come la naturale evoluzione della prima.

Cerchiamo di andare con ordine e capire meglio le basi di questo processo. Se nella stampa 2D possiamo riprodurre su un foglio di carta una qualsiasi immagine, in quella 3D il prodotto finale ara’ un oggetto solido, reale e tridimensionale. Un esempio? Disegnate al pc una tazza. Se stampate il vostro disegno con una normale stampante avrete la riproduzione di quell’immagine appiattita su una superficie. Utilizzando invece una stampante 3D il vostro risultato sara’ una vera e propria tazza che potete vedere, toccare e, perche’ no, anche utilizzare.

Solo fino a qualche anno fa, un processo del genere sarebbe stato considerato fantascientifico e, se ci avviciniamo ai giorni nostri, retaggio di costosi macchinari riservati alle aziende piu’ grandi. Oggi invece la tecnologia della stampa 3D e’ divenuta “quasi” di uso comune grazie alla notevole contrazione dei prezzi di queste stampanti, risultato di massicci investimenti fatti da numerose compagnie pubbliche e private.

Pensate stia scherzando? Facendo una ricerca su internet, cominciate a trovare stampanti in grado di riprodurre oggetti fino a decine di centimetri per lato, ad un prezzo inferiore ai 1000 euro. Pensate sia ancora tanto? Nel giro di pochissimi anni, i prezzi di questi dispositivi si sono ridotti in media di un fattore dieci. Come anticipato, questo e’ stato possibile grazie ai notevoli investimenti fatti nel settore ricerca sia pubblico che privato. Per darvi una stima, il prezzo delle azioni delle maggiori case costrttrici di questi dispositivi e’ cresciuto fino a cinque volte facendo riconoscere queste aziende tra le migliori nei listini di borsa.

Visto il sicuro interesse in questi dispositivi, cerchiamo ora di capire meglio come avviene il processo realizzativo di un oggetto a tre dimensioni.

600x407xreplicator.jpg.pagespeed.ic.e5HWV8nSTh

Come potete facilmente immaginare, le tecniche realizzative utilizzate sono diverse ma per comprendere il meccanismo in modo semplice, concentriamoci su quello maggiormente utilizzato e piu’ intuitivo. Come nelle stampanti tradizionali, ci sono delle cartucce contenenti il materiale con cui sara’ realizzato il nostro oggetto. Nella versione piu’ comune, questo materiale sara’ ABS o PLA, due polimeri che per semplicita’ possiamo immaginare come delle plastiche. Normalmente le cartucce contengono questi materiali in forma di polvere o di fili.

Bene, abbiamo il materiale nelle cartucce, poi? Vi ricordate le vecchie stampanti che imprimevano una riga alla volta sul foglio che via via veniva portato avanti? Il processo e’ molto simile a questo. Nella stampa 3D l’oggetto viene realizzato per strati paralleli che poi crescono verso l’alto per realizzare i particolari del corpo che vogliamo stampare. L’esempio classico che viene fatto in questi casi e’ quello dei mattoncini dei LEGO. Strato per strato costruite qualcosa “attaccando” tra loro i vari pezzi. Nella stampa 3D ogni strato viene depositato sull’altro con un processo a caldo o di incollaggio a volte mediante l’ausilio di un materiale di supporto.

Compreso il processo alla base, la prima domanda da porci e’ relativa alla risoluzione di queste stampanti. In altre parole, quanto sono precisi i pezzi che posso realizzare? A differenza della stampa 2D, in questo caso dobbiamo valutare anche la precisione di costruzione verticale. Per quanto riguarda il piano orizzontale, la risoluzione della stampa dipende dalla “particella” di materiale che viene depositata. In verticale invece, come facilmente immaginabile, la precisione del pezzo dipendera’ dallo spessore dello strato che andate a depositare. Piu’ lo strato e’ sottile, maggiore sara’ la risoluzione della vostra stampa. Normalmente, per darvi qualche numero, parliamo di risoluzioni verticali dell’ordine del decimo di millimetro.

A questo punto, abbiamo capito piu’ o meno come funzionano queste stampanti, abbiamo visto che i prezzi sono in forte calo ma la domanda principale resta sempre la stessa: cosa ci facciamo con queste stampanti? In realta’, la risposta a questa domanda potrebbe essere semplicemente “tantissimo”. Cerco di spiegarmi meglio. Le stampanti 3D sono gia’ utilizzate e sotto attento studio di ricerca per il loro utilizzo nei piu’ svariati settori.

Qualche esempio?

Prima di tutto per le aziende che si occupano della realizzazione dei protitipi o di produzione su grande scala di oggetti di forma piu’ o meno complessa. In questo caso vi riporto direttamente la mia esperienza in questo settore. Ai Laboratori Nazionali di Frascati disponiamo di una stampante 3D con una buona risoluzione per la stampa di oggetti in ABS. Cosa ci facciamo? Moltissime parti dei rivelatori di particelle possono essere stampati direttamente in 3D saltando tutta la difficile fase della realizzazione con macchine utensili. Inoltre, ricorrere alla stampa 3D, anche solo in fase prototipale, consente di poter valutare al meglio la correttezza dell’oggetto pensato e la sua funzionalita’ nei diversi settori.

Oltre a queste applicazioni, le stampanti 3D possono essere utilizzate in medicina forense per la ricostruzione di prove danneggiate, in oreficeria, nel settore medico per la ricostruzione ossea, in paleontologia per la preparazione di modelli in scala di parti rinvenute e cosi’ via per moltissimi settori in cui la stampa 3D puo’ velocizzare notevolmente il processo realizzativo ma soprattutto con costi molto contenuti rispetto alla lavorazione classica.

Oggi come oggi, la ricerca in questo settore e’ fortemente orientata allo studio dell’utilizzo di materiali piu’ disparati. Per darvi qualche idea si va dal tessuto osseo alle plastiche, dalla roccia all’argilla e cosi’ via. Come potete capire immediatamente, piu’ materiali si riescono ad utilizzare, maggiori sono i settori interessati in questi prodotti.

Anche se poco noto al grande pubblico, in rete ci sono gia’ moltissimi siti e forum che si occupano di scambio open source di modelli 3D da stampare o anche solo di stampa su commissione conto terzi. Se ripensiamo al paragone con le stampanti classiche, se in questo caso bastava una qualsiasi immagine, per utilizzare una stampante 3D e’ necessario realizzare un modello tridiemnsionale da dare in pasto alla stampante. Per poter far questo ci sono ovviamente potenti software CAD ma anche tanti programmi gratuiti piu’ semplici gia’ scaricabili dalla rete.

Alla luce di quanto discusso, sicuramente il discorso sulle stampanti 3D e’ destinato ancora a crescere. In un futuro non troppo lontano, potremmo avere a disposizione strumenti domestici per realizzare l’oggetto che desideriamo. Inutile nascondere che questo qualche sospetto potrebbe destarlo. Solo pochi mesi fa si e’ molto discusso del progetto di una pistola in plastica perfettamente funzionante ed in grado di uccidere realizzabile con una stampante 3D ed i cui progetti erano finiti in rete. A parte questo “particolare”, quello delle stampanti 3D e’ sicuramente un mercato destinato a crescere e su cui moltissime aziende stanno fortemente puntando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E quindi uscimmo a riveder le stelle

10 Set

Nella sezione:

Hai domande o dubbi?

e’ stata fatta una richiesta davvero molto interessante. Come potete leggere, si chiede come vengano ricostruite le immagini astronomiche che spesso ci vengono mostrate e catturate dai tanti telescopi a terra e in orbita. Questa richiesta sembra apparentemente molto semplice, ma nasconde in realta’ una vera e propria professione. Oggi come oggi, molti astronomi dedicano il loro lavoro proprio alla visione e all’elaborazione di immagini astronomiche. Cerchiamo di capire meglio come funzionano queste tecniche per poter meglio apprezzare anche il lavoro che c’e’ dietro una bella immagine che troviamo sulla rete.

Come sapete bene, al giorno d’oggi, per esplorare l’universo non si utilizzano piu’ solo telescopi nel visibile. In questo caso, come facilmente immaginabile, questi sistemi catturano immagini esattamente come farebbe il nostro occhio. Oltre a questi, si utilizzano telescopi, sia a terra che in orbita, sensibili all’infrarosso, ai raggi X, all’ultravioletto, oltre ad enormi antenne pensate per catturare segnali radio provenienti dal cosmo.

Che differenza c’e’ tra queste radiazioni?

Per capire bene il concetto, vi mostro quello che normalmente si chiama lo spettro della radiazione elettromagnetica:

Spettro della radiazione elettromagnetica

Diverse lunghezze d’onda vengono accorpate in famiglie. Come vedete, la parte visibile, cioe’ quella a cui i nostri occhi sono sensibili, e’ in realta’ solo una strettra frazione dell’intero spettro. Per fare un esempio, tutti conosciamo le immagini infrarosse utilizzate per esempio per identificare le fonti di calore. Bene, questo e’ un esempio di immagine fuori dallo spettro visibile. Si tratta di particolari che i nostri occhi non sarebbero in grado di vedere, ma che riusciamo a visualizzare utilizzando tecnologie appositamente costruite. Non si tratta di immagini false o che non esistono, semplicemente, mediante l’ausilio di strumentazione, riusciamo a “vedere” quello che i nostri occhi non sono in grado di osservare.

Bene, il principio dietro l’astronomia nelle diverse lunghezze d’onda e’ proprio questo. Sfruttando parti dello spettro normalmente non visibili, si riesce ad osservare dettagli che altrimenti sarebbero invisibili.

Per dirla tutta, anche le normali immagini visibili, subiscono un’opera di elaborazione pensata per ricostruire i dettagli e per ottimizzare la visione. Cosa significa? Nella concezione comune, un telescopio nel visibile e’ paragonabile ad una normale macchina digitale. Questo non e’ esattamente vero. Molto spesso, le immagini catturate da questi sistemi sono ottenute mediante una sovrapposizione di dati raccolti utilizzando filtri diversi.

Cosa significa?

Prendiamo come esempio il telescopio Hubble. In questo caso, il sistema acquisisce immagini a diverse lunghezze d’onda, o isolando una particolare frequenza piuttosto che altre. Si tratta di immagini in bianco e nero che poi vengono colorate artificialmente e sovrapposte per formare l’immagine finale. Attenzione, non dovete pensare che la colorazione artificiale sia un trucco per far apparire piu’ belle le foto. Questa tecnica e’ di fondamentale importanza per far esaltare dei particolari che altrimenti verrebbero confusi con il resto. Questa tecnica si chiama dei “falsi colori”, proprio perche’ la colorazione non e’ quella originale ma e’ stata creata artificialmente.

Per capire meglio, proviamo a fare un esempio.

Prendiamo una delle foto piu’ famose di Hubble, quella della galassia ESO 510-G13:

ESO 510-G13 da Hubble

Questa immagine e’ ottenuta con la tecnica del “colore naturale”, cioe’ esattamente come la vedrebbero i nostri occhi se fossero potenti come quelli di Hubble. In questo caso dunque, la colorazione e’ quella che potremmo vedere anche noi ma anche questa immagine e’ stata ottenuta sovrapponendo singoli scatti ripresi dal telescopio.

In particolare, si sono sovrapposte tre immagini in bianco e nero, ognuna ottenuta selezionando solo la radiazione visibile blu, rossa e verde:

ESO 510-G13 immagini a colore singolo

Perche’ viene fatto questo?

Selezionando solo una piccola parte dello spettro visibile, cioe’ il singolo colore, e’ possibile sfruttare il sistema per catturare al meglio i singoli dettagli. In questo modo, come visibile nelle foto, ciascuna immagine e’ relativa ad un solo colore, ma al meglio della risoluzione. Sommando poi le singole parti, si ottiene il bellissimo risultato finale che abbiamo visto.

Analogamente, in alcuni casi, si amplificano determinate lunghezze d’onda rispetto ad altre, per rendere piu’ visibili alcuni dettagli. Anche in questo caso vi voglio fare un esempio. Questa e’ una bellissima immagine della Nebulosa dell’Aquila:

Nebulosa testa d'aquila

Cosa significa amplificare alcuni colori?

Nella foto riportata, oltre ad ammirarla, gli astronomi riescono a vedere le emissioni di luce da parte dei singoli gas costituenti la nebulosa. Questo studio e’ importante per determinare la concentrazione di singoli elementi, e dunque identificare particolari tipologie di corpi celesti. Per capire meglio, nella ricostruzione a posteriori dell’immagine, e’ stato assegnato il colore verde all’emissione degli atomi di idrogeno, il rosso agli ioni di zolfo e il blu alla luce emessa dall’ossigeno ionizzato. Perche’ questo artificio grafico? Se non venisse elaborata, nell’immagine la luce emessa dalla zolfo e dall’idrogeno sarebbero indistinguibili tra loro. Se ora rileggete l’assegnazione dei colori riportata e rivedete l’immagine della nebulosa, siete anche voi in grado di determinare quali gas sono piu’ presenti in una zona piuttosto che in un’altra. Ovviamente questi sono processi che devono essere fatti analiticamente, elaborando le informazioni di ogni singolo pixel.

Analogo discorso puo’ essere fatto per la radioastronomia. In questo caso, come sapete e come anticipato, quelli che vengono registrati sono dei segnali radio provenienti dai diversi settori in cui viene diviso l’universo. Non avendo delle immagini, nei radiotelescopi si hanno degli impulsi radio che devono essere interpretati per identificare il tipo di sorgente, ma soprattutto la zona da cui il segnale proviene.

Per farvi capire meglio questo concetto, vi racconto la storia dell’inizio della radioastronomia. Nel 1929 un radiotecnico americano che lavorava in una stazione di Manila, mentre era al lavoro per eliminare disturbi dalle trasmissioni, si accorse che vi era un particolare rumore di fondo che si intensifica in determinati momenti della giornata. Nello stesso anno, Jansky, un ingegnere della compagnia americana Bell, anche lui al lavoro per cercare di migliorare le comunicazioni transoceaniche, arrivo’ alla stessa conclusione del radiotecnico. L’ingegnere pero’ calcolo’ il momento preciso in cui questi disturbi aumentavano, trovando che il periodo che intercorreva tra i massimi corrispondeva esattamente alla durata del giorno sidereo, 23 ore e 56 minuti. Solo anni piu’ tardi, riprendendo in mano questi dati, ci si accorse che la fonte di questo disturbo era il centro della nostra galassia. I segnali radio captati erano massimi quando il ricevitore passava davanti al centro della galassia, emettitore molto importante di segnali radio.

Oggi, mediante i nostri radiotelescopi, riusciamo ad identificare moltissime sorgenti radio presenti nell’universo e, proprio studiando questi spettri, riusciamo a capire quali tipologie di sorgenti si osservano e da quale punto dell’universo e’ stato inviato il segnale. A titolo di esempio, vi mostro uno spettro corrispondente ai segnali radio captati nell’arco del giorno con un semplice radiotelescopio:

Spettro giornaliero di un radiotelescopio con antenna da 3.3 metri. Fonte: Univ. di Pisa

Come vedete, sono chiaramente distinguibili i momenti di alba e tramonto, il passaggio davanti al centro galattico e quello corrispondente al braccio di Perseo. Come potete facilmente capire, si tratta di misure, chiamiamole, indirette in cui i nostri occhi sono proprio le antenne dei telescopi.

Concludendo, ci sono diversi metodi per pulire, migliorare o amplificare le immagini raccolte dai telescopi sia a terra che in orbita. Quello che facciamo e’ amplificare la nostra vista o utilizzando sistemi molto potenti, oppure ampliando lo spettro delle radiazioni che altrimenti non sarebbero visibili. I telescopi divengono dunque degli occhi sull’universo molto piu’ potenti e precisi dei nostri. Metodi diversi, ottico, UV, IR, radio, ecc, possono aiutare a capire dettagli o strutture che altrimenti sarebbero invisibili in condizioni normali. Detto questo, capite quanto lavoro c’e’ dietro una bella immagine che trovate su internet e soprattutto perche’ la foto ha una specifica colorazione o particolari sfumature.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il metro’ del futuro

19 Giu

In questo blog, diverse volte ci siamo occupati di soluzioni alternative per il risparmio energetico, valutando sia lo stato attuale delle tecnologie verdi, come ad esempio i pannelli solari:

Energia solare nel deserto

Pannelli, pannelli e pannelli

ma soprattutto, cercando di analizzare al meglio quali e quanti sono gli sprechi che ogni giorno facciamo in casa della nostra energia:

Il led rosso dello stadby …

Elettrodomestici e bolletta

Come abbiamo visto, la filosofia di base del ricorrere alle soluzioni a basso impatto e’ certamente valida, ma, prima di tutto, le attuali soluzioni non possono certo essere viste come un punto di arrivo. Senza ombra di dubbio, uno dei migliori modi di risparmiare energia e’ quello di utilizzare al meglio le risolrse attualmente disponibili.

In questo filone, sta richiamando molta attenzione il progetto Seem4US, sviluppato per migliorare l’efficienza energetica delle stazioni della metropolitana. Come forse molti sapranno, le stazioni sotterranee, tolto il discorso ovvio della movimentazione dei treni, necessitano di moltissima energia per poter funzionare. Immaginate anche solo i sistemi di aereazione e illuminazione che consentono di trasformare quelle che altro non sono che caverne in un ambiente adatto al traffico e allo stazionamento di moltissimi utenti.

Il programma Seem4US e’ stato inizialmente proposto da un gruppo di diversi soggetti, alcuni dei quali italiani, nell’ambito del settimo programma quadro dell’Unione Europea. Con questo si intende tutta una serie di progetti, analizzati e valutati da speciali commissioni europee, che, qualora selezionate, vengono finanziate in larga parte con soldi della comunita’ per poter essere portate a termine.

metro_ridimensionato

Seem4US e’ proprio stato sviluppato e realizzato in forma prototipale grazie ai contributi europei.

In cosa consiste?

Prima di tutto, le stazioni, intese come parametri abitativi, cioe’ qualita’ dell’aria, illuminazione, riscaldamento, servizi di mobilita’, ecc., non sono piu’ costanti nel tempo, ma l’accensione o lo spegnimento di questi sistemi e’ gestita in base ad un algoritmo di calcolo.

Immaginate la seguente situazione. E’ inverno, e entrate all’interno di una stazione sotterranea. Quante volte vi sara’ capitato di entrare, trovare un flusso intenso di persone e trovarvi a sentire caldo. Questo e’ del tutto normale se consideriamo che ciascuno di noi puo’ essere paragonato ad una piccola stufetta che emana calore. Ora, anche se fuori fa freddo, in condizioni del genere e’ inutile avere il riscaldamento al massimo. Un sistema intelligente dovrebbe capire la temperatura istantanea in stazione, o meglio valutare il flusso di persone, e poi adattare i servizi.

Questo esempio, estremamente riduttivo, ci fa capire a grandi linee il funzionamento di Seem4US. Gia’ il nome stesso del progetto ci fornisce importanti informazioni. Si tratta infatti di un acronimo che sta per Sustainable Energy Management for Underground Stations.

Ovviamente, i parametri misurati dal sistema sono molteplici, si va dalla temperatura alla velocita’ del vento, fino a indicatori funzionali come: flusso di persone, ore di punta, frequenza dei treni, numero di persone in banchina, ecc. In base poi a questi parametri, il sistema decidera’, seguendo algoritmi preimpostati, come meglio ottimizzare le risorse.

Funziona il sistema?

La risposta e’ ovviamente si. Da stime fatte, si e’ calcolato che il risparmio potrebbe aggirarsi intorno al 10-15% dell’attuale consumo energetico. Per darvi un’idea, il consumo di energia per una stazione media e’ dell’ordine dei 63 milioni di Kwh/anno. Anche ottenere un risparmio solo del 5% darebbe un ottimo contributo al risparmio.

Perche’ non applicarlo in tutte le stazioni?

Per come e’ strutturato, il sistema deve essere calibrato in modo personalizzato per ciascna stazione. Questo e’ reso necessario dal fatto che diverse stazioni hanno diverse strutture, ma soprattutto parametri costruttivi che possono essere completamente differenti. In tal senso, per poter definire al meglio il programma e’ necessario acquisisre dati per un periodo di qualche mese e solo successivamente elaborare il software personalizzato.

Al momento, il primo prototipo di Seem4US sta per essere installato all’interno della stazione Paseo de Gracia della metropolitana di Barcellona. I risultati preliminari di questa applicazione sembrano essere molto promettenti, con risparmi intorno al 10%, e assolutamente migliorabili.

Nella terza fase del progetto, prima fase raccolta dati, seconda fase ottimizzazione, si passera’ anche ad un sistema piu’ evoluto in grado di comunicare direttamente con l’utente. In questo caso, mediante una serie di applicazioni, si potra’ ricaricare il telefono percorrendo le scale a piedi o semplicemnete passeggiando all’interno della stazione. Come e’ noto infatti, il nostro stesso movimento puo’ essere, utilizzando speciali sensori del pavimento, essere trasformato in energia elettrica. Ovviamente, in questo caso, il protocollo di connessione e comunque la potenza del segnale da gestire prevede un ulteriore sviluppo tecnologico attualmente in fase di definizione.

Concludendo, come detto all’inizio, utilizzare al meglio le nostre risorse e’ un importante passo in avanti nella riduzione dell’inquinamento e per cercare di diminuire gli sprechi energetici. Il progetto Seem4US prevede dunque un sistema personalizzato in grado di ridurre notevolmente il consumo energetico di una stazione sotterranea della metro, semplicemente sfruttando le informazioni in real time sul numero di passeggeri e sulle condizioni al contorno ambientali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ora anche i profeti elettronici

11 Apr

Nell’era di internet 2.0 e nel periodo che stiamo vivendo, in cui tutti i giorni qualche simpatico burlone pubblica ipotesi catastrofiste per la fine del mondo, non poteva certo mancare un software profetico.

A cosa mi sto riferendo?

Come forse avrete intuito, sto parlando nuovamente di WebBot. Di questo programma abbiamo parlato in dettaglio in questo post:

La previsione informatica sul 2012

Come visto, si tratta di un software “profetico” basato sull’analisi asimmetrica dei Trend di linguaggio. Detto in parole semplici, questo programma usa degli “spider” per scandagliare la rete in cerca di tutte le informazioni su delle parole chiave inserite dall’utente. A ciascun risultato viene assegnato un valore numerico in base a dei complessi algoritmi di analisi e, al termine della scansione, il webbot fornisce una sorta di previsione futura basandosi sulla informazioni reperite in internet. Si parla di analisi del linguaggio proprio perche’ il software si basa sull’enorme mole di informazioni presenti in rete su siti, forum, blog, ecc.

Perche’ torniamo a parlare di webbot?

Se vi stavate preoccupando perche’ gia’ da qualche giorno non eravamo minacciati da un asteroide che dovrebbe arrivarci in testa, siete subito accontentati. Secondo una notizia che sta circolando in rete, il 14 aprile 2013, cioe’ tra una manciata di giorni, un asteroide di grandi dimensioni dovrebbe colpire la Terra causando enormi danni. Questa previsione sarebbe proprio stata fatta utilizzando il webbot.

Al solito, non per rompere le uova nel paniere, ma secondo voi, se ci fosse un asteroide di grandi dimensioni che impattera’ la Terra tra 3 giorni, non sarebbe visibile? A cosi’ breve distanza temporale, e dal momento che si parla di grandi dimensioni, sicuramente questo corpo sarebbe gia’ perfettamente visibile ad occhio nudo.

Dunque? Perche’ viene data questa notizia?

Come visto in questo articolo:

Lezione n.1: come cavalcare l’onda

a seguito dell’asteroide esploso in atmosfera sopra gli Urali a febbraio:

Pioggia di meteore in Russia

e’ scoppiata una vera e propria psicosi asteroide. Al solito, quello di Chelyabinsk e’ stato un evento reale e ci sono stati molti feriti, ma, da qui in poi, non passa giorno in cui non ci sia qualche sito che pubblica notizie di asteroidi precipitati in qualsiasi parte del mondo.

A cosa serve questo meccanismo?

In primis ad alimentare il sospetto ed il terrore, ma anche per continuare a propinare l’idea dell’esistenza di Nibiru. Come visto in questo articolo:

Nibiru: la prova del trattore gravitazionale

una delle principali ipotesi portate a sostegno dell’esistenza di Nibiru, sarebbe un aumento del numero di asteroidi lanciato verso la Terra. Come visto nell’articolo, questa ipotesi e’ completamente falsa. Nonostante questo, proprio il caso di Chelyabinsk ha riacceso gli animi ed offerto un’occasione da non perdere ai tanti siti catastrofisti che ormai conosciamo molto bene.

Da dove e’ uscita fuori la notiza del 14 Aprile?

Come detto, e questo e’ vero, si tratta di una previsione informatica fatta dal WebBot. E’ possibile che il sotware abbia sbagliato? No, non e’ possibile, e’ certo!

Capiamo il perche’.

Come visto anche nel precedente articolo, questo programma fu sviluppato per cercare di prevedere l’evoluzione della situazione di borsa. In questo caso, l’uso degli spider era fondamentale per cercare in rete, tra l’enorme mole di informazioni, notizie utili su una determinata societa’. In questo modo, si poteva valutare se comprare o meno quelle azioni. Ovviamente si tratta di un programma di analisi numerica, non certamente di un profeta infallibile. Se fosse vero il contrario, ognuno di noi saprebbe con anticipo cosa dovrebbe avvenire in borsa e saremmo tutti ricchi grazie ad investimenti certi.

Come potete capire, il webbot puo’ dare delle indicazioni, ma non e’ assolutamente detto che siano certe. Per come e’ costruito l’algoritmo di analisi, il tutto deve essere preso come una previsione accompagnata da un livello di incertezza notevole.

Ora, torniamo al nostro caso. Immaginate di far partire il webbot inserendo come chiave di ricerca la parola “asteroide”. E’ possibile che vi ritorni una previsione di impatto con la Terra? Assolutamente si. Come detto in precedenza, dopo il caso russo, tutti i giorni si pubblicano notizie di asteroidi caduti in diverse parti del mondo. Dunque, in questo senso, proprio il dilagante catastrofismo mediatico ha probabilmente portato fuori strada la previsione informatica.

Inoltre, sempre legato a questo, vorrei anche aprire una parentesi su quanto detto dal capo della NASA al Senato degli USA. Alla domanda: “cosa dovremmo fare se un asteroide puntasse verso la Terra e lo scoprissimo solo pochi giorni prima dell’impatto?”, Bolden ha risposto semplicemente “pregate”.

Questa risposta ha scatenato un putiferio sulla rete. Tantissimi siti parlano di un’agenzia spaziale degli Stati Uniti a conoscenza di un imminente impatto. Si e’ nuovamente tornati a parlare di ipotesi complottiste e di tutte quelle fantasie che abbiamo cominciato a vedere parlando di 2012.

Perche’ e’ stata data questa risposta? Prima di tutto, la domanda non lasciava spazio a nulla. Come riportato, si parlava di un asteroide in rotta certa verso la Terra e che verrebbe scoperto solo pochi giorni prima dell’impatto.Secondo voi, cosa avrebbe dovuto rispondere Bolden?

Inoltre, teniamo conto che la NASA, anche a seguito di quanto avvenuto in Russia, sta cercando di ottenere nuovi fondi per i programmi di difesa da asteroidi. Di queste soluzioni abbiamo parlato in questo post:

Asteroidi: sappiamo difenderci?

Dunque, capite bene che la risposta data dal capo della NASA e’ perfettamente lecita, anche se forse Bolden doveva immaginare l’eco che questa sua affermazione avrebbe avuto.

Concludendo, non c’e’ assolutamente nessun pericolo per il 14 Aprile 2013. In questo caso, si tratta solo di una previsione fatta mediante webbot che, con buona probabilita’, e’ stata proprio influenzata dalle tante notizie false pubblicate sulla rete circa asteroidi che cadono sulla Terra e improbabili avvistamenti di nuovi corpi orbitanti e potenzialmente pericolosi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Garfagnana: ulteriore documentazione e considerazioni

2 Feb

Nel post precedente, abbiamo parlato dell’allarme lanciato la notte scorsa per un probabile nuovo forte terremoto nella zona della Garfagnana:

Garfagnana: cosa succede, cosa succedera’?

Come abbiamo visto, si e’ trattato di un falso allarme dovuto ad una comunicazione sbagliata tra INGV, protezione civile e sindaci dei comuni interessati.

A riprova di questo, vorrei anche mostrarvi il famoso comunicato che e’ stato inviato dall’INGV alla protezione civile:

Una foto del comunicato inviato dall'INGV alla protezione civile

Una foto del comunicato inviato dall’INGV alla protezione civile

Come vedete, il testo riporta esattamente quello che abbiamo detto nel post precedente. Si parla di ipotesi di una nuova faglia e dunque della possibilita’ che nuovi eventi potrebbero verificarsi nella zona in esame.

Come detto nel post precedente, questo comunicato e’ stato inviato dalla sala controllo sismologica dell’INGV ed, in particolare, e’ stato inviato dal Dr. Gianluca Valensise, funzionario di sala dell’INGV. Dopo il polverone scatenato da questo comunicato, l’INGV ha anche rilasciato delle dichiarazioni di Valensise che spiega per filo e per segno quello che e’ accaduto in quella giornata.

Vi invito ad ascoltare la registrazione dell’intervento di Valensise a questo indirizzo internet:

Valensise, mp3

Come vedete, tutto torna alla perfezione, anche se restano valide le considerazioni fatte nel post precedente circa l’allarme lanciato per la popolazione locale, ma soprattutto per la nuova psicosi terremoto in corso, ovviamente completamente giustificata e non biasimabile.

Prima di concludere, vorrei pero’ fare anche delle nuove considerazioni circa questo caso. In particolare, vorrei commentare la sentenza del tribunale dell’Aquila a seguito dei fatti del 2009. Come sicuramente saprete, nel processo sono stati accusati e condannati esponenti scientifici che non avrebbero comunicato la certezza del forte terremoto che poi ha distrutto l’Aquila e molti altri paesi del circondario.

Ora, come detto e ribadito molte volte, non si e’ in grado assolutamente a livello scientifico di prevedere un terrremoto. Con questo si intende che la scienza non ha in mano nessuno strumento infallibile ed in grado di prevedere esattamente luogo, data e intensita’ di un terremoto. Diverse volte abbiamo parlato di metodi proposti a questo scopo, ma anche di falsi profeti che spopolano su internet su queste questioni. Come visto piu’ volte, tutti i metodi proposti non assicurano la certezza della previsione, anzi, in alcuni casi, si tratta di vere e proprie lotterie della previsione senza nessun fondamento scientifico reale.

Potete leggere le motivazioni di questa famosa sentenza e il commento dell’INGV, a questo indirizzo:

Sentenza tribunale Aquila

Perche’ parlo della sentenza dell’Aquila? Semplice, il clima di caccia alle streghe creato da questa sentenza non fa altro che alimentare il terrore ed il sospetto nei confronti della scienza. Lungi da me mettere in discussione l’operato dei giudici, ma trovo assurdo parlare di mancata comunicazione di terremoti nel momento in cui un terremoto non puo’ essere predetto.

Ora, se pensiamo a quanto accaduto in Garfagnana, ci rendiamo conto che siamo in una situazione del tipo “me ne lavo le mani” e per qualsiasi cosa mando un comunicato e metto tutto nero su bianco. Premesso che, come detto, c’e’ stato un errore di comunicazione nel caso in questione, credo che, alla luce di quanto accaduto, sia assolutamente giustificabile il comportamento dell’INGV di comunicare tutto agli organi preposti.

Certo, si potrebbe pensare “meglio un falso allarme che molti morti”. Questo e’ un pensiero condivisibile e giusto, pero’ smentisce molte delle critiche che oggi vengono riportate sui giornali sul fatto che i sindaci della Garfagnana hanno sbagliato a far evacuare tutte le persone per un allarme che in realta’ non c’era. Addirittura c’e’ chi parla di denunciare i sindaci per procurato allarme.

A questo punto, non si capisce allora come procedere. Non si possono prevedere terremoti. Se c’e’ un rischio, tangibile o meno, di terremoto e si lancia un allerta, se il terremoto non ci sara’ ci si becca una denuncia per procurato allarme. Se non si lanciano allerte e c’e’ un terremoto, ci si becca una condanna da parte del tribunale.

Come si dovrebbe procedere?

Personalmente non credo ci sia una via di uscita da questa situazione creata probabilmente dal clima di sospetto e di odio creato sul fenomeno terremoti.

Vorrei anche aggiungere un pensiero. Molte volte in questo tiro alla corda tra enti di ricerca, protezione civile, sindaci, regioni e cittadini, entra anche la politica con molti esponenti pronti a giudicare o a commentare sentenze o dati scientifici. Sempre secondo il mio personale pensiero, i nostri governanti piuttosto che alimentare il clima di odio creato, dovrebbero pensare a mettere in sicurezza gli edifici e ad investire in questo senso i soldi della comunita’. Come detto in diverse occasioni, anche se non siamo in grado di prevedere i terremoti, la cosa migliore da fare e’ prevenire i morti ed i danni. E’ vero che molti dei nostri edifici sono antichi e costruiti senza criteri sismici, ma mettendoli in sicurezza, possiamo sicuramente ridurre i rischi di un terremoto. Questa sarebbe veramente una mossa intelligente da fare e forse l’unica allo stato attuale che permetterebbe di fare prevenzione sui terremoti!

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Garfagnana: cosa succede, cosa succedera’?

1 Feb

Quanto accaduto ieri sera in alcune zone della Garfagnana, in provincia di Lucca, ha quasi dell’incredibile. Come molti di voi sapranno, l’intera zona e’ stata teatro di diverse scosse di lieve intensita’, tranne una di magnitudo maggiore, che ormai perdurano di diversi giorni.

Proprio ieri sera, intorno alle 22, e’ scattato l’allarme da parte dei sindaci di 16 paesi della zona. Allarme lanciato inizialmente via twitter, e che poi, sempre attraverso i social network, ha raggiunto praticamente tutte le case. L’allerta parlava di possibili forti scosse per la notte e chiedeva ai cittadini, parliamo di circa 30000 persone interessate, di lasciare le proprie abitazioni e di recarsi nei punti di raccolta.

Perche’ e’ stato lanciato l’allarme? Leggendo quanto riportato dai giornali, i sindaci avrebbero ricevuto una comunicazione dalla protezione civile che parlava di questa allerta per nuove scosse in arrivo. A sua volta, la protezione civile aveva ricevuto questa comunicazione da parte dell’Istituto Nazionale di Geofisica e Vulcanologia. In particolare, l’allarme proveniva proprio dalla sala controllo sismica dell’INGV che ha ottenuto questa informazione dall’elaborazione dei dati misurati sul territorio sfruttando software di simulazione.

Bene, anche se il discorso di rimbalzo della notizia puo’ sembrare complicato, il succo della cosa e’ che l’INGV avrebbe analizzato i dati e ottenuto che nelle prossime ore ci sarebbe stato un forte terremoto e da qui ha subito lanciato un bollettino di allerta alla protezione civile.

In diversi post su questo blog abbiamo parlato di terremoti, solo per darvi un esempio:

Analisi statistica dei terremoti

Riassunto sui terremoti

Dati falsi sui terremoti

Terremoti, basta chiacchiere. Parliamo di numeri

e tutte le volte abbiamo detto che i terremoti, allo stato attuale, non possono essere predetti. In questo caso invece, troviamo l’INGV, cioe’ il massimo ente di controllo e monitoraggio dei terremoti, che predice un terremoto nelle prossime ore.

Cosa cambia ora? Abbiamo detto cose false su questo blog? E’ cambiato qualcosa a livello scientifico?

Partendo dall’utima domanda, purtroppo non e’ cambiato nulla, i terremoti non possono ancora essere predetti a livello scientifico e con precisione.

Quella che e’ cambiata e’ solo la nostra coscienza e la psicosi terremoto. Negli ultimi anni, abbiamo visto diversi terremoti distruttivi in Italia e il nostro ricordo dell’Aquila e dell’Emilia, ma anche del continuo sciame nel Pollino, e’ sempre vivo. Oggi, a differenza di ieri, abbiamo paura del terremoto.

Ovviamente la paura non puo’ far prevedere i prossimi terremoti quindi, chiusa la breve parentesi psicologica, cerchiamo di capire cosa e’ successo veramente ieri notte in Garfagnana.

Come sappiamo, verso la fine di gennaio c’e’ stato un terremoto di M4.8 nella zona e, come detto in precedenza, da questo si sono avute una lunga serie di scosse di assestamento che continuano ancora oggi. L’INGV monitora in continuazione la zona, e, due volte al giorno, rilascia dei comunicati per la protezione civile per informarla circa gli sviluppi, il numero di scosse registrate, l’andamento delle scosse di assestamento, ecc.

Eventi sismici in provincia di Lucca al 31/1

Eventi sismici in provincia di Lucca al 31/1

Fin qui tutto normale.

Ieri mattina, l’INGV ha rilasciato il suo solito comunicato, ma con un’informazione aggiuntiva. Dalla mappa delle scosse registrate, una cartina esattamente come quella mostrata in alto, si sono evidenziate delle scosse con epicentro leggermente spostato rispetto all’area circoscritta. Utilizzando un modello matematico per il calcolo delle probabilita’, l’INGV ha ottenuto come risultato che queste nuove scosse potevano essere dovute ad una nuova faglia e che questa, a causa del rilascio di energia in una zona diversa, avrebbe potuto causare nuove scosse.

Cosa e’ successo a questo punto?

Il comunicato e’ stato mandato alla protezione civile che, al contrario di quanto viene fatto di solito, cioe’ tenere le informazioni per lei dal momento che si tratta di comunicati non pubblici, ha girato l’informazione ai sindaci. Questi, leggendo della possibilita’ di nuove scosse, hanno dato l’allarme per la notte e deciso l’evacuazione delle case.

Analizziamo queste informazioni per chiarire meglio.

Perche’ il comunicato non e’ pubblico? Assolutamente non c’e’ nessuna intenzione di tenere nascoste informazioni vitali. si tratta di comunicati “tecnici” con terminologia “tecnica” che deve essere interpretata da “tecnici”. I sindaci fanno i sindaci, e non sono esperti di sismologia. Leggendo della possibilita’ di nuove scosse, hanno dato l’allarme e proceduto con l’evacuazione.

A questo punto dovrebbe essere chiaro lo scambio avvenuto e che ha portato all’allarme.

Analizziamo pero’ quanto contenuto nel comunicato per cercare di capire cosa potrebbe succedere nelle prossime ore e nei prossimi giorni.

L’analisi software ha mostrato la possibilita’ di una nuova faglia causa di alcune scosse di assestamento. Ovviamente parliamo di possibilita’. Ora, con una certa probabilita’ questa nuova faglia potrebbe non esistere e le scosse potrebbero quindi appartenere allo sciame ancora in corso.

Se cosi’ fosse, siamo di fronte a scosse di assestamento a seguito del sisma di M4.8 gia’ avvenuto. Se cosi’ non fosse, cioe’ se esistesse veramente una nuova faglia, non e’ detto che ci sia necessariamente un sisma di grande intensita’. Come visto nel post sul Pollino:

La sequenza del Pollino

in presenza di uno sciame sismico, l’evoluzione nel tempo non e’ assolutamente determinata e univoca. Possono esserci sciami che durano mesi e terminano come sono iniziati con scosse lievi, oppure si puo’ assistere ad un crescendo di scosse che portano ad un evento di alta magnitudo, come nel caso dell’Aquila per fare un esempio.

Detto questo, e’ ovvio che l’INGV comunichi tutte le informazioni agli organi preposti e che questi elaborino le informazioni e decidano se predisporre piani di sicurezza o meno. Ovviamente l’INGV, come ente di ricerca, si occupa di terremoti, assolutamente non di piani di evacuazione.

Come anticipato, i terremoti avuti negli ultimi anni, hanno creato una psicosi collettiva per cui al primo allarme si attuano tutte le soluzioni possibili. Se ci pensate, in Emilia e’ accaduto un fatto analogo. Dopo la prima violenta scossa, durante le scosse di assestamento, si e’ registrato un nuovo potente terremoto dovuto ad una faglia diversa. Avendo una situazione potenzialmente simile in Garfagnana, si e’ deciso di ricorrere ad una soluzione drastica.

Possiamo biasimare l’evacuazione? Non mi sento assolutamente di fare una cosa del genere. Stiamo pero’ molto attenti a non eccedere in senso opposto. Se si tratta dello stesso sciame di assestamento, e che magari puo’ durare mesi, teniamo 30000 persone nei palasport? Ora, dopo l’evacuazione, come spieghiamo alle persone che possono tornare a casa perche’ si trattava di un falso allarme mentre la terra ancora trema?

La situazione e’ molto delicata e va gestita con particolare premura da parte degli organi preposti.

Ultima cosa importante e che ci tengo a sottolineare. Come anticipato, allo stato attuale, non e’ possibile prevederere i terremoti. Di questo abbiamo parlato in diversi post:

Prossimi terremoti secondo la statistica

Allineamenti, terremoti e … Bendandi

Terremoti, Pollino, Giuliani, Radon, L’Aquila ….

Anche se in questo caso nessuno ha in realta’ parlato di prevedere un terremoto, fate molta attenzione alle notizie che leggete in rete e cercate di filtrare in modo opportuno. Come era prevedibile, non stanno tardando ad arrivare le immancabili speculazioni su questi fatti e sullo sciame della Garfagnana. Su diversi siti si comincia a parlare di prossimi terremoti attesi, dell’INGV che non comunica tutte le notizie in suo possesso o di organi paralleli in grado di prevedere l’evoluzione delle prossime ore. Tutte notizie false!

Concludendo, non c’e’ assolutamente nessun mistero su quanto avvenuto l’altra sera in Garfagnana, ma solo un non corretto scambio di informazioni e di interpretazione dei bollettini. L’evoluzione dei prossimi giorni non e’ assolutamente certa ma la cosa piu’ importante e’ che si continui a monitorare 24 ore su 24 tutta la zona e a dare l’allarme ad ogni variazione significativa registrata.

 

Per chi e’ interessato, leggete anche: “Garfagnana, ulteriore documentazione e considerazioni

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Che la ISON abbia pieta’ di noi!

2 Gen

Ho ricevuto molti commenti e messaggi da parte di lettori che chiedevano maggiori informazioni riguardo alla cometa ISON. Di questo corpo celeste abbiamo gia’ parlato in diverse occasioni:

2013 o ancora piu’ oltre?

E se ci salvassimo?

Come sappiamo, la ISON passera’ alla minima distanza dalla Terra intorno alla fine di Dicembre del 2013 e come abbiamo piu’ volte ripetuto, questa corpo, al calcolo attuale della traiettoria, non ha probabilita’ di impatto con la Terra. Cio’ che rende particolarmente interessante questa cometa, e’ la sua distanza al perielio e il fatto che al momento non ha subito stress termici ne meccanici. Se le previsioni sono esatte, questa cometa potrebbe avere una magnitudo negativa e questo la renderebbe perfettamente visibile ad occhio nudo anche in pieno giorno. Se tutto rimanesse invariato, la ISON sarebbe molto piu’ luminosa sia di Venere che della Luna, con una lunga coda visibile dall’emisfero boreale.

Nonostante questa premessa, molti chiedono ancora novita’ riguardo a questa cometa, anche perche’ sui soliti siti catastrofisti si comincia a parlare molto insistentemente di questo passaggio a Dicembre, parlando di probabile impatto con la Terra.

Detto questo, vorrei fare un gioco al contrario. Questa volta vorrei fare io la parte del catastrofista, anticipando i tantissimi siti di cui spesso abbiamo parlato, mostrandovi un video molto interessante che ho preparato.

Guardate e giudicate:

Come avete capito si tratta di una simulazione dell’orbita della ISON all’interno del sistema solare da giugno 2013 fino a Febbraio 2014, quando la cometa sara’ passata.

Avete visto bene? Cosa dovrebbe succedere il 29 Dicembre 2013?

Dal video si vede chiaramente come la cometa dovrebbe impattare la Terra in questa data. Ma allora? Tutto quello detto fino a questo punto e’ falso?

Assolutamente no. Come vi ho anticipato, mi sono divertito anche io a fare la parte del catastrofista, costruendo questo video. Per essere precisi, il video e’ reale, non l’ho costruito da zero, ma ho utilizzato i dati ed il software della NASA che trovate nelle pagine del programma di studio degli oggetti vicini alla Terra. Di questo programma abbiamo gia’ parlato in diverse occasioni e lo trovate a questo indirizzo:

NASA NEO program

A questo punto, basta temporeggiare e’ il caso di dire come stanno in realta’ le cose. Se il video e’ reale, perche’ non c’e’ probabilita’ di impatto con la Terra?

Il video mostrato e’ girato con una prospettiva schiacciata rispetto al piano dei pianeti del sistema solare. L’orbita della ISON interseca il sistema solare con una traiettoria quasi ortogonale a questo piano. Per dirlo in altre parole, stiamo guardando il video dalla prospettiva sbagliata per cui tutto ci appare schiacciato sullo schermo. Notate prima di tutto un dato importante. Sul video viene mostrato giorno per giorno la distanza tra la cometa e la Terra. Al 29 Dicembre 2013, giorno del presunto impatto, la distanza e’ di 0.431 unita’ astronomiche, cioe’ circa 65 milioni di kilometri. Direi che dunque e’ ben lontana dall’impatto.

A riprova, vi mostro due video girati da una prospettiva diversa. Cominciamo da questo in cui abbiamo girato solo poco la visuale:

Come vedete al minimo avvicinamento ora i due corpi non sembrano piu’ collidere. Giriamo adesso completamente la prospettiva e mettiamoci proprio sul piano dei pianeti del sistema solare:

Adesso tutto e’ perfettamente chiaro. Vedete che, dopo il passaggio al perielio, cioe’ la minima distanza dal Sole, la ISON si muove su un’orbita ben piu’ alta di quella della Terra.

Questo e’ stato un semplice esperimento catastrofista. Come avete visto, mi sono limitato ad utilizzare un software della NASA per farvi vedere le cose come volevo che le guardaste. Questa e’ la riprova di come sia semplice far apparire le cose diverse dalla realta’.

Ora l’esperimento e’ concluso, siamo riusciti ad anticipare i catastrofisti mostrando noi un possibile video da far girare in internet. Questa volta pero’ e’ venuta prima la spiegazione della catastrofe!

Detto questo, parliamo invece un po’ di scienza, andando leggermente piu’ a fondo nei dettagli di questa cometa.

La ISON e’ una cometa radente non periodica. Molte semplicemente potete capire che il “non periodica” significa che non e’ un corpo su un orbita chiusa e dunque non ci saranno passaggi successivi oltre a quello del 2013. Radente significa invece che il suo perielio sara’ molto vicino alla superficie del Sole. Proprio questa caratteristica rende la sua sopravvivenza molto incerta. Esiste infatti la probabilita’ che la cometa venga distrutta al passaggio vicino al Sole, cosi’ come e’ ad esempio successo per la Elenin, di cui abbiamo parlato in questo post:

Nibiru e’ monitorato dall’osservatorio di Arecibo?

La ISON e’ stata scoperta il 21 Settembre 2012 da due astronomi russi e al momento si trova in prossimita’ dell’orbita di Giove, come possiamo vedere da questa immagine:

La posizione della ISON al 2 Gennaio 2012

La posizione della ISON al 2 Gennaio 2012

Per quanto rigarda i parametri fisici e orbitali della cometa, possiamo al solito interrogare il database del programma NEO. Troviamo tutte le informazioni alla pagina dedicata:

NASA NEO ISON

Allo stesso indirizzo trovate anche l’applet per visualizzare l’orbita della cometa, che ho utilizzato per realizzare i video che abbiamo discusso in precedenza.

Dunque? A questo punto possiamo fare delle conclusioni molto importanti. Prima di tutto, come dimostrato, non vi e’ nessun pericolo che la cometa possa impattare sulla Terra al suo passaggio alla minima distanza. Per dirla tutta, ad oggi non siamo in grado di stimare se la cometa potra’ sopravvivere al passaggio al perielio.

L’altra conclusione importante e’ legata invece al solito complottismo che dilaga in rete. Come avete visto, la ISON e’ una cometa conosciuta. Fin dalla sua scoperta ne abbiamo parlato senza remore e senza nascondere nessun dato importante. Tra l’altro, tutti i parametri mostrati sono stati presi dal solito database della NASA che, ripeto nuovamente, e’ pubblico e liberamente accessibile a tutti.

Inoltre, in questo caso abbiamo fatto un chiaro esempio di distorsione catastrofista. Come mostrato, e’ molto facile modificare a nostro favore prove video o fotografiche per far apparire le cose diverse da quello che sono in realta’. Fate sempre attenzione alle informazioni che trovate in rete. Molto spesso si pubblicano articoli e discussioni con il solo scopo di aumentare l’allarmismo e diffondere il terrore.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La previsione informatica sul 2012

24 Set

Oggi, praticamente tutta la nostra vita e’ in qualche modo regolata o messa in relazione con il computer. I sistemi informatici consentono di controllare quasi tutti gli aspetti legati alla sicurezza, ai trasporti e alla nostra vita. Come ci insegnano molti film fantascientifici, il massimo desiderio (per qualcuno) potrebbe essere un computer in grado anche di prevedere il futuro.

Sembra strano, ma qualcosa del genere e’ stato gia’ pensato e realizzato, ovviamente nei limiti del possibile. Stiamo parlando del programma chiamato WebBot. Questo software, sviluppato negli anni ’90, e’ stato pensato per prevedere a breve distanza il comportamento dei mercati azionari. In altre parole, il programma doveva prevedere, con una certa incertezza, il comportamento a breve termine dei titoli, dei mercati, delle valute, ecc.

Come funziona il WebBot? L’idea di base del programma e’ abbastanza semplice. Dando delle parole chiave in ingresso, il software fa una scansione del web alla ricerca di frasi che contengano queste parole. Questo algoritmo e’ del tutto equivalente a quello che utilizzano i motori di ricerca, ma la differenza e’ nell’utilizzo dei risultati trovati. Il WebBot assegna un punteggio a ciascuna parola trovata insieme a quelle cercate, prendendo in considerazione le frasi, i siti e le date trovate. Alla fine della ricerca, il programma fornisce delle parole in uscita che, con una certa probabilita’, possono essere associate a quelle cercate.

Vi faccio un esempio per capire meglio. Se mettessimo in ingresso il nome di una societa’ quotata in borsa e il programma fornisse in uscita le parole: crisi, licenziamenti, chiusura e stabilimenti, ovviamente non comprereste le azioni di quella societa’. Come detto in precedenza, i risultati sono sempre forniti con una probabilita’, piu’ e’ alta, maggiore sara’ la percentuale di successo del programma.

Come potete facilmente immaginare, il WebBot esegue una scansione non sono sulle pagine in chiaro. Nell’esempio precedente, se sul sito della societa’ in esame ci fosse scritto: domani chiudiamo gli stabilimenti e dichiariamo il fallimento … non servirebbe un programma di questo tipo.

Su web si parla anche di predizioni senza parole chiave in ingresso. Questo e’ possibile, ma il programma fa iniziare la ricerca utilizzando le parole piu’ cercate su web nell’ultimo periodo. Proprio per questo a volte il software viene definito come una “coscienza intrinseca”. Come potete facilmente immaginare, se volete una previsione su qualcosa di specifico, conviene utilizzare le parole chiave.

Logo del WebBot project

Cosa c’entra il WebBot con il 2012? Ci stiamo arrivando.

Agli inizi del 2000, si penso’ di provare ad utilizzare il software anche per scopi diversi da quelli di borsa. Secondo quest’idea, inserendo parole chiave diverse, si potrebbe utilizzare il programma come una sorta di oracolo informatico.

Sulla rete trovate che la prima grande profezia del programma venne formulata ad Giugno del 2001. In questo caso WebBot previde un grande sconvolgimento mondiale nei successivi 60-90 giorni. Solo successivamente si mise in relazione questa profezia con quello che accadde l’11 Settembre 2001.

Questo e’ molto affascinante, ma con buona probabilita’ e’ falso. In rete tutte le informazioni su questa profezia sono successive al Settembre 2001. Come potete capire, e’ sempre facile fare profezie dopo che gli avvenimenti sono accaduti.

Questa storia e’ molto simile a quella che abbiamo gia’ discusso sulla profezia di Malachia o sul codice segreto della Bibbia che trovate in questi post:

2012 e la profezia di Malachia

Il codice segreto della Bibbia

Tra le altre profezie false attribuite a WebBot c’e’ anche la previsone di una conferenza che sarebbe stata indetta da Obama, nel Settembre 2009, per annunciare l’esistenza di forme di vita extraterrestre. Mi sembra evidente che questo non sia avvenuto.

Arrivando invece al 2012, in questi ultimi tempi si sta diffondendo in rete la voce che questo programma sarebbe in grado di prevedere i terremoti e di fare profezie sul 2012.

Riguardo ai terremoti, la smentita puo’ essere fatta con un semplice ragionamento. Se il programma sfrutta i risultati web, con un algoritmo preciso, per trovare informazioni probabili, come potrebbe trovare notizie future sui terremoti? Stiamo parlando di fenomeni non deterministici, non prevedibili e di cui anche una coscienza misteriosa del web non potrebbe avere informazioni prima dell’avvenimento stesso. Alla luce di questo, e per completezza, capite subito che tutte le previsioni di terremoti passati attribuite a WebBot sono in realta’ delle bufale.

Sul 2012 invece, si trovano due informazioni distinte. Nel primo caso, il programma non sarebbe in grado di fare previsioni tra Dicembre 2012 e Maggio 2013, nel secondo invece avrebbe trovato parole chiave del tipo: “grande cambiamento”, “molte vittime”, “ufo” e simili.

Per quanto riguarda il buco tra Dicembre e Maggio, questo sarebbe giustificato dai filo catastrofisti come il periodo di grandi cambiamenti successivi al 21 Dicembre e prima della nuova era. Avendo gia’ spiegato come funziona il programma, capite da subito come anche in questo caso siamo in presenza di un falso creato appositamente per incrementare le voci sul 2012. Analogo discorso vale per le parole attribuite a WebBot.

Come detto in altri post, le tante voci che ogni giorno vengono fatte circolare sul web servono soltanto ad aumentare la confusione sul 2012 ed insinuare l’idea che qualcosa sta per accadere. Ripetiamo di nuovo, non credete a voci infondate non basate su dati o su verita’ inconfutabili. Il ragionamento e il senso critico sono le uniche armi per fare luce su queste profezie. Per analizzare scientificamente le profezie sul 2012 e comprendere aspetti a volte ostici della scienza ufficiale, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.