Tag Archives: informatica

Chi e’ Eugene Goostman?

10 Giu

Oggi, moltissimi giornali hanno riportato una notizia molto interessante anche se, come spesso accade, alcuni giornalisti si sono limitati a fare copia/incolla o, peggio ancora, non documentandosi bene prima di scrivere, hanno arricchito i loro articoli di cosa alquanto fantasiose.

Visto che sicuramente avrete letto la notizia a cui mi riferisco, mi limito ad un breve riassunto: il 7 giugno, in occasione del 60esimo anniversario della morte di Alan Turing, un software e’ riuscito a superare il cosiddetto Test di Turing.

In cosa consiste questo test?

Immaginiamo di avere 3 persone: A, B e C. A e B, non necessariamente in ordine giusto, sono un uomo e una donna. C, che si trova in un’altra stanza, deve indovinare mediante una serie di domande dattiloscritte, chi e’ l’uomo e chi la donna. Su questa base, Turing sviluppo’ il suo test per verificare la bonta’ di un’intelligenza artificiale. Se uno dei due tra A e B e’ una macchina, cioe’ un software, C deve indovinare chi e’ l’umano e chi il programma informatico.

Cosa significa tutto questo?

Molto semplice, se il software riesce a farsi passare per un umano, cioe’ e’ in grado di ragionare come una persona in carne e ossa, allora siamo di fronte ad una vera e propria intelligenza artificiale in grado di cammufarsi tra gli umani.

Leggendo queste righe, sicuramente vi saranno venuti in mente moltissimi scenari, o film, di fantascienza in cui le macchine si confondono tra gli esseri umani e sono in grado di ragionare e provare emozioni. Lo scopo del test di Turing e’ proprio quello di verificare quanto una macchina sia in grado di ragionare, dunque elaborare pensieri complessi e non solo rispondere ad una serie di istruzioni gia’ scritte.

Del genio di Alan Turing abbiamo gia’ parlato in un articolo specifico:

Un perdono atteso 70 anni

In particolare, in questo articolo abbiamo parlato di Turing in relazione al suo lavoro durante la seconda guerra mondiale e il suo ruolo di primo piano nella decriptazione dei messaggi della macchina Enigma. Turing fu un vero e proprio genio dei suoi tempi e uno dei padri della moderna informatica. Come visto nell’articolo precedente pero’, la sua omosessualita’, contestualizzata al momento storico in cui visse, gli costo’ molto cara e questo “reato” lo spinse al suicidio esattamente il 7 Giugno 1954.

Proprio nell’ambito dei suoi studi sull’intelligenza artificiale, Turing formulo’ il test di cui abbiamo parlato, prendendo spunto dal “Discorso sul metodo” di Cartesio. Nel corso degli anni, diversi software hanno provato a superare il test sempre fallendo.

Come funziona il test?

Da quanto detto in precedenza, un giudice deve riconoscere, mediante un numero limitato di domande o comunque in un tempo prefissato, un programma informatico da una persona in carne e ossa. Ovviamente, non abbiamo un singolo giudice ma una vera e propria giuria. Nel regolamente ufficiale, ogni giudice ha a disposizione 5 minuti di domande e il test si ritiene superato se almeno il 30% dei giudici confonde il software per un umano.

Dunque? E’ stato superato o no questo test?

Dal regolamento riportato, il test e’ stato effettivamemte superato dal momento che, nella prova del 7 giugno di quest’anno, il 33% dei giudici, cioe’ un terzo della giuria, ha scambiato la macchina per un essere umano.

Che tipo di software e’ stato utilizzato?

Come sicuramente avrete letto, il software si chiama Eugene Goostman, che poi e’ il nome completo di un ragazzo ucraino di 13 anni, che e’ il personaggio simulato dal programma. Questo portentoso software e’ stato sviluppato da tre programmatori e’ gia’ nel 2006 era andato molto vicino a superare il test con il 29% dei giudici ingannati.

computer supera il test di Turing

Per chi avesse dubbi sulla regolarita’ della prova, il test e’ stato condotto adirittura alla Royal Society di Londra nel corso, appunto, delle celebrazioni per i 60 anni della morte di Turing.

Cosa dire su questo risultato?

Sicuramente si tratta di un passo molto importante per lo sviluppo dell’intelligenza artificiale ma cerchiamo di non scadere anche nei nel sensazinalismo. Per prima cosa, il software, come richiesto dal test, ha superato la soglia del 30%, ma siamo ben lontani dall’aver ingannato tutti i giudici. Alcuni scettici puntano il dito sul fatto che il personaggio simulato fosse un ragazzino di soli 13 anni e non madrelingua inglese. Questo particolare potrebbe aver tratto in inganno alcuni giudici che potrebbero aver pensato ad informazioni non note per la giovane eta’ o a problemi di comprensione dovuti alla diversita’ linguistica.

A parte questo, il test e’ stato comunque superato. Sicuramente, la pubblicita’, assolutamente giusta dal mio punto di vista visto il risultato storico, contribuira’ a far crescere gli investimenti nella ricerca per l’intelligenza artificiale che, test a parte, potrebbe trovare applicazione in moltissimi settori. Per darvi un’idea, la stessa Google ha da poco investito ingenti capitali in questo settore, circa 400 milioni di dollari, per acquisire societa’ piu’ piccole ed incentivare lo sviluppo di software sempre piu’ pensanti. Per chi volesse provare un sistema di questo tipo, anche se molto meno raffinato di Eugene Goostman, ci sono due possibilita’: i sistemi di assistenza vocale dei moderni cellulari (Siri per fare un esempio) o programmi online apprendenti:

Tobby chat bot

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Sperimentazione animale

2 Gen

Sul forum di Psicosi 2012:

Psicosi 2012 forum

e’ nata una discussione molto interessante sulle conseguenze che le campagne di disinformazione e coinvincimento da parte di alcuni siti possono avere sulle persone. In particolare, il dibattito era incentrato sull’emotivita’ e su quanto il voler creare odio e complottismo puo’ sfociare in reazioni esagerate e fuori controllo. All’interno di questa discussione, si e’ poi arrivati al caso, molto discusso in questi giorni, della ragazza di Bologna che ha riacceso il dibattito sulla sperimentazione animale.

Per chi non fosse informato sui fatti, credo pochi se non altro per l’enorme eco mediatica che la notizia ha avuto,  una ragazza, per la precisione Caterina Simonsen, ha inizialmente pubblicato sul suo profilo facebook questa foto:

La foto su facebook che ha acceso il dibattito sulla sperimentazione animale

La foto su facebook che ha acceso il dibattito sulla sperimentazione animale

Come vedete, si tratta di un messaggio in cui si difende la sperimentazione medica animale grazie alla quale la ragazza e’ ancora in vita. Testuali parole, ne riparleremo tra poco, recitano: “senza la ricerca sarei morta a 9 anni”.

Per essere precisi, tale Caterina e’ affetta da quattro malattie rare: immunodeficienza primaria, deficit di proteina C e proteina S, deficit di alfa-1 antitripsina, neuropatia dei nervi frenici, abbinate al prolattinoma, un tumore ipofisario, e a reflusso gastroesofageo, asma allergica e tiroidite autoimmune. Come potete ben capire, il quadro clinico in questione non e’ assolutamente semplice. Diverse volte la ragazza e’ stata sul punto di morire ricoverata in terapia intensiva e anche in questi giorni si trova ricoverata in ospedale a causa di un aggravamento della situazione. Ad oggi, Caterina e’ costretta a passare quasi 20 ore al giorno collegata ad un respiratore e ad assumere moltissimi medicinali che le consentono di rimanere stabile.

Veniamo prima ai fatti, come e’ noto, questa foto ha scatenato le ire di molti animalisti e persone facenti capo ad associazioni per la difesa degli animali. Purtroppo, le ire sono sfociate in insulti anche molto gravi. Non sono mancati, per la precisione se ne contano una trentina, auguri di morte per Caterina, moltissimi incernierati intorno al concetto “se morivi a 9 anni non importava niente a nessuno”.

Piccola parentesi iniziale necessaria e doverosa, come piu’ volte chiesto e preteso anche su questo blog, quando si vanno a discutere argomenti delicati e contestati come questo, e’ normale che ci siano opinioni anche completamente discordanti. Questo pero’ non deve prescinedere da una dialettica “educata” e veicolata dall’umanita’ e dal buon senso. Augurare la morte a qualcuno perche’ ha un’opinione diversa dalla nostra significa tornare indietro di centinaia di anni. In un dibattito costruttivo, ognuno ha le sue motivazioni che puo’ esternare e che possono essere costruttive per gli altri. Probabilmente, alla fine, ognuno rimarra’ della sua opinione ma tutti avranno imparato qualcosa, se non altro avendo un quadro completo del pensiero e delle tesi dell’altro fronte.

Ora, lungi da me discutere o sensibilizzare sulla situazione di salute della ragazza in questione. Umanamente, e’ normale sentirsi vicini a persone in questo stato e, magari, voler sensibilizzare l’opinione pubblica facendo leva sul quadro clinico di Caterina. Questo pero’, a mio avviso, e’ sbagliato e, sempre mia opinione personale, non era nelle intenzione della ragazza stessa. Quanto accaduto deve invece innescare una discussione costruttiva su un tema molto delicato e che spesso lascia spazio solo ad estremismi piuttosto che ad una discussione scientifica seria. Come sapete, e come normale, esistono diverse associazioni in difesa o contro la sperimentazione animale, molto spesso pero’, si creano su questi temi partitismi fondamentalisti che puntano piu’ all’emotivita’ e alla sensibilita’ delle persone piuttosto che ad una discussione scientifica e costruttiva.

Detto questo, cerchiamo di fare il punto sulla sperimentazione animale cercando di capire pro e contro, e soprattutto l’utilita’ o meno, di questa tecnica in ambito medico.

Per prima cosa, parlare di sperimentazione animale non e’ del tutto completo. Si deve infatti distinguere tra sperimentazione di base e applicata. Nel primo caso, ci si limita ad un’osservazione, ad esempio del comportamento, per comprendere determinati aspetti. Nella sperimentazione applicata invece, alcuni animali vengono utilizzati come modelli attivi per comprendere una determinata caratteristica biologica o genetica di un’altra specie, molto spesso quella umana. Ovviamente, ma la distinzione era obbligatoria, quando parliamo di “sperimentazione animale” ci riferiamo alla ricerca applicata.

Bene, a questo punto le domande fondamentali a cui dobbiamo provare a dare una risposta sono essenzialmente due: e’ veramente utile la sperimentazione sugli animali? Esistono metodi alternativi? Come potete facilmente immaginare, i due fronti, favorevoli e contrari, danno risposte completamente discordanti che sono, rispettivamente, SI-NO e NO-SI.

Vediamo prima di tutto le motivazioni alla base di queste risposte partendo proprio dal fronte contrario alla sperimentazione.

In soldoni, il punto fondamentale portato dal fronte contrario e’ che la sperimentazione animale non porta risultati certi dal momento che e’ fatta, come e’ ovvio, su esseri viventi simili ma non esattamente uguali all’uomo. Detto in altri termini, quando si utilizza una determinta specie per studiare la genetica, provare farmaci o osservare il decorso di una malattia, si utilizza un essere che potrebbe non avere esattamente lo stesso comportamente o la stessa reazione dell’uomo. Generalmente, dal punto di vista del DNA, si utilizzano specie che hanno mappature uguali fino al 95% a quelle dell’uomo. Cosa significa questo? Semplice, quel 5% di differenza, in media e ovviamente per dare qualche numero, puo’ essere determinante in quel preciso studio, portando risultati completamente sballati e che poi non saranno identici sull’uomo. E’ vero questo? Assolutamente si, ed e’ normale che sia cosi’. Prendendo specie diverse, non possiamo certo aspettarci di avere un comportamento speculare al 100% se cosi’ fosse, avremmo non specie simili ma identiche.

Fate pero’ attenzione, come anticipato, parliamo di verosimiglianza a percentuali molto alte. E’ ovvio che per una determinata sperimentazione si prendano animali che, da quel determinato punto di vista, possano essere paragonabili con un’alta percentuale all’uomo. Ovviamente, analisi diverse prendono in esame specie diverse ma simili all’essere umano per un determinato aspetto.

Qual e’ dunque la conclusione del fronte contrario alla sperimentazione? Testare un protocollo sugli animali e’ un’inutile violenza dal momento che il risultato ottenuto non e’ univoco. In altri termini, e’ sempre necessaria una sperimentazione sull’uomo per valutare aspetti specifici che non e’ possibile predeterminare sull’animale. Esempio classico portato a sostegno: farmaci che al termine della sperimentazione devono essere tolti dal mercato perche’ danno vita a reazioni non attese e non osservate nella fase sperimentativa.

Questa conclusione e’ assolutamente fuorviante frutto dell’ignoranza dei protocolli. Rimaniamo, per semplicita’, sul discorso farmaci. Un medicinale, prima di essere immesso sul mercato, affronta un lungo protocollo sperimentativo che parte, generalmente, sull’animale passando poi ad una fase preliminare su soggetti volontari e poi, se tutto va bene, arriva nelle farmacie. Ora, come normale, anche nella fase di somministrazione volontaria si parla di un numero limitato di soggetti. Quella che viene fatta e’ una valutazione statistica degli effetti. Persone diverse, possono avere reazioni diverse. Durante la fase volontaria si studiano eventuali effetti collaterali e viene redatto il bugiardino. Alcune volte, dopo l’immissione sul mercato, proprio perche’ di fronte ad una statistica maggiore di casi, si possono manifestare controindicazioni con probabilita’ minori. In questo caso, come e’ normale, viene aggiornato il bugiardino includendo questi nuovi casi. Detto in parole molto semplici per capire il concetto, una casa farmaceutica mette in commercio un farmaco che salva la vita a molte persone. In un solo caso, questo farmaco ha una reazione allergica che crea danni ad un individuo. Toglialmo il farmaco dal mercato? Assolutamente no, quel prodotto e’ utile per tante persone per cui si aggiorna il bugiardino solo includendo quel caso specifico.

Lasciamo ora questo esempio per tornare alla discussione iniziale. Seguendo questo ragionamento, il fronte contrario alla sperimentazione sostiene che esistano metodi alternativi per verificare l’efficacia e le controindicazioni di un determinato prodotto. Ripeto, parliamo genericamente di prodotto solo per semplificare, il ragionamento va bene per farmaci, terapie, analisi, ecc. Quali sono i metodi alternativi? Primo tra tutti, la simulazione della risposta dell’organismo. Cosa significa? Ad oggi, abbiamo una conoscenza abbastanza avanzata anche solo del genoma umano e del comportamento biololgico-genetico dell’uomo. Sfruttando queste conocenze, e la possibilita’ di utilizzare calcolatori molto potenti, possiamo sostituire la sperimentazione sugli animali con una simulazione informatica della risposta.

Analizziamo questo aspetto. Come visto, uno dei punti cardine del fronte contrario e’ che la risposta dell’animale non e’ determinante per il risultato, e’ sempre necessaria una sperimentazione sull’uomo. Perche’? Come detto, e come normale, la percentuale di somiglianza non e’ e non puo’ essere 100%. Bene, secondo voi, una simulazione al computer puo’ essere identica alla risposta dell’essere umano? Come potete facilmente capire, la risposta e’ no. Facciamo, al solito, un esempio riduttivo ma utile alla comprensione. Al computer possiamo simulare, ad esempio, l’interazione di un farmaco con un organo bersaglio specifico. Prima di tutto, questo non e’ assolutamente corretto. Che livello di precisione possiamo ottenere? Supponiamo di simulare l’interazione di una molecola con i succhi gatrici, simulazione che comunque implica un calcolo lungo e attento. Bene, noi non siamo solo “succhi gastrici”. Magari, quella molecola puo’ avere effetti collaterali gravi sullo stomaco, oppure interagire dannosamente con un altro organo collegato allo stomaco o, anche, influire sulla circolazione mediante l’interazione con il sangue. Cosa significa questo? Se da un lato un animale puo’ essere simile al 95% con l’uomo, una simulazione, in quanto tale, avra’ una somiglianza, supponiamo anche piu’ alta del 95%, per un determinato aspetto dell’uomo. Tornado all’esempio visto, possiamo pensare ad un programma che simula anche al 99% il comportamento dei succhi gastrici, ma in quella simulazione stiamo ignorando lo stomaco, la digestione, il sangue, la circolazione, insomma, l’essere umano. Come potete facilmente rendervi conto, non possiamo pensare di simulare il comportamento e le reazioni dell’uomo completamente al 100%. Se cosi’ fosse, avremmo ridotto l’essere umano ad una semplice macchina.

Detto questo, capite bene l’assurdita’ del pensare che una simulazione possa essere paragonata all’uomo. Prima di tutto, per quanto avanzata, la nostra conoscenza medica non e’ assolutamente completa. Inoltre, per sua stessa definizione uan simulazione prende in esame aspetti specifici e ristretti di un particolare fenomeno. Senza contare poi eventuali errori di software che potrebbero portare risultati completamente diversi.

La sperimentazione animale porta sicuramente delle incongruenze che devono essere testate preliminarmente sull’uomo, ma questi errori possono essere ben piu’ ampi parlando di “metodi alternativi”. Punto di arrivo di questo ragionamento, ripeto personale ma supportato da considerazioni numeriche, e’ che, ad oggi, la sperimentazione animale e’ ancora fondamentale in ambito di ricerca medica. Praticamente tutti i farmaci e tutti i protocolli che utilizziamo, dall’influenza fino alle patologie piu’ gravi, vengono testati su animali all’interno dei centri di ricerca. Tutti quei fondamentalisti, non comuni cittadini che hanno un pensiero ma, ad esempio, gli autori dei commenti visti prima sul caso della ragazza di Bologna, dovrebbero essere consapevoli del ruolo della sperimentazione e del fatto che molti dei farmaci che utilizzano sono sicuri anche per questo motivo.

Prima di concludere, vorrei fare delle ulteriori considerazioni personali. Come premesso, cosi’ come avviene su molti altri aspetti discussi anche in questo blog, la creazione di fazioni fondamentaliste preclude la sana discussione costruttiva. Insultare la ragazza di Bologna augurandole la morte, non serve certo a spiegare le motivazioni della propria contrarieta’ alla sperimentazione animale. Dal mio punto di vista, se vogliamo parlare di umanita’ e rispetto per specie viventi, allora di dovrebbe parlare di allevamenti intensivi di animali da pelliccia. Se proprio vogliamo essere franchi, quelli sono sacrifici che possono essere eliminati utili solo per un mero vezzo estetico. Allo stesso modo, non possiamo paragonare la sperimentazione di un farmaco con quella di prodotti cosmetici. Come potete capire, esistono molte sfumature di questo aspetto che non possono essere unificate nascondendosi dietro all’ormai famosa espressione “no, senza se e senza ma”.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

ENI green data center

5 Nov

Nella sezione:

Hai domande o dubbi?

un nostro affezionato lettore ci ha chiesto delucidazioni sulla nuova struttura chiamata ENI green data center che e’ stata inaugurata solo pochi giorni fa.

Come spesso accade in Italia, la filosofia e la costruzione, non che la messa in opera, di questo importante polo e’ passato molto in sordina con solo pochi articoli su qualche giornale specializzato. Questo e’ completamente assurdo. La struttura rappresenta un’innovazione tecnologica molto importante a livello mondiale e meriterebbe, molto piu’ di tante notizie che riempono i giornali tutti i giorni, di essere pubblicizzata.

Per sapere qualcosa su questo centro, potete andare direttamente sul sito internet:

ENI green data center

Se proprio devo essere sincero, e questo e’ in primis un monito per i tecnici dell’ENI che hanno poco curato questo aspetto, leggendo il sito non e’ chiaramente comprensibile lo scopo di questo centro. Forse, anche questo aspetto ha contribuito alla poca pubblicita’ ricevuta sui giornali.

Cerchiamo dunque di supplire a questa mancanza di informazioni provando a spiegare quali sono gli obiettivi e l’eccellenza di questo centro tutto made in Italy.

L’ENI green data center sorge vicino Pavia, precisamente a Ferrera Erbognone, ed e’ stato inaugurato il 29 ottobre. Questa data cade poco meno di due anni dopo la posa della prima pietra. Anche questa informazione ci fa capire quanto il progetto sia stato seguito in maniera puntuale e rapida.

A cosa serve?

Questa e’ ovviamente la domanda principale. Per capirlo, cerchiamo di fare un ragionamento insieme. Ogni qual volta si richiede un calcolo molto complesso, e’ necessario disporre di una potenza di calcolo notevole. Con questo intendo dire che per risolvere algoritmi complessi e lunghi e’ necessario disporre di tanti pc equivalenti che lavorano insieme. Ovviamente, la cosa sarebbe possibile anche con il vostro pc di casa, ma, probabilmente, richiederebbe anni e anni per poter arrivare ad un risultato. Bene, per velocizzare il tutto, si utilizzano dei potenti centri di calcolo che racchiudono molte CPU, cioe’ molti processori, che lavorano in simultanea dividendosi il lavoro. In questo modo, potete raggiungere lo stesso risultato in brevissimo tempo. Questo e’ quello che viene indicato come potenza di calcolo.

Chi utilizza questi centri?

In realta’, questi speciali centri tecnologici trovano applicazione in tantissimi settori anche profondamente diversi tra loro. Qualche esempio? Nella fisica, scusate l’esempio scontato ma e’ quello che conosco meglio, i centri di calcolo servono per poter analizzare i dati, impacchetarli secondo una struttura facilmente leggibile dall’utente finale ma anche per lavorare in tampi velocissimi per produrre quello che viene chiamato un “trigger”, cioe’ decidere in tempo reale se un particolare evento raccolto e’ interessante per la fisica, e quindi deve essere registrato, oppure no. Come potete facilmente capire, per concludere queste operazioni in tempi brevissimi, magari quelli delle collissioni che avvengono dentro gli acceleratori, e’ necessario disporre di tanti processori.

Altri campi di utilizzo: l’economia, la biologia, la geologia, la matematica, l’ingegneria e cosi’ via. In che modo? Per fare qualche esempio, in economia per simulare un modello economico nel tempo, in biologia per studiare le risposte, ad esempio, del DNA in cui vengono inclusi tutti i costituenti ed e’ necessario simulare in dettaglio le interazioni con diverse molecole. In ingegneria per simulare la risposta di una struttura, anche molto grande e complessa, alle varie sollecitazioni che incontrera’ durante il suo utilizzo.

Come potete facilmente capire, questi centri di calcolo risultano fondamentali per studiare diversi scenari molto complessi e proprio per questo motivo la ricerca in questo settore ha mostrato un boom negli ultimi anni senza precedenti.

Ma a cosa serve questo centro allENI?

Una volta capita l’importanza di un centro di calcolo all’avanguardia, e’ lecito chiedersi a cosa serve questo tipo di struttura ad un’azienda come l’ENI. Quello che molto spesso i non addetti ai lavori ignorano e’ che le grandi societa’, appunto come l’ENI, hanno sempre un reparto di ricerca e sviluppo all’avanguardia nei propri settori, fondamentali proprio per mantenere un ruolo di leader sul mercato.

Nel caso dell’ENI, al nuovo data center sara’ inviata tutta la richiesta informatica dell’azienda. Oltre ai sempli algoritmi per l’elaborazione delle bollette, il centro sara’ specializzato nello studio di settori strategici per l’azienda.

Solo per fare un esempio, prima di procedere ad una trivellazione in un punto, visto l’enorme costo che operazioni di questo tipo comportano, e’ importante essere sicuri che il punto sia quello buono. Per capire questo aspetto, e’ necessario simulare in dettaglio la regione o comunque la zona di terreno in esame. Per fare questo si devono costruire modelli, cioe’ algoritmi, quanto mai simili alla realta’, che includono dunque tantissimi aspetti del terreno e delle sue relazioni con il restante ecosistema. Anche in questo caso, per analizzare strutture di questo tipo e’ necessario manipolare tantissimi dati con algoritmi complessi e che richiedono dunque una notevole potenza di calcolo.

Bene, e cosa ha di speciale il nuovo green data center?

Piu’ che rispondere a questa domanda, che comunque affrontiamo, e’ importante chiedersi perche’ compare l’aggettivo “green” nel nome.

Pensate al vostro pc, come sapete benissimo all’interno sono presenti una serie di ventole e dissipatori. A cosa servono? Ovviamente per raffreddare il processore, la scheda video, l’alimentatore, ecc. Questo perche’ abbiamo elementi che scaldano molto quando vengono utilizzati al pieno delle prestazioni. Il calore e’ nemico dell’elettronica che per poter funzionare richiede un intervallo di temperature che non sia troppo alto.

Bene, allo stesso modo, pensate quanto faticoso possa essere eliminare, cioe’ portare via, il calore da un centro di calcolo in cui sono presenti tantissime CPU.

Per darvi una stima, nel green data center dell’ENI sono presenti qualcosa come 60000 CPU.

Per poter far girare le ventole che servono al raffreddamento, dovete spendere dell’energia. Rapportate sempre questi ragionamenti ad un centro di calcolo e capite subito come questi numeri divengono immediatamente importanti. Sempre per fare esempi pratici, durante l’anno scorso la quantita’ di CO2 emessa solo dai centri di calcolo presenti nel mondo, che e’ direttamente rapportata alla richiesta di energia per il funzionamento, e’ stata il 2% del totale, paragonabile quindi a quella emessa dagli aerei civili utilizzati per il trasporto. Detto questo, capite bene che non stiamo parlando di numeri trascurabili.

L’ENI green data center rappresenta un record mondiale per il basso consumo di energia con potenze che arrivano fino a 50 KW per metro quadrato occupato. Il vero record sta poi nell’utilizzo che viene fatto di questa energia. Se si calcola il rapporto tra energia consumata e quella spesa per far funzionare la parte dei processori, dunque se volete una sorta di efficienza del sistema, si trovano numeri davvero innovativi. Per la maggior parte dei centri di calcolo al mondo, questo rapporto si aggira intorno a 2 o 3. Questo significa che se vi serve 1Kw per i computer, ne dovete richiedere fino a 3 dalla rete perche’ servono per il raffreddamento o per altri elementi che comuqnue disperdono energia non lasciandola ai sistemi informatici veri e propri. Per l’ENI green data center, questo rapporto vale solo 1.2 rappresentando un record mondiale assoluto raggiunto in Italia.

Uno degli aspetti piu’ importanti e che contraddistingue il nuovo centro dai suoi predecessori e’ la presenza di alti camini sugli edifici. Questi sono molto importanti per permetter la ventilazione forzata dell’aria e dunque risparmiare energia elettrica.

L’enorme potenza di calcolo sviluppata e le migliorie tecnologiche fatte hanno anche richiamato diverse societa’ private ed istituzioni universitarie. Da queste sono poi nate delle collaborazioni internazionali con enti accreditati che non fanno altro che sostenere ed incentivare la ricerca italiana in questo settore.

Concludendo, l’ENI green data center in provincia di Pavia rappresenta un notevole passo avanti nello sviluppo e nella ricerca sui centri di calcolo. Purtroppo, l’inaugurazione di questo innovativo polo e’ passata un po’ in sordina tra i vari media che non hanno assolutamente pubblicizzato la struttura dando la giusta enfasi che meritava. Come visto, potenze di calcolo notevoli richiamano collaborazioni da istituzioni sia private che pubbliche favorendo ancora di piu’ la collaborazione scientifica ed in progressi che solo in questo modo potrebbero essere portati avanti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ora anche i profeti elettronici

11 Apr

Nell’era di internet 2.0 e nel periodo che stiamo vivendo, in cui tutti i giorni qualche simpatico burlone pubblica ipotesi catastrofiste per la fine del mondo, non poteva certo mancare un software profetico.

A cosa mi sto riferendo?

Come forse avrete intuito, sto parlando nuovamente di WebBot. Di questo programma abbiamo parlato in dettaglio in questo post:

La previsione informatica sul 2012

Come visto, si tratta di un software “profetico” basato sull’analisi asimmetrica dei Trend di linguaggio. Detto in parole semplici, questo programma usa degli “spider” per scandagliare la rete in cerca di tutte le informazioni su delle parole chiave inserite dall’utente. A ciascun risultato viene assegnato un valore numerico in base a dei complessi algoritmi di analisi e, al termine della scansione, il webbot fornisce una sorta di previsione futura basandosi sulla informazioni reperite in internet. Si parla di analisi del linguaggio proprio perche’ il software si basa sull’enorme mole di informazioni presenti in rete su siti, forum, blog, ecc.

Perche’ torniamo a parlare di webbot?

Se vi stavate preoccupando perche’ gia’ da qualche giorno non eravamo minacciati da un asteroide che dovrebbe arrivarci in testa, siete subito accontentati. Secondo una notizia che sta circolando in rete, il 14 aprile 2013, cioe’ tra una manciata di giorni, un asteroide di grandi dimensioni dovrebbe colpire la Terra causando enormi danni. Questa previsione sarebbe proprio stata fatta utilizzando il webbot.

Al solito, non per rompere le uova nel paniere, ma secondo voi, se ci fosse un asteroide di grandi dimensioni che impattera’ la Terra tra 3 giorni, non sarebbe visibile? A cosi’ breve distanza temporale, e dal momento che si parla di grandi dimensioni, sicuramente questo corpo sarebbe gia’ perfettamente visibile ad occhio nudo.

Dunque? Perche’ viene data questa notizia?

Come visto in questo articolo:

Lezione n.1: come cavalcare l’onda

a seguito dell’asteroide esploso in atmosfera sopra gli Urali a febbraio:

Pioggia di meteore in Russia

e’ scoppiata una vera e propria psicosi asteroide. Al solito, quello di Chelyabinsk e’ stato un evento reale e ci sono stati molti feriti, ma, da qui in poi, non passa giorno in cui non ci sia qualche sito che pubblica notizie di asteroidi precipitati in qualsiasi parte del mondo.

A cosa serve questo meccanismo?

In primis ad alimentare il sospetto ed il terrore, ma anche per continuare a propinare l’idea dell’esistenza di Nibiru. Come visto in questo articolo:

Nibiru: la prova del trattore gravitazionale

una delle principali ipotesi portate a sostegno dell’esistenza di Nibiru, sarebbe un aumento del numero di asteroidi lanciato verso la Terra. Come visto nell’articolo, questa ipotesi e’ completamente falsa. Nonostante questo, proprio il caso di Chelyabinsk ha riacceso gli animi ed offerto un’occasione da non perdere ai tanti siti catastrofisti che ormai conosciamo molto bene.

Da dove e’ uscita fuori la notiza del 14 Aprile?

Come detto, e questo e’ vero, si tratta di una previsione informatica fatta dal WebBot. E’ possibile che il sotware abbia sbagliato? No, non e’ possibile, e’ certo!

Capiamo il perche’.

Come visto anche nel precedente articolo, questo programma fu sviluppato per cercare di prevedere l’evoluzione della situazione di borsa. In questo caso, l’uso degli spider era fondamentale per cercare in rete, tra l’enorme mole di informazioni, notizie utili su una determinata societa’. In questo modo, si poteva valutare se comprare o meno quelle azioni. Ovviamente si tratta di un programma di analisi numerica, non certamente di un profeta infallibile. Se fosse vero il contrario, ognuno di noi saprebbe con anticipo cosa dovrebbe avvenire in borsa e saremmo tutti ricchi grazie ad investimenti certi.

Come potete capire, il webbot puo’ dare delle indicazioni, ma non e’ assolutamente detto che siano certe. Per come e’ costruito l’algoritmo di analisi, il tutto deve essere preso come una previsione accompagnata da un livello di incertezza notevole.

Ora, torniamo al nostro caso. Immaginate di far partire il webbot inserendo come chiave di ricerca la parola “asteroide”. E’ possibile che vi ritorni una previsione di impatto con la Terra? Assolutamente si. Come detto in precedenza, dopo il caso russo, tutti i giorni si pubblicano notizie di asteroidi caduti in diverse parti del mondo. Dunque, in questo senso, proprio il dilagante catastrofismo mediatico ha probabilmente portato fuori strada la previsione informatica.

Inoltre, sempre legato a questo, vorrei anche aprire una parentesi su quanto detto dal capo della NASA al Senato degli USA. Alla domanda: “cosa dovremmo fare se un asteroide puntasse verso la Terra e lo scoprissimo solo pochi giorni prima dell’impatto?”, Bolden ha risposto semplicemente “pregate”.

Questa risposta ha scatenato un putiferio sulla rete. Tantissimi siti parlano di un’agenzia spaziale degli Stati Uniti a conoscenza di un imminente impatto. Si e’ nuovamente tornati a parlare di ipotesi complottiste e di tutte quelle fantasie che abbiamo cominciato a vedere parlando di 2012.

Perche’ e’ stata data questa risposta? Prima di tutto, la domanda non lasciava spazio a nulla. Come riportato, si parlava di un asteroide in rotta certa verso la Terra e che verrebbe scoperto solo pochi giorni prima dell’impatto.Secondo voi, cosa avrebbe dovuto rispondere Bolden?

Inoltre, teniamo conto che la NASA, anche a seguito di quanto avvenuto in Russia, sta cercando di ottenere nuovi fondi per i programmi di difesa da asteroidi. Di queste soluzioni abbiamo parlato in questo post:

Asteroidi: sappiamo difenderci?

Dunque, capite bene che la risposta data dal capo della NASA e’ perfettamente lecita, anche se forse Bolden doveva immaginare l’eco che questa sua affermazione avrebbe avuto.

Concludendo, non c’e’ assolutamente nessun pericolo per il 14 Aprile 2013. In questo caso, si tratta solo di una previsione fatta mediante webbot che, con buona probabilita’, e’ stata proprio influenzata dalle tante notizie false pubblicate sulla rete circa asteroidi che cadono sulla Terra e improbabili avvistamenti di nuovi corpi orbitanti e potenzialmente pericolosi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

2038: nuovo bug informatico

6 Mar

Questa volta, voglio trattare un problema prettamente informatico. Diverse volte, anzi per dirla tutta il blog stesso nasce per questo motivo, abbiamo discusso non solo della causa, ma soprattutto delle innumerevoli date profetizzate per una fine del mondo.

Come sappiamo, quella del 21 Dicembre 2012, ha avuto una risonanza mondiale. Il motivo di questo e’ ovviamente da ricercarsi nelle tantissime ipotesi profetiche fatte partendo dal calendario Maya, ma soprattutto cio’ che ha reso il 21/12 un fenomeno mondiale e’ stato senza dubbio l’apporto di internet.

Come detto in altre occasioni, la rete ci consente di scambiare informazioni in tempo reale con qualsiasi parte del mondo. Ogni qual volta scriviamo qualcosa su un sito, un forum, un blog, dobbiamo tenere sempre a mente che potenzialmente quanto scritto potrebbe essere letto all’istante anche dall’altra parte del mondo.

Prima del 21/12, l’altra data che tanto aveva fatto discutere su scenari apocalittici era ovviamente l’inizio del nuovo millennio nel 2000. Oltre alle tente ipotesi catastrofiste classiche, per il 2000 ampio spazio era stato dato al cosiddetto “millenium bug”, cioe’ al problema della gestione della data dei nostri computer.

Come forse ricorderete, il problema principale era che molti sistemi utilizzano una data espressa con solo due cifre. Per questo motivo, allo scattare del nuovo millennio, i computer sarebbero passati dalla data 99 a 00 e proprio questo valore poteva essere interpretato, invece che come 1 gennaio 2000, come 1 gennaio 1900.

Sul millenium bug si e’ parlato tantissimo. Si sono ipotizzati scenari da film di fantascienza con i nostri sistemi informatici che sarebbero impazziti mandando in tilt gran parte della nostra societa’ che, come sappiamo, e’ fortemente legata a questo tipo di controlli.

Come forse sapete ancora meglio, il millenium bug e’ stato un po’ come un 21/12 in piccolo. Se ne e’ parlato tanto, ma niente di particolarmente problematico e’ poi realmente accaduto.

Bene, ora ci risiamo. Per il 2038 e’ atteso un nuovo importante bug per i nostri pc, sempre legato alla gestione della data.

Cerchiamo di andare con ordine.

Molti dei sistemi di controllo informatico, utilizzano sistemi operativi basati su Unix e Linux. In questi sistemi operativi, per la gestione della data, viene usato il cosiddetto sistema POSIX, cioe’ il tempo viene contato come il numero di secondi trascorsi dallo Unix Epoch Time, il 1 Gennaio 1970.

Cosa significa questo?

Semplice, avete un punto di inizio fissato al 1 gennaio del 1970. Tutte le date, a livello di architettura interna si intende, vengono calcolate come il numero di secondi trascorsi da questo punto di partenza.

Sembra un po’ macchinoso, ma fino a questo punto non sembrano esserci problemi.

Quello che pero’ accade e’ che la gestione di questo tempo trascorso, viene gestita da un controllo a 32 bit utilizzato per dare il valore al dato detto time.h, un semplice contatore del numero di secondi trascorsi.

Se ci pensate, non e’ niente di complicato. Contiamo le date a partire dal 1 gennaio 1970, attraverso il numero di secondi trascorsi da questo giorno iniziale. Bene, questo numero di secondi, che ovviamente e’ un numero intero, viene gestito da una variabile a 32 bit.

Ora, il fatto di avere 32 bit, implica necessariamente che ad un certo punto ci saranno problemi di overflow, cioe’ la vostra variabile non sara’ piu’ in grado di aggiornarsi. Per dirla tutta, dal momento che la variabile e’ dotata di un segno, al termine dei valori concessi time.h assumera’ valori negativi.

Quando avverra’ questo overflow della data? Esattamente martedi 19 gennaio 2038 alle 3.14 e 07 secondi UTC. Dopo questo istante, i valori negativi del contatore dei secondi riporteranno la data al 13 Dicembre 1901.

Cosa implica questo? Siamo di nuovo di fronte ad un problema del tutto simile a quello del 2000. Anche in questo caso, in un preciso momento, i nostri sistemi informatici potrebbero entrare in confusione non riuscendo piu’ a distinguere tra le diverse date. Il problema del time.h non e’ in realta’ solo dei sistemi operativi basati su UNIX. Anche molti altri sistemi operativi utilizzano una struttura di questo tipo, cosi’ come moltissimi software che richiedono l’informazione della data per poter funzionare. Detto questo, nel 2038, tutti questi sistemi potrebbero dunque smettere di funzionare di colpo.

E’ possibile scongiurarare l’eventuale pericolo?

In linea di principio assolutamente si. Prima di tutto, ad oggi, abbiamo circa 25 anni di tempo per risolvere questo problema. Anche se, al ritmo attuale, c’e’ un rinnovamento delle tecnologie informatiche ogni 18 mesi circa, questo problema, noto gia’ da tempo, non e’ ancora stato risolto.

Molti dei nuovi sistemi a 64 bit, utilizzano gia’ un time.h in questo formato. In questo caso, ci sarebbe comunque il problema del numero non infinito di secondi che possiamo contare ma, partendo sempre dal 1 gennaio 1970, il sistema potrebbe funzionare senza problemi per molto piu’ tempo, sicuramente un tempo maggiore di quello di esistenza anche del pc stesso e del sistema che questo controlla.

Sul mercato pero’ esistono ancora tantissimi sistemi a 32 bit, alcuni anche strategi per specifici controlli. Evitando gli scenari apocalittici che gia’ si sentono in rete parlando di questo bug, con 25 anni di tempo per pensarci, non mi preoccuperei assolutamente del time.h e del cosiddetto Y2038 bug.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La previsione informatica sul 2012

24 Set

Oggi, praticamente tutta la nostra vita e’ in qualche modo regolata o messa in relazione con il computer. I sistemi informatici consentono di controllare quasi tutti gli aspetti legati alla sicurezza, ai trasporti e alla nostra vita. Come ci insegnano molti film fantascientifici, il massimo desiderio (per qualcuno) potrebbe essere un computer in grado anche di prevedere il futuro.

Sembra strano, ma qualcosa del genere e’ stato gia’ pensato e realizzato, ovviamente nei limiti del possibile. Stiamo parlando del programma chiamato WebBot. Questo software, sviluppato negli anni ’90, e’ stato pensato per prevedere a breve distanza il comportamento dei mercati azionari. In altre parole, il programma doveva prevedere, con una certa incertezza, il comportamento a breve termine dei titoli, dei mercati, delle valute, ecc.

Come funziona il WebBot? L’idea di base del programma e’ abbastanza semplice. Dando delle parole chiave in ingresso, il software fa una scansione del web alla ricerca di frasi che contengano queste parole. Questo algoritmo e’ del tutto equivalente a quello che utilizzano i motori di ricerca, ma la differenza e’ nell’utilizzo dei risultati trovati. Il WebBot assegna un punteggio a ciascuna parola trovata insieme a quelle cercate, prendendo in considerazione le frasi, i siti e le date trovate. Alla fine della ricerca, il programma fornisce delle parole in uscita che, con una certa probabilita’, possono essere associate a quelle cercate.

Vi faccio un esempio per capire meglio. Se mettessimo in ingresso il nome di una societa’ quotata in borsa e il programma fornisse in uscita le parole: crisi, licenziamenti, chiusura e stabilimenti, ovviamente non comprereste le azioni di quella societa’. Come detto in precedenza, i risultati sono sempre forniti con una probabilita’, piu’ e’ alta, maggiore sara’ la percentuale di successo del programma.

Come potete facilmente immaginare, il WebBot esegue una scansione non sono sulle pagine in chiaro. Nell’esempio precedente, se sul sito della societa’ in esame ci fosse scritto: domani chiudiamo gli stabilimenti e dichiariamo il fallimento … non servirebbe un programma di questo tipo.

Su web si parla anche di predizioni senza parole chiave in ingresso. Questo e’ possibile, ma il programma fa iniziare la ricerca utilizzando le parole piu’ cercate su web nell’ultimo periodo. Proprio per questo a volte il software viene definito come una “coscienza intrinseca”. Come potete facilmente immaginare, se volete una previsione su qualcosa di specifico, conviene utilizzare le parole chiave.

Logo del WebBot project

Cosa c’entra il WebBot con il 2012? Ci stiamo arrivando.

Agli inizi del 2000, si penso’ di provare ad utilizzare il software anche per scopi diversi da quelli di borsa. Secondo quest’idea, inserendo parole chiave diverse, si potrebbe utilizzare il programma come una sorta di oracolo informatico.

Sulla rete trovate che la prima grande profezia del programma venne formulata ad Giugno del 2001. In questo caso WebBot previde un grande sconvolgimento mondiale nei successivi 60-90 giorni. Solo successivamente si mise in relazione questa profezia con quello che accadde l’11 Settembre 2001.

Questo e’ molto affascinante, ma con buona probabilita’ e’ falso. In rete tutte le informazioni su questa profezia sono successive al Settembre 2001. Come potete capire, e’ sempre facile fare profezie dopo che gli avvenimenti sono accaduti.

Questa storia e’ molto simile a quella che abbiamo gia’ discusso sulla profezia di Malachia o sul codice segreto della Bibbia che trovate in questi post:

2012 e la profezia di Malachia

Il codice segreto della Bibbia

Tra le altre profezie false attribuite a WebBot c’e’ anche la previsone di una conferenza che sarebbe stata indetta da Obama, nel Settembre 2009, per annunciare l’esistenza di forme di vita extraterrestre. Mi sembra evidente che questo non sia avvenuto.

Arrivando invece al 2012, in questi ultimi tempi si sta diffondendo in rete la voce che questo programma sarebbe in grado di prevedere i terremoti e di fare profezie sul 2012.

Riguardo ai terremoti, la smentita puo’ essere fatta con un semplice ragionamento. Se il programma sfrutta i risultati web, con un algoritmo preciso, per trovare informazioni probabili, come potrebbe trovare notizie future sui terremoti? Stiamo parlando di fenomeni non deterministici, non prevedibili e di cui anche una coscienza misteriosa del web non potrebbe avere informazioni prima dell’avvenimento stesso. Alla luce di questo, e per completezza, capite subito che tutte le previsioni di terremoti passati attribuite a WebBot sono in realta’ delle bufale.

Sul 2012 invece, si trovano due informazioni distinte. Nel primo caso, il programma non sarebbe in grado di fare previsioni tra Dicembre 2012 e Maggio 2013, nel secondo invece avrebbe trovato parole chiave del tipo: “grande cambiamento”, “molte vittime”, “ufo” e simili.

Per quanto riguarda il buco tra Dicembre e Maggio, questo sarebbe giustificato dai filo catastrofisti come il periodo di grandi cambiamenti successivi al 21 Dicembre e prima della nuova era. Avendo gia’ spiegato come funziona il programma, capite da subito come anche in questo caso siamo in presenza di un falso creato appositamente per incrementare le voci sul 2012. Analogo discorso vale per le parole attribuite a WebBot.

Come detto in altri post, le tante voci che ogni giorno vengono fatte circolare sul web servono soltanto ad aumentare la confusione sul 2012 ed insinuare l’idea che qualcosa sta per accadere. Ripetiamo di nuovo, non credete a voci infondate non basate su dati o su verita’ inconfutabili. Il ragionamento e il senso critico sono le uniche armi per fare luce su queste profezie. Per analizzare scientificamente le profezie sul 2012 e comprendere aspetti a volte ostici della scienza ufficiale, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.