Tag Archives: fare

Meduse: belle e pericolose

5 Set

Ormai siamo alla fine della stagione estiva, anche se le temperature alte ci consentono, per i piu’ fortunati che non sono al lavoro, di andare ancora al mare e di rinfrescarci con un bagno. Molto spesso pero’, questi nostri programmi vengono smentiti perche’ c’e’ la possibilita’ di trovarsi di fronte un mare popolato da banchi di meduse. Come sappiamo bene, onde evitare spiacevoli conseguenze, in questi casi e’ sconsigliato fare il bagno. Ovviamente, qualcuno potrebbe obiettare dicendo che a volte si trovano singole meduse che si lasciano trasportare dalle onde, piuttosto che decine di animali.

Su suggerimento di una nostra cara lettrice, credo sia interessante parlare un attimo di questi, a mio avviso, splendidi animali. Perche’ dico splendidi? A parte il fastidio nel non poter fare il bagno o il dolore di un contatto, si tratta di animali estremamente affascinanti, con un andamento elegante trasportato dalle onde e, molto spesso, con colorazioni e riflessi che si lasciano ammirare.

Come sappiamo, esistono, soprattutto in Australia ed in alcune zone della California, meduse killer il cui contatto puo’ portare addirittura alla morte per arresto cardiaco o per crisi respiratoria. Le specie nostrane non sono assolutamente letali anche se, soprattutto durante il periodo estivo, i pronto soccorso degli ospedali si riempiono di persone che hanno avuto la sfortuna di scontrarsi con questi animali.

Nel mediterraneo, come avrete sicuramente sentito, il numero di meduse sta crescendo molto. Fate attenzione, in realta’, questa mia affermazione non e’ esattamente corretta. Quello che sta aumentando e’ la presenza vicino alla riva di questi animali. Alcune volte, si giustifica questo fenomeno dicendo che la loro presenza e’ sinonimo di pulizia delle acque.

Ovviamente, e’ vero che le meduse prediligono le acque pulite, ma la loro presenza non e’ sintomatica di una pulizia del tratto di mare. L’aumento di questi animali a riva non e’ compreso del tutto, anzi esistono tre ipotesi possibili formulate in biologia. La prima e’ che esistano dei cicli naturali per cui, con periodi di 10-12 anni, le meduse scelgono di riprodursi vicino alal riva piuttosto che in acque piu’ profonde. Questa ipotesi, anche se sostenuta da alcuni esperti, non trova dimostrazioni oggettive.

L’altra ipotesi possibile e’ invece da ricercarsi nell’aumento della temperatura dei mari. Cosa comporta questo? Una temperatura maggiore, ovviamente parliamo di percentuali, favorisce il proliferare del plancton, cibo delle meduse. In tal senso, una maggiore temperatura, soprattutto nella zona costiera, richiamerebbe piu’ meduse verso riva.

L’ultima ipotesi e’ invece, al contrario di quanto pensato normalmente, da ricercarsi nell’inquinamento dei mari, proprio in zona costiera. Molto spesso, acque provenienti da campi coltivati vengono riversate senza trattamento a riva. Queste acque possono essere ricche di fertilizzanti utilizzati in agricoltura che, ovviamente, fanno il loro compito anche in mare, favorendo, anche in questo caso, il proliferare del plancton.

Una combinazione di queste ultime due ipotesi e’ quella maggiormente citata per giustificare l’aumento delle meduse osservato negli ultimi anni, anche nel Mediterraneo.

Detto questo, parliamo un secondo dell’anatomia delle meduse. Come sappiamo bene, si tratta di organismi molto antichi e molto semplici. Il 98% del loro corpo e’ composto di acqua. Dal punto di vista morfologico, le meduse hanno una parte superiore detta “ombrello”, divisa, con funzione diverse, in superiore e inferiore, e dei tentacoli, detti manico. Proprio questi ultimi sono ricchi di cellule dette cnidociti in grado di iniettare per contatto una sorta di veleno. Questo meccanismo e’ utilizzato sia per scopi di offesa che di difesa.

Da cosa e’ composto il veleno?

Si tratta di una sostanza gelatinosa composta da tre proteine: una ad effetto paralizzante, una con effetto infiammatorio e una neurotossica. Data questa sinergia capite bene, ad esempio, la funzione del liquido urticante durante la cattura di una preda.

Bene, proprio la presenza di questo liquido urticante e’ quello che ci fa evitare di fare il bagno in presenza di meduse o che, quasi tutti, conoscono direttamente per i suoi effetti. Fate attenzione, come detto prima, solo i tentacoli sono in grado di iniettare il liquido urticante. Detto questo, non si ha nessuna conseguenza toccando la medusa nella parte dell’ombrello.

Per poter capire quanto sia urticante questo veleno, dobbiamo pero’ considerare quali sono le tipologie di meduse piu’ presenti nei nostri mari. Come sapete, la famiglia delle meduse, vanta migliaia di specie, con caratteristiche morfologiche estremamente diverse.

Per quanto riguarda il Mediterraneo, la specie piu’ presente e’ la cosiddetta Pelagia nocticula:

Medusa Pelagia Nocticula

Medusa Pelagia Nocticula

Come vedete dalla foto, questa medusa ha una struttura trasparente con riflessi violacei e lunghi tentacoli. Il liquido di questa specie e’ molto urticante e la pericolosita’ di questo animale e’ data dal fatto che molto spesso si presenta in branchi di molte centinaia. La dimensione dell’ombrello puo’ arrivare anche a 10-15 cm di diametro. Caratteristiche che rende ancora piu’ affascinante questa medusa e’ la sua fosforescenza notturna che la rende particolarmente visibile.

Altra specie urticante e presente nel Mediterraneo e’ la Cotylorhiza tuberculata:

Medusa Cotylorhiza tuberculata

Medusa Cotylorhiza tuberculata

Come vedete dalla foto, questa tipologia e’ facilmente riconoscibile per via dei tentacoli che finiscono in una sorta di dischetti. Molto spesso elementi di questa specie si trovano isolati.

L’ultima specie diffusa nel Mediterraneo e’ la Rhizostoma pulmo:

Medusa Rhizostoma pulmo

Medusa Rhizostoma pulmo

In questo caso, le dimensioni dell’ombrello possono raggiungere anche i 60 cm di diametro, ma il veleno di questo animale e’ non dannoso per l’uomo. Fate attenzione, dire non dannoso significa che il suo effetto urticante e’ estremamente blando, ma non nullo. Evitate, in caso di incontro, si abbracciare questa medusa.

Detto questo, la domanda che spesso viene fuori e’: cosa fare in caso di contatto?

Come molti di noi sanno per esperienza personale, incontri ravvicinati con le meduse possono essere davvero molto dolorosi. Come spesso avviene, la maggior parte dei rimedi tramandati o conosciuti per lenire il dolore sono in realta’ frutto di false convinzioni e, in alcuni casi, possono anche peggiorare la situazione. Inutile dire che in caso di urto con i tentacoli si deve raggiungere la riva, autonomamente o con l’aiuto di altri bagnanti.

Il rimedio piu’ noto in questi casi e’ quello di ricorrere a sabbia bollente, pietre calde, urina, ammoniaca, ecc. Tutti questi rimedi sono inutili. Perche’? Per poter lenire il dolore e’ necessario interrompere il rilascio di neurotossine. Per fare questo servirebbero temperature di 50 gradi, difficilmente ottenibili con una pietra o con la sabbia. Stessa cosa vale per l’ammoniaca, e dunque per l’urina. Utilizzare queste sostanze non fa altro che peggiorare l’infiammazione locale della pelle. Come sapete, il punto della lesione diviene piu’ sensibile alal radiazione solare il che puo’ creare macchie sul corpo. L’utilizzo dell’ammoniaca, o, come fatto in alcuni casi, dell’aceto, peggiora solo questo eritema.

Cosa si deve fare?

Per prima cosa, sciaquare la parte con acqua di mare. Questa soluzione, al contrario dell’acqua dolce, aiuta a diluire la neurotossina non ancora penetrata e a disinfettare la parte. A questo punto, controllate che non vi siano frammenti di tentacolo rimasti attaccati. In caso contrario, basta utilizzare una tesserina rigida, bancomat, patente, ecc., per eliminarli. Mettere creme al cortisone per lenire il dolore e’ completamente inutile. Il picco di infiammazione si ha fino a 20 minuti dal contatto. Creme di questo tipo cominciano a fare effetto dopo 30 minuti, cioe’ quando il dolore sarebbe diminuito naturalmente.

Il rimedio migliore da utilizzare in caso di contatto con una medusa e’ un gel al cloruro di alluminio. Questi prodotti sono ancora poco diffusi in Italia, anche se e’ possibile farli preparare come soluzioni galeniche. La concentrazione da richiedere e’ intorno al 4-5%. Cosa fa il cloruro di alluminio? Si tratta di un gel astringente che dunque impedisce alle neurotossine di entrare in circolo. Questa soluzione e’ anche molto utile dopo le punture di zanzara, in quanto riduce notevolmente il prurito.

Ultima importante cosa. Per evitare spiacevoli incontri o giornate sulla sabbia per acqua infestata da meduse, potrebbe essere utile consultare un cosiddetto “meteo meduse”. Si tratta di servizi basati sulla segnalazione di privati e addetti ai lavori che, giorno per giorno, preparano cartine contenenti la presenza o meno di meduse in zone specifiche. Un esempio di questo servizio e’ offerto anche dalla rivista focus a questo indirizzo:

Focus, meteo meduse

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Il metodo Stamina

14 Lug

In questi giorni, molto si e’ tornato a parlare del cosiddetto “metodo Stamina”, sempre accompagnando la discussione con una sana dose di critiche e, purtroppo, come spesso accade, con la formazione di due partiti popolari: i favorevoli ed i contrari. Detto questo, su suggerimento di una nostra cara lettrice, vorrei parlarvi di questo metodo cercando pero’ di analizzare i punti fermi, cioe’ vorrei capire insieme a voi quali sono le basi su cui si fonda questo metodo, i risultati ottenuti e perche’ questo metodo viene tanto criticato.

Cominiciamo dalle basi. Cosa sarebbe il metodo Stamina? Come suggerisce il nome stesso, questa “terapia medica” si basa sull’utilizzo di cellule staminali per curare pazienti affetti da malattie neurodegenerative come, ad esempio, la Atrofia Muscolare Spinale, anche detta SMA1. Molte di queste malattie neurodegenerative affliggono bambini per cui capite bene la delicatezza e l’emotivita’ legata a queste terapie mediche.

Nel metodo stamina vengono estratte cellule staminali dal midollo osseo del paziente. Queste cellule sono anche dette mesenchimali. Una volta estratte, queste staminali vengono manipolate in vitro insieme ad acido retinoico ed etanolo e nel giro di 2 ore, le cellule vengono convertite in neuroni. A questo punto, i neuroni vengono utilizzati per curare il paziente e per arginare la degenerazione portata dalla malattia.

Bene, questo e’ in soldoni il metodo stamina. Prima di dire se funziona o non funziona, vorrei fare una considerazione: una qualsiasi terapia medica, deve necessariamente essere supportata da prove scientifiche. Spesso queste vengono raccolte e i risultati pubblicati in riviste specializzate in modo da poter essere fruibili e studiabili da tutti. Quali sono gli articoli a supporto del metodo stamina? Forse la cosa vi sorprendera’, ma non esiste nessun articolo che parla di questo metodo. Per essere precisi, l’unica prova a sostegno del metodo e’ la richiesta di brevetto fatta negli Stati Uniti. Che differenza c’e’, se c’e’ un brevetto, va bene anche questo. Vero, ma il brevetto e’ stato rifiutato. Sapete il perche’? Come evidenziato da un’inchiesta condotta dalla rivista Nature, la richiesta di brevetto conteneva delle foto di presunti neuroni ottenuti con questo metodo assolutamente false. Per dirla tutta, le foto allegate alla richiesta erano prese da una ricerca condotta in Ucraina per sperimentare un altro metodo, dunque assolutamente non relative al metodo stamina.

Come e’ possibile questo?

Prima abbiamo accennato alle cellule staminali prese dal midollo osseo del paziente. Anche se si parla sempre di staminali, queste cellule non sono tutte uguali tra loro. Nella cultura popolare, una cellula staminale e’ un’entita’ non specializzata che puo’ essere trasformata in una qualsiasi cellula del nostro corpo. Questo in realta’ e’ falso. Le cellule staminali vengono divise tra loro in base alla cosiddetta “potenza”. Questa caratteristica indica la potenzialita’ di una cellula staminale a trasformarsi o specializzarsi in altro. Le staminali mesenchimali possono, come dimostrato e riportato nella bibliografia medica, trasformarsi in cellule ossee, cartillaginose o adipose. E’ assolutamente non dimostrato e mai provato prima che queste cellule possano convertirsi in neuroni.

Come e’ possibile tutto questo? Purtroppo, come anticipato, quando si parla di questi metodi non dimostrati, molto facilmente si tende a dividersi tra pro e contro, senza pero’ informarsi di tutto quello che c’e’ intorno.

Come detto prima, ruolo importante in questi casi e’ giocato dall’emotivita’ dei soggetti coinvolti. Facciamo un esempio, in condizioni normali, se doveste pensare, speriamo mai di no, ad una situazione di malattia grave, a chi vi rivolgereste? Sicuramente, ragionando in maniera fredda e non coinvolta, pensereste di rivolgervi ai migliori esperti del campo. Come si determina l’esperto? In base alla fama, all’attivita’ svolta, ai ruoli ricoperti, agli articoli pubblicati, ecc. Vi rivolgereste mai ad un non medico? Penso proprio di no. Bene, senza voler apparire classista, ma solo per dovere di cronaca, Davide Vannoni, colui che per primo ha proposto questo metodo, e’ laureato in Lettere e Filosofia, non ha assolutamente nessuna laurea in medicina.

Vi fidereste di un non medico? Penso proprio di no, pero’ c’e’ sempre da considerare l’aspetto emotivo di queste situazioni. Vedere un proprio caro morire lentamente, giorno per giorno, e’ qualcosa di tremendo. In queste condizioni, qualsiasi speranza, anche la piu’ vana, anche la piu’ assurda, possono servire per riaccendere la speranza. Questa emotivita’ ci porta pero’ a fare qualche volta dei passi non ragionati.

Perche’ la scienza non accetta il metodo stamina? Sicuramente, la non accettazione non dipende assolutamente da chi propone un metodo. Se questo funziona, funziona e basta. Per poter affermare la correttezza e la validita’ di un metodo terapeutico e’ pero’ necesssario portare delle prove. Come detto, parliamo di cellule che, almeno alle conoscenze attuali, non possono convertire in neuroni.

Quali sono i risultati ottenuti?

Ad oggi, non ci sono evidenze della validita’ di questo metodo. Pazienti trattati con il metodo stamina non hanno avuto vantaggi e la mortalita’ e’ del tutto analoga a quella dei pazienti non trattati. Nel 2011 il metodo stamina e’ stato accettato come “cura compassionevole” all’ospedale di Brescia. Cosa significa? Non vi sono evidenze del suo funzionamento, ma se puo’ fungere da paliativo, allora somministriamo al paziente morente quello che preferisce. In particolare, in letteratura si riporta il caso di 5 bambini trattati con il metodo, di cui 3 sono morti. La spiegazione data da Vannoni in questo caso e’ che le cellule non sono state preparate in modo adeguato. La cosa che pero’ molti sostenitori dimenticano di dire e’ che le cellule vennero preparate su specifica indicazione e sotto la supervisione proprio di Vannoni.

Nei mesi scorsi, lo Stato Italiano ha dato il via ad una nuova sperimentazione del metodo stamina, prevedendo un contributo di ben 3 milioni di euro. La sperimentazione sarebbe dovuta partire il 1 luglio di quest’anno ma, ad oggi, ancora non si e’ potuti partire. Sapete il perche’? Su internet trovate scritto che questo ritardo e’ dovuto alla pressione dei medici per impedire che questo metodo porti risultati. Tutto falso. La sperimentazione non e’ ancora partita perche’ il ministero ha chiesto a Vannoni di consegnare il protocollo di sperimentazione con tutte le procedure che verranno seguite. Ad oggi, questo protocollo non e’ stato ancora consegnato. La spiegazione di Vannoni e’ che il protocollo non puo’ essere scritto perche’ il trattamento non puo’ essere standardizzato e le procedure devono essere valutate caso per caso.

Dal punto di vista medico questo e’ assurdo. Vannoni, in una recente intervista, parla della soggettivita’ della malattia e delle cellule, cosa del tutto inesatta. Per quanto riguarda la soggettivita’ del caso possiamo essere d’accordo, ma le cellule staminali sono le stesse per chiunque. Se esiste un metodo per convertire una cellula staminale in altro, questo e’ identico per tutti. Forse, con una laurea in medicina o con una maggiore informazione si eviterebbe di dire certe sciocchezze.

La stessa rivista Nature, nell’editoriale di cui abbiamo parlato, ha esplicitamente chiesto allo Stato Italiano di non far partire la sperimentazione. Secondo l’importante rivista, questa sperimentazione alimenterebbe false speranzde su un metodo non scientifico e a cui mancano le necessarie basi. Alla luce di quanto visto, non possiamo che condividere questa posizione.

UItima riflessione, perche’ tante persone affermano che il metodo funziona? Queste persone sono molto spesso familiari di malati che, come detto, vedono in questo metodo l’ultima speranza a cui attaccarsi. E’ possibile biasimare queste posizioni? Assolutamente no. Quello che andrebbe evitato e’ dare false speranze a persone in uno stato emotivo del tutto particolare. Purtroppo, parlare in questi termini e’ come pensare alle tante persone che si fanno truffare da stregoni e maghi televisivi. Chiunque, in uno stato sano, direbbe che e’ impossibile dare credito a falsi profeti televisivi eppure e’ pieno di casi di gente truffata per comprare amuleti, pozioni e altro. Purtroppo, uno stato psicologico particolare crea terreno fertile per chiunque.

Concludendo, come visto il metodo stamina e’ privo di qualsiasi fondamento scientifico. Ad oggi, manca una qualsiasi prova della validita’ del metodo cosi’ come mancano articoli su riviste mediche che confermano eventuali risultati. La domanda di brevetto presentata e’ stata rifiutata perche’ contenente dati falsificati. Quello che sta avvenendo oggi, ripercorre purtroppo quanto accaduto in passato sul metodo di Bella. Anche in questo caso, una sperimentazione serie e scientifica, mostro’ l’assoluta non validita’ del metodo. Speriamo almeno che si eviti di buttare soldi pubblici per sperimentazioni inutili invece di finanziare ricerche serie.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La mano di Dio sulle dimissioni del Papa

13 Feb

Come era facile immaginare, da ieri tutti i giornali, i siti internet e le trasmissioni TV non fanno altro che parlare delle dimissioni di papa Bendetto XVI. Se vogliamo questo e’ giusto, dal momento che si tratta di una notizia unica nel nostro tempo. Nessuno di noi avrebbe mai pensato alle dimissioni di un papa. Forse qualcuno, attraverso i propri ricordi scolastici, ricordava Celestino V, ma sembravano delle cose appartenenti ad un lontano passato.

Quello che pero’ e’ sbagliato, e’ che da ieri in molti stanno parlando senza sosta della profezia di Malachia e della prossima fine di Roma:

2012 e la profezia di Malachia

Si avvera la profezia di Malachia

In questo modo si sta creando un nuovo caso mediatico dopo quello del 21 Dicembre 2012 legato alla profezia Maya. In particolare, non e’ chiaro cosa si intenda per la fine di Roma. C’e’ chi azzarda la distruzione della capitale, la fine della Cristianita’, la fine del papato e chi, senza mezze misure, parla della fine del mondo.

Come visto, molto probabilmente la profezia e’ un falso storico, ben piu’ recente della presunta data e neanche attribuibile a San Malachia.

Premesso questo, c’e’ anche un altro presunto segnale che sta facendo pensare che sia in corso qualche sconvolgimento senza precedenti. Poche ore dopo l’annuncio di Benedetto XVI, cioe’ nella serata del 11 Febbraio, sembrerebbe sia caduto un fulmine molto potente proprio sulla Basilica di San Pietro. Eccovi la foto che sta facendo il giro del mondo:

Il fulmine caduto sulla Basilica di San Pietro l'11 Febbraio

Il fulmine caduto sulla Basilica di San Pietro l’11 Febbraio

Questa foto e’ stata scattata da Alessandro di Meo, fotografo dell’ANSA. Capite bene come questa immagine abbia accesso ancora di piu’ gli animi dei catastrofisti. Solo poche ore dopo l’annuncio, un fulmine cade sul simbolo della cristianita’. Ovviamente, c’e’ chi parla di segnale divino o anche solo di un altro segno premonitore che dovrebbe farci riflettere su qualcosa che sta accadendo.

Come se non bastasse, in rete e’ comparsa anche una seconda foto di un fulmine caduto, sempre in Italia, e sempre su un importante simbolo della Cristianita’, cioe’ il Duomo di Milano:

La foto falsa del fulmine su Milano

La foto falsa del fulmine su Milano

Cerchiamo di capire meglio questa storia facendo considerazioni oggettive e senza lasciarci trasportare da facili sensazionalismi.

Inizio subito col dirvi che la foto del Duomo di Milano e’ falsa. Senza ombra di dubbio, la foto e’ stata realizzata da qualche buontempone prendendo spunto proprio da quella di San Pietro. Come faccio a dire questo? Guardate bene la scia del fulmine. Notate che in realta’ nelle due foto compare esattamente lo stesso fulmine. Questo significa che la seconda foto e’ stata realizzata facendo copia/incolla della saetta di San Pietro.

Per la prima foto invece? Questa foto con buona probabilita’ e’ reale. Certo e’ difficile pensare di poter realizzare una foto cosi’ spettacolare di un evento che dura pochissimo tempo. Questo e’ vero, ma foto del genere vengono fatte mettendo la macchinetta sul cavalletto, per tenerla immobile, e poi inquadrando un paesaggio, o un edificio come in questo caso, con tempi di esposizione molto lunghi. Se durate l’apertura dell’obiettivo cade un fulmine, il gioco e’ fatto.

Tenete anche presente che la foto e’ stata fatta da un fotografo professionista dell’ANSA che nulla avrebbe da guadagnare realizzando una foto falsa in un giorno in cui a San Pietro c’erano centinaia di persone.

Premesso questo, veniamo ai fatti. Addirittura ho ascoltato alcune trasmissioni che raccontavano di fatto miracoloso perche’ si e’ trattato anche di un fulmine a ciel sereno. Niente di piu’ falso. Pensate che l’11 Febbraio, nei paesi dei Castelli Romani piu’ alti nevicava copiosamente mentre in quelli piu’ bassi, cosi’ come a Roma, pioveva a dirotto. Chi e’ di queste parti puo’ confermare, gli altri basta che pensino ai numerosi collegamenti da San Pietro fatti da tutti i telegiornali. Ogni volta il cronista stava sotto l’ombrello. Dunque, il fulmine a ciel sereno possiamo anche dimenticarlo.

Riassumendo, la foto e’ vera, non si e’ trattato di un fulmine a ciel sereno, ma e’ possibile che proprio l’11 sia caduto un fulmine sulla Basilica? E’ strano questo?

La parte piu’ alta della lanterna della Cupola e’ alta ben 130 metri. Questa altezza la rende da sempre molto soggetta ad essere colpita da fulmini. A riprova di questo, gia’ nel 1809 sulla lanterna fu installato un parafulmine dopo che, a causa dei numerosi eventi accaduti, l’energia delle saette aveva danneggiato notevolmente la copertura in piombo della cupola.

Questo primo parafulmine in realta’ non si e’ dimostrato del tutto efficiente per proteggere l’importante monumento. In un articolo del 2005, l’arcivescovo Comastri racconta dei lavori in corso per il restauro dell’esterno della Cupola ma anche dell’installazione di un nuovo parafulmine viste le continue scariche che arrivavano sulla Cupola:

2005, Comastri

Facciamo ancora piu’ chiarezza, pensando brevemente a come funziona un parafulmine.

Questo dispositivo venne inventato da Franklin ed utilizzato la prima volta a Parigi nel 1752. Molti possono pensare che un sistema di questo tipo sia semplicemente realizzato con una lunga asta metallica posta sopra un tetto. Niente di piu’ sbagliato.

Quando un fulmine colpisce qualcosa, cio’ che provoca danni non e’ quasi mai la corrente elettrica, bensi’ il calore sviluppato lungo il percorso fatto dal fulmine. La stessa cosa e’ avvenuta a San Pietro, in cui il calore aveva in parte sciolto il piombo della copertura rovinando la struttura. Per questo motivo, il parafulmine deve essere collegato a terra mediante un filo di sezione adatta. In questo modo, si crea un percorso dedicato e sicuro dove far passare il fulmine facendolo scaricare a terra.

Per potere attirare i fulmini, la parte piu’ alta dell’asta viene rivestita di un metallo nobile ad alta conducibilita’. In questo modo il parafulmine fa da vera e propia calamita evitando danni agli edifici circostanti.

Dunque? Abbiamo visto che, tra le altre cose, lo scopo del parafulmine e’ quello di attirare i fulmini. A Roma era in corso un temporale, la Cupola e’ uno degli edifici piu’ alti della zona, in cima alla cupola c’e’ un parafulmine. Detto questo non mi sembra assolutamente strano che un fulmine sia caduto sulla lanterna di San Pietro. A riprova, basta ripensare all’articolo del 2005 e ai danni causati dai tantissmi fulmini che continuamente cadono su San Pietro.

Concludendo, non credo ci sia assolutamente nulla da discutere riguardo a questo fulmine. Come ormai siamo abituati, si tende sempre a mescolare le carte per dare credibilita’ a teorie assurde gia’ vagliate e smentite da tempo. Quello che purtroppo e’ vero, e’ che tra abdicazione papale, Conclave e prossimo pontefice, ci sara’ ancora molto da discutere sulla profezia di Malachia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

Le previsioni del tempo

20 Gen

Molto spesso mi viene chiesto come sono fatte le previsioni del tempo. In questi ultimi giorni poi, l’argomento e’ molto di moda anche grazie ai continui annunci di copiose nevicate, ad esempio su Roma, che pero’ ancora non si sono viste.

Cerchiamo di fare un po’ di ordine ma soprattutto di capire quale e quanto lavoro c’e’ dietro quelle previsioni fatte a 1, 2, 3 giorni o, a volte, anche a mesi di distanza.

Al giorno d’oggi, le previsioni del tempo si basano su equazioni numeriche in grado di descrivere i complessi movimenti delle masse d’aria nel mondo, ma soprattutto nell’evoluzione temporale di questi parametri. In soldoni, la fisica vi descrive il movimento di queste masse d’aria e, misurando i parametri in questo momento, viene costruita una simulazione che cerca di fornire la situazione che si avra’ a distanza di tempo.

Meteo

Fate subito attenzione ad una cosa. Come detto, vengono presi i parametri atmosferci ad un certo istante e da questi viene costruita la modellizzazione nel tempo del meteo. Capite subito che tanto piu’ vicina sara’ la previsione richiesta, tanto piu’ affidabile sara’ il risultato fornito.

Per capire questo fondamentale limite, vi faccio un esempio molto facile. Immaginate di vedere una persona che cammina per strada e di voler simulare come cambiera’ nel tempo la sua posizione. L’istante iniziale e’ quello in cui osservate la persona. Ora, immaginando di vedere la persona che sta camminando con una certa velocita’ in una direzione potete dire, senza continuare a guardarla, che dopo 10 secondi sara’ arrivata in quest’altra posizione, dopo 20 secondi in quest’altra, e cosi’ via. Dove sara’ la persona dopo 3 ore? Assolutamente non siete in grado di dare questa risposta perche’ il vostro modello, basato solo sull’osservazione della direzione della persona ad un certo istante, non riesce a rispondere a questa domanda (la persona potrebbe essersi fermata, essere arrivata ad un bivio, potrebbe essere tornata indietro, ecc).

Le previsioni del tempo funzionano piu’ o meno in questo modo. I modelli ovviamente sono molto complessi dal momento che devono descrivere il movimento nel tempo delle enormi masse d’aria circolanti sul nostro pianeta.

La raccolta dei dati per le previsioni atmosferiche viene fatta utilizzando stazioni a terra, palloni sonda e satelliti metereologici. Le informazioni raccolte vengono poi inviate ed analizzate mediante potenti supercomputer in grado non di risolvere le equazioni del modello, ma di dare la risposta piu’ probabile, cioe’ la situazione del tempo ad una certa data.

A questo punto la domanda e’: quali sono i parametri che vengono misurati e perche’ le previsioni a volte sbagliano?

Mentre la prima risposta e’ abbastanza semplice ed intuibile per tutti, la seconda e’ una domanda un po’ piu’ complessa e che merita qualche considerazione aggiuntiva.

Riguardo ai parametri, come potete facilmente immaginare, si tratta di osservare le nuvole, la quantita’ di precipitazioni nel mondo, i gradienti di temperatura e pressione lungo l’atmosfera, i venti ma soprattutto di modellizzare i fenomeni meteorologici dal punto di vista fisico. Se due masse d’aria di temperatura diversa si scontrano, con quale probabilita’ si formeranno nuvole cariche di pioggia? Come vedete, in questo senso, il comportamento in atmosfera, e dunque la fisica, deve essere coniugato con i parametri osservati sul campo.

Partiamo dunque proprio dalla misure sul campo per capire l’affidabilita’ delle previsioni.

Prima di tutto, le osservazioni si basano su una griglia di misura che non copre in maniera adeguata tutta la superficie terrestre. Mentre i satelliti possono osservare praticamente tutto il mondo, le sonde in atmosfera, che forniscono i parametri ambientali, lasciano ampie aree scoperte. Con questo si intende che alcune zone della Terra non sono affatto sfiorate dalle misure. Dovendo trattare un sistema complesso come l’atmosfera, avere delle aree scoperte rappresenta sicuramente un limite. Inolre, l’atmosfera cambia i suoi parametri molto rapidamente, mentre per le previsioni i dati vengono letti ad intervalli regolari e, quindi, non con continuita’.

Sempre sulla stessa scia della griglia dei parametri, ad oggi ancora non e’ del tutto chiaro come la temperatura superficiale delle acque, cioe’ degli oceani, possa influire sul meteo. Come e’ facile immaginare, negli oceani possono essere presenti correnti a temperatura diversa ma e’ impensabile misurare in ogni punto dell’oceano la temperatura superficiale. A riprova di questo, basti pensare, ad esempio, al fenomeno del Nino o della Nina.

Ad oggi, l’affidabilita’ di una previsione a 24 ore e’ circa del 90%, mentre diviene dell’80% a distanza di 3 giorni. Questa stima scende rapidamente al 50% calcolando invece le previsioni ad una settimana. Praticamente, e’ come lanciare una monetina. Visti questi numeri, capite immediatamente come sia assurdo dare previsioni a 2 settimane, oppure sentir parlare ora di come sara’ il tempo quest’estate. Previsioni di questo tipo sono per scopi puramente commerciali e niente hanno a che vedere con la scienza.

Molto spesso, mi viene fatto l’esempio delle previsioni in formula 1. In un gran premio, se dicono che dopo 5 minuti iniziera’ a piovere, potete essere sicuri che accadra’. Perche’? Prima di tutto, si tratta di previsioni a brevissima scadenza, massimo a 30 minuti. Inoltre, si tratta di previsioni fatte in una zona ben precisa e circoscritta che riguarda l’area del circuito. In questo senso, l’attendibilita’ delle previsioni date arriva quasi a sfiorare il 100%.

A questo punto pero’ vorrei spezzare una lancia in favore della meteorologia per farvi capire le difficolta’ reali nell’elaborazione dei dati.

Credo che quasi tutti conoscano il cosiddetto “Effetto Farfalla”: Il battito di ali di una farfalla in Europa puo’ provocare un uragano negli Stati Uniti. Spesso viene raccontato utilizzando luoghi diversi, ma il senso e’ sempre lo stesso: basta un avvenimento minimo per cambiare irreparabilmente il futuro di qualcosa.

Da dove nasce l’effetto farfalla? Forse non tutti sanno che venne formulato proprio parlando di meteorologia.

Il supercomputer ENIAC del 1947

Il supercomputer ENIAC del 1947

Il primo che provo’ a calcolare previsioni meteo in maniera scientifica fu John Von Neumann utilizzando il piu’ potente Super Computer disponibile nel 1950, l’ENIAC. Si tratto’ del quarto computer realizzato nella storia ed in grado di fare calcoli che farebbero ridere un’odierna calcolatrice tascabile. Pensate che durante la cerimonia di inaugurazione, l’ENIAC lascio’ tutti a bocca aperta perche’ calcolo’ in un secondo il risultato di 97367 elevato alla 5000 causando un blackout in una vasta zona di Filadelfia. L’utilizzo principale di questo computer era per il calcolo balistico nel lancio dei missili, ma venne poi utilizzato anche per altri scopi, tra cui per le previsioni del tempo da Von Neumann.

Per darvi un’idea, dati i valori in ingresso, l’ENIAC era in grado di fornire in 24 ore, la previsione per le prossime 24 ore. Capite dunque l’inutilita’ di queste previsioni, arrivato il risultato bastava aprire la finestra per verificarlo, ma servi’ per spianare la strada ai moderni calcoli.

Cosa c’entrano l’ENIAC, Von Naumann e l’effetto farfalla con l’affidabilita’ delle previsioni del tempo?

Dalle previsioni di Von Neumann con l’ENIAC si evidenzio’ come modificando i parametri in ingresso di una quantita’ piccola a piacere, il risultato a distanza di 24 ore, poteva essere radicalmente diverso. Questo risultato venne poi ripreso da Lorenz che fu il primo a formulare l’effetto farfalla cosi’ come lo conosciamo oggi.

Analizzando questi risultati, capite bene quali siano le difficolta’ delle previsioni del tempo. Abbiamo a disposizione dati spesso incompleti, i parametri atmosferici possono cambiare repentinamente modificando completamente la situazione, una minima variazione dei parametri atmosferici puo’ cambiare radicalmente il risultato della previsione anche a breve termine.

Concludendo, la meterologia e’ una scienza molto complessa e non facilmente parametrizzabile mediante funzioni matematiche. Questo limite delle simulazioni e’ esattamente lo stesso di cui abbiamo parlato analizzando il calcolo della rotta di un asteroide. Anche in questo caso, una minima variazione delle condizioni al contorno del nostro problema possono modificare completamente il risultato. Proprio per questo motivo, in astrofisica cosi’ come in meteorologia e’ importante misurare in continuazione i dati ambientali.

Detto questo, se le previsioni a 2 settimane risultano sbagliate, la colpa e’ anche nostra che pretendiamo di avere qualcosa di non calcolabile. Se le previsioni ad un giorno sono sbagliate, pensate che forse c’e’ stata qualche farfalla di troppo.

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ la ricerca: economia

5 Gen

Nel post precedente:

Perche’ la ricerca: scienza e tecnologia

abbiamo cercato di rispondere alla domanda “perche’ fare ricerca?” discutendo il lato tecnologico e le possibili ricadute scientifiche nella vita di tutti i giorni. Come detto, stiamo cercando di rispondere a questa domanda non in senso generale, ma proprio contestualizzando la risposta in questi anni di profonda crisi economica o, comunque, investendo nella ricerca a discapito di settori considerati piu’ importanti o vitali per tutti i cittadini.

Dopo queste considerazioni piu’ tecniche, vorrei invece analizzare il discorso economico della ricerca. Come sappiamo, e come abbiamo visto nel precedente post, fare ricerca ad alti livelli implica investimenti molto massicci. Tolte le ricadute tecnologiche, cerchiamo invece di capire se sono investimenti a fondo perduto o se implicano un ritorno economico tangibile per le nazioni.

Come nel caso precedente, prendiamo come esempio tra grandi ricerche in settori diversi per cercare di quantificare in modo pratico, numeri alla mano. I soliti tre esempi sono: ITER, il reattore a fusione per scopi di ricerca, le missioni spaziali e il CERN, come esempio di grande laboratorio per la fisica delle particelle.

Partiamo da ITER e partiamo con una considerazione che ci deve far riflettere. ITER e’ una collaborazione internazionale in cui entrano gli Stati Uniti, il Giappone e alcuni paesi europei. Come detto, parliamo di un investimento dell’ordine di 10 miliardi di euro. Forse vi fara’ riflettere il fatto che Francia e Giappone hanno discusso per lungo tempo proprio per cercare di costruire il reattore nel proprio paese. Ovviamente averlo in casa offre dei vantaggi notevoli in termini di ricadute tecnologiche, ma sicuramente implica una maggiore spesa per il paese ospitante. Conoscendo la situazione economica attuale, se un paese cerca in tutti i modi di averlo in casa e dunque spendere di piu’, significa che qualcosa indietro deve avere.

Passiamo invece alle missioni spaziali. Altro tema scottante nel discorso economico e molte volte visto come una spesa enorme ma non necessaria in tempi di crisi. Partiamo, ad esempio, dal discorso occupazionale. Molte volte sentiamo dire dai nostri politicanti o dagli esperti di politica ecnomica che si devono fare investimenti per creare posti di lavoro. Vi faccio un esempio, al suo apice, il programma di esplorazione Apollo dava lavoro a circa 400000 persone. Non pensiamo solo agli scienziati. Un programma del genere crea occupazione per tutte le figure professionali che vanno dall’operaio fino al ricercatore, dall’addetto alle pulizie dei laboratori fino all’ingegnere. Ditemi voi se questo non significa creare posti di lavoro.

Passando invece all’esempio del CERN, sicuramente i numeri occupazionali sono piu’ piccoli, ma di certo non trascurabili. Al CERN ci sono circa 2500 persone che tutti i giorni lavorano all’interno del laboratorio. A questi numeri si devono poi sommare quelli dei paesi che partecipano agli esperimenti ma non sono stanziali a Ginevra. In questo caso, arriviamo facilmente ad una stima intorno alle 15000 unita’.

A questo punto pero’ sorge una domanda che molti di voi si staranno gia’ facendo. LHC, come esempio, e’ costato 6 miliardi di euro. E’ vero, abbiamo creato posti di lavoro, ma la spesa cosi’ elevata giustifica questi posti? Con questo intendo, se il ritorno fosse solo di numeri occupazionali, allora tanto valeva investire cifre minori in altri settori e magari creare piu’ posti di lavoro.

L’obiezione e’ corretta. Se il ritorno fosse solo questo, allora io stesso giudicherei l’investimento economico, non scientifico, fallimentare. Ovviamente c’e’ molto altro in termini finanziari.

Prima di tutto vi devo spiegare come funziona il CERN. Si tratta di un laboratorio internazionale, nel vero senso della parola. Il finanziamento del CERN viene dai paesi membri. Tra questi, dobbiamo distinguere tra finanziatori principali e membri semplici. Ovviamente i finanziatori principali, che poi sono i paesi che hanno dato il via alla realizzazione del CERN, sono venti, tra cui l’Italia, ma, ad esempio, alla costruzione di LHC hanno partecipato circa 50 paesi. Essere un finanziatore principale comporta ovviamente una spesa maggiore che viene pero’ calcolata anno per anno in base al PIL di ogni nazione.

Concentriamoci ovviamente sul caso Italia, ed in particolare sugli anni caldi della costruzione di LHC, quelli che vanno dal 2000 al 2006, in cui la spesa richiesta era maggiore.

Nel 2009, ad esempio, il contributo italiano e’ stato di 83 milioni di euro, inferiore, in termini percentuali, solo a Francia, Germania e Regno Unito.

Contributo italiano al CERN in milioni di euro. Fonte: S.Centro, Industrial Liasion Officer

Contributo italiano al CERN in milioni di euro. Fonte: S.Centro, Industrial Liaison Officer

Il maggiore ritorno economico per i paesi e’ ovviamente in termini di commesse per le industrie. Che significa questo? Servono 100 magneti, chi li costruisce? Ovviamente le industrie dei paesi membri che partecipano ad una gara pubblica. Il ritorno economico comincia dunque a delinearsi. Investire nel CERN implica un ritorno economico per le industrie del paese che dunque assumeranno personale per costruire questi magneti. Stiamo dunque facendo girare l’economia e stiamo creando ulteriori posti di lavoro in modo indiretto.

Apriamo una parentesi sull’assegnazione delle commesse. Ovviamente si tratta di gare pubbliche di appalto. Come viene decretato il vincitore? Ogni anno, il CERN calcola un cosiddetto “coefficiente di giusto ritorno”, e’ un parametro calcolato come il rapporto tra il ritorno in termini di commesse per le industrie e il finanziamento offerto alla ricerca. Facciamo un esempio, voi investite 100 per finanziare la costruzione di LHC, le vostre industrie ottengono 100 di commesse dal CERN, il coefficiente di ritorno vale 1.

Ogni anno, in base al profilo di spesa, ci saranno coefficienti diversi per ciascun paese. Si parla di paesi bilanciati e non bilanciati a seconda che il loro coefficiente sia maggiore o minore del giusto ritorno. In una gara per una commessa, se l’industria di un paese non bilanciato arriva seconda dietro una di un paese gia’ bilanciato, e lo scarto tra le offerte e’ inferiore al 20%, allora l’industria del paese non bilanciato puo’ aggiudicarsi la gara allineandosi con l’offerta del vincitore. In questo modo, viene ripartito equamente, secondo coefficienti matematici, il ritorno per ciascun paese.

Cosa possiamo dire sull’Italia? Negli anni della costruzione di LHC, LItalia ha sempre avuto un coefficiente molto superiore al giusto ritorno. Per dare qualche numero, tra il 1995 e il 2008, il nostro paese si e’ aggiudicato commesse per le nostre aziende per un importo di 337 milioni di euro.

Vi mostro un altro grafico interessante, sempre preso dal rapporto del prof. S.Centro dell'”Industrial Liaison Officer for Italian industry at CERN”:

Commesse e coefficiente di ritorno per l'Italia. Fonte: S.Centro, Industrial Liaison Officer

Commesse e coefficiente di ritorno per l’Italia. Fonte: S.Centro, Industrial Liaison Officer

A sinistra vedete gli importi delle commesse per gli anni in esame per il nostro Paese, sempre in milioni di euro, mentre a destra troviamo il coefficiente di ritorno per l’Italia calcolato in base all’investimento fatto. Tenete conto che in quesgli anni, la media del giusto ritorno calcolato dal CERN era di 0.97.

Guardando i numeri, non possiamo certo lamentarci o dire che ci abbiano trattato male. La conclusione di questo ragionamento e’ dunque che un investimento nella ricerca scientifica di qualita’, permette un ritorno economico con un indotto non indifferente per le aziende del paese. Ogni giorno sentiamo parlare di rilancio delle industrie, di creazione di posti di lavoro, di rimessa in moto dell’economia, mi sembra che LHC sia stato un ottimo volano per tutti questi aspetti.

Ultima considerazione scientifico-industriale. Le innovazioni apportate facendo ricerca scientifica, non muoiono dopo la realizzazione degli esperimenti. Soluzioni tecnologiche e migliorie entrano poi nel bagaglio industriale delle aziende che le utilizzano per i loro prodotti di punta. Molte aziende vengono create come spin-off di laboratori, finanziate in grossa parte dalla ricerca e poi divengono delle realta’ industriali di prim’ordine. L’innovazione inoltra porta brevetti che a loro volta creano un ritorno economico futuro non quantificabile inizialmente.

Concludendo, anche dal punto di vista economico, fare ricerca non significa fare finanziamenti a fondo perduto o fallimentari. Questo sicuramente comporta un ritorno economico tangibile immediato. Inoltre, il ritorno in termini tecnologici e di innovazione non e’ quantificabile. Fare ricerca in un determinato campo puo’ portare, immediatamente o a distanza di anni, soluzioni che poi diventeranno di uso comune o che miglioreranno settori anche vitali per tutti.

Vi lascio con una considerazione. Non per portare acqua al mulino della ricerca, ma vorrei farvi riflettere su una cosa. In questi anni di crisi, molti paesi anche europei, ma non l’Italia, hanno aumentato i fondi dati alla ricerca scientifica. A fronte di quanto visto, forse non e’ proprio uno sperpero di soldi.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ la ricerca: scienza e tecnologia

4 Gen

Molte volte, parlando di scienza e di ricerca scientifica, mi viene fatta una domanda apparentemente banale, ma che in realta’ nasconde un vero e proprio mondo: Perche’ fare ricerca?

Ovviamente in questo caso non parlo del senso letterale della domanda. E’ noto a tutti che la ricerca scientifica ci permette di aumentare la nostra conoscenza del mondo, dei meccanimi della natura e ci consente di dare un piccolo contributo al dilemma: da dove veniamo e dove andiamo?

In questo post e nel successivo, vorrei cercare di parlare proprio del senso piu’ pratico di questa domanda. Al giorno d’oggi, con la crisi che imperversa, molti si chiedono che senso abbia “sperperare” soldi nella ricerca scientifica invece di utilizzarli per fini piu’ pratici e tangibili per la societa’.

In questo primo post vorrei parlare delle motivazioni scientifiche e tenologiche della ricerca scientifica, mentre nel prossimo post mi vorrei concentrare sugli aspetti piu’ prettamente economici.

Premesso questo, cerchiamo di capire quali sono le implicazioni e le migliorie scientifiche apportate dall’attivita’ di ricerca.

Molti di voi sapranno gia’ che diverse tecniche di diagnostica medica, come la radiografia, la TAC, la PET, provengono e sono state pensate nell’ambito della ricerca scientifica ed in particolare per la costruzione di rivelatori per le particelle. Questi sono discorsi abbastanza noti e per principio non vi faro’ la solita storiella con date e introduzione negli ospedali di queste tecniche.

Parliamo invece di cose meno note, ma forse ben piu’ importanti.

A costo di sembrare banale, vorrei proprio iniziare da LHC al CERN di Ginevra e dalla ricerca nella fisica delle alte energie. In questo caso, stiamo parlando del piu’ grande acceleratore in questo settore e ovviamente anche del piu’ costoso. Con i suoi 6 miliardi di euro, solo per l’acceleratore senza conteggiare gli esperimenti, parliamo di cifre che farebbero saltare sulla sedia molti non addetti ai lavori.

Che vantaggi abbiamo ottenuto a fronte di una spesa cosi grande?

Next: il primo server WWW del CERN

Next: il primo server WWW del CERN

Partiamo dalle cose conosciute. Solo per darvi un esempio, il “world wide web” e’ nato proprio al CERN di Ginevra, dove e’ stato sviluppato per creare un modo semplice e veloce per lo scambio di dati tra gli scienziati. Ad essere sinceri, un prototipo del WWW era gia’ stato sviluppato per ambiti militari, ma l’ottimizzazione e la resa “civile” di questo mezzo si deve a due ricercartori proprio del CERN:

CERN, were the web was born

Restando sempre in ambito tecnlogico, anche l’introduzione del touchscreen e’ stata sviluppata al CERN e sempre nell’ambito della preparazione di rivelatori di particelle. A distanza di quasi 20 anni, questi sistemi sono ormai di uso collettivo e vengono utilizzati in molti degli elettrodomestici e dei gadget a cui siamo abituati.

Uno dei primi sistemi touch introdotti al CERN

Uno dei primi sistemi touch introdotti al CERN

Pensandoci bene, tutto questo e’ normale. Rendiamoci conto che costruire un acceleratore o un esperimento sempre piu’ preciso, impone delle sfide tecnologiche senza precedenti. Laser, sistemi di controllo ad alta frequenza, magneti, rivelatori sono solo alcuni esempi dei sistemi che ogni volta e’ necessario migliorare e studiare per poter costruire una nuova macchina acceleratrice.

Anche in ambito informatico, la ricerca in fisica delle alte energie impone dei miglioramenti che rappresentano delle vere e proprie sfide tecnologiche. Un esperimento di questo tipo, produce un’enorme quantita’ di dati che devono essere processati e analizzati in tempi brevissimi. Sotto questo punto di vista, la tecnologia di connessione ad altissima velocita’, le realizzazione di sistemi di contenimento dei dati sempre piu’ capienti e lo sviluppo di macchine in grado di fare sempre piu’ operazioni contemporaneamente, sono solo alcuni degli aspetti su cui la ricerca scientifica per prima si trova a lavorare.

Saltando i discorsi della diagnostica per immagini di cui tutti parlano, molte delle soluzioni per la cura di tumori vengono proprio dai settori della fisica delle alte energia. Basta pensare alle nuove cure adroterapiche in cui vengono utilizzati fasci di particelle accelerati in piccoli sistemi per colpire e distruggere tumori senza intaccare tessuti sani. Secondo voi, dove sono nate queste tecniche? Negli acceleratori vengono accelerate particelle sempre piu’ velocemente pensando sistemi sempre piu’ tecnologici. La ricerca in questi settori e’ l’unico campo che puo’ permettere di sviluppare sistemi via via piu’ precisi e che possono consentire di colpire agglomerati di cellule tumorali di dimensioni sempre minori.

Detto questo, vorrei cambiare settore per non rimanere solo nel campo della fisica delle alte energie.

In Francia si sta per realizzare il primo reattore a fusione per scopi di ricerca scientifica. Questo progetto, chiamato ITER, e’ ovviamente una collaborazione internazionale che si prefigge di studiare la possibile realizzazione di centrali necleari a fusione in luogo di quelle a fissione. Parlare di centrali nucleari e’ un discorso sempre molto delicato. Non voglio parlare in questa sede di pericolosita’ o meno di centrali nucleari, ma il passaggio della fissione alla fusione permetterebbe di eliminare molti degli svantaggi delle normali centrali: scorie, fusione totale, ecc. Capite dunque che un investimento di questo tipo, parliamo anche in questo caso di 10 miliardi di euro investiti, potrebbe portare un’innovazione nel campo della produzione energetica senza eguali. Se non investiamo in queste ricerche, non potremmo mai sperare di cambiare i metodi di produzione dell’energia, bene primario nella nostra attuale societa’.

La sonda Curiosity della NASA

La sonda Curiosity della NASA

Passando da un discorso all’altro, in realta’ solo per cercare di fare un quadro variegato della situazione, pensiamo ad un altro settore sempre molto discusso, quello delle missioni spaziali. Se c’e’ la crisi, che senso ha mandare Curiosity su Marte? Perche’ continuiamo ad esplorare l’universo?

Anche in questo caso, saltero’ le cose ovvie cioe’ il fatto che questo genere di missioni ci consente di capire come il nostro universo e’ nato e come si e’ sviluppato, ma parlero’ di innovazione tecnologica. Una missione spaziale richiede l’utilizzo di sistemi elettronici che operano in ambienti molto difficili e su cui, una volta in orbita, non potete certo pensare di mettere mano in caso di guasto. L’affidabilita’ di molte soluzioni tecnologiche attuali, viene proprio da studi condotti per le missioni spaziali. Esperimenti di questo tipo comportano ovviamente la ricerca di soluzioni sempre piu’ avanzate, ad esempio, per i sistemi di alimentazione. L’introduzione di batterie a lunghissima durata viene proprio da studi condotti dalle agenzie spaziali per le proprie missioni. Anche la tecnologia di trasmissione di dati a distanza, ha visto un salto senza precedenti proprio grazie a questo tipo di ricerca. Pensate semplicemente al fatto che Curiosity ogni istante invia dati sulla Terra per essere analizzati. Se ci ragionate capite bene come queste missioni comportino lo sviluppo di sistemi di trasferimento dei dati sempre piu’ affidabili e precise per lunghissime distanze. Ovviamente tutti questi sviluppi hanno ricadute molto rapide nella vita di tutti i giorni ed in settori completamente diversi da quelli della ricerca scientifica.

Concludendo, spero di aver dato un quadro, che non sara’ mai completo e totale, di alcune delle innovazioni portate nella vita di tutti i giorni dalla ricerca scientifica. Come abbiamo visto, affrontare e risolvere sfide tecnologiche nuove e sempre piu’ impegnativa consente di trovare soluzioni che poi troveranno applicazione in campi completamente diversi e da cui tutti noi potremmo trarre beneficio.

Ovviamente, ci tengo a sottolineare che la conoscenza apportata dai diversi ambiti di ricerca non e’ assolutamente un bene quantificabile. Se vogliamo, questo potrebbe essere il discorso piu’ criticabile in tempi di crisi, ma assolutamente e’ la miglioria della nostra consapevolezza che ci offre uno stimolo sempre nuovo e crea sempre piu’ domande che risposte.

Post successivo sul discorso economico: Perche’ la ricerca: economia

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Crop Poirino 2011: sono stati gli alieni?

11 Ott

In questo blog, abbiamo dedicato molti post ai cerchi nel grano:

Ancora sui cerchi nel grano

Nuovo cerchio, nuova data!

4 Agosto: una nuova conferma

con particolare riguardo a quelli nostrani comparsi nel 2012:

21 Dicembre 2012: cerchi nel grano

Non ci siamo invece mai occupati di un cerchio piu’ datato, risalente al 2011, comparso sempre nella zona di Poirino, e noto come il cerchio di Enki Ea.

Ecco una foto del cerchio:

Il cerchio Enki-Ea del 2011

Questa opera ha suscitato l’interesse di molti appassionati di cerchi, anche a causa della difficolta’ di interpretazione del messaggio. Secondo alcuni, ci sarebbe una indicazione al 21 Dicembre 2012, altri hanno ipotizzato che fosse una rappresentazione artistica del Sistema Solare, altri ancora, basandosi sui disegni della parte periferica, hanno ipotizzato che il crop contenesse le coordinate di una regione somala affetta da siccita’. Anche l’indicazione Enki Ea rappresenta una diversa interpretazione. Enki, successivamente conosciuto come Ea, era il Dio sumero della sapienza e della creazione. Da questo, si evince anche la connessione proposta tra il disegno e le civilta’ aliene che gia’ in passato sarebbero entrate in contatto con i popoli della Mesopotamia.

Come potete capire, per diverse tempo la ricerca dell’interpretazione del messaggio ha suscitato l’interesse di molti siti catastrofisti e di appassionati in genere. Anche a causa di questo, su molti siti si parla di questo crop come un esempio di opera di origine extraterrestre.

Su questo blog, piu’ volte ci siamo soffermati sull’origine dei cerchi nel grano, portando sempre avanti la tesi della natura umana. Come visto in questo post:

Come si realizza un cerchio nel grano

la realizzazione di queste opere non e’ affatto complessa. Coem dichiarato, un piccolo gruppetto di 5-6 persone riesce a realizzare opere di questo tipo nell’arco di una notte in condizioni di scarsa illuminazione. Ovviamente, la preparazione a tavolino del disegno e l’organizzazione della squadra sono condizioni necessarie.

Perche’ stiamo tornando su un cerchio del 2011?

In occasione del XII convegno nazionale del CICAP, che si e’ concluso oggi a Volterra, Francesco Grassi ha presentato una relazione sui cerchi nel grano, parlando proprio di questo crop.

Come abbiamo visto in altri post, Grassi, oltre ad essere membro del CICAP, e’ anche noto come crop maker e organizzatore di corsi per mostrare la realizzazione di cerchi. In particolare, nella sua relazione a Volterra, Grassi ha ammesso di essere uno degli autori del cerchio Enki Ea.

Da quanto raccontato, Grassi, insieme ad altri 5 membri del CICAP, ha realizzato il crop nel giro di poche ore, la notte tra il 18 e il 19 Giugno del 2011.

Il disegno sarebbe stato appositamente pensato per studiare le reazioni della rete al nuovo crop. Come detto, la difficolta’ di interpretazione dell’opera ha contribuito a mitizzare questo cerchio elevandolo come esempio di opera extraterrestre. Queste affermazioni non fanno altro che confermare quanto da noi detto nei post precedenti. La realizzazione di opere di questo tipo, anche molto complesse, puo’ essere fatta da uno sparuto gruppo di persone nel giro di poche ore e utilizzando strumenti molto semplici.

Altro fattore che ha contribuito ad aumentare la curiosita’ su questo crop, e’ stata la presenza di materiali ferromagnetici sul grano, realizzata, come dichiarato e come visto nel nostro precedente post, utilizzando la limatura di ferro precedentemente sminuzzata.

A questo punto, ed in particolare per questo cerchio, non mi sembra ci sia ancora da discutere circa l’origine umana o meno dell’opera. Punto saliente della discussione e’ che il crop di Enki Ea era uno di quelli maggiormente quotati tra i fautori dell’origine aliena del cerchi. Ovviamente, si potrebbe controbbattere che non sono noti gli autori di molti altri cerchi, ma, alla luce delle tecniche realizzative e della complessita’ delle opere dichiaratamente umane, difficilmente si potrebbe credere all’origine aliena degli altri cerchi.

In questo caso particolare, il crop e’ stato realizzato appositamente per vedere la reazione dei catastrofisti e la loro interpretazione di un disegno misterioso. Credo che questo sia un chiaro esempio di come molte altre evidenze vengono create ad-hoc sfruttando la velocita’ delle informazioni su internet. Come siamo ormai soliti dire, diffidate sempre dalle notizie, qualunque sia la fonte. Cercate sempre di confrontare diverse interpretazioni e di reperire informazioni in maniera autonoma. Solo in questo modo potrete creare un’opinione, giusta o sbagliata, ma che almeno sia la vostra. Per analizzare in dettaglio le profezie sul 2012, ovviamente mostrando le fonti e cercando sempre di confrontare tutte le interpretazioni, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.