Tag Archives: tumore

Ma questa crema solare …. come dobbiamo sceglierla?

30 Giu

Sempre alla nostra sezione:

– Hai domande o dubbi?

va il merito, ma ovviamente tutto il merito va a voi che rendete questo blog vivo ed interessante, di aver richiamato da una nostra cara lettrice una nuova interessantissima domanda. Questa volta però, vi preannuncio che l’argomento scelto è molto complesso nella sua apparente semplicità, oltre ad essere assolutamente in linea con il periodo dell’anno. Come potete leggere, la domanda riguarda le creme solari e tutte le leggende che girano, non solo in rete, e che da sempre abbiamo ascoltato.

Come anticipato, non è semplice cercare di trovare la giusta strada nella giungla di informazioni disponibili. Se provate a confrontare dieci fonti, troverete dieci versioni diverse: le creme solari devono essere usate. No, non devo essere usate. Il sole è malato. Il sole provoca il cancro. No, sono le creme che creano il cancro alla pelle. Insomma, di tutto di più, e non pensate di rifuggire nella frase: “mi metto sotto l’ombrellone”, perché, come vedremo, anche questo lascia filtrare alcune componenti dei raggi solari e, sempre scimmiottando quello che trovate in rete, vi può venire il cancro. Allora sapete che c’è? Me ne sto chiuso dentro casa fino a settembre! Va bene così? No, sicuramente non prendi il sole (e quindi non ti viene il cancro), ma non ti si fissa la vitamina D e quindi potresti soffrire di rachitismo.

Insomma, come la mettete la mettete, sbagliate sempre. Cosa fare allora? Sicuramente, in linea con il nostro stile, quello che possiamo fare è “andare con ordine” e provare a verificare quali e quante di queste affermazioni corrispondono al vero. Solo in questo modo potremo capire quale crema solare scegliere, come applicarla e quali sono i rischi che possiamo correre con l’esposizione al Sole.

Prima di tutto, non dobbiamo considerare i raggi solari come un’unica cosa, ma è necessario distinguere la radiazione che ci arriva. Questa suddivisione è essenziale perché l’interazione della nostra pelle con i fotoni emessi dal sole non è sempre uguale, ma dipende dalla lunghezza d’onda. Bene, in tal senso, possiamo distinguere la parte dei raggi solari che ci interessa in tre grandi famiglie, in particolare, per i nostri scopi, ci concentreremo sulla parte ultravioletta dello spettro, che è quella di interesse in questo campo.

La parte cosiddetta ultravioletta è quella con lunghezza d’onda immediatamente inferiore alla parte visibile. Normalmente, questa parte dello spettro viene divisa in UVA, con lunghezza d’onda tra 400 e 315 nanometri, UVB, tra 315 e 280 nanometri e UVC, tra 280 e 100 nanometri. Quando parliamo di tintarella o di danni provocati dalla radiazione solare, dobbiamo riferirci alla parte UV ed in particolare a queste 3 famiglie.

Bene, la componente più pericolosa della radiazione solare è quella degli UVC cioè con lunghezza d’onda minore. Perché? Sono radiazioni utilizzate come germicidi, ad esempio nella potabilizzazione dell’acqua, a causa del loro potere nel modificare il DNA e l’RNA delle cellule. Per nostra fortuna, questa componente della radiazione è completamente bloccata dallo strato di ozono che circonda la Terra. Di questo, e soprattutto dello stato di salute dello strato di ozono, abbiamo parlato in un post specifico:

– Che fine ha fatto il buco dell’ozono?

Per la parte più pericolosa dello spettro, quella degli UVC, possiamo dunque tirare un respiro di sollievo. Vediamo le altre due componenti.

Gli UVA, a causa della lunghezza d’onda maggiore, penetrano più a fondo nella pelle, promuovendo il rilascio di melanina e dunque l’abbronzatura. Che significa? Molto semplice, quando prendiamo il sole, la nostra pelle reagisce cercando di proteggersi autonomamente appunto rilasciando melanina. Questa sostanza serve a far scurire gli strati più superficiali della pelle appunto come protezione dai raggi. Riguardo ala dannosità? Su questo punto, purtroppo, non si ha ancora chiarezza. Per prima cosa, dobbiamo dire che l’esposizione crea meno danni a tempi brevi rispetto, come vedremo, a quella agli UVB. Questa componente però è una delle maggiori sospettate per i danni a lungo termine, connessi anche con l’insorgere di tumori alla pelle, e provoca un invecchiamento veloce della pelle. Gli UVA sono molto conosciuti da coloro che frequentano i centri estetici per sottoporsi alle “lampade”. Questi sistemi infatti hanno sistemi di illuminazione concentrati negli UVA appunto per promuovere un’abbronzatura rapida.

Per quanto riguarda gli UVB invece, si tratta della radiazione più pericolosa nell’immediato. Questa componente dello spettro solare infatti, è responsabile della classica “scottatura”, in alcuni casi vera e propria ustione, provocata da un’esposizione prolungata al Sole. Anche se potenzialmente dannosa, la radiazione UVB è comunque importante per il nostro organismo perché promuove la sintesi della vitamina D. Come è noto, in assenza di questo fondamentale processo possono insorgere casi di rachitismo, soprattutto in soggetti non ancora adulti.

Bene, abbiamo capito come è divisa la radiazione ultravioletta del sole e abbiamo finalmente capito a cosa si riferiscono tutti questi nomi che siamo soliti ascoltare o leggere riguardo la tintarella.

Passiamo dunque a parlare di creme solari. Cosa dobbiamo cercare? Perché? Quali sono i prodotti più indicati?

Ripensando a quanto scritto, viene evidente pensare che una buona crema debba proteggerci dagli UVA e UVB poiché per gli UVC ci pensa lo strato di ozono. Primo pensiero sbagliato! Quando acquistiamo una crema solare, che, come vedremo, offre una certa protezione, questo valore si riferisce alla sola componente B della radiazione. Perché? Semplice, come visto, gli UVB sono responsabili delle scottature immediate. Se ci proteggiamo da questa componente salviamo la pelle garantendo la tintarella. Questo è assolutamente falso, soprattutto pensando ai danni a lungo termine dati da un’esposizione troppo prolungata agli UVA.

Solo negli ultimi anni, sono comparse sul mercato creme con protezioni ad alto spettro. Fate bene attenzione a questa caratteristica prima di acquistare un qualsiasi prodotto. Una buona crema deve avere un fattore di protezione per gli UVA non inferiore ad 1/3 di quello garantito per gli UVB.

Ora però, anche seguendo quanto affermato, parliamo appunto di queste protezioni. Fino a qualche anno fa, ricordo benissimo gli scaffali dei negozi strapieni di creme solari con fattori di protezione, SPF cioè fattore di protezione solare, che andavano da 0 a qualcosa come 100. Già allora mi chiedevo, ma che significa zero? A che cosa serve una crema con protezione 0 e, allo stesso modo, protezione 100 o, come qualcuno scriveva “protezione totale”, significa che è come mettersi all’ombra?

Capite già l’assurdità di queste definizioni create solo ed esclusivamente a scopo commerciale. Fortunatamente, da qualche anno, è stata creata una normativa apposita per questo tipo di cosmetici aiutando il consumatore a comprendere meglio il prodotto in questione. Oggi, per legge, esistono solo 4 intervalli di protezione che sono: basso, medio, alto e molto alto. Questi intervalli, in termini numerici, possono essere compresi utilizzando la seguente tabella:

 

Protezione SPF

Bassa 6 – 10

Media 15 – 20 – 25

Alta 30 – 50

Molto alta 50+

Notiamo subito che sono scomparse quelle orribili, e insensate, definizioni “protezione zero” e “protezione totale”. Ma, in soldoni, cosa significa un certo valore di protezione? Se prendo una crema con SPF 30 è il doppio più efficace di una con SPF 15? In che termini?

Detto molto semplicemente, il valore numerico del fattore di protezione indica il tempo necessario affinché si creino scottature rispetto ad una pelle non protetta. Detto in questo modo, una SPF 15 significa che la vostra pelle si brucerà in un tempo 15 volte maggiore rispetto a quello che impiegherebbe senza quella crema. Dunque, anche con una crema protettiva posso scottarmi? Assolutamente si. In termini di schermo alla radiazione, il potere schermante non è assolutamente proporzionale allo SPF ma, come visto, solo ai tempi necessari per l’insorgere di scottature.

A questo punto, abbiamo capito cosa significa quel numerello che corrisponde al fattore di protezione, ma come fanno le creme a schermare effettivamente dai raggi solari?

Per rispondere a questa domanda, dobbiamo in realtà dividere la protezione in due tipi: fisico e chimico. La protezione fisica avviene in modo pressoché meccanico aumentando il potere riflettente della pelle. Per questo scopo, nelle creme solari sono presenti composti come il biossido di titanio e l’ossido di zinco, sostanze opache che non fanno altro che far riflettere verso l’esterno la radiazione solare che incide sul nostro corpo.

Primo appunto, secondo alcuni l’ossido di zinco potrebbe essere cancerogeno! Ma come, mi metto la crema per proteggermi dai raggi solari ed evitare tumori alla pelle e la crema crea tumori alla pelle? In realtà, come al solito, su questo punto si è fatta molta confusione, tanto terrorismo e si è corsi, per convenienza, a conclusioni affrettate. Alcune ricerche hanno mostrato come tessuti cosparsi di molecole di ossido di zinco e sottoposti ad irraggiamento UV possano sviluppare radicali liberi che a loro volta reagiscono con le cellule modificandone il DNA. Questo processo può portare alla formazione di melanomi, per la pelle, e di altri tumori, per le altre cellule. Ora, si tratta di studi preliminari basati su valori di irraggiamento più alti rispetto a quelli che normalmente possono derivare da un’esposizione, anche prolungata, anche nelle ore centrali della giornata, al Sole. Detto molto semplicemente, questi studi necessitano di ulteriori ricerche per poter definire margini di errore e valori corretti. Gli stessi autori di queste analisi preliminari si sono raccomandati di non male interpretare il risultato dicendo che le creme solari provocano il cancro alla pelle. In altre parole, si corrono più rischi non proteggendosi dal sole piuttosto che proteggendosi con una crema contenente ossido di zinco. Tra le altre cose, questa molecola è molto nota tra le mamme che utilizzano prodotti all’ossido di zinco per alleviare le ustioni da pannolino nei loro bambini.

Detto questo, abbiamo poi la protezione chimica. Come potete facilmente immaginare, in questo caso si tratta di una serie di molecole (oxibenzone, fenilbenzilimidazolo, acido sulfonico, butil metoxidibenzoilmetano, etilexil metoxicinnamato, ecc.) che hanno il compito di assorbire la radiazione solare e di cedere parte di questa energia sotto forma di calore. Perché possiamo trovare così tante molecole in una crema solare? Semplice, ognuna di queste è specifica per una piccola parte dello spettro di radiazione, sia UVA che UVB. Anche su queste singole molecole, ogni tanto qualcuno inventa storie nuove atte solo a fare terrorismo, molto spesso verso case farmaceutiche. Singolarmente, come nel caso dell’ossido di titanio, ci possono essere studi più o meno avanzati, più o meno veritieri, sulla pericolosità delle molecole. Anche qui però, molto spesso si tratta di effetti amplificati, ben oltre la normale assunzione attraverso la cute e, ripeto per l’ennesima volta, si rischia molto di più esponendosi al sole piuttosto che utilizzando creme solari.

Ennesima cavolata in voga fino a qualche anno fa e ora vietata: creme solari “water proof”, cioè creme resistenti completamente all’acqua. Ve le mettete una volta, fate quanti bagni volete e siete a posto. Ma secondo voi, è possibile qualcosa del genere? Pensate di spalmarvi una crema o di farvi un tatuaggio indelebile? Oggi, per legge, la dicitura water proof è illegale e ha lasciato spazio, al massimo, a “water resistant”, cioè resistente all’acqua. Una qualsiasi crema solare, a causa del bagno, del sudore, del contatto con il telo, tende a rimuoversi e, proprio per questo motivo, si consiglia di riapplicare la crema ogni 2-3 ore circa per garantire la massima protezione possibile.

Riassumendo, abbiamo capito che conviene, sempre ed in tutti i casi, utilizzare una crema solare protettiva, ma quale scegliere?

Molto brevemente, in questo caso, si deve valutare quello che è definito il proprio fenotipo. Come potete immaginare, si tratta di una serie di caratteristiche fisiche che determinano, in linea di principio, l’effetto dell’esposizione la Sole. Per poter determinare il proprio fenotipo, possiamo fare riferimento a questa tabella:

fenotipo

Ovviamente, per i valori più bassi (I e II) è consigliabile utilizzare una crema ad alto SPF, valore che può diminuire qualora fossimo meno soggetti a scottature ed ustioni.

Credo che a questo punto abbiamo un quadro molto più chiaro riguardo alla creme solari ed alla loro utilità. Ripeto, per l’ennesima volta, in ogni caso, proteggersi è sempre meglio che esporsi al sole senza nessuna protezione. Ultimo appunto, che vuole sfatare un mito molto diffuso, sotto l’ombrellone siamo comunque esposti alla radiazione solare. In primis, il tessuto di molti ombrelloni lascia passare buona parte dello spettro solare ma, soprattutto, la riflessione dei raggi solari, ad esempio ad opera della sabbia, raggiunge comunque un soggetto tranquillo e (falsamente) riparato sotto l’ombrellone. In genere, la riflessione dei raggi solari può incrementare, e anche molto, la quantità di radiazione a cui siamo esposti. Stando nell’acqua, ad esempio, abbiamo sia un’esposizione diretta ai raggi solari sia una indiretta dovuta ai raggi riflessi dalla superficie. Come potete immaginare questo amplifica molto l’esposizione.

Concludendo, utilizzate le creme solari ma, soprattutto, leggete bene le etichette prima di acquistare o, peggio ancora utilizzare, un qualsiasi prodotto. Ovviamente, qualsiasi prodotto diventa non efficace se unito alla nostra incoscienza. Se pensate di potervi spalmare una crema e stare come lucertole sotto il Sole dalle 10 del mattino al tramonto … forse questa spiegazione è stata inutile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Il WC del futuro

6 Dic

Leggendo i giornali, a volte si trovano notizie davvero curiose ma che fanno riflettere. E’ questo il caso di una notizia apparsa anche su diversi quotidiani nazionali, che hanno parlato niente poco di meno che del WC del futuro.

Leggendo il titolo, la nostra fantasia potrebbe volare verso qualcosa di estremamente tecnologico. Chissa’ quanti e quali congegni elettronici potrebbero nascondersi dentro quella che possiamo chiamare “tazza 2.0”. Invece … leggendo la notizia si rimane un po’ delusi.

Perche’?

Ecco a voi il WC del futuro:

Il WC che consente di ottenere vantaggi medici

Il WC che consente di ottenere vantaggi medici

Cosa avrebbe di tanto particolare? Dov’e’ il modem, la tastiera, l’antena wireless o almeno uno schermo LCD? Niente di tutto questo. Questa soluzione e’ stata presentata solo pochi giorni fa ed e’ risultata la vincitrice di un concorso indetto da una societa’ inglese specializzata in scarichi fognari. Certo, detto in questo modo, sembrerebbe quasi una presa in giro.

In realta’, oltre ad essere firmata da esperti di design, secondo studi medici condotti, questa soluzione porterebbe notevoli vantaggi dal punto di vista medico. Per utilizzare questo WC e’ necessario accovacciarsi portando le gambe vicino al petto. Secondo studi medici, questa posizione consentirebbe di offrire la massima pulizia dell’intestino minimizzando l’insorgenza di tumori al colon e altri disturbi tra cui anche le emorroidi.

Certo, dal punto di vista tecnologico siamo rimasti un po’ delusi, ma dal punto di vista della salute, il vantaggio sembrerebbe essere notevole.

A parte la curiosita’ della notizia che volevo condividere con voi, facciamo qualche considerazione aggiuntiva. Come sapete bene, i rifiuti organici possono essere anche una fonte di energia oltre ad essere utili come fertilizzanti. Bene, sulla base di questo, perche’ non utilizzare questi scarti dal momento che parliamo sempre di energie rinnovabili?

Per chi non lo sapesse, questa non e’ un’idea nuova. La fondazione Bill e Melinda Gates, proprio del fondatore della Microsoft, si e’ gia’ lanciata nel settore. Come e’ noto, la fondazione finanzia diversi progetti, cercando di aiutare le popolazioni del terzo mondo. Tra questi, ve ne e’ uno che riguarda proprio il futuro del WC. La fondazione ha infatti stanziato gia’ piu’ di 5 milioni di dollari per finanziare la ricerca di una soluzione funzionante in condizioni estreme. I requisiti richiesti sono il funzionamento in totale assenza di corrente elettrica, di scarico filtrato e di acqua corrente. Altri parametri richiesti sono che gli scarti vengano utilizzati al massimo per produrre altri materiali e sostanze utili, come i gia’ citati fertilizzanti a anche, all’occorrenza, energia elettrica. Il progetto e’ in una fase avanzata e gia’ dal prossimo anno si dovrebbero testare i primi prototipi.

Concludendo, la soluzione presentata in questi giorni potrebbe aiutare dal punto di vista medico mentre sono in corso diversi studi per cercare di ottimizzare e sfruttare gli scarti organici. Come visto, questi rifiuti non devono essere dimenticati nel momento in cui si parla di produzione sostenibile e, soprattutto, rinnovabile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il processo di decaffeinizzazione

8 Ago

Nella sezione:

Hai domande o dubbi?

una nostra cara lettrice ci chiede di parlare del “caffe’ decaffeinato”. Credo che questo argomento sia molto interessante perche’ molto spesso si sentono tantissime leggende su questa soluzione. Tutti noi, almeno una volta, avremo sentito dire: “fa bene”, “fa male”, “e’ cancerogeno”, “e’ buono”, “fa schifo”, ecc. Come al solito, tante opinioni in disaccordo tra loro. Cerchiamo dunque di capire meglio come viene realizzato questo caffe’, cioe’ quali sono le tecniche maggiormente utilizzate per la decaffeinizzazione e, soprattutto, che genere di risultato si ottiene.

Qualche tempo fa, avevamo gia’ parlato della cosiddetta “fisica del caffe'”, parlando del principio di funzionamento della moka, spesso ignorato da molti, anche tra gli addetti ai lavori:

La fisica del caffe’

A questo punto, non resta che parlare invece della materia prima necessaria!

Come sapete bene, la caffeina, il cui nome chimico e’ 1,3,7-trimetilxantina, fu isolata per la prima volta nel 1820 ed e’ contenuta in almeno 60 varieta’ di piante, tra cui, ovviamente, caffe’, the, guarana’, cacao, ecc. La caffeina e’ un potente stimolante ed interagisce sul nostro umore aumentando i livelli di dopamina e bloccando i recettori dell’adenosina. Per inciso, quando i livelli di quest’ultima raggiungono una certa soglia, avvertiamo la sensazione di sonno.

Queste caratteristiche sono purtroppo sia il pro che il contro della caffeina. L’assunzione di questa sostanza puo’ infatti avere effetti dannosi in persone ansiose, con problemi di sonnoloenza, tachicardia, ecc. Come anticipato, l’effetto della caffeina e’ tutt’altro che blando, a livello biologico, questa molecola e’ un vero e proprio veleno, che risulta letale sopra una certa soglia, ovviamente non raggiungibile assumendo tazzine di caffe’.

Ora pero’, molte persone, tra cui il sottoscritto, adorano il caffe’ anche solo per il suo sapore o per la ritualita’ dell’assunzione. Proprio per questo motivo, si sono affinate diverse tecniche per eliminare la caffeina dai chicchi di caffe’, ottenendo una bevanda non stimolante, appunto il caffe’ decaffeinato.

Il decaffeinato fu inventato a Brema nel 1905 dal tedesco Ludwig Roselius, figlio di un assaggiatore di caffè, per conto della azienda “Kaffee Handels Aktien Gesellschaft”. Proprio in onore del nome dell’azienda, questo tipo di caffe’ venne chiamato prendendo le iniziali e dunque commercializzato come Caffe’ HAG. Per ottenere questo risultato, i chicchi di caffe’ venivano cotti a vapore con una salamoia di acqua e benzene. Quest’ultimo era il solvente in grado di estrarre la caffeina dal chicco.

Successivamente, questo metodo venne abbandonato trovando soluzioni alternative da utilizzare prima della tostatura, cioe’ quando il fagiolo e’ ancora verde. La tecnica maggiormente utilizzata fino a pochi anni fa, era quella che prevedeva l’utilizzo di diclorometano per estrarre la caffeina. Successivamente a questo trattamento, il caffe’ veniva lavato a vapore per eliminare il diclorometano, che ha un punto di ebollizione di circa 40 gradi. A questo punto, si passava alla essiccatura e tostatura dei chicchi a 200 gradi.

Questo metodo presentava purtroppo alcuni problemi, che poi sono quelli che spingono ancora oggi le leggende di cui parlavamo all’inizio.

Il diclorometano e’ una sostanza cancerogena per l’essere umano. Come anticipato, successivamente al suo utilizzo, il caffe’ passava per altri due processi con temperature notevolmente superiori al punto di ebollizione del diclorometano. Questo trattamento assicurava la completa evaporazione del potenziale cancerogeno sui chicchi.

Perche’ allora e’ stata abbandonata la tecnica?

Il problema reale di questa tecnica di decaffeinizzazione e’ che durante il trattamento con diclorometano, oltre alla caffeina, venivano estratte altre sostanze chimiche dai chicchi che contribuiscono al sapore della bevanda finale. In tal senso, il decaffeinato ottenuto con questa soluzione, aveva un sapore molto diverso da quello originale. Inoltre, anche altre sostanze benefiche per l’organismo venivano estratte dal caffe’ mentre venivano prodotti oli contenenti molecole da alcuni ritenute dannose per l’uomo.

Detto questo, capite bene dove nascono le leggende da cui siamo partiti, circa il sapore del decaffeinato e la pericolosita’ del suo utilizzo.

Oggi, la tecnica con diclorometano e’ quasi completamente abbandonata a favore dell’utilizzo della CO2 supercritica. Con questo termine si intende solo una stato con pressioni e temperature tali da renderla una via di mezzo tra un gas e un fluido. Nel processo di decaffeinizzazione, i chicchi di caffe’ vengono prima inumiditi con vapore per rigonfiarli ed aumentare la percentuale di acqua. Questo sempre con fagioli verdi, cioe’ prima della tostatura. A questo punto, i chicchi passano in colonne di estrattori insieme alla CO2 ad una tempratura tra 40 e 80 gradi ed una pressione intorno alle 150 atmosfere. Questo passaggio permette all’anidride carbonica di portare via la caffeina, toccando in minima parte le altre sostanze contenute nel caffe’. A seguito di questo passaggio, si procede ovviamente alla tostatura.

Quali sono i vantaggi di questa tecnica rispetto alla precedente?

Prima di tutto, si utilizza solo CO2, cioe’ una sostanza non pericolosa per l’essere umano. Il processo consente di estrarre gran parte della caffeina contenuta nel caffe’. Per legge, un caffe’ decaffeinato non deve avere piu’ del 0,1% di caffeina. Non intaccando, se non in minima parte, le altre sostanze, il sapore del caffe’ rimane quasi invariato, e quindi e’ molto piu’ simile all’analogo con caffeina.

Oltre a questi aspetti, la CO2 in uscita dal processo e’ ovviamente ricca di caffeina. Questa sostanza e’ notevolmente utilizzata in diversi settori tra cui la medicina, la farmacologia, la botanica, ecc. Proprio per questo motivo, in virtu’ del processo utilizzato, e’ possibile estrarre caffeina pura dall’anidride carbonica mediante un abbassamento di temperatura o utilizzando carboni attivi.

Lo stesso processo viene utilizzato anche su altre piante, oltre che per l’estrazione del colosterolo dal burro o dell’essenza dai fiori di luppolo, utilizzata nella produzione della birra.

Concludendo, molte delle leggende intorno al decaffeinato nascono in virtu’ del precedente metodo utilizzato per l’estrazione della caffeina dai chicchi. Oggi, l’utilizzo di CO2 supercritica consente di estrarre la maggior parte della caffeina, che oltre tutto puo’ essere recuperata e utilizzata in altri settori, lasciando quasi del tutto inalterate le altre sostanze che contribuiscono la sapore di questa ottima bevanda.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il Muos di Niscemi

2 Apr

Diversi lettori del blog mi hanno scritto per chiedere il mio punto di vista sul sistema MUOS la cui costruzione era prevista a Niscemi in Sicilia.

Per chi fosse completamente a digiuno, il MUOS e’ un sistema di comunicazione satellitare che prevede 4 satelliti in orbita e 4 stazioni di terra. Questo sistema e’ direttamente gestito e voluto dal Dipartimento della Difesa degli Stati Uniti e servira’ per gestire, comandare e controllare in ogni parte del globo, le unita’ marine, aeree e di terra. Il sistema prevede diversi servizi tra cui la comunicazione vocale, lo scambio dati e la connessione di rete, tutto ad accesso riservato per scopi militari e di coordinamento. Le stazioni di terra verranno utilizzate per comunicare direttamente con i satelliti in orbita e la costruzione era prevista nelle Hawaii, in Australia, in Virginia e, come anticipato, a Niscemi a circa 60 Km dalla base militare di Sigonella.

Le stazioni di terra prevedono la costruzione di antenne operanti ad altissima frequenza e a banda stretta. Ecco una foto dell’installazione nelle isole Hawaii:

MUOS: stazione di terra nelle Hawaii

MUOS: stazione di terra nelle Hawaii

Perche’ stiamo parlando di questo sistema? Per quanto riguarda la costruzione della stazione di Niscemi, per diverso tempo ci sono stati dibattiti e scontri circa l’eventuale pericolo che queste antenne avrebbero costituito per la popolazione del posto. Nel corso degli anni, si sono formati comitati cittadini creati per impedire la costruzione di questa stazione e il dibattito ha riempito le pagine di molti quotidiani anche a livello nazionale. Ovviamente non e’ mancata la discussione politica. Diverse volte l’aministrazione regionale ha tentato di bloccare i lavori causando una discussione tra Parlamento Italiano, regione Sicilia e governo degli Stati Uniti. Come forse avrete letto, solo pochi giorni fa, l’amministrazione Crocetta ha bloccato definitivamente la costruzione della stazione ma, almeno a mio avviso, la discussione durera’ ancora per molto tempo.

Detto questo, non voglio assolutamente entrare in discussioni politiche sul MUOS e sulla regione Sicilia. Quello che molti utenti mi hanno richiesto e’ solo un parere scientifico sull’inquinamento elettromagnetico della stazione MUOS. Ovviamente, non entrero’ nel merito della discussione politica, degli accordi bilaterali tra Italia e USA ne tantomeno sull’eventuale valutazione di impatto ambientale che una stazione del genere sicuramente comporta sul panorama della zona.

A questo punto, la domanda su cui vorrei aprire una discussione e’: il MUOS e’ dannoso per la salute della popolazione?

A livello scientifico, ci sono due voci principali che si sono mosse parlando del MUOS. Da un lato Antonino Zichichi sostiene che l’installazione non e’ assolutamente dannosa per la popolazione vista la bassa potenza in gioco, dall’altro il Prof. Massimo Zucchetti del politecnico di Torino afferma che questa installazione potrebbe comportare seri rischi per la salute dei cittadini.

Come vedete, l’inizio non e’ dei migliori. Siamo di fronte a due punti di vista completamente opposti.

Ora, mentre Zichichi si e’ limitato a rilasciare interviste a diversi quotidiani, Zucchetti ha preparato una relazione tecnica sull’installazione che potete leggere a questo indirizzo:

Zucchetti, relazione MUOS

Come vedete anche dalla pagina, la relazione di Zucchetti viene pubblicizzata proprio da uno dei comitati cittadini nati per impedire l’installazione del MUOS a Niscemi, il comitato NoMuos.

Detto questo, proviamo a commentare la relazione di Zucchetti per cercare di capire se e come il MUOS potrebbe rappresentare un pericolo per la popolazione.

Prima di tutto, ci tengo a sottolineare che Zucchetti e’ esperto di radioprotezione ma e’ importante ragionare su quanto scritto per capire le motivazioni che spingono questa relazione nella direzione di considerare il MUOS come pericoloso.

Per prima cosa, dove doveva sorgere il nuovo impianto e’ gia’ presente un sistema radar detto NRTF le cui antenne sono in funzione dal 1991. Le analisi quantitative presentate nella relazione di Zucchetti riguardano proprio questo esistente impianto e vengono fatte considerazioni circa l’eventuale aggiunta del MUOS alle emissioni del NRTF.

Nella relazione vengono mostrate misure di campo elettrico fatte in diverse zone dell’impianto e che possiamo riassumere in questa tabella:

5,9 ± 0,6 V/m in località Ulmo (centralina 3)
4,0 ± 0,4 V/m in località Ulmo (centralina 8)
2 ± 0,2 V/m in località Martelluzzo (centralina 1)
1 ± 0,1 V/m in località del fico (centralina 7)

Come potete leggere nella relazione, queste misure, fatte dall’ARPA della Sicilia, potrebbero essere affette da un’incertezza al livello del 10%. Ora, per chi non lo sapesse, i limiti per la legislazione italiana impongono un campo inferiore a 6 V/m. Come potete vedere, anche considerando un’incertezza del 10%, solo il primo valore, se l’incertezza tendesse ad amentare la misura, sarebbe leggermente superiore al limite.

Cosa comporterebbe superare i 6 V/m? In realta’ assolutamente nulla. Cerchiamo di capire bene questo punto. Ad oggi, vi sono molte voci anche molto discordi sui reali effetti dell’inquinamento elettromagnetico. Mentre ci sono particolari frequenze ed esposizioni per cui e’ stato accertato un reale rischio per la salute, in moltissimi altri casi il discorso e’ ancora aperto e non si e’ giunti ad una conclusione. Pensate solo un attimo al discorso cellulari: fanno male? Non fanno male? Causano problemi al cervello? Tutte domande su cui spesso viene posta l’attenzione e su cui non esistono ancora dati certi. Con questo non voglio assolutamente tranquillizzare nessuno, ma solo far capire l’enorme confusione ancora presente su queste tematiche.

Tornando al discorso limiti di legge, superare di poco i 6 V/m non comporta assolutamente nulla. Perche’? Come detto siamo di fronte a fenomeni non ancora capiti dal punto di vista medico. Proprio per questo motivo esiste il “principio di precauzione”, cioe’ in caso di fenomeni scientificamente controversi si deve puntare ad una precauzione maggiore. Detto in altri termini, se non sappiamo se una determinata cosa fa male o meno, meglio mettere limiti molto stringenti.

Nel caso dei campi elettrici, il limite dei 6 V/m e’ nettamente inferiore a quello di altre nazioni europee, anche se, ad esempio, nel Canton Ticino il limite e’ di 3 V/m, e circa 500 volte inferiore al valore in cui ci si dovrebbero aspettare effetti diretti. Detto questo, se invece di 6 V/m, ne abbiamo 6,5 V/m, non succede assolutamente nulla. Non siamo ovviamente in presenza di un effetto a soglia, sotto il limite non succede nulla, appena sopra ci sono effetti disastrosi. Fermo restando che stiamo pensando l’incertezza del 10% sulla misura tutta nel verso di aumentarne il valore.

Detto questo, nella relazione da cui siamo partiti, si afferma pero’ che queste misure potrebbero essere sottistimate perche’ la strumentazione utilizzata non era sensibile alle emissioni a bassa frequenza intorno ai 45 KHz. In realta’, su questo punto non possono essere assolutamente d’accordo. La legge italiana stabilisce i limiti di cui abbiamo parlato per frequenze sopra i 100 KHz. Sotto questo valore, le onde elettromagnetiche sono assorbite pochissimo dal corpo umano per cui la loro emissione non viene neanche regolamentata. Questo solo per dire come le misure riportate nella relazione e fatte dall’ARPA della Sicilia sono del tutto attendibili e assolutamente non sottostimate.

Fin qui dunque, i valori misurati per l’installazione gia’ in funzione non mostrano nessun superamento dei limiti di legge italiani e potrebbero dunque essere considerati sicuri.

Andiamo ora invece, sempre seguendo la relazione da cui siamo partiti, al MUOS vero e proprio.

Per come dovrebbero essere fatte le antenne, e se la fisica non e’ un’opinione, il campo prodotto da un’antenna parabolica ha una forma cilindrica con una divergenza molto bassa. Detto in altri termini, il campo e’ all’interno dell’area della parabola e tende molto poco ad allargarsi appunto per non disperdere potenza. Detto questo, al di fuori del cilindro prodotto delle antenne, il campo e’ praticamente nullo e non comporta nessun problema nelle vicinanze.

Proviamo a fare due calcoli. Alla potenza di 1600 W, cioe’ la massima prevista per le antenne, il campo all’interno del cilindro sarebbe di circa 50 W/m^2. Questo valore e’ abbondantemente al di sopra dei limiti di legge di 1 W/m^2, ma per l’esposizione delle persone. Come potete facilmente immaginare, le antenne devono essere puntate verso il cielo per poter funzionare e per comunicare con i satelliti. Da quanto detto per la dispersione angolare fuori-cilindro, lontano dalle antenne il campo e’ praticamente nullo, diminuendo molto rapidamente.

Da questi numeri, e’ ovvio che se le antenne venissero puntate verso l’abitato, l’inquinamento elettromagnetico sarebbe elevatissimo, ma antenne di questo tipo hanno dei ferma-corsa meccanici che impediscono l’avvicinarsi dell’antenna troppo vicino all’orizzonte, oltre ovviamente a limitazioni software pensate appositamente per impedire queste esposizioni.

Detto in questo senso, le antenne del MUOS non dovrebbero essere un pericolo per la popolazione.

Sempre secondo la relazione e secondo le voci del web, le antenne del MUOS entrerebbero in funzione insieme a quelle gia’ discusse del NRTF. Cosa comporta questo? Ovviamente i due contributi si sommano, ma non linearmente come qualcuno potrebbe erroneamente pensare. Premesso che il MUOS sarebbe in funzione simultaneamente al NRTF solo inizialmente per poi sostituirlo del tutto, i due sistemi, alla luce dei calcoli fatti, non dovrebbero superare il limite di legge neanche quando sono simultaneamente accesi.

Se proprio vogliamo essere pignoli, resta quella misura dell’ARPA quasi al limite di legge. Sicuramente quella zona dovrebbe essere monitorata per capire meglio se il limite viene sistematicamente superato oppure no, ma solo a scopo di precauzione. Inoltre, bisognerebbe valutare la presenza di altre installazioni minori e il loro contributo totale, anche se non possono che rappresentare una piccola aggiunta al totale, oltre ovviamente ad eventuali fluttuazioni fuori asse delle emissioni. Questo genere di problematiche necessiterebbero di un monitoraggio continuo e completo dell’intera zona al fine di costruire una mappa del campo e valutare eventuali zone di picchi anomali.

Detto questo, se ci limitiamo al puro aspetto scientifico, il MUOS non dovrebbe rappresentare un pericolo per la popolazione della zona. Ovviamente, siamo in un campo molto difficile e ancora poco noto sia della scienza ma soprattutto della medicina. Non voglio assolutamente schierarmi a favore o contro il MUOS anche perche’ restano da valutare, indipendentemente da questa installazione, eventuali danni alla salute derivanti da un’esposizione prolungata nel tempo anche a limiti inferiori a quelli di legge. Come anticipato, questa tematica e’ ancora molto discussa e non si e’ ancora giunti ad un quadro completo.

Nella discussione, ho appositamente non valutato problematiche di natura diversa da quella dei campi elettromagnetici. Perche’ dobbiamo costruire una stazione radar degli USA in Italia? E’ giusto? Non e’ giusto? Questa installazione rovina il paesaggio della zona? I valori dichiarati per il progetto saranno quelli veri di esercizio?

Concludendo, alla luce dei dati analizzati, per l’installazione MUOS i limiti di legge sarebbero ampiamente soddisfatti. L’unico problema potrebbe derivare, anche se impossibile tenendo conto dei limiti meccanici imposti, da un puntamento diretto verso le abitazioni. L’ingresso del MUOS sostituirebbe il pre-esistente NTRF sicuramente piu’ vecchio ed operante a potenze e frequenze diverse. Purtroppo, il discorso non puo’ limitarsi a queste considerazioni, ma deve necessariamente racchiudere tematiche ambientali, politiche e mediche a cui non e’ possibile dare una risposta univoca in questo momento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il Dibromoetano e le scie chimiche

20 Gen

Di scie chimiche abbiamo gia’ parlato in questi precedenti post:

Alcune considerazione sulle scie chimiche

Scie Chimiche: il prelievo in quota

Scie chimiche e cloud seeding

Come difendersi dalle scie chimiche

in cui abbiamo mostrato l’assoluta mancanza di prove scientifiche alla base di questa ipotesi. Nonostante questo, vi sono dei singoli particolari, molto spesso citati su web, che e’ interessante analizzare per cercare di capire meglio il fenomeno in questione.

Molto spesso, i sostenitori dell’esistenza delle scie chimiche portano come prova delle loro tesi, l’emissione in atmosfera di una particolare sostanza chiamata Dibromoetano. Secondo questa ipotesi, alcuni aerei sarebbero equipaggiati con particolari cisterne contenenti questa sostanza e la disperderebbero in atmosfera per avvelenare le persone.

Perche’ tutto questo? La risposta piu’ comune che trovate e’ che il dibromoetano sarebbe utilizzato per causare malattie simili all’influenza ed aumentare in questo modo l’utilizzo di vaccini. Detto in questo modo, il fenomeno delle scie chimiche sarebbe architettato dalle compagnie farmaceutiche colluse con i governi nazionali, e lo scopo sarebbe proprio quello di indurre malattie e comunque indebolire la popolazione mediate questi aerosol.

Cerchiamo di capire meglio cosa c’e’ di vero in questa storia, ma soprattutto di capire se scientificamente quanto raccontato corrisponde a verita’.

Premettiamo subito che non siamo qui per divinizzare ne tantomeno per accusare, senza se e senza ma, le compagnie farmaceutiche. Di sicuro stiamo parlando di organizzazioni che, a volte, possono presentare lati anche molto oscuri o comunque fortemente mirate al guadagno.

Detto questo, vediamo anche l’altro rovescio della medaglia. Il maggiore sostenitore dell’ipotesi del dibromoetano e’ un medico statunitense, tale Dr. Len (o Leonard) Horowitz. Secondo questo tizio, l’aumento delle presunte influenze negli ultimi anni sarebbe una conseguenza dello spargimento delle scie chimiche in atmosfera. In particolare, il dibromoetano causerebbe problemi respiratori nelle persone, causando dei disturbi simili all’influenza ma molto piu’ persistenti. Sempre secondo Horowitz, questo particolare tipo di disturbo indurrebbe le persone a farsi vaccinare ogni anno, aumentando gli introiti delle case farmaceutiche.

Bene, ipotesi molto interessante. Prima pero’ di parlare di dibromoetano, cerchiamo di capire cosa spinge questo nobile medico americano a combattere contro i colossi farmaceutici. A questo scopo, vi invito a visitare il sito internet del Dr. Horowitz:

Len Horowitz site

Notiamo subito una cosa, a voi sembra il sito di un medico che si batte per una nobile causa? Assolutamente no, sembra un sito internet di vendite. Ma questo potrebbe essere un punto di vista strettamente personale. A sinistra troviamo ovviamente la sezione per acquistare i suoi libri, i suoi dvd e le sue interviste. Ma anche questo potrebbe essere normale, siamo in un mondo commerciale. A destra trovate invece le cose piu’ interessanti, una lunga lista di banner pubblicitari. Cosa si vende su questo sito? Ne cito uno che secondo me fornisce tutte le risposte che cerchiamo, “Il Dr. Horowitz ha creato la migliore alternativa al mondo ai mortali antibiotici ed ai pericolosi vaccini”. Eccoci qua! Horowitz accusa le case farmaceutiche di voler vendere piu’ vaccini e lui sul suo sito propone una valida alternativa, ovviamente in vendita.

Diciamo che l’andamento della discussione sta andando nel verso a cui ormai siamo abituati.

Tralasciamo questi dettagli per parlare invece del dibromoetano. Esiste realmente questo composto? Viene utilizzato? Per quali scopi? Puo’ causare le influenze di cui parla Horowitz?

Cerchiamo di rispondere a queste domande, senza partire prevenuti, ma solo ragionando sui dati in nostro possesso.

Il Dibromoetano e’ un composto chimico che fino a qualche anno fa veniva utilizzato proprio come solvente nei carburanti degli aerei.

E’ pericoloso? Ovviamente si, senza raccontarvi le cose a voce, vi invito a scaricare la scheda di sicurezza di questa sostanza in modo da avere un’indicazione precisa:

DBE, scheda di sicurezza

Notiamo che la sostanza e’ altamente cancerogena, ma soprattutto, presenta una tossicita’ acuta in caso di contatto con la pelle, con gli occhi o in caso di ingestione. Secondo voi, una sostanza del genere potrebbe essere “spruzzata” in atmosfera senza che nessuno se ne accorgesse? Credo proprio di no.

Da dove nasce la connessione tra le scie chmiche, e dunque gli aerei, e il dibromoetano?

La risposta a questa domanda e’ estremamente interessante. Come anticipato, il dibromoetano era usato come solvente nei combustibili degli aerei. Dico “era” perche’ questo solvente veniva usato per mantenere puliti i motori a pistoni ora non piu’ utilizzati, salvo rare eccezioni, perche’ sostituiti dalle turbine.

Prelievo di Avio100LL sotto l'ala d un aereo

Prelievo di Avio100LL sotto l’ala d un aereo

Cerchiamo di capire meglio. Il combustibile utilizzato negli aerei con motori a pistoni era l’Avio 100LL, la cui sigla indica “Aviation Gasoline” con 100 ottani, low lead, cioe’ a basso contenuto di piombo. Il dibromoetano era utilizzato come “antidetonante”, cioe’ veniva aggiunto all’interno della miscela per smaltire il piombo e per diminuire il fenomeno del battito in testa nei motori. Questa sostanza era usata anche nelle normali benzine super per lo stesso motivo.

Oggi, questo additivo non viene piu’ utilizzato perche’ considerato pericoloso sia dal punto di vista ambientale, e’ un forte inquinante, sia dal punto di vista della sicurezza, come visto nella scheda di rischio. Come anticipato, i moderni velivoli hanno turbine che sostituiscono i motori a pistoni. In questo caso, il combustibile utilizzato e’ chiamato Jet-A1 e non avrebbe assolutamente senso utilizzare il dibromoetano dal momento che i pistoni non ci sono.

Ad oggi, l’Avio 100LL e’ ancora utilizzato, ma solo da piccoli aerei da turismo o da velivoli storici ormai datati.

Cosa possiamo concludere da queste considerazioni? Prima di tutto che le ipotesi del Dr. Horowitz mi sembrano molto piu’ orientate al commercio dei suoi vaccini che a dimostrare prove scientifiche inconfutabili a sostegno dell’ipotesi scie chimiche. Parlare di dibromoetano come sostanza dispersa in atmosfera, indica invece due fattori. In primis, si parla di una sostanza che veniva realmente utilizzata nei combustibili degli aerei e che quindi, in linea di principio, poteva essere trovata nei residui di combustione dei velivoli. Dico in linea di principio perche’, al solito, si dimostra una grande ignoranza nella materia, non sapendo che questo additivo era utilizzato solo nei motori a pistoni e non nei moderni velivoli dotati di turbine.

Anche in questo caso, basta un minimo di analisi e ragionamento per far crollare il castello di carte creato per proprio tornaconto personale.

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ la ricerca: economia

5 Gen

Nel post precedente:

Perche’ la ricerca: scienza e tecnologia

abbiamo cercato di rispondere alla domanda “perche’ fare ricerca?” discutendo il lato tecnologico e le possibili ricadute scientifiche nella vita di tutti i giorni. Come detto, stiamo cercando di rispondere a questa domanda non in senso generale, ma proprio contestualizzando la risposta in questi anni di profonda crisi economica o, comunque, investendo nella ricerca a discapito di settori considerati piu’ importanti o vitali per tutti i cittadini.

Dopo queste considerazioni piu’ tecniche, vorrei invece analizzare il discorso economico della ricerca. Come sappiamo, e come abbiamo visto nel precedente post, fare ricerca ad alti livelli implica investimenti molto massicci. Tolte le ricadute tecnologiche, cerchiamo invece di capire se sono investimenti a fondo perduto o se implicano un ritorno economico tangibile per le nazioni.

Come nel caso precedente, prendiamo come esempio tra grandi ricerche in settori diversi per cercare di quantificare in modo pratico, numeri alla mano. I soliti tre esempi sono: ITER, il reattore a fusione per scopi di ricerca, le missioni spaziali e il CERN, come esempio di grande laboratorio per la fisica delle particelle.

Partiamo da ITER e partiamo con una considerazione che ci deve far riflettere. ITER e’ una collaborazione internazionale in cui entrano gli Stati Uniti, il Giappone e alcuni paesi europei. Come detto, parliamo di un investimento dell’ordine di 10 miliardi di euro. Forse vi fara’ riflettere il fatto che Francia e Giappone hanno discusso per lungo tempo proprio per cercare di costruire il reattore nel proprio paese. Ovviamente averlo in casa offre dei vantaggi notevoli in termini di ricadute tecnologiche, ma sicuramente implica una maggiore spesa per il paese ospitante. Conoscendo la situazione economica attuale, se un paese cerca in tutti i modi di averlo in casa e dunque spendere di piu’, significa che qualcosa indietro deve avere.

Passiamo invece alle missioni spaziali. Altro tema scottante nel discorso economico e molte volte visto come una spesa enorme ma non necessaria in tempi di crisi. Partiamo, ad esempio, dal discorso occupazionale. Molte volte sentiamo dire dai nostri politicanti o dagli esperti di politica ecnomica che si devono fare investimenti per creare posti di lavoro. Vi faccio un esempio, al suo apice, il programma di esplorazione Apollo dava lavoro a circa 400000 persone. Non pensiamo solo agli scienziati. Un programma del genere crea occupazione per tutte le figure professionali che vanno dall’operaio fino al ricercatore, dall’addetto alle pulizie dei laboratori fino all’ingegnere. Ditemi voi se questo non significa creare posti di lavoro.

Passando invece all’esempio del CERN, sicuramente i numeri occupazionali sono piu’ piccoli, ma di certo non trascurabili. Al CERN ci sono circa 2500 persone che tutti i giorni lavorano all’interno del laboratorio. A questi numeri si devono poi sommare quelli dei paesi che partecipano agli esperimenti ma non sono stanziali a Ginevra. In questo caso, arriviamo facilmente ad una stima intorno alle 15000 unita’.

A questo punto pero’ sorge una domanda che molti di voi si staranno gia’ facendo. LHC, come esempio, e’ costato 6 miliardi di euro. E’ vero, abbiamo creato posti di lavoro, ma la spesa cosi’ elevata giustifica questi posti? Con questo intendo, se il ritorno fosse solo di numeri occupazionali, allora tanto valeva investire cifre minori in altri settori e magari creare piu’ posti di lavoro.

L’obiezione e’ corretta. Se il ritorno fosse solo questo, allora io stesso giudicherei l’investimento economico, non scientifico, fallimentare. Ovviamente c’e’ molto altro in termini finanziari.

Prima di tutto vi devo spiegare come funziona il CERN. Si tratta di un laboratorio internazionale, nel vero senso della parola. Il finanziamento del CERN viene dai paesi membri. Tra questi, dobbiamo distinguere tra finanziatori principali e membri semplici. Ovviamente i finanziatori principali, che poi sono i paesi che hanno dato il via alla realizzazione del CERN, sono venti, tra cui l’Italia, ma, ad esempio, alla costruzione di LHC hanno partecipato circa 50 paesi. Essere un finanziatore principale comporta ovviamente una spesa maggiore che viene pero’ calcolata anno per anno in base al PIL di ogni nazione.

Concentriamoci ovviamente sul caso Italia, ed in particolare sugli anni caldi della costruzione di LHC, quelli che vanno dal 2000 al 2006, in cui la spesa richiesta era maggiore.

Nel 2009, ad esempio, il contributo italiano e’ stato di 83 milioni di euro, inferiore, in termini percentuali, solo a Francia, Germania e Regno Unito.

Contributo italiano al CERN in milioni di euro. Fonte: S.Centro, Industrial Liasion Officer

Contributo italiano al CERN in milioni di euro. Fonte: S.Centro, Industrial Liaison Officer

Il maggiore ritorno economico per i paesi e’ ovviamente in termini di commesse per le industrie. Che significa questo? Servono 100 magneti, chi li costruisce? Ovviamente le industrie dei paesi membri che partecipano ad una gara pubblica. Il ritorno economico comincia dunque a delinearsi. Investire nel CERN implica un ritorno economico per le industrie del paese che dunque assumeranno personale per costruire questi magneti. Stiamo dunque facendo girare l’economia e stiamo creando ulteriori posti di lavoro in modo indiretto.

Apriamo una parentesi sull’assegnazione delle commesse. Ovviamente si tratta di gare pubbliche di appalto. Come viene decretato il vincitore? Ogni anno, il CERN calcola un cosiddetto “coefficiente di giusto ritorno”, e’ un parametro calcolato come il rapporto tra il ritorno in termini di commesse per le industrie e il finanziamento offerto alla ricerca. Facciamo un esempio, voi investite 100 per finanziare la costruzione di LHC, le vostre industrie ottengono 100 di commesse dal CERN, il coefficiente di ritorno vale 1.

Ogni anno, in base al profilo di spesa, ci saranno coefficienti diversi per ciascun paese. Si parla di paesi bilanciati e non bilanciati a seconda che il loro coefficiente sia maggiore o minore del giusto ritorno. In una gara per una commessa, se l’industria di un paese non bilanciato arriva seconda dietro una di un paese gia’ bilanciato, e lo scarto tra le offerte e’ inferiore al 20%, allora l’industria del paese non bilanciato puo’ aggiudicarsi la gara allineandosi con l’offerta del vincitore. In questo modo, viene ripartito equamente, secondo coefficienti matematici, il ritorno per ciascun paese.

Cosa possiamo dire sull’Italia? Negli anni della costruzione di LHC, LItalia ha sempre avuto un coefficiente molto superiore al giusto ritorno. Per dare qualche numero, tra il 1995 e il 2008, il nostro paese si e’ aggiudicato commesse per le nostre aziende per un importo di 337 milioni di euro.

Vi mostro un altro grafico interessante, sempre preso dal rapporto del prof. S.Centro dell'”Industrial Liaison Officer for Italian industry at CERN”:

Commesse e coefficiente di ritorno per l'Italia. Fonte: S.Centro, Industrial Liaison Officer

Commesse e coefficiente di ritorno per l’Italia. Fonte: S.Centro, Industrial Liaison Officer

A sinistra vedete gli importi delle commesse per gli anni in esame per il nostro Paese, sempre in milioni di euro, mentre a destra troviamo il coefficiente di ritorno per l’Italia calcolato in base all’investimento fatto. Tenete conto che in quesgli anni, la media del giusto ritorno calcolato dal CERN era di 0.97.

Guardando i numeri, non possiamo certo lamentarci o dire che ci abbiano trattato male. La conclusione di questo ragionamento e’ dunque che un investimento nella ricerca scientifica di qualita’, permette un ritorno economico con un indotto non indifferente per le aziende del paese. Ogni giorno sentiamo parlare di rilancio delle industrie, di creazione di posti di lavoro, di rimessa in moto dell’economia, mi sembra che LHC sia stato un ottimo volano per tutti questi aspetti.

Ultima considerazione scientifico-industriale. Le innovazioni apportate facendo ricerca scientifica, non muoiono dopo la realizzazione degli esperimenti. Soluzioni tecnologiche e migliorie entrano poi nel bagaglio industriale delle aziende che le utilizzano per i loro prodotti di punta. Molte aziende vengono create come spin-off di laboratori, finanziate in grossa parte dalla ricerca e poi divengono delle realta’ industriali di prim’ordine. L’innovazione inoltra porta brevetti che a loro volta creano un ritorno economico futuro non quantificabile inizialmente.

Concludendo, anche dal punto di vista economico, fare ricerca non significa fare finanziamenti a fondo perduto o fallimentari. Questo sicuramente comporta un ritorno economico tangibile immediato. Inoltre, il ritorno in termini tecnologici e di innovazione non e’ quantificabile. Fare ricerca in un determinato campo puo’ portare, immediatamente o a distanza di anni, soluzioni che poi diventeranno di uso comune o che miglioreranno settori anche vitali per tutti.

Vi lascio con una considerazione. Non per portare acqua al mulino della ricerca, ma vorrei farvi riflettere su una cosa. In questi anni di crisi, molti paesi anche europei, ma non l’Italia, hanno aumentato i fondi dati alla ricerca scientifica. A fronte di quanto visto, forse non e’ proprio uno sperpero di soldi.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ la ricerca: scienza e tecnologia

4 Gen

Molte volte, parlando di scienza e di ricerca scientifica, mi viene fatta una domanda apparentemente banale, ma che in realta’ nasconde un vero e proprio mondo: Perche’ fare ricerca?

Ovviamente in questo caso non parlo del senso letterale della domanda. E’ noto a tutti che la ricerca scientifica ci permette di aumentare la nostra conoscenza del mondo, dei meccanimi della natura e ci consente di dare un piccolo contributo al dilemma: da dove veniamo e dove andiamo?

In questo post e nel successivo, vorrei cercare di parlare proprio del senso piu’ pratico di questa domanda. Al giorno d’oggi, con la crisi che imperversa, molti si chiedono che senso abbia “sperperare” soldi nella ricerca scientifica invece di utilizzarli per fini piu’ pratici e tangibili per la societa’.

In questo primo post vorrei parlare delle motivazioni scientifiche e tenologiche della ricerca scientifica, mentre nel prossimo post mi vorrei concentrare sugli aspetti piu’ prettamente economici.

Premesso questo, cerchiamo di capire quali sono le implicazioni e le migliorie scientifiche apportate dall’attivita’ di ricerca.

Molti di voi sapranno gia’ che diverse tecniche di diagnostica medica, come la radiografia, la TAC, la PET, provengono e sono state pensate nell’ambito della ricerca scientifica ed in particolare per la costruzione di rivelatori per le particelle. Questi sono discorsi abbastanza noti e per principio non vi faro’ la solita storiella con date e introduzione negli ospedali di queste tecniche.

Parliamo invece di cose meno note, ma forse ben piu’ importanti.

A costo di sembrare banale, vorrei proprio iniziare da LHC al CERN di Ginevra e dalla ricerca nella fisica delle alte energie. In questo caso, stiamo parlando del piu’ grande acceleratore in questo settore e ovviamente anche del piu’ costoso. Con i suoi 6 miliardi di euro, solo per l’acceleratore senza conteggiare gli esperimenti, parliamo di cifre che farebbero saltare sulla sedia molti non addetti ai lavori.

Che vantaggi abbiamo ottenuto a fronte di una spesa cosi grande?

Next: il primo server WWW del CERN

Next: il primo server WWW del CERN

Partiamo dalle cose conosciute. Solo per darvi un esempio, il “world wide web” e’ nato proprio al CERN di Ginevra, dove e’ stato sviluppato per creare un modo semplice e veloce per lo scambio di dati tra gli scienziati. Ad essere sinceri, un prototipo del WWW era gia’ stato sviluppato per ambiti militari, ma l’ottimizzazione e la resa “civile” di questo mezzo si deve a due ricercartori proprio del CERN:

CERN, were the web was born

Restando sempre in ambito tecnlogico, anche l’introduzione del touchscreen e’ stata sviluppata al CERN e sempre nell’ambito della preparazione di rivelatori di particelle. A distanza di quasi 20 anni, questi sistemi sono ormai di uso collettivo e vengono utilizzati in molti degli elettrodomestici e dei gadget a cui siamo abituati.

Uno dei primi sistemi touch introdotti al CERN

Uno dei primi sistemi touch introdotti al CERN

Pensandoci bene, tutto questo e’ normale. Rendiamoci conto che costruire un acceleratore o un esperimento sempre piu’ preciso, impone delle sfide tecnologiche senza precedenti. Laser, sistemi di controllo ad alta frequenza, magneti, rivelatori sono solo alcuni esempi dei sistemi che ogni volta e’ necessario migliorare e studiare per poter costruire una nuova macchina acceleratrice.

Anche in ambito informatico, la ricerca in fisica delle alte energie impone dei miglioramenti che rappresentano delle vere e proprie sfide tecnologiche. Un esperimento di questo tipo, produce un’enorme quantita’ di dati che devono essere processati e analizzati in tempi brevissimi. Sotto questo punto di vista, la tecnologia di connessione ad altissima velocita’, le realizzazione di sistemi di contenimento dei dati sempre piu’ capienti e lo sviluppo di macchine in grado di fare sempre piu’ operazioni contemporaneamente, sono solo alcuni degli aspetti su cui la ricerca scientifica per prima si trova a lavorare.

Saltando i discorsi della diagnostica per immagini di cui tutti parlano, molte delle soluzioni per la cura di tumori vengono proprio dai settori della fisica delle alte energia. Basta pensare alle nuove cure adroterapiche in cui vengono utilizzati fasci di particelle accelerati in piccoli sistemi per colpire e distruggere tumori senza intaccare tessuti sani. Secondo voi, dove sono nate queste tecniche? Negli acceleratori vengono accelerate particelle sempre piu’ velocemente pensando sistemi sempre piu’ tecnologici. La ricerca in questi settori e’ l’unico campo che puo’ permettere di sviluppare sistemi via via piu’ precisi e che possono consentire di colpire agglomerati di cellule tumorali di dimensioni sempre minori.

Detto questo, vorrei cambiare settore per non rimanere solo nel campo della fisica delle alte energie.

In Francia si sta per realizzare il primo reattore a fusione per scopi di ricerca scientifica. Questo progetto, chiamato ITER, e’ ovviamente una collaborazione internazionale che si prefigge di studiare la possibile realizzazione di centrali necleari a fusione in luogo di quelle a fissione. Parlare di centrali nucleari e’ un discorso sempre molto delicato. Non voglio parlare in questa sede di pericolosita’ o meno di centrali nucleari, ma il passaggio della fissione alla fusione permetterebbe di eliminare molti degli svantaggi delle normali centrali: scorie, fusione totale, ecc. Capite dunque che un investimento di questo tipo, parliamo anche in questo caso di 10 miliardi di euro investiti, potrebbe portare un’innovazione nel campo della produzione energetica senza eguali. Se non investiamo in queste ricerche, non potremmo mai sperare di cambiare i metodi di produzione dell’energia, bene primario nella nostra attuale societa’.

La sonda Curiosity della NASA

La sonda Curiosity della NASA

Passando da un discorso all’altro, in realta’ solo per cercare di fare un quadro variegato della situazione, pensiamo ad un altro settore sempre molto discusso, quello delle missioni spaziali. Se c’e’ la crisi, che senso ha mandare Curiosity su Marte? Perche’ continuiamo ad esplorare l’universo?

Anche in questo caso, saltero’ le cose ovvie cioe’ il fatto che questo genere di missioni ci consente di capire come il nostro universo e’ nato e come si e’ sviluppato, ma parlero’ di innovazione tecnologica. Una missione spaziale richiede l’utilizzo di sistemi elettronici che operano in ambienti molto difficili e su cui, una volta in orbita, non potete certo pensare di mettere mano in caso di guasto. L’affidabilita’ di molte soluzioni tecnologiche attuali, viene proprio da studi condotti per le missioni spaziali. Esperimenti di questo tipo comportano ovviamente la ricerca di soluzioni sempre piu’ avanzate, ad esempio, per i sistemi di alimentazione. L’introduzione di batterie a lunghissima durata viene proprio da studi condotti dalle agenzie spaziali per le proprie missioni. Anche la tecnologia di trasmissione di dati a distanza, ha visto un salto senza precedenti proprio grazie a questo tipo di ricerca. Pensate semplicemente al fatto che Curiosity ogni istante invia dati sulla Terra per essere analizzati. Se ci ragionate capite bene come queste missioni comportino lo sviluppo di sistemi di trasferimento dei dati sempre piu’ affidabili e precise per lunghissime distanze. Ovviamente tutti questi sviluppi hanno ricadute molto rapide nella vita di tutti i giorni ed in settori completamente diversi da quelli della ricerca scientifica.

Concludendo, spero di aver dato un quadro, che non sara’ mai completo e totale, di alcune delle innovazioni portate nella vita di tutti i giorni dalla ricerca scientifica. Come abbiamo visto, affrontare e risolvere sfide tecnologiche nuove e sempre piu’ impegnativa consente di trovare soluzioni che poi troveranno applicazione in campi completamente diversi e da cui tutti noi potremmo trarre beneficio.

Ovviamente, ci tengo a sottolineare che la conoscenza apportata dai diversi ambiti di ricerca non e’ assolutamente un bene quantificabile. Se vogliamo, questo potrebbe essere il discorso piu’ criticabile in tempi di crisi, ma assolutamente e’ la miglioria della nostra consapevolezza che ci offre uno stimolo sempre nuovo e crea sempre piu’ domande che risposte.

Post successivo sul discorso economico: Perche’ la ricerca: economia

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.