Tag Archives: tabella

Il suono più forte mai udito!

12 Ott

Dopo questo articolo:

Il suono del vinile

vi riporto la seconda domanda che mi è stata posta in questi giorni via mail da alcuni nostri lettori. La domanda in realtà è una richiesta di conferma circa un articolo pubblicato da Pianeta Blu News, che cito senza problemi e che, come già detto, vi consiglio di visitare, che in questo pezzo:

Pianeta Blu, Krakatoa

afferma che il suono più forte mai udito in epoca moderna dall’uomo è quello che si è generato in occasione dell’eruzione del vulcano Krakatoa il 27 agosto 1883.

Vi premetto subito che quanto affermato nell’articolo è assolutamente corretto. In occasione di questa eruzione esplosiva, venne generato un boato che oggi possiamo stimare di 172 decibel fino a 160 Km di distanza.

Per darvi una stima di quanto potente sia un rumore di 172 decibel proviamo a fare degli esempi pratici utili per confrontare questi valori espressi in una scala poco familiare ai più.

Per prima cosa, se vogliamo essere formali dal punto di vista scientifico, in acustica si utilizzano i dB_SPL per indicare il livello di pressione acustica. Questa definizione è alquanto intuitiva se pensiamo che i suoni che noi udiamo sono semplicemente prodotti dalla pressione dell’aria che giuge ai nostri timpani mettendoli in vibrazione. Utilizzando questa unità di misura, wikipedia riporta una tabella molto istruttiva con diverse fonti sonore accompagnate con il corrispondente suono in dB_SPL:

dBSPL Sorgente
300 Eruzione del Krakatoa nel 1883
250 All’interno di un tornado
180 Razzo al decollo
140 Colpo di pistola a 1 m, auto di Formula 1
130 Soglia del dolore
125 Aereo al decollo a 50 m
120 Sirena,
110 Motosega a 1 m
100 Discoteca, concerto rock
90 Urlo, fischietto
80 Camion pesante a 1 m
70 Aspirapolvere a 1 m; radio ad alto volume
60 Ufficio rumoroso, radio, conversazione
50 Ambiente domestico; teatro a 10 m
40 Quartiere abitato, di notte
30 Sussurri a 1 m
20 Respiro umano
0 Soglia dell’udibile
-9 Camera anecoica

Considerando che la scala in dB è una scala logaritmica, c’è una notevole differenza, ad esempio, tra l’eruzione del Krakatoa e il rumore prodotto da un razzo al decollo, facilmente identificabile come un suono di notevole intensità.

Detto questo, sempre per farvi capire il livello del suono prodotto dall’esplosione del Krakatoa, pensate che il boato venne udito chiaramente fino a 5000 km di distanza. Chiunque si fosse trovato ad una distanza inferiore ai 100Km, come accaduto ad alcuni occupanti di una nava di passaggio nei pressi dell’isola, avrebbe avuto danneggiamenti permanenti ai timpani.

Anche se l’eruzione del vulcano non causò morti direttamente, le conseguenze dell’esplosione furono devastanti. Ad oggi, si stimano circa 36000 morti dovuti in larga parte al successivo Tsunami, di 45 metri, che si creò.

Esistono anche delle curiosità molti interessanti sull’eruzione del Krakatoa. Durante l’esplosione, vennero riversati in atmosfera 21 kilometri cubi di roccia e fumi. Queste emissioni, modificarono a lungo non solo la zona dell’eruzione, ma portarono conseguenze all’intero pianeta. Per farvi un esempio, l’illustratore britannico William Ashcroft notò in quel periodo che i colori dei tramonti visibili dalla sua cittadina, vicina a Londra, erano cambiati. Il motivo di questo è oggi molto comprensibile. L’enorme quantità di sedimenti rilasciati in atmosfera, provocarono effetti ottici alla luce solare, visibili chiaramente durante il tramonto che prese colori più accesi verso il rosso. Ashcroft dipinse diversi quadri dei tramonti dell’epoca e, ancora oggi, queste illustrazioni sono studiate dai climatologi per ottenere informazioni circa l’eruzione del vulcano Krakatoa.

Ecco una delle illustrazioni di William Ashcroft:

Opera di William Ashcroft

Opera di William Ashcroft

Solo per concludere, secondo alcuni esperti, anche un altro famoso dipinto riporterebbe colorazioni molto accese non per enfatizzare il tema trattato ma solo perchè quelli erano i colori visibili al momento della realizzazione. Sapete quale? Questo:

Munch, L'Urlo

Munch, L’Urlo

L’urlo di Munch, realizzato nel 1893, 10 anni dopo l’eruzione, sarebbe una “fotografia” dei reali colori del tramonto norvegese, resi più brillanti dall’eruzione del Krakatoa.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Ma questa crema solare …. come dobbiamo sceglierla?

30 Giu

Sempre alla nostra sezione:

– Hai domande o dubbi?

va il merito, ma ovviamente tutto il merito va a voi che rendete questo blog vivo ed interessante, di aver richiamato da una nostra cara lettrice una nuova interessantissima domanda. Questa volta però, vi preannuncio che l’argomento scelto è molto complesso nella sua apparente semplicità, oltre ad essere assolutamente in linea con il periodo dell’anno. Come potete leggere, la domanda riguarda le creme solari e tutte le leggende che girano, non solo in rete, e che da sempre abbiamo ascoltato.

Come anticipato, non è semplice cercare di trovare la giusta strada nella giungla di informazioni disponibili. Se provate a confrontare dieci fonti, troverete dieci versioni diverse: le creme solari devono essere usate. No, non devo essere usate. Il sole è malato. Il sole provoca il cancro. No, sono le creme che creano il cancro alla pelle. Insomma, di tutto di più, e non pensate di rifuggire nella frase: “mi metto sotto l’ombrellone”, perché, come vedremo, anche questo lascia filtrare alcune componenti dei raggi solari e, sempre scimmiottando quello che trovate in rete, vi può venire il cancro. Allora sapete che c’è? Me ne sto chiuso dentro casa fino a settembre! Va bene così? No, sicuramente non prendi il sole (e quindi non ti viene il cancro), ma non ti si fissa la vitamina D e quindi potresti soffrire di rachitismo.

Insomma, come la mettete la mettete, sbagliate sempre. Cosa fare allora? Sicuramente, in linea con il nostro stile, quello che possiamo fare è “andare con ordine” e provare a verificare quali e quante di queste affermazioni corrispondono al vero. Solo in questo modo potremo capire quale crema solare scegliere, come applicarla e quali sono i rischi che possiamo correre con l’esposizione al Sole.

Prima di tutto, non dobbiamo considerare i raggi solari come un’unica cosa, ma è necessario distinguere la radiazione che ci arriva. Questa suddivisione è essenziale perché l’interazione della nostra pelle con i fotoni emessi dal sole non è sempre uguale, ma dipende dalla lunghezza d’onda. Bene, in tal senso, possiamo distinguere la parte dei raggi solari che ci interessa in tre grandi famiglie, in particolare, per i nostri scopi, ci concentreremo sulla parte ultravioletta dello spettro, che è quella di interesse in questo campo.

La parte cosiddetta ultravioletta è quella con lunghezza d’onda immediatamente inferiore alla parte visibile. Normalmente, questa parte dello spettro viene divisa in UVA, con lunghezza d’onda tra 400 e 315 nanometri, UVB, tra 315 e 280 nanometri e UVC, tra 280 e 100 nanometri. Quando parliamo di tintarella o di danni provocati dalla radiazione solare, dobbiamo riferirci alla parte UV ed in particolare a queste 3 famiglie.

Bene, la componente più pericolosa della radiazione solare è quella degli UVC cioè con lunghezza d’onda minore. Perché? Sono radiazioni utilizzate come germicidi, ad esempio nella potabilizzazione dell’acqua, a causa del loro potere nel modificare il DNA e l’RNA delle cellule. Per nostra fortuna, questa componente della radiazione è completamente bloccata dallo strato di ozono che circonda la Terra. Di questo, e soprattutto dello stato di salute dello strato di ozono, abbiamo parlato in un post specifico:

– Che fine ha fatto il buco dell’ozono?

Per la parte più pericolosa dello spettro, quella degli UVC, possiamo dunque tirare un respiro di sollievo. Vediamo le altre due componenti.

Gli UVA, a causa della lunghezza d’onda maggiore, penetrano più a fondo nella pelle, promuovendo il rilascio di melanina e dunque l’abbronzatura. Che significa? Molto semplice, quando prendiamo il sole, la nostra pelle reagisce cercando di proteggersi autonomamente appunto rilasciando melanina. Questa sostanza serve a far scurire gli strati più superficiali della pelle appunto come protezione dai raggi. Riguardo ala dannosità? Su questo punto, purtroppo, non si ha ancora chiarezza. Per prima cosa, dobbiamo dire che l’esposizione crea meno danni a tempi brevi rispetto, come vedremo, a quella agli UVB. Questa componente però è una delle maggiori sospettate per i danni a lungo termine, connessi anche con l’insorgere di tumori alla pelle, e provoca un invecchiamento veloce della pelle. Gli UVA sono molto conosciuti da coloro che frequentano i centri estetici per sottoporsi alle “lampade”. Questi sistemi infatti hanno sistemi di illuminazione concentrati negli UVA appunto per promuovere un’abbronzatura rapida.

Per quanto riguarda gli UVB invece, si tratta della radiazione più pericolosa nell’immediato. Questa componente dello spettro solare infatti, è responsabile della classica “scottatura”, in alcuni casi vera e propria ustione, provocata da un’esposizione prolungata al Sole. Anche se potenzialmente dannosa, la radiazione UVB è comunque importante per il nostro organismo perché promuove la sintesi della vitamina D. Come è noto, in assenza di questo fondamentale processo possono insorgere casi di rachitismo, soprattutto in soggetti non ancora adulti.

Bene, abbiamo capito come è divisa la radiazione ultravioletta del sole e abbiamo finalmente capito a cosa si riferiscono tutti questi nomi che siamo soliti ascoltare o leggere riguardo la tintarella.

Passiamo dunque a parlare di creme solari. Cosa dobbiamo cercare? Perché? Quali sono i prodotti più indicati?

Ripensando a quanto scritto, viene evidente pensare che una buona crema debba proteggerci dagli UVA e UVB poiché per gli UVC ci pensa lo strato di ozono. Primo pensiero sbagliato! Quando acquistiamo una crema solare, che, come vedremo, offre una certa protezione, questo valore si riferisce alla sola componente B della radiazione. Perché? Semplice, come visto, gli UVB sono responsabili delle scottature immediate. Se ci proteggiamo da questa componente salviamo la pelle garantendo la tintarella. Questo è assolutamente falso, soprattutto pensando ai danni a lungo termine dati da un’esposizione troppo prolungata agli UVA.

Solo negli ultimi anni, sono comparse sul mercato creme con protezioni ad alto spettro. Fate bene attenzione a questa caratteristica prima di acquistare un qualsiasi prodotto. Una buona crema deve avere un fattore di protezione per gli UVA non inferiore ad 1/3 di quello garantito per gli UVB.

Ora però, anche seguendo quanto affermato, parliamo appunto di queste protezioni. Fino a qualche anno fa, ricordo benissimo gli scaffali dei negozi strapieni di creme solari con fattori di protezione, SPF cioè fattore di protezione solare, che andavano da 0 a qualcosa come 100. Già allora mi chiedevo, ma che significa zero? A che cosa serve una crema con protezione 0 e, allo stesso modo, protezione 100 o, come qualcuno scriveva “protezione totale”, significa che è come mettersi all’ombra?

Capite già l’assurdità di queste definizioni create solo ed esclusivamente a scopo commerciale. Fortunatamente, da qualche anno, è stata creata una normativa apposita per questo tipo di cosmetici aiutando il consumatore a comprendere meglio il prodotto in questione. Oggi, per legge, esistono solo 4 intervalli di protezione che sono: basso, medio, alto e molto alto. Questi intervalli, in termini numerici, possono essere compresi utilizzando la seguente tabella:

 

Protezione SPF

Bassa 6 – 10

Media 15 – 20 – 25

Alta 30 – 50

Molto alta 50+

Notiamo subito che sono scomparse quelle orribili, e insensate, definizioni “protezione zero” e “protezione totale”. Ma, in soldoni, cosa significa un certo valore di protezione? Se prendo una crema con SPF 30 è il doppio più efficace di una con SPF 15? In che termini?

Detto molto semplicemente, il valore numerico del fattore di protezione indica il tempo necessario affinché si creino scottature rispetto ad una pelle non protetta. Detto in questo modo, una SPF 15 significa che la vostra pelle si brucerà in un tempo 15 volte maggiore rispetto a quello che impiegherebbe senza quella crema. Dunque, anche con una crema protettiva posso scottarmi? Assolutamente si. In termini di schermo alla radiazione, il potere schermante non è assolutamente proporzionale allo SPF ma, come visto, solo ai tempi necessari per l’insorgere di scottature.

A questo punto, abbiamo capito cosa significa quel numerello che corrisponde al fattore di protezione, ma come fanno le creme a schermare effettivamente dai raggi solari?

Per rispondere a questa domanda, dobbiamo in realtà dividere la protezione in due tipi: fisico e chimico. La protezione fisica avviene in modo pressoché meccanico aumentando il potere riflettente della pelle. Per questo scopo, nelle creme solari sono presenti composti come il biossido di titanio e l’ossido di zinco, sostanze opache che non fanno altro che far riflettere verso l’esterno la radiazione solare che incide sul nostro corpo.

Primo appunto, secondo alcuni l’ossido di zinco potrebbe essere cancerogeno! Ma come, mi metto la crema per proteggermi dai raggi solari ed evitare tumori alla pelle e la crema crea tumori alla pelle? In realtà, come al solito, su questo punto si è fatta molta confusione, tanto terrorismo e si è corsi, per convenienza, a conclusioni affrettate. Alcune ricerche hanno mostrato come tessuti cosparsi di molecole di ossido di zinco e sottoposti ad irraggiamento UV possano sviluppare radicali liberi che a loro volta reagiscono con le cellule modificandone il DNA. Questo processo può portare alla formazione di melanomi, per la pelle, e di altri tumori, per le altre cellule. Ora, si tratta di studi preliminari basati su valori di irraggiamento più alti rispetto a quelli che normalmente possono derivare da un’esposizione, anche prolungata, anche nelle ore centrali della giornata, al Sole. Detto molto semplicemente, questi studi necessitano di ulteriori ricerche per poter definire margini di errore e valori corretti. Gli stessi autori di queste analisi preliminari si sono raccomandati di non male interpretare il risultato dicendo che le creme solari provocano il cancro alla pelle. In altre parole, si corrono più rischi non proteggendosi dal sole piuttosto che proteggendosi con una crema contenente ossido di zinco. Tra le altre cose, questa molecola è molto nota tra le mamme che utilizzano prodotti all’ossido di zinco per alleviare le ustioni da pannolino nei loro bambini.

Detto questo, abbiamo poi la protezione chimica. Come potete facilmente immaginare, in questo caso si tratta di una serie di molecole (oxibenzone, fenilbenzilimidazolo, acido sulfonico, butil metoxidibenzoilmetano, etilexil metoxicinnamato, ecc.) che hanno il compito di assorbire la radiazione solare e di cedere parte di questa energia sotto forma di calore. Perché possiamo trovare così tante molecole in una crema solare? Semplice, ognuna di queste è specifica per una piccola parte dello spettro di radiazione, sia UVA che UVB. Anche su queste singole molecole, ogni tanto qualcuno inventa storie nuove atte solo a fare terrorismo, molto spesso verso case farmaceutiche. Singolarmente, come nel caso dell’ossido di titanio, ci possono essere studi più o meno avanzati, più o meno veritieri, sulla pericolosità delle molecole. Anche qui però, molto spesso si tratta di effetti amplificati, ben oltre la normale assunzione attraverso la cute e, ripeto per l’ennesima volta, si rischia molto di più esponendosi al sole piuttosto che utilizzando creme solari.

Ennesima cavolata in voga fino a qualche anno fa e ora vietata: creme solari “water proof”, cioè creme resistenti completamente all’acqua. Ve le mettete una volta, fate quanti bagni volete e siete a posto. Ma secondo voi, è possibile qualcosa del genere? Pensate di spalmarvi una crema o di farvi un tatuaggio indelebile? Oggi, per legge, la dicitura water proof è illegale e ha lasciato spazio, al massimo, a “water resistant”, cioè resistente all’acqua. Una qualsiasi crema solare, a causa del bagno, del sudore, del contatto con il telo, tende a rimuoversi e, proprio per questo motivo, si consiglia di riapplicare la crema ogni 2-3 ore circa per garantire la massima protezione possibile.

Riassumendo, abbiamo capito che conviene, sempre ed in tutti i casi, utilizzare una crema solare protettiva, ma quale scegliere?

Molto brevemente, in questo caso, si deve valutare quello che è definito il proprio fenotipo. Come potete immaginare, si tratta di una serie di caratteristiche fisiche che determinano, in linea di principio, l’effetto dell’esposizione la Sole. Per poter determinare il proprio fenotipo, possiamo fare riferimento a questa tabella:

fenotipo

Ovviamente, per i valori più bassi (I e II) è consigliabile utilizzare una crema ad alto SPF, valore che può diminuire qualora fossimo meno soggetti a scottature ed ustioni.

Credo che a questo punto abbiamo un quadro molto più chiaro riguardo alla creme solari ed alla loro utilità. Ripeto, per l’ennesima volta, in ogni caso, proteggersi è sempre meglio che esporsi al sole senza nessuna protezione. Ultimo appunto, che vuole sfatare un mito molto diffuso, sotto l’ombrellone siamo comunque esposti alla radiazione solare. In primis, il tessuto di molti ombrelloni lascia passare buona parte dello spettro solare ma, soprattutto, la riflessione dei raggi solari, ad esempio ad opera della sabbia, raggiunge comunque un soggetto tranquillo e (falsamente) riparato sotto l’ombrellone. In genere, la riflessione dei raggi solari può incrementare, e anche molto, la quantità di radiazione a cui siamo esposti. Stando nell’acqua, ad esempio, abbiamo sia un’esposizione diretta ai raggi solari sia una indiretta dovuta ai raggi riflessi dalla superficie. Come potete immaginare questo amplifica molto l’esposizione.

Concludendo, utilizzate le creme solari ma, soprattutto, leggete bene le etichette prima di acquistare o, peggio ancora utilizzare, un qualsiasi prodotto. Ovviamente, qualsiasi prodotto diventa non efficace se unito alla nostra incoscienza. Se pensate di potervi spalmare una crema e stare come lucertole sotto il Sole dalle 10 del mattino al tramonto … forse questa spiegazione è stata inutile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il Manoscritto Voynich

26 Feb

Questa volta vorrei parlare di un argomento abbastanza sconosciuto anche se, personalmente, lo trovo estremamente interessante. Come sapete, la storia ci regala dei veri e propri capolavori dell’antichita’ in grado di lasciarci a bocca aperta e che magari richiedono anni di studio prima di essere compresi a pieno. Molto spesso poi, quello che arriva ai giorni nostri, apre una finestra su civilta’ di cui oggi si e’ persa traccia sia dal punto di vista degli usi che del linguaggio. Prendete come esempio quello dell’Antico Egitto. Provate a pensare quanta fatica e quanto lavoro sia stato necessario per arrivare a comprendere una scrittura basata su simbolismi grafici come quella dei geroglifici. Solo quando questo tipo di scrittura e’ stato compreso a pieno, abbiamo potuto capire le numerose iscrizioni lasciate e comprendere la concezione che questo popolo aveva per gli Dei, la morte, le persone e, perche’ no, la vita di tutti i giorni.

Perche’ faccio questa premessa?

Semplice, oggi vorrei parlarvi del Manoscritto Voynich. Si tratta di un antico testo, riscoperto solo nei primi anni del XX secolo e su cui si sta ancora dibattendo sotto molti punti di vista. Cosa ha di interessante questo reperto? Semplice, si tratta di un intero libro di cui ignoriamo completamente il contenuto perche’ non siamo ancora stati in grado di tradurlo. La lingua infatti in cui sarebbe scritto appartiene solo a questo libro e per moltissimi anni gli studiosi si sono cimentati in azzardate traduzioni senza mai tirare fuori qualcosa che avese un senso. Proprio in questi giorni pero’, e’ stato pubblicato un nuovo articolo in cui un gruppo di linguisti sostiene di essere riuscito almeno a capire quale strada seguire per tradurre il Voynich.

Cerchiamo, come nostra abitudine, di andare con ordine e provare a raccontare anche questa interessante storia.

Come anticipato, questo manoscritto e’ stato riscoperto solo nel 1912. In quest’anno infatti, proprio nel comune di Frascati vicino Roma, dove sono nato, il collegio gesuita che aveva sede nella Villa Mondragone decise di mettere in vendita alcuni libri della sua collezione per pagare la ristrutturazione del collegio stesso. Alcuni di questi antichi testi vennero comprati da tale Wilfrid Voynich, un mercante di origini polacche, che acquisto’ una trentina di libri tra cui questo manoscritto che lo aveva incuriosito da subito. Come potete immaginare, questo manoscritto e’ quello oggi noto come “Manoscritto Voynich”.

All’interno del libro, il mercante trovo’ una lettera dei primi del 1600 scritta da Johannes Marcus Marci, rettore dell’Universita’ di Praga e medico di corte di Rodolfo II di Boemia, indirizzata a Athanasius Kircher, un poligrafo che viveva a Roma, affinche’ questi decifrasse il testo del manoscritto.

Come visibile gia’ ad una prima occhiata, il manoscritto acquistato da Voynich era scritto in una lingua e con un alfabeto sconosciuti e corredato anche da disegni, molti dei quali non comprensibili.

Come e’ fatto il Voynich?

Si tratta di un libro composto da circa 200 pagine realizzate con pergamena di capretto. Per convenzione, si assume il libro diviso in quattro sezioni identificabili in base alle illustrazioni presenti. Proprio grazie ai disegni, e’ stato infatti possibile dividere il testo in parti diverse, ciascuna riguardante, almeno a naso dalle figure riportate, uno specifico tema:

  • Sezione I (fogli 1-66): chiamata botanica, contiene 113 disegni di piante sconosciute.
  • Sezione II (fogli 67-73): chiamata astronomica o astrologica, presenta 25 diagrammi che sembrano richiamare delle stelle.
  • Sezione III (fogli 75-86): chiamata biologica, nomenclatura dovuta esclusivamente alla presenza di numerose figure femminili nude, sovente immerse fino al ginocchio in strane vasche intercomunicanti contenenti un liquido scuro.

Subito dopo questa sezione vi è un foglio ripiegato sei volte, raffigurante nove medaglioni con immagini di stelle o figure vagamente simili a cellule, raggiere di petali e fasci di tubi.

  • Sezione IV (fogli 87-102): detta farmacologica, per via delle immagini di ampolle e fiale dalla forma analoga a quella dei contenitori presenti nelle antiche farmacie.

Come vedete pero’, anche se i disegni ci consentono a grandi linee di poter immaginare quale sia l’argomento di ciascuna sezione, molti di questi riguardano, come nell’esempio delle piante, qualcosa a noi sconosciuto.

Di cosa parlerebbe il manoscritto?

Qui il discorso si complica non poco perche’, come anticipato, il testo e’ scritto con un simbolismo mai ritrovato prima. Per farvi capire, ecco alcune delle pagine del libro:

Pagine del manoscritto Voynich

Pagine del manoscritto Voynich

Dunque, a questo punto appare evidente come non solo non sappiamo di cosa parla il libro ma anche, vista la scrittura utilizzata, chi abbia scritto questa opera. E’ possibile che sia un reperto realizzato da un qualche popolo successivamente scomparso e di cui, a parte il Voynich, non conserviamo ne’ reperti ne’ memoria?

La prima cosa da capire e’ senza dubbio a quale periodo storico far risalire il manoscritto.

Su questo punto, si e’ dibattutto per anni tra gli studiosi. Fino a pochi anni fa, si pensava che questa opera fosse un falso realizzato appositamente per perpetrare una truffa ai danni di Rodolfo II. Secondo questa ipotesi, il falso sarebbe stato creato nel XVI secolo da un noto falsario inglese proprio allo scopo di vendere il libro a caro prezzo a Rodolfo II come pezzo unico da collezione. A sostegno di questa prova, nella gia’ citata lettera ritrovata da Voynich nel libro, si parlerebbe di un reperto ereditato da Johannes Marcus Marci direttamente da Rodolfo che lo avrebbe comprato per 600 ducati, una cifra elevatissima per l’epoca dei fatti.

Questa versione e’ stata pero’ smentita a seguito della datazione con il Carbonio-14 che ha mostrato che l’opera e’ stata realizzata tra il 1404 e il 1438. Anche su questa datazone ci sono pero’ forti parare contrari. Come e’ possibile contestare una datazione al carbonio? Semplice, per eseguire le analisi, e’ stato autorizzato il prelievo di alcune sottili striscioline di pagina in punti diversi del libro. Ovviamente, non e’ stato autorizzato il prelievo di parti scritte con inchiostro ma solo striscie bianche di foglio. In questo caso, i fogli potrebbero essere piu’ antichi del testo e dunque del libro stesso.

Secondo un altro punto di vista, il manoscritto non potrebbe essere precedente al 1492, anno in cui venne scoperta ufficialmente l’America. Nella sezione botanica e’ infatti presente un’illustrazione che ricorda molto la pianta di girasole portata in Europa dai conquistatori del nuovo mondo.

Come potete capire, anche per la datazione dell’opera, non esiste una singola opinione condivisa tra gli studiosi.

Detto questo, cosa ci sarebbe scritto nel Voynich?

Se per la datazione eravamo nel campo delle ipotesi, per quanto riguarda il contenuto siamo proprio nel campo della fantasia, ognuno puo’ dire quello che vuole e sostenerlo senza la possibilita’ di essere smentito. A partire dalla sua riscoperta, moltissimi studiosi, matematici, crittografi, scienziati, ecc si sono cimentati nel tentativo di traduzione del Voynich, purtroppo, senza successo.

Come ricorderete, in un precedente articolo abbiamo parlato di crittografia, ricordando in particolare la macchina Enigma utilizzata dai nazisti durante la seconda guerra mondiale per inviare comunicazioni cifrate tra i vari reparti:

Un perdono atteso 70 anni

Molti studiosi hanno infatti proposto che il manoscritto Voynich non sia scritto con un idioma sconosciuto, ma si tratti di un codice cifrato in cui diversi simboli corrispondono a lettere o gruppi di sillabe. Con la comparsa dei primi sistemi automatici di calcolo, un gruppo di studiosi americani ha ripreso tutti i vecchi codici cifrati verificando i tempi necessari per decifrare codici che magari anni prima avevano richiesto anni. Di tutte le tecniche di cifratura provate, quella del Voynich, sempre che lo sia, e’ l’unica rimasta inviolata.

Secondo alcuni, questo sarebbe possibile perche’ il vero messaggio contenuto nel testo sarebbe nascosto da una serie di simboli non necessari e messi solo per confondere un lettore non autorizzato a leggere. In questo caso, per comprendere il reale messaggio, sarebbe necessaria una chiave intesa come una griglia in grado di rendere visibili solo le lettere o i simboli utili. Questa e’ una tecnica di cifratura molto semplice ma che, in alcuni casi, puo’ rivelarsi molto robusta se non altro per l’elevato numero di combinazioni da tentare prima di trovare la griglia giusta.

Per farvi capire meglio questa tecnica, vi riporto un esempio pratico. Immaginate di avere un messaggio cifrato di questo tipo:

cripto

Se pero’ il messaggio e’ indirizzato a voi e dunque sapete quali lettere selezionare, allora il messaggio che era completamemte senza senso, mostra la sua reale faccia:

decripto

A sostegno di questa ipotesi, all’interno del manoscritto sarebbero presenti gruppi di simboli troppo ripetuti rispetto ad un normale linguaggio. Queste ripetizioni sarebbero poi diverse nelle differenti sezioni che compongono il testo.

Questo e’ il risultato a cui sarebbero arrivati anche alcuni studiosi negli articoli presentati in questi ultimi mesi. Come potete facilmente capire, e diversamente da quanto affermato sui soliti giornali, questo non significa aver tradotto il Voynich, ma solo aver ipotizzato una possibile via per decifrare il codice. Tra l’altro, anche in questo caso, si e’ riusciti ad individuare solo un ristretto numero di parole che, pero’, in alcuni casi danno vita a frasi senza senso compiuto.

L’ultima ipotesi da non dimenticare sul Voynich, e che comunque annovera sempre un nutrito gruppo di sostenitori, e’ che il Voynich, magari creato come falso per truffare Rodolfo II, sia anche un falso dal punto di vista dei contenuti. In questo caso, e a sostegno ci sarebbero i disegni di piante sconosciute, si tratterebbe di una grossa montatura priva in realta’ di qualsiasi significato. Perche’ questo? Semplice, solo per aumentare il mistero sul volume e far crescere il prezzo di vendita in questa cervellotica truffa.

Concludendo, la storia del manoscritto Voynich e’ senza dobbio interessante. Oggi, a distanza di un secolo dal suo ritrovamento, ci sono solo ipotesi anche molto diverse tra loro, ma niente di tangibile e in grado di farci dire di aver compreso, anche solo in minima parte, la reale storia del volume o del suo contenuto. Come qualcuno lo ha definito, ed e’ ancora vero ai giorni nostri, il Voynich potrebbe essere il manoscritto piu’ misterioso al mondo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Messina: come prevedere i terremoti?

17 Ago

Qualche giorno fa, sulla rete si era cominciato a parlare di una nuova previsione su eventi sismici che avrebbero interessato il nostro paese. Per essere precisi, la previsione era stata fatta il 10 agosto da tale Luke Thomas che avrebbe predetto tra il 16 e il 17 agosto, con maggiore probabilita’ il 16, una scossa di magnitudo M5.4 in Sicilia.

Come sapete, di previsioni di questo tipo la rete ne e’ stracolma. Ogni giorno c’e’ qualcuno che si sveglia e, guardando le stelle, le nubi, i fondi del caffe’ o l’umore della vicina di casa, prevede che un terremoto piu’ o meno forte potrebbe esserci da qualche parte. Sistematicamente, queste previsioni vengono disattese.

Perche’ ora vi parlo di questo argomento?

La risposta e’ molto semplice, personalmente non ho nemmeno preso in considerazione la previsione fatta da Luke Thomas, dal momento che ne avevamo gia’ parlato in abbondanza. Proprio ieri pero’, 16 agosto, due scosse ravvicinate di M41.1 e M4.2 hanno colpito il messinese.

E ora come la mettiamo?

Come potete facilmente immaginare la rete sta letteralmente esplodendo di notizie che parlano di Luke Thomas e della sua previsione esatta. In molti casi, come sempre, si parla di previsione con metodi scientifici che la scienza ufficiale non vuole adottare o che si rifiuta di ammettere perche’ non provenienti da un vero scienziato.

Prima di lasciarci sopraffare da queste farneticazioni, facciamo un po’ di chiarezza su questa faccenda.

Partiamo dalle basi. Chi e’ Luke Thomas? Questo tizio sarebbe un “ricercatore”, nel senso catastrofista del termine che ormai conosciamo, inglese sedicente “esperto” di terremoti. Sul suo sito web, pubblica ogni giorno delle tabelle di previsione dei terremoti, rapresentate come probabilita’ di evento. Mi spiego meglio, guardando al suo sito, trovate, ad esempio, per l’Italia, diverse zone del paese con una probabilita’ giornaliera che possa verificarsi un terremoto piu’ o meno intenso.

Bene, come vengono stimate queste probabilita’?

Thomas studierebbe l’andamento di molti parametri che lui avrebbe identificato come precursori sismici. Piccola parentesi, di previsione dei terremoti ne abbiamo parlato a volonta’, questi sono solo alcuni esempi di articoli:

Terremoti, Pollino, Radon, Giuliani, L’Aquila …

Riassunto sui terremoti

– Analisi statistica dei terremoti

Dati falsi sui terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Terremoti: nuove analisi statistiche

Tutte le volte, siamo qui a raccontare che, al momento, non e’ ancora possibile prevedere i terremoti, che non e’ stato possibile identificare uno o un set di parametri che potrebbero indicare l’arrivo di un terremoto, ecc. Poi invece arriva Luke Thomas e ha i precursori in mano. Le cose sono due, o racconta fandonie, o veramente la scienza fa finta di chiudere gli occhi di fronte ad evidenze del genere.

Quali sono i precursori usati da Thomas?

Variazione di temperatura della zona, piccole scosse nei giorni precedenti, comportamento degli animali, comportamento degli esseri umani, fasi lunari, assenza prolungata di sismicita’, variazione di temperatura dell’acqua e nubi sismiche.

Cerchiamo di capirci qualcosa.

Riguardo alle nuvole sismiche, abbiamo gia’ smentito questo parametro come precursore in questo articolo:

Nuvole sismiche

ed in quelli direttamente richiamati.

Anche sul comportamento degli animali che sarebbero in grado di prevedere i terremoti, ne abbiamo parlato in questo post:

Animali e terremoti

mostrando come questa relazione nasca soltanto dalla leggenda popolare e non ha nessuna veridicita’ scientifica.

Anche parlare di fasi lunari, e’ come parlare di allineamenti planetari in grado di causare il fenomeno delle maree solide. Come detto tante volte, secondo questo assunto, il movimento dei pianeti sarebbe in grado di influenzare l’attrazione gravitazionale verso il nostro pianeta e quindi di innescare il movimento delle placche che galleggiano su un mare di magma. Di questo abbiamo parlato in questo post:

Allineamenti, terremoti e … Bendandi

mostrando come queste variazioni siano minime e del tutto non sufficienti a creare effetti del genere.

Non mi e’ chiaro come venga preso in considerazione il comportamento degli esseri umani. Se mi permettete, questo mi sembra piu’ un parametro per fare colore e dare un tocco di misticismo alla previsione.

Anche parlare di temperatura delle acque o superficiale, non e’ del tutto chiaro. Ovviamente, rilasci di gas potrebbero modificare localmente la temperatura di una zona o dell’acqua, ma non e’ assolutamente una relazione 1 a 1, cioe’ se si verifica vuol dire che sta arrivando il terremoto. Se poi pensiamo a scosse molto profonde, la connessione con la temperatura superficiale diviene del tutto assurda.

Detto questo, possiamo dunque dire che non c’e’ nulla di vero?

Certo che si, ma vorrei analizzare ancora piu’ a fondo la notizia per mostrarvi in verita’ come viene fatta la previsione e come considerare questo Luke Thomas.

Premetto che Luke Thomas ha gia’ fatto innumerevoli previsioni in passato, tutte sistematicamente disattese. Famosa e’ quella di qualche anno fa in cui il “ricercatore” aveva previsto n terremoto di magnitudo 7 in California. Terremoto mai avvenuto ma a causa della previsione l’USGS americano era stato subissato di lettere e mail per avere informazioni. Piccolo appunto, sul web leggete che Thomas sarebbe un ricercatore e lavorerebbe proprio per l’USGS. Cosa completamente falsa, non esiste nessun rapporto tra l’istituto americano e Thomas.

Premesso questo, vi mostro la tabella da cui e’ stata presa la previsione per la Sicilia:

Previsioni della settimana per l'Italia

Previsioni della settimana per l’Italia

Come vedete vengono riportate diverse zone e giorno per giorno viene mostrata una probabilita’ che possa avvenire un terremoto. Ora, per il 16 agosto, la probabilita’ era del 100% a Catania, a Messina e a Napoli. Mentre abbiamo una probabilita’ del 99% a Pescara e del 93% a Firenze.

Parlare di Firenze, Pescara, Napoli e Sicilia, significa indicare una probabilita’ altissima in mezza Italia. Capite bene come questo significhi sparare numeri a caso.

In altri termini, la previsioni di Thomas funzionano cosi’: si prende una zona sismica e si danno probabilita’ piu’ o meno alte per vastissime zone. Non diciamo certo un’assurdita’ affermando che l’Italia e’ una zona sismica. Dare un raggio pari a meta’ della nazione e’ equivalente a sparare numeri a caso. E’ come se io scrivessi sul blog ogni giorno che ci sara’ un terremoto in California, o in Giappone o in qualche altro paese sismico. Prima o poi, la mia previsione verra’ azzeccata.

Tra l’altro, vi faccio notare che la previsione di Thomas era relativa ad un terremoto M5.2. Quello avvenuto era M4.2, cioe’ piu’ di 30 volte inferiore in termini energetici rispetto a quello atteso.

Concludendo, non c’e’ assolutamente nulla di scientifico ne tantomeno di vero nelle previsioni di Luke Thomas. Si tratta di previsioni fatte utilizzando presunti parametri sui quali la scienza si e’ gia’ interrogata non trovando correlazioni dirette con i sismi. Le tabelle mostrate sul sito internet di Thomas, sono relative a probabilita’ stimate in ampissime zone di paesi noti come sismici da sempre. Tra l’altro, tutte le previsioni fatte in passato sono state sistematicamente disattese. Detto questo, la previsione azzeccata che leggete su internet e’ solo frutto di “fortuna”. A forza di sparare previsioni, alla fine una viene presa, ma senza nessun criterio scientifico ne riproducibile.

Purtroppo, c’e’ ancora chi crede a questi pseudo-stregoni che utilizzano metodi mistici e senza senso per far credere di saper prevedere i terremoti. La scienza e’ alla continua ricerca di precursori sismici per permetterci di prevedere, anche solo di qualche ora, i terremoti. Purtroppo, al momento, nessuno e’ in grado di prevedere i terremoti. L’unico strumento che abbiamo in mano per difenderci da questi eventi naturali e’ fare prevenzione e mettere in sicurezza i nostri edifici.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sugli esopianeti

15 Ago

Come sapete, siamo soliti tornare su argomenti gia’ trattati, qualora su questi venissero richiesti dettagli aggiuntivi o, sopratutto, quando qualcosa di nuovo viene scoperto o introdotto.

Questa volta vogliamo tornare a parlare di esopianeti, su cui molto avevamo detto in questi articoli:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Esopianeti che non dovrebbero esserci

Perche’ torniamo a parlarne?

Perche’ tutti e due i motivi sopra indicati convergono su questo argomento. Prima di tutto, nella sezione:

Hai domande o dubbi?

e’ stato suggerito di parlare della presunta scoperta di un nuovo esopianeta che sembrerebbe poter essere il corpo extrasolare piu’ simile alla nostra Terra e poi perche’ ci sono anche delle novita’ di cui vorrei parlare.

Andiamo con ordine.

Come potete leggere, la richiesta era relativa all’esopianeta KOI-4742.01. Come giustamente detto, di questo pianeta si e’ avuta l’evidenza solo pochi giorni fa. Perche’ parlo di evidenza e non di scoperta? Usando un linguaggio piu’ simile a quello della fisica delle particelle, si parla di evidenza quando c’e’ il sospetto che potrebbe esserci un corpo in quella zona dell’universo che stiamo osservando, ma ancora non vi e’ la certezza. Per KOI-4742.01 la situazione e’ proprio questa. Come visto negli articoli precedenti, gli esopianeti vengono identificati con il metodo dei passaggi. Per prima cosa, si identifica la stella intorno ala quale potrebbe esserci un sistema stellare. Dopo di che, si osserva questa stella cercando di misurare le minime variazioni di luminosita’ che si hanno quando un pianeta gli passa davanti. Questo e’ il metodo utilizzato per identificare i pianeti fuori dal sistema solare. Come potete facilmente immaginare, si tratta di un metodo molto complicato basato su variazioni minime di luminosita’ percepite ad una distanza cosi’ lontana. Proprio per questo motivo, ruolo determinante in questa ricerca e’ sicuramente quello del telescopio. Strumenti sempre piu’ potenti e precisi, possono consentire di identificare pianeti sempre piu’ lontani e piccoli.

Perche’ parliamo tanto di esopianeti?

Come detto in passato, lo studio di questi corpi e’ di fondamentale importanza per cercare di capire dove si potrebbe essere sviluppata la vita. Qui non stiamo parlando di video fasulli di UFO che passano da qualche parte, ma di una seria ricerca scientifica volta ad identificare pianeti potenzialmente abitabili. Come detto diverse volte, vi ricordo che quando parliamo di vita, non intendiamo necessariamente omini verdi che parlano e girano su astronavi. Ogni qualsiasi forma di vita, dal batterio alla forma piu’ complessa, possono aiutarci a capire meglio la formazione del nostro universo e soprattutto in quali e quanti casi si possono formare le condizioni per ospitare la vita.

Cosa ha di speciale KOI-4742.01?

Come anticipato, si tratta del potenziale esopianeta piu’ simile alla Terra. Cosa significa? Al momento ci sono piu’ di 3500 potenziali esopianeti, di cui quasi 1000 certi e identificati. Volendo fare una ricerca per trovare zone potenzialmente abitabili, di quali parametri terremo conto? Detto in altri termini, come possiamo dire se un pianeta e’ adatto o no per ospitare la vita?

Negli articoli precedenti, avevamo parlato di “zona di abitabilita’”, intendo quella fascia di distanze dalla stella centrale in grado di assicurare la formazione di acqua sul pianeta e delle temperature, diciamo, decenti, cioe’ non troppo calde ne’ troppo fredde.

Per poter procedere in modo sistematico e scientifico, e’ stato introdotto un indice matematico proprio per racchiudere queste caratteristiche. Come indicato nel commento da cui siamo partiti, si tratta del cosiddetto ESI, cioe’ “indice di similarita’ alla Terra”. Come funziona? Volendo utilizzare una terapia d’urto, vi faccio vedere la formula che definisce l’ESI:

esi_formula

Non spaventatevi, altro non e’ che il prodotto di probabilita’ ottenuto mettendo insieme 4 fattori: il raggio del pianeta, la densita’ interna, la velocita’ di fuga (indicatore della gravita’ sul pianeta) e la temperatura media della superficie. Ogni parametro viene confrontato con quelli della Terra e pesato in modo diverso. In tal senso, per la potenziale formazione della vita, si considera la temperatura superficiale piu’ importante del raggio e cosi’ via. Mettendo i parametri nella formula, ottenete una valore compreso tra 0 e 1, dove 1 indica qualcosa identico alla nostra Terra.

KOI-4742.01 ha un ESI pari a 0,91 ed e’, qualora venisse confermato, l’esopianeta piu’ simile alla Terra trovato fino a questo punto. Prima di questo, il primo posto in classifica spettava a Kepler-62e, con un ESI pari a 0,83. Per essere precisi, dobbiamo dire che il primo posto in classifica spetta ancora a Kepler-62e, dal momento che KOI-4742.01 non e’, come detto in precedenza, stato ancora confermato. Allo stesso modo, esistono anche altri esopianeti non confermati che potrebbero avere un ESI maggiore di 0,83, anche se minore di quello di KOI-4742.01.

Il sito piu’ completo e aggiornato con tutte le recenti scoperte e con tantissime informazioni su questo tipo di ricerche e’ senza dubbio quello del PHL, cioe’ Planet Habitability Laboratory, gestito dall’universita’ di Porto Rico:

PHL site

Come potete vedere, qui trovate tantissime informazioni sulla ricerca in corso di esopianeti, insieme anche al catalogo aggiornato sia dei corpi identificati che di quelli sospetti:

PHL, database

Nell’immagine che segue, trovate poi la classifica dei pianeti con ESI maggiore gia’ confermati:

Classifica degli esopianeti confermati con ESI maggiore

Classifica degli esopianeti confermati con ESI maggiore

Prima di concludere, vorrei darvi qualche informazione aggiuntiva. Come potete vedere sul sito del PHL, gli esopianeti vengono anche classificati in base alla loro tipologia: terrestre caldo, superterrestre, subterrestre, mercuriano, ecc. Questa identificazione viene data considerando la tipologia di pianeta, se roccioso o meno, la temperatura e la massa del pianeta. Per farvi un esempio, Kepler-62e e’ classificato di tipo superterrestre, avendo una massa di circa 3 volte e mezzo quella della Terra. Anche questa distinzione risulta molto importante per la classificazione dei pianeti in base alla loro possibilita’ di ospitare o meno la vita.

Proprio per questo motivo, capite bene che l’ESI e’ si un parametro molto importante ma non e’ l’unico utilizzato. Nella classificazione degli esopianeti, si tiene conto di 7 parametri definiti a partire dala nostra Terra. Oltre all’indice di similarita’, si tiene conto della posizione, se in fascia abitabile o meno, dell’abitabilita’ per piante e vegetazione complessa, che dipende anche dall’umidita’ oltre che dalla temperatura, della tipologia dell’interno del pianeta, oltre che alla densita’ inserita nell’ESI qui si tiene conto se il nucleo e’ ricco di ferro o no, e tanti altri parametri importanti per la vita.

Concludendo, la ricerca degfli esopianeti continua senza sosta e il database di corpi conosciuti fuori dal nostro sistema solare cresce senza sosta. Come sappiamo bene, uno degli scopi principali di questa ricerca e’ quello di determinare se su qualche pianeta esistono le condizioni per la formazione e lo sviluppo di forme di vita. A tal proposito, sono stati introdotti diversi indici per formalizzare e confrontare facilmente le caratteristiche degli esopianeti. Tra questi, ruolo determinante e’ quello dellESI, cioe’ l’indice di somiglianza alla Terra. Fate pero’ attenzione ad una cosa: se anche dovessimo trovare un pianeta del tutto simile alla Terra e con caratteristiche adatte alla vita, non significherebbe assolutamente che esiste la certezza di trovare vita su quel pianeta. Per questo, non resterebbe che andare a vedere con i nostri occhi!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’esperimento della goccia di pece

23 Lug

Pochi giorni fa, e’ stata annunciata la notizia che finalmente e’ stato possibile riprendere uno degli esperimenti scientifici piu’ lunghi, secondo alcuni anche piu’ noioso, della storia.

Di cosa si tratta?

L’esperimento in questione e’ quello della goccia di pece. Come sapete bene, la pece e’ quella sostanza di colore nero, ricavata dai bitumi e da legni resinosi. In condizioni normali, la pece si presenta come un solido, tanto che e’ possibile romperla utilizzando un martello.

Confronto tra fluidi ad alta e bassa viscosita'. Fonte: Wikipedia

Confronto tra fluidi ad alta e bassa viscosita’. Fonte: Wikipedia

Anche se apparentemente sembra un solido, la pece e’ un fluido, precisamente un fluido ad altissima viscosita’. Come sapete, la viscosita’ di un fluido indica la resistenza della sostanza allo scorrimento. L’animazione riportata aiuta a capire bene la differenza tra fluidi ad alta e bassa viscosita’ quando questi vengono attraversati da solidi.

Bene, cosa c’entra la pece con questo esperimento?

Come anticipato, la pece e’ in realta’ un fluido ad alta viscosita’. Detto questo, anche se con tempi molto lunghi, questa sostanza deve comportarsi come un fluido. Sulla base di questa considerazione, e’ possibile realizzare un esperimento per misurare la viscosita’ della sostanza facendola scendere all’interno di un imbuto.

Il primo che propose questo esperimento fu il professor Thomas Parnell dell’università del Queensland. Parnell prese un pezzo di pece, lo sciolse e lo fece colare all’interno di un cono di vetro. Questo venne fatto addirittura nel 1927.

Per poter iniziare l’esperimento, fu necessario far raffreddare la pece, operazione che duro’ circa 3 anni, fino al 1930. Solo a questo punto, la parte finale del cono venne rotta formando un imbuto. Dal momento che la pece e’ un fluido, si devono osservare delle gocce cadere dall’imbuto.

Facile, direte voi. E’ vero, ma per eseguire questo esperimento serve tanta tanta pazienza.

Non ci credete?

La prima goccia di pece, cadde dopo ben 9 anni! Lo stesso avvenne per le gocce successive. Ecco una tabella riassuntiva dell’esperimento:

Data Evento Durata(Mesi) Durata(Anni)
1927 Inizio dell’esperimento: la pece viene versata nell’imbuto sigillato
1930 Il fondo dell’imbuto viene aperto
Dicembre 1938 Caduta della prima goccia 96-107 8-8,9
Febbraio 1947 Caduta della seconda goccia 99 8,3
Aprile 1954 Caduta della terza goccia 86 7,2
Maggio 1962 Caduta della quarta goccia 97 8,1
Agosto 1970 Caduta della quinta goccia 99 8,3
Aprile 1979 Caduta della sesta goccia 104 8,7
Luglio 1988 Caduta della settima goccia 111 9,3
28 novembre 2000 Caduta dell’ottava goccia 148 12,3

Perche’ questo esperimento e’ stato ritirato fuori in questi giorni?

Come evidenziato dalla tabella, sono state effettivamente osservate le gocce di pece cadere nel bicchiere sottostante, ma fino ad oggi, nessuno era mai riuscito a filmare la goccia che cadeva. In occasione dell’ottava goccia nel 200o, la telecamera che era stata montata era guasta, per cui si perse questo importante momento.

Seguendo il link, potete vedere il filmato della fatidica goccia che cade:

Video goccia di pece

Dai tempi misurati nell’esperimento, si e’ ricavato che la pece ha una viscosita’ pari a 230 miliardi di volte quella dell’acqua!

Durante questi 83 anni, l’esperimento e’ sempre stato in funzione e, nei primi anni del 2000, quando ci si rese conto che le variazioni di temperatura potevano modificare la viscosita’ della pece, la campana che conteneva l’apparato e’ stata termalizzata in modo da mantenere costanti i parametri.

Nel 2005, in memoria del professor Parnell, venne assegnato all’esperimento della goccia di pece l’IG Nobel, parodia, ormai seguitissima, del piu’ cleebre premio Nobel.

A parte gli scherzi, si tratta di un esperimento utile per evidenziare proprieta’ dei fluidi ad alta viscosita’. Certo, oggi come oggi, le misure sono state fatte, ma l’esperimento e’ ancora in corso perche’ rappresenta ormai un simbolo sia dell’universita’ del Queensland sia una memoria storica della fisica.

Se avete tempo libero, ma ne serve molto, potete ache seguire in diretta l’esperimento, collegandovi a questo link:

Diretta Pece

Dal punto di vista chimico-fisico, i fluidi alta viscosita’ sono assolutamnete interessanti e dalle proprieta’ a dir poco strabilianti. Anche il vetro, classificato come sostanza amorfa, puo’ essere definito un fluido ad alta viscosita’. Proprio per questo motivo, alcune vetrate delle chiese piu’ antiche, mostrano delle forme allargate verso il basso, caratteristica dovuta proprio al lento movimento del fluido.

Certamente, oggi come oggi non stiamo parlando di un esperimento in grado di stravolgere la fisica, ma di un’esperienza importante dal punto di vista storico e sicuramente curiosa per noi abituati alla comunicazione e ai risultati immediati. Punto a favore, e’ certamente il costo zero dell’esperimento che richiede solo un po’ di aria condizionata per termostatare il piccolo apparato.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Anche il giorno e’ relativo …. se siete altrove

12 Giu

Pensandoci, chissa’ quante volte avremo detto “se ci fosse un giorno di 48 ore, riuscirei a fare tutto”. Proprio relativamente a questo vorrei parlare in questo post, aprendo una piccola parentesi curiosita’ sui pianeti del sistema solare. In particolare, vorrei discutere la durata del giorno sui diversi pianeti, confrontandola proprio coi numeri a cui siamo abituati, cioe’ quello che osserviamo direttamente sulla Terra.

Per prima cosa, vi diro’ qualcosa di “sorprendente”, la Terra gira intorno al Sole in circa 365.25 giorni e gira su se stessa in “quasi 24 ore”. Solo per curiosita’, quel 0,25 in piu’ nel periodo di rivoluzione e’ proprio il responsabile dell’inserimento di un anno bisestile ogni quattro. Questa soluzione serve a recuperare lo scarto che, in caso contrario, provocherebbe una differenza crescente tra periodo dell’anno ed effettiva posizione intorno al Sole.

Bene, l’alternarsi delle stagioni, che indica l’anno terrestre, e’ semplicemnete dato dalla pozione della Terra sull’orbita fatta intorno al Sole. Come detto, in poco piu’ di 365 giorni, la Terra tornera’ nella stessa posizione.

Quello che invece chiamiamo giorno, cioe’ l’alternarsi di luce e buio, dura 24 ore. Cosa significa Ogni 24 ore torniamo a vedere il Sole nella stessa posizione.

Questo ovviamente e’ vero per la Terra. Cosa possiamo dire per gli altri pianeti?

sistema_solare

Come potete immaginare, le durate del giorno e dell’anno di un pianeta del Sistema Solare dipendono dai parametri orbitali del pianeta stesso. Per quanto riguarda il periodo impiegato a percorrere l’intera orbita, pianeti piu’ lontani dal Sole dovranno percorrere un percorso piu’ lungo per tornare nella stessa posizione, e questo fa si che i periodi siano via via crescenti quando ci allontaniamo dal Sole.

Ecco una tabella con i periodi di rivoluzione dei pianeti del Sistema Solare:

Pianeta Planet Rotazione

Rotation

Rivoluzione

Revolution

Plutone Pluto ~6gg 247,7 anni/years
Nettuno Neptune 16h 165 anni/years
Urano Urans -11h 84 anni/years
Saturno Saturn 10h 40′ 29,46 anni/years
Giove Jupiter 10 h 11,86 anni/years
Marte Mars ~24 h 687 giorni/days
Terra Earth 24 h 365 giorni/days
Venere Venus -243 gg 225 giorni/days
Mercurio Mercury 59 gg 88 giorni/days

oltre a questi, trovate anche i periodi di rotazione dei corpi. Fate attenzione ad una cosa, i segni negativi che compaiono per due pianeti, Urano e Venere, servono solo per indicare il moto retrogrado questi pianeti, cioe’ il fatto che questi corpi girino al contrario sull’orbita rispetto gli altri.

Questa tabella ci permette subito di calcolare il periodo dell’anno dei pianeti che, ad esempio, nel caso di Venere sara’ di 225 giorni.

Cosa possiamo dire riguardo al giorno?

Facciamo subito una distinzione molto importante. Quello che comunemente siamo abituati ad indicare come giorno e’ inteso come il lasso di tempo che la Terra impiega a fare un giro su se stessa. In astronomia, questo e’ noto come “giorno siderale” o “giorno sidereo”. Prima pero’, abbiamo definito, intuitivamente, il giorno in maniera diversa, cioe’ come l’alternarsi della luce e del buio. In tal senso, per un osservatore che potrebbe anche ignorare il moto di rotazione del pianeta intorno all’asse, il giorno altro non e’ che il lasso di tempo che serve per fare un intero ciclo luce-buio.

In tal senso, tra i pianeti del sistema solare, molto interessante e’ il caso di Mercurio. Come sappiamo, Mercurio e’ il piu’ interno dei pianeti del sistema solare ed inoltre e’ quello che presenta un’eccentricita’ maggiore dell’orbita. Cosa significa? Semplicemente, l’ellisse percorsa da Mercurio intorno al Sole, presenta la maggiore differenza tra asse maggiore e minore. Detto in altri termini, l’orbita di Mercurio e’ quella che maggiormente si allontana da una circonferenza. Per la precisione, l’eccentricita’ di Mercurio sarebbe seconda a quella di Plutone che pero’ e’ stato declassato da pianeta a planetoide.

Come visto nella tabella, il periodo di rivoluzione di Mercurio e’ di circa 88 giorni, mentre servono 59 giorni per completare il giro intorno all’asse. Da questi numeri, Mercurio ogni due rivoluzioni fa tre giri intorno al proprio asse.

Fate attenzione pero’, se parliamo di giorno sidereo, in questo caso le 24 ore che abbiamo sulla Terra divengono 59 giorni. Ancora piu’ marcata e’ la differenza se parliamo di periodi diurni e notturni. Data la grande eccentricita’, mentre Mercurio gira su stesso, si avvicina e si allontana notevolmente dal Sole. Questo moto fa si che il giorno inteso come alternarsi buio-luce duri su Mercurio ben 176 giorni. Dati i numeri sulla tabella, il giorno dura piu’ o meno il doppio di un anno.

Pensando a come siamo abituati a concepire il tempo sulla Terra, e’ molto difficile immaginare la situazione di Marcurio. Praticamente, aspettando che faccia buoi (o luce in alternativa), vedremo passare per due volte tutte le stagioni.

Ovviamente non c’e’ nulla di misterioso in questo fatto, e’ solo una curiosita’, a mio avviso interessante, che si evidenzia sui pianeti del Sistema Solare.

Per completezza, se l’orbita di Mercurio fosse circolare, data la sua vicinanza al Sole, gli effetti di marea farebbero si che il pianeta mostrerebbe sempre la stessa faccia, esattamente come avviene per la Luna.

Sempre in termini di curiosita’, proviamo ad immaginare di essere sulla Luna e che la Terra sia il nostro Sole. In questo senso, poiche’ come visto in questo post:

Spettacolo lunare per il 23 Giugno

a parte piccole variazioni, la Luna mostra sempre la stessa faccia alla Terra, il giorno durerebbe un tempo infinito. Se fossimo sulla faccia verso Terra, illuminata in questo esperimento mentale, sarebbe sempre giorno, in caso contrario sarebbe sempre notte perche’ ci troveremmo sempre dall’altra parte.

Concludendo, i moti dei pianeti intorno al Sole presentano ovviamente delle differenze anche marcate tra loro. Parlando di giorno sidereo, cioe’ come il periodo necessario al pianeta per compiere un moto di rotazione intorno al proprio asse, passiamo da poche ore fino a decine di giorni. Per quanto riguarda invece il giorno inteso come alternanza luce-buio, in questo caso si devono considerare contemporaneamente sia il moto di rotazione che la rivoluzione. In tal senso, come nel caso di Mercurio, si possono avere situazioni apparentemente curiosieper noi che siamo abituati a vivere sulla Terra.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Addio dieta mediterranea, da oggi insetti!

19 Mag

090352107-c5647f4d-69d3-4be3-82a8-f09f76b03870

Ingredienti:

350g di riso
Una noce di burro
Una testa d’aglio
Una cipolla
Un etto di blatte del tipo rosso
Mezzo bicchiere di latte di cocco

Preparazione:

Fare rosolare nel burro aglio e cipolla. Aggiungere il riso e il vino bianco fin che non evapora. Unire quindi al riso il latte di cocco e le blatte mescolando. Venti minuti di cottura a fiamma bassa e, prima di servire, mantecare con burro e formaggio a piacimento.

Siete sconvolti? Perche’? Pensate che io sia impazzito e che mangiare insetti sia una cosa disgustosa?

Forse in parte avete ragione, ma non e’ della stessa opinione la FAO. Nel rapporto “Le foreste per la sicurezza alimentare e la nutrizione”, l’agenzia dell’ONU sottolinea quanto sia importante magiare insetti sia dal punto di vista alimentare che ambientale.

Ragioniamo un attimo su qualche numero: ci sono gia’ circa 1900 specie di insetti che vengono mangiati in qualche parte del mondo. Pensate sia un’usanza solo di paesi in via di sviluppo o che non hanno altro di cui nutrirsi? Siete completamente fuori strada.

Ovviamente, gli insetti fanno parte della dieta di molti paesi africani, ma diversi piatti a base di insetti vengono regolarmente preparati anche in molti paesi dell’Asia e dell’America Centrale. Inoltre, negli ultimi anni sono cresciuti a dismisura i ristoranti di lusso che hanno inserito nei loro menu’ piatti a base di insetti. Questi piatti, ricercati e poco noti, sono ovviamente tra i piu’ costosi che potete ordinare.

Qual e’ il vantaggio del mangiare insetti?

Mettendo da parte i nostri preconcetti, cerchiamo di ragionare con qualche numero. Gli insetti in generale sono tra le specie piu’ diffuse e ricche di esemplari del pianeta. Praticamente sono presenti ovunque e non richiedono speciali tecniche di allevamento.

Dal punto di vista ambientale, allevare insetti e’ molto meno dispendioso rispetto alle normali specie da “tavola”. Facciamo un confronto diretto. Un allevamento di mucche, produce quantita’ elevatissime di metano, ammoniaca e altri gas serra, oltre ovviamente a letame. Inoltre, allevare una mucca costa molto in termini di risorse, acqua e foraggio in primis. Allevare insetti invece richiede uno sforzo minimo e, a parita’ di quantita’, vengono prodotti molti meno inquinanti per l’ambiente.

Dal punto di vista nutrizionale?

Anche qui, cerchiamo di fare dei confronti diretti. Nella ricetta riportata prima, che non ho inventato, ma e’ reale, vengono utilizzate le blatte. Bene, per 100 grammi di blatte ci sono: 54 grammi di proteine, 28 grammi di grassi, 9 grammi di carboidrati, oltre a fosforo, magnesio, ferro, calcio e altri minerali importanti per la nostra dieta. Dal punto di vista nutrizionale, potremmo avere gli stessi macronutrienti di un hamburger da 100 grammi, mangiando 50 grammi di blatte.

Le blatte sono solo un esempio. Sfogliando le tabelle nutrizionali di diversi insetti, ci si rende conto della ricchezza alimentare di questi possibili alimenti. Molto spesso, i nutrienti di molte specie superano di gran lunga quelle di carne, pesce, uova e altri alimenti che mangiamo tutti i giorni.

In Africa, ad esempio, mangiare insetti e’ fondamentale per combattere la malnutrizione. Proprio il notevole apporto di macronutrienti degli insetti, consente alle popolazioni di diverse zone povere di poter sopravvivere senza problemi. In Thailandia invece, quando l’utilizzo dei pesticidi non riusciva piu’ ad arginare l’invasione di locuste, il governo chiese ai contadini di mangiare questi animali. Per favorire la cosa, forni’ anche delle ricette per preparare questa nuova tipologia di pietanza. Risultato? Non solo il problema venne risolto, ma, oggi, alcuni contadini sono arrivati a piantare grano solo per attirare locuste da vendere ai mercati. Questi animali sono divenuti delle vere prelibatezze, richiestissime sia da privati che dai ristoranti.

Bene, OK per l’ambiente, OK dal punto di vista nutrizionale, ma il sapore?

580038_scorpioni

Se provate a cercare in rete nella vasta letteratura presente, trovate opinioni entusiaste. Per farvi qualche esempio, le formiche ricordano il sapore delle noccioline, le cimici ricorderebbero la cannella, le vespe avrebbero un sapore dolce, le termiti sarebbero simili alle carote, ecc. Proprio queste associazioni a cibi noti, ha creato una vasta letteratura e dei veri e propri ricettari. Per farvi un esempio, poiche’ api e vespe avrebbero un sapore dolce, un’ottima ricetta le prevede servite con cioccolato fuso o su un letto di crema pasticcera.

Per non riportare notizie solo per sentito dire, ammetto di aver assaggiato personalmente gli scorpioni in Cina, in particolar modo, spiedini di scorpioni cotti alla brace. Il sapore? Veramente ottimo, e se lo devo associare a qualcosa di noto, direi che ricordava un po’ il sapore del granchio.

L’usanza di mangiare insetti si chiama “entomofagia” e, alla luce di quanto visto, cosi’ come la pensa anche la FAO, potrebbe essere una possibile soluzione alla mancanza di cibo nel futuro. Se ci pensiamo bene, il numero di abitanti sulla Terra cresce a ritmo continuo e, da qui a pochi anni, non saremo in grado di produrre cibo per tutti. Dunque? Esportare in altri paesi l’usanza di mangiare insetti, potrebbe fornire una importante fonte di cibo, a buon mercato, facile da allevare e altamente nutriente.

Purtroppo, soprattutto noi europei, siamo molto restii a questo tipo di alimentazione. Se molti paesi nel mondo mangiano insetti, perche’ noi non dovremmo farlo? Molto probabilmente, il nostro disgusto, viene da retaggi culturali e dal livello di benessere che abbiamo raggiunto.

In fondo, se ci pensate, chi avrebbe detto 10 anni fa che in Europa si sarebbe mangiato il sushi?

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Nuovi candidati per l’impatto mortale?

18 Apr

Alcuni utenti mi hanno chiesto di commentare una notizia apparsa proprio in queste ore su molti siti intenet. Stando a quanto riportato, la NASA avrebbe dichiarato di aver scoperto un nuovo asteroide orbitante vicino alla Terra e che potrebbe rappresentare una notevole minaccia per il genere umano. Per essere precisi, trovate scritto che questo corpo sarebbe molto piu’ pericoloso di Apophis di cui abbiamo parlato, ad esempio, in questo post:

Attenzione, tra poche ore passa Apophis!

Come sapete bene, su Apophis si e’ speculato tantissimo per due motivi principali. Il primo e’ che questo NEO, oggetto vicino alla Terra, per lungo tempo ha avuto una probabilita’ di impatto dalle simulazioni diversa da zero, mentre la seconda ragione si deve a Margherita Hack che in alcune interviste, per smentire le fantasie sul 2012, ha espressamente detto che forse era meglio preoccuparsi di Apophis piuttosto che della fine del calendario Maya. Questa affermazione, fatta ovviamente per sminuire il 2012, ha avuto l’effetto contrario di creare uno stato d’allerta sui meteoriti.

Detto questo, sempre secondo la notizia che stiamo analizzando, il nuovo asteroide appena scoperto sarebbe “1999 RQ36”, che dovrebbe colpire la Terra nel 2182.

Premesso che il 2182 mi sembra abbastanza lontano per iniziare a preoccuparsi, le tante notizie che trovate in rete presentano alcuni punti fondamentali completamente falsi.

Cerchiamo di capire meglio.

Prima di tutto, come suggerisce il nome stesso, l’asteroide in questione e’ stato scoperto nel 1999. La prima osservazione e’ stata fatta nell’ambito del programma LINEAR e l’asteroide e’ costantemente monitorato e studiato dall’osservatorio di Arecibo.

1999 RQ36 ha una forma sferiodale con un diametro medio di 560 metri e una massa di 0.14 miliardi di tonnellate. A livello scientifico, si e’ parlato abbastanza di questo asteroide, soprattutto perche’ e’ stato possibile determinare la sua massa con estrema precisione. Questo risultato e’ stato raggiunto sfruttando le informazioni di 3 radiotelescopi nel mondo e calcolando in maniera molto precisa gli effetti gravitazionali subiti da 1999 RQ36. Come potete facilmente immaginare, questo e’ stato un compito molto arduo, dal momento che per calcoli di queto tipo, si devono considerare tutti i corpi in prossimita’ dell’asteroide, al fine di valutare precisamente le interazioni gravitazionali subite durante il moto.

Probabilmente, leggendo qualche notizia qua e la sui siti scientifici, i nostri amici catastrofisti non hanno capito bene quello di cui si stava parlando e perche’ cosi’ tanto interesse fosse concentrato su questo asteroide. Ovviamente, non dobbiamo dimenticarci il periodo storico che stiamo attraversando. Dopo il fatto russo dell’asteroide su Cheliabynsk, speculare su eventi di questo tipo e’ divenuta una moda molto proficua per tanti siti internet.

Detto questo, come possiamo verificare la reale pericolosita’ di 1999 RQ36?

Per prima cosa, per chi volesse divertirsi a simulare l’impatto di un corpo di questo tipo sulla Terra, abbiamo fatto esperimenti di questo tipo in un altro articolo:

Effetti di un impatto con Nibiru

Seguendo i link riportati, potete accedere ad un programma di simulazione molto carino e con cui potete valutare i reali rischi che un impatto di questo tipo avrebbe per la Terra e per il genere umano.

Detto questo, per poter capire la reale probabilita’ di impatto, non solo di questo asteroide, ma di qualsiasi corpo che volete controllare, basta al solito accedere al sito della NASA sui corpi potenzialmente pericolosi:

NASA, NEO program

In queste pagine trovate il database completo con le informazioni su tutti i NEO potenzialmente pericolosi, insieme anche ai parametri orbitali e ai dati fisici.

Cosa troviamo su 1999 RQ36?

Aprendo la pagina dedicata a questo corpo:

NASA, 1999 RQ36

Vedete che i passaggi ravvicinati alla Terra saranno tra il 2169 e il 2199. Sempre facendo riferimento a questa tabella:

Passaggi ravvicinati per RQ36

Passaggi ravvicinati per RQ36

vedete pero’ che la probabilita’ di impatto non e’ mai superiore allo 0,026%.

Molto probabilmente, un altro fattore che ha contribuito ad alimentare il sospetto su questo corpo e’ che, facendo sempre riferimento alla tabella, non compare la valutazione nella Scala Torino per questo corpo.

Come visto in questo articolo:

L’asteroide 2012 DA14

La scala Torino e’ una classificazione del pericolo di impatto dei NEO sulla Terra. Questa scala tiene conto sia della massa dell’asteroide che della sua energia cinetica. Come capite subito, in un eventuale impatto, anche l’energia cinetica posseduta dal proiettile rappresenta un parametro di notevole importanza.

Visto che per 1999RQ36 non compare la valutazione, proviamo a valutare da noi il pericolo di impatto facendo un confronto con un altro asteroide potenzialmente pericoloso: 2007 VK184. In questo caso abbiamo un proiettile un po’ piu’ piccolo, solo 130 metri di diametro, ma che viaggia ad una velocita’ superiore a 1999 RQ36: 19 m/s contro 13 m/s.

NASA, 2007 VK184

Perche’ abbiamo scelto questo corpo? Come vedete sempre consultantdo il sito NASA, VK184 e’ considerato l’osservato speciale per la probabilita’ di impatto sulla Terra. Con questo si intende che e’ il NEO con la probabilita’ di impatto maggiore per il futuro.

Facendo riferimento alla tabella che trovate sulla pagina riportata:

Passaggi ravvicinati per VK184

Passaggi ravvicinati per VK184

Vedete che in questo caso, la probabilita’ maggiore di impatto e’ dell’ordine di 0,055% con il valore 1 nella Scala Torino. Analogamente a quanto avvenne la prima volta con Apophis, anche questo corpo ha dunque un valore diverso da zero della Scala Torino. Proprio per questo motivo, trovate il corpo evidenziato sulla pagina NASA e VK184 viene costantemente monitorato.

Cosa significa 1 nella Scala Torino?

Definizione dei valori della Scala Torino

Definizione dei valori della Scala Torino

Se avete pensato che il valore 1 ci dia la certezza di impatto, siete fuori strada. Ovviamente 1 e’ maggiore di 0, cioe’ della probabilita’ completamente nulla di impatto con la Terra. Nnostante questo, come vedete dalla figura a lato, la scala Torino a valori che vanno da 0 a 10 e che corripondono ad un crescendo di probabilita’ di impatto.

Prendendo la definizione ufficiale della scala Torino, il valore 1 corrisponde a quanto segue:

Osservazioni occasionali possono scoprire il passaggio vicino alla Terra di oggetti che li pongono in un livello di pericolo di collisione. Calcoli e analisi mostrano che le probabilità di collisione sono estremamente basse da non meritare grande attenzione e preoccupazione nella gente comune. Nuove osservazioni molto probabilmente porteranno una riassegnazione al livello 0.

Dunque? Premesso, come visto, che stiamo parlando di passaggio ravvicinati tra piu’ di un secolo, il valore 1 non corrisponde assolutamente a nessun pericolo. Complice anche la lontananza temporale dell’evento considerato, l’orbita dell’asteroide e’ conosciuta con un’incertezza tale da non consentire una valutazione precisa della probabilita’ di impatto. Cosi’ come avvenuto per Apophis, a distanza di anni e grazie alle osservazioni continue ad opera dei tanti telescopi funzionanti a Terra, la probabilita’ di impatto, e duqnue anche il valore della Scala Torino, e’ divenuta completamente nulla.

Detto questo, siete ancora convinti che sia il caso di preoccuparsi di 1999 RQ36? Secondo me, assolutamente no. Ovviamente non vogliamo tranquillizzare per partito preso. Le nostre considerazioni nascono da un’analisi dei parametri attualmente disponibili, ma soprattutto dal tempo che ancora manca per questo passaggio ravvicinato. Molto probabilmente, tra piu’ di un secolo avremo sicuramente, anche se ne fosse richiesto l’utilizzo, un qualche sistema funzionante per poter deviare o distruggere i potenziali pericoli spaziali per la Terra. Di questi sistemi, attualmente in stato di studio, abbiamo parlato in questo post:

Asteroidi: sappiamo difenderci?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il Muos di Niscemi

2 Apr

Diversi lettori del blog mi hanno scritto per chiedere il mio punto di vista sul sistema MUOS la cui costruzione era prevista a Niscemi in Sicilia.

Per chi fosse completamente a digiuno, il MUOS e’ un sistema di comunicazione satellitare che prevede 4 satelliti in orbita e 4 stazioni di terra. Questo sistema e’ direttamente gestito e voluto dal Dipartimento della Difesa degli Stati Uniti e servira’ per gestire, comandare e controllare in ogni parte del globo, le unita’ marine, aeree e di terra. Il sistema prevede diversi servizi tra cui la comunicazione vocale, lo scambio dati e la connessione di rete, tutto ad accesso riservato per scopi militari e di coordinamento. Le stazioni di terra verranno utilizzate per comunicare direttamente con i satelliti in orbita e la costruzione era prevista nelle Hawaii, in Australia, in Virginia e, come anticipato, a Niscemi a circa 60 Km dalla base militare di Sigonella.

Le stazioni di terra prevedono la costruzione di antenne operanti ad altissima frequenza e a banda stretta. Ecco una foto dell’installazione nelle isole Hawaii:

MUOS: stazione di terra nelle Hawaii

MUOS: stazione di terra nelle Hawaii

Perche’ stiamo parlando di questo sistema? Per quanto riguarda la costruzione della stazione di Niscemi, per diverso tempo ci sono stati dibattiti e scontri circa l’eventuale pericolo che queste antenne avrebbero costituito per la popolazione del posto. Nel corso degli anni, si sono formati comitati cittadini creati per impedire la costruzione di questa stazione e il dibattito ha riempito le pagine di molti quotidiani anche a livello nazionale. Ovviamente non e’ mancata la discussione politica. Diverse volte l’aministrazione regionale ha tentato di bloccare i lavori causando una discussione tra Parlamento Italiano, regione Sicilia e governo degli Stati Uniti. Come forse avrete letto, solo pochi giorni fa, l’amministrazione Crocetta ha bloccato definitivamente la costruzione della stazione ma, almeno a mio avviso, la discussione durera’ ancora per molto tempo.

Detto questo, non voglio assolutamente entrare in discussioni politiche sul MUOS e sulla regione Sicilia. Quello che molti utenti mi hanno richiesto e’ solo un parere scientifico sull’inquinamento elettromagnetico della stazione MUOS. Ovviamente, non entrero’ nel merito della discussione politica, degli accordi bilaterali tra Italia e USA ne tantomeno sull’eventuale valutazione di impatto ambientale che una stazione del genere sicuramente comporta sul panorama della zona.

A questo punto, la domanda su cui vorrei aprire una discussione e’: il MUOS e’ dannoso per la salute della popolazione?

A livello scientifico, ci sono due voci principali che si sono mosse parlando del MUOS. Da un lato Antonino Zichichi sostiene che l’installazione non e’ assolutamente dannosa per la popolazione vista la bassa potenza in gioco, dall’altro il Prof. Massimo Zucchetti del politecnico di Torino afferma che questa installazione potrebbe comportare seri rischi per la salute dei cittadini.

Come vedete, l’inizio non e’ dei migliori. Siamo di fronte a due punti di vista completamente opposti.

Ora, mentre Zichichi si e’ limitato a rilasciare interviste a diversi quotidiani, Zucchetti ha preparato una relazione tecnica sull’installazione che potete leggere a questo indirizzo:

Zucchetti, relazione MUOS

Come vedete anche dalla pagina, la relazione di Zucchetti viene pubblicizzata proprio da uno dei comitati cittadini nati per impedire l’installazione del MUOS a Niscemi, il comitato NoMuos.

Detto questo, proviamo a commentare la relazione di Zucchetti per cercare di capire se e come il MUOS potrebbe rappresentare un pericolo per la popolazione.

Prima di tutto, ci tengo a sottolineare che Zucchetti e’ esperto di radioprotezione ma e’ importante ragionare su quanto scritto per capire le motivazioni che spingono questa relazione nella direzione di considerare il MUOS come pericoloso.

Per prima cosa, dove doveva sorgere il nuovo impianto e’ gia’ presente un sistema radar detto NRTF le cui antenne sono in funzione dal 1991. Le analisi quantitative presentate nella relazione di Zucchetti riguardano proprio questo esistente impianto e vengono fatte considerazioni circa l’eventuale aggiunta del MUOS alle emissioni del NRTF.

Nella relazione vengono mostrate misure di campo elettrico fatte in diverse zone dell’impianto e che possiamo riassumere in questa tabella:

5,9 ± 0,6 V/m in località Ulmo (centralina 3)
4,0 ± 0,4 V/m in località Ulmo (centralina 8)
2 ± 0,2 V/m in località Martelluzzo (centralina 1)
1 ± 0,1 V/m in località del fico (centralina 7)

Come potete leggere nella relazione, queste misure, fatte dall’ARPA della Sicilia, potrebbero essere affette da un’incertezza al livello del 10%. Ora, per chi non lo sapesse, i limiti per la legislazione italiana impongono un campo inferiore a 6 V/m. Come potete vedere, anche considerando un’incertezza del 10%, solo il primo valore, se l’incertezza tendesse ad amentare la misura, sarebbe leggermente superiore al limite.

Cosa comporterebbe superare i 6 V/m? In realta’ assolutamente nulla. Cerchiamo di capire bene questo punto. Ad oggi, vi sono molte voci anche molto discordi sui reali effetti dell’inquinamento elettromagnetico. Mentre ci sono particolari frequenze ed esposizioni per cui e’ stato accertato un reale rischio per la salute, in moltissimi altri casi il discorso e’ ancora aperto e non si e’ giunti ad una conclusione. Pensate solo un attimo al discorso cellulari: fanno male? Non fanno male? Causano problemi al cervello? Tutte domande su cui spesso viene posta l’attenzione e su cui non esistono ancora dati certi. Con questo non voglio assolutamente tranquillizzare nessuno, ma solo far capire l’enorme confusione ancora presente su queste tematiche.

Tornando al discorso limiti di legge, superare di poco i 6 V/m non comporta assolutamente nulla. Perche’? Come detto siamo di fronte a fenomeni non ancora capiti dal punto di vista medico. Proprio per questo motivo esiste il “principio di precauzione”, cioe’ in caso di fenomeni scientificamente controversi si deve puntare ad una precauzione maggiore. Detto in altri termini, se non sappiamo se una determinata cosa fa male o meno, meglio mettere limiti molto stringenti.

Nel caso dei campi elettrici, il limite dei 6 V/m e’ nettamente inferiore a quello di altre nazioni europee, anche se, ad esempio, nel Canton Ticino il limite e’ di 3 V/m, e circa 500 volte inferiore al valore in cui ci si dovrebbero aspettare effetti diretti. Detto questo, se invece di 6 V/m, ne abbiamo 6,5 V/m, non succede assolutamente nulla. Non siamo ovviamente in presenza di un effetto a soglia, sotto il limite non succede nulla, appena sopra ci sono effetti disastrosi. Fermo restando che stiamo pensando l’incertezza del 10% sulla misura tutta nel verso di aumentarne il valore.

Detto questo, nella relazione da cui siamo partiti, si afferma pero’ che queste misure potrebbero essere sottistimate perche’ la strumentazione utilizzata non era sensibile alle emissioni a bassa frequenza intorno ai 45 KHz. In realta’, su questo punto non possono essere assolutamente d’accordo. La legge italiana stabilisce i limiti di cui abbiamo parlato per frequenze sopra i 100 KHz. Sotto questo valore, le onde elettromagnetiche sono assorbite pochissimo dal corpo umano per cui la loro emissione non viene neanche regolamentata. Questo solo per dire come le misure riportate nella relazione e fatte dall’ARPA della Sicilia sono del tutto attendibili e assolutamente non sottostimate.

Fin qui dunque, i valori misurati per l’installazione gia’ in funzione non mostrano nessun superamento dei limiti di legge italiani e potrebbero dunque essere considerati sicuri.

Andiamo ora invece, sempre seguendo la relazione da cui siamo partiti, al MUOS vero e proprio.

Per come dovrebbero essere fatte le antenne, e se la fisica non e’ un’opinione, il campo prodotto da un’antenna parabolica ha una forma cilindrica con una divergenza molto bassa. Detto in altri termini, il campo e’ all’interno dell’area della parabola e tende molto poco ad allargarsi appunto per non disperdere potenza. Detto questo, al di fuori del cilindro prodotto delle antenne, il campo e’ praticamente nullo e non comporta nessun problema nelle vicinanze.

Proviamo a fare due calcoli. Alla potenza di 1600 W, cioe’ la massima prevista per le antenne, il campo all’interno del cilindro sarebbe di circa 50 W/m^2. Questo valore e’ abbondantemente al di sopra dei limiti di legge di 1 W/m^2, ma per l’esposizione delle persone. Come potete facilmente immaginare, le antenne devono essere puntate verso il cielo per poter funzionare e per comunicare con i satelliti. Da quanto detto per la dispersione angolare fuori-cilindro, lontano dalle antenne il campo e’ praticamente nullo, diminuendo molto rapidamente.

Da questi numeri, e’ ovvio che se le antenne venissero puntate verso l’abitato, l’inquinamento elettromagnetico sarebbe elevatissimo, ma antenne di questo tipo hanno dei ferma-corsa meccanici che impediscono l’avvicinarsi dell’antenna troppo vicino all’orizzonte, oltre ovviamente a limitazioni software pensate appositamente per impedire queste esposizioni.

Detto in questo senso, le antenne del MUOS non dovrebbero essere un pericolo per la popolazione.

Sempre secondo la relazione e secondo le voci del web, le antenne del MUOS entrerebbero in funzione insieme a quelle gia’ discusse del NRTF. Cosa comporta questo? Ovviamente i due contributi si sommano, ma non linearmente come qualcuno potrebbe erroneamente pensare. Premesso che il MUOS sarebbe in funzione simultaneamente al NRTF solo inizialmente per poi sostituirlo del tutto, i due sistemi, alla luce dei calcoli fatti, non dovrebbero superare il limite di legge neanche quando sono simultaneamente accesi.

Se proprio vogliamo essere pignoli, resta quella misura dell’ARPA quasi al limite di legge. Sicuramente quella zona dovrebbe essere monitorata per capire meglio se il limite viene sistematicamente superato oppure no, ma solo a scopo di precauzione. Inoltre, bisognerebbe valutare la presenza di altre installazioni minori e il loro contributo totale, anche se non possono che rappresentare una piccola aggiunta al totale, oltre ovviamente ad eventuali fluttuazioni fuori asse delle emissioni. Questo genere di problematiche necessiterebbero di un monitoraggio continuo e completo dell’intera zona al fine di costruire una mappa del campo e valutare eventuali zone di picchi anomali.

Detto questo, se ci limitiamo al puro aspetto scientifico, il MUOS non dovrebbe rappresentare un pericolo per la popolazione della zona. Ovviamente, siamo in un campo molto difficile e ancora poco noto sia della scienza ma soprattutto della medicina. Non voglio assolutamente schierarmi a favore o contro il MUOS anche perche’ restano da valutare, indipendentemente da questa installazione, eventuali danni alla salute derivanti da un’esposizione prolungata nel tempo anche a limiti inferiori a quelli di legge. Come anticipato, questa tematica e’ ancora molto discussa e non si e’ ancora giunti ad un quadro completo.

Nella discussione, ho appositamente non valutato problematiche di natura diversa da quella dei campi elettromagnetici. Perche’ dobbiamo costruire una stazione radar degli USA in Italia? E’ giusto? Non e’ giusto? Questa installazione rovina il paesaggio della zona? I valori dichiarati per il progetto saranno quelli veri di esercizio?

Concludendo, alla luce dei dati analizzati, per l’installazione MUOS i limiti di legge sarebbero ampiamente soddisfatti. L’unico problema potrebbe derivare, anche se impossibile tenendo conto dei limiti meccanici imposti, da un puntamento diretto verso le abitazioni. L’ingresso del MUOS sostituirebbe il pre-esistente NTRF sicuramente piu’ vecchio ed operante a potenze e frequenze diverse. Purtroppo, il discorso non puo’ limitarsi a queste considerazioni, ma deve necessariamente racchiudere tematiche ambientali, politiche e mediche a cui non e’ possibile dare una risposta univoca in questo momento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.