Tag Archives: meccanismo

Ma questa crema solare …. come dobbiamo sceglierla?

30 Giu

Sempre alla nostra sezione:

– Hai domande o dubbi?

va il merito, ma ovviamente tutto il merito va a voi che rendete questo blog vivo ed interessante, di aver richiamato da una nostra cara lettrice una nuova interessantissima domanda. Questa volta però, vi preannuncio che l’argomento scelto è molto complesso nella sua apparente semplicità, oltre ad essere assolutamente in linea con il periodo dell’anno. Come potete leggere, la domanda riguarda le creme solari e tutte le leggende che girano, non solo in rete, e che da sempre abbiamo ascoltato.

Come anticipato, non è semplice cercare di trovare la giusta strada nella giungla di informazioni disponibili. Se provate a confrontare dieci fonti, troverete dieci versioni diverse: le creme solari devono essere usate. No, non devo essere usate. Il sole è malato. Il sole provoca il cancro. No, sono le creme che creano il cancro alla pelle. Insomma, di tutto di più, e non pensate di rifuggire nella frase: “mi metto sotto l’ombrellone”, perché, come vedremo, anche questo lascia filtrare alcune componenti dei raggi solari e, sempre scimmiottando quello che trovate in rete, vi può venire il cancro. Allora sapete che c’è? Me ne sto chiuso dentro casa fino a settembre! Va bene così? No, sicuramente non prendi il sole (e quindi non ti viene il cancro), ma non ti si fissa la vitamina D e quindi potresti soffrire di rachitismo.

Insomma, come la mettete la mettete, sbagliate sempre. Cosa fare allora? Sicuramente, in linea con il nostro stile, quello che possiamo fare è “andare con ordine” e provare a verificare quali e quante di queste affermazioni corrispondono al vero. Solo in questo modo potremo capire quale crema solare scegliere, come applicarla e quali sono i rischi che possiamo correre con l’esposizione al Sole.

Prima di tutto, non dobbiamo considerare i raggi solari come un’unica cosa, ma è necessario distinguere la radiazione che ci arriva. Questa suddivisione è essenziale perché l’interazione della nostra pelle con i fotoni emessi dal sole non è sempre uguale, ma dipende dalla lunghezza d’onda. Bene, in tal senso, possiamo distinguere la parte dei raggi solari che ci interessa in tre grandi famiglie, in particolare, per i nostri scopi, ci concentreremo sulla parte ultravioletta dello spettro, che è quella di interesse in questo campo.

La parte cosiddetta ultravioletta è quella con lunghezza d’onda immediatamente inferiore alla parte visibile. Normalmente, questa parte dello spettro viene divisa in UVA, con lunghezza d’onda tra 400 e 315 nanometri, UVB, tra 315 e 280 nanometri e UVC, tra 280 e 100 nanometri. Quando parliamo di tintarella o di danni provocati dalla radiazione solare, dobbiamo riferirci alla parte UV ed in particolare a queste 3 famiglie.

Bene, la componente più pericolosa della radiazione solare è quella degli UVC cioè con lunghezza d’onda minore. Perché? Sono radiazioni utilizzate come germicidi, ad esempio nella potabilizzazione dell’acqua, a causa del loro potere nel modificare il DNA e l’RNA delle cellule. Per nostra fortuna, questa componente della radiazione è completamente bloccata dallo strato di ozono che circonda la Terra. Di questo, e soprattutto dello stato di salute dello strato di ozono, abbiamo parlato in un post specifico:

– Che fine ha fatto il buco dell’ozono?

Per la parte più pericolosa dello spettro, quella degli UVC, possiamo dunque tirare un respiro di sollievo. Vediamo le altre due componenti.

Gli UVA, a causa della lunghezza d’onda maggiore, penetrano più a fondo nella pelle, promuovendo il rilascio di melanina e dunque l’abbronzatura. Che significa? Molto semplice, quando prendiamo il sole, la nostra pelle reagisce cercando di proteggersi autonomamente appunto rilasciando melanina. Questa sostanza serve a far scurire gli strati più superficiali della pelle appunto come protezione dai raggi. Riguardo ala dannosità? Su questo punto, purtroppo, non si ha ancora chiarezza. Per prima cosa, dobbiamo dire che l’esposizione crea meno danni a tempi brevi rispetto, come vedremo, a quella agli UVB. Questa componente però è una delle maggiori sospettate per i danni a lungo termine, connessi anche con l’insorgere di tumori alla pelle, e provoca un invecchiamento veloce della pelle. Gli UVA sono molto conosciuti da coloro che frequentano i centri estetici per sottoporsi alle “lampade”. Questi sistemi infatti hanno sistemi di illuminazione concentrati negli UVA appunto per promuovere un’abbronzatura rapida.

Per quanto riguarda gli UVB invece, si tratta della radiazione più pericolosa nell’immediato. Questa componente dello spettro solare infatti, è responsabile della classica “scottatura”, in alcuni casi vera e propria ustione, provocata da un’esposizione prolungata al Sole. Anche se potenzialmente dannosa, la radiazione UVB è comunque importante per il nostro organismo perché promuove la sintesi della vitamina D. Come è noto, in assenza di questo fondamentale processo possono insorgere casi di rachitismo, soprattutto in soggetti non ancora adulti.

Bene, abbiamo capito come è divisa la radiazione ultravioletta del sole e abbiamo finalmente capito a cosa si riferiscono tutti questi nomi che siamo soliti ascoltare o leggere riguardo la tintarella.

Passiamo dunque a parlare di creme solari. Cosa dobbiamo cercare? Perché? Quali sono i prodotti più indicati?

Ripensando a quanto scritto, viene evidente pensare che una buona crema debba proteggerci dagli UVA e UVB poiché per gli UVC ci pensa lo strato di ozono. Primo pensiero sbagliato! Quando acquistiamo una crema solare, che, come vedremo, offre una certa protezione, questo valore si riferisce alla sola componente B della radiazione. Perché? Semplice, come visto, gli UVB sono responsabili delle scottature immediate. Se ci proteggiamo da questa componente salviamo la pelle garantendo la tintarella. Questo è assolutamente falso, soprattutto pensando ai danni a lungo termine dati da un’esposizione troppo prolungata agli UVA.

Solo negli ultimi anni, sono comparse sul mercato creme con protezioni ad alto spettro. Fate bene attenzione a questa caratteristica prima di acquistare un qualsiasi prodotto. Una buona crema deve avere un fattore di protezione per gli UVA non inferiore ad 1/3 di quello garantito per gli UVB.

Ora però, anche seguendo quanto affermato, parliamo appunto di queste protezioni. Fino a qualche anno fa, ricordo benissimo gli scaffali dei negozi strapieni di creme solari con fattori di protezione, SPF cioè fattore di protezione solare, che andavano da 0 a qualcosa come 100. Già allora mi chiedevo, ma che significa zero? A che cosa serve una crema con protezione 0 e, allo stesso modo, protezione 100 o, come qualcuno scriveva “protezione totale”, significa che è come mettersi all’ombra?

Capite già l’assurdità di queste definizioni create solo ed esclusivamente a scopo commerciale. Fortunatamente, da qualche anno, è stata creata una normativa apposita per questo tipo di cosmetici aiutando il consumatore a comprendere meglio il prodotto in questione. Oggi, per legge, esistono solo 4 intervalli di protezione che sono: basso, medio, alto e molto alto. Questi intervalli, in termini numerici, possono essere compresi utilizzando la seguente tabella:

 

Protezione SPF

Bassa 6 – 10

Media 15 – 20 – 25

Alta 30 – 50

Molto alta 50+

Notiamo subito che sono scomparse quelle orribili, e insensate, definizioni “protezione zero” e “protezione totale”. Ma, in soldoni, cosa significa un certo valore di protezione? Se prendo una crema con SPF 30 è il doppio più efficace di una con SPF 15? In che termini?

Detto molto semplicemente, il valore numerico del fattore di protezione indica il tempo necessario affinché si creino scottature rispetto ad una pelle non protetta. Detto in questo modo, una SPF 15 significa che la vostra pelle si brucerà in un tempo 15 volte maggiore rispetto a quello che impiegherebbe senza quella crema. Dunque, anche con una crema protettiva posso scottarmi? Assolutamente si. In termini di schermo alla radiazione, il potere schermante non è assolutamente proporzionale allo SPF ma, come visto, solo ai tempi necessari per l’insorgere di scottature.

A questo punto, abbiamo capito cosa significa quel numerello che corrisponde al fattore di protezione, ma come fanno le creme a schermare effettivamente dai raggi solari?

Per rispondere a questa domanda, dobbiamo in realtà dividere la protezione in due tipi: fisico e chimico. La protezione fisica avviene in modo pressoché meccanico aumentando il potere riflettente della pelle. Per questo scopo, nelle creme solari sono presenti composti come il biossido di titanio e l’ossido di zinco, sostanze opache che non fanno altro che far riflettere verso l’esterno la radiazione solare che incide sul nostro corpo.

Primo appunto, secondo alcuni l’ossido di zinco potrebbe essere cancerogeno! Ma come, mi metto la crema per proteggermi dai raggi solari ed evitare tumori alla pelle e la crema crea tumori alla pelle? In realtà, come al solito, su questo punto si è fatta molta confusione, tanto terrorismo e si è corsi, per convenienza, a conclusioni affrettate. Alcune ricerche hanno mostrato come tessuti cosparsi di molecole di ossido di zinco e sottoposti ad irraggiamento UV possano sviluppare radicali liberi che a loro volta reagiscono con le cellule modificandone il DNA. Questo processo può portare alla formazione di melanomi, per la pelle, e di altri tumori, per le altre cellule. Ora, si tratta di studi preliminari basati su valori di irraggiamento più alti rispetto a quelli che normalmente possono derivare da un’esposizione, anche prolungata, anche nelle ore centrali della giornata, al Sole. Detto molto semplicemente, questi studi necessitano di ulteriori ricerche per poter definire margini di errore e valori corretti. Gli stessi autori di queste analisi preliminari si sono raccomandati di non male interpretare il risultato dicendo che le creme solari provocano il cancro alla pelle. In altre parole, si corrono più rischi non proteggendosi dal sole piuttosto che proteggendosi con una crema contenente ossido di zinco. Tra le altre cose, questa molecola è molto nota tra le mamme che utilizzano prodotti all’ossido di zinco per alleviare le ustioni da pannolino nei loro bambini.

Detto questo, abbiamo poi la protezione chimica. Come potete facilmente immaginare, in questo caso si tratta di una serie di molecole (oxibenzone, fenilbenzilimidazolo, acido sulfonico, butil metoxidibenzoilmetano, etilexil metoxicinnamato, ecc.) che hanno il compito di assorbire la radiazione solare e di cedere parte di questa energia sotto forma di calore. Perché possiamo trovare così tante molecole in una crema solare? Semplice, ognuna di queste è specifica per una piccola parte dello spettro di radiazione, sia UVA che UVB. Anche su queste singole molecole, ogni tanto qualcuno inventa storie nuove atte solo a fare terrorismo, molto spesso verso case farmaceutiche. Singolarmente, come nel caso dell’ossido di titanio, ci possono essere studi più o meno avanzati, più o meno veritieri, sulla pericolosità delle molecole. Anche qui però, molto spesso si tratta di effetti amplificati, ben oltre la normale assunzione attraverso la cute e, ripeto per l’ennesima volta, si rischia molto di più esponendosi al sole piuttosto che utilizzando creme solari.

Ennesima cavolata in voga fino a qualche anno fa e ora vietata: creme solari “water proof”, cioè creme resistenti completamente all’acqua. Ve le mettete una volta, fate quanti bagni volete e siete a posto. Ma secondo voi, è possibile qualcosa del genere? Pensate di spalmarvi una crema o di farvi un tatuaggio indelebile? Oggi, per legge, la dicitura water proof è illegale e ha lasciato spazio, al massimo, a “water resistant”, cioè resistente all’acqua. Una qualsiasi crema solare, a causa del bagno, del sudore, del contatto con il telo, tende a rimuoversi e, proprio per questo motivo, si consiglia di riapplicare la crema ogni 2-3 ore circa per garantire la massima protezione possibile.

Riassumendo, abbiamo capito che conviene, sempre ed in tutti i casi, utilizzare una crema solare protettiva, ma quale scegliere?

Molto brevemente, in questo caso, si deve valutare quello che è definito il proprio fenotipo. Come potete immaginare, si tratta di una serie di caratteristiche fisiche che determinano, in linea di principio, l’effetto dell’esposizione la Sole. Per poter determinare il proprio fenotipo, possiamo fare riferimento a questa tabella:

fenotipo

Ovviamente, per i valori più bassi (I e II) è consigliabile utilizzare una crema ad alto SPF, valore che può diminuire qualora fossimo meno soggetti a scottature ed ustioni.

Credo che a questo punto abbiamo un quadro molto più chiaro riguardo alla creme solari ed alla loro utilità. Ripeto, per l’ennesima volta, in ogni caso, proteggersi è sempre meglio che esporsi al sole senza nessuna protezione. Ultimo appunto, che vuole sfatare un mito molto diffuso, sotto l’ombrellone siamo comunque esposti alla radiazione solare. In primis, il tessuto di molti ombrelloni lascia passare buona parte dello spettro solare ma, soprattutto, la riflessione dei raggi solari, ad esempio ad opera della sabbia, raggiunge comunque un soggetto tranquillo e (falsamente) riparato sotto l’ombrellone. In genere, la riflessione dei raggi solari può incrementare, e anche molto, la quantità di radiazione a cui siamo esposti. Stando nell’acqua, ad esempio, abbiamo sia un’esposizione diretta ai raggi solari sia una indiretta dovuta ai raggi riflessi dalla superficie. Come potete immaginare questo amplifica molto l’esposizione.

Concludendo, utilizzate le creme solari ma, soprattutto, leggete bene le etichette prima di acquistare o, peggio ancora utilizzare, un qualsiasi prodotto. Ovviamente, qualsiasi prodotto diventa non efficace se unito alla nostra incoscienza. Se pensate di potervi spalmare una crema e stare come lucertole sotto il Sole dalle 10 del mattino al tramonto … forse questa spiegazione è stata inutile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

L’universo che si dissolve “improvvisamente”

21 Mar

Nella sezione:

Hai domande o dubbi?

una nostra cara lettrice ci ha chiesto lumi su una notizia apparsa in questi giorni sui giornali che l’ha lasciata, giustamente dico io, un po’ perplessa. La notizia in questione riguarda l’annuncio fatto solo pochi giorni fa della nuova misura della massa del quark top.

Perche’ questa notizia avrebbe suscitato tanto clamore?

Senza dirvi nulla, vi riporto un estratto preso non da un giornale qualsiasi, che comunque a loro volta hanno copiato da qui, ma dalla principale agenzia di stampa italiana:

Il più pesante dei mattoni della materia, il quark top, ha una misura più precisa e la sua massa, con quella del bosone di Higgs, potrebbe essere la chiave per capire se viviamo in un universo instabile, al punto di dissolversi improvvisamente.

Universo che si dissolve “improvvisamente”?

Vi giuro che vorrei mettermi a piangere. Solo pochi giorni fa abbiamo parlato di tutte quelle cavolate sparate dopo l’annuncio della misura di Bicep-2:

Ascoltate finalmente le onde gravitazionali?

Due notizie cosi’ importanti dal punto di vista scientifico accompagnate da sensazionalismo catastrofista nella stessa settimana sono davvero un duro colpo al cuore.

Al solito, e come nostra abitudine, proviamo a spiegare meglio l’importanza della misura ma, soprattutto, cerchiamo di capire cosa dice la scienza contrapposto a quello che hanno capito i giornali.

In diversi articoli abbiamo parlato di modello standard discutendo la struttura della materia che ci circonda e, soprattutto, presentando quelle che per noi, ad oggi, sono le particelle fondamentali, cioe’ i mattoni piu’ piccoli che conosciamo:

Due parole sull’antimateria

Piccolo approfondimento sulla materia strana

Bosone di Higgs …. ma che sarebbe?

Se ci concentriamo sui quark, vediamo che ci sono 6 componenti che, come noto, sono: up, down, strange, charm, bottom e top. Come gia’ discusso, i primi due, up e down, sono quelli che formano a loro volta protoni e neutroni, cioe’ le particelle che poi formano i nuclei atomici, dunque la materia che ci circonda.

Bene, il quark top e’ il piu’ pesante di questi oltre ad essere l’ultimo ad essere stato scoperto. Il primo annuncio di decadimenti con formazione di quark top e’ stato fatto nel 1995 grazie alla combinazione dei risultati di due importanti esperimenti del Fermi National Accelerator Laboratory di Batavia, nei pressi di Chicago. A questi esperimenti, oggi in dismissione, ma la cui analisi dei dati raccolti e’ ancora in corso, partecipavano e partecipano tuttora moltissimi fisici italiani dell’Istituto Nazionale di Fisica Nucleare.

La cosa piu’ sorprendente del quark top e’ la sua enorme massa, circa 170 GeV, che lo rende la particella elementare piu’ pesante mai trovata. Per darvi un’idea, il top e’ circa 180 volte piu’ pesante di un protone con una massa paragonabile a quella di un atomo di oro nel suo complesso. Il perche’ di una massa cosi’ elevata e’ una delle chiavi per capire i meccanismi che avvengono a livello microscopico e che, come e’ normale pensare, determinano il comportamento stesso del nostro universo.

Bene, cosa e’ successo in questi giorni?

Come avete letto, nel corso della conferenza:

Rencontres de Moriond

che si svolge annualmente a La Thuille in Val d’Aosta, e’ stata presentata una nuova misura della massa del quark top. Prima cosa importante da dire e’ che la misura in questione viene da una stretta collaborazione tra i fisici di LHC e quelli che analizzano i dati del Tevatron, cioe’ il collissore dove nel 1995 fu scoperto proprio il top. Queste due macchine sono le uniche al mondo, grazie alla grande energia con cui vengono fatti scontrare i fasci, in grado di produrre particelle pesanti come il quark top.

Dalla misurazione congiunta di LHC e Tevatron e’ stato possibile migliorare notevolmente l’incertezza sulla massa del top, arrivando ad un valore molto piu’ preciso rispetto a quello conosciuto fino a qualche anno fa.

Cosa comporta avere un valore piu’ preciso?

Come potete immaginare, conoscere meglio il valore di questo parametro ci consente di capire meglio i meccanismi che avvengono a livello microscopico tra le particelle. Come discusso parlando del bosone di Higgs, il ruolo di questa particella, e soprattutto del campo scalare ad essa associato, e’ proprio quello di giustificare il conferimento della massa. Se il  top ha una massa cosi’ elevata rispetto agli altri quark, il suo meccanismo di interazione con il campo di Higgs deve essere molto piu’ intenso. Inoltre, il quark top viene prodotto da interazioni forti, ma decade con canali deboli soprattutto producendo bosoni W. Non sto assolutamente cercando di confondervi. Come visto negli articoli precedenti, il W e’ uno dei bosoni messaggeri che trasportano l’interazione debole e che e’ stato scoperto da Carlo Rubbia al CERN. Detto questo, capite come conoscere con precisione la massa del top, significhi capire meglio i meccanismi che avvengono tra top, W e campo di Higgs. In ultima analisi, la conoscenza di questi modelli e’ fondamentale per capire perche’, durante l’evoluzione dell’universo, si sono formate particelle cosi’ pesanti ma anche per capire se esistono meccanismi di decadimento non ancora considerati o anche effetti, come vengono definiti, di nuova fisica che possono mettere in discussione o integrare il modello standard delle particelle.

Concludendo, la spiegazione della frase “universo che si dissolve improvvisamente” non significa nulla. Una misura piu’ precisa della massa del top implica una migliore conoscenza dei modelli ora utilizzati e soprattutto apre le porte per capire meglio cosa e’ avvenuto durante durante i primi istanti di vita dell’universo. Al solito pero’, anche sulla scia del tanto citato annuncio di Bicep-2, si e’ ben pensato di sfruttare l’occasione e trasformare anche questa importante notizia in un teatrino catastrofista. Per chi interessato ad approfondire, vi riporto anche il link di ArXiv in cui leggere l’articolo della misura in questione:

ArXiv, quark top

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La sequenza sismica del Matese

22 Gen

Dopo il primo articolo comparso qualche settimana fa:

Cos’e’ successo in Sardegna?

la nostra cara amica Patrizia ha deciso di concederci il bis, con un nuovo post sulla sismologia della nostra penisola. Questa volta ci spostiamo nel matese per capire cosa sta succedendo nella zona, se veramente e’ in corso uno sciame sismico come qualcuno sostiene e, soprattutto, per far capire alle popolazioni del posto come comportarsi. Chi meglio di una geologa puo’ raccontarci queste notizie?

Da Patrizia: La sequenza del Matese

 

Il 29 dicembre 2013, alle 18.08, si è verificato un terremoto di magnitudo 4.9 nella zona del Matese, in Campania, tra le province di Caserta e Benevento (figura 1), con  una profondità ipocentrale di 10,5 km. Pochi minuti prima la RSN (Rete Sismica Nazionale) ha registrato nella stessa area un evento di magnitudo 2.7.  Numerose sono state le scosse di assestamento successive, con magnitudo inferiore.

Oggi, 20 gennaio 2014, alle 08.12 , nella zona in esame si è avuto un nuovo evento importante di magnitudo 4.2, ad una profondità di 11,1 km.

A sinistra: Fig.1, Epicentro del terremoto del 29/12/13. A destra: Fig.2, Sequenza sismica del Matese.

A sinistra: Fig.1, Epicentro del terremoto del 29/12/13. A destra: Fig.2, Sequenza sismica del Matese.

 

Nel Matese è dunque palesemente in atto una sequenza sismica (figura 2).

Ormai siamo abituati a sentir parlare di sequenza sismica e spesso ci chiediamo se c’è un collegamento tra le diverse sequenze in atto sul territorio nazionale. Per sapere se c’è davvero un nesso geologico tra i terremoti registrati in Italia dalla RSN dobbiamo capire la geodinamica dell’area italiana. Quando parliamo di geodinamica prendiamo in considerazione  il movimento delle placche tettoniche. Il territorio italiano si trova nella zona di incontro/scontro tra la placca euroasiatica e la placca africana. In particolare, nell’Italia meridionale, l’interazione tra le due placche è accompagnata da un processo di subduzione testimoniato proprio dall’attività sismica intermedia e profonda. Detto in altri termini, la placca africana si infila sotto quella euroasiatica, dando luogo ai terremoti che si registrano lungo l’Appennino centro-meridionale.

fig3

Alla base delle sequenze sismiche degli ultimi tempi (Pollino, Gubbio, Matese) c’è quindi lo stesso meccanismo genetico. Nella figura 3 è indicato il meccanismo focale del terremoto del 29/12/13. Il meccanismo focale di un terremoto è dato dall’individuazione del piano di faglia e del movimento relativo delle rocce lungo tale piano ed è  rappresentato graficamente da un “pallone”. Nel caso specifico, il meccanismo focale ci indica che si è attivata una faglia distensiva con andamento NW-SE, detta faglia appenninica, come si vede dalla forma riportata nella figura.

Per capire come si muovono le rocce lungo il piano di faglia, consideriamo due fogli di carta in formato A4 e incolliamoli in corrispondenza del lato lungo con 3 o 4 punti di colla. Per scollarli esercitiamo una certa pressione dall’alto verso il basso in corrispondenza dei punti di colla. Progressivamente la colla cederà e i fogli si staccheranno. Analogamente, lungo un piano di faglia le rocce si frattureranno quando l’energia accumulata supererà il loro punto di rottura e libereranno questa energia come onde sismiche. La fatturazione può avvenire lungo uno o più punti (come il distacco dei due fogli di carta lungo i punti di colla).  In particolare la faglia sismogenetica del Matese che ha dato luogo al terremoto di fine anno risulta segmentata da una serie di faglie perpendicolari. Se il movimento delle rocce è avvenuto lungo un segmento di faglia, la “turbolenza” è stata trasmessa agli altri segmenti cioè la rottura in un punto ha alterato lo stato di sforzo delle porzioni di roccia adiacenti. In questo caso, siamo in presenza di un sottosuolo tettonicamente instabile e questo significa che nella stessa zona si possono verificare altri terremoti.

Fig.4: Terremoti storici nell’area del terremoto del 29/12/2013

Fig.4: Terremoti storici nell’area del terremoto del 29/12/2013

I dati della sismicità storica evidenziano tre eventi catastrofici nella zona in esame (figura 4):

1)    5/12/1456  (magnitudo intorno a 7)

2)    5/6/1688   (magnitudo intorno a 7)

3)    26/7/1805 (magnitudo 6.6)

Sempre nel distretto sismico del Matese, ma con altri epicentri, ricordiamo due eventi analogamente violenti nel XX secolo:

1)    21/8/1962  fra Sannio e Irpinia (magnitudo 6.1)

2)    23/11/1980 Irpinia (magnitudo 6.9)

Nonostante i dati storici a disposizione sul reale rischio sismico, la zona in esame fino al 1984 non era nemmeno classificata come sismica. Dal 1984 al 2002 è stata considerata a media sismicità. Solo dopo il 2002 è stata classificata come zona ad alta sismicità (figura 5):

Fig.5: Mappa di pericolosità sismica

Fig.5: Mappa di pericolosità sismica

Allo stato attuale delle conoscenze, non si è in grado di stabilire quanta energia sismica entri in gioco nel movimento delle placche dal momento che non è possibile investigare il sottosuolo oltre i 10 km di profondità e non è possibile riprodurre in laboratorio gli stati di sforzo cui sono sottoposte le rocce in queste condizioni. Questo significa che non si può prevedere il trend evolutivo della sequenza sismica che stiamo esaminando. Nessuno può indicare con esattezza dove, quando e se si verificherà un nuovo evento catastrofico. E’ probabile che l’energia accumulata si scaricherà attraverso una serie di eventi come quelli finora registrati. Siamo comunque nel campo delle ipotesi.

Senza alcuna intenzione polemica, mi dissocio da chi ha suggerito alla gente di dormire in auto per qualche notte. Piuttosto inviterei le persone interessate a verificare lo stato di agibilità delle proprie abitazioni e di ricorrere, se necessario, all’ospitalità di parenti/amici/conoscenti residenti in zone non a rischio. Logicamente, deve restare alto il livello di guardia per le autorità competenti affinché si mettano in sicurezza gli edifici non a norma.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il meccanismo di Anticitera

23 Dic

Dopo diversi articoli di scienza, torniamo un po’ a parlare di grandi misteri. Questa volta lo facciamo prendendo spunto da un reperto estremamente complesso, anche se poco conosciuto, e sul cui funzionamento si e’ speculato davvero molto nel corso degli anni. Come avete letto dal titolo del post, mi riferisco al cosiddetto “meccanismo di Anticitera” o “di Antikythera”.

Per prima cosa, iniziamo dal racconto storico di questo reperto. Nel ottobre del 1900, un gruppo di pescatori di spugne venne spinto molto fuori rotta a causa di una tempesta ritrovandosi sulle coste dell’isolotto di Anticitera. Qui, i pescatori fecero alcune immersioni per verificare la presenza di spugne. Ad una profondita’ di circa 60 metri, i pescatori ritrovarono il relitto di un’antica nave greca adibita al trasporto di manufatti preziosi. A seguito di diverse immersioni, vennero portate in superficie divrse statue di rame e bronzo, manufatti, oggetti lussuosi e anche quello che appariva con un blocchetto di bronzo corroso dal tempo. Tutti queste reperti vennero poi trasportati al museo nazionale di Atene in attesa di essere classificati.

Nel 1902, il misterioso blocco fini’ nelle mani dell’ex ministro della cultura Spyridon Stais che si accorse che quell’insignificante blocchetto nascondeva in realta’ un qualcosa apparentemente complesso e che mai prima di allora era stato ritrovato in reperti di quell’epoca. Oltre a questo, tra i reperti vennero ritrovati altri pezzi che appartenevano in origine al blocco originale.

Per chi non lo conoscesse, quello che venne poi chiamato Meccanismo di Anticitera e’ fatto in questo modo:

Il meccanismo di Anticitera conservato al museo archeologico di Atene

Il meccanismo di Anticitera conservato al museo archeologico di Atene

Il blocchetto e’ grande piu’ o meno come un libro, e’ interamente di rame e, come visibile anche dalla foto, presenta una serie di ruote dentate a formare una sorta di meccanismo meccanico. Apparentemente non ci sarebbe nulla di strano, se non fosse che i reperti sono stati datati intorno al I secolo avanti Cristo.

Studiando il meccanismo, si capi’ subito che quello che rimaneva oggi era solo una minima parte del complesso originario. Sulle varie ruote sono presenti moltissime iscrizioni diverse e gli ingranaggi sono montatti in contatto tra loro proprio per trasferire il moto da uno all’altro.

Una ricostruzione grafica del meccanismo originario e’ piu’ o meno questa:

Ricostruzione grafica del meccanismo di Anticitera

Ricostruzione grafica del meccanismo di Anticitera

La grande domanda che per anni ha impegnato i ricercatori, ma soprattutto i curiosi, e’ ovviamente: a cosa serve questo meccanismo?

Come potete facilmente immaginare, questo quesito ha dato spazio alle interpretazioni piu’ fantasiose. Si va dal semplice calendario meccanico, fino ad un sistema di comunicazione dimensionale. Secondo altri poi, questo meccanismo sarebbe la prova inconfutabile che nei secoli scorsi il nostro pianeta e’ stato visitato da civilta’ aliene che hanno trasmesso parte della loro tecnologia agli antichi.

Ovviamente, come sempre accade, queste interpretazioni non sono supportate da nulla e non trovano nessuna dimostrazione oggettiva.

Dunque, a cosa serve il meccanismo? Anche se non ancora pubblicate, circa il 95% delle iscrizioni presenti nel reperto sono state tradotte. Proprio da queste traduzioni si e’ potuto capire il reale compito del meccanismo. Quello che vediamo oggi come un grezzo blocchetto di bronzo e’ in realta’ un complesso meccanismo di conteggio del tempo. Le diverse ruote servono per poter visualizzare in modo molto preciso le fasi lunari, i cicli solari, le rivoluzioni siderali e, come pubblicato proprio in questi giorni, anche le date delle olimpiadi greche.

Perche’ c’e’ bisogno di questo ingegnoso sistema per conteggiare questi avvenimenti? Per prima cosa, sappiamo che i mesi lunari sono diversi da quelli che utilizziamo noi oggi. Inoltre, per riprodurre l’anno siderale rispetto a quello solare e’ necessario mantenere un rapporto di 254 a 19. Perche’? Molto semplice, la nostra Luna compie 254 rotazioni esattamente ogni 19 anni solari. Riproducendo questo rapporto con ruote dentate, e’ possibile seguire l’anno siderale rispetto a quello solare. Ma non e’ tutto, il meccanismo e’ ovviamente dotato di un differenziale per trasmettere l’esatto rapporto tra le ruote e anche per riprodurre le fasi lunari nel corso degli anni oltre a stagioni, giorni della settimana, equinozi e i movimenti di alcuni pianeti. Capite dunque come il meccanismo di Anticitera sia in realta’ un complesso datario cosmologico in grado di riprodurre alcuni fenomeni naturali.

A questo punto pero’, la domanda fatta in precedenza acquista ancora piu’ valore: e’ possibile che un meccanismo cosi’complesso sia stato costruito nel I secolo avanti Cristo?

Per poter rispondere, dobbiamo fare qualche considerazione specifica. Per prima cosa, il meccanismo e’ realizzato in bronzo, un materiale conosciuto all’epoca e anche facilmente lavorabile. questa considerazione meccanica non e’ affatto poco importante. Come e’ noto, i greci erano abili nel lavorare questo materiale rendendo possibile la realizzazione di manufatti come quello del meccanismo.

Passiamo poi al funzionamento vero e proprio. Come detto in precedenza, i fenomeni riprodotti dal meccanismo erano tutti noti e perfettamente conosciuti al tempo. Ovviamente, i movimenti di Sole e Luna erano conoscuti con grande precisione cosi’ come riprodotti dal particolare datario. Oltre a queste evidenze, e come accennato in precedenza, il meccanismo era in grado di riprodurre il movimento di cinque pianeti. Avete capito bene, solo 5 pianeti, cioe’ quelli piu’ vicini alla Terra e conosciuti anche da popolazioni ben piu’ antiche di quella greca del I secolo a.C. Detto questo, la realizzazione del meccanismo, sia dal punto di vista meccanico che funzionale, e’ del tutto comprensibile e assolutamente non in contrasto con le conoscenza dell’epoca.

Ovviamente, il meccanismo di Anticitera e’ l’unico della sua specie rinvenuto fino ad oggi. Magari, in seguito, verrano riportati alla luce altri ritrovamenti simili o anche piu’ complessi. A volte, l’unicita’ di una scoperta fa pensare all’assurdita’ della cosa. Questo e’ assolutamente sbagliato. Come visto nelle considerazioni fatte, la costruzione e il funzionamento del meccanismo sono perfettamente compatibili con le conoscenze dell’epoca.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Sale qb … anche nelle batterie

6 Ott

Negli ultimi anni, i nostri dispositivi elettronici hanno avuto un notevole miglioramento puntando sempre di piu’ verso i concetti di portabilita’ e wireless. Come sapete, oggi come oggi, la maggior parte dei nostri gadget tecnologici sono dotati di batterie ricaricabili. Il progresso in questo settore ha reso disponibili batterie sempre piu’ piccole, capienti e con cicli di carica sempre piu’ rapidi.

Il principio di utiizzo di una batteria di questo tipo e’ ovviamente chiaro a tutti. Si carica di energia il nostro sistema, per poi utilizzarlo scollegato dalla rete elettrica. Questo e’ fondamentale per portare a spasso i nostri dispositivi dove non e’ disponibile la rete elettrica.

Perche’ faccio questo preambolo?

Molto spesso nei nostri articoli abbiamo parlato di energie rinnovabili. Come sapete bene, le fonti piu’ utilizzate in tal senso sono senza dubbio l’eolico e il solare. A parte tutti i discorsi sull’efficienza di queste risorse, uno dei problemi principali riscontrati e’ la non costanza della fonte primaria. Mi spiego meglio. I pannelli solari che normalmente utilizziamo hanno bisogno, per definizione, del sole per produrre energia. Detto questo, di notte non possono funzionare. Analogamente, per quanto si cerchi di trovare la miglior postazione, in assenza di vento le pale eoliche non girano.

Il problema della disponibilita’ delle risorse e’ uno di quelli maggiormente studiati e analizzati dai gestori elettrici. In diverse compagnie sono presenti gruppi di studio che cercano di simulare la produzione energetica anche solo con poche ore di anticipo. Questo e’ fondamentale in virtu’ della pianificazione. Se le fonti producono energia nel momento in cui la rete non la richiede, ci troviamo con un surplus inutilizzato. Analogamente, se la richiesta energetica e’ massima quando la produzione e’ minima, siamo costretti a ricorrere ad altre fonti per soddisfare le richieste.

Per ovviare a questi problemi, si ricorre a sistema di accumulazione basati proprio su batterie. Riprendendo l’esempio del solare, durante il giorno l’energia prodotta viene stoccata in batterie in grado di accumularla per poi cederla quando la richiesta aumenta.

Il problema principale delle batterie normalmente utilizzate, ed in questo caso la capacita’ di contenimento e’ il parametro piu’ importante, e’ che molto spesso questi sistemi sono basati su metalli e componenti che, una volta esaurito il ciclo vitale delle batterie, sono estremamente tossici e dannosi per l’ambiente. L’esempio principale in questo caso e’ quello delle batterie al piombo.

Bene, negli ultimi mesi una delle principali compagnie produttrici di batterie, l’italiana FIAMM, ha reso disponibili dei sistemi basati semplicemente sul cloruro di sodio, cioe’ proprio il semplice sale.

Batteria SoNick della FIAMM

Batteria SoNick della FIAMM

Ad essere sinceri, e al contrario di quello che leggete in rete, le batterie al cloruro di sodio sono una realta’ gia’ da qualche anno. Quello che e’ riuscita a migliorare notevolmente la FIAMM e’ la capacita’ di contenimento energetico e soprattutto la durata delle batterie.

Questa nuova serie di batterie si chiama SoNick ed e’ basata sul cloruro di sodio e sul cloruro di Nichel. Durante il funzionamento, il cloruro di nichel si deposita al catodo, mentre il sodio, dissociato dal NaCl, si deposita sull’anodo. In ciascuna cella, anodo e catodo sono separati da una barriera ceramica che consente il passaggio degli ioni di sodio per il funzionamento della batteria. La tensione a circuito aperto della singola cella e’ di 2.58V e questo valore, al contrario di molte batterie commerciali, rimane pressoche’ costante per gran parte del profilo di scarica. Questo sistema consente di conservare la carica per tempi piu’ lunghi oltre ad allungare notevolmente la vita stessa della batteria.

Questo tipo di batterie e’ stato sviluppato appositamente per essere connesso con i sistemi rinnovabili, appunto solare ed eolico. La fase di ricerca e sviluppo e’ durata diversi anni ed e’ stata fatta in collaborazione anche con il CNR. Detto questo, capite molto bene l’importanza di questo risultato e l’interesse di moltissimi produttori in questi nuovi sistemi.

La stessa FIAMM ha costruito nella sua sede un parco solare munito di batterie al sale. Inoltre, in collaborazione con Ansaldo, si e’ aggiudicata la gara per la costruzione di un impianto nella Guyana francese. Il progetto prevede la realizzazione di un parco in grado di formire elettricita’ a diverse famiglie della zona e potrebbe essere il primo di una serie pensata proprio per portare elettricita’ in luoghi difficilmente raggiungibili dalla rete tradizionale.

Punto di forza di queste batterie e’ ovviamente l’impatto ambientale minimo al termine del ciclo vitale. Ad oggi, le batterie al sale vengono gia’ utilizzate nella trazione elettrica di autobus, ad esempio dalla Iveco. Queste nuove batterie consentiranno anche in questo caso di migliorare la durata dei sistemi e di garantire percorsi sempre piu’ lunghi prima della ricarica.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La luna si allontana dalla Terra?

13 Set

In una delle tante discussioni del forum:

Psicosi 2012, forum

e’ sorta la domanda: e’ vero che la Luna si sta allontanando dalla Terra? Se si, con che velocita’? E’ vero che questo meccanismo e’ inspiegabile dalla scienza?

Piu’ volte qui sul blog ci siamo fermati a parlare di Luna. Il perche’ di questo e’ facilmente comprensibile, data la sua vicinanza, la Luna ha da sempre rappresentato un laboratorio spaziale a portata di mano. A distanza di oltre 40 anni dal primo allunaggio, anche se le missioni di esplorazione sulla superficie sono ormai considerate inutili e troppo dispendiose, la Luna permette ancora importanti studi, primo tra tutti la verifica della teoria della relativita’ generale mediante misure di distanza.

Detto questo, le risposte alle domande poste inizialmente sono, in linea di principio, molto semplici: la Luna si sta allontanando dalla Terra, ma con una velocita’ bassissima. Questo meccanismo, come vederemo a breve, non solo e’ comprensibile scientificamente, ma e’ anche dimostrabile utilizzando le semplici leggi della fisica classica.

A questo punto, come nostra abitudine, non ci resta che verificare queste affermazioni, chiamando proprio in causa la scienza.

Come ricorderete, in questo articolo:

Le forze di marea

abbiamo visto come l’attrazione mutua tra Terra e Luna sia la repsonsabile dei movimenti delle acque, cioe’ delle cosiddette maree. Bene, proprio in questo effetto possiamo trovare la chiave per spiegare anche questa nuova domanda.

Ragioniamo insieme, se la Luna, mediante la sua attrazione, provoca l’alta marea, questo sisgnifica che sulla Terra, nella direzione rivolta verso la Luna, si formera’ una protuberanza. Ovviamente questo effetto, a causa della minore resistenza meccanica, e’ molto marcato sulle acque.

Bene, ora pero’, dobbiamo tener conto del moto dei due corpi. Mentre la Terra impiega 24 ore per girare intorno al suo asse, la Luna gira intorno alla Terra in 28 giorni. Questo significa che la velocita’ della Terra e’ maggiore di quella della Luna. In questo caso, la protuberanza sulla Terra dovuta all’attrazione si trovera’ piu’ avanti della linea immaginaria che unisce Terra e Luna. Detto in altri termini, la Luna provoca la protuberanza ma, a causa della minor velocita’, si trovera’ sempre ad inseguire questa protuberanza.

La situazione e’ facilmente illustrata da questa immagine:

Protuberanza sulla Terra dovuta all'attrazione lunare

Protuberanza sulla Terra dovuta all’attrazione lunare

Benissimo, ora ragioniamo sempre in termini di attrazione gravitazionale. Questa protuberanza sulla Terra esercitera’ a sua volta un’attrazione sulla Luna. Questa componente della forza, fate sempre riferimento alla figura precedente, tendera’ a tirare in avanti la Luna. Cosa significa? A causa della protuberanza, e’ come se la Luna venisse trascinata in avanti con una conseguente accelerazione.

Cosa c’entra l’accelerazione con la distanza?

Per poter rispondere a questa domanda, dobbiamo chiamare in causa le leggi di Keplero. Come sapete, queste leggi, che possiamo definire puramente meccaniche, descrivono il moto dei pianeti dal punto di vista gravitazionale, prevedendo i parametri di rotazione e di orbita dei corpi.

Per le leggi di Keplero, se la velocita’ del satellite aumenta, allora deve aumentare il raggio della sua orbita, cioe’ il pianeta stesso tendera’ ad allontanarsi durante il moto. Detto in altri termini, a causa della sua stessa attrazione, che provoca effetti di marea, la Luna tende ad allontanarsi dalla Terra.

Di quanto si allontana?

Se state pensando che da un giorno all’altro la Luna si perdera’ nello spazio, siete fuori strada. Ad oggi, l’allontanamento della Luna dalla Terra e’ di circa 4 cm all’anno. Questo significa che ci vorranno milioni di anni prima di perdere il nostro satellite.

Prima di concludere, vorrei aprire due parentesi. La prima e’: come misuriamo l’allontanamento della Luna? La risposta la sappiamo gia’, mediante il cosiddetto Lunar Laser Ranging, cioe’ si spara da Terra un laser sulla Luna, si aspetta che la luce torni indietro e, misurando il tempo, si ricava la distanza. Questo e’ possibile grazie alla matrice di specchi montata sulla Luna dalle missioni Apollo.

Di questo abbiamo parlato in questo post:

Ecco perche’ Curiosity non trova gli alieni!

Vi ricordo che questa e’ una prova diretta del fatto che siamo stati sulla Luna. Se non ci fossero le matrici di CCR, misure di questo tipo, che vengono condotte anche in laboratori italiani, non sarebbero possibili. Questo giusto per smontare l’assurda teoria complottista dell’allunaggio.

Altra parentesi e’ invece: cosa comporta la presenza della Luna? La risposta in questo caso e’ molto complessa perche’ riguarda tantissimi aspetti legati al nostro pianeta. Prima di tutto, la presenza della Luna, cioe’ la formazione di un sistema legato gravitazionalmente con la Terra, riesce a stabilizzare le oscillazioni del nostro asse. Come potete facilmente immaginare, questo stabilizza la durata della stagioni, la durata del giorno e, dunque, il clima del nostro pianeta che, senza Luna, sarebbe stato molto diverso e, forse, inadatto ad ospitare la vita. Inoltre, la rotazione della Terra intorno al proprio asse e’ determinata dalla presenza della Luna. Questo consente di avere una durata del giorno, e dunque dell’alternanza sole-buio, come quella che vediamo, cioe’ in grado di assicurare escursioni termiche non troppo elevate.

Per ultimo, l’effetto indiretto della Luna, cioe’ le maree, permettono un rimescolamento delle acque molto importante per il nostro ecosistema. Secondo alcune teorie, senza questi meccanismi, sarebbe stato molto difficile formare la vita sulla Terra.

Come vedete, oltre ad ispirare poesie e romanticismo, e serve anche questo, la Luna ha un importante influenza sulla Terra sia dal punto di vista orbitale che dell’ecosistema a cui anche noi apparteniamo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tsunamometro: come “prevedere” gli Tsunami

3 Set

Alcuni lettori mi hanno contatto per chiedere il mio punto di vista su una notizia apparsa in questi giorni su alcuni giornali. La notizia in questione riguarda un sistema di allerta per gli Tsunami del mediterraneo che e’ stato sviluppato con la collaborazione di diverse universita’ e enti di ricerca italiani. Questo strumento, anche detto Tsunamometro, altro non e’ che un sistema di “early warning”, cioe’ una strumentazione in grado di identificare la formazione del maremoto e inviare un allarme a terra. Come sappiamo bene, in eventi di questo tipo, un avviso anche solo di qualche decina di minuti puo’ significare la differenza tra centinaia di morti oppure no.

Detto questo, vorrei aprire una piccola parentesi o, se volete, una critica ad alcuni giornali. Come abbiamo detto in diverse occasioni, in questo periodo estivo le notizie scarseggiano, la politica e’ ancora in ferie, il campionato sta ricominciando solo ora, ecc. Proprio questo e’ il periodo in cui i giornali per riempire le loro pagine tirano fuori notizie d’archivio o pseudo-assurde. Perche’ dico questo?

Questo e’ l’articolo, del 1 settembre 2013, che trovate su un noto giornale nazionale:

Tsunamometro, 1 settembre 2013

Bene, questo e’ un articolo dello stesso giornale sullo stesso argomento del 30 settembre 2009:

Tsunamometro, 30 settembre 2009

Stesso argomento, stessa intervista, stesse considerazioni solo che, nel 2009, il sistema era stato installato per la prima volta.

Animazione dello Tsunami in Indonesia del 2004

Animazione dello Tsunami in Indonesia del 2004

Non aggiungo altro, a voi le considerazioni sulla cosa.

Nonostante questo, credo sia interessante parlare dell’argomento in primis perche’ non lo abbiamo trattato sul blog ma soprattutto perche’ alcuni utenti mi hanno scritto facendo questo ragionamento: se e’ possibile inviare un segnale a terra studiando le onde, allora e’ possibile prevedere uno tsunami. Se lo tsunami e’ dovuto ad un terremoto, allora e’ in qualche modo possibile prevedere anche il sisma.

Come anticipato, questo ragionamento e’ sbagliato. Come detto, lo tsunamometro, noto come progetto Nearest, e’ costituito da una serie di strumenti che misurano parametri del mare. In caso di formazione anomala, il sistema invia l’allerta a terra. Dunque, non prevede lo tsunami ma lo identifica nelle prime fasi della sua formazione.

Come funziona Nearest?

Come potete immaginare, si tratta di un sistema di boe che misurano l’accelerazione e la pressione delle acque, le onde sismiche e le onde acustiche prodotte dallo tsunami in formazione. Oltre alla boa, c’e’ ovviamente un sistema sottomarino che serve a raccogliere i dati ed che viene posizionato in prossimita’ delle linee di faglia dove si potrebbe generare il sisma ed il conseguente maremoto.

Ad oggi, un sistema completo di monitoraggio e’ stato installato al largo di Cadice in Spagna. Come sappiamo, la zona del mediterraneo e’ stata in passato scenario di tsunami a causa sia dell’attivita’ sismica che di frane. Di questi eventi abbiamo parlato in dettaglio in questi post:

Ora anche gli Tsunami in Italia

I Marrobbi, piccoli Tsunami

Aggiornamento sulla Tsunami del Tirreno

Inoltre, come visto in questi articoli:

Due parole sull’Etna e sullo Stromboli

Marsili e terremoto siciliano

– Il vulcano Marsili

– Immagine ricostruita del Marsili

– Il risveglio del Marsili

la presenza di vulcani attivi nel Mediterraneo puo’ portare a sismi con conseguenti Tsunami.

Una delle boe del sistema Nearest

Una delle boe del sistema Nearest

Oltre all’importante funzione di “Early warning”, Nearest ha un compito scientifico di tutto rispetto. La ricerca e’ infatti considerata fondamentale per studiare a fondo la relazione tra evento sismico e maremoto. Come sapete, ci possono essere terremoti con epicentro in mare che non provocano fenomeni tsunamici. Questo e’ dovuto alla natura stessa del sisma, alla direzione di propagazione delle onde, alla profondita’, ecc. Avere un sistema di monitoraggio di questo tipo direttamente in mare consente di poter studiare queste relazioni ed avere un quadro piu’ chiaro. Al largo di Cadice, il sistema e’ posizionato ad una profondita’ di 3200 metri e invia segnali acustici alla boa.

Concludendo, quella dello tsunamometro e’ una notizia abbastanza vecchia. Nonostante questa riproposizione estiva, e’ interessante vedere come funziona questo sistema per analizzare quali sono gli attuali sistemi di prevenzione che si stanno studiando per far fronte a problemi di questo tipo. Come sappiamo bene, le onde di tsunami hanno periodi molto lunghi, non possono essere arginate mediante barriere se non in parte, ma, sapere con anticipo quando l’onda colpira’ la costa potrebbe essere sicuramente un ottimo salvavita.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ l’acqua ossigenata disinfetta?

1 Set

L’altro giorno mi e’ stata fatta una domanda davvero molto interessante. La considero tale, e spero possiate condividere il mio punto di vista, perche’ si tratta di un argomento conosciuto da tutti, ma di cui molti ignorano la risposta. La questione e’ molto semplice, quando ci facciamo male, nel senso che abbiamo delle ferite, tagli, ulcere, ecc, quello che facciamo e’ disinfettare la parte con l’acqua ossigenata. Questo consente di pulire la ferita e impedire che si formino infezioni.

Perche’ l’acqua ossigenata ha questo potere?

Cominciamo proprio dalle basi, l’acqua ossigenata, o anche perossido di idrogeno, e’ una molecola molto semplice formata da due atomi di idrogeno e due di ossigeno H-O-O-H. Al contrario della normale acqua, H-O-H, ha dunque solo un ossigeno in piu’, come suggerisce il nome stesso. Anche se apparentemente la modifica sembra minima, il comportamento e le cosiddette proprieta’ organolettiche delle due molecole sono molto diverse. L’acqua ossigenata si presenta incolore, liquida in condizioni normali di temperatura e pressione, ma con un caratteristico odore pungente non molto gradevole.

L’acqua ossigenata e’ conosciuta gia’ dai primi anni dell’800. Il primo che sintetizzo’ questa molecola fu Thenard nel 1818, anche se la sua diffusione su vasta scala, grazie anche alla produzione industriale economica e di massa, avvenne solo nel secolo successivo.

Come sapete bene, per usi commerciali l’acqua ossigenata e’ venduta all’interno di bottigliette di plastica non trasparenti, per non alterare le sue proprieta’, sempre diluita in una frazione che va dal 3 al 6%. Ovviamente, per usi specifici, potete trovare anche concentrazioni maggiori anche se queste, per i normali usi domestici, devono poi essere diluite con acqua. In alternativa alla percentuale, trovate la concentrazione anche espressa in “volumi”, cioe’ in volume equivalente di ossigeno che potete liberare dal perossido.

Tornando alla domanda iniziale, perche’ l’acqua ossigenata disinfetta le ferite?

Per essere precisi, l’azione del perossido di idrogeno e’ duplice. Per prima cosa, a contatto con la pelle, la molecola di acqua ossigenata libera molto facilmente ossigeno non legato. Questo e’ fortemente reattivo e per sua natura tende a legarsi con un altro atomo uguale per formare O2. Questo meccanismo e’ quello che porta alla formazione delle bollicine che vedete quando utilizzate l’acqua ossigenata. In questo caso, il meccanismo di disinfezione e’ meccanico. Il cammino in superficie dell’ossigeno, fino a liberarsi in aria, riesce a pulire e catturare sporcizia e germi che possono annidarsi all’interno delle ferite. Detto in altri termini, l’ossigeno riesce a portare fuori agenti esterni anche negli angoli piu’ nascosti dove sarebbe difficile rimuoverli.

Oltre a questo meccanismo puramente “meccanico”, l’acqua ossigenata ha anche una funzione puramente biologica. Come si dice in termini tecnici, il perossido riesce a “denaturare le proteine”. Cosa significa? Detto in modo molto semplice, l’ossigeno nascente, sempre liberato dal perossido iniziale, e’, come anticipato, molto reattivo. Sempre per stabilizzarsi, l’ossigeno nascente si puo’ legare ossidando le molecole e dunque favorendo la degradazione di molecole organiche degli agenti infettanti. Cosa significa? Semplicemente l’ossidazione delle molecole degli agenti infettanti modifica la struttura di questi microbi rendendoli duqnue non pericolosi per l’uomo, cioe’ incapaci di infettare la ferita.

Come potete facilmente immaginare, questa duplice azione dell’acqua ossigenata e’ quella che ha portato il successo e la diffusione di questo semplice perossido e, se vogliamo, ha consentito di evitare conseguenze ben piu’ gravi per individui feriti.

Oltre che come disinfettante, ad alta concentrazione (90%), l’acqua ossigenata viene utilizzata anche per la propulsione dei razzi. Il suo utilizzo puo’ essere come comburente per bruciare altri combustibili o anche singolarmente mettendo perossido di idrogeno in una camera con pareti di argento che favoriscono la formazione di ossigeno e acqua. Come potete facilmente immaginare, questo utilizzo e’ possibile sempre grazie alla altissima concentrazione di ossigeno liberato.

Tolta la propulsione a razzo, vi sono poi tutta una serie di utilizzi che possono essere fatti dell’acqua ossigenata nelle nostre case. Questo prodotto e’ utilizzato anche a livello industriale come sbiancante sia nella produzione della carta che dei tessuti. Allo stesso modo, l’acqua ossigenata puo’ essere utilizzata per schiarire i capelli, eliminare macchie dai vestiti prima del normale lavaggio o anche per sbiancare i denti. In questo ultimo caso, basta sciaquare la bocca due volte alla settimana con un cucchiaio di acqua ossigenata per poi risciaquare con abbondante acqua.

Come visto in questo articolo:

Detersivi ecologici

Il perossido di idrogeno e’ alla base della realizzazione di molti detersivi fatti in casa assolutamente paragonabili a quelli commerciali ma molto piu’ economici.

Oltre a questi utilizzi diretti, proprio le proprieta’ disinfettanti dell’acqua ossigenata la rendono particolarmente efficace per pulire ed eliminare germi dalle superfici domestiche (esempio le maioliche di cucina e bagno) o anche per disinfettare gli spazzolini da denti. Per farvi un esempio, l’acqua osigenata e’ in grado di uccidere i germi della salmonella e dell’escherichia coli, due microbateri molto famosi per la contaminazione dei cibi.

Concludendo, il meccanismo di disinfezione dell’acqua ossigenata e’ in realta’ duplice. Prima di tutto l’azione meccanica dovuta al moto in superficie delle molecole di ossigeno riesce ad eliminare sporcizia e germi dalle ferite. Inoltre, l’ossidazione delle molecole modifica la struttura degli agenti infettanti rendendoli inefficaci. Oltre a questa applicazione nota a tutti, il perossido di idrogeno puo’ essere utilizzato per molti altri scopi domestici che vanno dalla pulizia delle superfici fino alla rimozione delle macchie dai vestiti.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Risparmiare con la lavatrice

15 Lug

Diverse volte ci siamo occupati di risparmio energetico domestico, analizzando prima di tutto i consumi dei nostri elettrodomestici quando vengono lasciati in standby:

Il led rosso dello stadby …

ma soprattutto spiegando e valutando il contributo ai consumi dei singoli elettrodomestici che abbiamo in casa:

Elettrodomestici e bolletta

In questo post, su suggerimento di una nostra lettrice, vorrei tornare a parlare della lavatrice. In particolare, mi e’ stato chiesto di spiegare come funzionano i cosiddetti “foglietti acchiappacolore”.

Sapete a cosa mi riferisco?

Chiunque abbia mai fatto una lavatrice sa bene che la prima cosa da fare e’ separare i panni bianchi da quelli colorati che potrebbero potenzialmente stingere. Come sappiamo bene, in caso contrario potremmo tirare fuori dall’oblo’ dei panni che prima erano bianchi ed ora sono di un bel rosato.

Fare questa distinzione, comporta pero’ un maggior tempo per accumulare un carico in grado di riempire la lavatrice. Molto spesso, per esigenze di lavaggio, si tende dunque a far partire la lavatrice non proprio a pieno carico. Torneremo successivamente su questo punto.

Detto questo, avere la possibilita’ di mescolare tutti i panni insieme comporta sicuramente una facilita’ di lavaggio. A tal proposito, sono stati appunto proposti questi foglietti acchiappacolore.

Come funzionano?

Anche se i costituenti fondamentali sono segreti e brevettati da una ditta irlandese, il meccanismo alla base sfrutta la differenza di carica tra colore e foglietto. Mi spiego meglio. I coloranti tessili piu’ utilizzati hanno carica negativa. Inserendo nella lavatrice un foglietto carico positivo, la differenza di carica elettrica fa attaccare il colore solo al foglietto come se fosse una calamita.

A differenza di quanto si legge su alcuni siti, il foglietto e’ del tutto riciclabile e puo’ essere tranquillamente buttato insieme ai rifiuti cartacei nella raccolta differenziata.

Funzionano davvero questo foglietti?

Su questo punto, le opinioni in rete non sono molto concordi. C’e’ chi dichiara l’assoluta inutilita’ del metodo e chi ne elogia le caratteristiche. Quello che purtroppo sfugge a molti e’ che la lavatrice va comunque caricata con un certo criterio. Qualora fossero presenti capi che stingono molto, puo’ essere necessario inserire piu’ di un foglietto.

Sicuramente, il punto a sfavore di questa soluzione e’ la non economicita’ dei foglietti. Qualche tempo fa, avevamo pero’ affrontato il discorso dei detersivi biologici fatti in casa:

Detersivi Ecologici

Bene, esiste gia’ un metodo per preparare ache i foglietti in casa. Per fare questo, basta prendere dei panni di cotone, un barattolo di vetro e della soda per bucato. Mettete nel vasetto un po’ di acqua calda e sciogliete all’interno la soda. A questo punto, immergete il panno di cotone per alcuni minuti fino a quando non sara’ pregno d’acqua. Fate asciugare all’aria il quadrato di stoffa e il vostro foglietto domestico e’ pronto. Essendo basato su prodotti naturali, l’efficacia di questa soluzione a parita’ di superficie e’ leggermente inferiore a quella dei foglietti commerciali. Visto il risparmio pero’, potete anche pensare di mettere piu’ di un foglietto nel bucato.

Ora pero’, onde pensare che questo sia divenuto un blog di soluzioni domestiche, torniamo al discorso sui consumi energetici. Come detto, il problema di dover accumulare la quantita’ corretta di abiti da lavare, spinge in alcuni casi a far partire la lavatrice non a pieno carico.

Nei modelli non troppo vecchi, e’ presente il tasto mezzo carico, che ci consente di far partire la lavatrice in modo ottimale anche con la meta’ del carico massimo. Quello che non tutti sanno, e’ che questa soluzione non consente assolutamente di spendere meta’ dell’energia ne tantomeno dell’acqua.

Mi spiego meglio.

Per capire il discorso, vi riporto il link di una nota casa produttrice, in cui trovate i dati di consumo di un modello specifico:

Dati lavatrice

Notate in particolare queste righe:

Consumo energetico 60° pieno carico (kWh): 0.76
Consumo energetico 60° mezzo carico (kWh): 0.66

Cosa dicono?

Lavando a 60 gradi, il consumo a pieno carico e’ di 0.76 KWh. Lavando alla stessa temperatura, ma con meta’ del carico, il consumo e’ di 0.66 KWh. Mettendo il 50% del carico, risparmiate solo il 13% di energia.

Capite dunque perche’, ogni qual volta si parla di soluzioni per il risparmio energetico, si dice di far andare la lavatrice a pieno carico.

Valori un po’ piu’ convenienti si hanno, ad esempio, per l’asciugatrice. Se guardiamo ai dati di un modello specifico:

Dati Asciugatrice

Vediamo che:

Consumo di energia del programma cotone standard a pieno carico: 2.03 kWh

Consumo di energia del programma cotone standard a mezzo carico: 1.24 kWh

In questo caso si ha un risparmio maggiore, ma comunuqe sempre lontano dal 50% di energia che si potrebbe erroneamente pensare.

I nuovi modelli di lavatrice hanno invece dei sensori nel cestello in grado di pesare il carico e ottimizzare il consumo di acqua e elettricita’. In questo caso, il risparmio e’ sicuramente migliore, anche se il riscalo in base al carico non e’ assolutamente proporzionale. Con cio’ si intende che il consumo non sara’ mai proporzionale al peso in Kg di bucato, anche se migliore dei vecchi modelli.

Concludendo, la lavatrice e’ sicuramente uno degli elettrodomestici piu’ utilizzati e che maggiormente contribuisce ai nostri consumi domestici. I foglietti acchiappacolore consentono, almeno in linea di principio, e se usati correttamente, di ottimizzare il carico mescolando abiti diversi. Far funzionare una lavatrice non a pieno carico, o al limite nella funzione mezzo carico, consente un risparmio irrisorio rispetto al pieno carico. Condizione migliore si ha con i nuovi elettrodomestici sensibili al reale peso del bucato. Nonostante questo, la cosa migliore per risparmiare energia e’ sicuramente quella di far girare la lavatrice a pieno carico sempre.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Marte: pietra che rotola o misterioso Yeti?

17 Giu

In questi giorni, molti siti catastrofisti si stanno sbizzarrendo parlando nuovamente di Marte. Come sapete bene, visto anche il grande numero di sonde in orbita e sulla superficie, ci sono tante persone che passano le giornate a sfogliare le foto rese pubbliche dalla NASA per trovare un’evidenza di qualcosa di anomalo sul pianeta rosso. In tal senso, nei mesi scorsi, in rete ci hanno deliziato con tantissime osservazioni fatte su Marte: una moneta, un topo, monoliti, villaggi abbandonati. Ovviamente la fantasia galoppa sempre troppo velocemente.

Questa volta poi, devo dire che si sono veramente superati.

Come anticipato, si sta molto discutendo sulla rete riguardo a delle nuove foto che mostrerebbero delle tracce lasciate sul terreno marziano da pietre che hanno rotolato. Ora, se questo avvenisse sulla Terra, nessuno salterebbe dalla sedia, ma avere una pietra che misteriosamente rotola su Marte e’ una notizia diversa.

Eccovi una delle tante foto che trovate:

Una delle foto della superficie di Marte con l'evidenza del solco

Una delle foto della superficie di Marte con l’evidenza del solco

Come vedete, si vede una lunga scia sul terreno, lasciata da quella che potrebbe essere stata una pietra che improvvisamente si sia messa a rotolare. Perche’ questo sarebbe avvenuto? Come potete facilmente immaginare, si e’ subito iniziato a parlare di forme di vita sul pianeta rosso. Addirittura, e purtroppo non sto scherzando, uno dei piu’ seguiti siti complottisti italiani ha parlato di un misterioso Yeti che vivrebbe su Marte. Ecco un estratto del loro articolo:

Alcuni ricercatori e appassionati dicono che si possa trattare delle tracce di una creatura aliena sconosciuta, come un ‘yeti marziano’.

Alcuni ricercatori? Ma dico, stiamo scherzando? Leggendo notizie di questo tipo, mi sorprende veramente come siti di questo tipo possano essere cosi’ seguiti. Ma, a volte, purtroppo, de gustibus non disputandum est.

Cosa ha lasciato questi solchi?

In realta’, la risposta e’ piu’ semplice, ma non meno affascinante, di quella data. Questa strane scie che si vedono sulla superficie di Marte sono lasciate dai cosiddetti “Dust Devil”. Questi altro non sono che turbini di sabbia che si formano sul pianeta e di cui avevamo parlato in questo articolo precedente:

Tornando di Fuoco in Australia

Come visto, si tratta di fenomeni conosciuti anche sulla Terra e che si formano a causa del gradiente termico che tende a creare piccoli turbini di sabbia e polvere. Il meccanismo di formazione e’ estremamente semplice come riportato anche nell’articolo precedente:

Meccanismo di formazione di un Dust Devil

Meccanismo di formazione di un Dust Devil

In tal senso, i dust devil sono molto diversi dai tornado dal momento che questi fenomeni possono avvenire anche in condizioni di cielo perfettamente sereno ed in assenza di nubi.

Ora, i dust devil sono un fenomeno noto e molto frequente anche su Marte. Esistono diverse prove catturate proprio dalle sonde sulla superficie del pianeta, che mostrano il passaggio di questi diavoli di sabbia.

Questa e’ una sequenza di immagini catturate da Spirit nel 2005 e che mostra proprio per intero il passaggio del turbine:

Un dust devil osservato in diretta sulla superficie marziana

Un dust devil osservato in diretta sulla superficie marziana

Se la sequenza non dovesse essere visibile,basta cliccare per vederla.

Dagli archivi NASA trovate anche altre immagini, tipo questa:

Un dust devil che procede non in linea retta

Un dust devil che procede non in linea retta

che addirittura mostrano l’avanzare di un dust devil non in linea retta, ma seguendo una sorta di traiettoria a serpentina.

A questo punto, e’ ovvio come guardando dall’alto la superficie di Marte, si possano trovare con estrema facilita’ i segni lasciati dal passaggio di questi turbini.

Concludendo, i dust devil sono un fenomeno molto noto su Marte e di cui esistono prove fotografiche dirette. Detto questo, e’ del tutto comprensibile vedere segni sulla superficie lasciati dal passaggio di questi turbini. Quello che invece trovo assurdo, anzi scusatemi trovo assurde due cose correlate tra loro, la prima e’ che ci siano siti internet che parlino di Yeti su Marte, mentre la seconda e’ che di fronte all’assurdita’ di queste affermazioni, ci siano tante persone che discutono di questa affermazione. Quest’ultimo punto e’ quello che mi fa maggiormente riflettere!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.