Tag Archives: misure

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Farmaci branded o equivalenti?

12 Lug

Stamattina entro in farmacia e mi metto in una delle due file che si erano create al banco. Mentre ero li, ascolto per due volte al stessa domanda rivolta dal farmacista al cliente di turno che aveva chiesto un medicinale: vuole l’originale o il generico? Due domande, due risposte diverse. Una signora ha detto: mi dia il generico tanto è la stessa cosa e costa di meno, mentre l’altra ha risposto: no grazie, mi dia quello originale perché l’altro non funziona.

Sentendo queste due risposte completamente agli antipodi per la stessa domanda, mi è tornata in mente la discussione che diverse volte ho ascoltato, anche da famigliari, sull’efficacia o meno dei farmaci generici. Poiché mi sembra che ci sia ancora tanta confusione a riguardo, credo sia interessante e importante sviscerare con un po’ più di dettaglio questo argomento.

Per prima cosa, il termine “farmaco generico” non è in realtà corretto ma deriva solo da una traduzione letterale del termine inglese “generic drugs”. Per essere precisi, il nome corretto da usare per questa tipologia di farmaci è “equivalenti”.

Bene, cosa sono i farmaci equivalenti?

Per rispondere a questa domanda, dovremmo partire dall’altra sponda del fiume, cioè dai farmaci “originali”, “branded” o come volete chiamarli. Insomma, quelli originali prodotti da qualche casa farmaceutica e che hanno, molto spesso, nomi di fantasia. Ora, come sapete, questi farmaci hanno normalmente un singolo principio attivo che caratterizza il prodotto e la sua efficacia curativa. Per la legge, la formazione del principio attivo è brevettabile per un periodo di 20 anni a partire dall’inizio della sperimentazione sull’uomo. Allo scadere di questo tempo, il principio attivo non è più “sotto licenza” e, come stabilito per legge, può essere prodotto da qualunque casa farmaceutica senza violare nessun diritto d’autore.

Capito come nascono i medicinali equivalenti? Una casa farmaceutica studia un nuovo principio attivo e inizia la lunga fase della sperimentazione. Come sappiamo bene, prima ancora di poter provare il medicinale su un campione umano di controllo sono necessari diversi stadi di sperimentazione in cui il farmaco può essere scartato per problematiche varie legate al suo utilizzo. Testata, in buona parte, la non pericolosità del farmaco e il suo potere curativo, inizia la sperimentazione sull’uomo, sempre sotto stretto controllo. Da qui inizia anche il periodo di brevetto, cioè i 20 anni di cui parlavamo prima. Se la fase di sperimentazione sull’uomo va a buon fine, il farmaco arriva, prodotto dalla casa farmaceutica, al banco della farmacia. Tenendo conto che la fase di sperimentazione sull’uomo normalmente dura dai 5 ai 10 anni, il reale periodo di vendita del medicinale sotto brevetto va dai 10 ai 15 anni.

Cosa succede quando il brevetto arriva a scadenza? Come anticipato, da questo momento in poi chiunque può produrre e commercializzare il principio attivo come base di farmaci diversi non “brandizzati”, appunto gli equivalenti.

Come vengono fatti questi farmaci? Ovviamente partendo dal principio attivo del farmaco di marca. Per fare un esempio concreto, proviamo a prendere un medicinale noto a tutti, l’Aulin, prima prodotto dalla Roche e poi dalla Angelini. Aulin è ovviamente il nome commerciale di fantasia del farmaco. In questa sede, non voglio discutere di funziona, non funziona, fa male allo stomaco, non fa male, le case farmaceutiche sono così, no sono così, ecc.. Ho preso un esempio pratico per parlare con nomi che sono noti a tutti.

Dunque, il principio attivo dell’Aulin è il Nimesulide, utile per tantissimi dolori come noto a chi ha assunto l’Aulin. Bene, il brevetto dell’Aulin è scaduto dunque, così come avviene, è possibile produrre un medicinale equivalente che non avrà un nome commerciale bensì il cui nome sarà solo il principio attivo, quindi Nimesulide.

Perché si dovrebbe comprare un generico piuttosto che un farmaco di marca? Il primo motivo è il prezzo. Per la legge, il generico deve costare almeno il 20% in meno dell’originale. In realtà, come tutti sanno, lo sconto tra il generico e l’equivalente arriva molto tranquillamente anche al 50%. Oltre a questo, ma su questo punto torneremo a breve, i due farmaci hanno esattamente lo stesso principio attivo, con le stesse quantità e con la stessa assunzione.

Prima domanda: perché il generico costa meno di quello di marca? Questa domanda ha portato negli anni molte risposte fantasiose che hanno creato tantissima confusione. Alcuni pensano addirittura che il generico costi meno perché prodotto in scantinati senza controlli, perché non testato secondo tutti i criteri di legge o perché sia prodotto con materie prime di qualità inferiore. Signori, sono medicinali, non scarpe da ginnastica!

Cosa significa? Poiché parliamo di medicinali, tutti i farmaci vengono controllati prima di poter essere immessi sul mercato, così come viene controllata la loro qualità farmaceutica e le condizioni in cui vengono prodotti. Perché allora costano di meno? Come scritto sopra, prima di poter arrivare in farmacia, un farmaco ha una fase di sperimentazione moto lunga, così come la fase precedente di ricerca vera e propria, che ha un costo notevole per le aziende farmaceutiche. Un farmaco generico, poiché contiene appunto lo stesso principio attivo “copiato” da quello di marca, non ha fase di ricerca, non deve essere sperimentato ma deve solo essere valutata la sua “bio-equivalenza”.

Bene, siamo arrivati al punto cardine della discussione, la bio-equivalenza tra i due farmaci, quello di marca e quello equivalente. Per prima cosa, continuando con il nostro esempio, se compro Aulin in granulato, dentro ci sono 100 mg di Nimesulide che vanno sciolti in acqua e bevuti. Bene, se comprate il generico Nimesulide granulato, ci trovate, ripeto per legge, la stessa quantità di principio attivo e da assumere esattamente con le stesse modalità.

Aspettate un attimo, stesso principio attivo, stessa quantità, stessa assunzione, perché si parla di bio-equivalenza? Semplice, per prima cosa, la legge impone la stessa quantità di principio attivo più o meno il 5%. In altre parole, potreste aver un farmaco equivalente con un 5% in più o in meno di principio attivo. Inoltre, la modalità di sintesi e produzione del principio attivo non deve essere identiche e, soprattutto, gli eccipienti dei medicinali possono essere completamente diversi.

Prima di tornare su questi punti, cerchiamo di capire come si determina la bio-equivalenza di due farmaci. Per prima cosa, si deve misurare la bio-disponibilità di un farmaco dopo l’assunzione. Esempio, prendo una bustina di Aulin, misuro la concentrazione nell’organismo del principio attivo e da queste misure determino il tempo necessario al farmaco per agire, cioè per arrivare la bersaglio, e il tempo in cui il principio attivo resta in circolo, cioè quanto tempo “dura l’effetto”. Bene, affinché due farmaci siano equivalenti, la legge impone che la loro bio-equivalenza non sia diversa di più del 20%.

Ecco un altro parametro che potrebbe dunque distinguere un generico dal farmaco di marca. L’equivalente potrebbe dunque contenere una quantità diversa al più di 5% di principio attivo e avere una equivalenza diversa al massimo del 20% da quello originale.

In tutto questo, c’è poi il discorso sugli eccipienti. Utilizziamo sempre il nostro esempio pratico per capire meglio la differenza di composizione tra due farmaci. Se leggete la composizione di un qualsiasi medicinale, oltre al principio attivo trovate altre sostanze, i cosiddetti eccipienti, che servono per rendere maggiormente assimilabile il principio attivo, dare un sapore al medicinale o anche solo agglomerare meglio il farmaco stesso. Guardando ad esempio alla composizione dell’Aulin:

Aulin composizione

trovate che una compressa contiene: Docusato sodico, idrossipropilcellulosa, lattosio monoidrato, carbossimetilamido sodico A, cellulosa microcristallina, olio vegetale idrogenato, magnesio sterrato. Se invece prendiamo un medicinale Nimesulide equivalente:

Nimesulide Equivalente

Troviamo come eccipienti: Dioctil  sodio  solfosuccinato, idrossipropilcellulosa,  lattosio,  sodio  amido  glicolato,  cellulosa  microcristallina,  olio  di  ricino  idrogenato, magnesio stearato. Dunque, eccipienti simili ma non esattamente gli stessi.

Ora, sulla carta, gli eccipienti sono sostanze inerti che non non incidono sull’azione del principio attivo e per questo la legge impone solo il controllo sulla molecola attiva. In realtà, gli eccipienti possono avere effetti minori che però sono completamente soggettivi. In alcuni casi, eccipienti diversi possono determinare: differenza di disponibilità nell’organismo, aver effetti soggettivi più o meno sinergici con il principio attivo e, soprattutto, possono causare disturbi a chi assume il farmaco. Perché questo? Semplice, come sappiamo prima di assumere un qualsiasi farmaco è buona norma leggere il bugiardino. Per un paziente diabetico, ad esempio, è importante verificare che nel medicinale non sia presente il saccarosio come eccipiente. Allo stesso modo, un soggetto intollerante al lattosio non può assumere farmaci contenenti questo eccipiente. In altre parole, è possibile che un soggetto non possa assumere un farmaco di marca ma possa invece assumere il generico o viceversa.

A questo punto, dal punto di vista chimico abbiamo capito che i farmaci di marca e gli equivalenti contengono lo stesso principio attivo in quantità al massimo diverse del 5%, la bio-equivalenza dei due farmaci viene verificata entro un 20% per legge e gli eccipienti contenuti nei farmaci possono invece essere diversi. Detto questo, normalmente i farmaci equivalenti sono del tutto identici a quelli di marca, in altri casi possono risultare meno efficaci ma ci sono anche casi in cui i consumatori preferiscono un equivalente all’originale (ripensate al discorso delle intolleranze e degli eccipienti). Detto questo, occorre di volta in volta provare i due farmaci senza volersi incaponire sull’originale o sul generico a tutti i costi. Ricordatevi però che per legge il farmacista dovrebbe sempre chiedervi se volete il farmaco equivalente.

Solo per concludere, il risparmio portato alle casse dello stato utilizzando gli equivalenti è assolutamente notevole (parliamo di centinaia di milioni di euro all’anno risparmiati) e questo gettito extra può essere utilizzato (almeno dovrebbe) per migliorare il servizio sanitario e le strutture ospedaliere. In Italia, purtroppo, solo il 15% del mercato dei farmaci è occupato dai generici, indice del fatto che gli italiani si fidano ancora poco di questi medicinali. Solo per darvi un’idea, negli Stati Uniti i generici rappresentano il 75% del mercato mentre in Gran Bretagna, primato assoluto, arriviamo addirittura all’85% del totale dei farmaci venduti rappresentati da medicinali equivalenti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Schiuma per inquinamento nel Lazio?

11 Lug

Ieri, moltissimi siti e giornali hanno dedicato ampio spazio ad articoli ed interviste relative ad un curioso fenomeno che è avvenuto su alcuni tratti delle spiagge del Lazio. In particolare, tutti voi avrete visto le foto della spiaggia di Fiumicino invasa da cumuli di schiuma bianca che occupavano praticamente tutto lo spazio intorno agli ombrelloni chiusi.

Per completezza, vi riporto una di queste immagini scattate da un uomo che stava passeggiando quando ha visto la schiuma arrivare dal mare agitato portata dalla corrente:

Immagini della schiuma sulla spiaggia di Fiumicno

Immagini della schiuma sulla spiaggia di Fiumicno

Praticamente tutti i giornali hanno puntato il dito contro l’inquinamento dei mari del Lazio. Da un lato, questo atteggiamento è assolutamente comprensibile. Solo la settimana scorsa, Goletta Verde ha reso noti i risultati delle sue analisi basati su diversi campioni di acqua nei mari del Lazio, evidenziando come le acque siano fortemente inquinate in prossimità delle foci di torrenti e canali.

Personalmente, ma apro e chiudo parentesi, i dati non mi sorprendono. Come spesso diciamo, lo sfruttamento incontrollato delle risorse naturali ed i continui scarichi a mare non controllati che continuiamo a fare stanno creando forti problemi nelle acque italiane che possono provocare danni irreparabili all’ecosistema marino.

Detto questo però, parlare di inquinamento per il fenomeno che è avvenuto ieri a Fiumicino, mi sembra alquanto azzardato e solo figlio di una voglia sfrenata di speculazione sui problemi ambientali.

Perché dico questo?

Premetto che le analisi dell’Agenzia Regionale per la Protezione dell’Ambiente, ARPA, sono ancora in corso, ma diverse fonti autorevoli con cui sono pienamente d’accordo, hanno sottolineato come con una probabilità altissima il fenomeno non sia assolutamente dovuto all’inquinamento. Purtroppo, come spesso avviene, fa più comodo negli articoli citare quello che ci piace e che fa notizia piuttosto che la verità.

A cosa è dovuto il fenomeno della schiuma?

In questo periodo dell’anno, a causa della maggior frequenza antropica sulle spiagge e dell’aumento delle temperature, non vi allarmate, niente di preoccupante, si chiama “estate”, aumenta notevolmente il fitoplancton nelle zone costiere. Se, in questa fase, si registrano bruschi abbassamenti di temperatura, questi organismi unicellulari proteici possono morire.

Dunque?

Un bel mare agitato può fungere da centrifuga per queste proteine sciolte in acqua e il conseguente rimescolamento dovuto alle correnti crea proprio una schiuma bianca e densa che può arrivare, anche in notevole quantità, fino a riva.

Ragioniamo un secondo. Siamo a luglio, nei giorni scorsi si sono registrate temperature abbastanza elevate e questo, in modo del tutto naturale ed in linea con il periodo dell’anno, fa aumentare il fitoplancton. Negli ultimi 2 giorni però, le temperature, complice una perturbazione, si sono di nuovo abbassate. Poi? Sempre negli ultimi giorni, come riportato da tutti i siti che hanno proposto la notizia, il mare è stato notevolmente agitato.

Risultato?

Schiuma dovuta al fitoplancton che è arrivata a riva.

Ovviamente, non confondete le mie parole. Non voglio certo affermare che le acque del Lazio non siano inquinate, ma il fenomeno registrato nelle ultime ore non dipende assolutamente dall’inquinamento.

Se provate a cercare su internet, troverete tantissimi casi simili avvenuti negli anni sempre più o meno in questo periodo. Se proprio volete fare uno sforzo aggiuntivo, troverete anche diversi episodi avvenuti in tratti di costa che erano e sono riserve naturali protette, dunque assolutamente non inquinate.

Un esempio?

Schiuma bianca alle Tremiti a luglio dell’anno scorso:

Tremiti, Diomedee, 1 Luglio 2013

Ripeto, è un fenomeno naturale che è avvenuto, avviene e avverrà in futuro. Sappiamo già che molti tratti dei nostri mari sono fortemente inquinati, ed è sempre colpa nostra, ma cerchiamo di spiegare la bellezza di fenomeni naturali non comuni in termini divulgativi piuttosto che sparare cavolate per cercare di impressionare le persone.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

SWARM e la diminuzione del campo geomagnetico

21 Giu

Nella solita sezione:

– Hai domande o dubbi?

Ormai divenuta punto di riferimento per i frequentatori di questo blog, è stata posta una domanda davvero molto interessante e che credo meriti un maggiore approfondimento attraverso un apposito articolo. La domanda in questione è relativa alla missione dell’ESA SWARM e che ha il compito di monitorare e misurare con una precisione mai raggiunta prima la struttura del campo magnetico terrestre. Per dirla tutta, la domanda iniziale puntava il dito anche contro una serie di articoli apparsi in rete, alcuni anche di note riviste considerate tutt’altro che catastrofiche, leggasi Focus, che forse si sono lasciate prendere un po’ la mano nei toni con affermazioni, lasciatemi dire, un po’ troppo esagerate.

Detto questo, cerchiamo di andare con ordine e capire meglio di cosa si sta parlando.

In diversi articoli ci siamo già occupati di campo magnetico terrestre dal momento che questo, ed in particolare la sua inversione, rappresentano da sempre un argomento molto in voga in chi vorrebbe far credere che qualcosa di grave stia accadendo alla nostra terra. Ecco alcuni esempi:

Inversione dei poli terrestri

La terza fascia di Van Allen

Come visto, il campo magnetico terreste offre una naturale protezione per la biosfera contro le radiazioni emesse dal nostro Sole. Queste, convogliate dalle linee di campo, vengono deviate e non riescono a penetrare direttamente nella nostra atmosfera. Questo, ad eccezione di alcuni punti specifici come ad esempio i poli, dove l’ingresso delle particelle e la loro seguente interazione con le molecole presenti in atmosfera da luogo allo splendido fenomeno naturale delle aurore.

Ora, come visto diverse volte, molto spesso vengono diffuse teorie secondo le quali il campo magnetico terrestre sia in procinto di invertirsi o, peggio ancora, di scomparire del tutto. E’ possibile questo? Per quanto riguarda l’inversione, assolutamente si. In diversi articoli abbiamo parlato di ciclo solare:

– Evidenze dal Sole?

– Le macchie solari AR1504

– Gli effetti di AR1504

– Sole: quanta confusione!

– Inversione dei poli terrestri

– Nuova minaccia il 22 Settembre?

– Come seguire il ciclo solare

– Curiosita’ sui cicli solari

– Possiamo scegliere tra era glaciale o desertificazione

Tempesta solare e problemi ai telefoni?

Come visto, il nostro Sole è solito invertire il verso dei suoi poli magnetici ogni 11 anni, in concomitanza con quelli che siamo soliti chiamare cicli solari. Per la nostra Terra invece, sempre caratterizzata da un campo magnetico dipolare, siamo soliti pensare che i suoi poli siano fissi nella loro posizione, polo nord magnetico verso nord terrestre e viceversa per il sud.

E’ possibile che i poli magnetici della Terra si invertano? Assolutamente si. Anzi, per dirla tutta, questo è già successo diverse volte nella storia geologica del nostro pianeta. Come si vede questo? Esiste una specifica branca della geofisica che si chiama paleomagnetismo. In questa disciplina, come visto negli articoli precedenti, si studia il verso del campo magnetico terrestre analizzando la disposizione magnetica delle rocce sedimentarie. Come è evidente, durante la loro formazione, i nuclei magnetici presenti si orientano secondo la direzione del campo terrestre e poi, una volta raffreddate, restano congelate in questa posizione.

Detto questo, torniamo invece a parlare di SWARM. Come anticipato, si tratta di una missione dell’ESA lanciata alla fine dell’anno scorso e che ora sta cominciando a dare i primi dati. L’intera missione è costituita da una costellazione di 3 satelliti che hanno lo scopo di mappare intensità, forma e andamento del campo magnetico, eliminando tutte le sorgenti esterne tra cui, ovviamente, quella solare. Solo pochi giorni fa, sono stati presentati i primi risultati della missione che hanno mostrato una sensibilità mai raggiunta prima per le misure di campo. Come potete immaginare, lo scopo della missione è quello di monitorare e capire a fondo il campo magnetico terrestre e, anche, vedere variazioni significative della sua forma. Queste, ovviamente, legate anche allo studio di una ipotetica inversione dei poli.

Bene, detto questo, i dati della missione hanno per il momento confermato quello che già si sapeva. Questo solo per rimanere nella parte interessante per rispondere alla domanda iniziale. Come visto anche nei nostri articoli precedenti, il polo nord magnetico è in lento e costante movimento e dovrebbe arrivare, nel giro di una cinquantina di anni, in Siberia. Questa foto, già utilizzata anche in precedenza, aiuta a visualizzare la posizione dei nord magnetico:

Posizione del polo nord magnetico nel corso degli anni

Posizione del polo nord magnetico nel corso degli anni

Ovviamente, ho parlato di “parte interessante per la domanda iniziale” dal momento che gli scopi della missione SWARM non sono solo quelli di vedere se il campo si sta invertendo o meno, ma di studiare moltissimi parametri legati al magnetismo del nostro pianeta.

Cosa si evince dunque dai dati preliminari della missione? Semplice, che il campo magnetico è in movimento e che i poli si stanno spostando. Questo significa che è in atto un’inversione del campo? Molto probabilmente no. Se prendiamo come riferimento il nostro Sole, la fase di transizione tra una configurazione e l’altra è estremamente complessa con un campo che non appare più semplicemente dipolare.

Linee di campo magnetico solare prima e durante l'inversione dei poli

Linee di campo magnetico solare prima e durante l’inversione dei poli

Per dirla tutta, esistono anche teorie che prevedono un lento e continuo movimento dei poli magnetici terrestri fino alla completa inversione. Anche in questo caso però, il processo durerebbe non meno di 5000-10000 anni.

Bene, alla luce di quanto detto, provate ora a leggere questo articolo:

Articolo focus SWARM

Come vedete, in alcuni tratti il catastrofismo sembra imperante. Ripeto, l’inversione del campo magnetico terrestre è possibile, il polo nord si sta spostando ed in passato sono già avvenute inversioni di campo. C’è da preoccuparsi? Da quanto detto, direi proprio di no! Sicuramente i dati raccolti da SWARM aiuteranno a comprendere meglio il campo magnetico terrestre e forniranno moltissimo materiale su cui lavorare. Da qui a parlare di inversione dei poli in corso, direi che c’è una notevole differenza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’espansione metrica dell’universo

8 Apr

In questo blog, abbiamo dedicato diversi articoli al nostro universo, alla sua storia, al suo destino, alla tipologia di materia o non materia di cui e’ formato, cercando, come e’ ovvio, ogni volta di mettere il tutto in una forma quanto piu’ possibile comprensibile e divulgativa. Per chi avesse perso questi articoli, o solo come semplice ripasso, vi riporto qualche link riassuntivo:

E parliamo di questo Big Bang

Il primo vagito dell’universo

Universo: foto da piccolo

La materia oscura

Materia oscura intorno alla Terra?

Due parole sull’antimateria

Flusso oscuro e grandi attrattori

Ascoltate finalmente le onde gravitazionali?

Come e’ ovvio, rendere questi concetti fruibili a fini divulgativi non e’ semplice. Per prima cosa, si deve evitare di mettere formule matematiche e, soprattutto, si deve sempre riflettere molto bene su ogni singola frase. Un concetto che potrebbe sembrare scontato e banale per un addetto ai lavori, potrebbe essere del tutto sconosciuto a chi, non avendo basi scientifiche solide, prova ad informarsi su argomenti di questo tipo.

Perche’ faccio questo preambolo?

Pochi giorni fa, un nostro lettore mi ha contatto via mail per chiedermi di spiegare meglio il discorso dell’espansione dell’universo. Per essere precisi, la domanda era relativa non all’espansione in se, ma a quella che viene appunto definita “espansione metrica” dell’universo. Cosa significa? Come visto varie volte, l’idea comunemente accettata e’ che l’universo sia nato da un Big Bang e durante questa espansione si sono prima formate le forze, il tempo, le particelle, poi i pianeti, le galassie e via dicendo. Ci sono prove di questo? Assolutamente si e ne abbiamo parlato, anche in questo caso, piu’ volte: la radiazione cosmica di fondo, lo spostamento verso il rosso delle galassie lontane, le conclusioni stesse portate dalla scoperta del bosone di Higgs e via dicendo. Dunque? Che significa espansione metrica dell’universo? In parole povere, noi diciamo che l’universo si sta espandendo, e che sta anche accelerando, ma come possiamo essere certi di questo? Che forma ha l’universo? Per quanto ancora si espandera’? Poi cosa succedera’? Sempre nella domanda iniziale, veniva posto anche un quesito molto interessante: ma se non fosse l’universo ad espandersi ma la materia a contrarsi? L’effetto sarebbe lo stesso perche’ la mutua distanza tra due corpi aumenterebbe nel tempo dando esattamente lo stesso effetto apparente che vediamo oggi.

Come potete capire, di domande ne abbiamo fin troppe a cui rispondere. Purtroppo, e lo dico in tutta sincerita’, rendere in forma divulgativa questi concetti non e’ molto semplice. Come potete verificare, raccontare a parole che il tutto sia nato da un Big Bang, che ci sia stata l’inflazione e si sia formata la radiazione di fondo e’ cosa abbastanza fattibile, parlare invece di forma dell’universo e metrica non e’ assolutamente semplice soprattutto senza poter citare formule matematiche che per essere comprese richiedono delle solide basi scientifiche su cui ragionare.

Cerchiamo dunque di andare con ordine e parlare dei vari quesiti aperti.

Come visto in altri articoli, si dice che il Big Bang non e’ avvenuto in un punto preciso ma ovunque e l’effetto dell’espansione e’ visibile perche’ ogni coppia di punti si allontana come se ciascun punto dell’universo fosse centro dell’espansione. Cosa significa? L’esempio classico che viene fatto e’ quello del palloncino su cui vengono disegnati dei punti:

Esempio del palloncino per spiegare l'espansione dell'universo

Esempio del palloncino per spiegare l’espansione dell’universo

Quando gonfiate il palloncino, i punti presenti sulla superficie si allontanano tra loro e questo e’ vero per qualsiasi coppia di punti. Se immaginiamo di essere su un punto della superficie, vedremo tutti gli altri punti che si allontanano da noi. Bene, questo e’ l’esempio del Big Bang.

Ci sono prove di questo? Assolutamente si. La presenza della CMB e’ proprio un’evidenza che ci sia stato un Big Bang iniziale. Poi c’e’ lo spostamento verso il rosso, come viene definito, delle galassie lontane. Cosa significa questo? Siamo sulla Terra e osserviamo le galassie lontane. La radiazione che ci arriva, non necessariamente con una lunghezza d’onda nel visibile, e’ caratteristica del corpo che la emette. Misurando questa radiazione ci accorgiamo pero’ che la frequenza, o la lunghezza d’onda, sono spostate verso il rosso, cioe’ la lunghezza d’onda e’ maggiore di quella che ci aspetteremmo. Perche’ avviene questo? Questo effetto e’ prodotto proprio dal fatto che la sorgente che emette la radiazione e’ in moto rispetto a noi e poiche’ lo spostamento e’ verso il rosso, questa sorgente si sta allontanando. A questo punto sorge pero’ un quesito molto semplice e comune a molti. Come sapete, per quanto grande rapportata alle nostre scale, la velocita’ della luce non e’ infinita ma ha un valore ben preciso. Questo significa che la radiazione emessa dal corpo lontano impiega un tempo non nullo per raggiungere la Terra. Come spesso si dice, quando osserviamo stelle lontane non guardiamo la stella come e’ oggi, ma come appariva quando la radiazione e’ stata emessa. Facciamo l’esempio classico e facile del Sole. La luce emessa dal Sole impiega 8 minuti per arrivare sulla Terra. Se noi guardiamo ora il Sole lo vediamo come era 8 minuti fa. Se, per assurdo, il sole dovesse scomparire improvvisamente da un momento all’altro, noi ce ne accorgeremmo dopo 8 minuti. Ora, se pensiamo ad una stella lontana 100 anni luce da noi, quella che vediamo e’ la stella non come e’ oggi, ma come era 100 anni fa. Tornando allo spostamento verso il rosso, poiche’ parliamo di galassie lontane, la radiazione che ci arriva e’ stata emessa moltissimo tempo fa. Domanda: osservando la luce notiamo uno spostamento verso il rosso ma questa luce e’ stata emessa, supponiamo, mille anni fa. Da quanto detto si potrebbe concludere che l’universo magari era in espansione 1000 anni fa, come da esempio, mentre oggi non lo e’ piu’. In realta’, non e’ cosi’. Lo spostamento verso il rosso avviene a causa del movimento odierno tra i corpi e dunque utilizzare galassie lontane ci consente di osservare fotoni che hanno viaggiato piu’ a lungo e da cui si ottengono misure piu’ precise. Dunque, da queste misure, l’universo e’ in espansione e’ lo e’ adesso. Queste misurazioni sono quelle che hanno portato Hubble a formulare la sua famosa legge da cui si e’ ricavata per la prima volta l’evidenza di un universo in espansione.

Bene, l’universo e’ in espansione, ma se ci pensate questo risultato e’ in apparente paradosso se pensiamo alla forza di gravita’. Perche’? Negli articoli precedentemente citati, abbiamo piu’ volte parlato della gravita’ citando la teoria della gravitazione universale di Newton. Come e’ noto, due masse poste a distanza r si attraggono con una forza che dipende dal prodotto delle masse ed e’ inversamente proporzionale al quadrato della loro distanza. Ora, nel nostro universo ci sono masse distribuite qui a la in modo piu’ o meno uniforme. Se pensiamo solo alla forza di gravita’, una coppia qualunque di queste masse si attrae e quindi le due masse tenderanno ad avvicinarsi. Se anche pensiamo ad una spinta iniziale data dal Big Bang, ad un certo punto questa spinta dovra’ terminare controbilanciata dalla somma delle forze di attrazione gravitazionale. In altre parole, non e’ possibile pensare ad un universo che si espande sempre se abbiamo solo forze attrattive che lo governano.

Questo problema ha angosciato l’esistenza di molti scienziati a partire dai primi anni del ‘900. Lo stesso Einstein, per cercare di risolvere questo problema dovette introdurre nella Relativita’ Generale quella che defini’ una costante cosmologica, a suo avviso, un artificio di calcolo che serviva per bilanciare in qualche modo l’attrazione gravitazionale. L’introduzione di questa costante venne definita dallo stesso Einstein il piu’ grande errore della sua vita. Oggi sappiamo che non e’ cosi’, e che la costante cosmologica e’ necessaria nelle equazioni non come artificio di calcolo ma, in ultima analisi, proprio per giustificare la presenza di componenti non barioniche, energia oscura in primis, che consentono di spiegare l’espansione dell’universo. Se vogliamo essere precisi, Einstein introdusse la costante non per avere un universo in espansione bensi’ un universo statico nel tempo. In altre parole, la sua costante serviva proprio a bilanciare esattamente l’attrazione e rendere il tutto fermo. Solo osservazioni successive, tra cui quella gia’ citata dello stesso Hubble, confermarono che l’universo non era assolutamente statico bensi’ in espansione.

Ora, a questo punto, potremmo decidere insieme di suicidarci dal punto di vista divulgativo e parlare della metrica dell’universo, di coordinate comoventi, ecc. Ma questo, ovviamente, implicherebbe fogli di calcoli e basi scientifiche non banali. Abbiamo le prove che l’universo e’ in espansione, dunque, ad esempio, guardando dalla Terra vediamo gli altri corpi che si allontanano da noi. Come si allontanano? O meglio, di nuovo, che forma avrebbe questo universo?

L’esempio del palloncino fatto prima per spiegare l’espansione dell’universo, e’ molto utile per far capire questi concetti, ma assolutamente fuoriviante se non ci si riflette abbstanza. Molto spesso, si confonde questo esempio affermando che l’universo sia rappresentato dall’intero palloncino compreso il suo volume interno. Questo e’ concettualmente sbagliato. Come detto in precedenza, i punti si trovano solo ed esclusivamente sulla superficie esterna del palloncino che rappresenta il nostro universo.

A complicare, o a confondere, ancora di piu’ le idee c’e’ l’esempio del pane con l’uvetta che viene usato per spiegare l’espansione dell’universo. Anche su wikipedia trovate questo esempio rappresentato con una bella animazione:

Esempio del pane dell'uvetta utilizzato per spiegare l'aumento della distanza tra i punti

Esempio del pane dell’uvetta utilizzato per spiegare l’aumento della distanza tra i punti

Come vedete, durante l’espansione la distanza tra i punti cresce perche’ i punti stessi, cioe’ i corpi presenti nell’universo, vengono trascinati dall’espansione. Tornado alla domanda iniziale da cui siamo partiti, potremmo penare che in realta’ lo spazio resti a volume costante e quello che diminuisce e’ il volume della materia. Il lettore che ci ha fatto la domanda, mi ha anche inviato una figura esplicativa per spiegare meglio il concetto:

Confronto tra il modello di aumento dello spazio e quello di restringimento della materia

Confronto tra il modello di aumento dello spazio e quello di restringimento della materia

Come vedete, pensando ad una contrazione della materia, avremmo esattamente lo stesso effetto con la distanza mutua tra i corpi che aumenta mentre il volume occupato dall’universo resta costante.

Ragioniamo pero’ su questo concetto. Come detto, a supporto dell’espansione dell’universo, abbiamo la legge di Hubble, e anche altre prove, che ci permettono di dire che l’universo si sta espandendo. In particolare, lo spostamento verso il rosso della radiazione emessa ci conferma che e’ aumentato lo spazio tra i corpi considerati, sorgente di radiazione e bersaglio. Inoltre, la presenza dell’energia oscura serve proprio a spiegare questa evoluzione dell’universo. Se la condizione fosse quella riportata nell’immagine, cioe’ con la materia che si contrae, non ci sarebbe lo spostamento verso il rosso, e anche quello che viene definito Modello Standard del Cosmo, di cui abbiamo verifiche sperimentali, non sarebbe utilizzabile.

Resta pero’ da capire, e ritorno nuovamente su questo punto, che forma dovrebbe avere il nostro universo. Non sto cercando di volta in volta di scappare a questa domanda, semplicemente, stiamo cercando di costruire delle basi, divulgative, che ci possano consentire di capire questi ulteriori concetti.

Come detto, parlando del palloncino, non dobbiamo fare l’errore di considerare tutto il volume, ma solo la sua superificie. In particolare, come si dice in fisica, per capire la forma dell’universo dobbiamo capire che tipo di geometria assegnare allo spazio-tempo. Purtroppo, come imparato a scuola, siamo abituati a pensare alla geometria Euclidea, cioe’ quella che viene costruita su una superifice piana. In altre parole, siamo abituati a pensare che la somma degli angoli interni di un traiangolo sia di 180 gradi. Questo pero’ e’ vero solo per un triangolo disegnato su un piano. Non e’ assolutamente detto a priori che il nostro universo abbia una geometria Euclidea, cioe’ che sia piano.

Cosa significa?

Come e’ possibile dimostrare, la forma dell’universo dipende dalla densita’ di materia in esso contenuta. Come visto in precedenza, dipende dunque, come e’ ovvio pensare, dall’intensita’ della forza di attrazione gravitazionale presente. In particolare possiamo definire 3 curvature possibili in funzione del rapporto tra la densita’ di materia e quella che viene definita “densita’ critica”, cioe’ la quantita’ di materia che a causa dell’attrazione sarebbe in grado di fermare l’espasione. Graficamente, le tre curvature possibili vengono rappresentate con tre forme ben distinte:

Curvature possibili per l'universo in base al rapporto tra densita' di materia e densita' critica

Curvature possibili per l’universo in base al rapporto tra densita’ di materia e densita’ critica

Cosa significa? Se il rapporto e’ minore di uno, cioe’ non c’e’ massa a sufficienza per fermare l’espansione, questa continuera’ per un tempo infinito senza arrestarsi. In questo caso si parla di spazio a forma di sella. Se invece la curvatura e’ positiva, cioe’ la massa presente e’ maggiore del valore critico, l’espansione e’ destinata ad arrestarsi e l’universo iniziera’ ad un certo punto a contrarsi arrivando ad un Big Crunch, opposto al Big Bang. In questo caso la geometria dell’universo e’ rappresentata dalla sfera. Se invece la densita’ di materia presente e’ esattamente identica alla densita’ critica, in questo caso abbiamo una superficie piatta, cioe’ Euclidea, e l’espansione si arrestera’ ma solo dopo un tempo infinito.

Come potete capire, la densita’ di materia contenuta nell’universo determina non solo la forma di quest’ultimo, ma anche il suo destino ultimo in termini di espansione o contrazione. Fate pero’ attenzione ad un altro aspetto importante e molto spesso dimenticato. Se misuriamo questo rapporto di densita’, sappiamo automaticamente che forma ha il nostro universo? E’ vero il discorso sul suo destino ultimo, ma le rappresentazioni grafiche mostrate sono solo esplicative e non rappresentanti la realta’.

Perche’?

Semplice, per disegnare queste superifici, ripeto utilizzate solo per mostrare graficamente le diverse forme, come si e’ proceduto? Si e’ presa una superficie bidimensionale, l’equivalente di un foglio, e lo si e’ piegato seguendo le indicazioni date dal valore del rapporto di densita’. In realta’, lo spazio tempo e’ quadrimensionale, cioe’ ha 3 dimensioni spaziali e una temporale. Come potete capire molto facilmente, e’ impossibile sia disegnare che immaginare una superificie in uno spazio a 4 dimensioni! Questo significa che le forme rappresentate sono esplicative per far capire le differenze di forma, ma non rappresentano assolutamnete la reale forma dell’universo dal momento che sono ottenute eliminando una coordinata spaziale.

Qual e’ oggi il valore di questo rapporto di densita’? Come e’ ovvio, questo valore deve essere estrapolato basandosi sui dati raccolti da misure osservative nello spazio. Dal momento che sarebbe impossibile “contare” tutta la materia, questi valori vengono utilizzati per estrapolare poi il numero di barioni prodotti nel Big Bang. I migliori valori ottenuti oggi danno rapporti che sembrerebbero a cavallo di 1 anche se con incertezze ancora troppo elevate per avere una risposta definitiva.

Concludendo, affrontare queste tematiche in chiave divulgativa non e’ assolutamente semplice. Per quanto possibile, e nel limite delle mie possibilita’, spero di essere riuscito a farvi capire prima di tutto quali sono le verifiche sperimentali di cui disponiamo oggi e che sostengono le teorie di cui tanto sentiamo parlare. Queste misure, dirette o indirette che siano, ci permettono di capire che il nostro universo e’ con buona probabilita’ nato da un Big Bang, che sta attualmente espandendosi e questa espansione, almeno allo stato attuale, e’ destinata a fermarsi solo dopo un tempo infinito. Sicuramente, qualunque sia il destino ultimo del nostro universo, questo avverra’ in un tempo assolutamente molto piu’ grande della scala umana e solo la ricerca e la continua osservazione del cosmo ci possono permettere di fare chiarezza un poco alla volta.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Materia oscura intorno alla Terra?

7 Gen

Come sapete, e’ sempre interessante leggere le notizie nelle sezioni di scienze di alcuni giornali, si trovano sempre delle chicche di tutto rispetto. Negli ultimi giorni, sono apparsi tantissimi articoli che parlano di una nuova sensazionale scoperta. Un ricercatore dell’universita’ del Texas, tale Ben Harris, avrebbe condotto una serie di misure utilizzando i satelliti delle costellazioni gps di Galileo e Glonass.

Se volete maggiori info sul gps, su come funziona e della scienza che c’e’ sotto, abbiamo pubblicato un articolo anche su questo:

Il sistema di posizionamento Galileo

Tornando alla notizia principale, cosa si sarebbe scoperto da queste misure: utilizzando i dati inviati dai satelliti negli ultimi 6 mesi, si sarebbe evidenziata un’anomalia del valore della massa della Terra rispetto a quella comunemente conosciuta. L’entita’ di questa differenza e’ tra lo 0,005 e lo 0,008% del valore noto.

Come si spiega questa differenza?

Dal momento che il moto dei satelliti e’ determinato dall’attrazione gravitazionale che il nostro pianeta esercita, in realta’ che anche i satelliti esercitano sulla Terra, questa differenza deve essere dovuta ad un’anomalia gravitazionale. Una delle spiegazioni date da Harris e’ che sia presente un disco di materia oscura intorno al nostro pianeta, tale da influenzare l’attrazione gravitazionale.

Di materia oscura abbiamo parlato in questo articolo:

La materia oscura

Poiche’, secondo le ipotesi, questa forma non convenzionale di energia esercitrebbe attrazione gravitazionale, la sua presenza influenzerebbe il moto dei satelliti falsando appunto la massa della Terra rispetto al valore conosciuto. Per essere precisi, dalle misure condotte, questo anello, posizionato intorno all’equatore terrestre, avrebbe uno spessore di 191 Km e una larghezza di ben 70000 Km.

Piccola parentesi, oltre ai tanti giornali, anche i siti catastrofisti hanno riportato la notizia, ovviamente a modo loro e aggiungendo dettagli inutili quanto inventati. Non manca certo chi sostiene che l’anello sia stato messo li da scienziati compiacenti o da extraterrestri che stanno iniziando la fase di conquista del nostro pianeta. Non credo sia il caso di ragionare su queste osservazioni che lasciano davvero il tempo che trovano.

Detto questo, ragioniamo un attimo sulla notizia, cercando di fare qualche considerazione aggiuntiva.

Come avrete notato, ho riportato, al contrario di molti giornali, tutta la notizia al condizionale. Non e’ assolutamente una licenza di stile, ma l’ho fatto perche’ quanto riportato non e’ assolutamente certo.

Vi spiego il perche’.

Come trovate in rete, le misure in questione sono state presentate da Harris nel corso del meeting annuale dell’unione geofisica americana, anche detta AGU. Ovviamente si tratta di misure reali e scientifiche, che pero’ vanno considerate come “preliminari”.

Permettetemi una considerazione statistica. Come detto, la differenza rispetto alla massa conosciuta e’ tra lo 0,005 e lo 0,008%. Ora, tra 0,005 e 0,008, la differenza non e’ assolutamente poca. In realta’, l’ampiezza di questo intervallo ci fa capire la precisione delle misure fatte. Per essere precisi, i due valori sono ottenuti utilizzando una volta la costellazione Glonass e un’altra quella Galileo. Il fatto che due misure indipendenti diano valori cosi’ diversi, non e’ assolutamente un dettaglio trascurabile.

Detto questo, durante la stessa riunione, dopo la presentazione dei risultati da parte di Harris, e’ stato evidenziato come le misure siano in realta’ falsate perche’ mancanti di correzioni molto importanti. Quali? Nella modellizzazione del moto dei satelliti, non sono state incluse le attrazioni da parte del Sole e della Luna. Inoltre, mancano da includere le correzioni dovute alla relativita’, assolutamente necessarie, come potete leggere nell’articolo sul sistema Galileo, per ottenere risultati veritieri.

La mancanza di queste correzioni, che potrebbero modificare sostanzialmente il risultato preliminare, fa si che i dati ottenuti siano del tutto preliminari. In questo stato, e’ assolutamente fuorviante e frettoloso fare conclusioni come quelle riportate in precedenza del disco di materia oscura.

Perche’ si e’ fatto questo?

Esistono varie risposte possibili. La prima, un po’ cattiva, e’ che si e’ voluto presentare un lavoro incompleto solo per attirare un po’ di attenzione. L’altra possibilita’ e’ che si sia voluta mostrare questa differenza rispetto al valore della massa conosciuta solo per ricevere commenti utili con cui correggere il tiro. Entrambe le risposte sono possibili. Molto spesso alle conferenze si presentano risultati preliminari solo per valutare la risposta della comunita’ scientifica di riferimento. Ultimamente pero’, si puo’ avere una fuga di notizie che porta ad articoli, come quelli sui nostri giornali, che puntano ala scoperta del secolo.

Concludendo, i dati ottenuti mostrano ovviamente una differenza della massa della Terra rispetto a quella nota. Questa discrepanza potrebbe essere dovuta ad un errore di calcolo, a correzioni molto importanti non ancora conteggiate o, anche, alla presenza di materia oscura intorno alla Terra. Personalmente, credo sia presto per parlare di quest’ultima ipotesi. Questa storia, e lo dico a malincuore, mi ricorda molto quella della velocita’ dei neutrini misurata ad Opera, poi smentita con la testa tra le gambe.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Buco dell’ozono: neanche sanno leggere!

27 Ott

Come ricorderete, qualche tempo fa avevamo dedicato un articolo specifico su uno dei problemi di cui tanto si era parlato negli anni precedenti e che oggi, apparentemente, non fa piu’ notizia: il buco dello strato di ozono:

Che fine ha fatto il buco dell’ozono?

Purtroppo, anche per quanto riguarda le notizie, assistiamo ad un fenomeno di moda. Notizie che tirano di piu’ in un determinato momento o che, e’ brutto dirlo ma e’ la verita’, possono essere utilizzate per inculcare nella teste delle persone qualche idea piu’ o meno giusta, riempiono per lunghi periodi le pagine dei giornali per poi scomparire d’improvviso. Questa e’ la sorte che e’ toccata al buco dell’ozono, non come fenomeno fisico, bensi’ come importanza e seguito dell’informazione.

Come visto nel nostro precedente articolo, la messa al bando dei CFC insieme ad una politica saggia, anche se osteggiata da diversi paesi industrializzati, ha permesso di ottenere una significativa riduzione del buco dell’ozono. Questo ovviamente non e’ un punto di arrivo, ma solo un buon passaggio intermedio. Come sapete, nonostante i numerosi sforzi, per ritornare nelle condizioni di qualche anno fa, sara’ necessario mantenere ed intensificare una buona politica.

Questi aspetti ci fanno capire quanto vivo sia il nostro pianeta ma soprattutto quali e quanti danni possiamo arrecare con uno sfruttamento non razionale delle risorse che abbiamo a disposizione.

Detto questo, perche’ torno sull’argomento?

Ve lo racconto come l’ho vissuto. Come sapete, molto spesso, anche per pescare notizie fresche e per valutare il trend del momento, mi ritrovo a leggere siti complottisti e catastrofisti. Proprio ieri mi sono imbattutto in una notizia riguardante il buco dell’ozono. In una diversa pagina del browser avevo pero’ aperto un giornale nazionale da cui leggevo notizie.

Bene questo confronto mi ha mostrato una situazione davvero grottesca.

Per farvela vedere cosi’ come l’ho vissuta io, vi riporto prima uno screenshot del sito catastrofista:

Screenshot del sito catastrofista

Screenshot del sito catastrofista

e poi la pagine del giornale nazionale:

Screenshot del giornale online

Screenshot del giornale online

Notato niente di strano?

Nel sito catastrofista si legge: “Il buco dell’ozono sopra l’Antartide ha raggiunto la dimensione massima”, mentre nel giornale si legge “NASA, si riduce il buco dell’ozono in Antartide”. Scusate, ma leggendo queste cose non possiamo fare altro che ridere e constatare ancora una volta quanto assurdi siano certi siti.

Ma il buco dell’ozono si e’ ridotto o no?

Ovviamente si. Il nostro precedente articolo era datato 8 aprile 2013. Dalle nuove misurazioni condotto a settembre di quest’anno, si e’ evidenziato come il buco dell’ozono si sia ridotto ulteriormente. Ovviamente e’ una buona notizia e per dimsotrarvi quanto affermato, vi metto a confronto la misurazione del precedente articolo con quella di settembre:

Confronto tra la misura presentata nell'articolo di Aprile e quella di Settembre

Confronto tra la misura presentata nell’articolo di Aprile e quella di Settembre

Come anticipato, questo ottimo risultato e’ una misura del trend di riduzione del buco, che ovviamente deve continuare in questo modo con la giusta politica di gestione delle immissioni in atmosfera.

Prima di chiudere, vorrei aggiungere altro. Ovviamente, ho letto con interesse l’articolo del sito catastrofista. Come al solito, a parte una serie interminabile di cavolate scientifiche, l’articolo si chiude con una frase davvero ambigua. Ecco quanto potete leggere:

Tuttavia, quest’anno il buco dell’ozono risulta leggermente più stretto rispetto agli anni passati, e la densità di ozono nell’atmosfera sopra il polo non cade ad un livello critico. Nel 2013, alla fine di Settembre 2013, i livelli di ozono sopra l’Antartide sono scesi a circa 25 unità Dobson, mentre negli anni precedenti hanno visto una riduzione critica inferiore a 10 unità. Probabilmente, la lotta contro le sostanze dannose per l’ozono sta finalmente cominciando a dare risultati.

Quindi, questo buco aumenta o diminuisce? Ovviamente, come detto in questa ultima frase, diminuisce e anche notevolmente. Capite dunque quanto assurdi siano questi articoli ma soprattutto quanto sia importante leggere con attenzione quello che trovate. Molto spesso, ed e’ successo anche a me, tendiamo a leggere velocemente una notizia o a non leggere fino in fondo gli articoli. In alcuni casi, si rischia di capire fischi per fiaschi e di farsi un’idea sbagliata. Questo ovviamente non vale per l’articolo catastrofista che ovviamente puntava solo a seminare idee sbagliate consapevole che molti non si sarebbero accorti delle incongruenze o delle assurdita’ sparate.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Louisiana: il sinkhole che inghiotte la foresta

11 Ott

Nella specifica sezione:

Hai domande o dubbi?

una nostra cara lettrice ci ha chiesto di parlare dell’impressionante sinkhole che si e’ aperto in Louisiana gia’ da qualche tempo.

Come ricorderete, di sinkhole abbiamo parlato diverse volte in queste pagine:

Enorme cratere si apre in Cina

Enormi voragini si aprono in Florida

Numerosi Sinkhole a Samara

I “tappi” del Mar Morto

Come visto, si tratta di immense e profonde voragini che si aprono nel terreno e che, in alcuni casi, hanno portato vittime e anche numerosi danni.

Un’analisi specifica e unificata di questo fenomeno non e’ di per se possibile. Come visto negli articoli precedenti, ciascuno e’ un caso a se’. Sui soliti siti catastrofisti non si fa altro che puntare il dito contro questo fenomeno parlando sempre e solo di attivita’ umana, ad esempio, attraverso la tecnica del fracking, oppure ci si concentra su cause naturali-estreme per mostrare la ribellione in corso del nostro pianeta e le immani catastrofi ormai alle porte.

Gia’ negli articoli precedenti, abbiamo cercato di ragionare sul fenomeno, mostrando prima di tutto come l’approccio estremo, sia in un caso che nell’altro, del fenomeno dei sinkhole sia sbagliato. Forse per natura umana, anche in questo caso si trovano due schieramenti opposti; chi “tifa” per le cause antropiche e allo sfruttamento non coscienzioso del pianeta e chi, invece, parla di cause del tutto naturali, normali, non pericolose.

Come nostra natura, dobbiamo sempre ragionare sul singolo fatto, analizzando il caso specifico e senza partire con preconcetti che finirebbero per deviare il nostro pensiero verso una verita’ piuttosto che un’altra.

Ciascun sinkhole nel mondo e’ un caso a se’. Esistono delle zone specifiche sulla Terra in cui questo fenomeno e’ noto e frequente da sempre. Per farvi degli esempi, la Cina e la Florida sono zone di questo tipo. Qui, i sinkhole sono conosciuti e noti e, piu’ o meno frequentemente, si ripropongono con intensita’ variabile in base al caso.

Esiste poi il problema dello sfruttamento del terreno. Anche su questo punto abbiamo speso diversi articoli. Se, ad esempio, provate a cercare “fracking” nel motore di ricerca del blog, trovate diversi articoli di analisi della tecnica in cui si valutano tutti gli aspetti. Alcuni casi specifici di doline possono essere causati da uno svuotamento di un terreno non adatto perche’ non consolidato. Svuotando vaste zone nel sottosuolo, e’ possibile che crolli la parte superiore, creando appunto un fenomeno di tipo sinkhole.

Questa lunga introduzione al problema, e’ necessaria perche’, come sempre avviene, anche su questo tipo di notizie, la speculazione e’ sempre troppo forte e rischia di creare panico da un lato o di tranquillizzare troppo dall’altro.

Venendo al caso della Louisiana, credo sia interessante parlare di questo fenomeno, se non altro per l’entita’ degli eventi che si stano registrando. Gia’ nelle prime fasi, la dolina creata aveva un diametro di centinaia di metri e, quasi istantaneamente si e’ riempita di acqua creando una sorta di lago.

I crolli, o meglio l’aumento dell’apertura del sinkhole, non si sono mai arrestati a partire dalla meta’ del 2012 e oggi si parla di un’area dell’ordine di decine di campi da calcio con profondita’ stimate anche di 200 metri.

Come potete facilmente immaginare, visti i numeri in gioco, in questa zona il fenomeno del sinkhole sta creando non pochi problemi. Negli ultimi tempi e’ stato anche richiesto lo stato di emergenza naturale visto il trend di aumento della dolina.

Per farvi capire l’entita’ del fenomeno, vi riporto un video in cui si vedono diversi alberi inghiottiti in un attimo dal sinkhole che si allarga:

Come visto, nel giro di pochi secondi, diversi alberi si sono visti sprofondare completamente all’interno di questo enorme pozzo.

Per quanto riguarda l’origine di questa voragine, il discorso non e’ affatto semplice, ne tantomeno compreso a pieno.

Diversi abitanti del luogo riportano l’osservazione di fuoriuscita di gas dalle profondita’. Fenomeno osservabile dall’emissione di bolle sulla superifcie dell’acqua.

L’interpretazione complottista del fenomeno e’ molto semplice. Data l’amissione di gas dal sottosuolo, si parla di attivita’ di fracking non sicura condotta in profondita’ e che avrebbe creato il crollo del terreno. In questo caso, la fuoriuscita di gas sarebbe dovuta alle sacche di gas naturale contenute nel sottosuolo.

In realta’, questa affermazione non e’ corretta. L’analisi condotta sui gas fuoriusciti dal terreno, hanno mostrato che si tratta di gas naturale, molto probabilmente proveniente da sacche interne e che, grazie ai crolli, ha trovato una via di fuga.

Dunque si tratta di un crollo naturale?

Anche questa interpretazione non e’ del tutto corretta. Dagli studi condotti all’interno, si sono mostrate zone ad alta pressione con valori compatibili a quelli delle tubazioni di gas naturale che passano sotto il terreno. Cosa significa questo? Che, in almeno alcuni punti, ci sono delle perdite ad alta pressione. Prorprio per questo motivo, e’ stato chiesto alle compagnie che possiedono la rete di scaricare la pressione della pipe line. Ora, se il crollo sia dovuto a queste perdite o se queste siano una conseguenza delle perdite, non e’ certo. Personalmente, trovo difficile pensare che una perdita localizzata, anche se ad alta pressione, possa destabilizzare a questi livelli il terreno.

Come capite bene, non e’  stato ancora possibile capire quali siano le reali cause di questo sinkhole o quali le conseguenze. In tutto questo poi, c’e’ sempre da considerare, e non e’ assolutamente esclusa, l’origine del tutto naturale della formazione, cosi’ come avviene in diverse parti del pianeta e anche negli USA.

Quello che desta maggior preoccupazione nella zona, e’ un deposito sotterraneo di stoccaggio di butano, in cui erano stoccati circa un milione e mezzo di barili. Come potete facilmente immaginare, se i crolli arrivassero al deposito, si potrebbero avere conseguenze ben piu’ gravi, non solo a livello di salute per le fuorisucite di gas dai barili. Proprio per questo motivo, diversi barili sono gia’ stati portati via e si sta provvedendo a svuotare il deposito almeno finche’ l’espansione del sinkhole sara’ in corso.

Concludendo, il sinkhole della Louisiana e’ davvero incredibile per quanto riguarda le dimensioni e i ritmi di crescita che si stanno registrando. L’origine di questa dolina non e’ al momento chiara. Vi possono essere cause naturali, cosi’ come qualcosa indotto dall’attivita’ umana di estrazione del gas. Diverse leggende girano su questo sinkhole, e moltissimi fenomeni vengono descritti soprattutto su internet. Molte di queste sono leggende create appositamente per tenere alta l’attenzione. Visti i numeri in gioco e le dimensioni del fenomeno, non credo sia necessario inventare storie per tenere alta l’attenzione su quanto sta accadendo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Climatizzatore …. quanto ci costi?

6 Ago

Nell’ottica del risparmio energetico, non solo per fare un favore all’ambiente ma anche al nostro portafoglio, qualche tempo fa avevamo analizzato in dettaglio i consumi dei nostri elettrodomestici:

Elettrodomestici e bolletta

In particolare, avevamo quantificato il reale consumo dei comuni sistemi casalinghi, convertendo il tutto in termini di consumo. Come sappiamo bene, nella nostra bolletta elettrica, viene riportato un consumo in KWh, mentre le etichette e le caratteristiche degli apparecchi elettronici ci forniscono un valore in potenza, cioe’ in Watt.

Detto questo, con la calura estiva di questi giorni, vorrei riprendere questi concetti, analizzando pero’ il discorso condizionatori. Se andate in negozio intenzionati a comprare un sistema di questo tipo, vi trovate di fronte una vasta gamma di prodotti con caratteristiche diverse ma, soprattutto, la capacita’ refrigerante dei condizionatori e’ espressa in Btu/h.

Cerchiamo dunque di fare un po’ di chiarezza, capendo meglio questi concetti.

Prima di tutto, la scelta principale che dovete affrontare e’ quella relativa alle differenze: con o senza pompa di calore, inverter o ON/OFF.

Cosa significa?

Per quanto riguarda la pompa di calore, si tratta semplicemente di condizionatori che possono riscaldare oltre a rinfrescare. Detto proprio in parole povere, lo stesso sistema e’ in grado di invertire il ciclo termico, producendo un salto positivo o negativo rispetto alla temperaratura iniziale. Detto ancora piu’ semplicemente, avete la possibilita’ di far uscire aria calda o fredda per riscaldare o rinfrescare.

Convengono questi sistemi?

Se avete un impianto di riscaldamento in casa con caloriferi, pannelli radianti, ecc, allora tanto vale comprare solo un condizionatore, cioe’ qualcosa in da utilizzare in estate per rinfrescare.

Cosa significa invece inverter o ON/OFF?

Qui spesso trovate un po’ di confusione in giro. In realta’, la distinzione e’ molto semplice. Un sistema ON/OFF funziona, come dice il nome stesso, in modalita’ accesa o spenta. Cerchiamo di capire meglio. Impostate una temperatura, il sitema si accende e comincia a buttare aria fredda. Quando la temperatura della sala e’ arrivata a quella desiderata il sistema si spegne. A questo punto, quando la temperatura si rialza, il sistema riparte e la riporta al valore impostato. Al contrario, un sistema inverter e’ in grado di modulare la potenza del compressore funzionando a diversi regimi. Se volete, mentre nel primo caso avevamo un sistema binario acceso o spento, qui c’e’ tutta una regolazione della potenza del compressore gestita da un microprocessore. Quando la temperatura si avvicina a quella impostata, la potenza del condizionatore scende riducendo i giri del compressore. In questo modo, con un piccolo sforzo, si riesce a mantenere la temperatura sempre intorno, con piccole fluttuazioni, al valore impostato.

Molto spesso, leggete che gli inverter sono migliori, garantiscono un notevole risparmio energetico, ecc. A costo di andare contro corrente, sostengo invece che questo non e’ sempre vero. Mi spiego meglio. Se avete intenzione di tenere acceso il condizionatore per diverese ore, allora il sistema inverter vi garantisce un consumo minimo, arrivati intorno al valore desiderato. Al contrario, un ON/OFF quando parte, parte sempre a pieno regime. Se pero’ avete intenzione di tenere acceso il condizionatore per poco tempo, perche’ volete accenderlo solo in determinati momenti della giornata o per un paio d’ore mentre vi addormentate, allora il sistema inverter funzionerebbe, dal momento che prendiamo tutto l’intervallo necessario ad abbassare la temperatura, esattamente come un ON/OFF, cioe’ sempre a pieno regime. In questo caso, il consumo sara’ esattamente lo stesso e non riuscirete assolutamente a rientrare della maggiore spesa necessaria all’acquisto di un inverter.

Un commerciante onesto dovrebbe sempre chiedere il funzionamento richiesto al condizionatore e consigliare la migliore soluzione.

Detto questo, andiamo invece ai BTU/h, cioe’ questa arcana unita’ di misura con cui vengono classificati i condizionatori.

BTU sta per British Thermal Unit ed e’ un’unita’ di misura anglosassone dell’energia. Come viene definita? 1 BTU e’ la quantita’ di calore necessaria per alzare la temperatura di una libbra di acqua da 39F a 40F, cioe’ da 3.8 a 4.4 gradi centigradi. Come capite anche dalla definizione, e’ un’unita’ di misura del lavoro, che nel Sistema Internazionale e’ il Joule, che utilizza solo unita’ anglosassoni.

Perche’ si utilizza?

In primis, per motivi storici, poi perche’, per sua stessa definizione, indica proprio il calore necessario per aumentare, o diminuire, la teperatura di un volume di un fluido, in questo caso acqua.

Bene, ora pero’ sui condizionatori abbiamo i BTU/h. Questa indica semplicemente la quantita’ di BTU richiesti in un’ora di esercizio. Possiamo convertire i BTU/h in Watt dal momento che un lavoro diviso l’unita’ di tempo e’ proprio la definizione di potenza. In questo caso:

3412 BTU/h –> 1KW

A questo punto, abbiamo qualcosa di manipolabile e che e’ simile all’analisi fatta parlando degli altri elettrodomestici.

Compriamo un condizionatore da 10000 BTU/h e questo equivale ad un sistema da 2.9KW. Quanto ci costa tenerlo acceso un’ora? In termini di bolletta, in un’ora consumiamo 2.9KWh. Se assumiamo, come visto nel precedente articolo, un costo al KWh di 0.20 euro, per tenere acceso questo sistema servono 0.58 euro/h.

0.58 euro/h? Significa 6 euro per tenerlo acceso 10 ore. In un bimestre estivo, questo significherebbe 360 euro sulla bolletta?

Questo e’ l’errore fondamentale che spesso viene fatto. Il valore in KWh calcolato e’ in realta’ quello necessario per rinfrescare, o riscaldare se abbiamo la pompa di calore, il nostro ambiente. Quando comprate un condizionatore, c’e’ anche un ‘altro numero che dovete controllare, il cosiddetto EER, cioe’ l’Energy efficiency ratio. Questo parametro indica semplicemente l’efficienza elettrica del sistema quando questo lavora in raffreddamento. Analogamente, per i condizionatori con pompa di calore, trovate anche un indice COP che invece rappresenta il rendimento quando si opera in riscaldamento.

Detto proprio in termini semplici, quando assorbite 1 KWh dalla rete, il condizionatore rende una quantita’ pari a 1KWh moltiplicato per il EER. Facciamo un esempio. Valori tipici di EER sono compresi tra 3 e 5. Se supponiamo di comprare un condizionatore con EER pari a 4, per ogni KWh assorbito dalla rete, il sistema ne fornisce 4 sotto forma di energia frigorifera.

Se adesso riprendiamo il calcolo di prima, dai valori inseriti, se il nostro condizionatore ha un EER pari a 4, per tenerlo acceso un’ora spenderemo:

0.58/4 = 0.15 euro

Se confrontiamo questi valori con quelli degli altri elettrodomestici visti nell’articolo precedente, ci rendiamo conto che il condizionatore e’ un sistema che “consuma” molta energia.

Ultima considerazione, fino a questo punto abbiamo parlato di BTU/h, prendendo un numero a caso di 10000. In commercio trovate sistemi con valori tra 5000 e 30000, o anche piu’, BTU/h. Volete rinfrescare una camera, che condizionatore dovete prendere?

In realta’, la risposta a questa domanda non e’ affatto semplice. Come potete immaginare, la potenza del sistema che dovete prendere dipende prima di tutto dalla cubatura dell’ambiente, ma ache da parametri specifici che possono variare molto il risultato: superficie vetrata ed esposizione, superficie di muro ed esposizione, eventuale coibentazione della stanza, se ci sono appartamenti sopra e sotto, se siete sotto tetto, ecc.

Giusto per fornire dei valori a spanne, potete far riferimento a questa tabella:

LOCALE DA CLIMATIZZARE (m²)

POTENZA NOMINALE RICHIESTA (BTU)

da 0 a 10

5000

da 10 a 15

7000

da 15 a 25

9000

da 25 a 40

12000

da 40 a 50

15000

da 50 a 60

18000

da 60 a 80

21000

da 80 a 100

24500

da 100 a 130

35000

da 130 a 160

43000

da 160 a 180

48000

da 180 a 200

65000

Come vedete, in linea di principio, per rinfrescare con un salto termico accettabile una stanza da 20 m^2, vi basta un sistema da 9000 BTU/h.

Concludendo, prima di acquistare un condizionatore, si devono sempre valutare le caratteristiche richieste dall’utilizzo che vogliamo farne e dall’ambiente in cui vogliamo utilizzarlo. Detto questo, i parametri specifici del sistema, possono far variare notevolmente il consumo effettivo del condizionatore, influendo in modo significativo sulla bolletta che poi andremo a pagare.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.