Tag Archives: utilizzo

Due parole sulla stampa in 3D

5 Giu

Diversi utenti mi hanno contattato per avere un approfondimento sulle stampanti 3D. Oggi come oggi, questo tipo di tecnologia e’ entrato pesantemente nella nostra vita e tutti noi, almeno una volta, abbiamo sentito parlare di questa tecnologia anche se, a volte, si ignora completamente il processo realizzativo alla base di questi nuovi strumenti.

Se provate a cercare in rete, trovate una definizione della stampa 3D molto semplice: si tratta dell’evoluzione naturale della classica stampa in 2D, utilizzata pero’ per realizzare oggetti reali in materiali diversi.

Personalmente, trovo questa definizione molto semplicistica e assolutamente riduttiva. Perche’? Semplice, non possiamo confrontare una stampa 2D con una 3D proprio perche’ relativa ad una concezione di realizzazione estremamente diversa. Detto molto semplicemente, sarebbe come voler paragonare la pittura con la scultura, parlando di quest’ultima come la naturale evoluzione della prima.

Cerchiamo di andare con ordine e capire meglio le basi di questo processo. Se nella stampa 2D possiamo riprodurre su un foglio di carta una qualsiasi immagine, in quella 3D il prodotto finale ara’ un oggetto solido, reale e tridimensionale. Un esempio? Disegnate al pc una tazza. Se stampate il vostro disegno con una normale stampante avrete la riproduzione di quell’immagine appiattita su una superficie. Utilizzando invece una stampante 3D il vostro risultato sara’ una vera e propria tazza che potete vedere, toccare e, perche’ no, anche utilizzare.

Solo fino a qualche anno fa, un processo del genere sarebbe stato considerato fantascientifico e, se ci avviciniamo ai giorni nostri, retaggio di costosi macchinari riservati alle aziende piu’ grandi. Oggi invece la tecnologia della stampa 3D e’ divenuta “quasi” di uso comune grazie alla notevole contrazione dei prezzi di queste stampanti, risultato di massicci investimenti fatti da numerose compagnie pubbliche e private.

Pensate stia scherzando? Facendo una ricerca su internet, cominciate a trovare stampanti in grado di riprodurre oggetti fino a decine di centimetri per lato, ad un prezzo inferiore ai 1000 euro. Pensate sia ancora tanto? Nel giro di pochissimi anni, i prezzi di questi dispositivi si sono ridotti in media di un fattore dieci. Come anticipato, questo e’ stato possibile grazie ai notevoli investimenti fatti nel settore ricerca sia pubblico che privato. Per darvi una stima, il prezzo delle azioni delle maggiori case costrttrici di questi dispositivi e’ cresciuto fino a cinque volte facendo riconoscere queste aziende tra le migliori nei listini di borsa.

Visto il sicuro interesse in questi dispositivi, cerchiamo ora di capire meglio come avviene il processo realizzativo di un oggetto a tre dimensioni.

600x407xreplicator.jpg.pagespeed.ic.e5HWV8nSTh

Come potete facilmente immaginare, le tecniche realizzative utilizzate sono diverse ma per comprendere il meccanismo in modo semplice, concentriamoci su quello maggiormente utilizzato e piu’ intuitivo. Come nelle stampanti tradizionali, ci sono delle cartucce contenenti il materiale con cui sara’ realizzato il nostro oggetto. Nella versione piu’ comune, questo materiale sara’ ABS o PLA, due polimeri che per semplicita’ possiamo immaginare come delle plastiche. Normalmente le cartucce contengono questi materiali in forma di polvere o di fili.

Bene, abbiamo il materiale nelle cartucce, poi? Vi ricordate le vecchie stampanti che imprimevano una riga alla volta sul foglio che via via veniva portato avanti? Il processo e’ molto simile a questo. Nella stampa 3D l’oggetto viene realizzato per strati paralleli che poi crescono verso l’alto per realizzare i particolari del corpo che vogliamo stampare. L’esempio classico che viene fatto in questi casi e’ quello dei mattoncini dei LEGO. Strato per strato costruite qualcosa “attaccando” tra loro i vari pezzi. Nella stampa 3D ogni strato viene depositato sull’altro con un processo a caldo o di incollaggio a volte mediante l’ausilio di un materiale di supporto.

Compreso il processo alla base, la prima domanda da porci e’ relativa alla risoluzione di queste stampanti. In altre parole, quanto sono precisi i pezzi che posso realizzare? A differenza della stampa 2D, in questo caso dobbiamo valutare anche la precisione di costruzione verticale. Per quanto riguarda il piano orizzontale, la risoluzione della stampa dipende dalla “particella” di materiale che viene depositata. In verticale invece, come facilmente immaginabile, la precisione del pezzo dipendera’ dallo spessore dello strato che andate a depositare. Piu’ lo strato e’ sottile, maggiore sara’ la risoluzione della vostra stampa. Normalmente, per darvi qualche numero, parliamo di risoluzioni verticali dell’ordine del decimo di millimetro.

A questo punto, abbiamo capito piu’ o meno come funzionano queste stampanti, abbiamo visto che i prezzi sono in forte calo ma la domanda principale resta sempre la stessa: cosa ci facciamo con queste stampanti? In realta’, la risposta a questa domanda potrebbe essere semplicemente “tantissimo”. Cerco di spiegarmi meglio. Le stampanti 3D sono gia’ utilizzate e sotto attento studio di ricerca per il loro utilizzo nei piu’ svariati settori.

Qualche esempio?

Prima di tutto per le aziende che si occupano della realizzazione dei protitipi o di produzione su grande scala di oggetti di forma piu’ o meno complessa. In questo caso vi riporto direttamente la mia esperienza in questo settore. Ai Laboratori Nazionali di Frascati disponiamo di una stampante 3D con una buona risoluzione per la stampa di oggetti in ABS. Cosa ci facciamo? Moltissime parti dei rivelatori di particelle possono essere stampati direttamente in 3D saltando tutta la difficile fase della realizzazione con macchine utensili. Inoltre, ricorrere alla stampa 3D, anche solo in fase prototipale, consente di poter valutare al meglio la correttezza dell’oggetto pensato e la sua funzionalita’ nei diversi settori.

Oltre a queste applicazioni, le stampanti 3D possono essere utilizzate in medicina forense per la ricostruzione di prove danneggiate, in oreficeria, nel settore medico per la ricostruzione ossea, in paleontologia per la preparazione di modelli in scala di parti rinvenute e cosi’ via per moltissimi settori in cui la stampa 3D puo’ velocizzare notevolmente il processo realizzativo ma soprattutto con costi molto contenuti rispetto alla lavorazione classica.

Oggi come oggi, la ricerca in questo settore e’ fortemente orientata allo studio dell’utilizzo di materiali piu’ disparati. Per darvi qualche idea si va dal tessuto osseo alle plastiche, dalla roccia all’argilla e cosi’ via. Come potete capire immediatamente, piu’ materiali si riescono ad utilizzare, maggiori sono i settori interessati in questi prodotti.

Anche se poco noto al grande pubblico, in rete ci sono gia’ moltissimi siti e forum che si occupano di scambio open source di modelli 3D da stampare o anche solo di stampa su commissione conto terzi. Se ripensiamo al paragone con le stampanti classiche, se in questo caso bastava una qualsiasi immagine, per utilizzare una stampante 3D e’ necessario realizzare un modello tridiemnsionale da dare in pasto alla stampante. Per poter far questo ci sono ovviamente potenti software CAD ma anche tanti programmi gratuiti piu’ semplici gia’ scaricabili dalla rete.

Alla luce di quanto discusso, sicuramente il discorso sulle stampanti 3D e’ destinato ancora a crescere. In un futuro non troppo lontano, potremmo avere a disposizione strumenti domestici per realizzare l’oggetto che desideriamo. Inutile nascondere che questo qualche sospetto potrebbe destarlo. Solo pochi mesi fa si e’ molto discusso del progetto di una pistola in plastica perfettamente funzionante ed in grado di uccidere realizzabile con una stampante 3D ed i cui progetti erano finiti in rete. A parte questo “particolare”, quello delle stampanti 3D e’ sicuramente un mercato destinato a crescere e su cui moltissime aziende stanno fortemente puntando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

All’autogrill pipi’ e benzina tutto insieme

17 Nov

Da anni siamo afflitti dal caro benzina. La spesa necessaria per il pieno della nostra macchina continua ad aumentare nel tempo, complici le guerre, la crisi, gli screzi tra Stati, ecc. Tutte cose cosi’ lontane, anche solo apparentemente, da noi e che necessariamente fanno aumentare il prezzo del carburante.

Quante volte avrete sentito dire la frase: “la benzina costa troppo, quanto sarebbe bello farla andare a pipi’!”.

La frase non e’ assolutamente sparata a caso, anzi qualcuno ci ha pensato veramente.

Lo scorso fine settimana, durante la Fiera del Lavoro Verde a Porto Conte in Sardegna, un imprenditore locale ha presentato proprio un motore alimentato ad urina.

Forse vi sembrera’ uno scherzo, ma e’ proprio cosi’.

Ad essere sinceri, l’imprenditore sardo Franco Lisci ha presentato due diversi motori alimentati con lo speciale carburante. Uno dei due motori puo’ essere utilizzato per il trasporto, auto, moto, camion e anche barche, mentre il secondo e’ studiato ed ottimizzato per essere utilizzato come gruppo elettrogeno. In particolare, questo secondo motore e’ pensato per alimentare apparecchi domestici come forni, pc, lavatrici, ecc.

Cerchiamo pero’ di dare qualche dettaglio in piu’ su questa possibile svolta ecologica dei nostri motori.

Come e’ facile immaginare, questo speciale carburante e’ talmente diffuso e disponibile che gia’ in molti avevano provato ad utilizzarlo come combustibile. Questa applicazione presentava pero’ delle limitazioni assolutamente non banali da superare.

Qualche anno fa, ad esempio, venne proposta una cella elettrolitica in grado di separare l’urina in azoto, acqua e idrogeno ed alimentare cosi’ piccoli motori. Analoga cosa venne proposta diverse volte per i motori elettrici. Il problema principale di queste soluzioni era la scarsa autonomia, la rumorosita’ dei motori realizzati ma soprattutto la manutenzione degli stessi. Utilizzare urina all’interno dei motori creava una patina di sostanze inquinanti in grado di rovinare irrimediabilmente i dispositivi.

L’idea innovativa dell’imprenditore sardo e’ stata appunto quella di realizzare uno speciale filtro per bloccare gli inquinanti. Piccola premessa, Franco Lisci e’ coinvolto con la sua azienda nel progetto Casa Verde CO2.0, rete di diverse ziende sarde che si scambiano idee e progetti per trovare soluzioni verdi per il futuro. Proprio grazie a questa collaborazione e’ stato possibile realizzare il filtro fondamentale per  questo motore.

Lo speciale filtro, chiamato Orilana Smart, e’ un semplice tampone realizzato al 100% con lana di pecora, ovviamente proveniente dalla Sardegna. Con questo abbiamo dunque un prodotto e un’innovazione completamente made in Italy.

Fate pero’ attenzione ad una cosa, se provate a leggere gli articoli in rete che parlano di questa innovazione, trovate delle idee un po’ confuse. Molti giornali, forse leggendo frettolosamente la notizia, non ha capito a pieno come funziona e cercano di farvi credere che il futuro dei trasporti sara’ questo:

1-carburante-urina

Prima di tutto, per la legislazione italiana, una pratica del genere e’ illegale. Non e’ possibile infatti sostituire completamente la tipologia di carburante per motivi ambientali, o forse economici. I due motori proposti dall’imprenditore sardo sono invce gia’ stati regolamentati per legge ed approvati dallo Stato italiano. Per ottenere questo risultato, l’urina non viene utilizzata come carburante, bensi’ come additivo. Questo consente, come detto, di rendere legali i motori, ma soprattutto di ottimizzare la resa.

Quali vantaggi si ottengono utilizzando questi motori?

Come dichiarato dallo stesso Franco Lisci, il risparmio sarebbe del 35% sui motori a benzina, del 60% su quelli a gasolio e anche fino all’80% sui motori a gas. Inoltre, questo sistema sarebbe perfettamente utilizzabile anche per i camion e le barche.

Grazie all’utilizzo di questo speciale motore, i prodotti di scarico delle automobili sarebbero molto meno inquinanti ed inoltre verrebbe prodotta, come uscita del filtro, acqua ricca di sostanze nutritive, utilizzabile dunque nell’agricoltura per irrigare.

Diversi agricoltori sardi hanno gia’ fatto richiesta per utilizzare questi motori nelle loro aziende alimentandoli mediante l’urina degli animali, perfettamente compatibile con il sistema e simile a quella umana,

Detto questo, quella presentata in Sardegna potrebbe rappresentare una buona innovazione nel mercato dei motori. Come detto, non pensate di poter aprire il tappo della vostra auto e decidere di fare un pieno natuale. Si tratta di motori prototipali che necessiteranno di studi prima di poter essere applicati su vasta scala. Sicuramente, le premesse sono ottime e soluzioni di questo tipo potranno dare un contributo importantissimo per la lotta all’inquinamento dei motori.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

ENI green data center

5 Nov

Nella sezione:

Hai domande o dubbi?

un nostro affezionato lettore ci ha chiesto delucidazioni sulla nuova struttura chiamata ENI green data center che e’ stata inaugurata solo pochi giorni fa.

Come spesso accade in Italia, la filosofia e la costruzione, non che la messa in opera, di questo importante polo e’ passato molto in sordina con solo pochi articoli su qualche giornale specializzato. Questo e’ completamente assurdo. La struttura rappresenta un’innovazione tecnologica molto importante a livello mondiale e meriterebbe, molto piu’ di tante notizie che riempono i giornali tutti i giorni, di essere pubblicizzata.

Per sapere qualcosa su questo centro, potete andare direttamente sul sito internet:

ENI green data center

Se proprio devo essere sincero, e questo e’ in primis un monito per i tecnici dell’ENI che hanno poco curato questo aspetto, leggendo il sito non e’ chiaramente comprensibile lo scopo di questo centro. Forse, anche questo aspetto ha contribuito alla poca pubblicita’ ricevuta sui giornali.

Cerchiamo dunque di supplire a questa mancanza di informazioni provando a spiegare quali sono gli obiettivi e l’eccellenza di questo centro tutto made in Italy.

L’ENI green data center sorge vicino Pavia, precisamente a Ferrera Erbognone, ed e’ stato inaugurato il 29 ottobre. Questa data cade poco meno di due anni dopo la posa della prima pietra. Anche questa informazione ci fa capire quanto il progetto sia stato seguito in maniera puntuale e rapida.

A cosa serve?

Questa e’ ovviamente la domanda principale. Per capirlo, cerchiamo di fare un ragionamento insieme. Ogni qual volta si richiede un calcolo molto complesso, e’ necessario disporre di una potenza di calcolo notevole. Con questo intendo dire che per risolvere algoritmi complessi e lunghi e’ necessario disporre di tanti pc equivalenti che lavorano insieme. Ovviamente, la cosa sarebbe possibile anche con il vostro pc di casa, ma, probabilmente, richiederebbe anni e anni per poter arrivare ad un risultato. Bene, per velocizzare il tutto, si utilizzano dei potenti centri di calcolo che racchiudono molte CPU, cioe’ molti processori, che lavorano in simultanea dividendosi il lavoro. In questo modo, potete raggiungere lo stesso risultato in brevissimo tempo. Questo e’ quello che viene indicato come potenza di calcolo.

Chi utilizza questi centri?

In realta’, questi speciali centri tecnologici trovano applicazione in tantissimi settori anche profondamente diversi tra loro. Qualche esempio? Nella fisica, scusate l’esempio scontato ma e’ quello che conosco meglio, i centri di calcolo servono per poter analizzare i dati, impacchetarli secondo una struttura facilmente leggibile dall’utente finale ma anche per lavorare in tampi velocissimi per produrre quello che viene chiamato un “trigger”, cioe’ decidere in tempo reale se un particolare evento raccolto e’ interessante per la fisica, e quindi deve essere registrato, oppure no. Come potete facilmente capire, per concludere queste operazioni in tempi brevissimi, magari quelli delle collissioni che avvengono dentro gli acceleratori, e’ necessario disporre di tanti processori.

Altri campi di utilizzo: l’economia, la biologia, la geologia, la matematica, l’ingegneria e cosi’ via. In che modo? Per fare qualche esempio, in economia per simulare un modello economico nel tempo, in biologia per studiare le risposte, ad esempio, del DNA in cui vengono inclusi tutti i costituenti ed e’ necessario simulare in dettaglio le interazioni con diverse molecole. In ingegneria per simulare la risposta di una struttura, anche molto grande e complessa, alle varie sollecitazioni che incontrera’ durante il suo utilizzo.

Come potete facilmente capire, questi centri di calcolo risultano fondamentali per studiare diversi scenari molto complessi e proprio per questo motivo la ricerca in questo settore ha mostrato un boom negli ultimi anni senza precedenti.

Ma a cosa serve questo centro allENI?

Una volta capita l’importanza di un centro di calcolo all’avanguardia, e’ lecito chiedersi a cosa serve questo tipo di struttura ad un’azienda come l’ENI. Quello che molto spesso i non addetti ai lavori ignorano e’ che le grandi societa’, appunto come l’ENI, hanno sempre un reparto di ricerca e sviluppo all’avanguardia nei propri settori, fondamentali proprio per mantenere un ruolo di leader sul mercato.

Nel caso dell’ENI, al nuovo data center sara’ inviata tutta la richiesta informatica dell’azienda. Oltre ai sempli algoritmi per l’elaborazione delle bollette, il centro sara’ specializzato nello studio di settori strategici per l’azienda.

Solo per fare un esempio, prima di procedere ad una trivellazione in un punto, visto l’enorme costo che operazioni di questo tipo comportano, e’ importante essere sicuri che il punto sia quello buono. Per capire questo aspetto, e’ necessario simulare in dettaglio la regione o comunque la zona di terreno in esame. Per fare questo si devono costruire modelli, cioe’ algoritmi, quanto mai simili alla realta’, che includono dunque tantissimi aspetti del terreno e delle sue relazioni con il restante ecosistema. Anche in questo caso, per analizzare strutture di questo tipo e’ necessario manipolare tantissimi dati con algoritmi complessi e che richiedono dunque una notevole potenza di calcolo.

Bene, e cosa ha di speciale il nuovo green data center?

Piu’ che rispondere a questa domanda, che comunque affrontiamo, e’ importante chiedersi perche’ compare l’aggettivo “green” nel nome.

Pensate al vostro pc, come sapete benissimo all’interno sono presenti una serie di ventole e dissipatori. A cosa servono? Ovviamente per raffreddare il processore, la scheda video, l’alimentatore, ecc. Questo perche’ abbiamo elementi che scaldano molto quando vengono utilizzati al pieno delle prestazioni. Il calore e’ nemico dell’elettronica che per poter funzionare richiede un intervallo di temperature che non sia troppo alto.

Bene, allo stesso modo, pensate quanto faticoso possa essere eliminare, cioe’ portare via, il calore da un centro di calcolo in cui sono presenti tantissime CPU.

Per darvi una stima, nel green data center dell’ENI sono presenti qualcosa come 60000 CPU.

Per poter far girare le ventole che servono al raffreddamento, dovete spendere dell’energia. Rapportate sempre questi ragionamenti ad un centro di calcolo e capite subito come questi numeri divengono immediatamente importanti. Sempre per fare esempi pratici, durante l’anno scorso la quantita’ di CO2 emessa solo dai centri di calcolo presenti nel mondo, che e’ direttamente rapportata alla richiesta di energia per il funzionamento, e’ stata il 2% del totale, paragonabile quindi a quella emessa dagli aerei civili utilizzati per il trasporto. Detto questo, capite bene che non stiamo parlando di numeri trascurabili.

L’ENI green data center rappresenta un record mondiale per il basso consumo di energia con potenze che arrivano fino a 50 KW per metro quadrato occupato. Il vero record sta poi nell’utilizzo che viene fatto di questa energia. Se si calcola il rapporto tra energia consumata e quella spesa per far funzionare la parte dei processori, dunque se volete una sorta di efficienza del sistema, si trovano numeri davvero innovativi. Per la maggior parte dei centri di calcolo al mondo, questo rapporto si aggira intorno a 2 o 3. Questo significa che se vi serve 1Kw per i computer, ne dovete richiedere fino a 3 dalla rete perche’ servono per il raffreddamento o per altri elementi che comuqnue disperdono energia non lasciandola ai sistemi informatici veri e propri. Per l’ENI green data center, questo rapporto vale solo 1.2 rappresentando un record mondiale assoluto raggiunto in Italia.

Uno degli aspetti piu’ importanti e che contraddistingue il nuovo centro dai suoi predecessori e’ la presenza di alti camini sugli edifici. Questi sono molto importanti per permetter la ventilazione forzata dell’aria e dunque risparmiare energia elettrica.

L’enorme potenza di calcolo sviluppata e le migliorie tecnologiche fatte hanno anche richiamato diverse societa’ private ed istituzioni universitarie. Da queste sono poi nate delle collaborazioni internazionali con enti accreditati che non fanno altro che sostenere ed incentivare la ricerca italiana in questo settore.

Concludendo, l’ENI green data center in provincia di Pavia rappresenta un notevole passo avanti nello sviluppo e nella ricerca sui centri di calcolo. Purtroppo, l’inaugurazione di questo innovativo polo e’ passata un po’ in sordina tra i vari media che non hanno assolutamente pubblicizzato la struttura dando la giusta enfasi che meritava. Come visto, potenze di calcolo notevoli richiamano collaborazioni da istituzioni sia private che pubbliche favorendo ancora di piu’ la collaborazione scientifica ed in progressi che solo in questo modo potrebbero essere portati avanti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Inquinamento e disturbi dell’uomo

31 Ott

Attraverso la sezione:

Hai domande o dubbi

un nostro caro lettore ci ha fatto una domanda molto complessa, ma estremamente affascinante. In sintesi la richiesta e’: esistono delle correlazioni certe tra inquinamento o modificazioni dei mangimi degli animali e disturbi nell’uomo? Con disturbi intendiamo patologie che vanno dall’aumento dell’insorgenza delle allergie fino ai tumori.

Come potete facilmente capire, questa domanda e’ molto complessa, soprattutto perche’ tocca moltissimi argomenti, non sempre chiari. Con questo intendo dire che, come di sovente accade, li dove ci sono interessi economici, non sempre la quantita’ di dati disponibili e’ cosi’ vasta. In questo poi ci dobbiamo mettere anche la cattiva informazione dilagante in rete, sia da un lato che dall”altro. Chi deve guadagnare da queste attivita’, dice che e’ tutto nella norma, chi invece le vuole combattere vede nero ovunque. In questo scenario, non e’ semplice trovre la giusta via che, il piu’ delle volte, e’ nel mezzo.

Fatta questa breve introduzione, cerchiamo di trovare noi il nostro equilibrio e le nostre risposte cercando il piu’ possibile di rimanere oggettivi.

Cominciamo dunque dal discorso inquinamento, sicuramente molto sentito e da cui nessuno di noi e’ esente. Se proviamo a cercare una correlazione con le allergie, troviamo, come anticipato, una giungla mediatica di opinioni in completo contrasto tra loro. Per prima cosa, vi siete mai chiesti cosa sono le allergie? Sappiamo che una grossa percentuale della popolazione soffre di qualche forma allergica. Senza andare a toccare le intolleranze alimentari, anche queste molto diffuse ma diverse di principio, quasi una persona su 3 soffre di reazioni allergiche a qualche agente che puo essere polvere, pollini di varia natura o altro.

Detto in maniera molto semplice, le allergie possono essere viste come un errore genetico del nostro sistema immunitario. In tal senso, in presenza di un allergene, quasi sempre del tutto innocuo per la salute, il nostro sistema immunitario ha una reazione eccessiva che provoca disturbi.

Come sapete bene, soprattutto se siete allergici a qualcosa, le reazioni che un individuo allergico ha vanno da un’eccessiva lacrimazione ad un gocciolmento del naso, fino anche a febbre. Detto in altri termini, e’ come se il nostro organismo provasse in modo eccessivo ad eliminare quella che viene riconosciuta come una minaccia.

Le allergie hanno origini diverse, molto spesso da ricercarsi in cause ereditarie. Questo discorso e’ facilmente comprensibile se pensiamo al discorso genetico del sistema immunitario. Fate pero’ attenzione, se uno dei genitori e’ allergico a qualcosa, puo’ nascere un figlio a sua volta allergico, ma non necessariamente allo stesso allergene.

La speculazione tra allergie ed inquinamento nasce anche vedendo i dati sulla popolazione. Negli ultimi 10 anni infatti, il numero di individui allergici, ad esempio in Italia, e’ passato dal 20 al 25%, con un incremento assolutamente non trascurabile. Proprio questo repentino aumento porta a considerare l’origine delle allergie nell’inquinamento.

Mi dispiace deludervi, ma studi clinici condotti hanno dimostrato come l’inquinamento non possa essere imputato come una causa delle allergie. Attenzione pero’, questo non lo toglie assolutamente dalla scena. Come anticipato, la reazione allergica di un soggetto puo’ essere piu’ o meno acuta. In tal senso, e’ come se ci fosse una scala di allergie intesa come sensibilita’ stessa all’allergene. Molte persone possono essere allergiche ad una sostanza e non accorgersene fino a quando non si trovano in presenza di una concentrazione elevata o in determinati stati sensibili. Proprio quest’ultimo caso ricade in realta’ sull’inquinamento.

La presenza di inquinanti nell’aria, dovuti agli scarichi delle automobili o alle industrie, provocano delle infiammazioni all’apparato respiratorio crescenti all’aumentare della concentrazione degli inquinanti. In queste condizioni, il nostro sistema respiratorio e’ piu’ sensibile alle sostanze contenute nell’aria dal momento che questa viene filtrata di meno. Capite dunque dove e’ da cercare la relazione tra inquinamento e allergie. Se una persona e’ poco allergica ad una sostanza, respirando aria inquinata crea la condizione affinche’ l’allergia si manifesti.

Sempre secondo gli studi condotti, ed in rete ne trovate a bizzeffe, l’aumento delle allergie e’ da ricercarsi in buona parte anche all’inquinamento, ma non come causa iniziale, piuttosto come fattore scatenante di una situazione pregressa.

Altra considerazione importante e spesso non conosciuta. I soggetti maggiormente esposti agli inquinanti dell’aria sono proprio i bambini. Poiche’ molte sostanze inquinanti hanno pesi specifici elevati, ad esempio le catene di benzene e i residui di combustione, tendono a depositarsi negli strati bassi piu’ vicini all’asfalto e alle marmitte. I bambini dunque, a causa della minor altezza da terra, risultano piu’ esposti a questi inquinanti. Oltre al pericolo oggettivo di questa esposizione, si registra negli ultimi anno un vero e proprio boom di allergie manifestate in eta’ infantile.

Sempre in questa ottica, l’inquinamento provocato da gas di scarico ha subito un notevole incremento a causa dell’aumento dei veicoli alimentati a gasolio. Motori di questo tipo emettono infatti molte piu’ molecole inquinanti rispetto ai motori a benzina, soprattutto come residui incombusti.

Detto questo, passiamo invece alla parte alimentare. Come richiesto nella domanda, in questo caso e’ doveroso fare un discorso piu’ ampio parlando di patologie in generale.

Come sapete bene, in questo contesto quello che negli ultimi anni ha fatto maggiormente discutere e’ l’utilizzo dei cibi geneticamente modificati sia negli alimenti direttamente consumati dall’uomo che nei mangimi degli animali.

Anche qui, purtroppo, il discorso non e’ semplice per via dei soliti interessi economici sempre presenti.

Forse faro’ saltare qualcuno dalla sedia ma, parere di ricercatore, non trovo assolutamente nulla di sbagliato nello studio e nell’utilizzo dei cibi OGM. Fate pero’ attenzione, per poter inserire nella nostra dieta cibi di questo tipo, e’ necessario fare una serie di studi approfonditi che spesso viene saltata o ridotta per entrare subito nel mercato.

Facciamo un esempio semplice, sappiamo che i pomodori sono commestibili e fanno anche bene. Perche’ lo sappiamo? Perche’ per secoli abbiamo mangiato i pomodori e li abbiamo anche studiati in dettaglio. Se ora prendo un pomodoro OGM in cui, sempre per fare un esempio, sono state eliminate delle proteine per vari motivi, quel pomodoro e’ uguale a quello naturale? Forse lo sara’ come sapore, ammettendo che i pomodori che compriamo ancora lo abbiano, ma dal punto di vista biologico, devo valutare bene quali conseguenze puo’ avere quella modifica genetica che abbiamo apportato.

L’esempio del pomodoro non e’ assolutamente casuale. Quando parliamo di cibi OGM abbiamo due casi separati. Alcune volte vengono inseriti nella catena genetica nuovi gruppi di aminoacidi per modificare o incrementare delle caratteristiche: crescita, sapore, dimensione, ecc. Altre volte invece, vengono eliminati dei pezzi di codice genetico per cambiare alcuni parametri. In tal senso, esistono dei pomodori OGM in cui un enzima viene sottratto per rallentare la maturazione e cambiare quindi il mese in cui questi frutti sono disponibili.

Capite bene che, in un caso o nell’altro, il cambiamento fatto a livello genetico deve essere controllato nei minimi dettagli soprattutto per quanto concerne l’influenza che questa modificazione puo’ avere sul consumatore, molto spesso l’uomo.

Come viene fatta la sperimentazione?

Si prende un alimento OGM e si fa la solita procedura. Si inizia, dove possibile, vedendo gli effetti che questo cibo ha su vari animali e poi si passa ad una sperimentazione sull’uomo. Dal punto di vista formale, la procedura e’ simile a quella che subisono i medicinali prima di essere inseriti sul mercato. Capite anche come questa procedura sia molto lunga, se non altro per la necessita’ di condurre un’analisi statistica con un campione sufficiente di casi.

A volte, in presenza di effetti di lieve entita’ o molto poco probabili, si procede comunque alla messa in commercio. Purtroppo, questo sistema, cosi’ come e’ strutturato, puo’ alimetare delle falle che portano a decisioni affrettate.

Come forse ricorderete, in passato si sono avuti diversi casi di alimenti OGM che presentavano delle conseguenze non banali anche nell’uomo. Per fare un esempio, ci sono almeno un paio di casi di soia o grano OGM prodotto dalla Monsanto che, in almeno due casi, provocavano ingrossamento del volume dei reni. Questo effetto era stato visto durante la sperimentazione, ma era stato ritenuto non statisticamente importante.

Mia considerazione personale. Quando si parla di cibo che deve essere consumato dall’uomo, lo “statisticamente importante” e’ un qualcosa non facilmente gestibile ma, soprattutto, non quantificabile. Dal momento che parliamo di cosa che vanno mangiate, forse la sperimentazione e la gestione dei risultati andrebbe fatta in modo piu’ scientifico basandosi su campioni sufficientemente grandi, e magari da espandere in caso di evidenza di qualche disturbo, e da piu’ di un organismo indipendente.

Ovviamente, a posteriori, i prodotti in questione sono stati ritirati dal mercato. Per tornare in tema, in questi casi si parlava di alimenti sia destinati al consumo da parte dell’uomo, sia per la produzione di mangimi per animali.

Come visto per l’inquinamento, anche in questa parte alimentare dobbiamo stare attenti alle considerazioni che facciamo. Cosi’ come visto in precedenza, non possiamo parlare di allergie provocate dalla presenza di qualche sostanza nel cibo. Piuttosto, dobbiamo considerare se ci sono inquinanti in grado di creare condizioni anomale in cui le allargie possono manifestarsi piu’ violentemente.

Ora pero’ fate attenzione, se dal un lato questo chiude il discorso allergie, lascia del tutto aperto quello di altre patologie. Cosi’ come visto, se ci sono sostanze in grado di creare un ambiente in cui le allergie possono manifestarsi, ci possono essere altre sostanze in grado di attaccare il nostro organismo in qualche forma.

Ovviamente, e’ impossibile fare degli studi mettendo in correlazione tutte le patologie con qualsiasi tipologia di cibo possiamo mangiare. Vero e’ pero’ che molti dei cibi che oggi mangiamo vengono trattati con prodotti chimici di qualche forma e questi possono poi essere direttamente ingeriti dall’uomo.

Da ricercatore, non posso che essere a favore di una sperimentazione e di una continua evoluzione anche in questo settore. Quello che pero’ maggiormente mi spaventa e’ il solito interesse economico che troppo spesso porta a fare considerazioni non oggettive.

Questo non significa demonizzare i prodotti chimici per l’agricoltura, i pesticidi, gli OGM o altre tecniche atte a migliorare la produzione di qualcosa. Questa affermazione e’ anche giustificabile se pensiamo al continuo incremento della popolazione ma soprattutto all’aumentato benessere, e quindi richiesta di cibo, da parte di paesi ormai emersi e con economie forti nel mondo.

Detto questo, ci sono correlazione forti tra quello che magiamo e respiriamo e l’aumento di patologie nell’uomo. Come visto pero’, alcune volte gli inquinanti non sono le cause ma i veicoli di creazione di ambienti affinche’ queste patologie possano manifestarsi. Non dobbiamo guardare alla ricerca in questi settori come alchimia o qualcosa di negativo, la cosa importante e’ sempre utilizzare la testa e ragionare piu’ con la scienza che con il portafoglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Una batteria … vivente

19 Set

Come sapete bene, diverse volte ci siamo soffermati a riflettere sulle cosiddette energie alternative. Il punto attualmente raggiunto non puo’ certo essere considerato l’arrivo per il nostro futuro energetico. I sistemi alternativi utilizzati su larga scala, principalmente solare e eolico, sono, allo stato attuale, sistemi a bassa efficienza. Fate attenzione, non voglio certo dire che lo sfruttamento di queste risorse sia inutile, tutt’altro. Quello che sto cercando di dire e’ che queste fonti non sono sfruttate al massimo e, vista la crescita esponenziale della richiesta di energia nel mondo, non potranno certo essere considerate, allo stato attuale, alternative al petrolio o ad altre fonti.

In questa ottica, di tanto in tanto, gettiamo uno sguardo alle ricerche in corso, per mostrare lo stato dell’arte ma soprattutto per vedere possibili fonti alternative in corso di studio.

Proprio in virtu’ di questo, vorrei parlarvi di un’invenzione pubblicata solo pochi giorni fa da un gruppo di ingegneri dell’Universita’ di Stanford. Come forse avrete letto sui giornali, e’ stata prodotta la prima pila a microbi.

Di cosa si tratta?

I microbi in questione appartengono alla famiglia degli elettrogenici, cioe’ microorganismi in grado di produrre elettroni durante la digestione. Detto in altri termini, durante il processo digestivo, questi microbi strappano un elettrone che rimane libero. Questa tipologia di batteri e’ conosciuta gia’ da diverso tempo, quello che pero’ sono riusciti a fare gli autori di questa ricerca e’ trovare il modo efficace di produrre energia da questo processo.

Prima di parlarvi dell’applicazione, vi mostro una foto del dispositivo in questione:

Batteria a microbi

Batteria a microbi

Guardando la foto, vi rendete subito conto che si tratta ancora di un prototipo non industrializzato. Per darvi un’idea, le dimensioni della provetta a cui sono attaccati i fili e’ paragonabile a quella di una batteria per cellulare.

Come funziona la pila?

Come detto, questi batteri producono elettroni liberi durante la digestione. La provetta che vedete contiene due elettrodi. Il primo e’ in carbonio e proprio su questo sono presenti i nostri microbi. Come vedete anche dalla foto, il liquido all’interno della provetta appare molto torbido. Non si tratta assolutamente di un effetto ottico, sono dei liquami veri e propri che offrono il nutrimento per la colonia di microbi presenti all’interno.

Uno dei microbi osservato al microscopio

Uno dei microbi osservato al microscopio

A questo punto, il discorso comincia ad essere piu;’ chiaro. Vengono messi i microbi su un elettrodo in carbonio. Il liquido offre il nutrimento per gli organismi che dunque mangiano felici e per digerire, invece dell’infantile ruttino, producono elettroni.

Sempre all’interno e’ presente un secondo elettrodo, questa volta in ossido di argento. Questo funge da collettore per la raccolta degli elettroni. Ora, per definizione, se avete un moto ordinato di cariche elettriche da un elettrodo all’altro, avete una normalissima corrente elettrica. Dunque, avete la vostra pila.

Come potete immaginare, per sua stessa definizione, questo genere di pile si “scarica” quando la concentrazione batterica e’ cresciuta troppo, scarseggia il nutrimento o quando l’elettrodo in lega di argento e’ saturo di elettroni sulla superficie. In questo ultimo caso, che poi rappresenta il collo di bottiglia della produzione di energia elettrica, basta sostituire l’elettrodo esausto con uno nuovo affinche’ il processo riparta.

Quali sono i vantaggi di questa pila?

Anche se il funzionamento puo’ sembrare molto semplice, questa invenzione apre scenari molto importanti non solo in campo energetico, ma anche ambientale. Come potete facilmente immaginare, questo processo potrebbe essere utilizzato per produrre energia dai liquami, utilizzando questi prodotti di scarto fortemente inquinanti in modo molto intelligente.

Dal punto di vista energetico, si pensa che il sistema possa essere in grado di estrarre circa il 30% del potenziale contenuto nei liquami. Detto in altri termini, la bateria avrebbe un rendimento intorno a questo valore. Pensate sia poco? Assolutamente no. Le normali celle solari attualmente utilizzate hanno efficienze medie intorno al 25%. Solo con celle di ultima generazione si riesce a superare di poco il 30%. Questo significa che il processo microbico ha un rendimento del tutto paragonabile a quello delle celle utilizzate nei pannelli solari.

Come anticipato, e come evidente, lo studio e’ ancora in fase prototipale. In particolare, il problema attuale e’ nel costo dell’elettrodo in ossido di argento che serve da collettore per gli elettroni. Il prezzo troppo alto, rende questo sistema ancora anti-economico e non adatto all’utilizzo su larga scala.

Detto questo, capite bene come questa ricerca sia tutt’altro che terminata. Gli sviluppi futuri sono proprio volti a trovare materiali economici adatti a chiudere il circuito. Il fatto di aver usato all’inizio un materiale piu’ costoso e’ del tutto normale se consideriamo che per prima cosa si doveva dimostrare la correttezza dell’intuizione.

Concludendo, proprio in questi giorni e’ stata pubblicata la ricerca che racconta la costruzione della prima pila a batteri. Questo sistema sfrutta i processi digestivi di alcune tipologie di microbi in grado di liberare elettroni. La batteria realizzata ha un’efficienza paragonabile a quella delle celle solari e la ricerca e’ attualmente impegnata per trovare materiali economici da utilizzare per la raccolta degli elettroni al posto del costoso ossido di argento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ l’acqua ossigenata disinfetta?

1 Set

L’altro giorno mi e’ stata fatta una domanda davvero molto interessante. La considero tale, e spero possiate condividere il mio punto di vista, perche’ si tratta di un argomento conosciuto da tutti, ma di cui molti ignorano la risposta. La questione e’ molto semplice, quando ci facciamo male, nel senso che abbiamo delle ferite, tagli, ulcere, ecc, quello che facciamo e’ disinfettare la parte con l’acqua ossigenata. Questo consente di pulire la ferita e impedire che si formino infezioni.

Perche’ l’acqua ossigenata ha questo potere?

Cominciamo proprio dalle basi, l’acqua ossigenata, o anche perossido di idrogeno, e’ una molecola molto semplice formata da due atomi di idrogeno e due di ossigeno H-O-O-H. Al contrario della normale acqua, H-O-H, ha dunque solo un ossigeno in piu’, come suggerisce il nome stesso. Anche se apparentemente la modifica sembra minima, il comportamento e le cosiddette proprieta’ organolettiche delle due molecole sono molto diverse. L’acqua ossigenata si presenta incolore, liquida in condizioni normali di temperatura e pressione, ma con un caratteristico odore pungente non molto gradevole.

L’acqua ossigenata e’ conosciuta gia’ dai primi anni dell’800. Il primo che sintetizzo’ questa molecola fu Thenard nel 1818, anche se la sua diffusione su vasta scala, grazie anche alla produzione industriale economica e di massa, avvenne solo nel secolo successivo.

Come sapete bene, per usi commerciali l’acqua ossigenata e’ venduta all’interno di bottigliette di plastica non trasparenti, per non alterare le sue proprieta’, sempre diluita in una frazione che va dal 3 al 6%. Ovviamente, per usi specifici, potete trovare anche concentrazioni maggiori anche se queste, per i normali usi domestici, devono poi essere diluite con acqua. In alternativa alla percentuale, trovate la concentrazione anche espressa in “volumi”, cioe’ in volume equivalente di ossigeno che potete liberare dal perossido.

Tornando alla domanda iniziale, perche’ l’acqua ossigenata disinfetta le ferite?

Per essere precisi, l’azione del perossido di idrogeno e’ duplice. Per prima cosa, a contatto con la pelle, la molecola di acqua ossigenata libera molto facilmente ossigeno non legato. Questo e’ fortemente reattivo e per sua natura tende a legarsi con un altro atomo uguale per formare O2. Questo meccanismo e’ quello che porta alla formazione delle bollicine che vedete quando utilizzate l’acqua ossigenata. In questo caso, il meccanismo di disinfezione e’ meccanico. Il cammino in superficie dell’ossigeno, fino a liberarsi in aria, riesce a pulire e catturare sporcizia e germi che possono annidarsi all’interno delle ferite. Detto in altri termini, l’ossigeno riesce a portare fuori agenti esterni anche negli angoli piu’ nascosti dove sarebbe difficile rimuoverli.

Oltre a questo meccanismo puramente “meccanico”, l’acqua ossigenata ha anche una funzione puramente biologica. Come si dice in termini tecnici, il perossido riesce a “denaturare le proteine”. Cosa significa? Detto in modo molto semplice, l’ossigeno nascente, sempre liberato dal perossido iniziale, e’, come anticipato, molto reattivo. Sempre per stabilizzarsi, l’ossigeno nascente si puo’ legare ossidando le molecole e dunque favorendo la degradazione di molecole organiche degli agenti infettanti. Cosa significa? Semplicemente l’ossidazione delle molecole degli agenti infettanti modifica la struttura di questi microbi rendendoli duqnue non pericolosi per l’uomo, cioe’ incapaci di infettare la ferita.

Come potete facilmente immaginare, questa duplice azione dell’acqua ossigenata e’ quella che ha portato il successo e la diffusione di questo semplice perossido e, se vogliamo, ha consentito di evitare conseguenze ben piu’ gravi per individui feriti.

Oltre che come disinfettante, ad alta concentrazione (90%), l’acqua ossigenata viene utilizzata anche per la propulsione dei razzi. Il suo utilizzo puo’ essere come comburente per bruciare altri combustibili o anche singolarmente mettendo perossido di idrogeno in una camera con pareti di argento che favoriscono la formazione di ossigeno e acqua. Come potete facilmente immaginare, questo utilizzo e’ possibile sempre grazie alla altissima concentrazione di ossigeno liberato.

Tolta la propulsione a razzo, vi sono poi tutta una serie di utilizzi che possono essere fatti dell’acqua ossigenata nelle nostre case. Questo prodotto e’ utilizzato anche a livello industriale come sbiancante sia nella produzione della carta che dei tessuti. Allo stesso modo, l’acqua ossigenata puo’ essere utilizzata per schiarire i capelli, eliminare macchie dai vestiti prima del normale lavaggio o anche per sbiancare i denti. In questo ultimo caso, basta sciaquare la bocca due volte alla settimana con un cucchiaio di acqua ossigenata per poi risciaquare con abbondante acqua.

Come visto in questo articolo:

Detersivi ecologici

Il perossido di idrogeno e’ alla base della realizzazione di molti detersivi fatti in casa assolutamente paragonabili a quelli commerciali ma molto piu’ economici.

Oltre a questi utilizzi diretti, proprio le proprieta’ disinfettanti dell’acqua ossigenata la rendono particolarmente efficace per pulire ed eliminare germi dalle superfici domestiche (esempio le maioliche di cucina e bagno) o anche per disinfettare gli spazzolini da denti. Per farvi un esempio, l’acqua osigenata e’ in grado di uccidere i germi della salmonella e dell’escherichia coli, due microbateri molto famosi per la contaminazione dei cibi.

Concludendo, il meccanismo di disinfezione dell’acqua ossigenata e’ in realta’ duplice. Prima di tutto l’azione meccanica dovuta al moto in superficie delle molecole di ossigeno riesce ad eliminare sporcizia e germi dalle ferite. Inoltre, l’ossidazione delle molecole modifica la struttura degli agenti infettanti rendendoli inefficaci. Oltre a questa applicazione nota a tutti, il perossido di idrogeno puo’ essere utilizzato per molti altri scopi domestici che vanno dalla pulizia delle superfici fino alla rimozione delle macchie dai vestiti.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Orologi atomici e precisione del tempo

25 Ago

Qualche giorno fa, le pagine scientifiche di molti giornali hanno ospitato una notizia che e’ passata un po’ in sordina ma che, a mio avviso, merita di essere commentata se non altro per le interessanti discussioni a corollario. La notizia in questione, che molto sicuramente avrete letto, parlava di una nuova serie di orologi atomici costruiti dai ricercatori del NIST, National Institute of Standards and Technology, e che sono in grado di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo.

Leggendo questa notizia, credo che le domande classiche che possono venire in mente siano: come funziona un orologio atomico? Come si definisce il secondo? Ma soprattutto, a cosa serve avere un orologio tanto preciso?

In realta’, rispondere a queste domande, non e’ cosa facile ma cercheremo di farlo sempre in modo divulgativo spiegando passo passo tutti i concetti richiamati.

Prima di tutto, cos’e’ il tempo? Come potete immaginare, in questo caso la risposta non e’ semplice, ma richiama tantissime discipline, non solo scientifiche, che da secoli si sono interrogate sulla migliore definizione di tempo. Tutti noi sappiamo che il tempo passa. Come ce ne accorgiamo? Proprio osservando il trascorrere del tempo, cioe’ degli avvenimenti che osserviamo intorno a noi. In tal senso, scientificamente, possiamo definire il tempo come quella dimensione nella quale si misura il trascorrere degli eventi. Questa definizione ci permette dunque di parlare di passato, presente e futuro, dividendo gli eventi in senso temporale. Ovviamente, non e’ l’unica definizione che potete dare di tempo e forse neanche la piu’ affascinante ma, sicuramente, e’ la piu’ pratica per l’utilizzo che se ne vuole fare nelle scienze.

salvador_dali

Detto questo, se parliamo di tempo come una dimensione, dobbiamo saper quantificare in qualche modo il suo scorrere. Detto in altri termini, abbiamo bisogno di un’unita’ di misura. Nel “Sistema Internazionale di unita’ di misura”, che e’ quello accettato in molti paesi e considerato la standard a cui riferirsi, l’unita’ di misura del tempo e’ il secondo.

Come viene definito un secondo?

Storicamente, la definizione di secondo e’ cambiata molte volte. Nella prima versione, il secondo era definito come 1/86400 del giorno solare medio. Questa definizione non e’ pero’ corretta a causa del lento e continuo, per noi impercettibile, allungamento delle giornate dovuto all’attrazione Terra-Luna e alle forze mareali, di cui abbiamo parlato in questo post:

Le forze di marea

Utilizzando pero’ questa definizione, non avremmo avuto a disposizione qualcosa di immutabile nel tempo. Per ovviare a questo problema, si decise dunque di riferire il secondo non piu’ in base alla rotazione della terra su se stessa, ma a quella intorno al Sole. Anche questo movimento pero’ e’ non uniforme, per cui fu necessario riferire il tutto ad un preciso anno. Per questo motivo, il secondo venne definito nel 1954 come: la frazione di 1/31 556 925,9747 dell’anno tropico per lo 0 gennaio 1900 alle ore 12 tempo effemeride. La durata della rotazione intorno al Sole era conosciuta da osservazioni molto precise. Qualche anno dopo, precisamente nel 1960, ci si rese conto che questa definizione presentava dei problemi. Se pensiamo il secondo come una frazione del giorno solare medio, chi ci assicura che il 1900 possa essere l’anno in cui il giorno aveva la durata media? Detto in altri termini, le definizioni date nei due casi possono differire tra loro di una quantita’ non facilmente quantificabile. Dovendo definire uno standard per la misura del tempo, conosciuto e replicabile da chiunque, abbiamo bisogno di un qualcosa che sia immutabile nel tempo e conosciuto con grande precisione.

Proprio queste considerazioni, portarono poi a prendere in esame le prorieta’ degli atomi. In particolare,  si penso’ di definire il secondo partendo dai tempi necessari alle transizioni atomiche che ovviamente, a parita’ di evento, sono sempre identiche tra loro. Proprio per questo motivo, il secondo venne definito come: la durata di 9 192 631 770 periodi della radiazione corrispondente alla transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello stato fondamentale dell’atomo di cesio-133. In questo modo si e’ ottenuta una definizione con tutte le proprieta’ che abbiamo visto.

A questo punto, la domanda e’: come misurare il tempo? Ovviamente, di sistemi di misurazione del tempo ne conosciamo moltissimi, sviluppati e modificati nel corso dei secoli e ognuno caratterizzato da una precisione piu’ o meno elevata. Cosa significa? Affinche’ un orologio sia preciso, e’ necessario che “non perda un colpo”, cioe’ che la durata del secondo misurata sia quanto piu’ vicina, al limite identica, a quella della definizione data. In caso contrario, ci ritroveremo un orologio che dopo un certo intervallo, giorni, mesi, anni, migliaia di anni, si trova avanti o indietro di un secondo rispetto allo standard. Ovviamente, piu’ e’ lungo il periodo in cui questo avviene, maggiore e’ la precisione dell’orologio.

Come tutti sanno, gli orologi piu’ precisi sono quelli atomici. Cosi’ come nella definizione di secondo, per la misura del tempo si utilizzano fenomeni microscopici ottenuti mediante “fontane di atomi”, eccitazioni laser, o semplici transizione tra livelli energetici. Al contrario, negli orologi al quarzo si utilizza la vibrazione, indotta elettricamente, degli atomi di quarzo per misurare il tempo. La bibliografia su questo argomento e’ molto vasta. Potete trovare orologi atomici costruiti nel corso degli anni sfruttando proprieta’ diverse e con precisioni sempre piu’ spinte. Negli ultimi anni. si e’ passati alla realizzazione di orologi atomici integrando anche fasci laser e raffreddando gli atomi a temperature sempre piu’ vicine allo zero assoluto.

Nel caso della notizia da cui siamo partiti, l’orologio atomico costruito sfrutta la transizione di atomi di itterbio raffreddati fino a 10 milionesimi di grado sopra lo zero assoluto indotta mediante fasci laser ad altissima concentrazione. Questo ha permesso di migliorare di ben 10 volte la precisione dell’orologio rispetto a quelli precedentemente costruiti.

A questo punto, non resta che rispondere all’ultima domanda che ci eravamo posti all’inizio: a cosa serve avere orologi cosi’ precisi? Molto spesso, leggndo in rete, sembrerebbe quasi che la costruzione dell’orologio piu’ preciso sia una sorta di gara tra laboratori di ricerca che si contendono, a suon di apparecchi che costano milioni, la palma della miglior precisione. In realta’ questo non e’ vero. Avere una misura sempre piu’ precisa di tempo, consente di ottenere risultati sempre piu’ affidabili in ambito diverso.

Per prima cosa, una misura precisa di tempo consente di poter sperimentare importanti caratteristiche della relativita’. Pensate, ad esempio, alla misura della distanza tra Terra e Luna. In questo caso, come visto in questo articolo:

Ecco perche’ Curiosity non trova gli alieni!

si spara un laser da Terra e si misura il tempo che questo impiega a tornare indietro. Maggiore e’ la precisione sulla misura del tempo impiegato, piu’ accurata sara’ la nostra distanza ottenuta. Molto spesso infatti, si suole misurare le distanze utilizzando tempi. Pensiamo, ad esempio, all’anno luce. Come viene definito? Come la distanza percorsa dalla luce in un anno. Tempi e distanze sono sempre correlati tra loro, condizione per cui una piu’ accurata misura di tempi  consente di ridurre l’incertezza in misure di distanza.

Anche quando abbiamo parlato del sistema GPS:

Il sistema di posizionamento Galileo

Abbiamo visto come il posizionamento viene fatto misurando le differenze temporali tra i satelliti della galassia GPS. Anche in questo caso, la sincronizzazione e’ fondamentale per avere precisioni maggiori nel posizionamento. Non pensate solo al navigatore che ormai quasi tutti abbiamo in macchina. Questi sistemi hanno notevole importanza in ambito civile, marittimo, militare. Tutti settori di fondamentale importanza per la nostra societa’.

Concludendo, abbiamo visto come viene definito oggi il secondo e quante modifiche sono state fatte nel corso degli anni cercando di avere una definizione che fosse immutabile nel tempo e riproducibile per tutti. Oggi, abbiamo a disposizione molti sistemi per la misura del tempo ma i piu’ precisi sono senza dubbio gli orologi atomici. Come visto, ottenere precisioni sempre piu’ spinte nella misura del tempo e’ di fondamentale importanza per tantissimi settori, molti dei quali anche strategici nella nostra soscieta’. Ad oggi, il miglior orologio atomico realizzato permette di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo, cioe’ circa 14 miliardi di anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aggiornamento su Kepler

18 Ago

Con diversi post ci siamo occupati della ricerca degli esopianeti:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Esopianeti che non dovrebbero esserci

Ancora sugli esopianeti

Come sapete, questa speciale ricerca, volta ad individuare pianeti potenzialmente simili alla Terra ma fuori dal sistema solare, rappresenta una sfida molto importante per la scienza. Tra l’altro, ricerche di questo tipo, hanno da sempre stimolato anche la curiosita’ delle persone comuni, da sempre interessate a valutare se ci sono o meno le condizioni affinche’ la vita possa essersi sviluppata anche fuori dal nostro pianeta.

Ruolo fondamentale in questa ricerca era ovviamente riservato al telescopio della NASA Kepler. Questa missione era stata lanciata in orbita proprio con lo scopo di identificare pianeti in orbita intorno alle stelle, cosi’ come avviene nel nostro sistema solare. Si tratta di una missione estremamente complessa e che rappresentava una sfida al tempo del lancio nel 2009. Prima di Kepler infatti, non si sapeva se esopianeti simili alla Terra potessero esistere e quanto potevano essere abbondanti nella nostra Galassia.

Una delle rotelle di retroazione di Kepler

Una delle rotelle di retroazione di Kepler

In 4 anni di osservazioni, Kepler ha individuato circa 3500 possibili esopianeti, di cui diversi gia’ sono stati confermati. Ha raccolto una mole impressionante di dati che, in gran parte, ancora devono essere analizzati.

Perche’ stiamo riparlando di esopianeti e di Kepler?

Qualche settimana fa, avevamo dato un aggiornamento non felice su questo telescopio:

Se si rompe la sonda?

Come visto, nel luglio di quest’anno, si era registrata una nuova rottura ad una delle rotelle del sistema di giroscopi del satellite. Sempre nel post, avevamo detto che gli ingegneri della NASA erano gia’ al lavoro per cercare di capire come ripristinare questo fondamentale sistema per la ricerca degli esopianeti.

E ora?

Purtroppo, potremmo dire che proprio il giorno di ferragosto, la NASA ha celebrato la messa mortuaria per Kepler. Vi riporto una frase molto importante presa dal sito del telescopio:

Two of Kepler’s four gyroscope-like reaction wheels, which are used to precisely point the spacecraft, have failed. The first was lost in July 2012, and the second in May [2013]. Engineers’ efforts to restore at least one of the wheels have been unsuccessful. … the spacecraft needs three functioning wheels to continue its search for Earth-sized exoplanets

Come potete leggere, purtroppo gli ingegneri della NASA hanno rinunciato alla possibilita’ di ripristinare almeno una delle rotelle rotte del giroscopio. Il telescopio necessita’ di almeno 3 rotelle per assicurare un corretto puntamento e per proseguire la sua ricerca.

Perche’ servono almeno 3 rotelle?

Come visto in precedenza, il sistema di giroscopi del satellite e’ una delle parti piu’ importanti della missione ed e’ quella che caratterizzava l’estrema precisione della ricerca. Sappiamo che la ricerca degli esopianeti veniva effettuata con il metodo dei transiti, in cui si fissava una stella lontana misurandone la luminosita’. A questo punto, si registrava ogni minima variazione di luminosita’ che poteva indicare il passaggio di un pianeta tra la stella e il satellite. Capite bene che, affinche’ questa ricerca potesse funzionare, era necessario puntare con precisione e stabilmente la stella. Il sistema di giroscopi serviva proprio a questo, azionando piccoli stabilizzatori in grado di tenere in posizione il telescopio.

Ora cosa succedera’?

La NASA sta valutando la situazione e ha anche aperto una chiamata agli scienziati degli altri paesi per verificare se esistono altre ricerche possibili utilizzando solo due rotelle. Tra le idee lanciate c’e’ la ricerca di comete e asteroidi o anche una modifica dl software per correggere, ovviamente con precisione minore rispetto a quella iniziale, la luminosita’ osservata delle stelle.

La situazione non e’ assolutamente semplice. Prima di decidere, si deve considerare che il costo annuo della missione e’ di circa 18 milioni di dollari. Con cifre di questa portata, o si trova una missione utile e in grado di giustificare la spesa, oppure la NASA preferirebbe rigirare il budget per la costruzione di una nuova sonda da mettere in orbita.

Per la fine di quest’anno ci si aspetta una decisione da parte della NASA che per il momento ha lasciato in stand-by il telescopio in modo da risparmiare carburante.

Ovviamente, trovandosi Kepler a circa 65 milioni di kilometri dalla Terra, il costo di una missione di riparazione sarebbe proibitivo.

Come valutare la missione Kepler?

Il guasto che ha colpito il sistema di giroscopi, anche se ha interrotto molto prima di quanto preventivato la missione, non deve farci pensare che Kepler sia stato un fiasco. Come detto nel precedente articolo, la legge di Murphy e’ sempre in agguato. Per funzionare servono 3 rotelle, la NASA ne ha previste 4. Purtroppo, se ne sono rotte addirittura 2, rottura con una probabilita’ bassissima.

Nonostante questo, Kepler ha raccolto tantissimi dati ancora da analizzare. Prima di questa missione, nessuno sapeva quanto fossero abbondanti, o addirittura se esistevano, pianeti fuori dal sistema solare candidabili ad ospitare la vita. Ci vorranno ancora molti anni prima di analizzare tutti i dati per cui il numero di esopianeti e’ destinato solo a crescere. Per cui, sentiremo ancora parlare a lungo di pianeti scoperti da Kepler!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ipnosi regressiva: possibile?

13 Ago

Continua con questo post la serie di articoli suggeriti nella sezione:

Hai domande o dubbi?

Questa volta, parliamo di ipnosi regressiva. In particolare, e’ stato chiesto di analizzare tutte quelle voci che vorrebbero questa tecnica in grado di far riaffiorare vite precedenti, ricordi dimenticati o, anche, far progredire verso vite future.

Anche in questo caso, l’argomento non e’ dei piu’ semplici, non tanto dal punto di vista medico, quanto per la continua disinformazione che circola in rete e, soprattutto, nell’opinione comune.

Per iniziare, affrontiamo il caso dell’ipnosi.

Molte persone pensano che l’ipnosi sia una fantasia, ignorando il fatto che queste tecniche siano in realta’ appannaggio della medicina e non solo sono accettate, ma vengono anche utilizzate di sovente in particolari casi clinici.

Per essere precisi, l’etimologia del termine ipnosi, utilizzato per memoria storica e per abitudine, non indica esattamente lo stato in cui si trova il paziente. Ipnosi deriva dalla parola greca “hypnos” che significa sonno. Nello stato di ipnosi, il paziente non si trova assolutamente in uno stato di dormiveglia, ne tantomeno di sonno. Una persona sottoposta ad ipnosi si trova in un particolare stato psicofisiologico, anche detto di “trance”, in cui la sua percezione dell’ambiente puo’ essere influenzata.

Cerchiamo di capire meglio questo punto. Nello stato di ipnosi, e’ possibile che il paziente percepisca in modo differente o ignori degli stimoli esterni o fisiologici, mentre intensifica o crea stimoli che in realta’ non esistono.

Detto questo, capite bene come lo stato di ipnosi e’ potenzialmente pericoloso se non viene condotto e controllato in modo sicuro e da personale esperto. Al mondo, esistono moltissime scuole di perfezionamento per le tecniche ipnotiche, ricnosciute a livello medico. Anche dopo aver conseguito l’abilitazione, l’operatore, al fine di continuare ad essere identificato come tale, deve continuare a seguire corsi di perfezionamento e aggiornarsi sulle piu’ moderne tecniche.

Piccola parentesi, qualora aveste intenzione di ricorrere a questa tecnica, fate sempre attenzione a chi vi affidate. Controllate sempre in dettaglio le referenze del terapeuta a cui vi affidate, verificando la sua preparazione.

L’utilizzo maggiormente conosciuto dell’ipnosi e’ per il controllo di particolari stati d’ansia. In tal senso, si ricorre a queste tecniche per eliminare disturbi del sonno, della personalita’, ma anche per controllare in modo proficuo il nostro corpo. Su questo ultimo punto, le tecniche di ipnosi trovano, ad esempio, largo utilizzo nello spettacolo, per curare la cosiddetta ansia da palcoscenico, ma anche in ambito sportivo, per eliminare stress muscolare o migliorare la consapevolezza dell’atleta.

In settori particolari, l’ipnosi viene utilizzata per addestrare soldati da inviare in scenari di guerra, dove un miglior controllo delle emozioni puo’ segnare la differenza tra tornare a casa con le proprie gambe oppure no, ma anche per le missioni spaziali. Come potete facilmente immaginare, in questo caso specifico, le persone selezionate devono essere preparate in tutto e per tutto, evitando stati di ansia post partenza, difficilmente curabili da terra.

Detto questo, abbiamo capito le molteplici potenzialita’ dell’ipnosi, ma soprattutto il fatto che queste tecniche siano ricnosciute in ambito clinico. Molto proficue sono le applicazioni nei malati per la riduzione del dolore. Immaginare una seduta di ipnosi come una perdita totale di coscenza o una variazione del carattere della persona viene semplicemente dalal finzione cinematografica e dall’immaginario collettivo. Come potete capire, la persona sottoposta ad ipnosi e’ e rimane lo stesso soggetto, con il suo carattere e il suo stato d’animo.

Per quanto riguarda invece il discorso ipnosi regressiva, in questo caso stiamo lasciando le scienze mediche per entrare nell’ambito della pseudo scienza.

Come sapete e come abbiamo anticipato, durante una seduta di ipnosi regressiva, il terapeuta sarebbe in grado di scavare nei ricordi nascosti nella mente del paziente, facendo riaffiorare episodi sempre piu’ lontani nel tempo. In tal senso, sarebbe possibile, mediante tecniche particolari, arrivare ben prima del momento del concepimento, facendo riaffiorare ricordi di una vita precedente. Leggendo su internet, trovate molto spesso esempi di persone che avrebbero visualizzato vite precedenti, anche secoli prima di questo, o raccontato di luoghi mai visitati prima.

Cerchiamo di analizzare con calma quesste affermazioni. Gia’ in passato ci siamo trovati a discutere un argomento molto simile a questo. Parlando di rapimenti da parte degli alieni, abbiamo visto come queste esperienze siano in realta’ frutto dell’immaginazione delle persone:

Abduction e falsi ricordi

In particolare, a causa di suggestioni esterne, il soggetto che racconta di essere stato rapito dagli alieni, ha nella sua mente una serie di falsi ricordi, mai vissuti nella realta’. Come visto nell’articolo riportato, si tratterebbe di ricordi del tutto identici a quelli reali, e anche percepiti come tali, ma che in realta’ sono frutto di una costruzione delle nostra mente.

Analogamente, le tecniche di ipnosi regressiva, non fanno riaffiorare veri ricordi, ma una ricostruzione artificiosa della nostra mente. Come evidenziato da diverse fonti, molto spesso la produzione dei falsi ricordi avviene a causa delle domande fatte dal terapeuta durante la seduta. Se provate a sfogliare un manuale medico di ipnosi, trovate scritto che le domande devono sempre essere le piu’ vaghe possibile. Provo a fare un esempio: durante una seduta sarebbe errato chiedere al paziente se ha incontrato Tizio in questo giorno. Il modo migliore sarebbe formulare la domanda come “chi hai incontrato in questo giorno”. Per noi che siamo in uno stato di consapevolezza, le due domande potrebbero apparire del tutto analoghe. Se pero’ provate a rileggerle, immaginando uno stato di trance, vi rendete conto come la prima formulazione potrebbe scatenare un falso ricordo nella persona ipnotizzata.

A riprova di questo, molta attenzione viene utilizzata quando si ricorre alle tecniche di ipnosi da utilizzare nell’ambito di qualche indagine. Capite bene come dei falsi ricordi potrebbero segnare il confine tra una dichiarazione accettabile e una facilmente impugnabile. Sempre in ambito legale, a riprova della validita’ medica dell’ipnosi, la legislazione tratta i reati sotto ipnosi prendendo come colpevole principale l’ipnotizzatore piuttosto che il paziente manipolato.

L’esempio giuridico, ci fa capire molto bene come vengono formulati e manipolati i falsi ricordi nelle presunte sedute di ipnosi regressiva. Al solito, vengono riportate tantissime false testimonianze, sfruttando la suggestione delle persone e facendo credere di poter ripercorrere chissa’ quali vite precedenti mediante la tecnica regressiva.

Ripeto nuovamente, mentre l’ipnosi e’ una tecnica medica accettata e su cui esistono corsi e studi scientifici, per quanto riguarda la regressione siamo nell’ambito della pseudoscienza. Non solo questa tecnica non e’ accettata dalla medicina, ma e’ anche fortemente criticata per la metodologia e per le basi sulle quali sarebbe fondata.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Climatizzatore …. quanto ci costi?

6 Ago

Nell’ottica del risparmio energetico, non solo per fare un favore all’ambiente ma anche al nostro portafoglio, qualche tempo fa avevamo analizzato in dettaglio i consumi dei nostri elettrodomestici:

Elettrodomestici e bolletta

In particolare, avevamo quantificato il reale consumo dei comuni sistemi casalinghi, convertendo il tutto in termini di consumo. Come sappiamo bene, nella nostra bolletta elettrica, viene riportato un consumo in KWh, mentre le etichette e le caratteristiche degli apparecchi elettronici ci forniscono un valore in potenza, cioe’ in Watt.

Detto questo, con la calura estiva di questi giorni, vorrei riprendere questi concetti, analizzando pero’ il discorso condizionatori. Se andate in negozio intenzionati a comprare un sistema di questo tipo, vi trovate di fronte una vasta gamma di prodotti con caratteristiche diverse ma, soprattutto, la capacita’ refrigerante dei condizionatori e’ espressa in Btu/h.

Cerchiamo dunque di fare un po’ di chiarezza, capendo meglio questi concetti.

Prima di tutto, la scelta principale che dovete affrontare e’ quella relativa alle differenze: con o senza pompa di calore, inverter o ON/OFF.

Cosa significa?

Per quanto riguarda la pompa di calore, si tratta semplicemente di condizionatori che possono riscaldare oltre a rinfrescare. Detto proprio in parole povere, lo stesso sistema e’ in grado di invertire il ciclo termico, producendo un salto positivo o negativo rispetto alla temperaratura iniziale. Detto ancora piu’ semplicemente, avete la possibilita’ di far uscire aria calda o fredda per riscaldare o rinfrescare.

Convengono questi sistemi?

Se avete un impianto di riscaldamento in casa con caloriferi, pannelli radianti, ecc, allora tanto vale comprare solo un condizionatore, cioe’ qualcosa in da utilizzare in estate per rinfrescare.

Cosa significa invece inverter o ON/OFF?

Qui spesso trovate un po’ di confusione in giro. In realta’, la distinzione e’ molto semplice. Un sistema ON/OFF funziona, come dice il nome stesso, in modalita’ accesa o spenta. Cerchiamo di capire meglio. Impostate una temperatura, il sitema si accende e comincia a buttare aria fredda. Quando la temperatura della sala e’ arrivata a quella desiderata il sistema si spegne. A questo punto, quando la temperatura si rialza, il sistema riparte e la riporta al valore impostato. Al contrario, un sistema inverter e’ in grado di modulare la potenza del compressore funzionando a diversi regimi. Se volete, mentre nel primo caso avevamo un sistema binario acceso o spento, qui c’e’ tutta una regolazione della potenza del compressore gestita da un microprocessore. Quando la temperatura si avvicina a quella impostata, la potenza del condizionatore scende riducendo i giri del compressore. In questo modo, con un piccolo sforzo, si riesce a mantenere la temperatura sempre intorno, con piccole fluttuazioni, al valore impostato.

Molto spesso, leggete che gli inverter sono migliori, garantiscono un notevole risparmio energetico, ecc. A costo di andare contro corrente, sostengo invece che questo non e’ sempre vero. Mi spiego meglio. Se avete intenzione di tenere acceso il condizionatore per diverese ore, allora il sistema inverter vi garantisce un consumo minimo, arrivati intorno al valore desiderato. Al contrario, un ON/OFF quando parte, parte sempre a pieno regime. Se pero’ avete intenzione di tenere acceso il condizionatore per poco tempo, perche’ volete accenderlo solo in determinati momenti della giornata o per un paio d’ore mentre vi addormentate, allora il sistema inverter funzionerebbe, dal momento che prendiamo tutto l’intervallo necessario ad abbassare la temperatura, esattamente come un ON/OFF, cioe’ sempre a pieno regime. In questo caso, il consumo sara’ esattamente lo stesso e non riuscirete assolutamente a rientrare della maggiore spesa necessaria all’acquisto di un inverter.

Un commerciante onesto dovrebbe sempre chiedere il funzionamento richiesto al condizionatore e consigliare la migliore soluzione.

Detto questo, andiamo invece ai BTU/h, cioe’ questa arcana unita’ di misura con cui vengono classificati i condizionatori.

BTU sta per British Thermal Unit ed e’ un’unita’ di misura anglosassone dell’energia. Come viene definita? 1 BTU e’ la quantita’ di calore necessaria per alzare la temperatura di una libbra di acqua da 39F a 40F, cioe’ da 3.8 a 4.4 gradi centigradi. Come capite anche dalla definizione, e’ un’unita’ di misura del lavoro, che nel Sistema Internazionale e’ il Joule, che utilizza solo unita’ anglosassoni.

Perche’ si utilizza?

In primis, per motivi storici, poi perche’, per sua stessa definizione, indica proprio il calore necessario per aumentare, o diminuire, la teperatura di un volume di un fluido, in questo caso acqua.

Bene, ora pero’ sui condizionatori abbiamo i BTU/h. Questa indica semplicemente la quantita’ di BTU richiesti in un’ora di esercizio. Possiamo convertire i BTU/h in Watt dal momento che un lavoro diviso l’unita’ di tempo e’ proprio la definizione di potenza. In questo caso:

3412 BTU/h –> 1KW

A questo punto, abbiamo qualcosa di manipolabile e che e’ simile all’analisi fatta parlando degli altri elettrodomestici.

Compriamo un condizionatore da 10000 BTU/h e questo equivale ad un sistema da 2.9KW. Quanto ci costa tenerlo acceso un’ora? In termini di bolletta, in un’ora consumiamo 2.9KWh. Se assumiamo, come visto nel precedente articolo, un costo al KWh di 0.20 euro, per tenere acceso questo sistema servono 0.58 euro/h.

0.58 euro/h? Significa 6 euro per tenerlo acceso 10 ore. In un bimestre estivo, questo significherebbe 360 euro sulla bolletta?

Questo e’ l’errore fondamentale che spesso viene fatto. Il valore in KWh calcolato e’ in realta’ quello necessario per rinfrescare, o riscaldare se abbiamo la pompa di calore, il nostro ambiente. Quando comprate un condizionatore, c’e’ anche un ‘altro numero che dovete controllare, il cosiddetto EER, cioe’ l’Energy efficiency ratio. Questo parametro indica semplicemente l’efficienza elettrica del sistema quando questo lavora in raffreddamento. Analogamente, per i condizionatori con pompa di calore, trovate anche un indice COP che invece rappresenta il rendimento quando si opera in riscaldamento.

Detto proprio in termini semplici, quando assorbite 1 KWh dalla rete, il condizionatore rende una quantita’ pari a 1KWh moltiplicato per il EER. Facciamo un esempio. Valori tipici di EER sono compresi tra 3 e 5. Se supponiamo di comprare un condizionatore con EER pari a 4, per ogni KWh assorbito dalla rete, il sistema ne fornisce 4 sotto forma di energia frigorifera.

Se adesso riprendiamo il calcolo di prima, dai valori inseriti, se il nostro condizionatore ha un EER pari a 4, per tenerlo acceso un’ora spenderemo:

0.58/4 = 0.15 euro

Se confrontiamo questi valori con quelli degli altri elettrodomestici visti nell’articolo precedente, ci rendiamo conto che il condizionatore e’ un sistema che “consuma” molta energia.

Ultima considerazione, fino a questo punto abbiamo parlato di BTU/h, prendendo un numero a caso di 10000. In commercio trovate sistemi con valori tra 5000 e 30000, o anche piu’, BTU/h. Volete rinfrescare una camera, che condizionatore dovete prendere?

In realta’, la risposta a questa domanda non e’ affatto semplice. Come potete immaginare, la potenza del sistema che dovete prendere dipende prima di tutto dalla cubatura dell’ambiente, ma ache da parametri specifici che possono variare molto il risultato: superficie vetrata ed esposizione, superficie di muro ed esposizione, eventuale coibentazione della stanza, se ci sono appartamenti sopra e sotto, se siete sotto tetto, ecc.

Giusto per fornire dei valori a spanne, potete far riferimento a questa tabella:

LOCALE DA CLIMATIZZARE (m²)

POTENZA NOMINALE RICHIESTA (BTU)

da 0 a 10

5000

da 10 a 15

7000

da 15 a 25

9000

da 25 a 40

12000

da 40 a 50

15000

da 50 a 60

18000

da 60 a 80

21000

da 80 a 100

24500

da 100 a 130

35000

da 130 a 160

43000

da 160 a 180

48000

da 180 a 200

65000

Come vedete, in linea di principio, per rinfrescare con un salto termico accettabile una stanza da 20 m^2, vi basta un sistema da 9000 BTU/h.

Concludendo, prima di acquistare un condizionatore, si devono sempre valutare le caratteristiche richieste dall’utilizzo che vogliamo farne e dall’ambiente in cui vogliamo utilizzarlo. Detto questo, i parametri specifici del sistema, possono far variare notevolmente il consumo effettivo del condizionatore, influendo in modo significativo sulla bolletta che poi andremo a pagare.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.