Tag Archives: economy

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Sale qb … anche nelle batterie

6 Ott

Negli ultimi anni, i nostri dispositivi elettronici hanno avuto un notevole miglioramento puntando sempre di piu’ verso i concetti di portabilita’ e wireless. Come sapete, oggi come oggi, la maggior parte dei nostri gadget tecnologici sono dotati di batterie ricaricabili. Il progresso in questo settore ha reso disponibili batterie sempre piu’ piccole, capienti e con cicli di carica sempre piu’ rapidi.

Il principio di utiizzo di una batteria di questo tipo e’ ovviamente chiaro a tutti. Si carica di energia il nostro sistema, per poi utilizzarlo scollegato dalla rete elettrica. Questo e’ fondamentale per portare a spasso i nostri dispositivi dove non e’ disponibile la rete elettrica.

Perche’ faccio questo preambolo?

Molto spesso nei nostri articoli abbiamo parlato di energie rinnovabili. Come sapete bene, le fonti piu’ utilizzate in tal senso sono senza dubbio l’eolico e il solare. A parte tutti i discorsi sull’efficienza di queste risorse, uno dei problemi principali riscontrati e’ la non costanza della fonte primaria. Mi spiego meglio. I pannelli solari che normalmente utilizziamo hanno bisogno, per definizione, del sole per produrre energia. Detto questo, di notte non possono funzionare. Analogamente, per quanto si cerchi di trovare la miglior postazione, in assenza di vento le pale eoliche non girano.

Il problema della disponibilita’ delle risorse e’ uno di quelli maggiormente studiati e analizzati dai gestori elettrici. In diverse compagnie sono presenti gruppi di studio che cercano di simulare la produzione energetica anche solo con poche ore di anticipo. Questo e’ fondamentale in virtu’ della pianificazione. Se le fonti producono energia nel momento in cui la rete non la richiede, ci troviamo con un surplus inutilizzato. Analogamente, se la richiesta energetica e’ massima quando la produzione e’ minima, siamo costretti a ricorrere ad altre fonti per soddisfare le richieste.

Per ovviare a questi problemi, si ricorre a sistema di accumulazione basati proprio su batterie. Riprendendo l’esempio del solare, durante il giorno l’energia prodotta viene stoccata in batterie in grado di accumularla per poi cederla quando la richiesta aumenta.

Il problema principale delle batterie normalmente utilizzate, ed in questo caso la capacita’ di contenimento e’ il parametro piu’ importante, e’ che molto spesso questi sistemi sono basati su metalli e componenti che, una volta esaurito il ciclo vitale delle batterie, sono estremamente tossici e dannosi per l’ambiente. L’esempio principale in questo caso e’ quello delle batterie al piombo.

Bene, negli ultimi mesi una delle principali compagnie produttrici di batterie, l’italiana FIAMM, ha reso disponibili dei sistemi basati semplicemente sul cloruro di sodio, cioe’ proprio il semplice sale.

Batteria SoNick della FIAMM

Batteria SoNick della FIAMM

Ad essere sinceri, e al contrario di quello che leggete in rete, le batterie al cloruro di sodio sono una realta’ gia’ da qualche anno. Quello che e’ riuscita a migliorare notevolmente la FIAMM e’ la capacita’ di contenimento energetico e soprattutto la durata delle batterie.

Questa nuova serie di batterie si chiama SoNick ed e’ basata sul cloruro di sodio e sul cloruro di Nichel. Durante il funzionamento, il cloruro di nichel si deposita al catodo, mentre il sodio, dissociato dal NaCl, si deposita sull’anodo. In ciascuna cella, anodo e catodo sono separati da una barriera ceramica che consente il passaggio degli ioni di sodio per il funzionamento della batteria. La tensione a circuito aperto della singola cella e’ di 2.58V e questo valore, al contrario di molte batterie commerciali, rimane pressoche’ costante per gran parte del profilo di scarica. Questo sistema consente di conservare la carica per tempi piu’ lunghi oltre ad allungare notevolmente la vita stessa della batteria.

Questo tipo di batterie e’ stato sviluppato appositamente per essere connesso con i sistemi rinnovabili, appunto solare ed eolico. La fase di ricerca e sviluppo e’ durata diversi anni ed e’ stata fatta in collaborazione anche con il CNR. Detto questo, capite molto bene l’importanza di questo risultato e l’interesse di moltissimi produttori in questi nuovi sistemi.

La stessa FIAMM ha costruito nella sua sede un parco solare munito di batterie al sale. Inoltre, in collaborazione con Ansaldo, si e’ aggiudicata la gara per la costruzione di un impianto nella Guyana francese. Il progetto prevede la realizzazione di un parco in grado di formire elettricita’ a diverse famiglie della zona e potrebbe essere il primo di una serie pensata proprio per portare elettricita’ in luoghi difficilmente raggiungibili dalla rete tradizionale.

Punto di forza di queste batterie e’ ovviamente l’impatto ambientale minimo al termine del ciclo vitale. Ad oggi, le batterie al sale vengono gia’ utilizzate nella trazione elettrica di autobus, ad esempio dalla Iveco. Queste nuove batterie consentiranno anche in questo caso di migliorare la durata dei sistemi e di garantire percorsi sempre piu’ lunghi prima della ricarica.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Una batteria … vivente

19 Set

Come sapete bene, diverse volte ci siamo soffermati a riflettere sulle cosiddette energie alternative. Il punto attualmente raggiunto non puo’ certo essere considerato l’arrivo per il nostro futuro energetico. I sistemi alternativi utilizzati su larga scala, principalmente solare e eolico, sono, allo stato attuale, sistemi a bassa efficienza. Fate attenzione, non voglio certo dire che lo sfruttamento di queste risorse sia inutile, tutt’altro. Quello che sto cercando di dire e’ che queste fonti non sono sfruttate al massimo e, vista la crescita esponenziale della richiesta di energia nel mondo, non potranno certo essere considerate, allo stato attuale, alternative al petrolio o ad altre fonti.

In questa ottica, di tanto in tanto, gettiamo uno sguardo alle ricerche in corso, per mostrare lo stato dell’arte ma soprattutto per vedere possibili fonti alternative in corso di studio.

Proprio in virtu’ di questo, vorrei parlarvi di un’invenzione pubblicata solo pochi giorni fa da un gruppo di ingegneri dell’Universita’ di Stanford. Come forse avrete letto sui giornali, e’ stata prodotta la prima pila a microbi.

Di cosa si tratta?

I microbi in questione appartengono alla famiglia degli elettrogenici, cioe’ microorganismi in grado di produrre elettroni durante la digestione. Detto in altri termini, durante il processo digestivo, questi microbi strappano un elettrone che rimane libero. Questa tipologia di batteri e’ conosciuta gia’ da diverso tempo, quello che pero’ sono riusciti a fare gli autori di questa ricerca e’ trovare il modo efficace di produrre energia da questo processo.

Prima di parlarvi dell’applicazione, vi mostro una foto del dispositivo in questione:

Batteria a microbi

Batteria a microbi

Guardando la foto, vi rendete subito conto che si tratta ancora di un prototipo non industrializzato. Per darvi un’idea, le dimensioni della provetta a cui sono attaccati i fili e’ paragonabile a quella di una batteria per cellulare.

Come funziona la pila?

Come detto, questi batteri producono elettroni liberi durante la digestione. La provetta che vedete contiene due elettrodi. Il primo e’ in carbonio e proprio su questo sono presenti i nostri microbi. Come vedete anche dalla foto, il liquido all’interno della provetta appare molto torbido. Non si tratta assolutamente di un effetto ottico, sono dei liquami veri e propri che offrono il nutrimento per la colonia di microbi presenti all’interno.

Uno dei microbi osservato al microscopio

Uno dei microbi osservato al microscopio

A questo punto, il discorso comincia ad essere piu;’ chiaro. Vengono messi i microbi su un elettrodo in carbonio. Il liquido offre il nutrimento per gli organismi che dunque mangiano felici e per digerire, invece dell’infantile ruttino, producono elettroni.

Sempre all’interno e’ presente un secondo elettrodo, questa volta in ossido di argento. Questo funge da collettore per la raccolta degli elettroni. Ora, per definizione, se avete un moto ordinato di cariche elettriche da un elettrodo all’altro, avete una normalissima corrente elettrica. Dunque, avete la vostra pila.

Come potete immaginare, per sua stessa definizione, questo genere di pile si “scarica” quando la concentrazione batterica e’ cresciuta troppo, scarseggia il nutrimento o quando l’elettrodo in lega di argento e’ saturo di elettroni sulla superficie. In questo ultimo caso, che poi rappresenta il collo di bottiglia della produzione di energia elettrica, basta sostituire l’elettrodo esausto con uno nuovo affinche’ il processo riparta.

Quali sono i vantaggi di questa pila?

Anche se il funzionamento puo’ sembrare molto semplice, questa invenzione apre scenari molto importanti non solo in campo energetico, ma anche ambientale. Come potete facilmente immaginare, questo processo potrebbe essere utilizzato per produrre energia dai liquami, utilizzando questi prodotti di scarto fortemente inquinanti in modo molto intelligente.

Dal punto di vista energetico, si pensa che il sistema possa essere in grado di estrarre circa il 30% del potenziale contenuto nei liquami. Detto in altri termini, la bateria avrebbe un rendimento intorno a questo valore. Pensate sia poco? Assolutamente no. Le normali celle solari attualmente utilizzate hanno efficienze medie intorno al 25%. Solo con celle di ultima generazione si riesce a superare di poco il 30%. Questo significa che il processo microbico ha un rendimento del tutto paragonabile a quello delle celle utilizzate nei pannelli solari.

Come anticipato, e come evidente, lo studio e’ ancora in fase prototipale. In particolare, il problema attuale e’ nel costo dell’elettrodo in ossido di argento che serve da collettore per gli elettroni. Il prezzo troppo alto, rende questo sistema ancora anti-economico e non adatto all’utilizzo su larga scala.

Detto questo, capite bene come questa ricerca sia tutt’altro che terminata. Gli sviluppi futuri sono proprio volti a trovare materiali economici adatti a chiudere il circuito. Il fatto di aver usato all’inizio un materiale piu’ costoso e’ del tutto normale se consideriamo che per prima cosa si doveva dimostrare la correttezza dell’intuizione.

Concludendo, proprio in questi giorni e’ stata pubblicata la ricerca che racconta la costruzione della prima pila a batteri. Questo sistema sfrutta i processi digestivi di alcune tipologie di microbi in grado di liberare elettroni. La batteria realizzata ha un’efficienza paragonabile a quella delle celle solari e la ricerca e’ attualmente impegnata per trovare materiali economici da utilizzare per la raccolta degli elettroni al posto del costoso ossido di argento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Biocarburanti di terza generazione

28 Giu

Sicuramente, tutti avrete sentito parlare di biocarburanti. Come e’ noto, la domanda mondiale di petrolio e derivati continua a crescere nel tempo, causando, tra le altre cose, un aumento del prezzo del greggio. Uno dei problemi principali per quanto riguarda il consumo di petrolio, e’ la crescita sempre piu’ accentuata di quelle che una volta venivano chiamate economie emergenti. Dico tra quelle che “venivano chiamate” economie emergenti perche’, come noto, si tratta ormai di economie gia’ belle che solide, si pensi ad esempio alla Cina e all’India, e dove l’aumentato benessere, crea una richiesta di materie prime sempre crescente da parte della popolazione. In questo scenario, le fonti fossili hanno una vita sempre piu’ corta e, come sappiamo bene, dobbiamo gia’ fare i conti con quello che succedera’ nell’era, attualmente ancora inimmaginabile, del dopo petrolio.

In questo scenario, gia’ da qualche anno, si e’ iniziato a parlare di biocarburanti. Forse non tutti sanno che siamo gia’ arrivati alla seconda generazione di questi prodotti. Nella prima generazione si parlava di produzione da materiale vegetale, mentre nella seconda generazione si e’ studiata in dettaglio la produzione di carburanti a partire dagli scarti alimentari.

Questi studi hanno mostrato delle problematiche molto complesse e difficilmente risolvibili. Nella prima generazione, sicuramente avrete sentito parlare dell’olio di colza. Uno dei problemi principali in questo caso e’ l’utilizzo di vaste aree di terreno per la produzione di queste piante. Necessariamente, il ricorso a queste colture, sottrae terreno alla produzione alimentare. Ora, anche quello cibo per la popolazione mondiale sempre crescente e’ un problema serio e su cui, prima o poi, dovremo ragionare per trovare una soluzione. Rubare terreno alla produzione alimentare per piantare colza, crea dunque una competizione tra due problemi fondamentali per la civilta’ umana.

Per quanto riguarda invece la seconda generazione, il problema principale in questo caso e’ dato dai costi di produzione di energia che mostrano tutt’ora valori troppo elevati se confrontati con quelli dei combustibili fossili.

A questo punto, la terza generazione di combustibili fossili, mira a trovare soluzioni alternative per la produzione di biocarburanti utilizzando materie prime facili da reperire, economiche e ad alto rendimento in termini di carburante.

Il settore di ricerca principale nei biocarburanti di terza generazione e’ quello che vuole impiegare microalghe.

Cosa sono le microalghe?

Si tratta di normalissime specie vegetali che crescono spontaneamente nelle acque reflue. Un eventuale utilizzo di queste alghe consentirebbe dunque non solo di risolvere il problema dei carburanti, ma anche di ridurre il carico inquinante nelle acque di scarto.

Ovviamente, in un’ottica di produzione di massa, si pensa di creare dei veri e propri allevamenti di alghe. In questo caso, le uniche cose di cui c’e’ bisogno sono uno specchio d’acqua (cisterna, vasca, ecc) e della luce del sole per permettere la fotosintesi.

Le alghe in generale sono molto ricche di lipidi e proteine che le rendono ottimi candidati per la produzione di biodiesel e bioetanolo. Per darvi un’idea, il contenuto di grassi di queste sostanze e’ anche 30 volte superiore a quello delle comuni specie vegetali utilizzate nella produzione di biocombustibile (mais e colza in primis).

Come confronto numerico, vi riporto una tabella in cui viene mostrato non solo il contenuto lipidico di queste sostanze confrontate con le materie prime utilizzate nella prima e seconda generazione, ma anche il rendimento in termini di olii che e’ possibile ottenere:

Materia prima

Contenuto lipidico (% olio/s.s.)

Rendimento in olio
(L olio/ha)

Suolo utilizzato
(m2/kg biodiesel)

Resa in biodiesel
(kg biodiesel/ha)

Mais

4

172

66

152

Soia

18

446-636

18

562

Jatropha

28

741-1.892

15

656

Camelina

42

915

12

809

Colza

41

974

12

946

Girasole

40

1.070

11

1.156

Olio di palma

36

5.366-5.950

2

4.747

Microalghe (basso contenuto in olio)

30

58.700

0,2

51.927

Microalghe (medio contenuto in olio)

50

97.800

0,1

86.515

Microalghe (elevato contenuto in olio)

70

136.900

0,1

121.104

Anche per quanto riguarda l’emissione di CO2, i carburanti prodotti da alghe presentano valori molto piu’ bassi rispetto ai biocarburanti soliti:

Materia prima

Emissioni di CO2

Impiego di acqua

Superficie necessaria per soddisfare la domanda mondiale di petrolio

 

(gCO2eq/MJ)

(g/m2/g)

(106 ha)

Jatropha

56,7

3.000

2.600

Alga

3

16

50-400

Olio di palma

138,7

5.500

820

Colza

78,1

1.370

4.100

Soia

90,7

530

10.900

Le proprieta’ dei carburanti ottenuti tra le terza e le prime due generazioni e’ del tutto equivalente:

Proprietà

Biodiesel da alghe

Biodiesel da soia

Biodiesel da colza

Biodiesel da girasole

Diesel

Densità (kg/L)

0,864

0,884

0,882

0,860

0,838

Viscosità (mm2/s, cSt a 40 °C)

5,2

4

4,83

4,6

1,9-4,1

Flash point (°C)

115

131/178

155/180

183

75

Punto di solidificazione (°C)

-12

-4

-10,8

-7

-50/+10

Punto di intorbidamento (°C)

2

1

-4/-2

1

-17

Numero di cetano

52

45/51

53/56

49

40-55

PCI (MJ/kg)

41

37,8

37,2

38,9

42

Dunque, tutto risolto, basta iniziare a coltivare alghe per eliminare il problema delle risorse fossili. Purtroppo, non e’ propriamente cosi’.

Come anticipato, si tratta di ricerche attualmente in corso. Il problema principale dell’utilizzo di alghe e’, al solito, il costo. Allo stato attuale per ottenere 1 Kg di alghe servono circa 3.5 dollari. Questo prezzo e’ ancora troppo alto in confronto ai combustibili classici.

Come detto pero’, si tratta di studi ancora ad un livello quasi pioneristico. In tal senso, ci sono ancora molti “manici” che possono essere utilizzati per migliorare e ottimizzare il processo. Prima di tutto, i costi mostrati sono relativi ad una produzione su piccolissima scala. Nell’idea di un impianto dedicato, il costo per Kg di alghe potrebbe scendere tranquillmanete di un fattore 10, rendendolo paragonabile a quello dei combustibili fossili. Inoltre, esistono migliaia di specie di alghe che possono essere coltivate. In termini di resa, le alghe attualmente in studio potrebbero non essere le migliori per contenuto lipidico. Trovare soluzioni migliori equivale a migliorare il rendimento in produzione e dunque ad abbassare ancora il prezzo. Sempre in questo contesto, il ricorso all’ingegneria genetica potrebbe aiutare ad ottimizzare i processi di fotosintesi, aumentando notevolmente la produzione lipidica e dunque il rendimento nella produzione di olii combustibili.

Concludendo, gli studi sulla terza generazione di biocarburanti mirano all’utilizzo di alghe. Queste specie vegetali presentano un altissimo contenuto lipidico che le rende ottime candidate per la produzione di combustibili. Allo stato attuale, ripetiamo di ricerca pura e appena iniziata, i costi di produzione delle alghe sono ancora troppo elevati. Gli studi in corso mirano dunque all’ottimizzazione della produzione di queste nuove materie prime, oltre a migliorare il rendimento trovando, tra le migliaia disponibili, quelle a maggior contenuto lipidico. Sicuramente, una ricerca del genere merita attenzione. In un futuro piu’ o meno prossimo potrebbe rivelarsi fondamentale per la civilta’ umana.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Dall’asfalto bollente all’energia

26 Giu

In questo articolo:

Caldo record? In Germania scoppiano le autostrade?

e’ stato fatto un commento davvero molto interessante. Come potete leggere, il commento pone l’attenzione sugli studi attualmente in corso per la produzione di energia sfruttando il calore accumulato dall’asfalto delle nostre strade. Questa possibile soluzione non e’ in realta’ l’unica al vaglio dei ricercatori e proprio per questo motivo, credo sia interessante fare il punto della situazione.

Come sapete bene, diverse volte ci siamo occupati di fonti di energia alternativa o anche di utilizzi piu’ intelligenti delle risorse a nostra disposizione. Questi sono solo alcuni degli articoli che potete trovare sul blog:

Elezioni, promesse verdi e protocollo di Kyoto

Il futuro verde comincia da Masdar

Energia solare nel deserto

Pannelli, pannelli e pannelli

Il led rosso dello stadby …

Elettrodomestici e bolletta

Ora, come anticipato, vogliamo analizzare le possibili tecniche per sfruttare il calore che viene raccolto dalle nostre strade per poter creare energia elettrica. Come sapete bene, l’asfalto e’ in grado di accumulare una notevole quantita’ di calore, che poi viene ceduta all’ambiente in tempi molto lunghi. Proprio per questo motivo, le nostre strade rimangono ad una temperatura elevata anche per diverse ore dopo il tramonto del sole. Purtroppo, riuscire a catturare questo calore non e’ semplice. Prima di tutto, una limitazione e’ data dall’enorme superficie da cui estrarre calore, cioe’ l’intera lunghezza della strada, e soprattutto nella scelta del metodo piu’ adatto per raccogliere efficientemente questa energia.

Il metodo proposto nel commento da cui siamo partiti, punta ad utilizzare il calore per scaldare l’acqua contenuta all’interno di piccole tubature inglobate nell’asfalto stesso. In tal senso, tubicini di materiale in grado di condurre molto bene il calore vengono posizionati a circa 1 cm dalla superficie, in modo da poter raccogliere il calore del catrame. L’acqua cosi’ riscaldata puo’ poi essere utilizzata per produrre energia o anche per fornire acqua calda sanitaria per le diverse postazioni o edifici intorno alla strada stessa. Questo metodo presenta anche due ulteriori vantaggi importanti. Il primo e’ che in questo modo viene ridotto il calore che rimane intrappolato nell’asfalto e che, quando ceduto all’ambiente, crea il cosiddetto problema dell’isola di calore soprattutto nelle nostre citta’. L’altro vantaggio notevole e’ che un impianto cosi’ realizzato potrebbe essere sfruttato anche al contrario, un po’ come avviene nei pannelli radianti sotto il pavimento utilizzati per riscaldare le nostre case. Cosa significa? Durante i mesi invernali, si potrebbe pompare nel sistema acqua a temperatura maggiore, in modo da riscaldare la strada e non permettere la formazione di ghiaccio, responsabile molto spesso di incidenti.

Questa che abbiamo visto, non e’ pero’ l’unica soluzione al vaglio dei ricercatori.

Un altro metodo per sfruttare le nostre strade e’ quello di integrare direttamente pannelli solari. Cosa significa? Come detto in precedenza, l’asfalto e’ soggetto, molto spesso, ad un irraggiamento notevole. Le piu’ grandi arterie sono praticamente sempre assolate garantendo un’esposizione buona ai raggi solari. Bene, sostituendo le nostre strade con una sequenza di pannelli solari, si potrebbe produrre direttamente elettricita’ sfruttando l’effetto fotovoltaico. Questa energia potrebbe al solito essere utilizzata per alimentare aree di servizio e abitazioni in prossimita’, ma potrebbe anche essere immessa nelle rete elettrica e dunque essere a disposizione dei consumatori.

Come e’ possibile mettere un pannello solare al posto delle strade?

Ingegneristicamente parlando, la soluzione proposta e’ molto interessante. Negli USA e’ gia’ in corso uno studio utilizzando pannelli di larghezza 3,7 metri, che e’ la larghezza standard delle corsie americane. Se consideriamo un’esposizione di 4 ore al giorno, con un efficienza anche solo del 10%, poiche’ l’orientamento dei pannelli e’ deciso dalla strada e non dall’ottimizzazione dell’esposizione, si potrebbero produrre circa 5-6 KWh per pannello al giorno. Se ora pensiamo che, solo negli Sati Uniti, ci sono circa 100000 Km di autostrade, direi che i numeri cominciano a diventare interessanti.

Tornando pero’ all’ingegneria, come puo’ un pannello resistere al passaggio di una macchina o, ancor piu’, ad un mezzo pesante? I pannelli per questo scopo sono costruiti con una protezione in vetro, pensata come quella dei vetri anti proiettile delle vetrine. Essendo questi vetri studiati per resistere ai notevoli impulsi dei proiettili, sarebbero in grado di supportare anche il peso di un veicolo. C’e’ un altro problema da considerare. Per evitare slittamenti dei veicoli al loro passaggio sul vetro, la superficie verrebbe lavorata in piccolissimi prismi, in grado di assicurare una buona presa degli pneumatici sui pannelli. Come detto, una sperimentazione in questa direzione e’ gia’ in corso negli USA appunto per verificare costi e benefici di una soluzione del genere.

C’e’ poi un’ultima soluzione che vorrei presentarvi, anche se leggermente diversa dalle precedenti. Il problema principale di molte strade e’, come sappiamo bene tutti, il traffico. Per sfruttare questo, una compagnia privata giapponese, ha studiato uno speciale dosso in grado di trasformare il passaggio di un mezzo in energia elettrica. Il meccanismo e’ semplicissimo. Quando un veicolo passa su questo speciale dosso, manda in pressione dei pistoni idraulici che a loro volta possono essere sfruttati per far muovere delle turbine e produrre corrente elettrica. Un primo prototipo di dosso e’ stato costruito ed e’ lungo circa 1 metro, con un’altezza dell’ordine dei 6 mm. Questa soluzione andrebbe implemantata nei punti piu’ nevralgici per il traffico dove si hanno molti mezzi pesanti che circolano a velocita’ ridotta. Soluzioni ottimali potrebbero essere all’interno delle citta’, in prossimita’ dei porti o anche vicino ad aree di parcheggio. Il costo di questo sistema non e’ molto basso e si aggira intorno ai 300000 dollari a dosso, comprensivi ovviamente anche del sistema di produzione dell’energia. Secondo quanto riportato dalla ditta, in un punto di traffico sostenuto in cui transitano circa 20000 veicoli al giorno, il prezzo verrebbe ripagato nel giro di 3-4 anni e sarebbe in grado di fornire corrente per almeno 100 case. Ovviamente, si tratta di numeri molto provvisori, detti poi dalla ditta produttrice del sistema.

Concludendo, esistono diversi metodi per poter sfruttare le nostre strade nella produzione di energia. Come avete visto, non stiamo parlando di soluzioni innovative di tecnologie non utilizzate prima, bensi’ di applicazioni, a mio avviso anche molto intelligenti, di sistemi conosciuti in ambiti nuovi. Questo rientra a pieno titolo nello sfruttamento piu’ intelligente dei sistemi che gia’ conosciamo. Ora, come detto, si tratta di soluzioni sulle quali sono in corso studi ancora molto preliminari, ma chissa’ che un giorno queste non diventeranno soluzioni standard nella costruzione delle nostre, assolutamente non eliminabili, strade.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il led rosso dello standby …

19 Mar

Anche se il titolo del post puo’ sembrare alquanto strano, vorrei semplicemente fare una riflessione in questo articolo. In particolare, vorrei concentrarmi su quella miriade di piccoli LED che abbiamo nei nostri dispositivi elettronici e che segnalano lo stato di standby o anche di accensione passando dal rosso al verde.

Perche’ faccio questa considerazione?

Riflettiamo un attimo su una cosa. In casa, tutti noi, abbiamo diversi dispositivi elettronici. Ognuno di questi ha molto spesso un led che segnala il suo stato e che rimane costantemente acceso. Sicuramente, il piu’ famoso di questi e’ quello del televisore.

Bene, prima di tutto, anche se sembrera’ incredibile, c’e’ ancora chi pensa che quel piccolo led di stato serva per scopi diversi da quelli che vogliono farci credere.

Non scherzo se dico che in rete c’e’ ancora chi cerca di convincere le persone che quel led sia usato da “non si sa chi” per spiare all’interno delle nostre case. In questi racconti fantascientifici, la lucetta sarebbe utilizzata per una sorta di “grande fratello” gestito da oscuri poteri interessati a studiarci e a capire le nostre abitudini. Ovviamente, si tratta di fantasie senza senso e anche abbastanza datate. Ero bambino io quando si raccontava questa storia e per spaventarci ci invitavano a spegnere sempre l’interrutore della TV per evitare di far sapere quello che facevamo ogni istante.

led-stand-by

Oltre alla funzione spia, c’e’ anche chi pensa che in realta’ quel led sia una pericolosa arma. Mi viene quasi da ridere pensandoci, ma ci sono siti veramente convinti che la luce emani potenti radizioni in grado di danneggiare le nostre funzioni cerebrali mediante onde elettromagnetiche. Ora, smentire queste voci e’ abbastanza semplice. Mantenendo un profilo scientifico, basta pensare a quanti led, display e lucine varie abbiamo dentro casa. In questo senso, un qualsiasi dispositivo illuminato sarebbe in grado di danneggiare il nostro cervello o di inquinare elettromagneticamente l’ambiente in cui viviamo. Anche in questo caso, si tratta di teorie assurde e che in realta’ nascondo il vero inquinamento elettromagnetico in cui siamo costantemente immersi.

Detto questo pero’, torniamo al vero senso dell’articolo. Quello che mi sono chiesto e’: quanto consuma quel piccolo led che tutti abbiamo in casa?

Se ci pensate, in diversi post:

Elezioni, promesse verdi e protocollo di Kyoto

Il futuro verde comincia da Masdar

Energia solare nel deserto

Pannelli, pannelli e pannelli

abbiamo parlato di energie rinnovabili, di consumo energetico, di citta’ ad impatto zero. Tutte le volte ci siamo soffermati a parlare di quanto sarebbe bello sfruttare le rinnovabili per produrre energia e di quanto consumista e’ divenuta la nostra societa’.

Bene, a cosa serve quel piccolo led? Assolutamente a nulla o meglio, non serve a niente nel momento in cui non vogliamo utilizzare quel particolare apparecchio che e’ in standby in attesa che prima o poi qualcuno gli dia un comando e che possa iniziare a funzionare.

Proviamo dunque a fare un calcolino della serva per cercare di capire quanto quella lucetta incide sul nostro consumo energetico.

Cercando in rete, si trovano numeri completamente diversi e utenti, specialmente sui forum, pronti ad insultarsi per portare avanti un dato piuttosto che un altro. Perche’ avviene questo? In realta’ il motivo e’ molto semplice. Da un lato ci sono gli ambientalisti che vogliono sostenere gli enormi consumi spalmati in un anno di questi led, dall’altro ci sono gli altri che invece sostengono l’impatto nullo nel consumo totale di una famiglia tipo.

Dov’e’ la verita’?

Per poter rispondere a questa domanda, proviamo da soli a fare qualche calcolo.

Quel piccolo led richiede, in media, per poter funzionare, una corrente di 20mAh. Lavorando ad una tensione, sempre considerando valori medi, di circa 2V, il consumo che si ottiene e’ di 40mWh, cioe’ 40 millesimi di Wattora. Utilizziamo il wattora, cioe’ l’energia richiesta per fornire una potenza di 1 W in un’ora, proprio per avere un raffronto diretto con i nostri consumi. Se prendete una bolletta della luce, i consumi vengono conteggiati (e contabilizzati) appunto in questa unita’ di misura.

40mWh e’ un valore molto molto basso ed e’ su questo che molti giocano mostrando il contributo completamente nullo di questo consumo. In realta’, disponendo di un misuratore di potenze, ci si accorge che il consumo del led del televisore e’ molto superiore a questo valore. Perche’? Per quanto inutile, il led non e’ li per bellezza ma indica lo stato di standby del televisore, cioe’ l’elettrodomestico e’ spento ma pronto a ricevere in un qualsiasi momento un segnale dal telecomando. Cosa significa? Con l’apparecchio in standby, non viene alimentato solo il led, ma anche altri circuiti come, ad esempio, il ricevitore, una parte della scheda madre, circuiti secondari, ecc. Tutti “pezzi” che assorbono dalla rete e che sono alimentati.

In questo senso, il consumo di un televisore in stand-by puo’ benissimo arrivare anche a 3Wh, cioe’ circa 100 volte di piu’ di quanto calcolato con il singolo led. Ovviamente questo valore dipende da molti fattori: tipologia della TV, anno di costruzione, produttore, ecc. Dati importanti ma che possono far variare di poco il valore del consumo. Volendo fare un conto di massima, non ci preoccupiamo di questo e andiamo avanti.

Ora, se pensiamo ad una TV accesa 3 ore al giorno, per altre 21 l’apparecchio e’ in stand-by. Quanto consuma: 3Wh x 21 ore x 365 giorni in un anno, fanno la bellezza di 23KWh, cioe’ 23000 W.

In bolletta paghiamo qualcosa come 0.3 euro/KWh, dunque per un televisore in standby 21 ore al giorno stiamo pagando 5,75 euro all’anno.

Nemmeno 6 euro all’anno? Tutto questo calcolo per cosi’ poco?

Facciamo una riflessione. La TV, il pc fisso, il portatile, la stampante, ecc, ognuno di questi elettrodomestici ha il suo led. Se abbiamo 10 dispositivi di questo tipo, stiamo regalando al fornitore circa 60 euro all’anno consumati per non fare nulla.

Ancora non vi basta? Quanti televisori, rimaniamo in questo esempio, ci sono in Italia? Da una stima grossolana possiamo supporre circa 30 milioni. 30 milioni per 5,75 euro fanno circa 170 milioni di euro! Per fare cosa? Sempre per tenere accesa una lucina.

Ora, tralasciando i sensazionalismi, questi valori possono anche sembrare irrisori per la singola famiglia, ma pensiamo al numero di televisori in Italia e al consumo annuo che abbiamo calcolato. Perche’ dobbiamo “buttare” tutta questa energia senza uno scopo? Allarghiamo il discorso al mondo intero. Quanti elettrodomestici ci sono?

Il mio discorso non vuole essere ne ambientalista ne tranquillizzatore a tutti i costi. Semplicemente la domanda e’: perche’ dobbiamo sprecare tutta questa energia quando poi siamo pronti a parlare di rinnovabili, di futuro energetico o di inquinamento?

Ovviamente, potremmo stare a disquisire ore sulla correttezza dei dati utilizzati, sulla sovrastima o sottostima dei numeri. Discorsi da cui non se ne esce, ma la cosa importante e’ che gli ordini di grandezza in gioco sono proprio questi.

Non per fare un discorso banale, ma e’ giusto pensare al futuro energetico del nostro mondo, ma e’ altresi’ giusto pensare anche a non sprecare l’energia di cui si dispone. Questi due concetti devono sempre andare di pari passo. Ognuno di noi, nel suo piccolo, deve contribuire come meglio puo’. Parliamo tanto di risparmio energetico, bene iniziamo dalle piccole cose ognuno di noi facendo del suo meglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Sindrome aerotossica e scie chimiche

11 Feb

Torniamo di nuovo a discutere di scie chimiche ed, in particolare, di una nuova presunta prova che molto sta facendo discutere in questi giorni. Per chi avesse perso i precedenti post sulle scie, riporto qualche esempio:

– Alcune considerazione sulle scie chimiche

– Scie Chimiche: il prelievo in quota

– Scie chimiche e cloud seeding

– Come difendersi dalle scie chimiche

– Il Dibromoetano e le scie chimiche

A-380 modificato per spargere scie chimiche

La nuova presunta prova sarebbe la cosiddetta “sindrome aerotossica”. Di cosa si tratta? Stando a quanto si legge in rete, l’aria all’interno delle cabine pressurizzate degli aerei sarebbe presa dall’esterno del velivolo. In particolare, verrebbe prelevata l’aria all’interno di uno o piu’ motori e portata in pressione mediante dei compressori. Dal momento che i voli di linea verrebbero utilizzati per spargere inquinanti mediante scie chimiche, questa aria sarebbe contaminata da questi agenti patogeni. Il risultato sarebbe quindi un’aria fortemente inquinata all’interno della cabina e che causerebbe danni agli occupanti dell’aeromobile. Questo problema sarebbe maggiormente marcato nei piloti e negli assistenti di volo, dal momento che questi passano molto tempo all’interno delle cabine pressurizzate e quindi sono maggiormente esposti agli inquinanti.

Contrail.bristol.four-engined.arp

A riprova di questa ipotesi viene portato come esempio la morte prematura di due piloti della British Airways che sarebbero proprio stati avvelenati a causa di questo meccanismo.

Cosa c’e’ di vero in tutto questo? Esiste veramente questa sindrome?

Al contrario di quanto sostenuto in rete, la sindrome aerotossica e’ nota nel senso che esiste la possibilita’ che aria leggermente contaminata possa entrare all’interno della cabina. Ovviamente non si tratta di aria contaminata da scie chimiche.

Per poter capire questi concetti, e’ necessario comprendere meglio come funziona il circolo dell’aria all’interno dei velivoli.

Come sappiamo bene, durante un volo di linea ad alta quota, l’aria all’esterno del velivolo e’ estremamente rarefatta e ad una temperatura molto bassa. Proprio per questo motivo, una frazione tra il 60 e l’80% dell’aria all’interno della cabina viene riciclata e pulita mediante appositi filtri. La frazione mancante viene invece prelevata dall’esterno. In che modo? L’aria esterna non puo’ essere prelevata e messa in circolo a causa della bassa temperatura e della pressione molto ridotta. Per ovviare a questo, una frazione di aria viene prelevata all’interno del motore prima della combustione con il carburante. In questo modo l’aria viene riscaldata automaticamente dal motore che la porta ad una temperatura intorno ai 600 gradi. Quest’aria viene poi mescolata con una frazione di aria esterna a bassa temperatura e spinta all’interno di un compressore. Le frazioni relative di aria calda e fredda oltre al fattore di compressione, consentono di avere aria alla stessa temperatura e pressione di quella all’interno della cabina.

Fin qui tutto bene. Come e’ possibile dunque avere aria inquinata?

Come detto, l’aria viene prelevata dal motore nello stadio precedente a quello di combustione. Anche in questo caso pero’, ci possono essere piccole perdite di olio combustibile, dovute ad una non perfetta tenuta delle guarnizioni, che possono inquinare l’aria prima che questa venga spinta dentro la cabina. Come potete facilmente immaginare, l’aria, prima di essere introdotta all’interno, passa ovviamente per dei filtri, ma a volte questi non sono sufficienti ad eliminare tutte le impurita’. Ora capite bene che, piccole perdite ci possono essere, ma non sono ovviamente la regola. Questo solo per chiarire l’incidenza della sindrome aerotossica.

Come detto in precedenza, questo fenomeno e’ del tutto noto, ma negli ultimi anni sta creando sempre piu’ maggiori problemi. Perche’? Ovviamente la spiegazione non dipende dalle scie chimiche, ma, al solito, da considerazioni oggettive facilmente ricavabili. Prima di tutto, il passaggio dai motori a pistoni alle turbine, ha sensibilmente diminuito la frazione di aria prelevata dall’esterno. Infatti, mentre in passato l’estrazione di una frazione dell’aria non comportava variazioni nei parametri dei motori, con le turbine l’estrazione dell’aria comporta un calo di prestazioni ed un aumento del consumo di carburante. Questo significa che rispetto al passato, una frazione maggiore di aria resta in circolo all’interno dell’aereo  e dunque eventuali inquinanti restano piu’ tempo all’interno del circuito.

Il secondo motivo invece e’ esclusivamente commerciale. Pensate che negli anni ’90 la distanza tra due file di sedili in una classe economica standard era di 91 cm. Questo valore e’ poi sceso a 81 cm nel 2000 e successivamente, soprattutto con l’esplosione delle compagnie low cost, e’ arrivato a soli 71 cm ai giorni nostri. Questa diminuzione corrisponde ovviamente ad un aumento dei passeggeri trasportati su un singolo volo. Il sistema di aerazione dei velivoli e’ pero’ rimasto lo stesso degli anni ’90. Capite bene come queste modifiche possono solo peggiorare la qualita’ dell’aria in cabina.

Inoltre, a riprova del fatto che il problema sia noto alle compagnie aeree ma soprattutto ai costruttori di velivoli, il nuovo Boeing 787 Dreamliner ha un sistema di aerazione completamente differente. In questo caso infatti, l’aria non viene piu’ prelevata all’interno delle turbine ma in un punto diverso dove viene fatta passare per un condotto esclusivo dotato di compressori, filtri e riscaldatori elettrici. Questo sistema, anche se notevolmente piu’ dispendioso dal punto di vista energetico, assicura sempre una buona qualita’ dell’aria in cabina non tanto per i passeggeri quanto per i piloti e per il personale di bordo che stazionano per lungo tempo all’interno del velivolo.

Concludendo, anche in questo caso, si stanno prendendo notizie gia’ note e che semplicemente vengono spacciate come novita’ assolute e come prova dell’esistenza delle scie chimiche. La sindrome aerotossica e’ nota gia’ da tempo e si stanno trovando soluzioni diverse per il ricircolo dell’aria in cabina, soluzioni in grado di assicurare un ottimo confort ed elevati standard di qualita’. Prima di chiudere, ci tengo a sottolineare il fatto che non tutti i voli hanno problemi di inquinanti all’interno. Come visto nell’articolo, infiltrazioni ci possono essere a causa di leggere perdite all’interno dei motori, assolutamente non presenti sempre ed in tutti i casi. Questo solo per smentire quanto affermano che volare e’ diventato rischioso a causa di questa sindrome.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Elezioni, promesse verdi e protocollo di Kyoto

6 Feb

Come tutti sanno, qui in Italia, siamo nel pieno della campagna elettorale per le elezioni politiche. Non passa un giorno senza che i nostri candidati premier promettano questo o quest’altro, facendo a gara tra loro a chi riesce a fare la “sparata”, perche’ in genere solo di questo si parla, piu’ grossa in TV o sui giornali.

Ovviamente, lungi da me fare un discorso politico su questo blog. La premessa fatta, e su questo credo che nessuno possa dire il contrario, e’ indipendente da destra, sinistra, centro, sopra e sotto.

Oggi pero’, leggendo il giornale, vedo una serie di notizie che mi hanno fatto riflettere. Tutti hanno cominciato a parlare di ambiente e si sono resi conto che nei programmi elettorali non poteva certo mancare anche la promessa su queste tematiche. In particolare, proprio oggi, ci sono state una serie di dichiarazioni riguardanti proprio la politica delle rinnovabili e lo sfruttamento o meno di determinate risorse italiane.

A cosa mi riferisco?

7252Cominciamo proprio dal discorso sfruttamento. Nel canale di Sicilia sta facendo molto discutere la scelta di installare piattaforme per l’estrazione petrolifera. Prima di tutto, su molte fonti si e’ iniziato a parlare di tecniche di fracking, di pericolo terremoti o anche della possibilita’ che attivita’ di questo tipo possano creare tsunami nei nostri mari.

Di fracking abbiamo parlato piu’ volte, ad esempio, in questi post:

Fratturazione idraulica

Una prova del fracking in Emilia?

Innalzamento dei pozzi in Emilia prima del sisma

Come sappiamo, queste tecniche sfruttano l’inserimento nel terreno di fluidi ad alta pressione i quali, mediante un azione corrosiva, riescono a facilitare l’estrazione di idrocarburi, ma principalmente di gas. Come visto nei post precedenti, questo genere di attivita’ ha veramente mostrato la possibilita’ di innescare terremoti di intensita’ molto lieve anche a distanza di alcni giorni dall’immisione dei fluidi nel sottosuolo. Ci tengo a sottolineare che stiamo parlando di lievi scosse, non esiste nessun caso al mondo, documentato, in cui il fracking abbia creato terremoti di magnitudo elevata.

Dell’utilizzo del fracking ne abbiamo parlato nel caso del terremoto dell’Emilia del 2012. Come visto, questa relazione era in realta’ completamente campata in aria e questa attivita’ assolutamente non documentata prima ancora che connessa con il terremoto.

Tornando al caso dello stretto di Sicilia, i timori principali vengono dal fatto che questa e’ una zona da sempre considerata a rischio terremoti, vista anche la presenza di strutture del terreno molto diversificate, in grado di provocare l’amplificazione delle onde sismiche, ma anche grazie alla presenza di linee di faglia proprio nello stretto.

Diciamo subito che l’estrazione del petrolio nello stretto non prevede assolutamente l’utilizzo del fracking e non c’e’ assolutamente nessun pericolo terremoto in queste attivita’.

Queste considerazioni rispondono da sole alle accuse mosse in questa direzione, anche se la cosa principale da valutare e’ in realta’ l’utilita’ di queste trivellazioni. La nostra penisola, e ovviamente i mari che la circondano, sono molto poveri di giacimenti di idrocarburi e lo stretto di Sicilia non e’ assolutamente da meno. Il problema principale non e’ nemmeno l’utilizzo del fracking o delle trivellazioni, ma semplicemente la poverta’ dei giacimenti che sarebbero in grado di fornire una quantita’ di petrolio assolutamente non elevata. Per darvi un’idea, se anche si estraesse di colpo tutto il petrolio presente nel giacimento, questo sarebbe sufficiente alla nostra nazione solo per 2-3 mesi. Dunque? Forse la spesa non vale l’impresa, come si dice dalle mie parti.

Parlando invece di rinnovabili, il discorso sarebbe leggermente piu’ complesso, se non altro per la grande diversificazione delle fonti sfruttabili, ognuna con le proprie caratteristiche e i propri limiti. Rimanendo sul punto di vista elettorale, oggi tutti si dicono convinti nel sostenere l’utilizzo delle rinnovabili , dimenticando pero’ di fare un discorso a lungo termine.

Le rinnovabili, quali Sole e vento in primis, sono ampiamente disponibili in Italia e, ad oggi, ancora poco sfruttate. Quello che pero’ i nostri politicanti dimenticano di considerare, come sempre avviene non solo su questo tema, e’ la prospettiva ad ampio respiro. Di anno in anno, gli incentivi per l’installazione, ad esempio, di un impianto fotovoltaico sono diminuiti e hanno raggiunto un minimo con il quinto conto energia del 2012. Ovviamente ancora oggi conviene installare un impianto domestico per l’autosostentamento, ma questo principalmente grazie alla riduzione del costo dei pannelli e al leggero incremento in termini di rendimento dell’impianto stesso.

Ho preso come esempio il caso solare perche’ e’ quello piu’ noto e piu’ comune nei discorsi abitativi privati. Questo esempio e’ importante per capire la prospettiva futura. Lo sfruttamento delle rinnovabili ora non potra’ essere lo stesso tra 20 o 30 anni. Se pensiamo che anno dopo anno, il consumo medio di energia elettrica aumenta nel mondo vertiginosamente, e’ impensabile dare corrente a tutti questi paesi semplicemente con dei pannelli sopra il tetto o con qualche pala nel mare. Quello che i nostri politicanti dovrebbero capire e’ che investire nelle rinnovabili significa investire nella ricerca in questo settore. Per darvi qualche esempio, in campo solare vi sono molte soluzioni futuribili su cui si sta lavorando: solare termodinamico, ricerca su nuovi materiali, specchi, nanopraticelle, ecc. Tutte soluzioni che potrebbero incrementare la produzione di corrente elettrica per superficie occupata.

Abbandonando un attimo il discorso rinnovabili, si dovrebbe investire, ad esempio, nel campo della fusione nucleare. Questo settore e’ assolutamente appetibile e riesce a mettere d’accordo praticamente tutti: pro e contro nucleare, ambientalisti e imprenditori. La fusione nucleare consentirebbe di ottenere energia molto facilmente, con impianti puliti, senza emissioni e senza scorie radioattive. Cosa si potrebbe desiderare di meglio? Ovviamente siamo ancora lontani, ad oggi, dal pensare una centrale civile per la produzione di corrente che funzioni a fusione, ma per poter arrivare a questo e’ necessario investire in questo settore.

Concludendo questa parte, e’ inutile parlare di green economy se non si parla di investire nella ricerca, sia essa scientifica o tecnologica. Quando sentiamo dire che la scienza puo’ aiutarci a vivere meglio, stiamo parlando di questo, cioe’ di soluzioni in grado di farci vivere meglio, in un ambiente meno inquinato e non sfruttando come virus le risorse del nostro pianeta attaccandole fino all’ultima goccia.

Prima di chiudere, vorrei uscire un secondo dai nostri confini ma sempre rimanendo in tema ambientale. Proprio di questi giorni e’ la notizia che gli Stati Uniti hanno finalmente deciso di sottoscrivere il protocollo di Kyoto. Come sapete, in questo trattato gli stati si sono ripromessi di ridurre notevolmente l’emissione di gas serra nell’ambiente mediante una migliore politica ambientale ed industriale. Pensate che gli USA per anni hanno rifiutato di sottoscrivere il trattato anche se da soli producono circa il 36% dei gas serra a livello mondiale. Questo potrebbe forse essere un primo vero passo in avanti nelle politiche green degli Stati Uniti.

In questa breve discussione, abbiamo dunque cercato di analizzare il punto di vista scientifico nella produzione di energia da fonti rinnovabili. Anche in questo settore, la vera prospettiva futura e’ quella di un investimento reale nella ricerca al fine di poter migliorare la tipologia e la qualita’ delle fonti rinnovabili (e non) utilizzate. Questo messaggio e’ estremamente importante ed e’ quello che i futuri governanti, di qualsiasi colore, dovrebbero sempre tenere a mente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

 

Dove trascorrere il 21 Dicembre

20 Ott

Come abbiamo visto nei nostri post, le profezie sul 21 Dicembre spaziano su argomenti anche molto diversi tra loro. Si parla di invasioni aliene, scontro della Terra con Nibiru, tempeste solari, inversioni di campi magnetici. Tutti questi argomenti sono trattati in dettaglio nel libro “Psicosi 2012. Le risposte della scienza”, dove vengono affrontati, sempre in maniera divulgativa ma mostrando il punto di vista della scienza ufficiale, cercando di capire la probabilita’ o meno di eventi di questo tipo.

Ora, indipendentemente che crediate o no alla fine del mondo o che qualcosa possa accadere, vogliamo porci una domanda semplice: dove possiamo trascorrere il 21 Dicembre?

In diversi post abbiamo parlato di alcuni luoghi che, storicamente o geologicamente, vengono considerati come sicuri:

La salvezza e’ vicina …. precisamente a Ceglie in Italia

Aspettare il 21 Dicembre sui Pirenei

o di come dovrebbe apparire, stando alle fonti catastrofiste sul web, la nostra Terra dopo il 21 Dicembre:

Il mondo dopo il 21 Dicembre 2012

Come invece riportano molti siti di turismo e agenzie di viaggio, c’e’ una richiesta sempre maggiore di viaggi in Centro America a cavallo del 21 Dicembre. Sembra dunque che molte persone stiano decidendo di passare questo fatidico giorno proprio nelle terre dei Maya: Messico, Guatemala e Yucatan. Se il mondo dovesse finire, quale posto migliore se non quello dove queste profezie sono nate?

Come spesso accade, queste mode o convinzioni vengono immediatamente sfruttate da coloro che fiutano l’affare e che ovviamente non sono i turisti della catastrofe. I prezzi per i soggiorni sono in continuo aumento e il prezzo dei voli presenta un’impennata proprio per il 21 Dicembre.

Proviamo a fare questo esercizio. Utilizzando il sito:

skyscanner

andiamo a vedere i prezzi dei voli, ad esempio, per il Guatemala. Abbiamo scelto questo sito perche’ consente di fare una ricerca sulle diverse compagnie aeree scegliendo subito la combinazione piu’ economica possibile. In questo esercizio dunque prendiamo come aereoporto di partenza Roma Fiumicino e come arrivo Citta’ del Guatemala.

Il prezzo medio per un volo di sola andata in classe economica si aggira intorno ai 700 euro. Vi ricordo che questa e’ gia’ la soluzione piu’ vantaggiosa. Questo e’ il prezzo che troviamo ad esempio per partenze a novembre  o i primi di dicembre. Ora, avvicinandoci al 21 Dicembre, i prezzi aumentano vertiginosamente. Per partire il 20 Dicembre, vi servono circa 1100 euro. Se poi volete partire proprio all’ultimo minuto per godervi lo spettacolo in Guatemala e dunque scegliete proprio la data del 21 Dicembre, vi servono ben 1530 euro per un volo di sola andata.

Ovviamente, si potrebbe far notare che l’aumento dei prezzi e’ del tutto normale non perche’ ci avviciniamo al 21 Dicembre ma perche’, come e’ noto, avvicinandoci al Natale i prezzi aumentano. Purtroppo non e’ cosi’. Se decidete di partire il 23 Dicembre, dunque poco prima di Natale ma dopo il 21, il prezzo scende da 1530 a 1100 euro. Dunque, questa e’ una chiara dimostrazione di come le compagnie aeree abbiano fiutato l’affare ritoccando di conseguenza i prezzi dei biglietti.

Per completezza, vi riporto anche il grafico dei prezzi piu’ ecnomici in funzione della data, sempre per il volo Roma-Guatemala:

Prezzi per un volo di sola andata Roma Fiumicino – Citta’ del Guatemala

Credo che l’andamento del grafico dimostri da solo quanto affermato in precedenza.

Se invece pensate che la soluzione migliore sia quella di trasferirvi proprio nelle terre dei Maya per sopravvivere alla castrofe, allora potete comprare un villino nel villaggio di “Las dos àguilas” in Messico. Questo villaggio-fortezza e’ attualmente in costruzione proprio per offrire rifugio agli eventi del 21 Dicembre e per riprendere la vita su quello che rimarra’ della Terra. La cosa interessante e’ che i costruttori sono degli italiani trapiantati in Messico. L’area di circa 800 ettari e’ edificata con piccoli villini a schiera collegati tra loro da tunnel sotterranei. Questi potrebbero essere utili qualora non fosse possibile uscire allo scoperto per un lungo periodo. Ovviamente non mancano collegamenti radiofonici, generatori fotovoltaici e gruppi elettrogeni per fornire elettricita’, qualora non fosse disponibile quella di rete.

Oltre ai villini, nel complesso e’ presente un laghetto artificiale e al centro dell’insediamento una statua della Dea Atena. Gli operai lavorano 12 ore al giorno e 7 giorni su 7 per completare in tempo l’opera. Ovviamente l’accesso ai non addetti ai lavori o ai non proprietari e’ proibito.

Ultima curiosita’, il villaggio fortezza di Las dos àguilas e’ costruito nel territorio del villaggio di Xul che nella lingua Maya significa “la fine”.

Concludendo, ritorniamo al punto che avevamo discusso in questo post:

Homo homini lupus

c’e’ sempre qualcuno pronto a sfruttare la paura o le convinzioni della gente per soli fini economici.

Diffidate sempre da chi vuole convincervi di qualcosa solo a parole e senza mostrare dati, numeri o prove inconfutabili della cosa. Le profezie sul 2012 offrono terreno fertile per tutti coloro pronti a guadagnare denaro mantenendo alto il livello di terrore. Per analizzare scientificamente gli avvenimenti profetizzati sul 2012, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.