Tag Archives: potenza

Fusione Nucleare tra 10 anni?

20 Ott

Diverse volte su queste pagine ci siamo fermati a discutere il cosiddetto scenario energetico per i prossimi anni. Come è noto a tutti, con una società sempre più energivora e la popolazione in continua crescita, tra non molto avremo un sostanziale problema di disponibilità energetica. Tutto questo è poi aggravato da quella che per molto tempo abbiamo fatto finta di ignorare, cioè la questione ambientale. Sfruttare in modo non controllato le nostre risorse ci porta ad esaurire e compromettere l’equilibrio dell’ecosistema Terra, equilibrio ormai assolutamente poco stabile a causa del contributo determinante proprio dell’attività umana.

Parlando in generale di scenario energetico, ed in particolare dei due orizzonti temporali più citati, cioè 2020 e 2050, in questo post avevo riportato un’intervista che mi era stata fatta al termine di un convegno su queste tematiche in cui avevo partecipato proprio esponendo la situazione nucleare:

Scenario energetico 2050

Per quanto riguarda la fissione, anche se nella concezione comune, soprattutto oggi, queste centrali sono viste come sinonimo di incidenti, c’è da sempre una notevole attività di ricerca proprio per migliorare le prestazioni e incrementare la sicurezza dei reattori.

Fissione a parte, la vera chimera del sostentamento energetico è da sempre la reazione di fusione per produzione energetica.

A parte le notevoli discussioni fatte per discutere i processi LENR a bassa energia:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Abbiamo visto in alcuni articoli:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Fusione, ci siamo quasi?

quanto possa essere difficile realizzare questi reattori che produrrebbero energia senza rilasciare praticamente scorie dirette. Come visto, anche se questo è il processo che utilizzano le stelle per produrre energia, applicare questi concetti in modo controllato sulla Terra non è semplice per problematiche tecnologiche ancora oggi assolutamente aperte. Come sappiamo, la scelta del sistema di contenimento del plasma è uno dei problemi aperti della questione. Diversi gruppi sono da decenni impegnati nella ricerca della miglior soluzione, applicabile e che consenta di raggiungere un bilancio positivo del sistema, cioè produrre più energia di quella che viene richiesta dal reattore per funzionare.

Perchè torno a parlare di questi argomenti? Vi mostro prima di tutto il link dove è possibile leggere un annuncio che sta facendo discutere moltissimo in queste ore:

Lockheed, Fusione

Si tratta di una “news” scritta sul sito internet della Lockheed Martin, società che tutti conoscono se non altro per i suoi sistemi aeronautici. L’annuncio è molto semplice, la Lockheed sostiene di poter arrivare nel giro di 10 anni alla realizzazione commerciale di reattori a fusione portatili, cioè con dimensioni notevolmente inferiori a quelle dei reattori oggi in fase di studio. Questi sistemi potrebbero addirittura essere montati su un camion ed essere trasportati producendo energia in modo mobile. Come viene spiegato, il rendimento di un reattore a fusione sarebbe fino a 5-6 volte maggiore di quelli oggi utilizzati e che sfruttano la fissione.

E’ possibile questo?

Cerchiamo di ragionare insieme. Premetto che moltissimi giornali e siti internet, ecco un esempio:

Repubblica, Lockheed

hanno pubblicato questa notizia con toni enfatici e annunciando alla rivoluzione energetica. Se così fosse, nei nostri articoli precedenti avremmo sbagliato tutto, così come nell’intervista in cui parlavo di fusione che non sarebbe arrivata, se non in fase di sperimentazione (forse) per il 2050. Ora, la Lockheed parla di “realizzazione” nel giro di 10 anni.

Chi sta sbagliando?

Come nostra abitudine, vi dico subito che non voglio essere scettico per partito preso, ma voglio che i miei ragionamenti siano chiari, o almeno pubblici, per tutti. Tra notevoli difficoltà e con costi altissimi, stiamo cercando di realizzare la macchina ITER. Questo reattore sperimentale darebbe la possibilità di fare studi fondamentali per il confinamento del plasma di fusione. Si tratta, come anticipato, di un reattore per ricerca cioè, detto in parole veramente povere, “dobbiamo provarci e vedere cosa succede”. Immaginate la lunga trafila che si prospetta, si realizza un reattore di ricerca, si fa ricerca, se le cose vanno bene si pensa al futuro, cioè ad un qualcosa che dovrebbe, come prototipo, produrre energia per scopi commerciali. Tempi lunghissimi e investimenti, sia in termini economici che di ricerca, lunghissimi.

La Lockheed nel giro di 10 anni dovrebbe avere un reattore da montare su un camion? Quale è stato fino ad oggi il ruolo di questa società nel campo della fusione? Non esiste uno, e dico uno, articolo scientifico pubblicato dalla Lockheed sulla fusione nucleare. Nella pagina che vi ho linkato all’inizio si parla di test tra un anno e produzione entro 10 anni. Ma di cosa? Come vedete, non c’è uno straccio di affermazione scientifica su cui discutere. Stiamo parlando di un qualcosa che nessuno conosce? Di un confinamento particolare? Di altro? Eppure, parliamo di una società grande e da sempre impegnata, anche se in settori completamente diversi, in ambito ricerca. Questo per dire due cose: fino ad oggi la Lockheed non ha mai parlato di fusione e, almeno sulla carta, conosce molto bene come la ricerca avviene e quali passi deve fare.

Cosa penso di questa storia?

Non voglio mettere un punto alla questione ma, al momento, sono fortemente scettico. Se vi fosse una scoperta fondamentale della scienza, ci sarebbero articoli pubblicati. Se l’applicazione sfruttasse processi classici, cioè già testati, ma in modo diverso, ci sarebbero riferimenti scientifici nell’annuncio. Niente di questo è presente. Un comunicato del genere è pesante perchè, qualora confermato, rimescolerebbe tutte le carte del settore energetico e sarebbe un qualcosa di veramente sensazionale per il nostro futuro energetico.

Personalmente, non capisco i toni di molti giornali, alcuni anche scientifici, che hanno accolto questa notizia come una bomba mediatica senza chiedersi come questa rivoluzione dovrebbe avvenire. Ad oggi, ma sarà un mio limite, io non capisco come questi signori vorrebbero fare la fusione. Alla luce di questo, ripeto “oggi”, sono fortemente scettico sull’annuncio ma, come sempre, resto in attesa di sviluppi pe capire meglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

La bomba più potente mai creata!

20 Ott

Eccoci di nuovo qui. Scusate, come al solito, la mia latitanza ma, in questi giorni, sono un po’ lontano dall’Italia e con qualche problema di fuso orario, oltre ai sempre presenti impegni lavorativi.

Detto questo, dopo questi due post:

Il suono del vinile

Il suono più forte mai udito

c’è un’ultima domanda che mi è stata rivolta via mail e che vorrei condividere con tutti perchè, a mio avviso, potrebbe essere molto interessante. La domanda fatta è, se vogliamo, molto semplice: qual è la bomba atomica più potente mai creata dall’uomo?

Premetto subito che il mio post non vuole urtare il pensiero di nessuno. Non è questa la sede per discutere tra chi è a favore dell’energia atomica e chi no, chi pensa una cosa e chi un’altra, ecc.. Lo scopo di questo post vuole essere puramente scientifico o, lasciatemi dire, nonostante l’argomento, di curiosità.

Bene, la bomba atomica più potente, e vedremo cosa significa, mai realizzata dall’uomo è la Bomba Zar, nome in codice Big Ivan, sviluppata in unione sovietica. Premetto subito che non si è trattato di un ordigno di offesa ma solo di un test militare. Anzi, come molti storici sotengono, più che un test militare, la costruzione e il seguente utilizzo della bomba è stato più che altro un messaggio di propaganda dell’ex-URSS per dimostrare ai suoi cittadini, e al mondo intero, cosa la nazione fosse in grado di realizzare.

Dal punto di vista tecnico, la bomba Zar, nella sua concezione iniziale, era una bomba a 3 stadi. Nel nucleo più interno il processo di fissione veniva fatto partire per fornire energia al secondo stadio in cui si aveva un’amplificazione grazie alla fusione di atomi di idrogeno, energia che serviva a sua volta per innescare una seconda fusione nel terzo e più esterno strato della bomba.

A livello progettuale, la bomba Zar era in grado di sviluppare una potenza di 100 Mt, cioè 100 milioni di tonnellate di TNT equivalente. A quanto equivale questa energia? Per farvi un esempio noto a tutti, l’atomica sganciata dagli USA su Hiroshima, Little Boy, aveva una potenza 3125 volte inferiore. Se potessimo far esplodere simultaneamente tutti gli esplosivi convenzionali utilizzati nella seconda guerra mondiale, l’esplosione sarebbe ancora 10 volte inferiore a quella della Bomba Zar.

Questo potentissimo ordigno venne sviluppato dall’Unione Sovietica da un team di fisici capeggiati da Andrej Sacharov, una delle menti più brillanti del XX secolo. Dopo aver contribuito in modo fondamentale allo sviluppo della bomba a idrogeno, Sacharov iniziò una lunga battaglia a favore dei diritti civili e contro l’uso dell’energia nucleare negli armamenti. Proprio questa sua attività gli valse il premio nobel per la pace.

Tornando a parlare dell’ordigno, per motivi di sicurezza, nell’unico test condotto, venne realizzata una versione depotenziata della Bomba Zar. A differenza del progetto iniziale, il terzo stadio venne sostituito da piombo, materiale in grado di rallentare e schermare le radiazioni prodotte dalla bomba. Questa versione poteva però raggiungere la sempre impressionante energia di 50 Mt. Il test venne poi eseguito il 30 Ottobre 1961, sull’isola di Novaja Zemlja, una località sperduta a nord del Circolo Polare.

Nonostante l’enorme potenza, la sostituzione del terzo stadio con piombo diminuì notevolmente la radiazione emessa attraverso il fallout successivo alla detonazione. Proprio per questo motivo, considerando il rapporto potenza/radiazione, la bomba Zar è anche stata l’ordigno nucleare più “pulito”.

Quali sono gli effetti di una detonazione del genere? Prima di tutto, consideriamo che la bomba venne fatta esplodere a 4000 metri dal suolo. Nonostante questo, la successiva onda sismica provocata dalla deflagrazione fece 3 volte il giro del pianeta. Testimoni a 1000 Km di distanza dal punto, poterono vedere chiaramente il lampo anche se il cielo era notevolmente nuvoloso. Altri testimoni riportarono di aver percepito il calore dell’onda sulla pelle fino a 270 Km di distanza. Praticamente tutto quello che era presente fino a 35 Km dal centro venne completamente spazzato via. Se ancora non vi basta, a 900 Km di distanza, in Finlandia, alcune case riportarono danni a porte e finestre provocati dall’onda d’urto dell’esplosione.

Ripeto, questa era la versione depotenziata di un un fattore 2 rispetto al reale progetto.

Spero che quanto raccontato sia sufficiente a far capire le potenzialità di questi ordigni. Ripeto, non voglio discutere se è giusto o meno costruire, o saper realizzare, bombe di questo tipo. Permettetemi però di dire, senza offesa per nessuno, che dal punto di vista tecnico è straordinario pensare a quanta energia possa essere sviluppata da un sistema di questo tipo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’esperimento di Ferlini e la barriera magnetica

4 Mag

Solo qualche giorno fa abbiamo pubblicato un articolo specifico sul cosiddetto “effetto Hutchinson”:

Effetto Hutchinson: realta’ o bufala?

Come visto, i fenomeni descritti in questa esperienza, che spaziano dalla levitazione alla fusione di oggetti con rilascio di energia, sarebbero provocati dalla sovrapposizione di onde elettromagnetiche in zone precise dello spazio. Nel descrivere queste esperienze, abbiamo mostrato un notevole scetticismo dettato dalla particolarita’ dei fenomeni descritti ma, soprattutto, dal fatto che l’autore stesso di questi esperimenti abbia piu’ volte dichiarato di non essere piu’ in grado di ripetere tali effetti. Ci tengo a sottolineare che la mia posizione di scettico non e’ affatto per partito preso. Come sapete, e come detto molte volte, tutti dobbiamo essere aperti a fenomeni sconosciuti e anche apparentemente assurdi purche’, come la scienza insegna, questi possano essere ripetuti da chiunque, in qualsiasi parte sotto le condizioni descritte. Solo se questo avviene possiamo considerare il metodo scientifico soddisfatto e vedere a tali nuovi fenomeni con gli occhi della scienza.

Riprendo quanto detto in questo articolo, perche’ ora vorrei raccontarvi un altro presunto esperimento che solo qualche giorno fa e’ stato richiamato da alcuni siti complottisti, sempre con il solito scopo di denigrare la scienza ufficiale e tacciarla di non voler approfondire cio’ che e’ fuori dai suoi dettami. Parlaimo questa volta del cosiddetto esperimento di Ferlini sulla barriera magnetica.

Chi e’ costui? In cosa consiste l’esperimento?

Se provate ad informarvi in rete, troverete solo una moltitudine di articoli che riprendono pari pari quanto descritto da Ferlini in un libro da lui stesso pubblicato e intitolato appunto “La barriera Magnetica”. In questo libro Ferlini descrive una serie di esperimenti che avrebbe condotto, dapprima in solitudine e poi con un gruppo di collaboratori, studiando i campi magnetici.

Prima di raccontarvi gli esperimenti, e’ importante, come vedremo dopo, dire che Ferlini inizio’ la sua carriera studiando l’antico Egitto e la costruzione delle Piramidi. In particolare, cio’ che interessava Ferlini era la possibilita’ che strani fenomeni fisici potessero accadere dentro o in prossimita’ delle piramidi a causa di soluzioni appositamente inserite durante la costruzione di questi imponenti monumenti.

Premesso questo, Ferlini racconta che un giorno giocherellando con due calamite si accorse che avvicinando i poli opposti, poco prima che questi entrassero in contatto, la zona di spazio appariva leggermente offuscata come se qualcosa di particolare accadesse al volume d’aria tra i poli stessi. Incuriosito da questo fenomeno che non riusciva a spiegare, Ferlini decise di costruire un esperimento piu’ in grande in modo da accentuare l’effetto. L’esperienza da lui realizzata, e sempre raccontata nel suo libro, prevedeva la disposizione di 4 grandi magneti di diverse tonnellate disposti con i poli opposti vicini. Ecco uno schema dell’apparato:

Disposizione dei 4 magneti nell'esperimento di Ferlini

Disposizione dei 4 magneti nell’esperimento di Ferlini

Come vedete ci sono 4 magneti a ferro di cavallo disposti con i poli Nord-Sud alternati tra loro. Dalle prime osservazioni con i piccoli magneti, Ferlini racconta di aver osservato questa deformazione dello spazio solo poco prima che i poli entrassero in contatto a causa dell’attrazione magnetica. Per poter osservare questo effetto nell’esperimento piu’ grande, Ferlini monto’ le calamite su appositi sostegni che permettevano un movimento a passi molto sottili. In questo modo era possibile avvicinare molto lentamente i poli grazie a dei fermi studiati per opporsi all’attrazione.

Bene, cosa accadde con questo esperimento?

Leggendo sempre dal libro di Ferlini, quando i magneti arrivarono nel punto preciso in cui si innescava il fenomeno, accadde qualcosa di incredibile. Nella stanza si diffuse una nebbiolina azzurra con un odore acre. Da queste proprieta’ organolettiche, i presenti capirono che si trattava di ozono. Ma non accade solo questo, la zona di spazio compresa tra i magneti, che questa volta al contrario del primo caso era molto estesa, venne deformata da questo effetto sconosciuto mai osservato prima. Ferlini, che indossava una maschera antigas per non respirare l’ozono, incuriosito da questo fenomeno, si avvicino’ al contrario dei suoi collaboratori che rimasero a distanza di sicurezza. Quando si trovo’ in prossimita’ del punto, i collaboratori videro Ferlini scomparire dalla stanza. La nebbiolina presente inizio’ lentamente a diradarsi assumendo diversi colori e solo dopo che scomparve le persone presenti videro Ferlini riapparire sprovvisto della maschera che portava prima di avvicinarsi.

Dove era finito Ferlini?

Come raccontato nel suo libro, Ferlini si ritrovo’ in Egitto, ma non nel momento dell’esperimento bensi’ al tempo in cui le piramidi erano in costruzione. Vide gli schiavi che alzavano i grandi blocchi e le piramidi cosi’ come erano quando vennero realizzate. Perche’ proprio in quel preciso punto ed in quell’epoca? Ferlini penso’ che questo strano effetto, da subito ribattezzato “barriera magnetica”, fosse un portale creato dalla forza magnetica in grado di interagire con le onde cerebrali. Come anticipato, la carriera di Ferlini inizio’ con lo studio delle piramidi e quindi la barriera magnetica era in grado di interagire con gli impulsi creati dal cervello umano realizzando viaggi nel tempo in zone ed epoche dove il soggetto voleva, anche solo inconsciamente, viaggiare.

Bene, questo e’ l’esperimento di Ferlini e questa sarebbe la barriera magnetica che lui descrive nel suo libro.

Ora posso dire la mia? Premetto, come anticipato all’inizio dell’articolo, che non voglio essere scettico di principio ma analizzando quanto viene raccontato capite bene come una verifica di queste affermazioni sarebbe, ed e’, facilmente attuabille ma, soprattutto, facilmente smentibile. Ovviamente, sui soliti siti complottisti trovate scritto che mai nessuno ha mai voluto realizzare l’esperimento di Ferlini o anche che in realta’ e’ utilizzato normalmente in alcuni grandi centri di ricerca anche se alle persone comuni non ne viene data notizia.

Prima di tutto, vi ricordo che non stiamo parlando di esperimenti impossibili da realizzare ne che richiedono strumentazione particolare. Come detto, nella prima esperienza, Ferlini si sarebbe accorto di questo fenomeno semplicmente osservando due calamite che si attraevano. Avete mai visto due calamite? Ci avete mai giocherellato? Avete mai notato una distorsione dello spazio prima che queste si attacchino a causa della forza di attrazione? Ovviamente credo che la risposta a queste domande sia quanto meno scontata.

Vi faccio notare anche un altro particolare. Prendiamo un sito qualsiasi:

Sito vendita magneti

15 euro al pezzo, ne servono 4, quattro viti senza fine per realizzare un movimento a piccoli passi, qualche bullone di supporto, con meno di 100 euro avete realizzato l’esperimento di Ferlini. Non avrete magneti da tonnellate per poter fare un viaggio nel tempo, ma sicuramente dovreste essere in grado di osservare una bella distorsione dello spazio e, se siete fortunati, anche una bella nebbiolina di ozono nella stanza. Cercando informazioni sulla rete, ho trovato diversi forum in cui gruppi di persone, anche se sconsigliate da altre, si sono dichiarate pronte a mettere in piedi l’esperimento per dimostrarne la corretteza. La cosa simpatica e’ che dopo una lunga discussione “lo faccio”, “non lo fare perdi tempo”, “no lo faccio, chi mi aiuta?”, ecc., nessuno, e dico nessuno, ha il coraggio di tornare e dire che il suo esperimento e’ stato un flop. Nonostante questo, di tanto in tanto, qualche simpatico sito ritira fuori questa storia come se fosse una novita’ assoluta. Che ci volete fare, in tempo di magra di catastrofi e complotti, ogni cosa e’ buona per cercare di accaparrarsi qualche visita sul sito.

Giusto per concludere, e per togliere ogni dubbio, il magnetismo e’ noto da tantissimo tempo. Gia’ ai tempi del greco Talete, che descrive il fenomeno, era noto che un materiale, la magnetite, era in grado di attirare limatura di ferro. Oggi, possiamo disporre di campi magnetici molto elevati per applicazioni di ricerca. Per farvi qualche esempio, il campo magnetico all’interno dell’esperimento ATLAS del CERN, si proprio quello della scoperta dell’Higgs insieme a CMS, e che viene utilizzato per curvare le particelle cariche, ha un’intensita’ di 2 Tesla, cioe’ circa 100000 volte il campo magnetico terrestre. Pensate sia tanto? Ci sono laboratori al mondo che si occupano proprio di studiare i campi magnetici cercando, per ricerca e applicazioni, di trovare materiali nuovi da poter essere utilizzati per creare campi magnetici sempre piu’ intensi. Un esempio? Nel “High Field Magnet Laboratory” in Olanda, si e’ raggiunto il valore di 38 Tesla con un sistema “economico” da soli 1.5 milioni di dollari. Questo pero’ non e’ ancora il record assoluto, anche se il laboratorio detiene il record come rapporto intensita’/prezzo, dal momento che il guiness dei primati per il campo magnetico piu’ intenso e’ del Magnet Lab della California:

Magnet Lab

dove si e’ raggiunto il valore di 45 Tesla con un sistema molto complesso da ben 15 milioni di dollari.

Ora, ragioniamo insieme, secondo voi se esistesse questo effetto “barriera magnetica” dovuto all’attrazione dei poli, nessun altro se ne sarebbe accorto, magari con un sistema in grado di generare un campo ben piu’ intenso rispetto a quello di una semplice calamita a ferro di cavallo?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Effetto Hutchison: realta’ o bufala?

29 Apr

Nell’apposita sezione:

Hai domande o dubbi?

un nostro caro lettore ci ha fatto una richiesta davvero molto interessante. Come potete leggere, ci chiede di dare maggiori dettagli circa l’effetto Hutchinson cioe’ una serie di fenomeni apparentemente non spiegabili utilizzando le attuali conoscenze della fisica.

Personalmente, trovo questa richiesta molto interessante se non altro perche’ ci consente di poter parlare di qualcosa ancora poco dibattutto sui siti nazionali anche se molto in voga gia’ da diversi anni sui siti in lingua inglese. Al solito, permettetemi questo piccolo monito, molti nostri blog e forum non fanno altro che riportare pezzi copiati qua e la senza, salvo alcuni rari casi, discutere la cosa in dettaglio.

Cosa sarebbe questo effetto Hutchinson?

Come anticipato, con questo termine si intendoo in realta’ una serie di fenomeni “strani” dovuti ad interferenza elettromagnetica. Cioe’? Se provate a documentarvi in rete, trovate sempre questa frase:

L’Effetto Hutchison si verifica come il risultato di interferenze di onde radio in una zona di spazio volumetrico avvolto da sorgenti di alto voltaggio, solitamente un generatore Van de Graff, e due o piu’ bobine di Tesla.

OK, ma che significa? Prendete una regione di spazio e fate interferire onde radio con una determinata frequenza e potenza. In prossimita’ della stessa zona sono presenti anche generatori ad alto voltaggio che in realta’ puo’ essere prodotto in vari modi, in particolare usando un Van de Graff o delle bobine Tesla.

Bene, creata questa zona “speciale” con campi elettromagnetici diversi cosa si ottiene?

Gli effetti sono i piu’ disparati: levitazione di oggetti pesanti (metallici ma non solo), compenetrazione di materiali diversi, riscaldamento anomalo di metalli senza bruciare altri materiali in contatto, cambiamenti sia provvisori che definitivi della struttura molecolare dei materiali, ecc.

Per darvi un’idea piu’ chiara, vi riporto un’immagine di alcuni materiali che sono stati sottoposti a questo trattamento:

 

Materiali sottoposti all'effetto Hutchinson

Materiali sottoposti all’effetto Hutchinson

notate in particolare lo sfaldamento dei metalli e l’ultima foto di un pezzo di legno compenetrato nel metallo senza sfaldare ne modificare ne il metallo ne il legno.

Pensate che questo straordinario effetto e’ stato realizzato dentro una normale abitazione utilizzando attrezzatura che ognuno di noi potrebbe acquistare sfruttando una potenza totale di 75W con 120 V in alternata. Come potete immaginare, questo effetto e’ stato mostrato per la “prima” volta da John Hutchinson un canadese che ha iniziato alla fine degli anni ‘7o a fare sperimentazione per hobby riprendendo gli studi addirittura di Nikola Tesla.

John Hutchinson nella sua casa

John Hutchinson nella sua casa

Visto che a noi piace tanto informarci su internet, sono andato a leggere moltissimi siti per capire cosa la gente pensasse di questo effetto. Per prima cosa, vedendo le foto che ho riportato, capite subito quale enorme quantita’ di energia sia necessaria per provocare questi effetti. Inoltre, ottenendo risultati di questo tipo, appare evidente come ci siano molti punti oscuri dell’interazione tra onde radio e materia che ancora ci sfuggono. Secondo molti siti, e’ importante ripetere la fonte delle affermazioni, effetti del genere possono solo essere compresi arrendendosi al fatto che i legami molecolari possano essere modificati attraverso onde radio. L’evidenza di un metallo che aumenta notevolmente la sua temperatura senza bruciare cio’ che lo circonda e’ a sua volta una chiara dimostrazione che la termodinamica cosi’ come la conosciamo debba essere modificata in presenza di notevoli campi elettromagnetici in grado di modificare la concezione stessa di calore che normalmente utilizziamo.

Pesnate sia sufficiente? No, andiamo un pochino piu’ oltre. Da dove viene tutta questa energia se abbiamo solo un dispositivo casalingo collegato alla presa di corrente? Ma e’ ovvio, mettete insieme effetto Hutchinson e Tesla e capirete come questa sia un’applicazione in grado di sfruttare l’energia di punto zero e la produzione spontanea di coppie particella-anti particella nel vuoto quantistico. Perche’ nessun ente, universita’ o laboratorio sta sperimentando questi sistemi per sfruttare questa energia enorme, gratuita e assolutamente rinnovabile?

Che domande che fate ancora: perche’ gli scienziati zozzoni sono tutti corrotti e asserviti al potere delle grandi multinazionali. Al solito pensano di aver capito tutto e sono chiusi alle loro equazioncine che dovrebbero spiegare la meccanica, la termodinamica e l’elettromagnetismo e non si accorgono invece che le evidenze mostrano che tutte le teorie sono sbagliate. Prima ho parlato anche di levitazione di oggetti e vi ho sottolineato il fatto che questa avvenga non solo per oggetti metallici. Ecco una foto di Hutchinson che mostra un modello di disco volante in plastica che e’ stato fatto levitare in uno dei suoi esperimenti:

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Pensate che il modellino di disco volante sia stato scelto a caso? Forse da Hutchinson si, ma questo effetto potrebbe spiegare anche come fanno a volare i dischi volanti che “ogni giorno” vediamo sfrecciare sulle nostre teste. Pensate quanto potremmo imparare sfruttando questo effetto e utilizzandolo per fare viaggi interplanetari, viaggi nel tempo, curvare lo spazio tempo, ecc.

Scienziati perditempo che non fate altro che rubare gli stipendi pagati da gruppi di potere a cui siete asserviti, vergognatevi tutti, compreso il sottoscritto.

Bene, ora torniamo seri e ragioniamo su quanto detto. Piccola parentesi, al solito sto scherzando parafrasando pero’ quello che viene normalmente, anche in questo caso, detto su moltissimi siti. Se provate a documentarvi in rete, troverete diversi articoli che parlano di questo presunto effetto attaccando la scienza ufficiale complice di non approfondire queste scoperte.

Come anticipato, il fatto che lo stesso Hutchinson dica di rifarsi agli esperimenti di Tesla non puo’ che fungere da cassa di risonanza per il complottismo verso la scienza. Di Tesla in particolare abbiamo gia’ parlato in questi articoli:

Il Raggio della Morte

Il Raggio del Dolore

Marconi, Tesla e l’evidenza aliena

Le terribili armi scalari

parlando dell’uomo, dello scienziato ma soprattutto della reale considerazione che la scienza ufficiale ha di questo scienziato di prim’ordine. Purtroppo, ancora oggi molti credono che tutte le scoperte di Tesla siano finite nel dimenticatoio per colpa del governo o di organizzazioni. Questo non e’ assolutamente vero! Pensate solo alla corrente alternata, alle bobine o alle tecnologie senza fili. Tutte scoperte partite o completamente sviluppate da Tesla e oggi sfruttate a pieno. Purtroppo, c’e’ ancora chi ignorantemente sostiene che non siamo in grado o non vogliamo utilizzare la corrente alternata.

Detto questo torniamo ad Hutchinson. Veramente sono stati osservati questi effetti? Purtroppo, anche in questo caso, siamo di fronte alla totale mancanza di prove scientifiche a sostegno. Lo stesso Hutchinson dichiara di non sapere quando e perche’ i suoi esperimenti riescono e per di piu’, non sono mai riusciti di fronte a persone esperte esterne.

Vi voglio mostrare un video a mio avviso interessante:

Notato niente di strano nell’angolo in alto a sinistra? Magari un filo che si riavvolge e tira su il modellino di ufo? Capite bene come questo video messo in rete dallo stesso Hutchinson smentisca da subito il suo esperimento di levitazione.

Ora e’ importante rimarcare un cosa: personalmente, e questo dovrebbe valere per tutti, mi reputo una persona molto aperta e consapevole, da ricercatore, che quello che sappiamo e’ sempre troppo poco rispetto a quanto c’e’ ancora da scoprire. Detto questo, qualora ci fossero effetti nuovi non comprensibili ma ripetibili indipendentemente da chi compie o osserva l’esperimento, la cosa non mi sorprenderebbe affatto. Moltissime invenzioni e scoperte sono arrivate per puro caso e stravolgendo qualcosa che si pensava ben compreso e archiviato. Alla luce di quanto osservato pero’, questo non e’ il caso dell’effetto Hutchinson. E’ vero, in rete ci sono decine di video che mostrano questi esperimenti ma molti di questi mostrano particolari quantomeno sospetti. A parte il video riportato prima, facendo una ricerca in rete potete trovare molti altri documenti sulla levitazione. In questi casi si vede una rapida accelerazione dell’oggettto che sale verso l’alto, accelerazione del tutto compatibile con una caduta libera. Cosa significa? Semplice, che il sospetto che la ripresa sia fatta capovolgendo l’immagine, dunque oggetto che cade piuttosto che salire, e’ davvero molto forte.

Altra piccola parentesi che e’ doveroso fare senza voler offendere nessuno: ma davvero pensate che gli scienziati siano cosi’ stolti? Per poter andare avanti nella conoscenza e’ necessario non smettere mai di essere curiosi e di farsi domande. Oltre a questo pero’, c’e’ tutto un panorama di leggi, effetti, spiegazioni che per anni sono state affinate fino ad arrivare a quello che sappiamo oggi. Dico questo perche’ molto spesso, non sono su questo effetto, leggo in rete persone che si lanciano in spiegazioni parlando a vanvera di questo o quest’altro effetto mostrando chiaramente da quello che scrivono quanto poco sappiano dell’argomento. Per l’effetto Hutchinson tanti parlano di interferenza di onde, principi della termodinamica, Tesla, ecc. senza conoscere minimamnete le basi su cui questi concetti su fondano. Credetemi, diffidate da questi luminari di “wikipediana” cultura che pensano che dopo aver letto due paginette abbiano la comprensione del tutto al punto da poter ridicolizzare chi queste cose le ha studiate, magari le insegna in corsi universitari e continua ancora oggi a farsi domande esistenziali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Noi dormiamo ma lo smartphone NO!

12 Mar

Torniamo ora a parlare un po’ di tecnologia. Come sapete, ormai, nel bene o nel male, la maggior parte delle persone possiede uno smartphone. Questi piccoli strumenti nascondono al loro interno una capacita’ di calcolo impressionante se paragonata con le ridotte dimensioni, ma soprattutto, per quelli non proprio giovanissimi, se paragonata con quella dei personal computer piu’ costosi che si potevano acquistare anche solo 10 anni fa. Da un lato, questo e’ impressionante ma anche completamente comprensibile. Come sapete, l’elettronica e le capacita’ di calcolo seguono leggi esponenziali di crescita, di riduzione del prezzo e delle dimensioni dei dispositivi e l’insieme di questi parametri fa si che, di volta in volta, esca un prodotto nuovo che faccia impallidire i suoi predecessori.

Ora pero’, quanti di quelli che utilizzano uno smartphone lo utilizzano a pieno delle sue capacita’? In verita’, credo io, davvero un numero esiguo di persone riesce a sfruttare a pieno le capacita’ del proprio telefono se non facendo andare in contemporanea diversi programmi richiedenti la rete internet.

Oltre a questo poi, c’e’ un altro aspetto da considerare. Mediamente, questi piccoli oggetti sono molto energivori e le loro batterie difficilmente durano anche solo una giornata se sfruttati a pieno. Conseguenza di questo e’ che tutte le notti dobbiamo ricaricare la batteria lasciando, come spesso accade, il telefono acceso con la connessione dati o wireless accesa. Durante questa fase di standby, anche se non del tutto, il nostro dispositivo e’ fermo e la sua enorme capacita’ di calcolo non viene sfruttata.

Perche’ faccio questo preambolo iniziale?

Molto semplice, in questi giorni, su diversi giornali, e’ stata lanciata una notizia che ha suscitato il mio interesse se non altro perche’ rilancia le problematiche appena discusse. Come avrete sicuramente letto, un team di ricercatori austriaci ha trovato, almeno da come raccontano i giornali, il modo di sfruttare questa potenza di calcolo per un nobile scopo. Questo gruppo di ricerca e’ coinvolto nello studio dei dati del database Simap, un enorme catalogo contenente al suo interno la struttura di tutte le proteine conosciute. Scopo di questa ricerca e’ quello di studiare le somiglianze tra le proteine con il fine ultimo, tra i tanti altri, di poter trovare cure per alcune delle malattie piu’ critiche che riguardano il genere umano. Gestire una mole di dati cosi’ impressionante non e’ affatto semplice e richiede una capacita’ di calcolo molto elevata. Ovviamente, una capacita’ di calcolo elevata significa un costo altrettanto elevato. Per farvi capire questa relazione, pensate che il costo computazionale aumenta con il quadrato del numero di proteine contenute nel database.

Come gestire una mole cosi’ elevata di dati con costi che non siano insostenibili?

Semplice, stando a quanto riporta la notizia sui giornali, e’ stata programmata una App, uno dei piccoli programmini che girano sui nostri smartphone, che consente di sfruttare lo smartphone per analizzare questi dati. Il nome della App e’ Power Sleep appunto perche’ si tratta di una normale sveglia che puo’ essere impostata all’ora in cui desideriamo alzarci. Al contrario di una normale sveglia, Power Sleep ha pero’ una funzione aggiuntiva. Prima di andare a dormire, mettete il vostro smartphone sotto carica lasciando la connessione WiFi accesa. Non appena la batteria avra’ raggiunto la carica completa, il telefono comunichera’ con un server centrale dando inizio al vero scopo del software. Il server invia paccheti da 1Mb che vengono analizzati dal processore dello smartphone. Il tempo richiesto per questa analisi e’ compreso tra 30 e 60 minuti a seconda della potenza di calcolo. Quando il processo e’ completato, il telefono invia il risultato al server e scarica un altro pacchetto da analizzare. Questa comunicazione dura fino a quando non arriva l’ora impostata per la sveglia e il telefono e’ di nuovo disponibile completamente per l’utente.

Detta in questo modo, sembra una scoperta rivoluzionaria che ci permettera’ di contribuire senza spendere un soldo alla ricerca scientifica.

Perche’ dico “sembra”?

Molto semplice, ovviamente si tratta di un’applicazione utilissima per lo scopo della ricerca scientifica in se, ma questo genere di applicazioni non sono assolutamente una novita’. Questo processo di analisi dei dati e’ quello che viene comunemente definito “calcolo distribuito”. Si tratta di un procedimento molto semplice in cui un processo principale viene diviso in tante parti assegnate a processori diversi che poi comunicheranno il loro singolo risultato ad un server centrale. Grazie al calcolo distribuito e’ possibile sfruttare una rete di computer, o smartphone come in questo caso, invece di investire cifre spropositate in una singola macchina in cui far girare l’intera analisi. Di esempi di questo tipo ce ne sono a bizzeffe anche indietro negli anni. Sicuramente tutti avrete sentito parlare del programma SETI@Home per la ricerca di vita extraterrestre nell’universo. In questo caso, si utilizzavano radiotelescopi per cercare segnali non naturali. L’enorme mole di dati veniva analizzata da chiunque decidesse di installare un piccolo software sul proprio computer per contribuire a questa ricerca.

Nel caso di Power Sleep, i ricercatori austriaci si sono affidati ad una societa’ che si occupa proprio di calcolo distribuito e si chiama BOINC. Vi riporto anche il link alla loro pagina italiana in cui compare, proprio in prima pagina, una descrizione sul funzionamento e sull’importanza del calcolo distribuito:

BOINC Italia

Come potete leggere, esistono decine di applicazioni per il calcolo distribuito gestite da BOINC e molte di queste riguardano proprio analisi scientifiche dei dati. Il perche’ di questo e’ facilmente comprensibile, le applicazioni scientifiche sono quelle che producono la maggior mole di dati e che richiederebbero super-computer sempre piu’ potenti per la loro analisi. Grazie a BOINC e al calcolo distribuito, e’ possibile sfruttare a titolo gratuito computer, smartphone e tablet privati per velocizzare il calcolo e risparmiare notevoli capitali che incidono fortemente sul costo della ricerca. Visto che lo abbiamo citato, BOINC nacque qualche anno fa proprio per gestire il progetto SETI@Home. Tra i programmi disponibili ora trovate ad esempio: LHC@Home per l’analisi dei dati del collisore LHC del CERN, Orbit@Home per l’analisi delle traiettorie degli asteroidi vicini alla Terra, Einstein@Home per la ricerca di onde gravitazionali e cosi’ via. Per una lista piu’ completa dei programmi scientifici di calcolo distribuito potete far riferimento alla pagina di Wikipedia che ne parla:

Wiki, esempi calcolo distribuito

Concludendo, al solito la notizia e’ stata data sui maggiori giornali con toni enfatici volti piu’ a impressionare che non ha mostrare l’importanza scientifica di applicazioni di questo tipo. Esempi di calcolo distribuito ce ne sono tantissimi e molti di questi sfruttano il servizio BOINC per dialogare con gli utenti che volontariamente decidono di sostenere un programma piuttosto che un altro. Power Sleep ha sicuramente un nobile scopo se pensiamo all’importanza del mantenimento del database Simap e per i risultati che ricerche di questo tipo dovrebbero portare per l’intero genere umano.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Cosa posso vedere con il mio telescopio?

10 Feb

Diverse volte sono stato contattato da persone che vorrebbero affacciarsi al mondo dell’astronomia. Molti hanno una passione del genere e un desiderio innato di poter osservare il cielo ingrandendo via via dettagli sempre piu’ piccoli. Inutile dire quanti di noi restano a bocca aperta guardando una foto spaziale scattata in giro per il cosmo e desiderano a loro volta osservare con i loro occhi la bellezza della natura.

Ora pero’, queste passioni spesso si scontrano un po’ con il problema economico ma, soprattutto, con la grande confusione che la scelta di un telescopio “domestico” puo’ portare. Siete mai entrati in un negozio dove si vendono telescopi? Avete visto quante tipologie di strumenti ci sono? Molto spesso, le persone restano spaventate da una tale scelta e non sanno cosa prendere.

Per superare questo blocco, dovete prima di tutto capire “cosa volete guardare”!

Ovviamente, si potrebbe fare il pensiero facile e dire quello che costa di piu’ e’ il piu’ “potente” o quello piu’ grande e’ sicuramente migliore. Purtroppo, non sempre e’ cosi’.

Visto che molte persone mi hanno contattato per chiedermi cosa distingue un telescopio da un altro, ho deciso di scrivere un breve articolo per spiegare non le diverse tipologie di telescopio, bensi’ la cosiddetta “risoluzione angolare” di questi strumenti.

Immaginiamo di avere un telescopio con lenti circolari. Quello che vogliamo capire e’ “qual e’ la minima distanza che posso osservare?”. Per rispondere dobbiamo introdurre la cosiddetta “risoluzione angolare”, cioe’ la minima distanza angolare tra due oggetti che possono essere distinti con il vostro telescopio:

R=1,22 L/D

Quando siete di fronte a sistemi ottici, quella che comanda e’ la diffrazione che, senza entrare in troppi tecnicismi, fa si che sotto un certo valore, due oggetti vengano confusi come uno solo perche’ assolutamnete indistinguibili tra loro. Nella formula della risoluzione angolare, compare ovviamente il diametro della lente, D, e la lunghezza d’onda, L, che dobbiamo osservare.

Detto tra noi, questa formula e’ poco manegevole per cui possiamo prima di tutto dimenticarci della dipendenza dalla lunghezza d’onda e prendere un valore medio per lo spettro visibile che, in fondo, e’ quello che vogliamo osservare. Inoltre, la risoluzione angolare che abbiamo introdotto e’ misurata in radianti, unita’ abbastanza scomoda in questo contesto. Per semplicita’, possiamo utilizzare una misura in arcosecondi dove 3600 arcsec equivalgono ad un grado. Facendo queste considerazioni, possiamo riscrivere la formula come:

R = 11.6 / D

Supponiamo dunque di acquistare un bel telescopio con lente da 30 cm, la nostra risoluzione angolare sara’:

R = 11.6/30 = 0,39 arcsec

Se ora con questo oggetto volessi guardare la luna, quale sarebbe la minima distanza che riuscirei a distinguere?

Per rispondere a questa domanda, e’ necessario introdurre un’ulteriore formula. Come potete immaginare, in questo caso dobbiamo convertire, in base alla distanza, l’apertura angolare con una distanza in metri. Tralasciando dipendenze di questa formula da parametri di poco interesse per il nostro caso, possiamo scrivere la distanza distinguibile come:

Dm = (R/206265) x Dl

Dove Dm e’ ovviamente la distanza minima osservabile e Dl e’, nel nostro caso, la distanza Terra-Luna. Supponendo una distanza media di 400000 Km, da portare in metri per inserirla nella formula, abbiamo, riprendendo la risoluzione del telescopio da 30 cm dell’esempio:

Dm = (0.39/206265) x 400000000 = 750 metri

Cioe’ la minima distanza che possiamo percepire e’ di 750 metri. Detto in altre parole, riuscite a distinguere dettagli separati tra loro da una distanza di almeno 750 metri. Anche se questo numero puo’ sembrare enorme vi permette di poter osservare dettagli impressonanti della Luna. Vi ricordo che un telescopio da 30 cm, e’ un bellissimo strumento che necessita di attenzioni particolari. Non abbiamo preso uno strumento completamente amatoriale o entry level per questo calcolo esemplificativo.

Altro aspetto interessante che spesso viene citato dai complottisti: se siamo veramente stati sulla Luna, perche’, ad esempio, il telescopio Hubble non e’ in grado di osservare il punto di atterraggio con tutta le cose lasciate dall’equipaggio? La domanda e’ di principio ben posta, pensate che addirittura il modulo di discesa e’ rimasto sul punto perche’ impossibile da riportare indietro.

Cerchiamo di analizzare, sulla base dei calcoli gia’ fatti, se fosse possibile osservare questo modulo sfruttando la lente di Hubble. In questo caso, abbiamo una lente di 2.4 metri che vuole osservare la superficie lunare. Quale sarebbe la minima distanza che potrebbe essere osservata?

Ripetendo il calcolo trovate una minima distanza di circa 100 metri. Considerando che il modulo di discesa ha un diametro intorno ai 10 metri, capite bene come sia impossibile distinguere dall’orbita di Hubble questo reperto storico sulla superifcie della Luna. Spero che questo ragionamento, a prescindere dalle altre dimostrazioni di cui abbiamo gia’ parlato, sia sufficiente a capire, per chi ancora oggi crede che non siamo stati sulla Luna, come sia impossibile osservare dalla Terra il punto di atterraggio.

Concludendo, per comprendere il potere risolutivo di uno strumento ottico, e questo ragionamento vale sia per un telescopio che per un microscopio, e’ sufficiente conoscere un po’ di ottica e calcolare agevolmente la minima distanza osservabile Come visto, la grandezza della lente e’ uno dei parametri piu’ importanti da considerare. Tenete a mente questi risultati qualora decideste di acquistare un telescopio per dilettarvi in osservazioni spaziali. Ovviamente, come detto, prima di decidere la tipologia di telescopio, pensate sempre prima a cosa volete andare ad osservare e, dunque, a che distanza vi state approcciando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La stella in laboratorio

3 Ott

Attraverso le pagine del forum di Psicosi 2012:

Psicosi 2012, forum

mi e’ stato segnalato un articolo molto interessante. Perche’ lo definisco in questo modo? Semplice, l’articolo e’ talmente assurdo che merita di essere presentato qui sul blog.

Come diceva un proverbio: “Dagli amici mi guardi Dio perche’ da nemici mi guardo io”. Cosa significa? Mentre siamo guardinghi nei confronti dei nostri nemici,  ci sentiamo tranquilli verso gli amici. A volte questo puo’ creare la condizione per poter essere, come si dice, accoltellati alle spalle.

Cosa voglio dire con queste parole? Mentre ormai abbiamo capito bene quali sono i siti complottisti e catastrofisti e, almeno spero, abbiamo imparato a leggerli con occhio attento e guardingo, a volte quelli che dovrebbero essere siti seri e scientifici si lasciano prendere un po’ troppo la mano.

Questo e’ purtroppo il caso di una notiizia apparsa su ben due noti giornali online nazionali che, copiandosi spudoratamente tra di loro, hanno finito per sparare cavolate veramente fuori dalla grazia del Signore.

Prima di tuttto, vi segnalo gli articoli in questione:

Articolo 1

Articolo 2

Potete anche leggerne uno solo, tanto le parole utilizzate sono le stesse, ergo, non so chi dei due, ha fatto copia/incolla.

Avete letto bene? I ricercatori dell’istituto americano NIF, stanno per accendere una stella in laboratorio. Una stella? Proprio cosi’ dicono gli articoli. Si tratta di un esperimento di fusione in cui sono stati utilizzati laser con una potenza di 500 Tera Watt, 500 mila miliardi di watt di potenza. Come recita l’articolo, questa potenza e’ pari a 1000 volte quella che gli Stati Uniti stanno consumando in quel momento.

Signori, scusate le sfogo, ma questa e’ disinformazione scientifica sulle pagine di giornali nazionali che pretendono di avere una sezione di scienze! Poi, non ci sorprendiamo quando le persone pensano che al CERN si creeranno buchi neri che distruggeranno la Terra. Dall’altra parte dell’oceano stanno creando una stella in laboratorio.

Finito il mio piccolo sfogo personale, vorrei passare a commentare questa notizia. Al contrario di quanto fatto sui giornali citati, per poter capire questa notizia, e’ necessario capire bene il campo in cui ci andiamo a muovere, cioe’ la fusione nucleare.

Cercando di mantenere un approccio semplice e divulgativo, tutti conoscono le centrali nucleari per la produzione di energia elettrica. Questi reattori funzionano attraverso la fissione nucleare, cioe’ la scissione di un nucleo pesante, il combustibile, in nuclei piu’ leggeri. Questo processo, oltre ai due nuclei figli, produce un eccesso di energia. Il processo si dice dunque esoenergetico perche’ rilascia energia.

Detto in modo molto improprio, il processo inverso a quello di fissione nucleare e’ quello di fusione. In questo caso, si prendono due nuclei leggeri per fonderli insieme e formare un nucleo piu’ pesante. Questo processo e’ conveniente solo per nuclei molto leggeri, in linea di principio fino al ferro. Come viene fatto il processo? Quelli che dovete avvicinare sono degli atomi. Come sapete, nel nucleo sono presenti protoni con carica positiva. Avvicinando tra loro due cariche di segno uguale, queste si respingono tra loro con una forza che aumenta al diminuire della distanza. Sotto una certa distanza pero’, la forza coulombiana repulsiva, cioe’ quella tra cariche elettriche, diviene piu’ piccola della cosiddetta forza nucleare forte. Questa interazione e’ molto intensa, ma solo a distanze molto piccole. Detto in altri termini, dovete comprimere molto i nuclei tra loro, fino ad arrivare al punto in cui questi si attirano grazie alla forza forte.

Questa caratteristica rende il processo di fusione nucleare molto difficile da realizzare o meglio, molto difficile da sfruttare. Come anticipato, si tratta di un processo che rilascia energia. Per poter comprimere i nuclei tra loro dovete pero’ spendere un certo quantitativo di energia in qualche forma. Bene, per poter sfruttare questo processo, o meglio per guadagnarci, dovete fare in modo che l’energia spesa per attivare il processo, quella di compressione, sia minore di quella che poi viene rilasciata dai nuclei che si fondono.

Una delle possibili e piu’ studiate reazioni di fusione nucleare e’ quella del deuterio con il trizio:

D + T → 4He (3,5 MeV) + n (14,1 MeV)

In questa reazione i due reagenti, che altro non sono che isotopi piu’ pesanti dell’idrogeno, vengono fusi per formare un nucleo di elio, detto anche particella alfa, liberando anche un neutrone di una certa energia.

Vedete bene il processo. Indipendentemente da quello che ognuno di noi pensa delle centrali nucleari a fissione, il processo di fusione risolve automaticamente il problema delle scorie. In questo caso, non abbiamo sottoprodotti radioattivi a lunga vita media. Proprio per questo motivo, la costruzione di centrali di questo tipo e’ vista come la chimera della fisica nucleare e da diversi anni sono in corso ricerche per cercare di rendere il processo di fusione conveniente dal punto di vista energetico.

Il punto cruciale di questi studi e’ ovviamente come innescare il processo, cioe’ come far avvicinare tra loro i nuclei per far partire la fusione. Il caso visto negli articoli da cui siamo partiti e’ il cosiddetto confinamento inerziale ad ignizione laser. Detto in parole semplici, si utilizzano fasci laser per riscaldare e comprimere i nuclei e far partire la fusione.

Bene, a questo punto siamo in grado di rileggere gli articoli e di capire veramente quello che e’ successo nei laboratori del NIF.

Il laboratorio in questione utilizza 192 fasci laser per riscaldare e comprimere un sferetta di deuterio-trizio. Il numero elevato di laser serve prima di tutto per avere l’energia necessaria ma anche per poter riscaldare uniformemente la sfera di combustibile. Ovviamente, non serve irradiare continuamente il composto, ma e’ necessario che in un tempo molto breve l’energia arrivi tutta insieme sul campione. Quindi, proprio per questo si utilizzano fasci impulsati, cioe’ raggi molto intensi ma molto brevi nel tempo. Questo spiega l’enorme potenza in gioco. Data un’energia del fascio, tanto piu’ corto e’ il raggio, maggiore sara’ la potenza in gioco. Esattamente come in fisica definite la potenza come il rapporto tra lavoro e tempo per compierlo. Capite dunque da dove viene fuori quel valore enorme di 500 terawatt di potenza. Secondo voi, se fosse necessario avere 1000 volte la potenza che gli USA stanno consumando in quell’istante, chi sarebbe in grado di alimentare i laser? Nella migliore delle ipotesi, acceso il sistema salterebbe la corrente a tutti gli Stati Uniti. Direi che quanto affermato e’ quantomeno azzardato e dimostra la totale non conoscenza di quello che si sta raccontando.

Poi, cosa dice l’articolo? A questo punto, il sistema implode e si accende una stella.

Capiamo bene, perche’ implode? Lo schema semplificato del processo di fusione che avviene e’ questo:

Il meccanismo di ignizione laser per la fusione nucleare

Il meccanismo di ignizione laser per la fusione nucleare

Per compressione interna, si ha un implosione cioe’ un collassamento dei nuclei verso l’interno. Da come viene raccontato nell’articolo, sembra che ci sia una deflagrazione in laboratorio.

Poi si accende una stella ….

Perche’? Anche qui, si tratta di un’assurdita’ letta scopiazzando in giro. Il processo di fusione e’ quello grazie alla quale, ad esempio, le stelle producono la loro energia. Il nostro sole “funziona” grazie alla fusione degli atomi di idrogeno in elio. Quando si parla di processo vitale del sole e di passaggio allo stadio successivo, ci si riferisce proprio al momento in cui il combustibile finira’. Inoltre, se si vede la pagina Wikipedia dedicata al NIF:

Wikipedia, NIF

si legge una frase molto importante:

Oltre allo studio della fusione nucleare in campo energetico, al NIF si studieranno anche i segreti delle stelle; infatti quello che si sta tentando di fare è riprodurre il fenomeno della fusione dell’idrogeno che avviene sul Sole e su tutte le altre stelle.

Ecco da dove e’ nata l’idea che in laboratorio venga “accesa una stella”. Come vedete, l’autore dell’articolo ha provato a documentarsi sulla rete, ma non ha capito proprio il senso della frase riportata.

A questo punto, credo che l’assurdita’ di tali articoli sia evidente a tutti.

Tornando di nuovo a cose serie, perche’ e’ stata data questa notizia? Il motivo principale, e molto importante, e’ che, per la prima volta, e’ stato raggiunto il pareggio energetico. Cosa significa? Per la prima volta, si e’ riusciti ad ottenere la stessa quantita’ di energia che e’ stata necessaria per attivare il processo. Se prima l’energia per accendere la reazione era molto maggiore di quella che poi veniva prodotta, ora siamo in pareggio. Si tratta di un risultato molto importante, che dimostra i notevoli passi avanti fatti in questo campo. Certo, e’ vero che al momento non stiamo guadagnando nulla, ma prima, con lo stesso processo, ci rimettevamo tantissimo. Diciamo che il trend e’ dunque molto positivo.

Ovviamente, allo stato attuale, siamo ancora in un campo pioneristico. Magari, andando avanti, ci potremmo accorgere che si sono dei limiti alla produzione di energia che non siamo in grado di superare. Speriamo questo non avvenga e si riesca, in tempi rapidi, a spostare il bilancio energetico a nostro favore. Come detto prima, questa e’ la condizione per poter sperare nella realizzazione di centrali nucleari a fusione per la produzione di energia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annuncio storico: siamo fuori dal Sistema Solare?

18 Set

In questo blog, diverse volta abbiamo parlato delle due sonde Voyager. Lo abbiamo fatto un po’ per passione, un po’ per raccontare la storia di questa missione che, lanciata addirittura nel 1977, ancora oggi, a distanza di cosi’ tanti anni, ci fornisce risultati importantissimi per capire come e’ fatto l’universo che ci circonda.

Oltrre a questi “nobili” scopi di cronaca, in questi articoli:

Siamo fuori dal sistema solare … o forse no?

Aggiornamento sulla Voyager-1

abbiamo parlato di queste sonde per smentire molta speculazione che e’ nata negli ultimi tempi riguardo alla missione. Come ricorderete, molto si era discusso sul fatto che la Voyager-1 fosse uscita o meno fuori dal Sistema Solare. Per ben due volte, era stato annunciato questo storico passaggio. Come visto, in almeno un’occasione, anche siti accreditati, per fretta o per approfittare della notorieta’ della missione, si erano lanciati in dichiarazioni che avevano addirittura richiesto una smentita ufficiale da parte della NASA.

La cosa piu’ importante da capire in questa discussione e’ “che cosa significa uscire fuori dal sistema solare”. Come detto in passato, non dobbiamo certo pensare che esista una linea ben marcata, una sorta di cartello stradale, che dica “benvenuti nello spazio intergalattico”.

Scientificamente, la definizione di questo passaggio non e’ semplice, ma soprattutto univoca. In linea di principio, come e’ facile immaginare, il confine tra sistema solare e spazio esterno, non puo’ certo prescindere dal nostro Sole. Qualche tempo fa, si identificava un confine del sistema solare come lo spazio dopo Plutone, cioe’ fuori dai pianeti, anche se Plutone e’ stato declassificato, che orbitano intorno al Sole. Questa definizione, anche se facilmente comprensibile e forse meglio definibile di altre, non e’ adatta per il semplice scopo che dopo Plutone, l’interazione del nostro Sole e’ ancora molto presente.

Proprio da questo concetto, nasce la definizione di confine con lo spazio intergalattico. Detto molto semplicemente, possiamo vederla come quella linea oltre la quale gli effetti del Sole divengono minori di quelli dovuti allo spazio esterno. Anche se scientificamente questa definizione e’ molto comprensibile, immaginare questa separazione non e’ semplice, soprattutto se parliamo di regioni di spazio poco conosciute e di cui, e’ possibile, si conoscono poco le interazioni con lo spazio esterno.

Proprio da questa considerazione, come visto nell’articolo precedente, era nata la notizia falsa di qualche mese fa. Grazie ai dati forniti da Voyager-1, e’ stato possibile identificare una nuova regione la cui esistenza non era stata neanche ipotizzata prima. Vedete la potenza e l’importanza di queste missioni? Ovviamente, il modo migliore di poter studiare qualcosa e’ andare li per vedere come e’ fatto. Purtroppo, in campo cosmologico, questo non e’ quasi mai possibile. La voyager e’ gia’ ora l’oggetto piu’ lontano dalla Terra che l’uomo abbia costruito e che comunque e’ in comunicazione con noi.

Dopo questo lungo cappello introduttivo, cerchiamno invece di capire perche’ sto tornando a parlare di Voyager-1.

Solo pochi giorni fa, e’ stato fatto, finalmente, l’annuncio storico. Questa volta, a scanso di equivoci, la fonte ufficiale e’ proprio la NASA. Senza anticiparvi nulla, vi giro il link in questione:

NASA, annuncio Voyager-1

La sonda ha iniziato il suo viaggio nello spazio interstellare. Riprendendo il titolo di uno dei post precedenti: “Siamo fuori dal Sistema Solare”.

Come e’ facile immaginare, si tratta di un passo storico per l’uomo, paragonabile se volete al primo allunaggio nel 1969.

Perche’ e’ stato fatto l’annuncio? Come ci si e’ accorti del passaggio?

In realta’, anche se l’annuncio e’ del 12 settembre 2013, lo storico passaggio e’ avvenuto mesi prima, ma non e’ stato possibile determinarlo. Mi spiego meglio.

Per determinare il confine con il Sistema Solare, si cerca di evidenziare una zona in cui la densita’ del plasma di particelle cresce notevolmente rispetto ai valori standard. Detto molto semplicemente, le particelle emesse dal sole formano una sorta di bolla che ricopre quello che chiamamiamo sistema solare ed esiste un confine tra dentro e fuori offerto dell’eliopausa.

Cosa si e’ visto dai dati di Voyager?

Grazie ad una potente emissione solare che ha scagliato particelle verso l’esterno, i sensori di Voyager hanno potuto misurare la densita’ elettroncia intorno alla navicella. In questo modo, anche senza un sensore di plasma, e’ stato possibile identificare la variazione di densita’ tipica dello spazio interstellare, cioe’ fuori dla sistema solare. Per poter caire quando il passaggio fosse avvenuto, i ricercatori hanno dovuto spulciare all’indietro i dati raccolti da Voyager nei mesi precedenti, per cercare di identificare gli andamenti della densita’. Da questo studio, e’ emerso che il passaggio attraverso il confine cosi’ definito era avvenuto circa un anno fa, il 25 agosto 2012.

Come e’ facile immaginare, oltre allo storico annuncio, tutti questi studi sono stati pubblicati sulla rivista Science.

E ora?

In questo istante, la Voyager si trova a circa 19 miliardi di Kilometri da Terra. I segnali inviati verso di noi hanno una potenza di appena 22 Watt e giungono fino a noi impiegando 17 ore. Sembra quasi incredibile che da Terra si riescano a percepire e identificare segnali paragonabili a quelli di una lampadina che si trova cosi’ distante nell’universo.

La sonda e’ alimentata da una batteria TRG che, a meno di sorprese, dovrebbe garantire il funzionamento della Voyager fino al 2025. A quella data, la sonda si dovrebbe trovare, spostandosi a circa 17 Km/s, a qualcoa come 25 miliardi di kilometri dal nostro pianeta. Speriamo che durante questa nuova fase del suo viaggio, possa permetterci altre importanti evidenze scientifiche.

Concludendo, lo storico annuncio dell’ingresso nello spazio interstellare e’ finalmente arrivato. La sonda Voyager e’ l’oggetto piu’ lontano dalla Terra costruito dall’uomo e che e’ ancora in contatto con noi. Dopo quanto annunciato e scritto in questo articolo, non credo sia il caso di chiedersi se questa missione e’ stata fruttuosa oppure no!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Climatizzatore …. quanto ci costi?

6 Ago

Nell’ottica del risparmio energetico, non solo per fare un favore all’ambiente ma anche al nostro portafoglio, qualche tempo fa avevamo analizzato in dettaglio i consumi dei nostri elettrodomestici:

Elettrodomestici e bolletta

In particolare, avevamo quantificato il reale consumo dei comuni sistemi casalinghi, convertendo il tutto in termini di consumo. Come sappiamo bene, nella nostra bolletta elettrica, viene riportato un consumo in KWh, mentre le etichette e le caratteristiche degli apparecchi elettronici ci forniscono un valore in potenza, cioe’ in Watt.

Detto questo, con la calura estiva di questi giorni, vorrei riprendere questi concetti, analizzando pero’ il discorso condizionatori. Se andate in negozio intenzionati a comprare un sistema di questo tipo, vi trovate di fronte una vasta gamma di prodotti con caratteristiche diverse ma, soprattutto, la capacita’ refrigerante dei condizionatori e’ espressa in Btu/h.

Cerchiamo dunque di fare un po’ di chiarezza, capendo meglio questi concetti.

Prima di tutto, la scelta principale che dovete affrontare e’ quella relativa alle differenze: con o senza pompa di calore, inverter o ON/OFF.

Cosa significa?

Per quanto riguarda la pompa di calore, si tratta semplicemente di condizionatori che possono riscaldare oltre a rinfrescare. Detto proprio in parole povere, lo stesso sistema e’ in grado di invertire il ciclo termico, producendo un salto positivo o negativo rispetto alla temperaratura iniziale. Detto ancora piu’ semplicemente, avete la possibilita’ di far uscire aria calda o fredda per riscaldare o rinfrescare.

Convengono questi sistemi?

Se avete un impianto di riscaldamento in casa con caloriferi, pannelli radianti, ecc, allora tanto vale comprare solo un condizionatore, cioe’ qualcosa in da utilizzare in estate per rinfrescare.

Cosa significa invece inverter o ON/OFF?

Qui spesso trovate un po’ di confusione in giro. In realta’, la distinzione e’ molto semplice. Un sistema ON/OFF funziona, come dice il nome stesso, in modalita’ accesa o spenta. Cerchiamo di capire meglio. Impostate una temperatura, il sitema si accende e comincia a buttare aria fredda. Quando la temperatura della sala e’ arrivata a quella desiderata il sistema si spegne. A questo punto, quando la temperatura si rialza, il sistema riparte e la riporta al valore impostato. Al contrario, un sistema inverter e’ in grado di modulare la potenza del compressore funzionando a diversi regimi. Se volete, mentre nel primo caso avevamo un sistema binario acceso o spento, qui c’e’ tutta una regolazione della potenza del compressore gestita da un microprocessore. Quando la temperatura si avvicina a quella impostata, la potenza del condizionatore scende riducendo i giri del compressore. In questo modo, con un piccolo sforzo, si riesce a mantenere la temperatura sempre intorno, con piccole fluttuazioni, al valore impostato.

Molto spesso, leggete che gli inverter sono migliori, garantiscono un notevole risparmio energetico, ecc. A costo di andare contro corrente, sostengo invece che questo non e’ sempre vero. Mi spiego meglio. Se avete intenzione di tenere acceso il condizionatore per diverese ore, allora il sistema inverter vi garantisce un consumo minimo, arrivati intorno al valore desiderato. Al contrario, un ON/OFF quando parte, parte sempre a pieno regime. Se pero’ avete intenzione di tenere acceso il condizionatore per poco tempo, perche’ volete accenderlo solo in determinati momenti della giornata o per un paio d’ore mentre vi addormentate, allora il sistema inverter funzionerebbe, dal momento che prendiamo tutto l’intervallo necessario ad abbassare la temperatura, esattamente come un ON/OFF, cioe’ sempre a pieno regime. In questo caso, il consumo sara’ esattamente lo stesso e non riuscirete assolutamente a rientrare della maggiore spesa necessaria all’acquisto di un inverter.

Un commerciante onesto dovrebbe sempre chiedere il funzionamento richiesto al condizionatore e consigliare la migliore soluzione.

Detto questo, andiamo invece ai BTU/h, cioe’ questa arcana unita’ di misura con cui vengono classificati i condizionatori.

BTU sta per British Thermal Unit ed e’ un’unita’ di misura anglosassone dell’energia. Come viene definita? 1 BTU e’ la quantita’ di calore necessaria per alzare la temperatura di una libbra di acqua da 39F a 40F, cioe’ da 3.8 a 4.4 gradi centigradi. Come capite anche dalla definizione, e’ un’unita’ di misura del lavoro, che nel Sistema Internazionale e’ il Joule, che utilizza solo unita’ anglosassoni.

Perche’ si utilizza?

In primis, per motivi storici, poi perche’, per sua stessa definizione, indica proprio il calore necessario per aumentare, o diminuire, la teperatura di un volume di un fluido, in questo caso acqua.

Bene, ora pero’ sui condizionatori abbiamo i BTU/h. Questa indica semplicemente la quantita’ di BTU richiesti in un’ora di esercizio. Possiamo convertire i BTU/h in Watt dal momento che un lavoro diviso l’unita’ di tempo e’ proprio la definizione di potenza. In questo caso:

3412 BTU/h –> 1KW

A questo punto, abbiamo qualcosa di manipolabile e che e’ simile all’analisi fatta parlando degli altri elettrodomestici.

Compriamo un condizionatore da 10000 BTU/h e questo equivale ad un sistema da 2.9KW. Quanto ci costa tenerlo acceso un’ora? In termini di bolletta, in un’ora consumiamo 2.9KWh. Se assumiamo, come visto nel precedente articolo, un costo al KWh di 0.20 euro, per tenere acceso questo sistema servono 0.58 euro/h.

0.58 euro/h? Significa 6 euro per tenerlo acceso 10 ore. In un bimestre estivo, questo significherebbe 360 euro sulla bolletta?

Questo e’ l’errore fondamentale che spesso viene fatto. Il valore in KWh calcolato e’ in realta’ quello necessario per rinfrescare, o riscaldare se abbiamo la pompa di calore, il nostro ambiente. Quando comprate un condizionatore, c’e’ anche un ‘altro numero che dovete controllare, il cosiddetto EER, cioe’ l’Energy efficiency ratio. Questo parametro indica semplicemente l’efficienza elettrica del sistema quando questo lavora in raffreddamento. Analogamente, per i condizionatori con pompa di calore, trovate anche un indice COP che invece rappresenta il rendimento quando si opera in riscaldamento.

Detto proprio in termini semplici, quando assorbite 1 KWh dalla rete, il condizionatore rende una quantita’ pari a 1KWh moltiplicato per il EER. Facciamo un esempio. Valori tipici di EER sono compresi tra 3 e 5. Se supponiamo di comprare un condizionatore con EER pari a 4, per ogni KWh assorbito dalla rete, il sistema ne fornisce 4 sotto forma di energia frigorifera.

Se adesso riprendiamo il calcolo di prima, dai valori inseriti, se il nostro condizionatore ha un EER pari a 4, per tenerlo acceso un’ora spenderemo:

0.58/4 = 0.15 euro

Se confrontiamo questi valori con quelli degli altri elettrodomestici visti nell’articolo precedente, ci rendiamo conto che il condizionatore e’ un sistema che “consuma” molta energia.

Ultima considerazione, fino a questo punto abbiamo parlato di BTU/h, prendendo un numero a caso di 10000. In commercio trovate sistemi con valori tra 5000 e 30000, o anche piu’, BTU/h. Volete rinfrescare una camera, che condizionatore dovete prendere?

In realta’, la risposta a questa domanda non e’ affatto semplice. Come potete immaginare, la potenza del sistema che dovete prendere dipende prima di tutto dalla cubatura dell’ambiente, ma ache da parametri specifici che possono variare molto il risultato: superficie vetrata ed esposizione, superficie di muro ed esposizione, eventuale coibentazione della stanza, se ci sono appartamenti sopra e sotto, se siete sotto tetto, ecc.

Giusto per fornire dei valori a spanne, potete far riferimento a questa tabella:

LOCALE DA CLIMATIZZARE (m²)

POTENZA NOMINALE RICHIESTA (BTU)

da 0 a 10

5000

da 10 a 15

7000

da 15 a 25

9000

da 25 a 40

12000

da 40 a 50

15000

da 50 a 60

18000

da 60 a 80

21000

da 80 a 100

24500

da 100 a 130

35000

da 130 a 160

43000

da 160 a 180

48000

da 180 a 200

65000

Come vedete, in linea di principio, per rinfrescare con un salto termico accettabile una stanza da 20 m^2, vi basta un sistema da 9000 BTU/h.

Concludendo, prima di acquistare un condizionatore, si devono sempre valutare le caratteristiche richieste dall’utilizzo che vogliamo farne e dall’ambiente in cui vogliamo utilizzarlo. Detto questo, i parametri specifici del sistema, possono far variare notevolmente il consumo effettivo del condizionatore, influendo in modo significativo sulla bolletta che poi andremo a pagare.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.