Tag Archives: termodinamica

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Effetto Hutchison: realta’ o bufala?

29 Apr

Nell’apposita sezione:

Hai domande o dubbi?

un nostro caro lettore ci ha fatto una richiesta davvero molto interessante. Come potete leggere, ci chiede di dare maggiori dettagli circa l’effetto Hutchinson cioe’ una serie di fenomeni apparentemente non spiegabili utilizzando le attuali conoscenze della fisica.

Personalmente, trovo questa richiesta molto interessante se non altro perche’ ci consente di poter parlare di qualcosa ancora poco dibattutto sui siti nazionali anche se molto in voga gia’ da diversi anni sui siti in lingua inglese. Al solito, permettetemi questo piccolo monito, molti nostri blog e forum non fanno altro che riportare pezzi copiati qua e la senza, salvo alcuni rari casi, discutere la cosa in dettaglio.

Cosa sarebbe questo effetto Hutchinson?

Come anticipato, con questo termine si intendoo in realta’ una serie di fenomeni “strani” dovuti ad interferenza elettromagnetica. Cioe’? Se provate a documentarvi in rete, trovate sempre questa frase:

L’Effetto Hutchison si verifica come il risultato di interferenze di onde radio in una zona di spazio volumetrico avvolto da sorgenti di alto voltaggio, solitamente un generatore Van de Graff, e due o piu’ bobine di Tesla.

OK, ma che significa? Prendete una regione di spazio e fate interferire onde radio con una determinata frequenza e potenza. In prossimita’ della stessa zona sono presenti anche generatori ad alto voltaggio che in realta’ puo’ essere prodotto in vari modi, in particolare usando un Van de Graff o delle bobine Tesla.

Bene, creata questa zona “speciale” con campi elettromagnetici diversi cosa si ottiene?

Gli effetti sono i piu’ disparati: levitazione di oggetti pesanti (metallici ma non solo), compenetrazione di materiali diversi, riscaldamento anomalo di metalli senza bruciare altri materiali in contatto, cambiamenti sia provvisori che definitivi della struttura molecolare dei materiali, ecc.

Per darvi un’idea piu’ chiara, vi riporto un’immagine di alcuni materiali che sono stati sottoposti a questo trattamento:

 

Materiali sottoposti all'effetto Hutchinson

Materiali sottoposti all’effetto Hutchinson

notate in particolare lo sfaldamento dei metalli e l’ultima foto di un pezzo di legno compenetrato nel metallo senza sfaldare ne modificare ne il metallo ne il legno.

Pensate che questo straordinario effetto e’ stato realizzato dentro una normale abitazione utilizzando attrezzatura che ognuno di noi potrebbe acquistare sfruttando una potenza totale di 75W con 120 V in alternata. Come potete immaginare, questo effetto e’ stato mostrato per la “prima” volta da John Hutchinson un canadese che ha iniziato alla fine degli anni ‘7o a fare sperimentazione per hobby riprendendo gli studi addirittura di Nikola Tesla.

John Hutchinson nella sua casa

John Hutchinson nella sua casa

Visto che a noi piace tanto informarci su internet, sono andato a leggere moltissimi siti per capire cosa la gente pensasse di questo effetto. Per prima cosa, vedendo le foto che ho riportato, capite subito quale enorme quantita’ di energia sia necessaria per provocare questi effetti. Inoltre, ottenendo risultati di questo tipo, appare evidente come ci siano molti punti oscuri dell’interazione tra onde radio e materia che ancora ci sfuggono. Secondo molti siti, e’ importante ripetere la fonte delle affermazioni, effetti del genere possono solo essere compresi arrendendosi al fatto che i legami molecolari possano essere modificati attraverso onde radio. L’evidenza di un metallo che aumenta notevolmente la sua temperatura senza bruciare cio’ che lo circonda e’ a sua volta una chiara dimostrazione che la termodinamica cosi’ come la conosciamo debba essere modificata in presenza di notevoli campi elettromagnetici in grado di modificare la concezione stessa di calore che normalmente utilizziamo.

Pesnate sia sufficiente? No, andiamo un pochino piu’ oltre. Da dove viene tutta questa energia se abbiamo solo un dispositivo casalingo collegato alla presa di corrente? Ma e’ ovvio, mettete insieme effetto Hutchinson e Tesla e capirete come questa sia un’applicazione in grado di sfruttare l’energia di punto zero e la produzione spontanea di coppie particella-anti particella nel vuoto quantistico. Perche’ nessun ente, universita’ o laboratorio sta sperimentando questi sistemi per sfruttare questa energia enorme, gratuita e assolutamente rinnovabile?

Che domande che fate ancora: perche’ gli scienziati zozzoni sono tutti corrotti e asserviti al potere delle grandi multinazionali. Al solito pensano di aver capito tutto e sono chiusi alle loro equazioncine che dovrebbero spiegare la meccanica, la termodinamica e l’elettromagnetismo e non si accorgono invece che le evidenze mostrano che tutte le teorie sono sbagliate. Prima ho parlato anche di levitazione di oggetti e vi ho sottolineato il fatto che questa avvenga non solo per oggetti metallici. Ecco una foto di Hutchinson che mostra un modello di disco volante in plastica che e’ stato fatto levitare in uno dei suoi esperimenti:

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Pensate che il modellino di disco volante sia stato scelto a caso? Forse da Hutchinson si, ma questo effetto potrebbe spiegare anche come fanno a volare i dischi volanti che “ogni giorno” vediamo sfrecciare sulle nostre teste. Pensate quanto potremmo imparare sfruttando questo effetto e utilizzandolo per fare viaggi interplanetari, viaggi nel tempo, curvare lo spazio tempo, ecc.

Scienziati perditempo che non fate altro che rubare gli stipendi pagati da gruppi di potere a cui siete asserviti, vergognatevi tutti, compreso il sottoscritto.

Bene, ora torniamo seri e ragioniamo su quanto detto. Piccola parentesi, al solito sto scherzando parafrasando pero’ quello che viene normalmente, anche in questo caso, detto su moltissimi siti. Se provate a documentarvi in rete, troverete diversi articoli che parlano di questo presunto effetto attaccando la scienza ufficiale complice di non approfondire queste scoperte.

Come anticipato, il fatto che lo stesso Hutchinson dica di rifarsi agli esperimenti di Tesla non puo’ che fungere da cassa di risonanza per il complottismo verso la scienza. Di Tesla in particolare abbiamo gia’ parlato in questi articoli:

Il Raggio della Morte

Il Raggio del Dolore

Marconi, Tesla e l’evidenza aliena

Le terribili armi scalari

parlando dell’uomo, dello scienziato ma soprattutto della reale considerazione che la scienza ufficiale ha di questo scienziato di prim’ordine. Purtroppo, ancora oggi molti credono che tutte le scoperte di Tesla siano finite nel dimenticatoio per colpa del governo o di organizzazioni. Questo non e’ assolutamente vero! Pensate solo alla corrente alternata, alle bobine o alle tecnologie senza fili. Tutte scoperte partite o completamente sviluppate da Tesla e oggi sfruttate a pieno. Purtroppo, c’e’ ancora chi ignorantemente sostiene che non siamo in grado o non vogliamo utilizzare la corrente alternata.

Detto questo torniamo ad Hutchinson. Veramente sono stati osservati questi effetti? Purtroppo, anche in questo caso, siamo di fronte alla totale mancanza di prove scientifiche a sostegno. Lo stesso Hutchinson dichiara di non sapere quando e perche’ i suoi esperimenti riescono e per di piu’, non sono mai riusciti di fronte a persone esperte esterne.

Vi voglio mostrare un video a mio avviso interessante:

Notato niente di strano nell’angolo in alto a sinistra? Magari un filo che si riavvolge e tira su il modellino di ufo? Capite bene come questo video messo in rete dallo stesso Hutchinson smentisca da subito il suo esperimento di levitazione.

Ora e’ importante rimarcare un cosa: personalmente, e questo dovrebbe valere per tutti, mi reputo una persona molto aperta e consapevole, da ricercatore, che quello che sappiamo e’ sempre troppo poco rispetto a quanto c’e’ ancora da scoprire. Detto questo, qualora ci fossero effetti nuovi non comprensibili ma ripetibili indipendentemente da chi compie o osserva l’esperimento, la cosa non mi sorprenderebbe affatto. Moltissime invenzioni e scoperte sono arrivate per puro caso e stravolgendo qualcosa che si pensava ben compreso e archiviato. Alla luce di quanto osservato pero’, questo non e’ il caso dell’effetto Hutchinson. E’ vero, in rete ci sono decine di video che mostrano questi esperimenti ma molti di questi mostrano particolari quantomeno sospetti. A parte il video riportato prima, facendo una ricerca in rete potete trovare molti altri documenti sulla levitazione. In questi casi si vede una rapida accelerazione dell’oggettto che sale verso l’alto, accelerazione del tutto compatibile con una caduta libera. Cosa significa? Semplice, che il sospetto che la ripresa sia fatta capovolgendo l’immagine, dunque oggetto che cade piuttosto che salire, e’ davvero molto forte.

Altra piccola parentesi che e’ doveroso fare senza voler offendere nessuno: ma davvero pensate che gli scienziati siano cosi’ stolti? Per poter andare avanti nella conoscenza e’ necessario non smettere mai di essere curiosi e di farsi domande. Oltre a questo pero’, c’e’ tutto un panorama di leggi, effetti, spiegazioni che per anni sono state affinate fino ad arrivare a quello che sappiamo oggi. Dico questo perche’ molto spesso, non sono su questo effetto, leggo in rete persone che si lanciano in spiegazioni parlando a vanvera di questo o quest’altro effetto mostrando chiaramente da quello che scrivono quanto poco sappiano dell’argomento. Per l’effetto Hutchinson tanti parlano di interferenza di onde, principi della termodinamica, Tesla, ecc. senza conoscere minimamnete le basi su cui questi concetti su fondano. Credetemi, diffidate da questi luminari di “wikipediana” cultura che pensano che dopo aver letto due paginette abbiano la comprensione del tutto al punto da poter ridicolizzare chi queste cose le ha studiate, magari le insegna in corsi universitari e continua ancora oggi a farsi domande esistenziali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Quante miglia con un litro di acqua di mare?

15 Apr

Diversi lettori mi hanno contatto privatamente per chiedere info riguardo una notizia che sicuramente avrete letto e che e’ stata rimbalzata su praticamente tutti i giornali nazionali. Come avrete capito dal titolo di questo post, mi riferisco alla notizia di qualche giorno fa in cui la Marina Americana, o meglio il centro ricerche di questo corpo militare, ha annunciato al mondo di essere riuscito a produrre carburante a base di idrocarburi partendo dall’acqua di mare.

Se provate a documentarvi in rete, e vi chiedo di farlo, troverete, come sempre e come cattiva abitudine, 2 o 3 testi differenti ricopiati spudoratamente su tutti i giornali, siti e blog della rete.

Perche’ mi preoccupo di questo? Semplice, non nel caso specifico ma come visto per altre notizie, se la fonte primaria presenta un errore, un dettaglio sbagliato e non spiega alcuni passaggi importanti, tutti gli altri gli vanno dietro dimostrando ancora una volta l’effetto gregge!

Detto questo, come richiesto, torniamo a pensare alla famosa notizia in questione. Leggendo la notizia trovate scritto che, come anticipato, i ricercatori al servizio della Marina avrebbero prodotto combustibile partendo solo ed esclusivamnete dall’acqua di mare. Questo combustibile puo’ gia’ essere utilizzato per alimentare navi da guerra e caccia militari. La dimostrazione? Semplice, come testimonia il vidoe che trovate praticamente ovunque, il combustibile e’ stato usato per far voare un modello di Mustang P-51, tipo di aereo utilizzato durante la seconda guerra mondiale. Secondo i ricercatori coinvolti, la produzione di combustibile dall’acqua di mare e’ gia’ realta’, ma saranno necessari altri 10 anni prima che questa tecnologia venga utilizzata per il rifornimento.

Vantaggi?

Evidenti, ma e’ meglio elencarli di nuovo: le navi potranno percorrere tratti piu’ lunghi in mare aperto senza dover attraccare nei porti per il rifornimento, adottare questa alimentazione eliminerebbe i rischi tecnici e ambientali che un rifornimento in mare aperto prevede ma, soprattutto, usate acqua per produrre combustibile!

Vi rendete conto?

Acqua di mare, tanta, pulita, semplice e assolutamente rinnovabile per produrre combustibile. Altro che re Mida che trasformava in oro quello che toccava o la pietra filosofale degli alchimisti, acqua salata in combustibile. Vi rendete conto di questo? Sono decenni che parliamo di green economy, energie rinnovabili, ambiente, ecc e ora si puo’ produrre combustibile dall’acqua di mare. Commento molto frequente sulla rete su questa notizia: a questo punto potremmo finalmente rottamare quelle pericolose navi nucleari che solcano i nostri mari e che sono delle vere e proprie bombe atomiche galleggianti.

Perche’ aspettare 10 anni per questa rivoluzione, investiamo tutto in questa ricerca e portiamola a conclusione. Facciamo in modo che questa soluzione possa essere commerciale subito, magari anche per altri mezzi di trasporto.

Vi sto insospettendo con questo mix di entusiasmo in forma grottesca? Forse, ed in questo caso l’espressione e’ proprio azzeccata, non e’ tutto oro quello che luccica.

Prima cosa, che molti giornali dimenticano di dire perche’ troppo affannati a fare copia/incolla e gridare al miracolo: come si trasforma l’acqua di mare in combustibile?

Senza spiegare in dettaglio la chimica delle varie reazioni, il processo puo’ essere cosi’ descritto: si sfrutta ovviamente l’acqua ma anche l’anidride carbonica normalmente sciolta nell’acqua di mare. In che modo? Anidride carbonica e idrogeno vengono separati facendoli passare attraverso una cella elettrificata. In questa fase, nell’anodo e nel catodo si accumulano rispettivamente ioni idrogeno e gas idrogeno e anidride carbonica. Successivamente i prodotti vengono fatti passare attraverso una camera riscaldata in cui viene posto un catalizzatore ferroso. Compito di quest’ultimo e’ favorire la produzione di idrocarburi con 8-9 atomi di carbonio che vengono poi raccolti da un catalizzatore al nichel. Risultato, una miscela di idrocarburi utilizzabile come combustibile per la vostra nave.

Quale sarebbe il problema di questo processo? Voi mettete l’acqua e ottenete idrocarburi. Rileggete quanto scritto in precedenza, anidride carbonica e idrogeno vengono “separati” utilizzando una cella “elettrificata”. Inoltre, i prodotti vengono fatti passare attraverso una camera “riscaldata” con un catalizzatore.

Vi dicono niente le parole “elettrificata” e “riscaldata”? Come si elettrifica o si riscalda qualcosa? Semplice, dovete dargli energia.

Cosa significa questo?

Come potete facilmente immaginare, il processo non e’ assolutamente gratuito o cosi’ miracoloso come i giornali vorrebbero farvi credere. Attenzione, non sto facendo il bastian contrario per partito preso, sto solo cercando di mostrare, appunto, che non e’ tutto oro quello che luccica.

Nessun giornale che propone la notizia parla di “rendimento” di questo processo. Purtroppo, allo stato attuale delle cose, l’efficienza della reazione, ottenuta confrontando prima di tutto l’energia contenuta in un litro di carburante con l’energia spesa per produrre quel litro ma anche il rendimento della produzione di quella stessa energia elettrica, non e’ assolutamente elevata. Anzi, per dirla tutta, questo processo e’, allo stato attuale, energeticamente sfavorevole.

Ora, dire “energeticamente sfavorevole” non significa buttare via tutto. La notizia riportata mostra un ottimo punto “di ricerca” raggiunto in questo ambito ma ci vorranno ancora molti anni per arrivare a qualcosa di realmente utilizzabile. Mia opinione personale e’ che i 10 anni di cui si parla siano assolutamente una sottostima dei tempi necessari.

Perche’ dico questo?

Come detto all’inizio, la notizia e’ di questi giorni. Cercando in rete, si trova pero’ un documento, sempre della Marina americana, datato 2010, in cui si fa il punto proprio su questa ipotetica tecnologia:

Documento 2010, combustibile da acqua salata

Leggendo quanto riportato, si parla di un’energia richiesta per la produzione del carburante, in particolare della prima elettrolisi nella cella elettrificata, doppia rispetto a quella realmente ottenibile dal carburante prodotto. Ora, nel gito di 4 anni, le cose sono sensibilmente migliorate, ma siamo ancora abbastanza lontani da poter definire questa tecnologia matura per essere commercializzata.

Altra osservazione importante. Per la prima elettrolisi serve energia. Tralasciando il rapporto tra quella spesa e quella prodotta, se siamo in mezzo al mare, dove prendiamo questa energia? Semplice, la produciamo con sistemi nucleari! Capito bene? Con sistemi nucleari che producono energia elettrica per la nave. Non fraintendete, personalmente non mi sto affatto sconvolgendo, trovo semplicemente grottesco che tanti annuncino entusiasti questa notizia parlando di sostituzione del nucleare sulle navi, non sapendo che per far andare questa tecnologia la stessa marina militare avrebbe pensato di utilizzare energia prodotta da fissione nucleare.

Se e’ tutto vero quello che scrivo, perche’ non commento il video dell’aereo che vola con questo carburante? Ho scritto da qualche parte che la notizia e’ una bufala al 100%? Non mi sembra, uno dei prodotti finale delle reazioni e’ proprio una sorta di combustibile utilizzabile. Notate pero’ una cosa, quello che vi mostrano e’ un modellino molto in miniatura di un aereo militare. Per far volare questo oggetto servono pochi ml di combustibile, quantita’ infinitamente minore di quella che servirebbe anche solo per far partire una nave da guerra.

Conclusione, la notizia riguardante questa scoperta e’ stata ridicolizzata a causa del sensazionalismo imperante ormai su tutti i giornali. La ricerca e’ assolutamente interessante e degna di osservazione. Quanto proposto e’ da intendersi come un “work in progress” e cosi’ sara’ ancora per molto tempo. Qualora si riuscisse ad ottimizzare l’intero processo e a migliorarne il rendimento, sicuramente questa soluzione potrebbe apportare notevoli miglioramenti non solo in termini navali ma, soprattutto, in termini ambientali. Non ci resta che continuare a monitorare questo settore e vedere se ci saranno novita’ nei prossimi anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Riscaldamento economico con le candele

2 Dic

Qualche giorno fa, un nostro caro lettore ci scrive nella sezione:

Hai domande o dubbi?

Per avere lumi circa un video che iniziava a girare sulla rete.

Di cosa si trattava?

Semplice, un tizio di lingua americana proponeva un innovativo quanto rudimentale sistema di riscaldamento costituito da 4 candeline e due vasi di terracotta, esattamente quelli che si utilizzano per i fiori.

Senza troppi giri di parole, vi mostro il video per farvi capire come funzionerebbe il tutto:

Capito? Si dispongono le quattro candele su uno strato metallico, si mettono i due vasi di dimensione crescente ed il gioco e’ fatto. Lo spazio tra i due vasi funzionerebbe come una camera di accumulo del calore grazie all’aria calda che esce dall’interno. In questo modo, si ottiene un eonomico riscaldatore che, grazie alla terracotta, riesce ad accumulare calore. Secondo quanto sostenuto dall’autore del video, con questo sistema si potrebbe riscaldare una camera di 20 metri quadri. Spesa richiesta: 10 centesimi al giorno per le candeline e l’investimento iniziale di pochi euro per prendere i vasi.

Fermi un attimo, ma questa e’ una rivoluzione! Noi che perdiamo tempo a discutere di centrali nucleari, fusione vs fissione vs combustibili fossili, a spendere articoli su energie rinnovabili di nuova concezione per cercare di risparmiare qualche KWh per aiutare l’ambiente, non ci siamo accorti di questa soluzione? Lasciamo stare ragazzi, andate subito in qualche negozio a comprare candele e vasi perche’ quando la voce si spargera’ veramente aumenterenno anche i prezzi.

Prima pero’ di correre ai negozi e buttare quei pochi euro, proviamo a ragionare.

Quando il nostro lettore ci parlo’ di questo video, parlammo della soluzione mostrando l’assurdita’ di quanto proposto. Personalmente, ma ancora mi sorprendo di molte cose, pensavo che la cosa finisse li senza consegueze. Invece stamattina apro il sito di un noto giornale online a diffusione nazionale e cosa vedo?

Questo:

articolo_candele

Ma soprattutto, leggete la didascalia a destra che accompagna il video. Pensate sia tutto? Decine di siti di esperti di energie rinnovabili e nuove soluzioni stanno discutendo di questa soluzione proponendola come rivoluzione del secolo in ambito energetico. Se provate a fare una ricerca su internet rimarrete senza parole nel vedere quanti e quali siti stanno discutendo di questa cosa.

Purtroppo, non c’e’ mai limite all’indecenza.

Commentare un video del genere e’ buttare all’aria i principi basilari della fisica e soprattutto della termodinamica. Devo dire che il video e’ fatto molto bene, al punto da sembrare reale. Qualche considerazione? Avete visto dei termometri? Sapete quanto e’ aumentata la temperatura dell’aria della stanza? Assolutamente no.

Il motore di questo sistema sono ovviamente le candele. Durante la combustione, viene ovviamente sprigionato del calore ma il potere calorifico, cioe’ la quantita’ di calore, detto in modo improprio, prodotto dalle candele e’ estremamente basso. Questo proprio perche’ e’ caratteristica della cera che le costituisce. I nostri nonni, utilizzavano le candele per fare luce la sera, non certo per scaldarsi. Per questo, utilizzavano camini e stufe a legna, sostanza con potere calorifico molto piu’ alto. Ma allora a cosa servono i vasi intorno? A parte per fare scena, sicuramente la terracotta si riscalda accumulando calore e cedendola lentamente all’esterno. Questo e’ ovvio. Si formano moti convettivi nello spazio libero? Anche questo e’ probabile, ma la sorgente primaria sono sempre e solo le candele. Potete inventare tutti i modi possibili per sfruttare, trattenere e non disperdere calore, ma quello che avete a disposizione non potete certo amplificarlo.

Facciamo un esempio un po’ tirato per il collo. Se avete a disposizione un motore di una certa potenza, potete allegerire la macchina, migliorare la trasmissione, ridurre gli attriti meccanici, ecc ma la fonte iniziale e’ sempre e solo il vostro motore. La stessa cosa avviene per le candele.

Detto questo, non credo ci sia da discutere ancora di questa soluzione se non riflettere su quanto i sedicenti giornalisti professionisti si lascino trasportare dalla rete e dalle mode del momento.

Prima di chiudere, vorrei pero’ aprire un’altra parentesi. Oltre ad essere assurda, questa soluzione non e’ assolutamente innovativa. Ogni tot anni, qualche simpatico burlone la tira fuori dal cassetto facendo sempre abboccare molti creduloni. Non ci credete?

Dal 2010 questo sito americano:

Stufe a candele

propone questa soluzione anche con una sola candela:

Sistema di riscaldamento a candele venduto negli USA

Sistema di riscaldamento a candele venduto negli USA

Se poi volete proprio essere sicuri di quello che dico, provata a fare una ricerca su internet impostando, ad esempio, le date comprese tra il 2000 e il 2010, quindi ben due anni fa. Ecco quello che ottenete:

Google, heating with candles

Visto quanti risultati?

Concludendo, l’idea iniziale e’ assurda. Non potete pensare di amplificare il potere calorifico di un qualcosa costruendo sistemi intorno. Questo smentisce gia ‘completamente la soluzione a candele vista nel video. Inoltre, questa bufala gira in rete gia’ da diversi anni e, come sempre, negli USA c’e’ addirittura chi propone in vendita sistemi gia’ fatti alla ricerca di qualcuno che ci caschi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

I buchi neri che … evaporano

16 Ago

Uno degli aspetti che da sempre fa discutere e creare complottismi su LHC, e’ di sicuro la possibilita’ di creare mini buchi neri. Questa teoria nasce prendendo in considerazione le alte energie in gioco all’interno del collissore del CERN e la possibilita’ che nello scontro quark-quark possa venire a crearsi una singolarita’ simile a quella dei buchi neri.

Se avete perso i precedenti articoli, di LHC abbiamo parlato in questi post:

2012, fine del mondo e LHC

Bosone di Higgs … ma che sarebbe?

Sia ben chiaro, la storia dei buchi neri non e’ la sola creata su LHC. Il CERN ogni giorno riceve lettere che chiedono la chiusura dell’esperimento per il pericolo che questo rappresenta per l’intera terra. Diverse volte il CERN e’ anche stato chiamato in giudizio a fronte di vere e proprie denuncie di pseudo scienziati che lo accusavano farneticando teorie senza capo ne’ coda. Come potete immaginare, tutte le volte le accuse sono state rigettate e non solo LHC il prossimo anno ripartira’, ma a gia’ fornito risultati fisici di prim’ordine.

Perche’ si discute tanto di buchi neri? Qui ognuno puo’ formulare la propria ipotesi. Io ho una mia idea. Parlare di buchi neri, e’ qualcosa che da sempre stimola la curiosita’ e il timore delle persone. Un buco nero e’ visto come qualcosa di misterioso che vive nel nostro universo con caratteristiche uniche nel suo genere: mangia tutto cio’ che gli capita a tiro senza far uscire nulla. L’idea di poter avere un mostro del genere qui sulla terra, scatena gli animi piu’ catastrofisti pensando a qualcosa che nel giro di qualche minuto sarebbe in grado di divorare Ginevra, la Svizzera, il mondo intero.

Come anticipato, LHC e’ ora in stato di fermo. Si sta lavorando incessantemente per migliorare i rivelatori che vi operano al fine di ottenere risultati sempre piu’ accurati e affidabili. Alla ripartenza, avendo ormai preso piu’ confidenza con la macchina, si pensa anche di poter aumentare l’energia del centro di massa, cioe’ quella a disposizione per creare nuove particelle, portandola da 7 a 10 TeV. Come e’ ovvio, questa notizia non poteva che riaccendere gli animi catastrofisti. Al momento non si e’ creato nessun buco nero perche’ l’energia era troppo bassa, gli scienziati stanno giocando con il fuoco e porteranno alla distruzione della Terra. Queste sono le argomentazioni che cominciate a leggere in rete e che non potranno che riaumentare avvicinandoci al momento della ripartenza.

Se anche dovesse formarsi un mini buco nero, perche’ gli scienziati sono tanto sicuri che non accadra’ nulla? Come sapete, si parla di evaporazione dei buchi neri. Una “strana” teoria formulata dal fisico inglese Stephen Hawking ma che, almeno da quello che leggete, non e’ mai stata verificata, si tratta solo di un’idea e andrebbe anche in conflitto con la meccanica quantistica e la relativita’. Queste sono le argomentazioni che leggete. Trovate uno straccio di articolo a sostegno? Assolutamente no, ma, leggendo queste notizie, il cosiddetto uomo di strada, non addetto ai lavori, potrebbe lasciarsi convincere che stiamo accendendo una miccia, pensando che forse si spegnera’ da sola.

Date queste premesse, credo sia il caso di affrontare il discorso dell’evaporazione dei buchi neri. Purtroppo, si tratta di teorie abbastanza complicate e che richiedono molti concetti fisici. Cercheremo di mantenere un profilo divulgativo al massimo, spesso con esempi forzati e astrazioni. Cio’ nonostante, parleremo chiaramente dello stato dell’arte, senza nascondere nulla ma solo mostrando risultati accertati.

Cominciamo proprio dalle basi parlando di buchi neri. La domanda principale che viene fatta e’ la seguente: se un buco nero non lascia sfuggire nulla dal suo interno, ne’ particelle ne’ radiazione, come potrebbe evaporare, cioe’ emettere qualcosa verso l’esterno? Questa e’ un’ottima domanda, e per rispondere dobbiamo capire meglio come e’ fatto un buco nero.

Secondo la teoria della relativita’, un buco nero sarebbe un oggetto estremamente denso e dotato di una gravita’ molto elevata. Questa intensa forza di richiamo non permette a nulla, nemmeno alla luce, di sfuggire al buco nero. Essendo pero’ un oggetto molto denso e compatto, questa forza e’ estremamente concentrata e localizzata. Immaginatelo un po’ come un buco molto profondo creato nello spazio tempo, cioe’ una sorta di inghiottitoio. La linea di confine tra la singolarita’ e l’esterno e’ quello che viene definito l’orizzonte degli eventi. Per capire questo concetto, immaginate l’orizzonte degli eventi come una cascata molto ripida che si apre lungo un torrente. Un pesce potra’ scendere e risalire il fiume senza problemi finche’ e’ lontano dalla cascata. In prossimita’ del confine, cioe’ dell’orizzonte degli eventi, la forza che lo trascina giu’ e’ talmente forte che il pesce non potra’ piu’ risalire e verra’ inghiottito.

Bene, questo e’ piu’ o meno il perche’ dal buco nero non esce nulla, nemmeno la luce. Dunque? Come possiamo dire che il buco nero evapora in queste condizioni?

La teoria dell’evaporazione, si basa sulle proprieta’ del vuoto. Come visto in questo articolo:

Se il vuoto non e’ vuoto

nella fisica, quello che immaginiamo come vuoto, e’ un continuo manifestarsi di coppie virtuali particella-antiparticella che vivono un tempo brevissimo e poi si riannichilano scomparendo. Come visto nell’articolo, non stiamo parlando di idee campate in aria, ma di teorie fisiche dimostrabili. L’effetto Casimir, dimostrato sperimentalmente e analizzato nell’articolo citato, e’ uno degli esempi.

Ora, anche in prossimita’ del buco nero si creeranno coppie di particelle e questo e’ altresi’ possibile quasi in prossimita’ dell’orizzonte degli eventi. Bene, ragioniamo su questo caso specifico. Qualora venisse creata una coppia di particelle virtuali molto vicino alla singolarita’, e’ possibile che una delle due particelle venga assorbita perche’ troppo vicina all’orizzonte degli eventi. In questo caso, la singola particella rimasta diviene, grazie al principio di indeterminazione di Heisenberg, una particella reale. Cosa succede al buco nero? Nei testi divulgativi spesso leggete che il buco nero assorbe una particella con energia negativa e dunque diminuisce la sua. Cosa significa energia negativa? Dal vuoto vengono create due particelle. Per forza di cose queste avranno sottratto un po’ di energia dal vuoto che dunque rimarra’ in deficit. Se ora una delle due particelle virtuali e’ persa, l’altra non puo’ che rimanere come particella reale. E il deficit chi lo paga? Ovviamente il buco nero, che e’ l’unico soggetto in zona in grado di pagare il debito. In soldoni dunque, e’ come se il buco nero assorbisse una particella di energia negativa e quindi diminuisse la sua. Cosa succede alla particella, ormai reale, rimasta? Questa, trovandosi oltre l’orizzonte degli eventi puo’ sfuggire sotto forma di radiazione. Questo processo e’ quello che si definisce evaporazione del buco nero.

Cosa non torna in questo ragionamento?

Il problema principale e’, come si dice in fisica, che questo processo violerebbe l’unitarieta’. Per le basi della meccanica quantistica, un qualunque sistema in evoluzione conserva sempre l’informazione circa lo stato inziale. Cosa significa? In ogni stato e’ sempre contenuta l’indicazione tramite la quale e’ possibile determinare con certezza lo stato precedente. Nel caso dei buchi neri che evaporano, ci troviamo una radiazione termica povera di informazione, creata dal vuoto, e che quindi non porta informazione.

Proprio da questa assunzione nascono le teorie che potete leggere in giro circa il fatto che l’evaporazione non sarebbe in accordo con la meccanica quantistica. Queste argomentazioni, hanno fatto discutere anche i fisici per lungo tempo, cioe’ da quando Hawking ha proposto la teoria. Sia ben chiaro, la cosa non dovrebbe sorprendere. Parlando di buchi neri, stiamo ragionando su oggetti molto complicati e per i quali potrebbero valere  leggi modificate rispetto a quelle che conosciamo.

Nonostante questo, ad oggi, la soluzione al problema e’ stata almeno “indicata”. Nel campo della fisica, si racconta anche di una famosa scommessa tra Hawking e Preskill, un altro fisico teorico del Caltech. Hawking sosteneva che la sua teoria fosse giusta e che i buchi neri violassero l’unitarieta’, mentre Perskill era un fervido sostenitore della inviolabilita dei principi primi della meccanica quantistica.

La soluzione del rebus e’ stata indicata, anche se ancora non confermata, come vedremo in seguito, chiamando in causa le cosiddette teorie di nuova fisica. Come sapete, la teoria candidata a risolvere il problema della quantizzazione della gravita’ e’ quella delle stringhe, compatibile anche con quella delle brane. Secondo questi assunti, le particelle elementari non sarebbero puntiformi ma oggetti con un’estensione spaziale noti appunto come stringhe. In questo caso, il buco nero non sarebbe piu’ una singolarita’ puntiforme, ma avrebbe un’estensione interna molto piu’ complessa. Questa estensione permette pero’ all’informazione di uscire, facendo conservare l’unitarieta’. Detto in altri termini, togliendo la singolarita’, nel momento in cui il buco nero evapora, questo fornisce ancora un’indicazione sul suo stato precedente.

Lo studio dei buchi neri all’interno della teoria delle stringhe ha portato al cosiddetto principio olografico, secondo il quale la gravita’ sarebbe una manifestazione di una teoria quantistica che vive in un numero minore di dimensioni. Esattamente come avviene in un ologramma. Come sapete, guardando un ologramma, riuscite a percepire un oggetto tridimensionale ma che in realta’ e’ dato da un immagine a 2 sole dimensioni. Bene, la gravita’ funzionerebbe in questo modo: la vera forza e’ una teoria quantistica che vive in un numero ridotto di dimensioni, manifestabili, tra l’altro, all’interno del buco nero. All’esterno, con un numero di dimensioni maggiori, questa teoria ci apparirebbe come quella che chiamiamo gravita’. Il principio non e’ assolutamente campato in aria e permetterebbe anche di unificare agevolmente la gravita’ alle altre forze fondamentali, separate dopo il big bang man mano che l’universo si raffreddava.

Seguendo il ragionamento, capite bene il punto in cui siamo arrivati. Concepire i buchi neri in questo modo non violerebbe assolutamente nessun principio primo della fisica. Con un colpo solo si e’ riusciti a mettere insieme: la meccanica quantistica, la relativita’ generale, il principio di indeterminazione di Heisenberg, le proprieta’ del vuoto e la termodinamica studiando la radiazione termica ed estendendo il secondo principio ai buchi neri.

Attenzione, in tutta questa storia c’e’ un pero’. E’ vero, abbiamo messo insieme tante cose, ma ci stiamo affidando ad una radiazione che non abbiamo mai visto e alla teoria delle stringhe o delle brance che al momento non e’ confermata. Dunque? Quanto sostenuto dai catastrofisti e’ vero? Gli scienziati rischiano di distruggere il mondo basandosi su calcoli su pezzi di carta?

Assolutamente no.

Anche se non direttamente sui buchi neri, la radiazione di Hawking e’ stata osservata in laboratorio. Un gruppo di fisici italiani ha osservato una radiazione paragonabile a quella dell’evaporazione ricreando un orizzonte degli eventi analogo a quello dei buchi neri. Come visto fin qui, l’elemento fondamentale del gioco, non e’ il buco nero, bensi’ la curvatura della singolarita’ offerta dalla gravita’. Bene, per ricreare un orizzonte degli eventi, basta studiare le proprieta’ ottiche di alcuni materiali, in particolare il loro indice di rifrazione, cioe’ il parametro che determina il rallentamento della radiazione elettromagnetica quando questa attraversa un mezzo.

Nell’esperimento, si e’ utilizzato un potente fascio laser infrarosso, in grado di generare impulsi cortissimi, dell’ordine dei miliardesimi di metro, ma con intensita’ miliardi di volte maggiore della radiazione solare. Sparando questo fascio su pezzi di vetro, il punto in cui la radiazione colpisce il mezzo si comporta esattamente come l’orizzonte degli eventi del buco nero, creando una singolarita’ dalla quale la luce presente nell’intorno non riesce ad uscire. In laboratorio si e’ dunque osservata una radiazione con una lunghezza d’onda del tutto paragonabile con quella che ci si aspetterebbe dalla teoria di Hawking, tra 850 e 900 nm.

Dunque? Tutto confermato? Se proprio vogliamo essere pignoli, no. Come visto, nel caso del buco nero gioca un ruolo determinante la gravita’ generata dal corpo. In laboratorio invece, la singolarita’ e’ stata creata otticamente. Ovviamente, mancano ancora degli studi su questi punti, ma l’aver ottenuto una radiazione con la stessa lunghezza d’onda predetta dalla teoria di Hawking e in un punto in cui si genera un orizzonte degli eventi simile a quello del buco nero, non puo’ che farci sperare che la teoria sia giusta.

Concludendo, l’evaporazione dei buchi neri e’ una teoria molto complessa e che richiama concetti molto importanti della fisica. Come visto, le teorie di nuova fisica formulate in questi anni, hanno consentito di indicare la strada probabile per risolvere le iniziali incompatibilita’. Anche se in condizioni diverse, studi di laboratorio hanno dimostrato la probabile esistenza della radiazione di Hawking, risultati che confermerebbero l’esistenza della radiazione e dunque la possibilita’ dell’evaporazione. Ovviamente, siamo di fronte a teorie in parte non ancora dimostrate ma solo ipotizzate. I risultati ottenuti fino a questo punto, ci fanno capire pero’ che la strada indicata potrebbe essere giusta.

Vorrei chiudere con un pensiero. Se, a questo punto, ancora pensate che potrebbero essere tutte fantasie e che un buco nero si potrebbe creare e distruggere la Terra, vi faccio notare che qui parliamo di teorie scientifiche, con basi solide e dimostrate, e che stanno ottenendo le prime conferme da esperimenti diretti. Quando leggete le teorie catastrofiste in rete, su quali basi si fondano? Quali articoli vengono portati a sostegno? Ci sono esperimenti di laboratorio, anche preliminari ed in condizioni diverse, che potrebbero confermare quanto affermato dai catastrofisti?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pannelli, pannelli e pannelli

12 Mar

Qualche post fa, parlando del futuro delle energie rinnovabili, abbiamo visto alcuni dei grandi progetti pensati da qui a qualche anno. In particolare, il progetto DESERTEC, che pero’ sta avendo qualche problema gestionale iniziale, e soprattutto i grandi impianti dei paesi arabi che molto stanno investendo in questi settori:

Energia solare nel deserto

Ora, come sottolineato in questo articolo, molto spesso i non addetti ai lavori tendono a mescolare le diverse tecnologie solari, parlando semplicemente di “pannelli”. In realta’, e’ necessario fare delle distinzioni ben precise, distinguendo le diverse soluzioni in base al principio fisico che ne e’ alla base. Proprio per questo motivo, ho deciso di scrivere questo post, appunto per illustrare le diverse tecnologie per lo sfruttamento dell’energia solare, sempre mantenendo un profilo divulgativo e senza entrare troppo in dettagli che potrebbero risultare noiosi. Ovviamente, chi poi vorra’ avere informazioni aggiuntive, potra’ contattarmi oppure cercare in rete la vastissima bibliografia che molto facilmente potete reperire su questi argomenti.

A questo punto, prima di tutto, vogliamo distinguere tre grandi categorie di pannelli, parlando di fotovoltaico, solare termico e solare termodinamico. Come vedremo, anche se possono sembrare simili, le tre soluzioni sono radicalmente differenti dal punto di vista tecnico-scientifico. Anche l’utilizzo e la diffusione di queste soluzioni risulta molto diversificata ed, in particolare, come vedremo, ad esempio il solare termodinamico e di piu’ recente introduzione e ancora in fase di importante sviluppo.

Pannello fotovoltaico

Elemento base di questo pannello e’ la cella fotovoltaica. La cella si presenta come una superficie nera o bluastra, ricoperta da un materiale semiconduttore, tra i quali il piu’ diffuso e’ certamente il silicio. Le celle standard prodotte a livello industriale hanno forme quadrate con lati da 4 o 6 pollici, anche se esitono esemplari piu’ piccoli utilizzati per alimentare calcolatrici e orologi.

Pannelli fotovoltaici in cui si vedono chiaramente le singole celle

Pannelli fotovoltaici in cui si vedono chiaramente le singole celle

Il principio di funzionamento della celle e’ appunto noto come “Effetto fotovoltaico”. Quando la luce incide sulla superficie della cella, questa si comporta come un generatore di corrente continua, sfruttando proprio le proprieta’ intrinseche del semiconduttore. Per ottenere una tensione maggiore, un certo numero di celle vengono connesse in serie per formare poi il pannello solare che tutti conosciamo.

Nel pannello fotovoltaico dunque, la radiazione solare viene convertita, attraverso il semiconduttore, direttamente in una corrente elettrica.

Purtroppo la connessione in serie implica una serie di problemi, come ad esempio la diminuzione di potenza del modulo se una o piu’ celle si trovano in ombra rispetto alle altre. In questo caso, e’ necessario assicurare una illuminazione uniforme di tutte le celle o in alternativa utilizzare moduli per l’inseguimento solare. Quest’ultima soluzione e’ utilizzata anche per migliorare l’esposizione in generale del pannello, consentendo a questo di ruotare offrendo sempre la propria area attiva in direzione del Sole. Come potete capire bene, l’utilizzo di motori per la rotazione implica ovviamente anche un consumo di energia, per cui e’ sempre necessario trovare un buon compromesso in queste soluzioni.

Poiche’, come detto, le celle si comportano come generatori di corrente, i pannelli devono poi essere collegati ad un inverter il cui compito e’ appunto quello di trasformare la tensione in alternata e quindi, poter immetere la produzione nella rete elettrica o anche per l’utilizzo nelle nostre abitazioni.

Ovviamente, come tutti sapete, il pannello fotovoltaico e’ quello maggiormente utilizzato ed e’ quello che viene utilizzato anche per la costruzione dei campi fotovoltaici, visibili in diverse zone, e che vengono costruiti appunto per la produzione e vendita dell’energia elettrica.

Solare Termico

Questo tipo di impianti viene utilizzato per catturare l’energia solare, immagazzinarla ed utilizzarla per scopi diversi. Tra questi, quelli maggiormente diffusi sono quelli per la produzione di acqua calda sanitaria, cioe’ per la produzione di acqua calda da utilizzare in casa. Come potete facimemte capire, in questo caso, questi impianti lavorano in sostituzione o di concerto con la caldaia che invece utilizza gas naturale.

Impianto solare termico domestico per acqua calda sanitaria

Impianto solare termico domestico per acqua calda sanitaria

I pannelli termici possono essere di vari tipi, anche se i piu’ diffusi sono costituiti da una lastra di rame, percorsa da una serpentina, e verniciata di nero. L’intero pannello e’ poi coperto da una lastra di vetro.

In questo caso, molto spesso si possono vedere sui tetti delle abitazioni dei pannelli in cui nella parte alta sono facilmente distinguibili serbatoi d’acqua. In questa soluzione, l’energia solare catturata viene utilizzata immediatamente per riscaldare appunto il fluido ed utilizzarlo nell’abitazione. Solo per completezza, ci sono diverse tipologie di impianti che vengono distinte in base alle temperature di esercizio e che possono variare tra 120 gradi (bassa temperatura) fino anche a 1000 gradi (alta temperatura) quando utilizzati in impianti industriali.

Solare Termodinamico

In questo caso, il principio di funzionamento e’ del tutto simile a quello termico, ma con l’aggiunta di un ciclo termodinamico detto ciclo Rankine. I pannelli solari termodinamici hanno forme paraboliche per poter concentrare la radiazione solare e proprio per questo sono anche detti impianti a concentrazione.

A differenza degli impianti termici domestici, nel solare termodinamico l’energia termica accumulata viene utilizzata attraverso una turbina a vapore o anche un alternatore per produrre energia elettrica. Inoltre, l’energia termica puo’ essere accumulata in modo da essere sfruttata anche durante la notte o in condizioni di cielo nuvoloso garantendo in questo modo una produzione costante e non intermittente come avviene nelle soluzioni precedentemente viste.

Impianto solare termodinamico con pannelli a concentrazione

Impianto solare termodinamico con pannelli a concentrazione

L’immagazzinamento dell’energia termica avviene mediante un fluido termovettore adatto appunto ad immagazzinare e trasportare il calore nel punto di conversione in energia elettrica. Nella prima generazione di impianti termodinamici, veniva utilizzato come fluido un olio diatermico, questo e’ stato poi sostituito con una miscela di sali fusi, molto piu’ efficienti ed in gradi di trattenere per tempi piu’ lunghi il calore. Proprio il fluido termovettore e’ quello che garantisce la produzione di energia durante la notte. Il calore accumulato dal fluido durante l’esposizione al sole, rimane immagazzinato per diverse ore, in alcuni casi anche giorni, garantendo in questo modo una produzione costante.

Come visto nell’articolo precedente, proprio questo genere di pannelli, grazie al principio fisico che sfruttano, possono anche essere utilizzati in condizioni estreme, come ad esempio il deserto del Sahara. Ad oggi pero’, il costo dell’energia prodotta con questi sistemi e’ ancora 5-6 volte maggiore rispetto a quello di altre soluzioni percorribili. Il motivo di questo e’ da ricercarsi nella relativa giovane eta’ di questa tecnologia e soprattutto nella mancanza ancora di una produzione industriale massiccia di questi pannelli. In questo senso, la ricerca, soprattutto nella migliore concentrazione solare e nel piu’ vantaggioso fluido da utilizzare, sta andando avanti molto velocemente. Questo ci spinge a pensare che nel giro di pochi anni questa diverra’ una tecnologia sfruttabile a pieno e da cui si potranno avere buone produzioni energetiche anche in diverse parti del mondo.

Concludendo, come abbiamo visto, non possiamo parlare semplicemente di pannelli confondendo soluzioni radicalmente diverse tra loro. I principi tecnico-scientifici alla base di ciascuna soluzione sono radicalmente diversi, anche dal punto di vista dell’utilizzo. A livello di ricerca, il solare termodinamico sta portando importanti risultati e molto probabilmente, nel giro di pochi anni, questa soluzione potra’ avere costi piu’ contenuti e dunque una maggiore diffusione su scala mondiale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La fisica del caffe’

4 Mar

Forse leggendo il titolo di questo post avete pensato di aver sbagliato indirizzo internet oppure che io mi sia impazzito. In realta’ niente di tutto questo. In questo post vorrei aprire una piccola parentesi prettamente scientifica e parlare appunto della “fisica del caffe'” o meglio di come funziona una moka.

Ribadisco non sono impazzito, semplicemente oggi ho realizzato che tutti conoscono la moka, ma in realta’ pochi sanno veramente come funziona. Credo che in realta’, anche molti appassionati di scienza ignorino il vero funzionamento di questo oggetto presente in tutte le case di noi italiani. Per questo motivo ho deciso di scrivere questo semplice post per spiegare come funziona la “macchinetta del caffe'”. In fondo, siamo sempre su un blog di scienza, e proprio di questo vogliamo parlare.

Schema di una moka

Schema di una moka

Partiamo dalle cose ovvie, la moka e’ composta di 3 parti principali in alluminio: il bollitore, un filtro metallico a forma di imbuto e dal raccoglitore. Come sapete tutti, si mette l’acqua nel bollitore, il caffe’ macinato nel filtro,si mette la moka sul fuoco e nel raccoglitore esce il caffe’.

Bene, se pensate che mettendo la moka sul fuoco portate l’acqua in ebollizione, il vapore passa nel filtro e condensa mentre risale verso l’alto, allora e’ il caso che continuiate a leggere il post. Questa risposta, comune alla maggior parte delle persone, e’ in realta’ sbagliata.

Dalla termodinamica, per una normale moka da tre tazzine, la pressione alla completa ebollizione dell’acqua nel bollitore  sarebbe circa di 1600-1700 atmosfere. In questo caso la moka sarebbe equivalente ad una bomba messa sul fornello.

Come funziona in realta’ la moka?

Quando riempiamo il bollitore, il livello dell’acqua arriva piu’ o meno a quello della valvola di sicurezza. Questo significa che quando chiudiamo, sopra all’acqua, e’ presente un certo volume di aria. Mettendo la macchinetta sul fuoco, solo una minima parte dell’acqua raggiunge l’evaporazione mentre l’aria, appunto riscaldandosi, aumenta la propria pressione cercando di espandersi in un volume ben delimitato.

L’espansione dell’aria, spinge verso il basso l’acqua che trova l’unica via di fuga nel beccuccio del filtro ed in questo modo risale verso la polvere di caffe’. L’alta pressione trasforma dunque l’acqua, nel suo passaggio attraverso l’imbuto, nella bevanda che tutti conosciamo. La continua spinta dal basso verso l’alto dell’ulteriore acqua, spinge il caffe’ verso il raccoglitore dove viene raccolto.

In questo caso quindi la pressione all’interno del bollitore e’ solo di poco superiore a quella atmosferica e, come detto, solo una minima parte dell’acqua arriva all’ebollizione.

Come verificare questo? Se ci fate caso, alla fine della preparazione si ha sempre uno sbuffo di vapore che fuoriesce dal raccoglitore. Questo indica semplicemente che il livello dell’acqua nel bollitore e’ arrivato sotto l’imbuto del filtro e quindi, sempre a cusa della spinta dovuta all’espansione, l’aria passa attraverso il condotto producendo la fuoriuscita di vapore.

A proposito, vi mostro un video molto interessante realizzato utilizzando imaging a neutroni su una moka in funzione. Come potete vedere, la spinta dell’aria spinge l’acqua calda attraverso il filtro fino al raccoglitore:

Questo e’ dunque il funzionamento della moka.

Notiamo prima di tutto una cosa. La lunghezza dell’imbuto del filtro non e’ casuale. Un imbuto troppo lungo farebbe uscire il caffe’ prima ma ad una pressione e ad una temperatura piu’ basse. In questo caso il sapore sarebbe meno forte a causa della ridotta pressione con cui l’acqua passa attraverso la polvere e mal miscelato a causa della bassa temperatura. In caso contrario, cioe’ un imbuto troppo corto, la quantita’ di caffe’ raccolto sarebbe troppo piccola e le pressioni richieste molto piu’ alte.

Anche la miscela di caffe’ utilizzata e’ molto importante. Come visto nel funzionamento, l’acqua passa attraverso la polvere una sola volta. Per questo motivo si cerca di macinare in modo molto sottile il caffe’ in modo da aumentare la superficie di contatto con l’acqua. Questo e’ importante per migliorare l’estrazione delle sostanze solubili presenti nel caffe’.

Per chi non lo sapesse, quello della moka e’ un brevetto completamente italiano. Questo strumento di piacere e’ infatti stato inventato da Alfonso Bialetti nel 1933.

La vera moka e’ infatti solo quella Bialetti. Non che io voglia fare pubblicita’, ma questa ditta e’ l’unica che puo’ sfruttare il brevetto originale. Questo infatti prevede una moka di forma ottagonale per aumentare la presa in caso di superficie bagnata. Marche diverse di moka prevedono forme diverse, rotonde o sempre poligonali, ma che non rispettano il brevetto originale.

Ultimissima curiosita’. Il nome moka deriva dalla citta’ Mokha in Yemen, una delle prime e piu’ famose zone di coltivazione del caffe’. Il nome espresso invece, che alcuni vorrebbero indicare la velocita’ di preparazione con questa tecnica, deriva in realta’ dalla crasi di due parole “extra” e “pressione” appunto per indicare la sovrapressione con cui l’aria spinge l’acqua attraverso il filtro ad imbuto.

Con questo chiudiamo questa breve parentesi. A questo punto fate un esperimento, provate a chiedere ad amici e conoscenti come funziona una moka. Vedrete quanti sono convinti di avere una bomba in casa.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Scie Chimiche: il prelievo in quota

28 Ott

Nel post precedente, abbiamo iniziato a parlare di scie chimiche:

Alcune considerazioni sulle scie chimiche

mostrando in particolare l’origine di questa teoria complottista e facendo considerazioni sulla formazione fisica delle scie di condensa. Come abbiamo visto, il comportamento e la formazione della condensa da parte di velivoli, non e’ assolutamente univoca, e consente di smentire molte ipotesi mosse dai sostenitori delle scie chimiche.

Come detto, una prova fondamentale che manca ai complottisti delle scie chimiche e’ proprio un prelievo in quota nella scia dell’aereo ed un’analisi formale che mostri la presenza di metalli pesanti o agenti patogeni nella condensa.

Proprio in questi giorni, molti siti sostenitori delle ipotesi sulle scie chimiche hanno pubblicato a gran voce questa prova.

Cerchiamo di andare con ordine.

Come annunciato su molti siti, tra cui anche il principale sito a sostegno delle scie, ovvero:

tanker enemy

su un volo di linea, e precisamente sul volo Ryanair da Pisa a Creta, un utente avrebbe fatto un prelievo di polveri. Dalla successiva analisi di queste polveri sarebbe emersa una concetrazione elevata di Alluminio, Cadmio e Bario.

Se questo fosse vero, sarebbe la prova inconfutabile dell’esistenza delle scie chimiche.

Per capire meglio, cerchiamo prima di tutto di capire come e dove e’ stato fatto questo prelievo.

Come anticipato, il prelievo sarebbe stato fatto da un utente privato su un volo di linea Ryanair e le analisi condotte da un laboratorio, anche questo privato. Ovviamente viene mantenuto l’anonimato sia sull’utente che sul laboratorio di analisi.

Come e’ stato fatto questo prelievo?

Come potete immaginare, e’ impossibile che un utente privato abbia prelevato un campione di aria nella scia dell’aereo. Infatti, stando a quanto affermato dagli stessi siti, il campione di polvere sarebbe stato prelevato dai cardini di aggancio del tavolino del sedile.

Zona del prelievo di polvere. Fonte: Tanker Enemy

Ora, cerchiamo di capire meglio. Perche’ e’ stato effettuato il prelievo all’interno dell’aereo?

Una parte dell’aria all’interno della cabina degli aerei viene prelevata da sotto la conchiglia del motore. Dunque, secondo i sostenitori delle scie chimiche, gli stessi agenti presenti nella scia entrano anche all’interno del velivolo.

Questo e’ in parte falso ed il perche’ e’ facilmente comprensibile. Come sapete bene, piu’ saliamo in altezza, piu’ l’aria e’ rarefatta, cioe’ minore e’ la concentrazione di ossigeno. In base a questo, l’aria prelevata dall’esterno e’ una minima frazione, mentre la maggior parte viene reciclata all’interno del velivolo stesso.

Da questa semplice considerazione tecnica, capite subito che il prelievo fatto all’interno del velivolo non e’ asssolutamente in relazione con quello che si vuole dimostrare. Inoltre, come vedete nell’immagine stessa, il prelievo e’ stato fatto utilizzando un fazzoletto di carta. Per poter fare una misura reale, il campione dovrebbe essere prelevato in modo scientifico utilizzando lo strumento adeguato e poi essere conservato senza possibilita’ di inquinamento esterno. Capite bene che prendere un campione in questo modo, non sapendo come viene conservato e quale laboratorio ha fatto l’analisi non ha assolutamente un valore scientifico in questa ricerca.

Come visto in precedenza, i sostenitori delle scie chimiche parlano di metalli pesanti nelle scie quali Alluminio, Stronzio, Titanio, Silicio. Di questi, solo l’allumino e’ stato trovato nelle analisi, come e’ possibile vedere nel risultato:

Risultato delle analisi sul campione Ryanair

Cerchiamo di fare qualche considerazione conclusiva. Il metodo di prelievo del campione e’ completamente sbagliato e il campione stesso che e’ stato prelevato non puo’ essere messo in relazione con le sostanze contenute nelle eventuali scie chimiche.

Inoltre, ragioniamo su un ultimo aspetto. Tutte le compagnie low cost, e dunque anche Ryanair, fanno diversi voli al giorno con gli stessi aerei. In generale, un aereo arriva a destinazione, si ferma il tempo necessario al rifornimento e ai controlli, e poi riparte verso l’aereoporto di partenza. Il breve lasso di tempo in cui l’aereo e’ fermo, viene utilizzato per risistemare la cabina ed effettuare una veloce pulizia. Con questo non sto assolutamente dicendo che gli aerei low cost sono sporchi, ma capite bene che se andate a cercare negli interstizi piu’ nascosti, come quello del campione, e’ facile trovare polvere.

I metalli che compongono la polvere possono provenire da molte fonti diverse. Prima di tutto, molte parti dei sedili degli aerei sono di alluminio. Eventuali polveri di questo metallo possono essere anche residui della lavorazione, cosi’ come gli altri metalli possono prevenire da inserti meccanici di lavorazione durante la produzione.

Concludendo, quello che mancava per la conferma dell’esistenza delle scie chimiche era un prelievo in quota. L’analisi tanto pubblicizzata dai soliti siti, non rappresenta assolutamente una misura di questo tipo. Ci sono molti punti scoperti nel prelievo del campione, nella modalita’ di prelievo e anche nell’analisi delle polveri.

Ad oggi, non vi sono prove dell’esistenza delle scie chimiche sia dal punto di vista scientifico sulla formazione della condensa che dal punto di vista dell’analisi in quota.

Per rimanere aggiornati non solo sulle profezie del 2012, ma per capire come utilizzare un metodo di analisi scientifica su molti concetti troppo spesso lasciati al complottismo, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.

 

Alcune considerazioni sulle scie chimiche

28 Ott

Anche se non direttamente legato alle profezie del 2012, vorrei dedicare qualche post al fenomeno delle “scie chimiche”. Molti utenti mi hanno chiesto di esprimere il mio punto di vista su questo tanto dibattuto e controverso aspetto degli ultimi anni. Parlare di scie chimiche significa inesorabilmente parlare non solo di scienza, ma anche delle tantissime teorie del complotto nate, soprattutto su internet, su questi argomenti. Di questi aspetti abbiamo parlato nel post:

Il complotto del complottista

In questo blog, abbiamo accennato alle scie chimiche guardando alla relazione tra questi eventi e i suoni dell’apocalisse o anche con la scoperta della nuvola “Undulatus Asperatus”:

I misteriosi suoni dell’apocalisse

Scoperta nuova nuvola?

Andando con ordine, cosa sono le scie chimiche e a cosa ci si riferisce? Tutti quanti, guardando il cielo, avrete visto, almeno una volta, la scia bianca lasciata da alcuni aerei.  Si tratta di scie di condensazione che, come vedremo nel seguito del post, sono prodotte in atmosfera dai motori dei velivoli. Secondo la teoria delle scie chimiche, alcune di queste sarebbero composte da agenti biologici, metalli pesanti, veleni in genere, disperse sulla Terra per opera di organizzazioni segrete, massoneria, governi senza scrupoli, al solo scopo di avvelenare la popolazione, causare particolari disturbi o anche modificare il clima. Il tutto avverrebbe alla luce del Sole, sfruttando la complicita’ di compagnie aeree, piloti e ENAV.

Presunte scie chimiche nei cieli italiani

Dal punto di vista biologico, le scie chimiche sarebbero la causa di un particolare morbo, noto come morbo di Margellon, di cui parleremo in dettaglio in un altro post. Per l’aspetto invece atmosferico e metereologico, le scie sarebbero usate per modificare il clima con la tecnica del “cloud seeding”, tecnica che, come vedremo in un post specifico, e’ gia’ non solo conosciuta e riconosciuta dalla scienza ufficiale, ma anche utilizzata in passato per impedire l’insorgenza di grandinate dannose ai raccolti.

Partendo dalle teorie complottiste metereologiche, non poteva certo mancare un collegamento con l’ormai famoso sistema HAARP. Secondo queste fonti, l’emissione di onde nell’atmosfera sarebbe in grado di aumentare la diffusione degli agenti sparsi dalle scie causandone la ricaduta in aree molto vaste. Di HAARP abbiamo gia’ parlato in un post specifico:

HAARP e terremoti indotti

mostrando la vera natura scientifica del progetto e parlando anche in dettaglio delle infondate teorie complottiste su questo sistema, in particolare per l’induzione di terremoti.

Torniamo dunque alle scie chimiche e cerchiamo di fare un po’ di chiarezza.

Nel mondo si inizia a parlare di questi fenomeni intorno alla meta’ degli anni 90, quando molte trasmissioni televisive e radiofoniche iniziano a diffondere ipotesi cospirazioniste sulle scie di condensa parlando di eventi “non chiari”. Con questo si intendono casi di scie con comportamenti diversi rispetto a quelle normalmente lasciate dagli aerei. Inoltre, secondo queste teorie, prima del 1995, non si avrebbero immagini di scie di condensa lasciate dagli aerei, ma di questo avremo modo di parlarne meglio in seguito.

Prima di lanciarci in ipotesi o conclusioni affrettate, cerchiamo di spiegare meglio cosa sono le scie di condensa, per poi scendere nel dettaglio delle scie chimiche.

Le scie di condensa si formano dopo il passaggio di un aereo e sono costituite da prodotti di condensazione e successiva solidificazione del vapore acqueo. Sono del tutto simili a strisce nuvolose che tendono poi ad allargarsi dopo il passaggio del velivolo. Come potete facilmente immaginare, affinche’ possa avvenire la solidificazione del vapore, sono necessarie particolari condizioni in atmosfera che dipendono non solo dalla temperatura, ma anche dalla pressione.

Ovviamente, i sostenitori delle scie chimiche hanno studiato in dettaglio il fenomeno e, secondo la loro interpretazione, le scie di condensa si possono formare ad una quota superiore agli 8000 metri, dove l’aria e’ molto fredda e rarefatta, con temperature inferiori ai -40 gradi centigradi. Il fatto dunque di osservare presunte scie di condensa anche a quote inferiori, e’ un chiaro segno che non si tratti di normale condensa, ma del rilascio in atmosfera di qualche sostanza chimica.

A riprova di questo, su molti siti si fa riferimento addirittura ad un pagina gestita dalla NASA ed in cui viene spiegato il meccanismo di formazione della condesa:

NASA science FAQ

Come potete leggere nel sito:

Contrails are human-induced clouds that usually form at very high altitudes (usually above 8 km – about 26,000 ft) where the air is extremely cold (less than -40ºC).

Dunque e’ evidente, secondo queste teorie, che scie formate ad altitudini diverse, non possono essere solo di condensa.

Ora, quello che si evidenzia e’ una scarsa conoscenza non solo dell’inglese, ma anche della fisica. La parola “usually” sta appunto ad indicare che “generalmente” le scie di condensa si formano in queste condizioni, ma non e’ il solo caso possibile. Tenete conto che si sta facendo riferimento ad una pagina, gestita dalla NASA, ma di divulgazione. In questo contesto non si scende assolutamente nel dettaglio.

Per poter chiarire questo concetto, cerchiamo di andare un po’ piu’ nel dettaglio nella formazione delle condensa. In primis, partendo dal sito della NASA, le scie di condensa si possono formare per raffreddamento dei gas di scarico degli aereomobili i quali espellono in atmosfera una notevole quantita’ di vapore acqueo e nuclei di condensazione. In questo caso, che e’ quello in grado di provocare le scie piu’ persistenti, la temperatura dell’aria deve essere compresa tra i -25 e i -40 gradi centigradi, o inferiore in base alle condizioni di pressione. Se consideriamo che il gradiente termico verticale, cioe’ la diminuzione di temperatura in funzione dell’altezza da terra, e’ di -6.5 gradi ogni 1000 metri, partendo da una temperatura al suolo di 20 gradi, intorno agli 8000 metri la temperatura e’ circa -30 gradi, dunque compatibile con le condizioni sopra esposte.

Oltre a questo caso, si possono formare anche scie di convezione. In questo caso, la condensa e’ formata dai moti convettivi che si generano in un’aria umida per opera del passaggio dell’aereo. In questo caso la temperatura deve essere compresa tra 0 e -20 gradi. Sempre utilizzando il gradiente verticale, troviamo questi valori ad un’altitudine tra 3000 e 6000 metri, dunque molto inferiori a quelli precedenti e dove, secondo la teoria complottista, non potrebbe formarsi condensa. Inoltre, in questo caso, considerando proprio i meccanismi termodinamici del fenomeno, la condensa non si forma immediatamente dopo il passaggio dell’aereo, ma occorre un certo tempo prima che il vapore si porti alla temperatura di condensazione. Questo significa che e’ possibile vedere un aereo ed una scia che inizia centinaia di metri alle sue spalle.

Ultimo metodo di formazione di condensa sono le cosiddette scie aerodinamiche. Durante il suo passaggio, l’aereo comprime localmente un volume d’aria e, se l’atmosfera e’ molto umida, il vapore acqueo puo’ condensare provocando una scia. In questo caso, oltre all’elevata umidita’, e’ richiesta una temperatura compresa tra 0 e +10 gradi. Questo significa che questo tipo di scie possono formarsi anche ad altitudini molto basse, inferiori anche a quelle convettive.

Da queste semplici considerazioni scientifiche, capite dunque l’infondatezza delle ipotesi mosse a sostegno delle scie chimiche.

Sempre secondo i sostenitori del complotto, la differenza tra scie di condensa e scie chimiche sarebbe facilmente visibile dal diverso comportamento in atmosfera dei rilasci. Come visto, la diversa formazione della condensa interviene in condizioni di altitudine, temperatura, pressione e umidita’ differenti. Queste determina anche un diverso comportamento dinamico del vapore che puo’ perdurare piu’ a lungo, espandersi, rimanere compatto o evaporare velocemente.

Scie di condensa di bombardieri B17 nel 1943

In diversi siti, si mostrano foto in cui due scie prodotte nello stesso istante hanno comportamenti radicalmente differenti tra loro. Anche questo e’ facilmente spiegabile dalla fisica. Prima di tutto, guardando da terra due scie a grande distanza, non siamo in grado di percepire esattamente la terza dimensione, cioe’ l’altezza relativa tra le due formazioni. Quelle che ci possono sembrare due scie sovrapposte, possono essere ad altezze molto diverse tra loro. Inoltre, come visto nei diversi metodi di formazione della condensa, la natura dinamica della scia dipende fortemente dai parametri atmosferici ma anche relativi all’aereo stesso, prima di tutto la velocita’ per le scie aerodinamiche.

Per concludere questa prima parte sulle scie chimiche, vorrei riprendere anche il discorso dell’origine di queste teorie. Come detto all’inizio, secondo queste fonti, non esisterebbero prove di scie di condensa prima degli anni ’90. Questo e’ del tutto falso, le prime scie di condensa vennero osservate gia’ a partire degli anni ’20. Al contrario di quanto affermato, anche se sprovvisti di cabine pressurizzate, i velivoli potevano salire a quote elevate dal momento che i piloti erano dotati di bombole di ossigeno e tutte scaldate elettricamente. Solo per darvi un’idea, nel 1937 il record di altitudine era di 17000 metri. Il detentore di questo record era l’italiano Mario Pezzi che, osservando per la prima volta la scia di condensa, penso’ ad un guasto del suo aereo.

Tirando le somme, dal punto di vista scientifico, non vi e’ nessuna evidenza di fenomeni inconsueti riguardanti le scie di condensa. Come abbiamo visto, parlare di una bassa altitudine come prova della diversita’ tra scie chimiche e scie di condensa non e’ assolutamente corretto.

Ad oggi, non vi sono prove inconfutabili del rilascio di elementi diversi dal vapore acque nelle scie. Molti siti complottisti fanno riferimento a presunte analisi condotte a terra dopo il passaggio di aerei. Come potete immaginare, molto spesso non vengono mostrati i risultati di queste analisi, ma anche se ci fossero, non vi sarebbe nessuna prova della correlazione tra rilascio in quota e deposito a Terra a causa dell’eventuale spostamento per opera di venti e gradienti termici. Sulla stessa linea, e al contrario di quanto anunciato dai soliti siti, non vi sono assolutamente analisi di campioni prelevati in quota in coda ad un aereo.

Nei prossimi post cercheremo di analizzare l’unico prelievo fatto in quota, anche se non in coda ad un aereo, e di parlare del cloud seeding e del morbo di Margellon.

L’approccio scientifico, l’analisi dei dati e il confronto tra fonti diverse, ci consente di fare un po’ di chiarezza su molti concetti non solo legati alle profezie del 2012. Per affrontare questi e molti altri argomenti, non perdete in libreria “Psicosi 2012. Le risposte della scienza”.