Tag Archives: funziona

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Sale qb … anche nelle batterie

6 Ott

Negli ultimi anni, i nostri dispositivi elettronici hanno avuto un notevole miglioramento puntando sempre di piu’ verso i concetti di portabilita’ e wireless. Come sapete, oggi come oggi, la maggior parte dei nostri gadget tecnologici sono dotati di batterie ricaricabili. Il progresso in questo settore ha reso disponibili batterie sempre piu’ piccole, capienti e con cicli di carica sempre piu’ rapidi.

Il principio di utiizzo di una batteria di questo tipo e’ ovviamente chiaro a tutti. Si carica di energia il nostro sistema, per poi utilizzarlo scollegato dalla rete elettrica. Questo e’ fondamentale per portare a spasso i nostri dispositivi dove non e’ disponibile la rete elettrica.

Perche’ faccio questo preambolo?

Molto spesso nei nostri articoli abbiamo parlato di energie rinnovabili. Come sapete bene, le fonti piu’ utilizzate in tal senso sono senza dubbio l’eolico e il solare. A parte tutti i discorsi sull’efficienza di queste risorse, uno dei problemi principali riscontrati e’ la non costanza della fonte primaria. Mi spiego meglio. I pannelli solari che normalmente utilizziamo hanno bisogno, per definizione, del sole per produrre energia. Detto questo, di notte non possono funzionare. Analogamente, per quanto si cerchi di trovare la miglior postazione, in assenza di vento le pale eoliche non girano.

Il problema della disponibilita’ delle risorse e’ uno di quelli maggiormente studiati e analizzati dai gestori elettrici. In diverse compagnie sono presenti gruppi di studio che cercano di simulare la produzione energetica anche solo con poche ore di anticipo. Questo e’ fondamentale in virtu’ della pianificazione. Se le fonti producono energia nel momento in cui la rete non la richiede, ci troviamo con un surplus inutilizzato. Analogamente, se la richiesta energetica e’ massima quando la produzione e’ minima, siamo costretti a ricorrere ad altre fonti per soddisfare le richieste.

Per ovviare a questi problemi, si ricorre a sistema di accumulazione basati proprio su batterie. Riprendendo l’esempio del solare, durante il giorno l’energia prodotta viene stoccata in batterie in grado di accumularla per poi cederla quando la richiesta aumenta.

Il problema principale delle batterie normalmente utilizzate, ed in questo caso la capacita’ di contenimento e’ il parametro piu’ importante, e’ che molto spesso questi sistemi sono basati su metalli e componenti che, una volta esaurito il ciclo vitale delle batterie, sono estremamente tossici e dannosi per l’ambiente. L’esempio principale in questo caso e’ quello delle batterie al piombo.

Bene, negli ultimi mesi una delle principali compagnie produttrici di batterie, l’italiana FIAMM, ha reso disponibili dei sistemi basati semplicemente sul cloruro di sodio, cioe’ proprio il semplice sale.

Batteria SoNick della FIAMM

Batteria SoNick della FIAMM

Ad essere sinceri, e al contrario di quello che leggete in rete, le batterie al cloruro di sodio sono una realta’ gia’ da qualche anno. Quello che e’ riuscita a migliorare notevolmente la FIAMM e’ la capacita’ di contenimento energetico e soprattutto la durata delle batterie.

Questa nuova serie di batterie si chiama SoNick ed e’ basata sul cloruro di sodio e sul cloruro di Nichel. Durante il funzionamento, il cloruro di nichel si deposita al catodo, mentre il sodio, dissociato dal NaCl, si deposita sull’anodo. In ciascuna cella, anodo e catodo sono separati da una barriera ceramica che consente il passaggio degli ioni di sodio per il funzionamento della batteria. La tensione a circuito aperto della singola cella e’ di 2.58V e questo valore, al contrario di molte batterie commerciali, rimane pressoche’ costante per gran parte del profilo di scarica. Questo sistema consente di conservare la carica per tempi piu’ lunghi oltre ad allungare notevolmente la vita stessa della batteria.

Questo tipo di batterie e’ stato sviluppato appositamente per essere connesso con i sistemi rinnovabili, appunto solare ed eolico. La fase di ricerca e sviluppo e’ durata diversi anni ed e’ stata fatta in collaborazione anche con il CNR. Detto questo, capite molto bene l’importanza di questo risultato e l’interesse di moltissimi produttori in questi nuovi sistemi.

La stessa FIAMM ha costruito nella sua sede un parco solare munito di batterie al sale. Inoltre, in collaborazione con Ansaldo, si e’ aggiudicata la gara per la costruzione di un impianto nella Guyana francese. Il progetto prevede la realizzazione di un parco in grado di formire elettricita’ a diverse famiglie della zona e potrebbe essere il primo di una serie pensata proprio per portare elettricita’ in luoghi difficilmente raggiungibili dalla rete tradizionale.

Punto di forza di queste batterie e’ ovviamente l’impatto ambientale minimo al termine del ciclo vitale. Ad oggi, le batterie al sale vengono gia’ utilizzate nella trazione elettrica di autobus, ad esempio dalla Iveco. Queste nuove batterie consentiranno anche in questo caso di migliorare la durata dei sistemi e di garantire percorsi sempre piu’ lunghi prima della ricarica.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La bufala degli occhiali a raggi X

8 Set

Come sapete bene, su questo blog siamo abituati ad analizzare dal punto di vista scientifico le varie bufale che nascono e si sviluppaono, soprattutto sulla rete. Molte di queste, proprio perche’ riescono a far piu’ leva sulle persone, riguardano direttamente qualche data per la fine del mondo o imminenti catastrofi che potrebbero accadere.

Questa volta pero’, vorrei parlare di un argomento affine, ma in linea di principio diverso. Non chiedetemi perche’, ma proprio oggi, mentre ero al lavoro, mi sono tornate in mente quelle pagine dei giornaletti degli anni ’80, che vendevano prodotti piu’ o meno assurdi per corrispondenza. In realta’, questa pagine hanno visto il loro boom negli anni ’60 e ’70. Ho detto anni ’80 solo perche’ questi sono gli anni che ho vissuto direttamente e di cui ho ricordo.

Solo qualche settimana fa, abbiamo parlato delle cosiddette “scimmie di mare”:

Il canto delle sirene

anche queste in vendita in quegli anni.

Tra tutti questi prodotti, ve ne era uno in particolare che suscitava sempre un largo interesse nei maschietti che lo vedevano: i mitici occhiali a raggi X. Per i pochi che non li conoscono o non li ricordano, gli occhiali a raggi X erano dei comuni occhiali che pero’ promettevano di poter vedere, un volta indossati, sotto i vestiti delle donne. Praticamente, la visione a raggi X consentiva di eliminare la copertura dei vestiti e di vedere, come indicato nelle figure che accompagnavano gli annunci, belle ragazze in lingerie.

occhiali-a-raggi-x

Secondo voi, e’ possibile una cosa del genere? Questa e’ la prima domanda. Se intanto pensate a questa risposta, la seconda domanda e’: quanti ne avranno venduti?

Come avete capito, dal momento che ne stiamo parlando qui, oltre che per un motivo vintage e di lontani ricordi, si trattava di una bufala colossale. Nonostante questo, soprattutto al tempo, difficilmente sareste riusciti a trovare qualcuno pronto ad ammettere l’acquisto e la fregatura presa.

In cosa consistevano questi occhiali?

Semplicemente, quella che arrivava a casa era una normale montatura in plastica, il colore potevate sceglierlo al momento dell’acquisto, con delle lenti in cartone. Al centro delle lenti vi era un foro in cui era appoggiato un foglietto semitrasparente di plastica rossa. Guarando attraverso il foro, quello che si vedeva era solo un’immagine rossastra, ma niente di piu’.

Dunque, come potete capire, si trattava di una bufala.

Nonostante questo, la ditta produttirice dell’oggetto, che in Italia era di Milano, non ha mai ricevuto una querela o una richiesta di risarcimento. Sapete perche’? Per lo stesso motivo detto prima, nessuno era pronto ad ammettere di aver comprato gli occhiali.

Per capire questo passaggio, dobbiamo immaginare gli anni del boom di questo genere di vendite. Come detto, il massimo del commercio avvenne negli anni ’70, fino agli anni ’80. In questi anni, la situazione era profondamente diversa da quella di oggi. La societa’ era praticamente sessuomane. Oggi, accendendo la TV, internet, leggendo giornali, ecc, vi trovate immagini di nudo ovunque. Lungi da me fare il bigotto su questo argomento, ma la concezione del sesso e del nudo era profondamente diversa da quella degli anni passati.

Immaginate ora, in anni cosi’ particolari, nel bene o nel male, ma non e’ questa la sede per discutere questi aspetti, la vendita di un prodotto che prometteva cose di questo tipo. Molti adolescenti, ma anche adulti, compravano di nascosto questi gadget, in vendita ad un prezzo accessibile a tutti, e se lo facevano recapitare a casa in pacchi anonimi. Data tutta questa segretezza, secondo voi poi potevano uscire allo scoperto e denunciare la ditta ammettendo l’acquisto? Assolutamente no. In fondo, negli anni ’80, avevano buttato poco piu’ di 5000 lire.

Alla luce delle nostre attuali conoscenze, capiamo subito che si trattava di una bufala. Come sappiamo bene, sarebbe impensabile andare in giro con una sorgente di raggi X da portarci dietro. A riprova di quanto detto sulla sessuomania, alcune ditte parlavano anche di poter vedere le ossa della mano, ma tutte spingevano sul nudo. Altra considerazione, se gli occhiali funzionavano per vedere sotto i vestiti, perche’ tutti parlavano di belle ragazze? Se funzionavano davvero, allora si sarebbe potuto vedere sotto i vestiti di donne, uomini, anziani, ecc. Sui giornali pero’, come tutti ricorderanno, c’era sempre una procace signorina visibile con i vestiti in trasparenza. Capite bene, che il contesto sociale dell’epoca ha giocato un ruolo fondamentale in questo genere di commercio.

Gia’ che ci siamo, apriamo una piccola parentesi anche sugli altri prodotti in vendita in quelle famose pagine dei giornali. Oltre agli occhiali a raggi X, che come potete vedere facendo una ricerca andavano per la maggiore, si trovavano penne in grado di registrare la voce, microfotocamere, walkie talkie. Tutto ad un prezzo ragioanevole e con caratteristiche tecniche sopra ogni possibile immaginazione.

pag17 occhiali pubblicità

Perche’ questo genere di prodotti? In quegli anni andavano per la maggiore i film di spionaggio. 007 era un mito e molte persone si immedesimavano nelle avventure del famoso agente segreto. Detto questo, capite molto bene perche’ questi prodotti erano cosi’ richiesti.

Un mio caro amico, compro’ effettivamente una di quelle penne che nascondevano un registratore. Risultato? Per registrare la voce era praticamente necessario infilarsi la penna in bocca, questo perche’ la qualita’ dei microfoni era quella del tempo. Inoltre, la memoria disponibile non consentiva di registrare piu’ di una decina di secondi. Insomma, anche in questo caso una bella fregatura, per fortuna a prezzi “popolari”.

Analogamente, con il mito di Hulk e di Conan il barbaro, le riviste vendevano una portentosa crema. Bastava spalmarsela sul corpo per far uscire dei muscoli enormi. L’effetto era non garantito, ma almeno non era dannosa!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Dafne e KLOE: alte energie in Italia

31 Ago

In questi mesi, diversi lettori mi hanno chiesto di cosa mi occupassi precisamente. Come abbiamo imparato a conoscere attraverso alcuni articoli specifici, la fisica delle alte energie e’ molto vasta, con diversi esperimenti sparsi per il mondo. Nel mio caso specifico, ho partecipato e partecipo tutt’ora a diversi progetti in Italia, in Svizzera e negli Stati Uniti. Per darvi un’idea piu’ precisa, vorrei in questo articolo parlarvi di uno di questi progetti, KLOE, al quale sono per motivi affettivi piu’ legato, e che si trova ai Laboratori Nazionali di Frascati dell’Istituto Nazionale di Fisica Nucleare. Perche’ sono affezionato a questo esperimento? Semplice, oltre a trovarsi nel paese in cui sono nato, cresciuto ed in cui tutt’ora vivo, proprio su questo esperimento ho iniziato la mia carriera di fisico nel 2003, prima con la tesi di laurea, poi con il dottorato di ricerca e su cui, ancora oggi, lavoro.

Prima di tutto, e’ necessario che vi dia qualche informazione aggiuntiva. Purtroppo, mentre tutti hanno sentito parlare di CERN e LHC, pochi sanno che anche in Italia si fanno studi importanti e molto sofisticati di fisica delle alte energie. I laboratori Nazionali di Frascati sono il piu’ grande laboratorio di Fisica delle alte energie dell’INFN. Sono stati fondati nel 1955 e proprio qui e’ nata la fisica degli acceleratori. Da un’intuizione di Bruno Touschek proprio a Frascati e’ stata realizzata AdA nel 1960. Cosa sarebbe Ada? Come sapete, nei moderni acceleratori quello che si fa e’ far girare fasci di particelle ad altissima energia per farli poi scontrare in un punto preciso. Da questo scontro, grazie alla relazione di Einstein E=mc^2, possiamo creare particelle diverse da studiare per comprendere importanti meccanismi della natura. Facendo aumentare l’energia, possiamo di volta in volta scoprire particelle nuove. Fino al 1960, quest’idea nemmeno esisteva. Grazie all’esperimento AdA, che sta per Anello di Accumulazione, venne dimostrato come fosse possibile impacchettare fasci di particelle, farle muovere su orbite circolari e poi farle scontrare in un punto deciso a priori. Grazie proprio ad AdA vennero compresi importanti effetti di fisica dei fasci, importanti ancora oggi, tra questi, ad esempio, il cosiddetto Effetto Touchek dovuto all’interazione delle particelle nello stesso pacchetto.

Dal punto di vista delle particelle, AdA non scopri’ nessuna particella nuova. Questo e’ naturale se vedete la foto:

AdA: anello di accumulazione

AdA: anello di accumulazione

L’esperimento aveva un diametro di poco superiore al metro ed un’energia bassissima. Nonostante questo, AdA apri’ la strada ai futuri acceleratori. Subito dopo AdA, sempre a Frascati, si inizio’ a studiare qualcosa di piu’ grande, un vero e proprio collissore si particelle che oltre a far circolare i fasci, potesse accelerarli e curvarli. Nel 1967 venne dunque innaugurato Adone, che sta appunto per Big-AdA. Eccovi una foto di Adone:

Adone ai Laboratori Nazionali di Frascati

Adone ai Laboratori Nazionali di Frascati

Si tratta di un anello vero e proprio, molto piu’ simile a quelli attuali, con un diametro inferiore ai 100 metri e che poteva raggiungere la folle energia per l’epoca di 3GeV, ottenuta facendo scontrare fasci di elettroni e positroni. Per fare un confronto, oggi LHC e’ stato progettato per avere un’energia di 14TeV, cioe’ 14000GeV. Adone e’ stato il primo acceleratore moderno della storia. Capite dunque che la fisica dei collissori e’ nata a Frascati, laboratorio con una grandissima tradizione in questo settore e che, ancora oggi, ricopre un ruolo importante nei laboratori di tutto il mondo.

Ora cosa si studia a Frascati? Oggi in questi laboratori ci sono tantissimi gruppi che si occupano di fisica nucleare, fisica delle alte energie, astrofisica, astroparticelle, fisica della materia, fisica medica. Tra questi settori, un ruolo fondamentale e’ ricorperto ancora oggi dala fisica degli acceleratori e dal progetto KLOE a Dafne.

Dafne, il collisore attualmente in funzione ai Laboratori di Frascati

Dafne, il collisore attualmente in funzione ai Laboratori di Frascati

Dafne e’ l’attuale collissore dei laboratori che ha preso i primi dati utili nel 2000. Si tratta di sistema costituito da due anelli, uno per elettroni ed uno per positroni, che vengono fatti scontrare ad un’energia di poco superiore ad 1GeV. Perche’ un’energia cosi’ bassa? Al contrario di LHC, che e’ un esperimento di scoperta, in cui dunque si deve raggiungere la massima energia possibile per creare nuove particelle, Dafne e’ una macchina di precisione. Questa categoria di anelli, lavorano ad un’energia ben precisa, calibrata per massimizzare la produzione di determinate particelle. Nel caso di Dafne, la macchina e’ una fabbrica di mesoni Phi, Phi-factory.

Di modello standard, materia strana, antimateria, ecc, abbiamo parlato in questi post:

Piccolo approfondimento sulla materia strana

Due parole sull’antimateria

Antimateria sulla notra testa!

Bosone di Higgs … ma che sarebbe?

La materia oscura

Cosa sarebbe invece la Phi? Detto molto semplicemente, si tratta di una risonanza, cioe’ uno stato legato tra due quark (uno strange ed un anti-strange), che vive un tempo brevissimo dopo di che decade in qualche altra cosa. Tra i possibili canali di decadimento, tra i piu’ probabili ci sono quelli in coppie di Kaoni. Attenzione, il discorso sembra complicato, ma non lo e’. In fisica, ogni particella ha il suo nome. I kaoni sono soltanto una famiglia di particelle in cui rientrano diversi elementi: K carichi, K neutri, K lunghi, K corti, ecc.

Bene, a Dafne si vogliono studiare questi Kaoni e per produrli e’ necessario avere una macchina in grado di creare tantissime Phi. Perche’?

In questo articolo:

E parliamo di questo Big Bang

abbiamo parlato del meccanismo del Big Bang, vedendo come in seguito a questa esplosione, si e’ verificato uno sbilancio tra materia ed antimateria, che ha portato alla scomparsa della seconda e alla formazione di un universo di materia. Se ben ricordate, abbiamo anche detto come, dal punto di vista teorico, questo meccanismo e’ teoricamente possibile supponendo che siano avvenute determinate condizioni, dette di Sacharov. Tra queste, vi e’ una violazione di CP, cioe’ proprio uno squilibrio tra materia ed antimateria che porta nei decadimenti a preferire stati finali piu’ ricchi di materia.

Cosa c’entrano i kaoni con la violazione di CP?

Nel 1974, decadimenti con violazione di CP venero osservati per la prima volta per un membro della famiglia dei Kaoni, il K long. Ad oggi, oltre che nei Kaoni, la violazione di CP e’ stata osservata anche nei mesoni B. Detto questo, capite bene l’importanza di questi studi. Comprendere a fondo la violazione di CP e le sue conseguenze, ci permette di capire meglio l’origine stessa dell’universo.

L’esperimento operante a Dafne e che studia proprio i decadimenti delle particelle e’ KLOE, un complesso sistema di rivelatori pensato per registrare ed osservare tutte le particelle che entrano nei vari decadimenti.

L'esperimento KLOE installato all'interno di Dafne

L’esperimento KLOE installato all’interno di Dafne

Attraverso i dati raccolti e’ possibile ricostruire l’intero evento e capire che tipologia di decadimento e’ avvenuto. Per fare questo sono necessari diversi rivelatori, ognuno specializzato per determinate particelle, pensati e realizzati in modo del tutto unico direttamente ai laboratori di Frascati.

Perche’ ancora oggi a distanza di anni KLOE e Dafne sono in funzione?

Vista la rarita’ dei decadimenti che si vogliono studiare, e’ necessario raccogliere un campione molto vasto di dati. Detto in altri termini, poiche’ la probabilita’ di avere il decadimento che cercate e’ molto bassa, dovete raccogliere un campione molto grande di Phi per poter avere la statistica necessaria a fare questi studi.

KLOE ha preso dati fino al 2006 raccogliendo un campione cospicuo di Phi. Oltre alla violazione di CP,  KLOE ha posto importanti limiti in tantissimi decadimenti, studiato la gravita’ quantistica, osservato per la prima volta decadimenti mai visti prima, ecc. Tutti risultati di prim’ordine che hanno dato lustro alla fisica delle alte energie in Italia.

Nel 2008 e’ stato poi pensato, sempre a Frascati, un nuovo meccanismo di collissione dei fasci che permetterebbe a KLOE di raggiungere “luminosita’” piu’ elevate, cioe’, modificando solo la zona di interazione dei fasci, si potrebbero accumulare molti piu’ dati a partita’ di tempo. Questa modifica e’ importantissima per un esperimento di precisione come KLOE che dunque potrebbe andare a studiare nuovi settori e migliorare notevolmente i canali gia’ studiati. Proprio per questo motivo, si e’ deciso di iniziare un nuovo periodo di presa dati per KLOE.

Cosa e’ successo tra il 2009 e il 2013?

In questo periodo di tempo, KLOE, costruito come detto un decennio prima, ha pensato di realizzare nuovi rivelatori da installare vicino alla zona di interazione, proprio per migliorare la sua sensibilita’ sfruttando idee nuove e le ultime migliorie pensate in questi anni. Questi nuovi dispositivi sono rivelatori molto complessi e compatti che hanno richiesto diversi anni prima di essere ottimizzati e realizzati. Prima di questa estate, i nuovi rivelatori sono stati installati con successo ed in questi giorni si sta lavorando per ottimizzare il tutto e prepararci alla nuova presa dati dell’esperimento KLOE, ora chiamato KLOE-2. L’accensione di tutto il sistema e’ prevista per il 9 settembre, giorno di inizio di una lunga presa dati che portera’ sicuramente a nuovi ed importanti studi.

Come potete capire, la fisica delle alte energie non e’ riservata al CERN. I fisici italiani, oltre ad avere ruoli importanti nei grandi laboratori del mondo, sono anche attivi nel nostro paese con esperimenti di precisione, importantissimi per capire come funziona il nostro universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Orologi atomici e precisione del tempo

25 Ago

Qualche giorno fa, le pagine scientifiche di molti giornali hanno ospitato una notizia che e’ passata un po’ in sordina ma che, a mio avviso, merita di essere commentata se non altro per le interessanti discussioni a corollario. La notizia in questione, che molto sicuramente avrete letto, parlava di una nuova serie di orologi atomici costruiti dai ricercatori del NIST, National Institute of Standards and Technology, e che sono in grado di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo.

Leggendo questa notizia, credo che le domande classiche che possono venire in mente siano: come funziona un orologio atomico? Come si definisce il secondo? Ma soprattutto, a cosa serve avere un orologio tanto preciso?

In realta’, rispondere a queste domande, non e’ cosa facile ma cercheremo di farlo sempre in modo divulgativo spiegando passo passo tutti i concetti richiamati.

Prima di tutto, cos’e’ il tempo? Come potete immaginare, in questo caso la risposta non e’ semplice, ma richiama tantissime discipline, non solo scientifiche, che da secoli si sono interrogate sulla migliore definizione di tempo. Tutti noi sappiamo che il tempo passa. Come ce ne accorgiamo? Proprio osservando il trascorrere del tempo, cioe’ degli avvenimenti che osserviamo intorno a noi. In tal senso, scientificamente, possiamo definire il tempo come quella dimensione nella quale si misura il trascorrere degli eventi. Questa definizione ci permette dunque di parlare di passato, presente e futuro, dividendo gli eventi in senso temporale. Ovviamente, non e’ l’unica definizione che potete dare di tempo e forse neanche la piu’ affascinante ma, sicuramente, e’ la piu’ pratica per l’utilizzo che se ne vuole fare nelle scienze.

salvador_dali

Detto questo, se parliamo di tempo come una dimensione, dobbiamo saper quantificare in qualche modo il suo scorrere. Detto in altri termini, abbiamo bisogno di un’unita’ di misura. Nel “Sistema Internazionale di unita’ di misura”, che e’ quello accettato in molti paesi e considerato la standard a cui riferirsi, l’unita’ di misura del tempo e’ il secondo.

Come viene definito un secondo?

Storicamente, la definizione di secondo e’ cambiata molte volte. Nella prima versione, il secondo era definito come 1/86400 del giorno solare medio. Questa definizione non e’ pero’ corretta a causa del lento e continuo, per noi impercettibile, allungamento delle giornate dovuto all’attrazione Terra-Luna e alle forze mareali, di cui abbiamo parlato in questo post:

Le forze di marea

Utilizzando pero’ questa definizione, non avremmo avuto a disposizione qualcosa di immutabile nel tempo. Per ovviare a questo problema, si decise dunque di riferire il secondo non piu’ in base alla rotazione della terra su se stessa, ma a quella intorno al Sole. Anche questo movimento pero’ e’ non uniforme, per cui fu necessario riferire il tutto ad un preciso anno. Per questo motivo, il secondo venne definito nel 1954 come: la frazione di 1/31 556 925,9747 dell’anno tropico per lo 0 gennaio 1900 alle ore 12 tempo effemeride. La durata della rotazione intorno al Sole era conosciuta da osservazioni molto precise. Qualche anno dopo, precisamente nel 1960, ci si rese conto che questa definizione presentava dei problemi. Se pensiamo il secondo come una frazione del giorno solare medio, chi ci assicura che il 1900 possa essere l’anno in cui il giorno aveva la durata media? Detto in altri termini, le definizioni date nei due casi possono differire tra loro di una quantita’ non facilmente quantificabile. Dovendo definire uno standard per la misura del tempo, conosciuto e replicabile da chiunque, abbiamo bisogno di un qualcosa che sia immutabile nel tempo e conosciuto con grande precisione.

Proprio queste considerazioni, portarono poi a prendere in esame le prorieta’ degli atomi. In particolare,  si penso’ di definire il secondo partendo dai tempi necessari alle transizioni atomiche che ovviamente, a parita’ di evento, sono sempre identiche tra loro. Proprio per questo motivo, il secondo venne definito come: la durata di 9 192 631 770 periodi della radiazione corrispondente alla transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello stato fondamentale dell’atomo di cesio-133. In questo modo si e’ ottenuta una definizione con tutte le proprieta’ che abbiamo visto.

A questo punto, la domanda e’: come misurare il tempo? Ovviamente, di sistemi di misurazione del tempo ne conosciamo moltissimi, sviluppati e modificati nel corso dei secoli e ognuno caratterizzato da una precisione piu’ o meno elevata. Cosa significa? Affinche’ un orologio sia preciso, e’ necessario che “non perda un colpo”, cioe’ che la durata del secondo misurata sia quanto piu’ vicina, al limite identica, a quella della definizione data. In caso contrario, ci ritroveremo un orologio che dopo un certo intervallo, giorni, mesi, anni, migliaia di anni, si trova avanti o indietro di un secondo rispetto allo standard. Ovviamente, piu’ e’ lungo il periodo in cui questo avviene, maggiore e’ la precisione dell’orologio.

Come tutti sanno, gli orologi piu’ precisi sono quelli atomici. Cosi’ come nella definizione di secondo, per la misura del tempo si utilizzano fenomeni microscopici ottenuti mediante “fontane di atomi”, eccitazioni laser, o semplici transizione tra livelli energetici. Al contrario, negli orologi al quarzo si utilizza la vibrazione, indotta elettricamente, degli atomi di quarzo per misurare il tempo. La bibliografia su questo argomento e’ molto vasta. Potete trovare orologi atomici costruiti nel corso degli anni sfruttando proprieta’ diverse e con precisioni sempre piu’ spinte. Negli ultimi anni. si e’ passati alla realizzazione di orologi atomici integrando anche fasci laser e raffreddando gli atomi a temperature sempre piu’ vicine allo zero assoluto.

Nel caso della notizia da cui siamo partiti, l’orologio atomico costruito sfrutta la transizione di atomi di itterbio raffreddati fino a 10 milionesimi di grado sopra lo zero assoluto indotta mediante fasci laser ad altissima concentrazione. Questo ha permesso di migliorare di ben 10 volte la precisione dell’orologio rispetto a quelli precedentemente costruiti.

A questo punto, non resta che rispondere all’ultima domanda che ci eravamo posti all’inizio: a cosa serve avere orologi cosi’ precisi? Molto spesso, leggndo in rete, sembrerebbe quasi che la costruzione dell’orologio piu’ preciso sia una sorta di gara tra laboratori di ricerca che si contendono, a suon di apparecchi che costano milioni, la palma della miglior precisione. In realta’ questo non e’ vero. Avere una misura sempre piu’ precisa di tempo, consente di ottenere risultati sempre piu’ affidabili in ambito diverso.

Per prima cosa, una misura precisa di tempo consente di poter sperimentare importanti caratteristiche della relativita’. Pensate, ad esempio, alla misura della distanza tra Terra e Luna. In questo caso, come visto in questo articolo:

Ecco perche’ Curiosity non trova gli alieni!

si spara un laser da Terra e si misura il tempo che questo impiega a tornare indietro. Maggiore e’ la precisione sulla misura del tempo impiegato, piu’ accurata sara’ la nostra distanza ottenuta. Molto spesso infatti, si suole misurare le distanze utilizzando tempi. Pensiamo, ad esempio, all’anno luce. Come viene definito? Come la distanza percorsa dalla luce in un anno. Tempi e distanze sono sempre correlati tra loro, condizione per cui una piu’ accurata misura di tempi  consente di ridurre l’incertezza in misure di distanza.

Anche quando abbiamo parlato del sistema GPS:

Il sistema di posizionamento Galileo

Abbiamo visto come il posizionamento viene fatto misurando le differenze temporali tra i satelliti della galassia GPS. Anche in questo caso, la sincronizzazione e’ fondamentale per avere precisioni maggiori nel posizionamento. Non pensate solo al navigatore che ormai quasi tutti abbiamo in macchina. Questi sistemi hanno notevole importanza in ambito civile, marittimo, militare. Tutti settori di fondamentale importanza per la nostra societa’.

Concludendo, abbiamo visto come viene definito oggi il secondo e quante modifiche sono state fatte nel corso degli anni cercando di avere una definizione che fosse immutabile nel tempo e riproducibile per tutti. Oggi, abbiamo a disposizione molti sistemi per la misura del tempo ma i piu’ precisi sono senza dubbio gli orologi atomici. Come visto, ottenere precisioni sempre piu’ spinte nella misura del tempo e’ di fondamentale importanza per tantissimi settori, molti dei quali anche strategici nella nostra soscieta’. Ad oggi, il miglior orologio atomico realizzato permette di mantenere la precisione per un tempo paragonabile all’eta’ dell’universo, cioe’ circa 14 miliardi di anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perforazione geotermica e terremoto in Svizzera

22 Lug

Come sapete bene, il tema del fracking e’ sempre di grande attualita’, non solo per il possibile sfruttamento dello shale gas, importantissimo per il nostro fabbisogno energetico, ma anche per la dimostrata relazione tra il ricorso a queste tecniche e l’insorgenza di lievi scosse di terremoto.

Di fracking abbiamo parlato in questi articoli:

Una prova del fracking in Emilia?

Fratturazione idraulica

mentre il discorso sul gas di scisto e’ stato affrontato in questo articolo:

Scisti e gas naturale

Anche nel post di ieri:

Ancora sulla terra che ribolle

parlando del fenomeno della terra che ribolle in Emilia, eravamo tornati a parlare di questa tecnica, commentando i risultati delle presunte analisi indipendenti condotte su campioni di fango prelevati nella zona. Molto interessante, per chi non l’avesse seguita, e’ la discussione che si e’ scatenata nei commenti, con punti di vista differenti sui terremoti in generale.

La connessione tra fracking e terremoti e’ presto compresa. Come sappiamo, in questa tecnica fluidi ad alta pressione vengono inniettati nel sottosuolo appunto per rompere le rocce ed estrarre il gas. Le sollecitazioni portate da queste rotture possono, in alcuni casi, innescare leggere scosse di terremoto indotte. Come e’ facile capire, parliamo di scosse che non superano mai il quarto grado della scala Richter e che hanno l’epicentro localizzato molto vicino alla superficie.

Perche’ torniamo su questi argomenti?

Proprio oggi sono apparsi su diversi quotidiani gli articoli che parlano di una nuova evidenza di connessione tra questi fenomeni. Come sicuramente avrete letto, sabato, nelle prime ore del mattino, in Svizzera, precisamente nella zona di San Gallo, e’ stata avvertita una scossa di M3.6.

Da cosa e’ stata generata?

Sia il servizio sismico Svizzero che il Servizio sismologico del Politecnico federale di Zurigo concordano che la scossa potrebbe essere legata, con notevole probabilita’, alle perforazioni in corso per la realizzazione di una nuova centrale geotermica nel Cantone.

La centrale geotermica, prevede l’estrazione di acqua a 140 gradi ad una profondita’ di 4500 metri dalla superificie. Questo calore dovrebbe essere usato per produrre una quantita’ di energia sufficiente ad alimentare la meta’ delle case di San Gallo. Ovviamente, per realizzare l’opera, sono necessarie trivellazioni fino alla profondita’ citata.

Nei giorni scorsi, gli abitanti della zona avevano gia’ avvertito leggerissime scosse di terremoto dovute a queste perforazioni, ma niente superiore a M2.

Cosa e’ successo in seguito?

Ovviamente, parlando di centrale geotermica, non stiamo parlando di fratturazione idraulica. La connessione viene pero’ in seguito ad un inconveniente che si e’ avuto nella zona dei lavori. Durante le perforazioni, i tecnici si sono accorti della fuoriuscita di gas ad alta pressione nel pozzo di trivellazione. Capite bene che questa fuoriuscita poteva rappresentare un pericolo reale, non solo per gli operai coinvolti nel lavoro. Per arginare la fuga, la decisione e’ stata quella di pompare 650 metri cubi di fango per interrompere la fuoriscita di gas.

L’immissione di fango nel sottosuolo, molto simile alla tecnica utilizzata per la fratturazione idraulica ha scatenato, dopo poche ore, un terremoto di M3.6 con un epicentro a soli 4 kilometri di profondita’, esattamente dove era stata localizzata la fuga.

Fortunatamente, non ci sono stati danni a seguito del sisma ma un terremoto di questa intensita’, con un epicentro cosi’ superficiale, potrebbe, in alcuni casi, provocare danni alle abitazioni.

A seguito di questo accaduto, si e’ deciso di interrompere i lavori per la realizzazione della centrale, rimandando dopo qualche giorno la decisione se continuare o meno l’opera.

Questa non e’ la prima volta che in Svizzera si registra un caso del genere. Nel 2006, sempre durante i lavori per la realizzazione di una centrale geotermica, venne registrato uno sciame sismico, con un picco M3, nella zona di Basilea. A seguito di questo sciame, ‘lopera venne definitivamente abbandonata.

Ora, come evidenziato negli altri articoli, non mi sento assolutamente di demonizzare l’utilizzo della fratturazione idraulica o l’estrazione del gas di scisto. A mio avviso, questa tecnica necessiterebbe pero’ di ulteriori studi atti a capire meglio le procedure e soprattutto gli effetti di queste immissioni nel terreno. Come detto in precedenza, il risvolto economico ha spinto troppo velocemente all’utilizzo del fracking. Parlando di shale gas, parliamo di riorse enormi che aspettano solo di essere sfruttate. Questo ovviamente ha fatto chiudere gli occhi per estrarre il gas, tralasciando importanti e necessari studi che dovrebbero essere condotti a livello di ricerca.

Questa nuova notizia, non fa altro che confermare la relazione tra fracking, o comunque immissione di fluidi nel terreno, e terremoti di lieve intensita’. Mio personale punto di vista e’ che se le societa’ private, ma anche i governi, sono cosi’ interessati allo sfruttamento di queste risorse, allora dovrebbero prima di tutto investire capitali in ricerca, in modo da rendere queste tecniche le piu’ sicure e controllate possibile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il metodo Stamina

14 Lug

In questi giorni, molto si e’ tornato a parlare del cosiddetto “metodo Stamina”, sempre accompagnando la discussione con una sana dose di critiche e, purtroppo, come spesso accade, con la formazione di due partiti popolari: i favorevoli ed i contrari. Detto questo, su suggerimento di una nostra cara lettrice, vorrei parlarvi di questo metodo cercando pero’ di analizzare i punti fermi, cioe’ vorrei capire insieme a voi quali sono le basi su cui si fonda questo metodo, i risultati ottenuti e perche’ questo metodo viene tanto criticato.

Cominiciamo dalle basi. Cosa sarebbe il metodo Stamina? Come suggerisce il nome stesso, questa “terapia medica” si basa sull’utilizzo di cellule staminali per curare pazienti affetti da malattie neurodegenerative come, ad esempio, la Atrofia Muscolare Spinale, anche detta SMA1. Molte di queste malattie neurodegenerative affliggono bambini per cui capite bene la delicatezza e l’emotivita’ legata a queste terapie mediche.

Nel metodo stamina vengono estratte cellule staminali dal midollo osseo del paziente. Queste cellule sono anche dette mesenchimali. Una volta estratte, queste staminali vengono manipolate in vitro insieme ad acido retinoico ed etanolo e nel giro di 2 ore, le cellule vengono convertite in neuroni. A questo punto, i neuroni vengono utilizzati per curare il paziente e per arginare la degenerazione portata dalla malattia.

Bene, questo e’ in soldoni il metodo stamina. Prima di dire se funziona o non funziona, vorrei fare una considerazione: una qualsiasi terapia medica, deve necessariamente essere supportata da prove scientifiche. Spesso queste vengono raccolte e i risultati pubblicati in riviste specializzate in modo da poter essere fruibili e studiabili da tutti. Quali sono gli articoli a supporto del metodo stamina? Forse la cosa vi sorprendera’, ma non esiste nessun articolo che parla di questo metodo. Per essere precisi, l’unica prova a sostegno del metodo e’ la richiesta di brevetto fatta negli Stati Uniti. Che differenza c’e’, se c’e’ un brevetto, va bene anche questo. Vero, ma il brevetto e’ stato rifiutato. Sapete il perche’? Come evidenziato da un’inchiesta condotta dalla rivista Nature, la richiesta di brevetto conteneva delle foto di presunti neuroni ottenuti con questo metodo assolutamente false. Per dirla tutta, le foto allegate alla richiesta erano prese da una ricerca condotta in Ucraina per sperimentare un altro metodo, dunque assolutamente non relative al metodo stamina.

Come e’ possibile questo?

Prima abbiamo accennato alle cellule staminali prese dal midollo osseo del paziente. Anche se si parla sempre di staminali, queste cellule non sono tutte uguali tra loro. Nella cultura popolare, una cellula staminale e’ un’entita’ non specializzata che puo’ essere trasformata in una qualsiasi cellula del nostro corpo. Questo in realta’ e’ falso. Le cellule staminali vengono divise tra loro in base alla cosiddetta “potenza”. Questa caratteristica indica la potenzialita’ di una cellula staminale a trasformarsi o specializzarsi in altro. Le staminali mesenchimali possono, come dimostrato e riportato nella bibliografia medica, trasformarsi in cellule ossee, cartillaginose o adipose. E’ assolutamente non dimostrato e mai provato prima che queste cellule possano convertirsi in neuroni.

Come e’ possibile tutto questo? Purtroppo, come anticipato, quando si parla di questi metodi non dimostrati, molto facilmente si tende a dividersi tra pro e contro, senza pero’ informarsi di tutto quello che c’e’ intorno.

Come detto prima, ruolo importante in questi casi e’ giocato dall’emotivita’ dei soggetti coinvolti. Facciamo un esempio, in condizioni normali, se doveste pensare, speriamo mai di no, ad una situazione di malattia grave, a chi vi rivolgereste? Sicuramente, ragionando in maniera fredda e non coinvolta, pensereste di rivolgervi ai migliori esperti del campo. Come si determina l’esperto? In base alla fama, all’attivita’ svolta, ai ruoli ricoperti, agli articoli pubblicati, ecc. Vi rivolgereste mai ad un non medico? Penso proprio di no. Bene, senza voler apparire classista, ma solo per dovere di cronaca, Davide Vannoni, colui che per primo ha proposto questo metodo, e’ laureato in Lettere e Filosofia, non ha assolutamente nessuna laurea in medicina.

Vi fidereste di un non medico? Penso proprio di no, pero’ c’e’ sempre da considerare l’aspetto emotivo di queste situazioni. Vedere un proprio caro morire lentamente, giorno per giorno, e’ qualcosa di tremendo. In queste condizioni, qualsiasi speranza, anche la piu’ vana, anche la piu’ assurda, possono servire per riaccendere la speranza. Questa emotivita’ ci porta pero’ a fare qualche volta dei passi non ragionati.

Perche’ la scienza non accetta il metodo stamina? Sicuramente, la non accettazione non dipende assolutamente da chi propone un metodo. Se questo funziona, funziona e basta. Per poter affermare la correttezza e la validita’ di un metodo terapeutico e’ pero’ necesssario portare delle prove. Come detto, parliamo di cellule che, almeno alle conoscenze attuali, non possono convertire in neuroni.

Quali sono i risultati ottenuti?

Ad oggi, non ci sono evidenze della validita’ di questo metodo. Pazienti trattati con il metodo stamina non hanno avuto vantaggi e la mortalita’ e’ del tutto analoga a quella dei pazienti non trattati. Nel 2011 il metodo stamina e’ stato accettato come “cura compassionevole” all’ospedale di Brescia. Cosa significa? Non vi sono evidenze del suo funzionamento, ma se puo’ fungere da paliativo, allora somministriamo al paziente morente quello che preferisce. In particolare, in letteratura si riporta il caso di 5 bambini trattati con il metodo, di cui 3 sono morti. La spiegazione data da Vannoni in questo caso e’ che le cellule non sono state preparate in modo adeguato. La cosa che pero’ molti sostenitori dimenticano di dire e’ che le cellule vennero preparate su specifica indicazione e sotto la supervisione proprio di Vannoni.

Nei mesi scorsi, lo Stato Italiano ha dato il via ad una nuova sperimentazione del metodo stamina, prevedendo un contributo di ben 3 milioni di euro. La sperimentazione sarebbe dovuta partire il 1 luglio di quest’anno ma, ad oggi, ancora non si e’ potuti partire. Sapete il perche’? Su internet trovate scritto che questo ritardo e’ dovuto alla pressione dei medici per impedire che questo metodo porti risultati. Tutto falso. La sperimentazione non e’ ancora partita perche’ il ministero ha chiesto a Vannoni di consegnare il protocollo di sperimentazione con tutte le procedure che verranno seguite. Ad oggi, questo protocollo non e’ stato ancora consegnato. La spiegazione di Vannoni e’ che il protocollo non puo’ essere scritto perche’ il trattamento non puo’ essere standardizzato e le procedure devono essere valutate caso per caso.

Dal punto di vista medico questo e’ assurdo. Vannoni, in una recente intervista, parla della soggettivita’ della malattia e delle cellule, cosa del tutto inesatta. Per quanto riguarda la soggettivita’ del caso possiamo essere d’accordo, ma le cellule staminali sono le stesse per chiunque. Se esiste un metodo per convertire una cellula staminale in altro, questo e’ identico per tutti. Forse, con una laurea in medicina o con una maggiore informazione si eviterebbe di dire certe sciocchezze.

La stessa rivista Nature, nell’editoriale di cui abbiamo parlato, ha esplicitamente chiesto allo Stato Italiano di non far partire la sperimentazione. Secondo l’importante rivista, questa sperimentazione alimenterebbe false speranzde su un metodo non scientifico e a cui mancano le necessarie basi. Alla luce di quanto visto, non possiamo che condividere questa posizione.

UItima riflessione, perche’ tante persone affermano che il metodo funziona? Queste persone sono molto spesso familiari di malati che, come detto, vedono in questo metodo l’ultima speranza a cui attaccarsi. E’ possibile biasimare queste posizioni? Assolutamente no. Quello che andrebbe evitato e’ dare false speranze a persone in uno stato emotivo del tutto particolare. Purtroppo, parlare in questi termini e’ come pensare alle tante persone che si fanno truffare da stregoni e maghi televisivi. Chiunque, in uno stato sano, direbbe che e’ impossibile dare credito a falsi profeti televisivi eppure e’ pieno di casi di gente truffata per comprare amuleti, pozioni e altro. Purtroppo, uno stato psicologico particolare crea terreno fertile per chiunque.

Concludendo, come visto il metodo stamina e’ privo di qualsiasi fondamento scientifico. Ad oggi, manca una qualsiasi prova della validita’ del metodo cosi’ come mancano articoli su riviste mediche che confermano eventuali risultati. La domanda di brevetto presentata e’ stata rifiutata perche’ contenente dati falsificati. Quello che sta avvenendo oggi, ripercorre purtroppo quanto accaduto in passato sul metodo di Bella. Anche in questo caso, una sperimentazione serie e scientifica, mostro’ l’assoluta non validita’ del metodo. Speriamo almeno che si eviti di buttare soldi pubblici per sperimentazioni inutili invece di finanziare ricerche serie.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Spettacolo lunare per il 23 Giugno

12 Giu

Osservando il cielo notturno, e’ possibile ammirare uno spettacolo, diverso in base al periodo dell’anno e al luogo in cui ci troviamo, ma senza dubbio sempre ricco di fascino. Uno dei protagonisti principali delle nostri notti e’ ovviamente la Luna.

Di questo satellite sappiamo abbastanza, essendo anche l’unico sul quale abbiamo messo piede direttamente. Per chi lo avesse perso, ma soprattutto per quelli che credono che l’uomo non sia mai andato sulla Luna, vi segnalo questo precedente articolo:

Ecco perche’ Curiosity non trova gli alieni!

Per un curioso gioco di distanze, la grandezza apparente che vediamo da Terra e’ paragonabile per il Sole e per la Luna. Per quest’ultima poi, a causa del moto intorno al nostro pianeta, avviene una rotazione sincrona, condizione per cui vediamo sempre la stessa faccia della Luna. In realta’, a causa del fenomeno della librazione, che rende irregolare il moto di rotazione lunare, ci sono piccole differenze nella faccia visibile e, da Terra, riusciamo a vedere circa il 59% della superficie lunare.

Perche’ sto parlando di Luna?

super_luna_nasa

Per il 23 di questo mese, e’ atteso un fenomeno sempre interessante e indubbiamente bello da vedere. Per questa data ci si aspetta infatti una luna piena al perigeo.

Cosa significa? Durante il moto, la distanza tra la Terra e la Luna non e’ sempre uguale, ma subisce delle variazioni. La distanza media dal nostro satellite e’ di 382900 Km e si parla di perigeo e apogeo appunto per indicare la distanza minima e massima dalla Terra.

Bene, per il 23 Giugno ci si aspetta appunto una luna piena con il nostro satellite alla minima distanza dalla Terra. Per la precisione, solo 356991 Km ci separeranno dalla sua superficie.

Cosa comportera’ questo?

Dal punto di vista complottista, sempre meglio specificare visto che sicuramente qualcuno parlera’ di avvenimenti misteriosi attesi, non c’e’ assolutamente nulla da riportare. Per quanto riguarda lo spettacolo, la Luna apparira’ piu’ grande proprio a causa della minor distanza e con una colorazione rosa dovuta allo spostamento delle lunghezze d’onda nel passaggio della luce attraverso l’atmosfera terrestre.

Capite bene, come anticipato, che questo appuntamento e’ fortemente atteso da molti astrofili pronti a scattare foto ricordo, ma anche da tanti appassionati osservatori ad occhio nudo che potranno gustarsi questo spettacolo offerto dalla natura.

Visto che, come anticipato, la distanza tra noi e la Luna varia nel tempo, anche quando parliamo di minimo di seprazione, ci riferiamo ad un minimo relativo, determinato dalle orbite di entrambi i corpi celesti.

Parlando di record, nel 2003, la distanza tocco’ il limite inferiore di 356577 Km.

Dopo il 23 Giugno, la distanza cominciera’ a salire, fino ad arrivare alla successiva Luna piena, questa volta all’apogeo. Dal punto di vista prettamente legato al moto, non c’e’ nulla da eccepire, dal momento che la Luna si trova all’apogeo e al perigeo, 2 volte al mese. Quello che puo’ rendere questi appuntamenti piu’ interessanti e’ ovviamente la presenza o meno di luna piena.

Dopo il 23 Giugno, sempre analizzando gli anni vicini a noi, la prossima Super-Luna, come spesso viene ribattezzata, ci sara’ nel novembre del 2013, quando la distanza scendera’ al valore di 356509 Km.

Concludendo, ovviamente non c’e’ nulla da eccepire dal punto di vista scientifico, mentre possiamo rigettare completamente le teorie catastrofiste che vorrebbero, per questa data, qualche strana congiunzione cosmica. Come visto, non c’e’ assolutamente nulla da temere se non aspettare per godersi lo spettacolo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E-Cat meraviglia o grande bufala?

30 Mag

Viste le numerose richieste di informazioni, chiarimenti e spiegazioni che ho ricevuto, ho deciso di scrivere questo articolo sull’E-Cat. Perche’ non l’ho fatto prima? Semplicemente perche’, a mio avviso, e ne riparleremo dopo, mancavano dei presupposti essenziali per parlare di questa presunta invenzione in termini scientifici.

Ora cosa e’ cambiato?

A parte le numerose richieste ricevute, la rete e’ letteralmente esplosa in questi giorni perche’ sembrerebbe che finalmente sia arrivata la dimostrazione indipendente del funzionamento di questo prodigio.

Bene, analizziamo i fatti e cerchiamo di capire meglio di cosa stiamo parlando.

Per chi non lo sapesse, l’E-Cat e’ una presunta invenzione di Andrea Rossi che produrrebbe energia in un modo non noto. Mi spiego meglio. Si tratta di una sorta di generatore, alimentato da corrente elettrica, che pero’ produce piu’ energia di quanta ne assorbe. E’ strano questo? Assolutamente no. Non pensate che si stia violando qualche principio fisico basilare, semplicemnte si potrebbe sfruttare una qualche reazione chimica, fisica o sconosciuta mediante la quale si innescano dei processi esoenergetici, cioe’ che producono energia.

Poiche’ questo punto e’ molto importante, cerchiamo di capirlo bene e in modo semplice. Prendiamo, ad esempio, la fissione nucleare. Mediante questo proceso, nuclei di elementi fissili vengono spaccati in elementi piu’ leggeri, mediante neutroni, producendo energia. Ora, per produrre i neutroni da sparare avete bisogno di energia, ma quella che otteete alla fine del processo e’ maggiore di quella che avete speso, perche’ siete riusciti ad estrarre un’energia dall’interno del nucleo. Avete creato qualcosa dal nulla? No, avete semplicemente sfruttato un processo per produrre questa energia traformandola in qualcosa di utilizzabile ai vostri scopi.

Bene, l’invenzione di Rossi dovrebbe fare un qualcosa di equivalente. L’invenzione promette infatti di produrre molta piu’ energia di quella che deve essere immessa, sfruttando un processo, almeno al mometo, sconosciuto.

Qual e’ il carburante dell’E-Cat? Piu’ o meno il sistema funziona in questo modo: mettendo insieme Nichel e Idrogeno e fornendo un’energia iniziale al sistema, si dovrebbe innescare una reazione fortemente esoenergetica, in cui viene prodotta 5 o 6 volte piu’ energia. Attenzione pero’, gli ingredienti non bastano. Per poter funzionare, c’e’ bisogno anche di un catalizzatore da aggiungere al miscuglio Ni-H, tenuto segreto per motivi di spionaggio industriale.

Perche’ spionaggio industriale? Semplice, parlando di E-Cat, non stiamo parlando di una ricerca scientifica, bensi’ di una invenzione che deve essere lanciata sul mercato. Detto in altri termini, che deve essere venduta.

Quasta cosa ci sconvolge? Assolutamente no. Chiunque di noi puo’ pensare ad un’invenzione commerciale fattta esclusivamente per guadagnare. Non c’e’ nulla di male in questo, purche’, come vedremo, ci siano tutti i presupposti di affidabilita’ dell’invenzione.

Per chi gia’ conoscesse l’E-Cat, notate che ho parlato di una misteriosa reazione. Su molti giornali e siti internet, vedete che si parla di “fusione fredda” o “reazione nucleare a bassa energia”, ho omesso appositamente di tirare in causa questi concetti. Perche’? La fusione nucleare e’ quel processo secondo il quale dei nuclei leggeri vengono fusi tra loro per produrne uno piu’ grande, producendo energia. Questa ‘e la reazione utilizzata dal sole e dalle stelle per produrre energia, ed e’ quella a cui si vorrebbe puntare per sostituire le centrali nucleari a fissione. Il motivo e’ molto semplice, favorevoli o meno al nucleare, il punto piu’ discusso su queste tematiche e’ quello della produzione di scorie, cioe’ elementi nucleari di scarto con vite medie lunghe, cioe’ che restano attivi per molto tempo.

Qual e’ il problema principale della fusione?

Come detto, si devono fondere tra loro due nuclei leggeri per formarne uno pesante. Bene, cosa c’e’ dentro il nucleo? Neutroni, particelle neutre, e protoni, particelle di carica positiva. Come sappiamo bene, se avviciniamo due cariche dello stesso segno, come i protoni dei due nuclei, questi si respingono tra loro a causa della repulsione coulombiana. Ora pero’, se riuscissimo ad avvicinare moltissimo i due nuclei, si arriverebbe ad un punto in cui la forza nucleare forte, che e’ attrattiva, sarebbe molto maggiore della repulsione dovuta alle cariche elettriche, e i due nuclei si attirerebbero tra loro. Niente di complicato. Mentre li avvicinate, i due nuclei si respingono, quindi dovete spingerli con forza per farli avvicinare. Quando poi riuscite ad arrivare oltre una certa distanza, nota come barriera di Coulomb, a questo punto i due nuclei si attirano da soli e si innesca la fusione. Il problema delle centrali a fusione e’ proprio quello di trovare il modo piu’ conveniente ed efficace per fornire l’energia necessaria al superamento della barriera di Coulomb.

E la fusione fredda?

Come detto, parlando di fusione si parla di processi ad altissima temperatura, come avviene nelle stelle. La fusione fredda invece avverrebbe a temperatura ambiente. Al contrario di quanto si legge spesso in rete, non esitono evidenze di reazioni di questo tipo. Storicamente, i primi a parlare di fusione fedda furono gli americani Fleischmann e Pons, cui seguirono altre prove. Per nessuna di queste pero’, esiste la certezza scientifica che si sia trattato realmente di una reazione nucleare di questo tipo e, ancora oggi, c’e una forte discussione a proposito.

Perche’ per l’E-Cat si parla di fusione fredda?

In diverse fonti si parla della reazione tra Nichel e Idrogeno che verrebbero fusi tra loro per produrre Rame. Questo sarebbe il processo che avverrebbe a bassa energia e che fornirebbe l’energia dell’E-Cat. Ripeto, non sono d’accordo su questo punto e a breve mostreremo anche il perche’.

Prima di tutto, rivediamo un po’ la storia di questo E-Cat. Nel 2011 si e’ iniziato a parlare di questo generatore quando Rossi ha condotto due test rendendo pubblici i risultati. In questi esperimenti, fornendo un’energia al macchinario intorno ai 35 KWh, si sarebbero prodotti in un caso 70 KWh, nell’altro 160 KWh. Stando ai numeri, la reazione sarebbe effettivamente esoenergetica e molto conveniente. Qual’era il problema di questi test? Semplicemente, non ci sono prove scientifiche della validita’ dei risultati perche’ il tutto e’ stato condotto in maniera autonoma e senza un confronto indipendente. Cosa significa? Ai test sono stati invitati giornalisti rigorosamente selezionati, in veste di spettatori. Mi spiego meglio. I giornalisti sono stati invitati in questo capannone e hanno potuto vedre e filmere il test di Rossi riportando solo ed esclusivamente quelllo che l’inventore del macchinario affermava.

Ora, vedetela in questo modo. Un signore vi invita ad una dimostrazione in cui vi mostra una scatola nera in cui mette 10 euro e dall’altra parte ne escono 20. Basta, non vi viene detto altro ne’ vi vengono forniti dettagli su cosa c’e’ dentro la scatola. Non parlo a caso di scatola nera, infatti, molte delle parti dell’apparecchiatura sono tenute coperte e chiuse alla vista. Ovviamente, si tratta dei componenti fondamentali del sistema, incluso anche il misterioso catalizzatore che darebbe il via alla reazione.

Cosa dice la scienza a proposito? Come e’ facile immaginare, questo risultato non e’ stato accettato dalla comunita’ scientifica. Per sostenere qualcosa di questo tipo, seguendo i canoni della scienza, si dovrebbe mostrare il macchinario, studiare la reazione che avviene e il tutto deve essere ripetibile ovunque nelle stesse condizioni. Se queste informazioni mancano, il test e’ del tutto simile a quello di un’illusionista che vi mostra l’assistente tagliata in due all’interno di una scatola.

Come forse sapete, a seguito di questi test, e del completo rifiuto della scienza su questi risultati, Rossi e’ divenuto un “mito telematico”, metafora di quel genio che trova l’invenzione del secolo per il bene dell’umanita’ e a cui la scienza mette i bastoni tra le ruote perche’ corrotta dalle grandi multinazionali.

Se invece di gridare allo scandalo, si ragionasse su quanto detto, tutti si renderebbero conto che affermazioni di questo tipo non possono essere credibili se non verificate sperimentalmente. Il problema energetico dell’umanita’ non si risolve con la fiducia sulla parola, ma con numeri chiari verificabili e indiscutibili.

Perche’ ora, come anticipato, si parla di verifica indipendente? Nei mesi scorsi sarebbero stati condotti altri test. Questa volta pero’, avrebbero partecipato anche scienziati di diverse parti del mondo che avrebbero assistito agli esperimenti. Anche in questo caso, i risultati avrebbero mostrato un guadagno energetico del processo, confermando dunque la correttezza del metodo su cui si basa l’E-Cat.

Attenzione, facciamo una considerazione. Come premesso, in ambito commerciale, e’ lecito parlare di segreto industriale. Le regole del commercio sono diverse da quelle della scienza. A mio avviso, se il tutto venisse mostrato ad un gruppo di scienziati affidabili ed in grado di fornire un’opinione scientifica, sicuramente il test acquisterebbe di credibilita’. Purtroppo, non e’ andata cosi’.

L’altro punto fondamentale su cui si e’ dibattuo a lungo e’ la mancanza di una “peer review” sull’esperimento. Cosa significa? Quando si pubblica un articolo su una qualche rivista internazionale, si passa attraverso il processo di “referaggio”. Prima di pubblicare il lavoro, la rivista nomina un altro ricercatore internazionale di chiara fama ed esperto del settore che ha il compito di analizzare in dettaglio il contenuto dell’articolo. Se ci sono punti poco chiari, l’esperto puo’ chiedere maggiori spiegazioni al fine di chiarire il tutto ed evitare, nella migliore delle ipotesi, errori sfuggiti agli autori. Solo al termine di questo processo il vostro lavoro, se accettato, viene pubblicato.

Partendo proprio da questo punto, gli ultimi test seguiti dal gruppo di scienziati avrebbero risolto anche questo problema.

Perche’?

Solo pochi giorni fa, e’ stato pubblicato un articolo sull’archivio della Cornell University, che trovate a questo link:

ArXiv E-Cat

A questo punto, tutti i dubbi iniziali dovrebbero essere risolti: il test e’ stato eseguito indipendentemente da un gruppo di ricercatori e questi hanno anche pubblicato un articolo, ovviamente confermando i risultati dei primi test.

Cosa c’e’ che non va?

Prima di tutto, quello di cui vi ho dato il link, non e’ un articolo su rivista internazionale che ha subito un processo di peer review. Il database in questione e’ semplicemente un archivio di articoli in cui i ricercatori possono mettere i loro lavori. Non c’e’ nessun controllo sul contenuto degli articoli, a parte la buona fede dei ricercatori stessi. Generalmente, almeno nel campo della fisica, i lavori vengono caricati su arXiv prima che questi vengano pubblicati sulle riviste, cioe’ mentre e’ in corso il processo di review. Detto questo, non e’ assolutamente risolto il problema del peer review per l’E-Cat.

Purtroppo, neanche la prima critica e’ stata risolta. Come potete leggere nel testo dell’articolo, non si e’ trattato assolutamente di una verifica indipendente, ma solo di uno spettacolino riservato a persone esperte del settore. Cosa significa? Nei primi test erano stati invitati dei giornalisti, ora dei ricercatori, ma lo svolgimento e’ stato esattamente lo stesso. I ricercatori non hanno potuto toccare nulla, ma si sono limitati a guardare il test condotto da Rossi nei suoi laboratori. Inoltre, molte delle parti del sistema su cui si era discusso, sono rimaste chiuse all’interno di scatole nere in cui era impossibile guardare dentro e, come e’ facile pensare, tra queste vi era anche il misterioso catalizzatore. L’articolo di cui stiamo parlando e’ dunque un insieme di osservazioni e considerazioni fatte dai ricercatori.

Cosa e’ cambiato rispetto al passato? Ovviamente, i ricercatori intervenuti hanno potuto misurare il calore in uscita mediante una termocamera, valutando in questo modo sia la potenza in uscita che quella in ingresso utilizzando sistemi elettrici. A parte al correttezza o meno di questo processo indiretto e della valutazione dell’incertezza ottenuta misurando la potenza con una termocamera, non  si e’ assolutamente trattato di una prova “indipendente”.

C’e’ anche qualche altra considerazione importante da fare. Come detto in precedenza, a mio avviso non si e’ trattato di fusione fredda. Un processo di questo tipo necessariamente producce radiazione in uscita. Effetto non riportato in nessun caso e impossibile da schermare in sistemi di questo tipo. Tra l’altro, conosco personalmente uno dei ricercatori intervenuti ed e’ un esperto di radioprotezione dell’Universita’ di Uppsala in Svezia.

Oltre a questo, la quantita’ d rame che si sarebbe prodotta corrisponderebbe ad un rendimento del sistema molto piu’ alto di quello che ci si aspetta e soprattutto il rame in questione sarebbe non eterogeneo, cioe’ mancano isotopi diversi dalla forma piu’ commerciale e abbondamente in natura.

Ulima considerazione scientifica, dal punto di vista energetico, la fusione di nichel e idrogeno sarebbe possibile e verrebbe prodotto rame, ma la barriera coulombiana per questi nuclei e’ elevatissima. Questo solo per dire che un processo del genere a bassa energia e’ scientificamente molto difficile da digerire. Teoricamente si potrebbe citare l’effetto tunnel, ma questo non spiegherebbe neanche la certezza della reazione di fusione cosi’ come altri processi quantistici non deterministici.

Concludendo, alla luce delle considerazioni fatte e degli ultimi aggiornamenti, non pssiamo assolutamente affermare che l’E-Cat sia un sistema reale e che possa essere accettato dalla scienza. Questo non significa che potrebbe esistere questo generatore in grado di fare quello che Rossi promette. Semplicemente, se anche esistesse, non e’ comprensibile la reazione su cui sarebbe basato e soprattutto mancano dati certi su cui ragionare e da cui estrarre certezze scientifiche. Al momento, almeno secondo me, siamo ancora al livello dll’illusionista che taglia l’assistente con la sega.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.