Tag Archives: sperimentale

Ebola, la nuova goduria complottista ….. attenzione però!

17 Ago

Tante volte lo abbiamo detto, i nostri amici complottisti negli ultimi tempi erano giù di morale. E’ vero che c’è ancora chi la spara grossa su Nibiru, comete varie, asteroidi, Maya, ecc., ma ormai non sono tanti quelli che ancora ci credono. Questo apparente “medioevo complottista” era però un periodo transitorio, un’incubatrice dove le idee erano in attesa di venire fuori attendendo la prossima occasione ghiotta. Purtroppo, per tanti buoni motivi che ora vedremo, questa occasione è arrivata e si chiama “ebola”.

Non credo di dire nula di nuovo dicendo che, in questi giorni più che mai, la nuova psicosi è rappresentata da un’epidemia di questo temibile virus che molti temono possa arrivare in Italia.

Prima affermazione importante che è doveroso fare e che più avanti contestualizzeremo in modo opportuno: non c’è nessun caso di Ebola in Italia. Ripeto: “nessuno” in nessun luogo del nostro paese.

Ma cerchiamo, come nostra abitudine, di andare con ordine e capire in dettaglio l’origine, la situazione e gli ipotetici sviluppi futuri di quella che potrebbe rappresentare una bomba sanitaria mondiale.

Come noto, diversi paesi dell’Africa, tra cui Guinea, Sierra Leone e Liberia, sono da diversi mesi alla prese con l’epidemia di Ebola che ha già fatto registrare decine di vittime e un numero sempre crescente di contagiati.

Come è nata questa epidemia?

Solo in questi giorni si è riusciti ad identificare quello che, in gergo medico, viene definito caso zero. Il primo ad aver contratto questo virus è stato un bambino di 2 anni nella Guinea, deceduto il 6 dicembre 2013. L’infezione di ebola è molto devastante a livello fisico perchè si presenta con febbre alta, diarrea, vomito e, nel 90% dei casi, 100% se non gestita adeguatamente, porta alla morte nel giro di pochi giorni. Come è ovvio, anche perchè si tratta del primo caso, i componenti della famiglia del bambino in questione si ammalarono molto velocemente. Piccola parentesi, il contagio di ebola avviene solo ed esclusivamente attraverso il contatto dei fluidi corporei. Nel giro di una settimana, sono morte la mamma, la sorella e la nonna del bambino in questione. Proprio al funerale della nonna, erano presenti due persone che vennero contagiate e portarono il virus nei loro rispettivi villaggi. Qui, un infermiere che era venuto a contatto con il malato, venne a sua volta contagiato. In un paese come la Guinea in cui il sistema nazionale molto spesso si riduce ad un solo infermiere che si occupa di diverse comunità di persone, potete capire cosa sia accaduto.

Nel giro di pochi mesi, quando finalmente l’epidemia venne riconosciuta e compresa, si registravano già decine di casi in diversi villaggi della Guinea e primi casi erano già presenti in Liberia e Sierra Leone. Da qui in poi, potete capire come questo fenomeno sia cresciuto praticamente in modo esponenziale.

Ad oggi, vengono registrati anche alcuni sporadici casi in Nigeria ma non ci sono ulteriori conferme di persone contagiate dall’ebola in nessun altro paese. Come noto, tutte le voci riguardanti casi in USA, Canada, Hong Kong, Arabia Saudita e, come anticipato, Italia e Germania, si sono rivelati dei falsi perchè bufale o perchè smentiti da analisi di laboratorio prontamente eseguite.

Capita l’origine, l’evoluzione e lo stato attuale della situazione ebola, torniamo ai nostri amici complottisti. Come anticipato, non potevano certo farsi sfuggire questa occasione d’oro. Se avate avuto modo di leggere gli articoli pubblicati da queste “testate”, spero vivamente vi siate fatti quattro risate senza lasciarvi prendere dal panico.

Andiamo con ordine. Di certo, non poteva mancare chi ha attribuito l’epidemia di ebola al volere del solito Nuovo Ordine Mondiale per sterminare metà della popolazione mondiale. Al solito, non fraintendete, non è mia intenzione prendere spunto da una situazione globale drammatica che sta mietendo vittime. Questa è l’intenzione di coloro di cui stiamo parlando e sui quali la gente deve sapere la verità. Oltre al motivo del contagio, c’è invece chi ricama sulla tipologia di malattia. Quella in corso non sarebbe assolutamnete un’epidemia di ebola, ma di Morgellons. Esatto, avete capito proprio bene. Secondo alcuni siti, l’epidemia in corso sarebbe di questa inventata malattia di cui abbiamo parlato in questo apposito post:

Il morbo di Morgellons

Perchè? Anche questo è molto prevedibile. Loro sono anni che accusano i governi di spargere veleni attraverso le scie chimiche e ora sono arrivate le conseguenze. Le persone sarebbero state “avvelenate” a seguito del contagio con gli inquinanti sparsi mediante aerosol atmosferico. Piccola parentesi riflessiva: non mi sembra che fino ad oggi qualcuno abbia mai parlato di scie chimiche in Africa, eppure il contagio è iniziato li. Va bene, non facciamo i precisini, si sa, le scie chimiche vanno un pò ovunque.

Detto questo, esiste un problema reale per l’Italia? Purtroppo, anche se ripeto ad oggi non ci sono stati casi nel nostro paese, come tutti sanno, esiste il problema reale e e conosciuto dei continui sbarchi nel nostro paese di parte di migranti provenienti dai paesi africani. Ora, non è questa la sede per affrontare un discorso relativo agli sbarchi, è giusto, è sbagliato, vanno fermati, Renzi, Alfano, Mare Nostrum, ecc.. Nonostante questo, dati i continui flussi migratori, è ovviamente richiesta, ed è ovviamente stata attuata, una politica sanitaria di emergenza per scongiurare che l’epidemia si estenda anche all’Europa.

A questo punto vi chiederete: perchè nel titolo del post ho scritto “attenzione però?” Molto semplice, come forse avrete avuto modo di leggere, e come discusso poche righe fa, i complottisti non si sono lasciati sfuggire la ghiotta occasione dell’ebola. A volte, però, si esagera.

Cosa intendo?

Sui social network è circolata nei giorni scorsi la notizia secondo la quale a Lampedusa ci sarebbero diversi casi, chi parla di unità chi di decine, di ebola. Neanche a dirlo, i contagiati sarebbero immigrati sbarcati sulle coste della nostra isola e il contagio si sarebbe già esteso al personale dei centri di prima accoglienza. In tutta questa favola, non poteva certo mancare il carico: il governo, in accordo con l’Europa, è a conoscenza del problema, ma non vuole informare la popolazione. Il motivo? Sempre perchè il tutto fa parte del progetto di sterminio della popolazione oppure per non creare panico o, ancora, perchè si sta sottovalutando il problema.

Cosa c’è di vero in tutto questo? Assolutamente nulla.

Il particolare che però rende diversa questa bufala lanciata sui social network dalle altre è che questa volta siamo di fronte ad un caso di sicurezza nazionale. Questo “dettaglio” ha comportato la rapida risposta da parte delle autorità che, mediante la polizia postale, hanno già identificato l’autore della falsa notizia. Il tizio in questione è stato ovviamente denunciato con accuse molto gravi e di mezzo c’è anche l’associazione degli albergatori di Lampedusa che si è costituita parte civile nel processo. Perchè? Molto semplice. La notizia circolata sulla rete è divenuta subito virale e, dopo averla letta, molti turisiti hanno disdetto la loro pronatazione sull’isola per paura del contagio. Come potete facilmente capire, l’economia di Lampedusa, da sempre basata sul turismo, si trova in una fase estremamente delicata proprio a causa dei continui sbarchi di migranti. La falsa notizia fatta circolare ha dato il colpo di grazia al turismo atteso per questa stagione. Risultato? L’associazione degli albergatori ha chiesto al simpatico bufalaro un risarcimento di dieci milioni di euro! Ovviamente ci sarà da attendere il processo per vedere come la cosa andrà a finire ma, per il momento, questa richiesta segna una svolta molto importante per le continue bufale che circolano in rete.

Cari amici complottisti, pensate bene a quello che scrivete e dite. Oltre a creare psicosi collettive, molto spesso le vostre pseudo-notizie creano danni incalcolabili e che, prima o poi, come in questo caso, qualcuno vi chiederà di pagare!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

I buchi neri che … evaporano

16 Ago

Uno degli aspetti che da sempre fa discutere e creare complottismi su LHC, e’ di sicuro la possibilita’ di creare mini buchi neri. Questa teoria nasce prendendo in considerazione le alte energie in gioco all’interno del collissore del CERN e la possibilita’ che nello scontro quark-quark possa venire a crearsi una singolarita’ simile a quella dei buchi neri.

Se avete perso i precedenti articoli, di LHC abbiamo parlato in questi post:

2012, fine del mondo e LHC

Bosone di Higgs … ma che sarebbe?

Sia ben chiaro, la storia dei buchi neri non e’ la sola creata su LHC. Il CERN ogni giorno riceve lettere che chiedono la chiusura dell’esperimento per il pericolo che questo rappresenta per l’intera terra. Diverse volte il CERN e’ anche stato chiamato in giudizio a fronte di vere e proprie denuncie di pseudo scienziati che lo accusavano farneticando teorie senza capo ne’ coda. Come potete immaginare, tutte le volte le accuse sono state rigettate e non solo LHC il prossimo anno ripartira’, ma a gia’ fornito risultati fisici di prim’ordine.

Perche’ si discute tanto di buchi neri? Qui ognuno puo’ formulare la propria ipotesi. Io ho una mia idea. Parlare di buchi neri, e’ qualcosa che da sempre stimola la curiosita’ e il timore delle persone. Un buco nero e’ visto come qualcosa di misterioso che vive nel nostro universo con caratteristiche uniche nel suo genere: mangia tutto cio’ che gli capita a tiro senza far uscire nulla. L’idea di poter avere un mostro del genere qui sulla terra, scatena gli animi piu’ catastrofisti pensando a qualcosa che nel giro di qualche minuto sarebbe in grado di divorare Ginevra, la Svizzera, il mondo intero.

Come anticipato, LHC e’ ora in stato di fermo. Si sta lavorando incessantemente per migliorare i rivelatori che vi operano al fine di ottenere risultati sempre piu’ accurati e affidabili. Alla ripartenza, avendo ormai preso piu’ confidenza con la macchina, si pensa anche di poter aumentare l’energia del centro di massa, cioe’ quella a disposizione per creare nuove particelle, portandola da 7 a 10 TeV. Come e’ ovvio, questa notizia non poteva che riaccendere gli animi catastrofisti. Al momento non si e’ creato nessun buco nero perche’ l’energia era troppo bassa, gli scienziati stanno giocando con il fuoco e porteranno alla distruzione della Terra. Queste sono le argomentazioni che cominciate a leggere in rete e che non potranno che riaumentare avvicinandoci al momento della ripartenza.

Se anche dovesse formarsi un mini buco nero, perche’ gli scienziati sono tanto sicuri che non accadra’ nulla? Come sapete, si parla di evaporazione dei buchi neri. Una “strana” teoria formulata dal fisico inglese Stephen Hawking ma che, almeno da quello che leggete, non e’ mai stata verificata, si tratta solo di un’idea e andrebbe anche in conflitto con la meccanica quantistica e la relativita’. Queste sono le argomentazioni che leggete. Trovate uno straccio di articolo a sostegno? Assolutamente no, ma, leggendo queste notizie, il cosiddetto uomo di strada, non addetto ai lavori, potrebbe lasciarsi convincere che stiamo accendendo una miccia, pensando che forse si spegnera’ da sola.

Date queste premesse, credo sia il caso di affrontare il discorso dell’evaporazione dei buchi neri. Purtroppo, si tratta di teorie abbastanza complicate e che richiedono molti concetti fisici. Cercheremo di mantenere un profilo divulgativo al massimo, spesso con esempi forzati e astrazioni. Cio’ nonostante, parleremo chiaramente dello stato dell’arte, senza nascondere nulla ma solo mostrando risultati accertati.

Cominciamo proprio dalle basi parlando di buchi neri. La domanda principale che viene fatta e’ la seguente: se un buco nero non lascia sfuggire nulla dal suo interno, ne’ particelle ne’ radiazione, come potrebbe evaporare, cioe’ emettere qualcosa verso l’esterno? Questa e’ un’ottima domanda, e per rispondere dobbiamo capire meglio come e’ fatto un buco nero.

Secondo la teoria della relativita’, un buco nero sarebbe un oggetto estremamente denso e dotato di una gravita’ molto elevata. Questa intensa forza di richiamo non permette a nulla, nemmeno alla luce, di sfuggire al buco nero. Essendo pero’ un oggetto molto denso e compatto, questa forza e’ estremamente concentrata e localizzata. Immaginatelo un po’ come un buco molto profondo creato nello spazio tempo, cioe’ una sorta di inghiottitoio. La linea di confine tra la singolarita’ e l’esterno e’ quello che viene definito l’orizzonte degli eventi. Per capire questo concetto, immaginate l’orizzonte degli eventi come una cascata molto ripida che si apre lungo un torrente. Un pesce potra’ scendere e risalire il fiume senza problemi finche’ e’ lontano dalla cascata. In prossimita’ del confine, cioe’ dell’orizzonte degli eventi, la forza che lo trascina giu’ e’ talmente forte che il pesce non potra’ piu’ risalire e verra’ inghiottito.

Bene, questo e’ piu’ o meno il perche’ dal buco nero non esce nulla, nemmeno la luce. Dunque? Come possiamo dire che il buco nero evapora in queste condizioni?

La teoria dell’evaporazione, si basa sulle proprieta’ del vuoto. Come visto in questo articolo:

Se il vuoto non e’ vuoto

nella fisica, quello che immaginiamo come vuoto, e’ un continuo manifestarsi di coppie virtuali particella-antiparticella che vivono un tempo brevissimo e poi si riannichilano scomparendo. Come visto nell’articolo, non stiamo parlando di idee campate in aria, ma di teorie fisiche dimostrabili. L’effetto Casimir, dimostrato sperimentalmente e analizzato nell’articolo citato, e’ uno degli esempi.

Ora, anche in prossimita’ del buco nero si creeranno coppie di particelle e questo e’ altresi’ possibile quasi in prossimita’ dell’orizzonte degli eventi. Bene, ragioniamo su questo caso specifico. Qualora venisse creata una coppia di particelle virtuali molto vicino alla singolarita’, e’ possibile che una delle due particelle venga assorbita perche’ troppo vicina all’orizzonte degli eventi. In questo caso, la singola particella rimasta diviene, grazie al principio di indeterminazione di Heisenberg, una particella reale. Cosa succede al buco nero? Nei testi divulgativi spesso leggete che il buco nero assorbe una particella con energia negativa e dunque diminuisce la sua. Cosa significa energia negativa? Dal vuoto vengono create due particelle. Per forza di cose queste avranno sottratto un po’ di energia dal vuoto che dunque rimarra’ in deficit. Se ora una delle due particelle virtuali e’ persa, l’altra non puo’ che rimanere come particella reale. E il deficit chi lo paga? Ovviamente il buco nero, che e’ l’unico soggetto in zona in grado di pagare il debito. In soldoni dunque, e’ come se il buco nero assorbisse una particella di energia negativa e quindi diminuisse la sua. Cosa succede alla particella, ormai reale, rimasta? Questa, trovandosi oltre l’orizzonte degli eventi puo’ sfuggire sotto forma di radiazione. Questo processo e’ quello che si definisce evaporazione del buco nero.

Cosa non torna in questo ragionamento?

Il problema principale e’, come si dice in fisica, che questo processo violerebbe l’unitarieta’. Per le basi della meccanica quantistica, un qualunque sistema in evoluzione conserva sempre l’informazione circa lo stato inziale. Cosa significa? In ogni stato e’ sempre contenuta l’indicazione tramite la quale e’ possibile determinare con certezza lo stato precedente. Nel caso dei buchi neri che evaporano, ci troviamo una radiazione termica povera di informazione, creata dal vuoto, e che quindi non porta informazione.

Proprio da questa assunzione nascono le teorie che potete leggere in giro circa il fatto che l’evaporazione non sarebbe in accordo con la meccanica quantistica. Queste argomentazioni, hanno fatto discutere anche i fisici per lungo tempo, cioe’ da quando Hawking ha proposto la teoria. Sia ben chiaro, la cosa non dovrebbe sorprendere. Parlando di buchi neri, stiamo ragionando su oggetti molto complicati e per i quali potrebbero valere  leggi modificate rispetto a quelle che conosciamo.

Nonostante questo, ad oggi, la soluzione al problema e’ stata almeno “indicata”. Nel campo della fisica, si racconta anche di una famosa scommessa tra Hawking e Preskill, un altro fisico teorico del Caltech. Hawking sosteneva che la sua teoria fosse giusta e che i buchi neri violassero l’unitarieta’, mentre Perskill era un fervido sostenitore della inviolabilita dei principi primi della meccanica quantistica.

La soluzione del rebus e’ stata indicata, anche se ancora non confermata, come vedremo in seguito, chiamando in causa le cosiddette teorie di nuova fisica. Come sapete, la teoria candidata a risolvere il problema della quantizzazione della gravita’ e’ quella delle stringhe, compatibile anche con quella delle brane. Secondo questi assunti, le particelle elementari non sarebbero puntiformi ma oggetti con un’estensione spaziale noti appunto come stringhe. In questo caso, il buco nero non sarebbe piu’ una singolarita’ puntiforme, ma avrebbe un’estensione interna molto piu’ complessa. Questa estensione permette pero’ all’informazione di uscire, facendo conservare l’unitarieta’. Detto in altri termini, togliendo la singolarita’, nel momento in cui il buco nero evapora, questo fornisce ancora un’indicazione sul suo stato precedente.

Lo studio dei buchi neri all’interno della teoria delle stringhe ha portato al cosiddetto principio olografico, secondo il quale la gravita’ sarebbe una manifestazione di una teoria quantistica che vive in un numero minore di dimensioni. Esattamente come avviene in un ologramma. Come sapete, guardando un ologramma, riuscite a percepire un oggetto tridimensionale ma che in realta’ e’ dato da un immagine a 2 sole dimensioni. Bene, la gravita’ funzionerebbe in questo modo: la vera forza e’ una teoria quantistica che vive in un numero ridotto di dimensioni, manifestabili, tra l’altro, all’interno del buco nero. All’esterno, con un numero di dimensioni maggiori, questa teoria ci apparirebbe come quella che chiamiamo gravita’. Il principio non e’ assolutamente campato in aria e permetterebbe anche di unificare agevolmente la gravita’ alle altre forze fondamentali, separate dopo il big bang man mano che l’universo si raffreddava.

Seguendo il ragionamento, capite bene il punto in cui siamo arrivati. Concepire i buchi neri in questo modo non violerebbe assolutamente nessun principio primo della fisica. Con un colpo solo si e’ riusciti a mettere insieme: la meccanica quantistica, la relativita’ generale, il principio di indeterminazione di Heisenberg, le proprieta’ del vuoto e la termodinamica studiando la radiazione termica ed estendendo il secondo principio ai buchi neri.

Attenzione, in tutta questa storia c’e’ un pero’. E’ vero, abbiamo messo insieme tante cose, ma ci stiamo affidando ad una radiazione che non abbiamo mai visto e alla teoria delle stringhe o delle brance che al momento non e’ confermata. Dunque? Quanto sostenuto dai catastrofisti e’ vero? Gli scienziati rischiano di distruggere il mondo basandosi su calcoli su pezzi di carta?

Assolutamente no.

Anche se non direttamente sui buchi neri, la radiazione di Hawking e’ stata osservata in laboratorio. Un gruppo di fisici italiani ha osservato una radiazione paragonabile a quella dell’evaporazione ricreando un orizzonte degli eventi analogo a quello dei buchi neri. Come visto fin qui, l’elemento fondamentale del gioco, non e’ il buco nero, bensi’ la curvatura della singolarita’ offerta dalla gravita’. Bene, per ricreare un orizzonte degli eventi, basta studiare le proprieta’ ottiche di alcuni materiali, in particolare il loro indice di rifrazione, cioe’ il parametro che determina il rallentamento della radiazione elettromagnetica quando questa attraversa un mezzo.

Nell’esperimento, si e’ utilizzato un potente fascio laser infrarosso, in grado di generare impulsi cortissimi, dell’ordine dei miliardesimi di metro, ma con intensita’ miliardi di volte maggiore della radiazione solare. Sparando questo fascio su pezzi di vetro, il punto in cui la radiazione colpisce il mezzo si comporta esattamente come l’orizzonte degli eventi del buco nero, creando una singolarita’ dalla quale la luce presente nell’intorno non riesce ad uscire. In laboratorio si e’ dunque osservata una radiazione con una lunghezza d’onda del tutto paragonabile con quella che ci si aspetterebbe dalla teoria di Hawking, tra 850 e 900 nm.

Dunque? Tutto confermato? Se proprio vogliamo essere pignoli, no. Come visto, nel caso del buco nero gioca un ruolo determinante la gravita’ generata dal corpo. In laboratorio invece, la singolarita’ e’ stata creata otticamente. Ovviamente, mancano ancora degli studi su questi punti, ma l’aver ottenuto una radiazione con la stessa lunghezza d’onda predetta dalla teoria di Hawking e in un punto in cui si genera un orizzonte degli eventi simile a quello del buco nero, non puo’ che farci sperare che la teoria sia giusta.

Concludendo, l’evaporazione dei buchi neri e’ una teoria molto complessa e che richiama concetti molto importanti della fisica. Come visto, le teorie di nuova fisica formulate in questi anni, hanno consentito di indicare la strada probabile per risolvere le iniziali incompatibilita’. Anche se in condizioni diverse, studi di laboratorio hanno dimostrato la probabile esistenza della radiazione di Hawking, risultati che confermerebbero l’esistenza della radiazione e dunque la possibilita’ dell’evaporazione. Ovviamente, siamo di fronte a teorie in parte non ancora dimostrate ma solo ipotizzate. I risultati ottenuti fino a questo punto, ci fanno capire pero’ che la strada indicata potrebbe essere giusta.

Vorrei chiudere con un pensiero. Se, a questo punto, ancora pensate che potrebbero essere tutte fantasie e che un buco nero si potrebbe creare e distruggere la Terra, vi faccio notare che qui parliamo di teorie scientifiche, con basi solide e dimostrate, e che stanno ottenendo le prime conferme da esperimenti diretti. Quando leggete le teorie catastrofiste in rete, su quali basi si fondano? Quali articoli vengono portati a sostegno? Ci sono esperimenti di laboratorio, anche preliminari ed in condizioni diverse, che potrebbero confermare quanto affermato dai catastrofisti?

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Se il vuoto non e’ vuoto

12 Ago

Come nell’articolo precedente, anche in questo caso vorrei parlarvi di un argomento suggerito nella sezione:

Hai domande o dubbi?

Piccola premessa iniziale, il fatto di scrivere articoli “su commissione” e’ qualcosa che mi rende veramente fiero di questo spazio creato sul web. Avere cosi’ tante richieste, significa che le persone sono coinvolte nella discussione, si informano e poi chiedono di poter approfondire gli argomenti insieme sul blog. Questo non puo’ che rendermi felice!

Detto questo, passiamo invece all’argomento della discussione. Come potete leggere, la richiesta e’ apparentemente molto semplice, si chiede di analizzare il discorso circa l’energia di punto zero.

Che significa energia di punto zero?

Ve la metto in modo molto semplice, immaginiamo uno spazio vuoto. Per vuoto non intendo un qualcosa creato con una pompa con la quale portare fuori le particelle del mezzo, ma qualcosa di completamente vuoto. Bene, questo spazio completamente vuoto e senza particelle ha un’energia. Per dirla nella forma “scienza e spettacolo”: il vuoto non e’ vuoto.

Cosa significa?

Mi metto nei panni di un non addetto ai lavori che prova a cercare una spiegazione. Vi faccio questo breve excursus perche’ girando su internet si trovano cose alcquanto curiose. Se andate su wikipedia, ormai punto di riferimento per tante persone curiose che vogliono capire le cose, trovate scritto:

Dal principio di indeterminazione di Heisenberg deriva che il vuoto è permeato da un mare di fluttuazioni quantistiche che creano coppie di particelle e anti-particelle virtuali che si annichiliscono in un tempo inversamente proporzionale alla propria energia. Il contributo complessivo all’energia del vuoto risulta così mediamente diverso da zero e pari a

 \epsilon = \frac{h\nu}{2}

dove h è la costante di Planck e  \nu è la frequenza di un generico modo di vibrazione associabile alla lunghezza d’onda materiale delle particelle virtuali.

Che dire, mi sembra chiarissimo. Ovviamente, la mia e’ un’affermazione sarcastica. Quanto trovate non mi sembra assolutamente in una forma divulgativa comprensibile ai piu’.

Cerchiamo dunque di fare un po’ di chiarezza e di capire cosa significa la frase: il vuoto non e’ vuoto.

Come anticipato, immaginiamo di poter disporre di un vuoto, cioe’ di uno spazio in cui sono state eliminate tutte le particelle. Ovviamente, uno spazio di questo tipo e’ impossibile da creare. Se anche ci mettessimo nello spazio, ci sarebbe comunque una certa densita’ di particelle che “sporcherebbero” il nostro vuoto, non rendendolo piu’ tale.

Rimaniamo pero’ nell’ambito dell’immaginazione e costruiamo il nostro esperimento mentale.

In fisica, per poter trattare il vuoto, e’ necessario tenere conto di alcune leggi molto importanti che ci vengono date dalla quantistica. Tra queste c’e’ ovviamente il principio di indeterminazione di Heisenberg che molti conoscono. Detto in modo molto divulgativo, e’ impossibile conoscere con precisione assoluta la posizione e la velocita’ di una particella. In realta’, questo principio e’ scritto in forma di disuguaglianza, cioe’ all’aumentare della precisione nella determinazione di una grandezza, aumenta l’incertezza sulla misura dell’altra variabile.

Premesso questo, osservando il vuoto ad una scala molto grande, vedremmo qualcosa di stabile e fermo nel tempo. Andando pero’ a scale sempre piu’ piccole,dove se vogliamo la fisica quantistica detta le regole, vedremmo una situazione molto caotica con coppie di particelle e antiparticelle che vengono create e distrutte in continuazione. Piu’ l’energia delle particelle e’ alta, minore e’ il tempo in cui vivono.

Per farvi capire, immaginate di osservare il mare da un aereo a quota molto alta. Da questa posizione, vedreste il mare immobile sotto di voi, come se fosse dipinto su una tela. Se ora vi avvicinate verso il basso, man mano che scendete, comincereste ad osservare le onde, i movimenti dell’acqua, ecc. Arrivati ad una distanza molto piccola, potreste anche accorgervi che quella situazione cosi’ stabile vista dall’alto, nascondeva in realta’ un mare in tempesta.

Tornado al nostro vuoto quantistico, questa continua creazione di particelle impica dunque che il vuoto non e’ assolutamente vuoto. L’energia associata a questo stato, e’ proprio quella dovuta a queste particelle, o meglio alle onde a loro associate.

Possibile che questo continuo creare particelle non provochi effetti?

In realta’, gli effetti li provoca e come, e anche sotto diversi aspetti. Prima di tutto, se non esistesse l’energia di punto zero, il principio di indeterminazione potrebbe essere violato ponendo una singola particella nello spazio.

Per vedere invece un caso comprensibile a tutti, immaginate il nostro universo. Come sapete, il nostro universo e’ oggi in espansione come venne dimostrato per la prima volta da Hubble. Successivamente pero’, ci siamo accorti non solo che il nostro universo e’ in espansione, ma che sta anche accelerando rispetto al passato.

Come possiamo spiegare questo? Se il tutto dipendesse dal Big Bang, cioe’ il motore dell’espansione fosse il botto iniziale, ci si aspetterebbe un universo, forse anche in espansione, ma che pero’ sta diminuendo sempre di piu’ la sua spinta iniziale. In questa formulazione, sarebbe impossibile vedere un unverso che ad un certo punto accelera.

Questa apparente incongruenza viene appunto spiegata chiamando in causa l’energia del vuoto. Le particelle virtuali create nel vuoto, sono in relazione con l’energia oscura che provoca l’accelerazione che abbiamo misurato nell’espansione. Come sapete, dal punto di vista fisico, stiamo entrando in un terreno poco conosciuto. Parlare di energia oscura e’, allo stato attuale, ammettere grosse lacune nella nostra comprensione dei meccanismo dell’universo.

Esistono altre prove dell’esistenza dell’energia del vuoto?

Ovviamente si! La prova piu’ immediata a sostegno dell’esistenza dell’energia del vuoto e’ stata la dimostrazione dell’effetto Casimir.

Cerchiamo di spiegare in modo semplice di cosa si tratta.

Effetto Casimir: a causa delle fluttuazioni del vuoto si crea una forza di attrazione tra le lastre

Effetto Casimir: a causa delle fluttuazioni del vuoto si crea una forza di attrazione tra le lastre

Immaginate di porre due lastre metalliche piane e parallele ad una distanza molto piccola tra loro, dell’ordine dei micron o meno. Questo sistema viene posizionato in una regione di spazio in cui e’ stato creato il vuoto assoluto. Ora, come visto, in questa condizione si creeranno comunque tantissime coppie particella-antiparticella generate nel vuoto. Come anticipato, esiste pero’ il dualismo particella-onda, per cui ad ogni particella possiamo attribuire uno stato ondulatorio. Detto in altri termini, per ciascuna particella, ci sono casi in cui si comportera’ come una particella, altri come un’onda.

Benissimo. Guardate la figura a lato. Le coppie di particelle si produrranno ovunque, nella zona esterna, cosi’ come tra le lastre. Ora pero’, in virtu’ del dualismo particella onda, nello spazio interno avremmo a disposizione solo pochi micron di spazio. Questo significa che tra le lastre potremmo avere solo particelle con lunghezza d’onda molto piccola. Dal momento che l’energia di una particella e’ direttamente proporzionale alla sua lunghezza d’onda, l’energia generata tra le lastre e’ inferiore a quella sviluppata all’esterno. Effetto netto di questo squilibrio sara’ una forza che tende ad avvicinare tra loro le piastre.

Fantastico. E’ mai stato dimostrato questo effetto? Assolutamente si. La prima prova venne tentata nei laboratori Philips nel 1958 ma i risultati, anche se non escludevano la presenza dell’effetto Casimir, erano inficiati da errori sperimentali troppo grandi. Per una verifica diretta di questo effetto, si dovette aspettare fino al 1997 quando nell’universita’ di Washington venne dimostrato l’effetto Casimir utilizzando superfici sferiche in luogo di quelle piane. Questa soluzione venne adottata per eliminare i problemi di allineamento tra le piastre.

La dimostrazione dell’effetto cosi’ come ipotizzato da Casimir, cioe’ con lastre piane e parallele, arrivo’ solo nel 2001 quando nell’universita’ di Padova si pote’ realizzare un allineamento submicrometrico con risonatori.

Concludendo, se andiamo a scale molto piccole, la meccanica quantistica ci predice uno stato di vuoto densamente popolato da coppie di particelle e antiparticelle che continuamente vengono create e distrutte. Il tempo in cui ciascuna particella vive e’ inversamente proporzionale alla sua energia. In questa condizione, le coppie prodotte contribuiscono ad un livello non nullo di energia del vuoto. Effetti indiretti dell’energia del vuoto arrivano, tra l’altro, dell’espansione accelerata dell’universo, riconducibile all’esistenza di un’energia oscura. Oltre a questo, una dimostrazione pratica dell’esistenza dell’energia del vuoto arriva dall’effetto Casimir. In questo caso, non solo si dimostra l’esistenza di coppie di particelle virtuali, ma si evidenzia anche come queste particelle possano dare effetti tangibili.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E-Cat meraviglia o grande bufala?

30 Mag

Viste le numerose richieste di informazioni, chiarimenti e spiegazioni che ho ricevuto, ho deciso di scrivere questo articolo sull’E-Cat. Perche’ non l’ho fatto prima? Semplicemente perche’, a mio avviso, e ne riparleremo dopo, mancavano dei presupposti essenziali per parlare di questa presunta invenzione in termini scientifici.

Ora cosa e’ cambiato?

A parte le numerose richieste ricevute, la rete e’ letteralmente esplosa in questi giorni perche’ sembrerebbe che finalmente sia arrivata la dimostrazione indipendente del funzionamento di questo prodigio.

Bene, analizziamo i fatti e cerchiamo di capire meglio di cosa stiamo parlando.

Per chi non lo sapesse, l’E-Cat e’ una presunta invenzione di Andrea Rossi che produrrebbe energia in un modo non noto. Mi spiego meglio. Si tratta di una sorta di generatore, alimentato da corrente elettrica, che pero’ produce piu’ energia di quanta ne assorbe. E’ strano questo? Assolutamente no. Non pensate che si stia violando qualche principio fisico basilare, semplicemnte si potrebbe sfruttare una qualche reazione chimica, fisica o sconosciuta mediante la quale si innescano dei processi esoenergetici, cioe’ che producono energia.

Poiche’ questo punto e’ molto importante, cerchiamo di capirlo bene e in modo semplice. Prendiamo, ad esempio, la fissione nucleare. Mediante questo proceso, nuclei di elementi fissili vengono spaccati in elementi piu’ leggeri, mediante neutroni, producendo energia. Ora, per produrre i neutroni da sparare avete bisogno di energia, ma quella che otteete alla fine del processo e’ maggiore di quella che avete speso, perche’ siete riusciti ad estrarre un’energia dall’interno del nucleo. Avete creato qualcosa dal nulla? No, avete semplicemente sfruttato un processo per produrre questa energia traformandola in qualcosa di utilizzabile ai vostri scopi.

Bene, l’invenzione di Rossi dovrebbe fare un qualcosa di equivalente. L’invenzione promette infatti di produrre molta piu’ energia di quella che deve essere immessa, sfruttando un processo, almeno al mometo, sconosciuto.

Qual e’ il carburante dell’E-Cat? Piu’ o meno il sistema funziona in questo modo: mettendo insieme Nichel e Idrogeno e fornendo un’energia iniziale al sistema, si dovrebbe innescare una reazione fortemente esoenergetica, in cui viene prodotta 5 o 6 volte piu’ energia. Attenzione pero’, gli ingredienti non bastano. Per poter funzionare, c’e’ bisogno anche di un catalizzatore da aggiungere al miscuglio Ni-H, tenuto segreto per motivi di spionaggio industriale.

Perche’ spionaggio industriale? Semplice, parlando di E-Cat, non stiamo parlando di una ricerca scientifica, bensi’ di una invenzione che deve essere lanciata sul mercato. Detto in altri termini, che deve essere venduta.

Quasta cosa ci sconvolge? Assolutamente no. Chiunque di noi puo’ pensare ad un’invenzione commerciale fattta esclusivamente per guadagnare. Non c’e’ nulla di male in questo, purche’, come vedremo, ci siano tutti i presupposti di affidabilita’ dell’invenzione.

Per chi gia’ conoscesse l’E-Cat, notate che ho parlato di una misteriosa reazione. Su molti giornali e siti internet, vedete che si parla di “fusione fredda” o “reazione nucleare a bassa energia”, ho omesso appositamente di tirare in causa questi concetti. Perche’? La fusione nucleare e’ quel processo secondo il quale dei nuclei leggeri vengono fusi tra loro per produrne uno piu’ grande, producendo energia. Questa ‘e la reazione utilizzata dal sole e dalle stelle per produrre energia, ed e’ quella a cui si vorrebbe puntare per sostituire le centrali nucleari a fissione. Il motivo e’ molto semplice, favorevoli o meno al nucleare, il punto piu’ discusso su queste tematiche e’ quello della produzione di scorie, cioe’ elementi nucleari di scarto con vite medie lunghe, cioe’ che restano attivi per molto tempo.

Qual e’ il problema principale della fusione?

Come detto, si devono fondere tra loro due nuclei leggeri per formarne uno pesante. Bene, cosa c’e’ dentro il nucleo? Neutroni, particelle neutre, e protoni, particelle di carica positiva. Come sappiamo bene, se avviciniamo due cariche dello stesso segno, come i protoni dei due nuclei, questi si respingono tra loro a causa della repulsione coulombiana. Ora pero’, se riuscissimo ad avvicinare moltissimo i due nuclei, si arriverebbe ad un punto in cui la forza nucleare forte, che e’ attrattiva, sarebbe molto maggiore della repulsione dovuta alle cariche elettriche, e i due nuclei si attirerebbero tra loro. Niente di complicato. Mentre li avvicinate, i due nuclei si respingono, quindi dovete spingerli con forza per farli avvicinare. Quando poi riuscite ad arrivare oltre una certa distanza, nota come barriera di Coulomb, a questo punto i due nuclei si attirano da soli e si innesca la fusione. Il problema delle centrali a fusione e’ proprio quello di trovare il modo piu’ conveniente ed efficace per fornire l’energia necessaria al superamento della barriera di Coulomb.

E la fusione fredda?

Come detto, parlando di fusione si parla di processi ad altissima temperatura, come avviene nelle stelle. La fusione fredda invece avverrebbe a temperatura ambiente. Al contrario di quanto si legge spesso in rete, non esitono evidenze di reazioni di questo tipo. Storicamente, i primi a parlare di fusione fedda furono gli americani Fleischmann e Pons, cui seguirono altre prove. Per nessuna di queste pero’, esiste la certezza scientifica che si sia trattato realmente di una reazione nucleare di questo tipo e, ancora oggi, c’e una forte discussione a proposito.

Perche’ per l’E-Cat si parla di fusione fredda?

In diverse fonti si parla della reazione tra Nichel e Idrogeno che verrebbero fusi tra loro per produrre Rame. Questo sarebbe il processo che avverrebbe a bassa energia e che fornirebbe l’energia dell’E-Cat. Ripeto, non sono d’accordo su questo punto e a breve mostreremo anche il perche’.

Prima di tutto, rivediamo un po’ la storia di questo E-Cat. Nel 2011 si e’ iniziato a parlare di questo generatore quando Rossi ha condotto due test rendendo pubblici i risultati. In questi esperimenti, fornendo un’energia al macchinario intorno ai 35 KWh, si sarebbero prodotti in un caso 70 KWh, nell’altro 160 KWh. Stando ai numeri, la reazione sarebbe effettivamente esoenergetica e molto conveniente. Qual’era il problema di questi test? Semplicemente, non ci sono prove scientifiche della validita’ dei risultati perche’ il tutto e’ stato condotto in maniera autonoma e senza un confronto indipendente. Cosa significa? Ai test sono stati invitati giornalisti rigorosamente selezionati, in veste di spettatori. Mi spiego meglio. I giornalisti sono stati invitati in questo capannone e hanno potuto vedre e filmere il test di Rossi riportando solo ed esclusivamente quelllo che l’inventore del macchinario affermava.

Ora, vedetela in questo modo. Un signore vi invita ad una dimostrazione in cui vi mostra una scatola nera in cui mette 10 euro e dall’altra parte ne escono 20. Basta, non vi viene detto altro ne’ vi vengono forniti dettagli su cosa c’e’ dentro la scatola. Non parlo a caso di scatola nera, infatti, molte delle parti dell’apparecchiatura sono tenute coperte e chiuse alla vista. Ovviamente, si tratta dei componenti fondamentali del sistema, incluso anche il misterioso catalizzatore che darebbe il via alla reazione.

Cosa dice la scienza a proposito? Come e’ facile immaginare, questo risultato non e’ stato accettato dalla comunita’ scientifica. Per sostenere qualcosa di questo tipo, seguendo i canoni della scienza, si dovrebbe mostrare il macchinario, studiare la reazione che avviene e il tutto deve essere ripetibile ovunque nelle stesse condizioni. Se queste informazioni mancano, il test e’ del tutto simile a quello di un’illusionista che vi mostra l’assistente tagliata in due all’interno di una scatola.

Come forse sapete, a seguito di questi test, e del completo rifiuto della scienza su questi risultati, Rossi e’ divenuto un “mito telematico”, metafora di quel genio che trova l’invenzione del secolo per il bene dell’umanita’ e a cui la scienza mette i bastoni tra le ruote perche’ corrotta dalle grandi multinazionali.

Se invece di gridare allo scandalo, si ragionasse su quanto detto, tutti si renderebbero conto che affermazioni di questo tipo non possono essere credibili se non verificate sperimentalmente. Il problema energetico dell’umanita’ non si risolve con la fiducia sulla parola, ma con numeri chiari verificabili e indiscutibili.

Perche’ ora, come anticipato, si parla di verifica indipendente? Nei mesi scorsi sarebbero stati condotti altri test. Questa volta pero’, avrebbero partecipato anche scienziati di diverse parti del mondo che avrebbero assistito agli esperimenti. Anche in questo caso, i risultati avrebbero mostrato un guadagno energetico del processo, confermando dunque la correttezza del metodo su cui si basa l’E-Cat.

Attenzione, facciamo una considerazione. Come premesso, in ambito commerciale, e’ lecito parlare di segreto industriale. Le regole del commercio sono diverse da quelle della scienza. A mio avviso, se il tutto venisse mostrato ad un gruppo di scienziati affidabili ed in grado di fornire un’opinione scientifica, sicuramente il test acquisterebbe di credibilita’. Purtroppo, non e’ andata cosi’.

L’altro punto fondamentale su cui si e’ dibattuo a lungo e’ la mancanza di una “peer review” sull’esperimento. Cosa significa? Quando si pubblica un articolo su una qualche rivista internazionale, si passa attraverso il processo di “referaggio”. Prima di pubblicare il lavoro, la rivista nomina un altro ricercatore internazionale di chiara fama ed esperto del settore che ha il compito di analizzare in dettaglio il contenuto dell’articolo. Se ci sono punti poco chiari, l’esperto puo’ chiedere maggiori spiegazioni al fine di chiarire il tutto ed evitare, nella migliore delle ipotesi, errori sfuggiti agli autori. Solo al termine di questo processo il vostro lavoro, se accettato, viene pubblicato.

Partendo proprio da questo punto, gli ultimi test seguiti dal gruppo di scienziati avrebbero risolto anche questo problema.

Perche’?

Solo pochi giorni fa, e’ stato pubblicato un articolo sull’archivio della Cornell University, che trovate a questo link:

ArXiv E-Cat

A questo punto, tutti i dubbi iniziali dovrebbero essere risolti: il test e’ stato eseguito indipendentemente da un gruppo di ricercatori e questi hanno anche pubblicato un articolo, ovviamente confermando i risultati dei primi test.

Cosa c’e’ che non va?

Prima di tutto, quello di cui vi ho dato il link, non e’ un articolo su rivista internazionale che ha subito un processo di peer review. Il database in questione e’ semplicemente un archivio di articoli in cui i ricercatori possono mettere i loro lavori. Non c’e’ nessun controllo sul contenuto degli articoli, a parte la buona fede dei ricercatori stessi. Generalmente, almeno nel campo della fisica, i lavori vengono caricati su arXiv prima che questi vengano pubblicati sulle riviste, cioe’ mentre e’ in corso il processo di review. Detto questo, non e’ assolutamente risolto il problema del peer review per l’E-Cat.

Purtroppo, neanche la prima critica e’ stata risolta. Come potete leggere nel testo dell’articolo, non si e’ trattato assolutamente di una verifica indipendente, ma solo di uno spettacolino riservato a persone esperte del settore. Cosa significa? Nei primi test erano stati invitati dei giornalisti, ora dei ricercatori, ma lo svolgimento e’ stato esattamente lo stesso. I ricercatori non hanno potuto toccare nulla, ma si sono limitati a guardare il test condotto da Rossi nei suoi laboratori. Inoltre, molte delle parti del sistema su cui si era discusso, sono rimaste chiuse all’interno di scatole nere in cui era impossibile guardare dentro e, come e’ facile pensare, tra queste vi era anche il misterioso catalizzatore. L’articolo di cui stiamo parlando e’ dunque un insieme di osservazioni e considerazioni fatte dai ricercatori.

Cosa e’ cambiato rispetto al passato? Ovviamente, i ricercatori intervenuti hanno potuto misurare il calore in uscita mediante una termocamera, valutando in questo modo sia la potenza in uscita che quella in ingresso utilizzando sistemi elettrici. A parte al correttezza o meno di questo processo indiretto e della valutazione dell’incertezza ottenuta misurando la potenza con una termocamera, non  si e’ assolutamente trattato di una prova “indipendente”.

C’e’ anche qualche altra considerazione importante da fare. Come detto in precedenza, a mio avviso non si e’ trattato di fusione fredda. Un processo di questo tipo necessariamente producce radiazione in uscita. Effetto non riportato in nessun caso e impossibile da schermare in sistemi di questo tipo. Tra l’altro, conosco personalmente uno dei ricercatori intervenuti ed e’ un esperto di radioprotezione dell’Universita’ di Uppsala in Svezia.

Oltre a questo, la quantita’ d rame che si sarebbe prodotta corrisponderebbe ad un rendimento del sistema molto piu’ alto di quello che ci si aspetta e soprattutto il rame in questione sarebbe non eterogeneo, cioe’ mancano isotopi diversi dalla forma piu’ commerciale e abbondamente in natura.

Ulima considerazione scientifica, dal punto di vista energetico, la fusione di nichel e idrogeno sarebbe possibile e verrebbe prodotto rame, ma la barriera coulombiana per questi nuclei e’ elevatissima. Questo solo per dire che un processo del genere a bassa energia e’ scientificamente molto difficile da digerire. Teoricamente si potrebbe citare l’effetto tunnel, ma questo non spiegherebbe neanche la certezza della reazione di fusione cosi’ come altri processi quantistici non deterministici.

Concludendo, alla luce delle considerazioni fatte e degli ultimi aggiornamenti, non pssiamo assolutamente affermare che l’E-Cat sia un sistema reale e che possa essere accettato dalla scienza. Questo non significa che potrebbe esistere questo generatore in grado di fare quello che Rossi promette. Semplicemente, se anche esistesse, non e’ comprensibile la reazione su cui sarebbe basato e soprattutto mancano dati certi su cui ragionare e da cui estrarre certezze scientifiche. Al momento, almeno secondo me, siamo ancora al livello dll’illusionista che taglia l’assistente con la sega.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.