Tag Archives: errore

La prova regina per eccellenza

21 Giu

In questi giorni sta facendo molto discutere il caso di Yara Gambirasio e l’arresto di quello che sembrerebbe il presunto assassino. Mi rendo conto che la tematica non è delle più semplici ed in questa sede, come è la natura stessa del blog, non voglio entrare in discussioni riguardanti il caso in se ne tantomeno discutere giustizialismo o meno. Come sappiamo tutti, quello che ad oggi è identificato come l’assassino di Yara è stato identificato dopo una lunga e costosa inchiesta che si è basata notevolmente sul test del DNA e sulla comparazione di circa 18000 campioni prelevati da cittadini della zona con delle tracce biologiche rinvenute su un indumento della vittima.

L’identificazione del presunto assassino ha portato però una lunga coda di discussioni sulla certezza o meno della colpevolezza. Senza entrare nel merito della discussione sulle dichiarazioni rilasciate anche da esponenti di governo, il fulcro della questione è rappresentato dalla validità o meno, o meglio dalla precisione o meno, del test del DNA eseguito.

Per cercare di capire meglio la questione, proviamo a capire come vengono eseguiti questi test e se veramente ci sono margini di errore significativi tali da mettere in discussione l’impianto accusatorio per il sospetto.

Come anticipato, durante l’inchiesta sono stati prelevati circa 18000 campioni di DNA da altrettante persone che frequentavano luoghi di interesse per l’indagine e che potevano essere entrate in contatto in qualche modo con la vittima. Tra queste persone è stato identificato un notevole grado di somiglianza tra il campione rinvenuto ed un frequentatore di una nota discoteca della zona. Da qui si è poi risaliti a tre fratelli il cui DNA era ancora più somigliante alla prova e al loro padre, morto nel 1999, ma il cui DNA è stato estratto dalla saliva dietro un bollo della patente e confermato poi dalle ossa riesumate per le indagini. Come è noto, da qui si è passati ad identificare la madre dell’assassino che avrebbe avuto una coppia di gemelli illegittimi dal padre in questione. L’identificazione madre-figlio è sempre stata fatta mediante il test del DNA e nello specifico mediante la comparazione di quello che si chiama DNA mitocondriale, trasferito interamente da madre a figlio. A questo punto, proprio nel maschio della coppia di gemelli è stato identificato il presunto assassino di Yara.

Tutta questa storia sembra più la sceneggiatura di un film o di una serie poliziesca piuttosto che una normale indagine. Ovviamente, il costo di tutte queste procedure è stato elevatissimo. Ed ora? Dopo circa 4 anni, milioni di euro spesi, perché continuiamo ad avere dubbi? Questo è il tema che vorremmo affrontare per capire meglio il perché di tutta questa discussione dopo che il test del DNA viene da diverse fonti considerata la prova regina per la risoluzione di indagini rompicapo.

Come avrete letto e ascoltato, la certezza della corrispondenza tra la traccia rinvenuta sugli indumenti e il DNA del presunto assassino è del 99,99999987%, dunque la probabilità di errore è di uno su miliardi. Allora? Uno su miliardi sembrerebbe una certezza assoluta. In realtà, non è così. Cerchiamo di capire meglio.

Per rima cosa, come viene fatto il test del DNA? Come sappiamo, la molecola del DNA, la famosa doppia elica, è composta da catene lunghissime di basi che contengono tutte le informazioni necessarie a codificare l’essere umano. Se prediamo il DNA di due persone qualsiasi, non parenti, fratelli o altro, ma persone qualsiasi, questi sono identici tra loro per circa il 99.9%. Bene, questa quasi totalità identica è quella che si chiama “genoma umano”. La restante parte del DNA è composta da sequenze non codificate e che non entrano nella sintesi proteica. Proprio questa parte è formata da sequenze di coppie che si ripetono casualmente e la cui struttura è talmente arbitraria da potersi considerare un’evoluzione moderna delle classiche impronte digitali. Detto in altri termini, questa parte minore di DNA è diversa da individuo ad individuo ma è rappresentata non da sequenze a caso, ma da coppie che si ripetono un numero fisso di volte. Bene, analizzando questa parte del DNA, cioè contando quanti e quali coppie e quante volte si ripetono, è possibile effettuare il test del DNA per confrontare tra loro due campioni. Questa tipologia di analisi è la stessa che viene utilizzata anche per il test di paternità utilizzato per riconoscere o meno un figlio.

Detto questo, se consideriamo il numero elevatissimo di combinazioni possibili di queste sequenze, una volta confrontati due campioni e visto che questi hanno le stesse sequenza ripetute, arriviamo agilmente a probabilità di appartenenza che sfiorano il 100%. In altri termini, trovato un campione di DNA, la probabilità che questo appartenga ad una persona a caso piuttosto che a colui che viene identificato è una su miliardi di casi. Tra l’altro, si tratta di un test abbastanza semplice e che è possibile portare a termine nell’arco di un paio d’ore.

Detto questo, con le probabilità che abbiamo detto prima, dove sarebbe la possibilità di errore?

In realtà, è vero che la probabilità di errore è così bassa, ma si tratta solo della probabilità che due persone possano avere le stesse sequenze ripetute nella parte di DNA analizzato. Purtroppo, come la scienza ci insegna, si deve sempre tenere conto degli errori apportati nella misura.

Cosa significa?

Come detto, in questa tipologia di misura si contano, nel vero senso del termine, le sequenze ripetute. E se ci sbagliamo a contare? Questo in realtà potrebbe essere un problema. E’ vero che la sequenza del DNA in esame, per conoscenza i microsatelliti, sono una caratteristica quasi unica, ma alcuni laboratori dichiarano percentuali di errori anche fino al 2%, dunque infinitamente maggiore di quelle considerate, nell’identificazione delle sequenze. Ora, se confrontiamo il 2% con il zero virgola tanti zeri qualcosa visto prima, le cose cambiano decisamente verso.

Oltre a questo, c’è poi il problema della contaminazione dei campioni. Molti citato in questi giorni è il cosiddetto caso del fantasma di Heilbronn, un caso del 1993 in cui in numerosi omicidi in Germania venne rinvenuto lo stesso DNA appartenente ad una donna. Nei mesi successivi, lo stesso campione venne identificato anche in altri casi simili ma in paesi diversi. Da qui, come è ovvio, si pensò ad un caso di serial killer europeo autore di tantissimi omicidi. Il tutto si risolse poi nel nulla quando dopo qualche anno si capì che il DNA in questione apparteneva ad una operaia della ditta che forniva i campioni per i test a diversi paesi e che per errore era entrata in contatto con materiale dopo la sterilizzazione.

Ovviamente, quello del fantasma di Heilbronn è un caso limite, ma ci fa capire come le probabilità di errore sono sempre presenti e non si limitano alla sola precisione del test che, sbagliando, viene spesso citata da sola.

Detto questo, anche in termini giuridici, il test del DNA, in casi come questo, viene considerato come un forte indizio ma non come una prova schiacciante. Come potete capire, per poter chiudere definitivamente il caso è necessario ricostruire il tutto e inchiodare con certezza il soggetto identificato dal test con tutta una serie di altri indizi che rendono la cosa inattaccabile. Questa è la ricostruzione dell’impianto accusatorio a cui si sono appellati gli avvocati difensori di quello che, ad oggi, possiamo considerare il sospettato numero uno.

Solo per chiarire il tutto, insieme al test del DNA in questi giorni viene spesso citato il database dei cellulari che si sono agganciati alla cella telefonica del campo in cui è stato rinvenuto il corpo. Proprio nell’articolo precedente:

Tempeste solari e problemi ai telefoni?

abbiamo parlato di rete mobile parlando della zona coperta dalla cella intesa come stazione mobile. Anche su quest’altra prova a sostegno, gli avvocati difensori si sono appellati al fatto che la stessa cella copre sia il campo già citato, ma anche abitazioni in cui il sospetto poteva essere in quel momento perché di sua proprietà o di parenti stretti.

Dunque? Sicuramente la persona identificata ha un pesante e sospetto di colpevolezza ma, come visto, prima di poter dichiarare il caso chiuso, sarà necessario ricostruire molti altri dettagli che metteranno in correlazione l’assassino con la la vittima e, soprattutto, chiuderanno il caso con una perfetta ricostruzione di quanto accaduto. Divulgare notizie troppo velocemente, potrebbe solo complicare l’indagine e rallentare il lavoro degli inquirenti.

Restiamo dunque in attesa di seguire l’evolversi delle indagini anche se, per una accusa di colpevolezza, serve sempre il processo!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

L’espansione metrica dell’universo

8 Apr

In questo blog, abbiamo dedicato diversi articoli al nostro universo, alla sua storia, al suo destino, alla tipologia di materia o non materia di cui e’ formato, cercando, come e’ ovvio, ogni volta di mettere il tutto in una forma quanto piu’ possibile comprensibile e divulgativa. Per chi avesse perso questi articoli, o solo come semplice ripasso, vi riporto qualche link riassuntivo:

E parliamo di questo Big Bang

Il primo vagito dell’universo

Universo: foto da piccolo

La materia oscura

Materia oscura intorno alla Terra?

Due parole sull’antimateria

Flusso oscuro e grandi attrattori

Ascoltate finalmente le onde gravitazionali?

Come e’ ovvio, rendere questi concetti fruibili a fini divulgativi non e’ semplice. Per prima cosa, si deve evitare di mettere formule matematiche e, soprattutto, si deve sempre riflettere molto bene su ogni singola frase. Un concetto che potrebbe sembrare scontato e banale per un addetto ai lavori, potrebbe essere del tutto sconosciuto a chi, non avendo basi scientifiche solide, prova ad informarsi su argomenti di questo tipo.

Perche’ faccio questo preambolo?

Pochi giorni fa, un nostro lettore mi ha contatto via mail per chiedermi di spiegare meglio il discorso dell’espansione dell’universo. Per essere precisi, la domanda era relativa non all’espansione in se, ma a quella che viene appunto definita “espansione metrica” dell’universo. Cosa significa? Come visto varie volte, l’idea comunemente accettata e’ che l’universo sia nato da un Big Bang e durante questa espansione si sono prima formate le forze, il tempo, le particelle, poi i pianeti, le galassie e via dicendo. Ci sono prove di questo? Assolutamente si e ne abbiamo parlato, anche in questo caso, piu’ volte: la radiazione cosmica di fondo, lo spostamento verso il rosso delle galassie lontane, le conclusioni stesse portate dalla scoperta del bosone di Higgs e via dicendo. Dunque? Che significa espansione metrica dell’universo? In parole povere, noi diciamo che l’universo si sta espandendo, e che sta anche accelerando, ma come possiamo essere certi di questo? Che forma ha l’universo? Per quanto ancora si espandera’? Poi cosa succedera’? Sempre nella domanda iniziale, veniva posto anche un quesito molto interessante: ma se non fosse l’universo ad espandersi ma la materia a contrarsi? L’effetto sarebbe lo stesso perche’ la mutua distanza tra due corpi aumenterebbe nel tempo dando esattamente lo stesso effetto apparente che vediamo oggi.

Come potete capire, di domande ne abbiamo fin troppe a cui rispondere. Purtroppo, e lo dico in tutta sincerita’, rendere in forma divulgativa questi concetti non e’ molto semplice. Come potete verificare, raccontare a parole che il tutto sia nato da un Big Bang, che ci sia stata l’inflazione e si sia formata la radiazione di fondo e’ cosa abbastanza fattibile, parlare invece di forma dell’universo e metrica non e’ assolutamente semplice soprattutto senza poter citare formule matematiche che per essere comprese richiedono delle solide basi scientifiche su cui ragionare.

Cerchiamo dunque di andare con ordine e parlare dei vari quesiti aperti.

Come visto in altri articoli, si dice che il Big Bang non e’ avvenuto in un punto preciso ma ovunque e l’effetto dell’espansione e’ visibile perche’ ogni coppia di punti si allontana come se ciascun punto dell’universo fosse centro dell’espansione. Cosa significa? L’esempio classico che viene fatto e’ quello del palloncino su cui vengono disegnati dei punti:

Esempio del palloncino per spiegare l'espansione dell'universo

Esempio del palloncino per spiegare l’espansione dell’universo

Quando gonfiate il palloncino, i punti presenti sulla superficie si allontanano tra loro e questo e’ vero per qualsiasi coppia di punti. Se immaginiamo di essere su un punto della superficie, vedremo tutti gli altri punti che si allontanano da noi. Bene, questo e’ l’esempio del Big Bang.

Ci sono prove di questo? Assolutamente si. La presenza della CMB e’ proprio un’evidenza che ci sia stato un Big Bang iniziale. Poi c’e’ lo spostamento verso il rosso, come viene definito, delle galassie lontane. Cosa significa questo? Siamo sulla Terra e osserviamo le galassie lontane. La radiazione che ci arriva, non necessariamente con una lunghezza d’onda nel visibile, e’ caratteristica del corpo che la emette. Misurando questa radiazione ci accorgiamo pero’ che la frequenza, o la lunghezza d’onda, sono spostate verso il rosso, cioe’ la lunghezza d’onda e’ maggiore di quella che ci aspetteremmo. Perche’ avviene questo? Questo effetto e’ prodotto proprio dal fatto che la sorgente che emette la radiazione e’ in moto rispetto a noi e poiche’ lo spostamento e’ verso il rosso, questa sorgente si sta allontanando. A questo punto sorge pero’ un quesito molto semplice e comune a molti. Come sapete, per quanto grande rapportata alle nostre scale, la velocita’ della luce non e’ infinita ma ha un valore ben preciso. Questo significa che la radiazione emessa dal corpo lontano impiega un tempo non nullo per raggiungere la Terra. Come spesso si dice, quando osserviamo stelle lontane non guardiamo la stella come e’ oggi, ma come appariva quando la radiazione e’ stata emessa. Facciamo l’esempio classico e facile del Sole. La luce emessa dal Sole impiega 8 minuti per arrivare sulla Terra. Se noi guardiamo ora il Sole lo vediamo come era 8 minuti fa. Se, per assurdo, il sole dovesse scomparire improvvisamente da un momento all’altro, noi ce ne accorgeremmo dopo 8 minuti. Ora, se pensiamo ad una stella lontana 100 anni luce da noi, quella che vediamo e’ la stella non come e’ oggi, ma come era 100 anni fa. Tornando allo spostamento verso il rosso, poiche’ parliamo di galassie lontane, la radiazione che ci arriva e’ stata emessa moltissimo tempo fa. Domanda: osservando la luce notiamo uno spostamento verso il rosso ma questa luce e’ stata emessa, supponiamo, mille anni fa. Da quanto detto si potrebbe concludere che l’universo magari era in espansione 1000 anni fa, come da esempio, mentre oggi non lo e’ piu’. In realta’, non e’ cosi’. Lo spostamento verso il rosso avviene a causa del movimento odierno tra i corpi e dunque utilizzare galassie lontane ci consente di osservare fotoni che hanno viaggiato piu’ a lungo e da cui si ottengono misure piu’ precise. Dunque, da queste misure, l’universo e’ in espansione e’ lo e’ adesso. Queste misurazioni sono quelle che hanno portato Hubble a formulare la sua famosa legge da cui si e’ ricavata per la prima volta l’evidenza di un universo in espansione.

Bene, l’universo e’ in espansione, ma se ci pensate questo risultato e’ in apparente paradosso se pensiamo alla forza di gravita’. Perche’? Negli articoli precedentemente citati, abbiamo piu’ volte parlato della gravita’ citando la teoria della gravitazione universale di Newton. Come e’ noto, due masse poste a distanza r si attraggono con una forza che dipende dal prodotto delle masse ed e’ inversamente proporzionale al quadrato della loro distanza. Ora, nel nostro universo ci sono masse distribuite qui a la in modo piu’ o meno uniforme. Se pensiamo solo alla forza di gravita’, una coppia qualunque di queste masse si attrae e quindi le due masse tenderanno ad avvicinarsi. Se anche pensiamo ad una spinta iniziale data dal Big Bang, ad un certo punto questa spinta dovra’ terminare controbilanciata dalla somma delle forze di attrazione gravitazionale. In altre parole, non e’ possibile pensare ad un universo che si espande sempre se abbiamo solo forze attrattive che lo governano.

Questo problema ha angosciato l’esistenza di molti scienziati a partire dai primi anni del ‘900. Lo stesso Einstein, per cercare di risolvere questo problema dovette introdurre nella Relativita’ Generale quella che defini’ una costante cosmologica, a suo avviso, un artificio di calcolo che serviva per bilanciare in qualche modo l’attrazione gravitazionale. L’introduzione di questa costante venne definita dallo stesso Einstein il piu’ grande errore della sua vita. Oggi sappiamo che non e’ cosi’, e che la costante cosmologica e’ necessaria nelle equazioni non come artificio di calcolo ma, in ultima analisi, proprio per giustificare la presenza di componenti non barioniche, energia oscura in primis, che consentono di spiegare l’espansione dell’universo. Se vogliamo essere precisi, Einstein introdusse la costante non per avere un universo in espansione bensi’ un universo statico nel tempo. In altre parole, la sua costante serviva proprio a bilanciare esattamente l’attrazione e rendere il tutto fermo. Solo osservazioni successive, tra cui quella gia’ citata dello stesso Hubble, confermarono che l’universo non era assolutamente statico bensi’ in espansione.

Ora, a questo punto, potremmo decidere insieme di suicidarci dal punto di vista divulgativo e parlare della metrica dell’universo, di coordinate comoventi, ecc. Ma questo, ovviamente, implicherebbe fogli di calcoli e basi scientifiche non banali. Abbiamo le prove che l’universo e’ in espansione, dunque, ad esempio, guardando dalla Terra vediamo gli altri corpi che si allontanano da noi. Come si allontanano? O meglio, di nuovo, che forma avrebbe questo universo?

L’esempio del palloncino fatto prima per spiegare l’espansione dell’universo, e’ molto utile per far capire questi concetti, ma assolutamente fuoriviante se non ci si riflette abbstanza. Molto spesso, si confonde questo esempio affermando che l’universo sia rappresentato dall’intero palloncino compreso il suo volume interno. Questo e’ concettualmente sbagliato. Come detto in precedenza, i punti si trovano solo ed esclusivamente sulla superficie esterna del palloncino che rappresenta il nostro universo.

A complicare, o a confondere, ancora di piu’ le idee c’e’ l’esempio del pane con l’uvetta che viene usato per spiegare l’espansione dell’universo. Anche su wikipedia trovate questo esempio rappresentato con una bella animazione:

Esempio del pane dell'uvetta utilizzato per spiegare l'aumento della distanza tra i punti

Esempio del pane dell’uvetta utilizzato per spiegare l’aumento della distanza tra i punti

Come vedete, durante l’espansione la distanza tra i punti cresce perche’ i punti stessi, cioe’ i corpi presenti nell’universo, vengono trascinati dall’espansione. Tornado alla domanda iniziale da cui siamo partiti, potremmo penare che in realta’ lo spazio resti a volume costante e quello che diminuisce e’ il volume della materia. Il lettore che ci ha fatto la domanda, mi ha anche inviato una figura esplicativa per spiegare meglio il concetto:

Confronto tra il modello di aumento dello spazio e quello di restringimento della materia

Confronto tra il modello di aumento dello spazio e quello di restringimento della materia

Come vedete, pensando ad una contrazione della materia, avremmo esattamente lo stesso effetto con la distanza mutua tra i corpi che aumenta mentre il volume occupato dall’universo resta costante.

Ragioniamo pero’ su questo concetto. Come detto, a supporto dell’espansione dell’universo, abbiamo la legge di Hubble, e anche altre prove, che ci permettono di dire che l’universo si sta espandendo. In particolare, lo spostamento verso il rosso della radiazione emessa ci conferma che e’ aumentato lo spazio tra i corpi considerati, sorgente di radiazione e bersaglio. Inoltre, la presenza dell’energia oscura serve proprio a spiegare questa evoluzione dell’universo. Se la condizione fosse quella riportata nell’immagine, cioe’ con la materia che si contrae, non ci sarebbe lo spostamento verso il rosso, e anche quello che viene definito Modello Standard del Cosmo, di cui abbiamo verifiche sperimentali, non sarebbe utilizzabile.

Resta pero’ da capire, e ritorno nuovamente su questo punto, che forma dovrebbe avere il nostro universo. Non sto cercando di volta in volta di scappare a questa domanda, semplicemente, stiamo cercando di costruire delle basi, divulgative, che ci possano consentire di capire questi ulteriori concetti.

Come detto, parlando del palloncino, non dobbiamo fare l’errore di considerare tutto il volume, ma solo la sua superificie. In particolare, come si dice in fisica, per capire la forma dell’universo dobbiamo capire che tipo di geometria assegnare allo spazio-tempo. Purtroppo, come imparato a scuola, siamo abituati a pensare alla geometria Euclidea, cioe’ quella che viene costruita su una superifice piana. In altre parole, siamo abituati a pensare che la somma degli angoli interni di un traiangolo sia di 180 gradi. Questo pero’ e’ vero solo per un triangolo disegnato su un piano. Non e’ assolutamente detto a priori che il nostro universo abbia una geometria Euclidea, cioe’ che sia piano.

Cosa significa?

Come e’ possibile dimostrare, la forma dell’universo dipende dalla densita’ di materia in esso contenuta. Come visto in precedenza, dipende dunque, come e’ ovvio pensare, dall’intensita’ della forza di attrazione gravitazionale presente. In particolare possiamo definire 3 curvature possibili in funzione del rapporto tra la densita’ di materia e quella che viene definita “densita’ critica”, cioe’ la quantita’ di materia che a causa dell’attrazione sarebbe in grado di fermare l’espasione. Graficamente, le tre curvature possibili vengono rappresentate con tre forme ben distinte:

Curvature possibili per l'universo in base al rapporto tra densita' di materia e densita' critica

Curvature possibili per l’universo in base al rapporto tra densita’ di materia e densita’ critica

Cosa significa? Se il rapporto e’ minore di uno, cioe’ non c’e’ massa a sufficienza per fermare l’espansione, questa continuera’ per un tempo infinito senza arrestarsi. In questo caso si parla di spazio a forma di sella. Se invece la curvatura e’ positiva, cioe’ la massa presente e’ maggiore del valore critico, l’espansione e’ destinata ad arrestarsi e l’universo iniziera’ ad un certo punto a contrarsi arrivando ad un Big Crunch, opposto al Big Bang. In questo caso la geometria dell’universo e’ rappresentata dalla sfera. Se invece la densita’ di materia presente e’ esattamente identica alla densita’ critica, in questo caso abbiamo una superficie piatta, cioe’ Euclidea, e l’espansione si arrestera’ ma solo dopo un tempo infinito.

Come potete capire, la densita’ di materia contenuta nell’universo determina non solo la forma di quest’ultimo, ma anche il suo destino ultimo in termini di espansione o contrazione. Fate pero’ attenzione ad un altro aspetto importante e molto spesso dimenticato. Se misuriamo questo rapporto di densita’, sappiamo automaticamente che forma ha il nostro universo? E’ vero il discorso sul suo destino ultimo, ma le rappresentazioni grafiche mostrate sono solo esplicative e non rappresentanti la realta’.

Perche’?

Semplice, per disegnare queste superifici, ripeto utilizzate solo per mostrare graficamente le diverse forme, come si e’ proceduto? Si e’ presa una superficie bidimensionale, l’equivalente di un foglio, e lo si e’ piegato seguendo le indicazioni date dal valore del rapporto di densita’. In realta’, lo spazio tempo e’ quadrimensionale, cioe’ ha 3 dimensioni spaziali e una temporale. Come potete capire molto facilmente, e’ impossibile sia disegnare che immaginare una superificie in uno spazio a 4 dimensioni! Questo significa che le forme rappresentate sono esplicative per far capire le differenze di forma, ma non rappresentano assolutamnete la reale forma dell’universo dal momento che sono ottenute eliminando una coordinata spaziale.

Qual e’ oggi il valore di questo rapporto di densita’? Come e’ ovvio, questo valore deve essere estrapolato basandosi sui dati raccolti da misure osservative nello spazio. Dal momento che sarebbe impossibile “contare” tutta la materia, questi valori vengono utilizzati per estrapolare poi il numero di barioni prodotti nel Big Bang. I migliori valori ottenuti oggi danno rapporti che sembrerebbero a cavallo di 1 anche se con incertezze ancora troppo elevate per avere una risposta definitiva.

Concludendo, affrontare queste tematiche in chiave divulgativa non e’ assolutamente semplice. Per quanto possibile, e nel limite delle mie possibilita’, spero di essere riuscito a farvi capire prima di tutto quali sono le verifiche sperimentali di cui disponiamo oggi e che sostengono le teorie di cui tanto sentiamo parlare. Queste misure, dirette o indirette che siano, ci permettono di capire che il nostro universo e’ con buona probabilita’ nato da un Big Bang, che sta attualmente espandendosi e questa espansione, almeno allo stato attuale, e’ destinata a fermarsi solo dopo un tempo infinito. Sicuramente, qualunque sia il destino ultimo del nostro universo, questo avverra’ in un tempo assolutamente molto piu’ grande della scala umana e solo la ricerca e la continua osservazione del cosmo ci possono permettere di fare chiarezza un poco alla volta.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’universo e’ stabile, instabile o meta-stabile?

25 Mar

Negli ultimi articoli, complici anche i tantissimi commenti e domande fatte, siamo tornati a parlare di ricerca e delle ultime misure scientifiche che tanto hanno fatto discutere. Come fatto notare pero’, molto spesso, queste discussioni che dovrebbero essere squisitamente scientifiche lasciano adito ad articoli su giornali, anche a diffusione nazionale, che male intendono o approfittano del clamore per sparare sentenze senza senso e, lasciatemelo dire, assolutamente fuori luogo.

In particole, nell’articolo precedente, abbiamo discusso l’ultima misura della massa del quark top ottenuta mediante la collaborazione dei fisici di LHC e del Tevetron. Questo risultato e’ il piu’ preciso mai ottenuto prima e ci consente, di volta in volta, di migliorare la nostra conoscenza, come spesso ripeto, sempre troppo risicata e assolutamente lontana dalla comprensione del tutto.

Per discutere la misura della massa del top, siamo partiti da una notizia apparsa sui giornali che parlava di un universo pronto a dissolversi da un istante all’altro. Premesso che, come fatto notare, questa notizia era completamente campata in aria, su suggerimento di una nostra cara lettrice, ci e’ stato chiesto di discutere con maggior dettaglio quello che molti chiamano il destino ultimo del nostro universo. Come forse avrete sentito, su alcune fonti si parla spesso di universo stabile, instabile o meta-stabile farfugliando, nel vero senso della parola, come questa particolarita’ sia legata alla massa di qualche particella.

Cerchiamo dunque di spiegare questo importante e non banale concetto cercando sempre di mantenere un approccio quanto possibile divulgativo.

Per prima cosa, dobbiamo tornare a parlare del bosone di Higgs. Come forse ricorderete, in un articolo specifico:

Bosone di Higgs, ma che sarebbe? 

abbiamo gia’ affrontato la sua scoperta, cercando in particolare di spiegare il perche’ l’evidenza di questa particella sarebbe cosi’ importnate nell’ambito del modello standard e della fisica delle alte energie. Come fatto notare pero’, anche in questo caso, parliamo ancora di “evidenza” e non di “scoperta”. Visto che me lo avete chiesto direttamente, ci tengo a sottolineare questa importante differenza.

Come sapete, la fisica e’ detta una “scienza esatta”. Il motivo di questa definizione e’ alquanto semplice: la fisica non e’ esatta perche’ basata su informazioni infinitamente esatte, ma perche’ ogni misura e’ accompagnata sempre da un’incertezza esattamente quantificata. Questa incertezza, e’ quella che comunemente viene chiamato “errore”, cioe’ il grado di confidenza statistico che si ha su un determinato valore. Per poter parlare di evidenza, e’ necessario che la probabilita’ di essersi sbagliati sia inferiore di un certo valore, ovviamente molto basso. Per poter invece gridare alla scoperta, la probabiita’ statistica che quanto misurato sia un errore deve essere ancora piu’ bassa. Questo grado di confidenza, ripeto prettamente statistico, e’ quello che spesso sentiamo valutare riferendosi alla “sigma” o “all’incertezza”.

Bene, tornando al bosone di Higgs, perche’ si dice che ancora non c’e’ la sicurezza che quanto osservato sia proprio quell’Higgs che cerchiamo? Semplice, il grado di confidenza, non ci consente ancora di poter affermare con sicurezza statistica che la particella osservata sia proprio il bosone di Higgs che cerchiamo e non “un” bosone di Higgs o un’altra particella. Come ormai sappiamo, il bosone di Higgs tanto cercato e’ proprio quello relativo al campo di Higgs che determina la massa delle particelle. Per poter essere quel bosone, la particella deve essere, in particolare, scalare e con spin zero. Che significa? Praticamente, queste sono le caratteristiche che definiscono l’identikit dell’Higgs che cerchiamo. Se per quanto riguarda il fatto di essere scalare siamo convinti, per lo spin della particella, dal momento che decade in due fotoni, potrebbe avere spin 0 o 2. Per poter essere sicuri che lo spin sia proprio zero, sara’ necessario raccogliere ancora piu’ dati per determinare con sicurezza questa proprieta’ anche se statisticamente possiamo escludere con una certa incetezza che lo spin sia 2.

Detto questo, e supposto, con una buona confidenza statistica, che quanto trovato sia proprio il bosone di Higgs, sappiamo che la massa trovata per questa particella e’ 125.6 GeV con un un’incertezza totale di 0.4 GeV. Questo valore della massa ha pero’ aperto le porte per una discussione teorica molto accesa e di cui si inizia a parlare anche sui giornali non prettamente scientifici.

Perche’?

Come anticipato, la massa del bosone di Higgs determina la condizione di stabilita’ o instabilita’ del nostro universo. Perche’ proprio l’Higgs? Ovviamente, questo bosone e’ correlato con il campo scalare di Higgs, cioe’ quello che assegna la massa delle particelle. Ora pero’, nel modello standard, troviamo particelle che hanno masse anche molto diverse tra loro. Se osserviamo i quark, passiamo dall’up, il piu’ leggero, al top, il piu’ pesante, con una differenza di massa veramente enorme per particelle che appartengono alla stessa “famiglia”. Detto questo, per determinare la condizione di equilibrio, e tra poco spiegheremo cosa significa, del nostro universo, e’ possibile ragionare considerando proprio le masse dell’Higgs e del top.

In che modo?

Senza spendere troppe parole, vi mostro un grafico molto significativo:

 

Stabilita' dell'universo data dalla correlazione delle masse Top-Higgs

Stabilita’ dell’universo data dalla correlazione delle masse Top-Higgs

Cosa significa questo grafico? Come potete vedere, incrociando il valore della massa del top con quella dell’Higgs e’ possibile capire in quale zona ci troviamo, appunto: stabile, instabile o meta-stabile. Scientificamente, queste sono le condizioni in cui puo’ trovarsi quello che e’ definito vuoto quantomeccanico dell’universo. Se l’universo fosse instabile, allora sarebbe transitato in una successione di stati diversi senza poter formare strutture complesse dovute all’evoluzione. Come potete facilmente capire, in questo caso, noi oggi non saremo qui ad interrogarci su come e’ fatto l’universo dal momento che non avremmo avuto neanche la possibilita’ di fare la nostra comparsa. In caso di universo stabile invece, come il termine stesso suggerisce, tutto rimane in uno stato stazionario senza grosse modificazioni. Meta-stabile invece cosa significa? Questo e’ un termine ricavato direttamente dalla termodinamica. Detto molto semplicemente, un sistema meta-stabile si trova in una posizione di minimo di energia non assoluto. Cioe’? Detto in altri termini, il sistema e’ in uno stato di equilibrio, ma sotto particolari condizioni puo’ uscire da questo stato e scendere verso qualcosa di piu’ stabile ancora. Per capirlo meglio, immaginate di mettere una scodella sul pavimento con dentro una pallina. Se muovete di poco la pallina questa oscillera’ e ricadra’ sul fondo, posizione di equilibrio meta-stabile. Se date un colpo piu’ forte, la pallina uscira’ dalla scodella e andra’ sul pavimento. A questo punto pero’ il vostro sistema immaginario ha raggiunto la posizione piu’ stabile.

Ora, capite bene quanto sia importante e interessante capire che tipo di sistema e’ il nostro universo per determinare eventuali e future evoluzioni temporali che potrebbero avvenire. Come visto nel grafico precedente, per capire lo stato dell’universo possiamo valutare le masse del top e dell’Higgs.

Cosa otteniamo con i valori delle masse oggi conosciuti? Come potete vedere, come per un simpatico scherzo, la massa dell’Higgs ci posizione proprio nella strettissima zona di meta-stabilita’ del nostro universo. Come anticipato, il fatto di non essere nella zona di instabilita’ e’ assolutamente comprensibile pensando al fatto che noi oggi siamo qui. Certo, una massa superiore a 126 GeV ci avrebbe piazzato nella zona stabile dove, come si dice nelle favole, “vissero felici e contenti”. Cosa comporta il fatto di essere nella regione di meta-stabilita’? Come qualcuno, incurante della scienza, cerca di farvi credere, siamo in bilico su una corda. Il nostro universo da un momento all’altro potrebbe transitare verso uno stato piu’ stabile modificando radicalmente le proprieta’ del vuoto quantomeccanico. In questo caso, il nostro universo collasserebbe e segnebbe la nostra fine.

E’ vero questo?

Assolutamente no. Prima di tutto, cerchiamo di ragionare. Come detto, la massa attuale del bosone di Higgs e’ 125.6+/-0.4 GeV. Questo significa che entro una certa probabilita’, piu’ del 15%, la massa del bosone potrebbe essere maggiore di 126 GeV. In questo caso la misura sarebbe pienamente della regione “stabile” dell’universo. Ovviamente, per poter determinare con precisione questo valore e’ necessario ridurre l’incertezza che accompagna la misura in modo da “stringere” l’intervallo entro cui potrebbe essere compresa questa massa.

Se anche l’universo fosse in uno stato meta-stabile, non possiamo certo pensare che da un momento all’altro questo potrebbe uscire dallo stato di equilibrio e transitare verso altro se non in particolari condizioni. Vi ripeto nuovamente come in questo caso ci stiamo muovendo all’interno di ragionamenti prettamente teorici in cui gli stessi principi della fisica che oggi conosciamo potrebbero non essere validi. Secondo alcuni infatti, la stessa evoluzione dell’universo che ha portato oggi fino a noi potrebbe essere stata possibile proprio grazie alla natura meta-stabile del vuoto quantomeccanico.

Come ricorderete, in questi articoli:

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

cosi’ come in tutti quelli richiamati a loro volta, abbiamo parlato dell’inflazione, cioe’ di quel particolare periodo nell’evoluzione dell’universo che ha portato ad una notevole espansione in tempi brevissimi. Conseguenza dell’inflazione e’ l’avere un universo omogeneo ed isotropo ed in cui le fluttuazione della radiazione di fondo sono molto ridotte. Bene, il bosone di Higgs potrebbe avere avuto un ruolo decisivo per l’innesco del periodo inflazionario. Secondo alcune teorie, infatti, le condizioni fisiche per poter accendere l’inflazione potrebbero essere state date da una particella scalare e l’Higgs potrebbe appunto essere questa particella. Se proprio devo aprire una parentesi, per poter affermare con sicurezza questa cosa, dobbiamo essere sicuri che la fisica che conosciamo oggi possa essere applicata anche in quella particolare fase dell’universo, cioe’ che i modelli attualmente conosciuti possano essere estrapolati a quella che viene comunemente definita massa di Planck dove tutte le forze fondamentali si riunificano. Ovviamente, per poter affermare con sicurezza queste teorie sono necessarie ancora molte ricerche per determinare tutti i tasselli che ancora mancano a questo puzzle.

Seguendo questa chiave di lettura, il fatto di essere in un universo meta-stabile, piu’ che un rischio potrebbe essere stata proprio la caratteristica che ha permesso l’evoluzione che poi ha portato fino ai giorni nostri, con la razza umana presente sulla Terra.

Altro aspetto curioso e importante della meta-stabilita’ dell’universo e’ la possibilita’ di includere i cosiddetti multiversi. Detto molto semplicemente, il fatto che l’universo sia meta-stabile apre gli scenari ad una serie di universi paralleli tutti uno di seguito all’altro caratterizzati da valori continui di alcuni parametri fisici. Non si tratta di racconti fantascientifici o di fantasia ma di vere e proprie teorie fisiche riguardanti il nostro universo.

Concludendo, la scoperta, o l’evidenza, del bosone di Higgs e’ stata sicuramente un ottimo risultato raggiunto dalla fisica delle alte energie, ma certamente non un punto di arrivo. La misura, ancora solo preliminare, della massa della particella apre le porte a scenari di nuova fisica o di considerazioni molto importanti circa la natura del nostro stesso universo. Come visto in questo articolo, quelli che apparentemente potrebbero sembrare campi del sapere completamente diversi e lontani, l’infinitamente piccolo e l’infinitamente grande, sono in realta’ correlati tra loro proprio da singole misure, come quella della massa dell’Higgs. A questo punto, capite bene come lo scneario si fa sempre piu’ interessante e sara’ necessario fare ancora nuove ricerche prima di arrivare a qualcosa di certo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Materia oscura intorno alla Terra?

7 Gen

Come sapete, e’ sempre interessante leggere le notizie nelle sezioni di scienze di alcuni giornali, si trovano sempre delle chicche di tutto rispetto. Negli ultimi giorni, sono apparsi tantissimi articoli che parlano di una nuova sensazionale scoperta. Un ricercatore dell’universita’ del Texas, tale Ben Harris, avrebbe condotto una serie di misure utilizzando i satelliti delle costellazioni gps di Galileo e Glonass.

Se volete maggiori info sul gps, su come funziona e della scienza che c’e’ sotto, abbiamo pubblicato un articolo anche su questo:

Il sistema di posizionamento Galileo

Tornando alla notizia principale, cosa si sarebbe scoperto da queste misure: utilizzando i dati inviati dai satelliti negli ultimi 6 mesi, si sarebbe evidenziata un’anomalia del valore della massa della Terra rispetto a quella comunemente conosciuta. L’entita’ di questa differenza e’ tra lo 0,005 e lo 0,008% del valore noto.

Come si spiega questa differenza?

Dal momento che il moto dei satelliti e’ determinato dall’attrazione gravitazionale che il nostro pianeta esercita, in realta’ che anche i satelliti esercitano sulla Terra, questa differenza deve essere dovuta ad un’anomalia gravitazionale. Una delle spiegazioni date da Harris e’ che sia presente un disco di materia oscura intorno al nostro pianeta, tale da influenzare l’attrazione gravitazionale.

Di materia oscura abbiamo parlato in questo articolo:

La materia oscura

Poiche’, secondo le ipotesi, questa forma non convenzionale di energia esercitrebbe attrazione gravitazionale, la sua presenza influenzerebbe il moto dei satelliti falsando appunto la massa della Terra rispetto al valore conosciuto. Per essere precisi, dalle misure condotte, questo anello, posizionato intorno all’equatore terrestre, avrebbe uno spessore di 191 Km e una larghezza di ben 70000 Km.

Piccola parentesi, oltre ai tanti giornali, anche i siti catastrofisti hanno riportato la notizia, ovviamente a modo loro e aggiungendo dettagli inutili quanto inventati. Non manca certo chi sostiene che l’anello sia stato messo li da scienziati compiacenti o da extraterrestri che stanno iniziando la fase di conquista del nostro pianeta. Non credo sia il caso di ragionare su queste osservazioni che lasciano davvero il tempo che trovano.

Detto questo, ragioniamo un attimo sulla notizia, cercando di fare qualche considerazione aggiuntiva.

Come avrete notato, ho riportato, al contrario di molti giornali, tutta la notizia al condizionale. Non e’ assolutamente una licenza di stile, ma l’ho fatto perche’ quanto riportato non e’ assolutamente certo.

Vi spiego il perche’.

Come trovate in rete, le misure in questione sono state presentate da Harris nel corso del meeting annuale dell’unione geofisica americana, anche detta AGU. Ovviamente si tratta di misure reali e scientifiche, che pero’ vanno considerate come “preliminari”.

Permettetemi una considerazione statistica. Come detto, la differenza rispetto alla massa conosciuta e’ tra lo 0,005 e lo 0,008%. Ora, tra 0,005 e 0,008, la differenza non e’ assolutamente poca. In realta’, l’ampiezza di questo intervallo ci fa capire la precisione delle misure fatte. Per essere precisi, i due valori sono ottenuti utilizzando una volta la costellazione Glonass e un’altra quella Galileo. Il fatto che due misure indipendenti diano valori cosi’ diversi, non e’ assolutamente un dettaglio trascurabile.

Detto questo, durante la stessa riunione, dopo la presentazione dei risultati da parte di Harris, e’ stato evidenziato come le misure siano in realta’ falsate perche’ mancanti di correzioni molto importanti. Quali? Nella modellizzazione del moto dei satelliti, non sono state incluse le attrazioni da parte del Sole e della Luna. Inoltre, mancano da includere le correzioni dovute alla relativita’, assolutamente necessarie, come potete leggere nell’articolo sul sistema Galileo, per ottenere risultati veritieri.

La mancanza di queste correzioni, che potrebbero modificare sostanzialmente il risultato preliminare, fa si che i dati ottenuti siano del tutto preliminari. In questo stato, e’ assolutamente fuorviante e frettoloso fare conclusioni come quelle riportate in precedenza del disco di materia oscura.

Perche’ si e’ fatto questo?

Esistono varie risposte possibili. La prima, un po’ cattiva, e’ che si e’ voluto presentare un lavoro incompleto solo per attirare un po’ di attenzione. L’altra possibilita’ e’ che si sia voluta mostrare questa differenza rispetto al valore della massa conosciuta solo per ricevere commenti utili con cui correggere il tiro. Entrambe le risposte sono possibili. Molto spesso alle conferenze si presentano risultati preliminari solo per valutare la risposta della comunita’ scientifica di riferimento. Ultimamente pero’, si puo’ avere una fuga di notizie che porta ad articoli, come quelli sui nostri giornali, che puntano ala scoperta del secolo.

Concludendo, i dati ottenuti mostrano ovviamente una differenza della massa della Terra rispetto a quella nota. Questa discrepanza potrebbe essere dovuta ad un errore di calcolo, a correzioni molto importanti non ancora conteggiate o, anche, alla presenza di materia oscura intorno alla Terra. Personalmente, credo sia presto per parlare di quest’ultima ipotesi. Questa storia, e lo dico a malincuore, mi ricorda molto quella della velocita’ dei neutrini misurata ad Opera, poi smentita con la testa tra le gambe.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Inquinamento e disturbi dell’uomo

31 Ott

Attraverso la sezione:

Hai domande o dubbi

un nostro caro lettore ci ha fatto una domanda molto complessa, ma estremamente affascinante. In sintesi la richiesta e’: esistono delle correlazioni certe tra inquinamento o modificazioni dei mangimi degli animali e disturbi nell’uomo? Con disturbi intendiamo patologie che vanno dall’aumento dell’insorgenza delle allergie fino ai tumori.

Come potete facilmente capire, questa domanda e’ molto complessa, soprattutto perche’ tocca moltissimi argomenti, non sempre chiari. Con questo intendo dire che, come di sovente accade, li dove ci sono interessi economici, non sempre la quantita’ di dati disponibili e’ cosi’ vasta. In questo poi ci dobbiamo mettere anche la cattiva informazione dilagante in rete, sia da un lato che dall”altro. Chi deve guadagnare da queste attivita’, dice che e’ tutto nella norma, chi invece le vuole combattere vede nero ovunque. In questo scenario, non e’ semplice trovre la giusta via che, il piu’ delle volte, e’ nel mezzo.

Fatta questa breve introduzione, cerchiamo di trovare noi il nostro equilibrio e le nostre risposte cercando il piu’ possibile di rimanere oggettivi.

Cominciamo dunque dal discorso inquinamento, sicuramente molto sentito e da cui nessuno di noi e’ esente. Se proviamo a cercare una correlazione con le allergie, troviamo, come anticipato, una giungla mediatica di opinioni in completo contrasto tra loro. Per prima cosa, vi siete mai chiesti cosa sono le allergie? Sappiamo che una grossa percentuale della popolazione soffre di qualche forma allergica. Senza andare a toccare le intolleranze alimentari, anche queste molto diffuse ma diverse di principio, quasi una persona su 3 soffre di reazioni allergiche a qualche agente che puo essere polvere, pollini di varia natura o altro.

Detto in maniera molto semplice, le allergie possono essere viste come un errore genetico del nostro sistema immunitario. In tal senso, in presenza di un allergene, quasi sempre del tutto innocuo per la salute, il nostro sistema immunitario ha una reazione eccessiva che provoca disturbi.

Come sapete bene, soprattutto se siete allergici a qualcosa, le reazioni che un individuo allergico ha vanno da un’eccessiva lacrimazione ad un gocciolmento del naso, fino anche a febbre. Detto in altri termini, e’ come se il nostro organismo provasse in modo eccessivo ad eliminare quella che viene riconosciuta come una minaccia.

Le allergie hanno origini diverse, molto spesso da ricercarsi in cause ereditarie. Questo discorso e’ facilmente comprensibile se pensiamo al discorso genetico del sistema immunitario. Fate pero’ attenzione, se uno dei genitori e’ allergico a qualcosa, puo’ nascere un figlio a sua volta allergico, ma non necessariamente allo stesso allergene.

La speculazione tra allergie ed inquinamento nasce anche vedendo i dati sulla popolazione. Negli ultimi 10 anni infatti, il numero di individui allergici, ad esempio in Italia, e’ passato dal 20 al 25%, con un incremento assolutamente non trascurabile. Proprio questo repentino aumento porta a considerare l’origine delle allergie nell’inquinamento.

Mi dispiace deludervi, ma studi clinici condotti hanno dimostrato come l’inquinamento non possa essere imputato come una causa delle allergie. Attenzione pero’, questo non lo toglie assolutamente dalla scena. Come anticipato, la reazione allergica di un soggetto puo’ essere piu’ o meno acuta. In tal senso, e’ come se ci fosse una scala di allergie intesa come sensibilita’ stessa all’allergene. Molte persone possono essere allergiche ad una sostanza e non accorgersene fino a quando non si trovano in presenza di una concentrazione elevata o in determinati stati sensibili. Proprio quest’ultimo caso ricade in realta’ sull’inquinamento.

La presenza di inquinanti nell’aria, dovuti agli scarichi delle automobili o alle industrie, provocano delle infiammazioni all’apparato respiratorio crescenti all’aumentare della concentrazione degli inquinanti. In queste condizioni, il nostro sistema respiratorio e’ piu’ sensibile alle sostanze contenute nell’aria dal momento che questa viene filtrata di meno. Capite dunque dove e’ da cercare la relazione tra inquinamento e allergie. Se una persona e’ poco allergica ad una sostanza, respirando aria inquinata crea la condizione affinche’ l’allergia si manifesti.

Sempre secondo gli studi condotti, ed in rete ne trovate a bizzeffe, l’aumento delle allergie e’ da ricercarsi in buona parte anche all’inquinamento, ma non come causa iniziale, piuttosto come fattore scatenante di una situazione pregressa.

Altra considerazione importante e spesso non conosciuta. I soggetti maggiormente esposti agli inquinanti dell’aria sono proprio i bambini. Poiche’ molte sostanze inquinanti hanno pesi specifici elevati, ad esempio le catene di benzene e i residui di combustione, tendono a depositarsi negli strati bassi piu’ vicini all’asfalto e alle marmitte. I bambini dunque, a causa della minor altezza da terra, risultano piu’ esposti a questi inquinanti. Oltre al pericolo oggettivo di questa esposizione, si registra negli ultimi anno un vero e proprio boom di allergie manifestate in eta’ infantile.

Sempre in questa ottica, l’inquinamento provocato da gas di scarico ha subito un notevole incremento a causa dell’aumento dei veicoli alimentati a gasolio. Motori di questo tipo emettono infatti molte piu’ molecole inquinanti rispetto ai motori a benzina, soprattutto come residui incombusti.

Detto questo, passiamo invece alla parte alimentare. Come richiesto nella domanda, in questo caso e’ doveroso fare un discorso piu’ ampio parlando di patologie in generale.

Come sapete bene, in questo contesto quello che negli ultimi anni ha fatto maggiormente discutere e’ l’utilizzo dei cibi geneticamente modificati sia negli alimenti direttamente consumati dall’uomo che nei mangimi degli animali.

Anche qui, purtroppo, il discorso non e’ semplice per via dei soliti interessi economici sempre presenti.

Forse faro’ saltare qualcuno dalla sedia ma, parere di ricercatore, non trovo assolutamente nulla di sbagliato nello studio e nell’utilizzo dei cibi OGM. Fate pero’ attenzione, per poter inserire nella nostra dieta cibi di questo tipo, e’ necessario fare una serie di studi approfonditi che spesso viene saltata o ridotta per entrare subito nel mercato.

Facciamo un esempio semplice, sappiamo che i pomodori sono commestibili e fanno anche bene. Perche’ lo sappiamo? Perche’ per secoli abbiamo mangiato i pomodori e li abbiamo anche studiati in dettaglio. Se ora prendo un pomodoro OGM in cui, sempre per fare un esempio, sono state eliminate delle proteine per vari motivi, quel pomodoro e’ uguale a quello naturale? Forse lo sara’ come sapore, ammettendo che i pomodori che compriamo ancora lo abbiano, ma dal punto di vista biologico, devo valutare bene quali conseguenze puo’ avere quella modifica genetica che abbiamo apportato.

L’esempio del pomodoro non e’ assolutamente casuale. Quando parliamo di cibi OGM abbiamo due casi separati. Alcune volte vengono inseriti nella catena genetica nuovi gruppi di aminoacidi per modificare o incrementare delle caratteristiche: crescita, sapore, dimensione, ecc. Altre volte invece, vengono eliminati dei pezzi di codice genetico per cambiare alcuni parametri. In tal senso, esistono dei pomodori OGM in cui un enzima viene sottratto per rallentare la maturazione e cambiare quindi il mese in cui questi frutti sono disponibili.

Capite bene che, in un caso o nell’altro, il cambiamento fatto a livello genetico deve essere controllato nei minimi dettagli soprattutto per quanto concerne l’influenza che questa modificazione puo’ avere sul consumatore, molto spesso l’uomo.

Come viene fatta la sperimentazione?

Si prende un alimento OGM e si fa la solita procedura. Si inizia, dove possibile, vedendo gli effetti che questo cibo ha su vari animali e poi si passa ad una sperimentazione sull’uomo. Dal punto di vista formale, la procedura e’ simile a quella che subisono i medicinali prima di essere inseriti sul mercato. Capite anche come questa procedura sia molto lunga, se non altro per la necessita’ di condurre un’analisi statistica con un campione sufficiente di casi.

A volte, in presenza di effetti di lieve entita’ o molto poco probabili, si procede comunque alla messa in commercio. Purtroppo, questo sistema, cosi’ come e’ strutturato, puo’ alimetare delle falle che portano a decisioni affrettate.

Come forse ricorderete, in passato si sono avuti diversi casi di alimenti OGM che presentavano delle conseguenze non banali anche nell’uomo. Per fare un esempio, ci sono almeno un paio di casi di soia o grano OGM prodotto dalla Monsanto che, in almeno due casi, provocavano ingrossamento del volume dei reni. Questo effetto era stato visto durante la sperimentazione, ma era stato ritenuto non statisticamente importante.

Mia considerazione personale. Quando si parla di cibo che deve essere consumato dall’uomo, lo “statisticamente importante” e’ un qualcosa non facilmente gestibile ma, soprattutto, non quantificabile. Dal momento che parliamo di cosa che vanno mangiate, forse la sperimentazione e la gestione dei risultati andrebbe fatta in modo piu’ scientifico basandosi su campioni sufficientemente grandi, e magari da espandere in caso di evidenza di qualche disturbo, e da piu’ di un organismo indipendente.

Ovviamente, a posteriori, i prodotti in questione sono stati ritirati dal mercato. Per tornare in tema, in questi casi si parlava di alimenti sia destinati al consumo da parte dell’uomo, sia per la produzione di mangimi per animali.

Come visto per l’inquinamento, anche in questa parte alimentare dobbiamo stare attenti alle considerazioni che facciamo. Cosi’ come visto in precedenza, non possiamo parlare di allergie provocate dalla presenza di qualche sostanza nel cibo. Piuttosto, dobbiamo considerare se ci sono inquinanti in grado di creare condizioni anomale in cui le allargie possono manifestarsi piu’ violentemente.

Ora pero’ fate attenzione, se dal un lato questo chiude il discorso allergie, lascia del tutto aperto quello di altre patologie. Cosi’ come visto, se ci sono sostanze in grado di creare un ambiente in cui le allergie possono manifestarsi, ci possono essere altre sostanze in grado di attaccare il nostro organismo in qualche forma.

Ovviamente, e’ impossibile fare degli studi mettendo in correlazione tutte le patologie con qualsiasi tipologia di cibo possiamo mangiare. Vero e’ pero’ che molti dei cibi che oggi mangiamo vengono trattati con prodotti chimici di qualche forma e questi possono poi essere direttamente ingeriti dall’uomo.

Da ricercatore, non posso che essere a favore di una sperimentazione e di una continua evoluzione anche in questo settore. Quello che pero’ maggiormente mi spaventa e’ il solito interesse economico che troppo spesso porta a fare considerazioni non oggettive.

Questo non significa demonizzare i prodotti chimici per l’agricoltura, i pesticidi, gli OGM o altre tecniche atte a migliorare la produzione di qualcosa. Questa affermazione e’ anche giustificabile se pensiamo al continuo incremento della popolazione ma soprattutto all’aumentato benessere, e quindi richiesta di cibo, da parte di paesi ormai emersi e con economie forti nel mondo.

Detto questo, ci sono correlazione forti tra quello che magiamo e respiriamo e l’aumento di patologie nell’uomo. Come visto pero’, alcune volte gli inquinanti non sono le cause ma i veicoli di creazione di ambienti affinche’ queste patologie possano manifestarsi. Non dobbiamo guardare alla ricerca in questi settori come alchimia o qualcosa di negativo, la cosa importante e’ sempre utilizzare la testa e ragionare piu’ con la scienza che con il portafoglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Metano su Marte: c’e’, non c’e’, c’era?

26 Set

Nella sezione:

Hai domande o dubbi

e’ stato richiesto un argomento molto interessante e attuale. Come potete vedere, si chiede un aggiornamento sulle ultime misure fatte da Curiosity, il rover che sta eplorando Marte, alla luce della notizia, tanto pubblicizzata, della concentrazione minore rispetto alle aspettative di metano. Come anticipato, si tratta di un argomento molto interessante e scientificamente importante. Purtroppo, anche questa volta, molti giornali e siti si sono lanciati in notizie eclatanti, senza pero’ spiegare in dettaglio qual e’ il significato di questo risultato, ma soprattutto cosa ci si aspetta per il futuro.

Per chi volesse maggiori informazioni sulla missione e sulle scoperte fatte, abbiamo parlato di Curiosity in questi post:

Curiosity: scoperta sensazionale?

– Curiosity e gli UFO

– Curiosity e gli UFO: dopo le foto, il video. 

Ecco la scoperta di Curiosity

Detto questo, e’ interessante ripercorrere la storia del metano su Marte, ragionando soprattutto su che cosa questa misura significihi.

Cerchiamo di ragionare insieme. Come sapete, a parte per il discorso ufo e avvistamenti vari che lascia il tempo che trova, uno degli obiettivi dell’esporazione spaziale e’, tra i tanti altri, quello di capire se c’e’ vita sugli altri pianeti del Sistema Solare o anche se in passato ci sono state le condizioni affinche’ una qualche forma di vita si sia sviluppata.

Fin qui ci siamo. Ogni qual volta si parla di condizioni adatte alla vita, qual e’ il primo parametro che viene citato? Ovviamente la presenza di acqua. Il motivo di questo e’ scontato per tutti e non c’e’ bisogno di replicarlo. Molte missioni osservative di Marte hanno dimostrato come in passato ci fosse molta acqua sul pianeta rosso. Addirittura sono stati ossservati i segni tipici lasciati da fiumi, laghi e mari, come solchi, ammassi di fanghi essiccati, letti di fiumi ormai asciutti, ecc. Inoltre, sulle calotte di Marte e’ presente ghiaccio. Queste distese hanno anche una variabilita’ stagionale cosi’ come avviene sulla Terra. Anche oggi ci sono evidenze di acqua in forma liquida, anche se in misura estremamente minore in superificie.

Bene, dunque su Marte c’e’ acqua. Questo significa che c’e’ vita? Assolutamente no. Per dirlo in termini matematici, la presenza di acqua sul pianeta e’ una condizione necessaria per sviluppare determinate forme di vita. Questa condizione non e’ pero’ sufficiente, cioe’ se c’e’ vita c’e’ acqua, ma non e’ vero il viceversa.

A questo punto, non avendo visto nessun marziano salutarci attraverso le telecamere dei rover, dobbiamo cercare qualche altro parametro. In questo caso, quello che possiamo vedere e’ se c’e’ metano in atmosfera.

Perche’ e’ importante la presenza di metano?

Prendiamo come esempio la Terra, dove non credo di dover dimostrare che c’e’ vita. L’atmosfera terrestre e’ molto ricca di metano. Da dove viene? Circa il 90% del metano che troviamo nella nostra atmosfera viene da forme vitali. Che significa? Una frazione viene dalla decomposizione di specie che rilasciano questo gas, mentre gran parte viene prodotto direttamente dal metabolismo di alcuni animali. Come sicuramente saprete, monitorare il metano nella nostra atmosfera e’ molto importante per via dell’effetto serra portato da questo gas. Uno dei contributi maggiori al metano viene dalla digestione delle mucche.

Detto questo, capite bene come la presenza di metano in atmosfera puo’ essere in qualche modo legato alla presenza di vita su un pianeta.

Fin qui ci siamo, ma torneremo su questi discorsi a breve per continuare a portare avanti il nostro ragionamento.

Prima di Curiosity, c’erano delle misure della quantita’ di metano nell’atmosfera di Marte? Certamente si, misure, anche se tra loro abbastanza discordi, venivano da osservazioni con telescopi da Terra e da satelliti in orbita intorno al pianeta rosso. Tra queste, vi erano alcune misurazioni che mostravano dati abbastanza entusiasmanti.

Senza troppi giri di parole, vi mosro un’immagine in falsi colori ottenuta partendo dai dati della sonda Mars Express nel 2004:

 

Metano nell'atmosfera di Marte. Fonte: Mars Explorer

Metano nell’atmosfera di Marte. Fonte: Mars Explorer

Cosa rappresenta? Le diverse colorazioni indicano la concentrazione piu’ o meno alta di metano nell’atmosfera di Marte. Come vedete, seguendo la scala in basso, ci sono dei punti che appaiono molto rossi, cioe’ con concentrazioni anche fino a 30 parti per miliardo (ppb) di metano.

Dunque? Su Marte c’e’ o c’era acqua, su Marte c’e’ metano quindi su Marte c’e’ vita!

Questo ragionamento potrebbe esssere azzardato e scientificamente non corretto. Come detto prima, sempre in termini matematici, avere acqua e’ una condizione necessaria, avere metano e’ una condizione necessaria, avere acqua e metano e’ una condizione necessaria, ma nessuna delle due, neanche simultaneamente, e’ una condizione sifficiente.

Non poter gridare alla scoperta del secolo, non significa non fare ricerca. L’evidenza di questi rilasci in atmosfera meritano di essere studiati in dettaglio per vedere se effettvamente sono sinonimo di vita oppure no.

Detto questo, cosa facciamo? Mandiamo Curiosity a vedere direttamente sulla superficie di Marte. Tra i tanti strumenti, il rover ha a disposizione spettrometri pensati proprio per misurare le concentrazioni di gas in atmosfera.

Cosa troviamo?

Come annunciato in questi giorni, Curiosity non ha trovato le concentrazioni sperata di metano. I valori misurati, ponderati su diverese analisi fatte in periodi diversi dell’anno marziano, hanno mostrato valori massimi intorno a 2 parti per miliardo, cioe’ molto meno di quello che si pensava e che e’ stato mostrato nei dati di Mars Express.

A questo punto, un po’ con l’amaro in bocca, cosa dobbiamo dire?

Molte fonti chiudono il discorso dicendo che non c’e’ vita su Marte, mentre altre si appellano al fatto che ci sono errori nella misura o che la vita c’era in passato.

Per ragionare su queste affermazioni e’ necessario riprendere il discorso metano in atmosfera.

Abbiamo detto che sulla Terra abbiamo una concentrazione di circa 1700 ppb di metano. I dati di Mars explorer mostravano picchi da 10-20 ppb. Confrontate tra loro i due numeri. Come vedete, sono profondamente diversi tra loro. Questo non deve portarvi fuori strada. Come detto prima, sulla Terra ci sono, ad esempio, le mucche, su Marte vi aspettate di trovare al massimo qualche batterio.

E’ vero pero’ che Curiosity sta osservando una frazione molto ristretta della superficie marziana, il cratere Gale. Per quanto esteso, questo campione non e’ rappresentativo di tutto il pianeta. Questa e’ una riflessione ragionevole. Notiamo pero’ che se ci fossero forme di vita batteriche, queste si dovrebbero sparpagliare per tutto il pianeta, non solo in determinati punti specifici. Tra l’altro, il cratere Gale e’ stato scelto per le sue proprieta’, per la presenza in passato di corsi d’acqua, insomma se c’e’ vita, dovrebbe essere anche in questo punto.

Torniamo pero’ ai dati di Mars Explorer. Su questa mappa abbiamo visto dei rilasci molto localizzati di metano, non certo un’atmosfera uniforme. Bene, proprio questa particolarita’, ci porta a pensare che il rilascio potrebbe essere causato da altro, non necessariamente da forme di vita.

Come anticipato, sulla Terra il contributo maggiore al metano in atmosfera viene, in qualche modo, da forme di vita. Queste pero’ non sono le uniche sorgenti di questo gas. Esistono processi geologici in grado di produrre metano e scaricarlo in atmosfera. Si tratta, nel nostro caso, di contributi minori rispetto a quelli delle forme di vita, ma comunque presenti e conosciuti. Se su Marte non c’e’ vita, ci potrebbero pero’ essere fenomeni analoghi, e questo spiegherebbe anche la minor concentrazione di metano in atmosfera. Altra ipotesi possibile e’ che su Marte sia presente “olivina”, un minerale che a contatto con l’acqua produce un altro minerale detto “serpentina”. In questo processo viene emesso metano. Abbiamo prove di questo? Certo, l’olivina e’ molto abbondante su Marte sia in superificie che nel sottosuolo. Perche’ pero’ in punti localizzati? Semplice, perche’ in quei punti ci potrebbero essere ancora serbatoi di acqua che sono andati in contatto con il minerale rilasciando metano.

Altra ipotesi che si sta facendo strada in queste ore e’ che oggi non ci sia vita su Marte, ma che magari ci fosse stata in passato.

Possibile questo? Come abbiamo visto, il metano prodotto in qualche modo arriva in atmosfera. Poi? Se il metano rimanesse stabile per sempre, allora sulla Terra, per fare un esempio, la sua concentrazione in atmosfera dovrebbe aumentare linearmente grazie ai continui apporti dagli esseri viventi. In realta’, il metano ha un tempo di vita abbastanza lungo, ma a causa della radiazione proveniente dal sole, viene scisso formando altri gas. La vita media di una molecola di metano in atmosfera e’ intorno a 300-400 anni.

Attenzione, allora e’ possibile che in passato ci sia stata la vita su Marte ed ora non c’e’ piu’ e anche il metano prodotto e’ scomparso. Questo non e’ del tutto vero dal momento che un organismo vivente produce metano ma anche un organismo in decomposizione produce metano. Inoltre, organismi decomposti nel sottosuolo, formano giacimenti di olii che non sono stai assolutamente osservati su Marte, pensate anche solo alla formazione di petrolio.

Detto questo, Curiosity non ha trovato la quantita’ di metano che ci si aspettava. I valori precedenti osservati, come visto rilasci localizzati, possono essere dovuti a fenomeni di natura geologica, che nulla hanno a che fare con la vita.

E’ altresi’ vero che Curiosity ha fatto le sue misure su una superficie ridotta di Marte e inoltre che si e’ limitata a raccogliere campioni a sua portata, cioe’ fino ad 1 metro di altezza da Terra.

Fatte queste considerazioni, la matassa non e’ ancora sbrogliata del tutto. Fatte salve le misure degli anni precedenti e queste di Curiosity, ci deve essere un processo non biologico che ha prodotto metano in atmosfera. Mi sento quasi di escludere del tutto che i rilasci osservati siano di natura biologica, ma questa e’ una mia considerazione personale.

Come studiare il problema?

Semplice, sono gia’ in fase di studio nuove missioni per Marte. La missione Exomars prevede nel 2016 la messa in orbita intorno al pianeta rosso di un satelite per misurazioni dei gas e nel 2018 due nuovi rover in superficie. Questa missione e’ gestita sia dalla NASA che dalla nostra ESA. Oltre a questo, il contributo italiano a questa missione e’ davvero notevole sia dal punto di vista della ricerca che di componentistica realizzata dalle nostre aziende.

Missioni di questo tipo potrebbero aiutarci a capire meglio l’origine del metano e dare una risposta definitiva sulla presenza o meno di vita su Marte.

Ultimissima considerazione, dire non c’e’ metano e’ equivalente a dire non c’e’ vita? Assolutamente no. Anche qui sulla Terra conosciamo diverse forme batteriche che non producono questo gas nel loro metabolismo. Questo ci fa capire nuovamente che questa non e’ una condicio sine qua non. Anche avere tantissimo metano non significa necessariamente avere vita. Pensate, ad sempio, a Titano, satellite di Saturno. Qui l’atmosfera e’ pregna di metano, ci sono laghi di metano, precipitazioni di metano, eppure, a nessuno verrebbe in mente di cercare la vita su Titano.

Come vedete, il discorso e’ sempre aperto, e, al momento, non possiamo certo escludere o dare per certa una qualche forma di vita su Marte. Le ricerche future potranno aiutarci a meglio comprendere questi aspetti o magari anche solo a capire se in passato si possano essere sviluppate forme di vita su qualche pianeta del Sistema Solare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annuncio storico: siamo fuori dal Sistema Solare?

18 Set

In questo blog, diverse volta abbiamo parlato delle due sonde Voyager. Lo abbiamo fatto un po’ per passione, un po’ per raccontare la storia di questa missione che, lanciata addirittura nel 1977, ancora oggi, a distanza di cosi’ tanti anni, ci fornisce risultati importantissimi per capire come e’ fatto l’universo che ci circonda.

Oltrre a questi “nobili” scopi di cronaca, in questi articoli:

Siamo fuori dal sistema solare … o forse no?

Aggiornamento sulla Voyager-1

abbiamo parlato di queste sonde per smentire molta speculazione che e’ nata negli ultimi tempi riguardo alla missione. Come ricorderete, molto si era discusso sul fatto che la Voyager-1 fosse uscita o meno fuori dal Sistema Solare. Per ben due volte, era stato annunciato questo storico passaggio. Come visto, in almeno un’occasione, anche siti accreditati, per fretta o per approfittare della notorieta’ della missione, si erano lanciati in dichiarazioni che avevano addirittura richiesto una smentita ufficiale da parte della NASA.

La cosa piu’ importante da capire in questa discussione e’ “che cosa significa uscire fuori dal sistema solare”. Come detto in passato, non dobbiamo certo pensare che esista una linea ben marcata, una sorta di cartello stradale, che dica “benvenuti nello spazio intergalattico”.

Scientificamente, la definizione di questo passaggio non e’ semplice, ma soprattutto univoca. In linea di principio, come e’ facile immaginare, il confine tra sistema solare e spazio esterno, non puo’ certo prescindere dal nostro Sole. Qualche tempo fa, si identificava un confine del sistema solare come lo spazio dopo Plutone, cioe’ fuori dai pianeti, anche se Plutone e’ stato declassificato, che orbitano intorno al Sole. Questa definizione, anche se facilmente comprensibile e forse meglio definibile di altre, non e’ adatta per il semplice scopo che dopo Plutone, l’interazione del nostro Sole e’ ancora molto presente.

Proprio da questo concetto, nasce la definizione di confine con lo spazio intergalattico. Detto molto semplicemente, possiamo vederla come quella linea oltre la quale gli effetti del Sole divengono minori di quelli dovuti allo spazio esterno. Anche se scientificamente questa definizione e’ molto comprensibile, immaginare questa separazione non e’ semplice, soprattutto se parliamo di regioni di spazio poco conosciute e di cui, e’ possibile, si conoscono poco le interazioni con lo spazio esterno.

Proprio da questa considerazione, come visto nell’articolo precedente, era nata la notizia falsa di qualche mese fa. Grazie ai dati forniti da Voyager-1, e’ stato possibile identificare una nuova regione la cui esistenza non era stata neanche ipotizzata prima. Vedete la potenza e l’importanza di queste missioni? Ovviamente, il modo migliore di poter studiare qualcosa e’ andare li per vedere come e’ fatto. Purtroppo, in campo cosmologico, questo non e’ quasi mai possibile. La voyager e’ gia’ ora l’oggetto piu’ lontano dalla Terra che l’uomo abbia costruito e che comunque e’ in comunicazione con noi.

Dopo questo lungo cappello introduttivo, cerchiamno invece di capire perche’ sto tornando a parlare di Voyager-1.

Solo pochi giorni fa, e’ stato fatto, finalmente, l’annuncio storico. Questa volta, a scanso di equivoci, la fonte ufficiale e’ proprio la NASA. Senza anticiparvi nulla, vi giro il link in questione:

NASA, annuncio Voyager-1

La sonda ha iniziato il suo viaggio nello spazio interstellare. Riprendendo il titolo di uno dei post precedenti: “Siamo fuori dal Sistema Solare”.

Come e’ facile immaginare, si tratta di un passo storico per l’uomo, paragonabile se volete al primo allunaggio nel 1969.

Perche’ e’ stato fatto l’annuncio? Come ci si e’ accorti del passaggio?

In realta’, anche se l’annuncio e’ del 12 settembre 2013, lo storico passaggio e’ avvenuto mesi prima, ma non e’ stato possibile determinarlo. Mi spiego meglio.

Per determinare il confine con il Sistema Solare, si cerca di evidenziare una zona in cui la densita’ del plasma di particelle cresce notevolmente rispetto ai valori standard. Detto molto semplicemente, le particelle emesse dal sole formano una sorta di bolla che ricopre quello che chiamamiamo sistema solare ed esiste un confine tra dentro e fuori offerto dell’eliopausa.

Cosa si e’ visto dai dati di Voyager?

Grazie ad una potente emissione solare che ha scagliato particelle verso l’esterno, i sensori di Voyager hanno potuto misurare la densita’ elettroncia intorno alla navicella. In questo modo, anche senza un sensore di plasma, e’ stato possibile identificare la variazione di densita’ tipica dello spazio interstellare, cioe’ fuori dla sistema solare. Per poter caire quando il passaggio fosse avvenuto, i ricercatori hanno dovuto spulciare all’indietro i dati raccolti da Voyager nei mesi precedenti, per cercare di identificare gli andamenti della densita’. Da questo studio, e’ emerso che il passaggio attraverso il confine cosi’ definito era avvenuto circa un anno fa, il 25 agosto 2012.

Come e’ facile immaginare, oltre allo storico annuncio, tutti questi studi sono stati pubblicati sulla rivista Science.

E ora?

In questo istante, la Voyager si trova a circa 19 miliardi di Kilometri da Terra. I segnali inviati verso di noi hanno una potenza di appena 22 Watt e giungono fino a noi impiegando 17 ore. Sembra quasi incredibile che da Terra si riescano a percepire e identificare segnali paragonabili a quelli di una lampadina che si trova cosi’ distante nell’universo.

La sonda e’ alimentata da una batteria TRG che, a meno di sorprese, dovrebbe garantire il funzionamento della Voyager fino al 2025. A quella data, la sonda si dovrebbe trovare, spostandosi a circa 17 Km/s, a qualcoa come 25 miliardi di kilometri dal nostro pianeta. Speriamo che durante questa nuova fase del suo viaggio, possa permetterci altre importanti evidenze scientifiche.

Concludendo, lo storico annuncio dell’ingresso nello spazio interstellare e’ finalmente arrivato. La sonda Voyager e’ l’oggetto piu’ lontano dalla Terra costruito dall’uomo e che e’ ancora in contatto con noi. Dopo quanto annunciato e scritto in questo articolo, non credo sia il caso di chiedersi se questa missione e’ stata fruttuosa oppure no!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le profezie di Baba Vanga

3 Set

Una nostra cara lettrice, fan della pagina facebook di Psicosi 2012:

Psicosi 2012, facebook

mi ha contattato per suggerire un argomento di discussione molto interessante e anche poco conosciuto. Si tratta delle profezie di Baba Vanga autrice, secondo le fonti, di numerosi versi profetici, come al solito, fino alla fine del mondo.

Per prima cosa e’ necessario dire che Baba Vanga e’ poco nota in Europa mentre, complice anche la sua origine bulgara, la sua storia e’ molto popolare nell’est Europa come testimoniano le numerosi fonti internet in lingua russa.

La storia di Vanga e’ molto interessante. Vangelia Pandeva Dimitrova nacque a Strumica il 31 gennaio 1911. Secondo la leggenda, all’eta’ di 10 anni venne investita da una tromba d’aria che la sollevo’ e la fece ricadere violentemente a terra. Qualche ora dopo venne ritrovata dai suoi famigliari con gli occhi ricoperti di terra e sabbia. In seguito a questo incidente, Vanga divenne completamente cieca. Solo pochi anni dopo questo incidente, la ragazza si accorse di avere doti paranormali di preveggenza.

La veggente bulgara Baba Vanga

La veggente bulgara Baba Vanga

Iniziando suggerendo rimedi naturali per malattie e dando consigli spirituali, nel giro di poco tempo la sensitiva divenne famosa in tutto il paese. Molto spesso, si occupava di bambini malati individuando la causa del problema in qualche maledizione fatta verso la famiglia. Per curare il bambino, Vanga si offriva simbolicamente di adottarlo. Come riportato da alcune fonti, si stima che nel corso della sua vita, la sensitiva abbia adottato piu’ di 3000 bambini.

Grazie alla fama acquisita, la casa della veggente era spesso frequentata da personaggi molto in vista della politica del tempo. Alcune fonti, non confermate, parlano addirittura di una visita di Hitler oltre che di molti potenti dell’est Europa. Proprio su questo punto, vengono mosse pesanti critiche e accuse alla sincerita’ di Baba. A detta di molti, le sue profezie ai potenti sarebbero state “suggerite” dai servizi segreti bulgari, proprio per influenzare le scelte politiche.

Nel corso della sua vita, Vanga avrebbe fatto anche molte profezie per eventi futuri, affidando le sue indicazioni ai vari collaboratori che di volta in volta si alternavano al suo servizio.

Per poter discutere queste profezie e’ ovviamente necessario che vi riporti la lista che trovate su molti siti internet e che viene riportata fedelmente anche sui libri:

2008: Baba Vanga parla dei conflitti in “Indonesia” che condurranno alla prossima terza guerra mondiale.

2010: La terza guerra mondiale ha inizio nel novembre 2010. Partendo come una guerra regolare, si trasformerà in una guerra nucleare e chimica. Vanga dice che la guerra sarà terminata entro ottobre 2014.

2011: A seguito della guerra, piogge radioattivi distruggeranno quasi tutta la vita nell’emisfero europeo settentrionale. I pochi europei restanti si troveranno ad affrontare una minaccia ancor più dura dai musulmani che useranno armi chimiche per finirli.

2014: Come risultato all’utilizzo delle sostanze chimiche e le armi nucleari durante le guerre, la maggior parte della popolazione mondiale avrà il cancro della pelle e altre malattie della pelle.

2016: L’Europa sarà quasi disabitata.

2018: la Cina diventerà la nuova superpotenza. Gli sfruttatori diventerà gli sfruttati.

2023: L’orbita terrestre cambierà (Polar shift..?).

2025: L’Europa sarà ancora scarsamente popolata.

2028: Una nuova fonte di energia sarà trovata. La fame sarà superata. Un volo spaziale partirà per Venere.

2033: I livelli dell’acqua nel mondo aumenteranno, a causa delle calotte polari che si scioglieranno.

2043: l’economia sarà buona. I musulmani domineranno l’Europa.

2046: Tutti gli organi del corpo potranno essere riprodotti, diventando il metodo più semplice e più popolare per guarire le malattie.

2066: Gli Stati Uniti useranno una nuova arma basata sui cambiamenti climatici da usare su Roma, controllata dai Musulmani.

2076: il comunismo prenderà il sopravvento.

2084: La natura rinascerà .(??)

2088: verrà scoperta una nuova malattia in grado di fare invecchiare in pochi secondi.

2097: la malattia suddetta sarà guarita.

2100: il sole sarà artificiale è illuminerà il lato oscuro del pianeta (..?).

2111: Le persone diventano robot. Probabilmente androidi…

2123: guerre tra paesi piccoli. I grandi paesi ne staranno fuori.

2125: i segnali dallo spazio saranno ricevuti in Ungheria. (La gente si ricorderà di Baba Vanga)

2130: Con l’aiuto degli alieni, la civiltà vivrà nelle profondità marine.

2164: Gli animali si mischieranno con gli esseri umani formando nuove razze.

2167: Nascerà una nuova religione.

2170: Ci sarà grande siccità.

2183: Una colonia su Marte diventerà una potenza nucleare e chiederà l’indipendenza dalla Terra. (Come gli Stati Uniti hanno chiesto dall’Inghilterra.)

2187: 2 grandi eruzioni vulcaniche con successo saranno fermate.

2195: Le colonie nel mare avranno energia e cibo autosufficiente.

2196: gli asiatici e gli europei saranno completamente mescolati.

2201: le temperature scendono e il sole incomincia a rallentare.

2221: Nella ricerca di vita extra-terrestre, gli esseri umani entrano in contatto con qualcosa di terribile.

2256: Una nave spaziale porterà una nuova malattia sulla Terra.

2262: I pianeti lentamente cambieranno orbita. Marte sarà minacciata da una cometa.

2271: Le leggi della fisica saranno cambiate.

2273: Bianco, nero e giallo formeranno un’unica nuova razza.

2279: L’energia sarà ottenuta dal nulla. (Forse un vuoto o un buco nero.)

2288: Viaggi nel tempo possibili e contatti alieni.

2291: Il sole diventa molto meno caldo e forte. Verranno fatti dei nuovi tentativi per renderlo di nuovo caldo.

2296: forti esplosioni sul sole. Le forze di gravità cambieranno. stazioni spaziali e satelliti vecchi cadranno.

2299: In Francia, un movimento di resistenza salirà contro l’Islam.

2302: leggi importanti e segreti dell’universo saranno rivelate.

2304: I segreti della Luna saranno anche rivelati.

2341: qualcosa di terribile si avvicinerà alla Terra dallo spazio.

2354: Un incidente sul sole artificiale porterà siccità.

2371: fame nel mondo.

2378: Rapida evoluzione della nostra razza.

2480: 2 soli artificiali (umani) si scontreranno e lasciaranno la Terra al buio.

3005: Una guerra su Marte cambierà la traiettoria del pianeta.

3010: una cometa colpirà la luna. La Terra sarà circondata da un anello di rocce e ceneri.

3.797: In questo periodo, tutto sulla Terra morirà. Tuttavia, la civiltà umana sarà abbastanza avanzata da passare ad un sistema solare di una nuova stella.

3.803: un nuovo pianeta è popolato da poco. Meno contatti tra le persone. il clima del nuovo pianeta influisce sulla organismi delle persone – che iniziano a mutare.

3.805: La guerra tra gli esseri umani per le risorse. Più della metà delle persone che muoiono.

3.815: La guerra è finita.

3.854: Lo sviluppo della civiltà si ferma praticamente. La gente vive in branchi come animali.

3.871: nuovo profeta spiega alla gente sui valori morali, la religione.

3.874: nuovo profeta riceve il sostegno di tutti i segmenti della popolazione. Ha organizzato una nuova chiesa.

3.878: insieme con la Chiesa per le persone il re-nuovo fa dimenticare le scienze.

4.302: Nuove città stanno crescendo in tutto il mondo. Nuova Chiesa incoraggia lo sviluppo di nuove tecnologie e della scienza.

4.302: Lo sviluppo della scienza. Gli scienziati hanno scoperto le malattie a livelo globale e il loro comportamento sull’organismo.

4.304: trovato un modo per vincere qualsiasi malattia.

4.308: A causa della mutazione gente finalmente comincia a usare il cervello a più del 34%. Perso completamente il concetto di male e odio.

4.509: Conoscere Dio. L’uomo ha raggiunto un tale livello di sviluppo che può comunicare con Dio.

4.599: Persone raggiungeranno l’immortalità.

4.674: Lo sviluppo della civiltà ha raggiunto il suo picco. Il numero di persone che vivono su pianeti diversi è di circa 340 miliardi. L’assimilazione inizia con gli alieni.

5.076: Un confine dell’universo. Con esso, nessuno lo sa.

5.078: La decisione di lasciare i confini dell’universo. Mentre circa il 40 per cento della popolazione è contraria.

5.079: Fine del Mondo.

Dunque, come detto, questa e’ la lista che trovate sulla rete e nei libri profetici dedicati a Vanga. Cerchiamo di fare qualche considerazione a riguardo.

Prima cosa importante, almeno in questo caso, per assistere alla fine del mondo dovremmo aspettare fino al 5079. Nonostante questo, la lunga lista proposta presente molti avvenimenti degni di nota e che porterebbero gravi conseguenze al genere umano.

Prima di disperarci, vi faccio notare una cosa. Nel 2008, si parla di conflitti in Indonesia. Questa e’ la prima versione delle profezie che era stata pubblicata in rete. Nel 2008, visto che non era successo nulla in Indonesia, ma ci sono stati i tristemente noti attentati a Mumbay il 26 novembre, i sostenitori di Vanga parlarono dunque di un errore di traduzione di India in Indonesia. Primo indizio da considerare per le discussioni successive.

Prima del 2008, ci sono altre due previsioni che trovate citate sempre come esempio di profezie azzeccate: quella del sottomarino russo Kursk e quella sull’11 settembre 2001. Vediamole in dettaglio. In una profezia Vanga dice:

Al volgere del secolo, nell’agosto del 1999 o del 2000, Kursk sarà coperto con l’acqua, e il mondo intero lo piangerà.

Cosa e’ successo nell’agosto del 2000? Il sottomarino russo Kursk, a seguito di un esplosione, e’ affondato con i suoi marinai. Notate pero’ che Vanga parla di Kursk che, come e’ noto, e’ una citta’ della Russia da cui il sottomarino prende il suo nome.

Per l’11 settembre troviamo invece:

Orrore, orrore! I fratelli gemelli americani cadranno dopo essere stati attaccati dagli uccelli di acciaio. I lupi ululeranno in un cespuglio, e il sangue innocente sarà zampillante

Facile capire che i gemelli americani sono le Torri Gemelle e gli uccelli di acciaio gli aerei.

Analizziamo queste due profezie. Per il sottomarino, come detto, si parla in generale di Kursk, da tutti intesa come citta’. Per le torri gemelle, la profezia non indica assolutamente una data, ma solo il fatto. Cosa significa questo? Prima degli eventi, nessuno aveva pensato a cose di questo tipo. Dopo, invece, tutti hanno collegato i fatti parlando di profezie avverate. Al solito, a posteriori sono tutti bravi a far tornare i conti.

Se proprio vogliamo fare un’analisi specifica, che non trovate mai sui siti che sostengono la veggente, allora dobbiamo parlare anche delle profezie non avverate che, come e’ ovvio, vengono eliminate dalla lista che vi ho riportato.

Per il 2009, Vanga aveva previsto l’uccisione di quattro importanti leader politici a seguito degli attentati in India (Indonesia) e che avrebbe contribuito a far scoppiare un terzo conflitto mondiale. Si e’ avverato questo nel 2009? Certo che no.

Andiamo avanti a scorrere la lista.

Nel 2010, precisamente a novembre, si parla di inizio della terza guerra mondiale. E’ accaduto? Direi propprio di no. Pensate che a novembre 2010, molti ritirarono fuori queste profezie a seguito dell’attacco della Corea del Nord verso quella del Sud e parlando proprio di un nuovo conflitto mondiale che ne sarebbe potuto scaturire. Per fortuna, la situazione e’ rientrata e nessuna guerra mondiale e’ scoppiata.

Si e’ avverata questa profezia? Anche in questo caso, no.

Vogliamo continuare? Bene, 2011 piogge radioattive provocate dal conflitto? Non le ho viste e, anche in questo caso, lasciatemi dire “meno male”.

Sapete perche’ oggi si riparla di queste profezie? Cosi’ come avvenuto con le Coree, qualcuno ha riproposto la lista parlando nuovamente di errore di interpretazione che sposterebbe il 2009 al 2013 connesso con la situazione in Siria. Qualcuno poi mi dovra’ spiegare perche’ gli amici catastrofisti hanno tanta voglia di fa scoppiare una terza guerra mondiale.

Cos’altro aggiungere?

Come anticipato, Vanga era una semi-analfabeta. Non sapendo scrivere, le sue profezie erano affidate a vari collaboratori. Cosa ha comportato questo? Sicuramente un voler ricamare sopra le parole originali. Inoltre, molti libri contenenti le profezie sono usciti postumi alla veggente e, molto spesso, successivi anche ai due episodi visti che sarebbe stati predetti (sommergibile e Torri Gemelle). Come abbiamo imparato bene, a pensar male quasi mai, in questo contesto, si commette peccato. Infatti, prima degli episodi, nessuno parlava, conosceva o pubblicava queste presunte frasi profetiche.

Concluendendo, la storia di Baba Vanga e’ molto interessante e sicuramente originale. La storia invece delle sue profezie ricalca come al solito quella di tanti altri profeti di cui abbiamo discusso. Come visto, su molti siti a favore, si riportano in bella vista le presunte profezie avverate ma, che sbadati, si dimentica di inserire quelle non avvenute. Come visto, gli episodi piu’ recenti, e se volete piu’ lontani rispetto alla morte e alla pubblicazione dei libri, non si sono sistematicamente avverati. Questo non fa altro che sostenere la tesi secondo la quale molte profezie sarebbero in realta’ costruite ad hoc o rese piu’ veritiere volendo interpretare qualcosa di molto specifico. Unica nota positiva, Baba Vanga non ci parla di fine del mondo fino al 5079. Alla luce di questo e, soprattutto, delle altre considerazioni, non credo sia il caso di preoccuparsi di queste profezie.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sulla fusione fredda

4 Ago

Eccoci qui, tornati dalle vacanze, e pronti a ricominciare di nuovo con il blog. In questo contesto, il “ricominciare” suona quanto mai azzeccato, proprio per l’argomento che vogliamo andare a trattare in questo post.

In una discussione del forum, che per chi lo avesse perso e’ sempre disponibile a questo indirizzo:

Psicosi, forum

e’ stato richiamato in causa il discorso E-Cat di Rossi ed i relativi fenomeni LENR, cioe’ le reazioni nucleari a bassa energia.

Di questo argomento avevamo parlato in dettaglio in questo articolo:

E-cat meraviglia o grande bufala?

Come visto, l’occasione per parlare di questo argomento era venuta quando molti siti internet avevano parlato finalmente della prova indipendente fatta da scienziati. Come sapete bene, non per essere fondamentalista della scienza ne’ tantomeno per denigrare qualcuno senza i presupposti, ad oggi, non vi e’ nessun test indipendente, ma soprattutto fatto seguendo i criteri del metodo scientifico, che mostri la veridicita’ di quanto affermato dall’inventore dell’E-Cat.

Nel post precedente, avevamo visto come la presunta prova indipendente, in realta’ tanto indipendente non lo era. Prima di tutto, dobbiamo rimarcare il fatto che l’articolo successivamente pubblicato non aveva passato nessuna procedura di “peer review”, essendo un paper pubblicato su ArXiv, cioe’ sul database della Cornell University. Come evidenziato, non voglio criticare gli scienziati intervenuti alla dimostrazione, conoscendone personalmente due, ma le tante voci apparse su internet non sono in realta’ veritiere rispetto a quanto accaduto.

L’aspetto fondamentale da tenere a mente e’ che gli scienziati dell’Universita’ di Uppsala in Svezia, non hanno eseguito personalmente il test sull’E-Cat, ma si sono limitati al ruolo di spettatori. Il sistema, cosi’ come era preparato, presentava molte parti oscure paragonabili a scatole nere. Anche la misurazione del calore eseguita mediante termocamera, presenta delle incertezze della misura non facilmente preventivabili e che possono falsare notevolmente il risultato finale.

Detto questo, nell’articolo di ArXix, che potete leggere a questo link gia’ riportato nel precedente articolo:

ArXiV Uppsala

si evidenzia come, “dai dati osservati”, la quantita’ di calore prodotta dal macchinario fosse notevolmente superiore a quella di una qualsiasi reazione chimica, cosa che farebbe pensare ad una reazione di tipo nucleare.

Come visto nel precedente post, quali sono le critiche che avevamo mosso? Se si trattasse di reazione nucleare, ci dovrebbe essere emissione di una qualche forma di radiazione, in realta’ non osservata. I ricercatori non hanno assistito alla preparazione del combustibile, cioe’ della miscela Idrogeno-Nichel piu’ catalizzatore, preparata in precedenza da Rossi. Il rame prodotto, che e’ quello che farebbe pensare ad una fusione, non presentava percentuali di isotopi diversi rispetto al rame comunemente commerciale. Detto con un po’ di malignita’, quel rame potrebbe essere stato comprato e messo nella camera solo per far pensare ad un fenomeno di fusione.

Senza ripercorrere le conclusioni che abbiamo raggiunto nel precedente articolo, il nostro punto di vista e’ abbastanza scettico. Non voglio demonizzare i fenomeni LENR pero’, in assenza di prove scientifiche che dimostrino l’esistenza di queste reazioni, e’ difficile da mandare giu’, o megio credere, a questo risultato. Ovviamente, molti alzano gli scudi e parlano di segreto industriale da mantenere. Proprio in virtu’ di questo aspetto, viene mantenuto il segreto sulla preparazione del combustibile e su alcune parti fondamentale dell’apparato. Bene, se anche fosse vero questo, allora non si puo’ pretendere di “credere” all’E-Cat. Quando ci sara’ questa fantomatica versione comerciale, che vi ricordo aspettiamo da anni, allora diremo che la cosa e’ possibile. Scientificamente, non possiamo “credere” a qualcosa, c’e’ bisogno di prove.

Detto questo, solo pochi giorni fa, la greca Defkalion, un tempo ditta collaboratrice di Rossi, ha mandato in diretta streaming una nuova dimostrazione di un dispositivo molto simile all’E-Cat, l’R5. Le differenze fondamentali tra i due sistemi sarebbero nella temperatura di esercizio e nella pressione richiesta in camera. Per il resto, il principio di “funzionamento” sarebbe lo stesso.

Potete vedere lo streaming a questo indirizzo:

Streaming Defkalion

Vi premetto subito che lo streaming e’ stato seguito anche da una platea di addetti ai lavori della conferenza ICCF-18 sulla fusione fredda. Come al solito, nell’esperimento si mostrava un sistema in grado di produrre molta piu’ energia di quella assorbita. Come potete facilmente immaginare pero’, in seguito alla diretta, sono piovute decine di domande dagli esperti della conferenza sui metodi di misurazione del calore, sulle parti, come al solito, tenute nascoste, sul combustibile utilizzato, ecc. Ovviamente, domande che non hanno avuto una risposta. Per essere sinceri, la Defkalion ha dato delle risposte sommarie tramite un’intervista, ma poi si e’ limitata a dire che l’esperimento non era un vero test di funzionamento, bensi’ una mera dimostrazione sul sistema utilizzato. Al solito, tanto fumo e assolutamente niente arrosto.

Prima di concludere, vorrei pero’ tornare sul discorso E-Cat e Universita’ di Uppsala. Sulla rete gira la notizia, assolutamente non confermata, che Rossi sarebbe pronto a costruire una centrale da 1MW utilizzando il suo E-Cat. Personalmente, la cosa mi farebbe immensamente piacere. Come detto in precedenza, capisco molto bene, anche da scienziato, l’anima commerciale della cosa. Proprio per questo motivo, aspetto ansiosamente, ormai da troppo tempo, un qualcosa di commerciale da vedere, studiare e, ovviamente, comprare.

A seguito dell’articolo di ArXiv, ne e’ stato pubblicato un altro, sempre nello stesso archivio, di risposta alle osservazioni sul test di Rossi. Ecco il link all’articolo:

ArXiv, commento

Questi articoli sono tutti liberamente scaricabili e leggibili anche senza abbonamento. Come potete vedere, anche questo articolo e’ a firma di due ricercatori dell’Universita’ di Uppsala,i professori Ericsson e Pomp. Mentre nel primo articolo i ricercatori coinvolti erano esperti di campi diversi, fisica sperimentale, teorica, radioprotezione, ecc, Ericsson e Pomp sono due professori di fisica nucleare.

Nell’articolo vengono mosse pesanti critiche al primo report, non solo per la preparazione specifica dei ricercatori coinvolti nel primo test ma anche per il fatto che due di questi scienziati conoscono personalmente Rossi, hanno partecipato a diversi test e in passato hanno espresso apprezzamenti sull’E-cat. Certo, se vogliamo parlare di “risultato indipendente”, queste evidenze farebbero mal pensare pero’, ragionandoci su, immaginate questo scenario: avete costruito una macchina strabiliante con risultati eccezionali, avete bisogno di un risultato indipendente, a chi vi rivolgereste? Sicuramente la prima scelta ricadrebbe su qualcuno che conoscete. Personalmente, la cosa non mi scandalizza piu’ di tanto. Essendo poi tutti i ricercatori della stessa universita’, non vorrei ci fossero attriti pregressi che hanno spinto a questa diatriba.

Tolto il gossip scientifico, che non interessa a questo blog, ragioniamo invece sul discorso scienza. L’articolo di Ericsson e Pomp, muove esattamente le stesse critiche al sistema e alla prova che avevamo fatto noi nell’articolo precedente. In particolare, si evidenzia l’assoluta mancanza di uno schema elettrico, della preparazione del campione, dei cavi connessi al sistema per evitare che ci siamo linee secondarie di alimentazione non considerate. Soprattutto, viene discussa la possibilita’ di errore sperimentale nella misura del calore attraverso la termocamera e la frazione di isotopi di rame prodotti, oltre ovviamente alla mancanza di radiazione emessa.

Detto questo, capite bene che non stiamo muovendo un’accusa gratuita nei confronti di Rossi, ci stiamo limitando ad analizzare i fatti. Al momento, non si sono prove della veridicita’ delle affermazioni fatte. Ci mettiamo una pietra sopra? Assolutamente no, la scienza insegna ad essere aperti di mente. Se, un giorno, ci trovassimo tra le mani un E-cat che assorbe un’energia X e ne produce in uscita X per un coefficiente maggiore di 1, ben venga il risultato estremamente importante per la societa’. Fino a questo punto pero’, parlare di E-Cat, Rossi, LENR, ecc, e’ paragonabile a parlare di “fede”. Voglio crederci perche’ mi va. Benissimo. Pero’, signori miei, a tutti quelli che gestiscono pagine sull’argomento e che proclamano un complotto della scienza, non fate credere che ci siano prove sperimentali dei risultati perche’, come visto, di queste non vi e’ assolutamente traccia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.