Tag Archives: densita’

L’espansione metrica dell’universo

8 Apr

In questo blog, abbiamo dedicato diversi articoli al nostro universo, alla sua storia, al suo destino, alla tipologia di materia o non materia di cui e’ formato, cercando, come e’ ovvio, ogni volta di mettere il tutto in una forma quanto piu’ possibile comprensibile e divulgativa. Per chi avesse perso questi articoli, o solo come semplice ripasso, vi riporto qualche link riassuntivo:

E parliamo di questo Big Bang

Il primo vagito dell’universo

Universo: foto da piccolo

La materia oscura

Materia oscura intorno alla Terra?

Due parole sull’antimateria

Flusso oscuro e grandi attrattori

Ascoltate finalmente le onde gravitazionali?

Come e’ ovvio, rendere questi concetti fruibili a fini divulgativi non e’ semplice. Per prima cosa, si deve evitare di mettere formule matematiche e, soprattutto, si deve sempre riflettere molto bene su ogni singola frase. Un concetto che potrebbe sembrare scontato e banale per un addetto ai lavori, potrebbe essere del tutto sconosciuto a chi, non avendo basi scientifiche solide, prova ad informarsi su argomenti di questo tipo.

Perche’ faccio questo preambolo?

Pochi giorni fa, un nostro lettore mi ha contatto via mail per chiedermi di spiegare meglio il discorso dell’espansione dell’universo. Per essere precisi, la domanda era relativa non all’espansione in se, ma a quella che viene appunto definita “espansione metrica” dell’universo. Cosa significa? Come visto varie volte, l’idea comunemente accettata e’ che l’universo sia nato da un Big Bang e durante questa espansione si sono prima formate le forze, il tempo, le particelle, poi i pianeti, le galassie e via dicendo. Ci sono prove di questo? Assolutamente si e ne abbiamo parlato, anche in questo caso, piu’ volte: la radiazione cosmica di fondo, lo spostamento verso il rosso delle galassie lontane, le conclusioni stesse portate dalla scoperta del bosone di Higgs e via dicendo. Dunque? Che significa espansione metrica dell’universo? In parole povere, noi diciamo che l’universo si sta espandendo, e che sta anche accelerando, ma come possiamo essere certi di questo? Che forma ha l’universo? Per quanto ancora si espandera’? Poi cosa succedera’? Sempre nella domanda iniziale, veniva posto anche un quesito molto interessante: ma se non fosse l’universo ad espandersi ma la materia a contrarsi? L’effetto sarebbe lo stesso perche’ la mutua distanza tra due corpi aumenterebbe nel tempo dando esattamente lo stesso effetto apparente che vediamo oggi.

Come potete capire, di domande ne abbiamo fin troppe a cui rispondere. Purtroppo, e lo dico in tutta sincerita’, rendere in forma divulgativa questi concetti non e’ molto semplice. Come potete verificare, raccontare a parole che il tutto sia nato da un Big Bang, che ci sia stata l’inflazione e si sia formata la radiazione di fondo e’ cosa abbastanza fattibile, parlare invece di forma dell’universo e metrica non e’ assolutamente semplice soprattutto senza poter citare formule matematiche che per essere comprese richiedono delle solide basi scientifiche su cui ragionare.

Cerchiamo dunque di andare con ordine e parlare dei vari quesiti aperti.

Come visto in altri articoli, si dice che il Big Bang non e’ avvenuto in un punto preciso ma ovunque e l’effetto dell’espansione e’ visibile perche’ ogni coppia di punti si allontana come se ciascun punto dell’universo fosse centro dell’espansione. Cosa significa? L’esempio classico che viene fatto e’ quello del palloncino su cui vengono disegnati dei punti:

Esempio del palloncino per spiegare l'espansione dell'universo

Esempio del palloncino per spiegare l’espansione dell’universo

Quando gonfiate il palloncino, i punti presenti sulla superficie si allontanano tra loro e questo e’ vero per qualsiasi coppia di punti. Se immaginiamo di essere su un punto della superficie, vedremo tutti gli altri punti che si allontanano da noi. Bene, questo e’ l’esempio del Big Bang.

Ci sono prove di questo? Assolutamente si. La presenza della CMB e’ proprio un’evidenza che ci sia stato un Big Bang iniziale. Poi c’e’ lo spostamento verso il rosso, come viene definito, delle galassie lontane. Cosa significa questo? Siamo sulla Terra e osserviamo le galassie lontane. La radiazione che ci arriva, non necessariamente con una lunghezza d’onda nel visibile, e’ caratteristica del corpo che la emette. Misurando questa radiazione ci accorgiamo pero’ che la frequenza, o la lunghezza d’onda, sono spostate verso il rosso, cioe’ la lunghezza d’onda e’ maggiore di quella che ci aspetteremmo. Perche’ avviene questo? Questo effetto e’ prodotto proprio dal fatto che la sorgente che emette la radiazione e’ in moto rispetto a noi e poiche’ lo spostamento e’ verso il rosso, questa sorgente si sta allontanando. A questo punto sorge pero’ un quesito molto semplice e comune a molti. Come sapete, per quanto grande rapportata alle nostre scale, la velocita’ della luce non e’ infinita ma ha un valore ben preciso. Questo significa che la radiazione emessa dal corpo lontano impiega un tempo non nullo per raggiungere la Terra. Come spesso si dice, quando osserviamo stelle lontane non guardiamo la stella come e’ oggi, ma come appariva quando la radiazione e’ stata emessa. Facciamo l’esempio classico e facile del Sole. La luce emessa dal Sole impiega 8 minuti per arrivare sulla Terra. Se noi guardiamo ora il Sole lo vediamo come era 8 minuti fa. Se, per assurdo, il sole dovesse scomparire improvvisamente da un momento all’altro, noi ce ne accorgeremmo dopo 8 minuti. Ora, se pensiamo ad una stella lontana 100 anni luce da noi, quella che vediamo e’ la stella non come e’ oggi, ma come era 100 anni fa. Tornando allo spostamento verso il rosso, poiche’ parliamo di galassie lontane, la radiazione che ci arriva e’ stata emessa moltissimo tempo fa. Domanda: osservando la luce notiamo uno spostamento verso il rosso ma questa luce e’ stata emessa, supponiamo, mille anni fa. Da quanto detto si potrebbe concludere che l’universo magari era in espansione 1000 anni fa, come da esempio, mentre oggi non lo e’ piu’. In realta’, non e’ cosi’. Lo spostamento verso il rosso avviene a causa del movimento odierno tra i corpi e dunque utilizzare galassie lontane ci consente di osservare fotoni che hanno viaggiato piu’ a lungo e da cui si ottengono misure piu’ precise. Dunque, da queste misure, l’universo e’ in espansione e’ lo e’ adesso. Queste misurazioni sono quelle che hanno portato Hubble a formulare la sua famosa legge da cui si e’ ricavata per la prima volta l’evidenza di un universo in espansione.

Bene, l’universo e’ in espansione, ma se ci pensate questo risultato e’ in apparente paradosso se pensiamo alla forza di gravita’. Perche’? Negli articoli precedentemente citati, abbiamo piu’ volte parlato della gravita’ citando la teoria della gravitazione universale di Newton. Come e’ noto, due masse poste a distanza r si attraggono con una forza che dipende dal prodotto delle masse ed e’ inversamente proporzionale al quadrato della loro distanza. Ora, nel nostro universo ci sono masse distribuite qui a la in modo piu’ o meno uniforme. Se pensiamo solo alla forza di gravita’, una coppia qualunque di queste masse si attrae e quindi le due masse tenderanno ad avvicinarsi. Se anche pensiamo ad una spinta iniziale data dal Big Bang, ad un certo punto questa spinta dovra’ terminare controbilanciata dalla somma delle forze di attrazione gravitazionale. In altre parole, non e’ possibile pensare ad un universo che si espande sempre se abbiamo solo forze attrattive che lo governano.

Questo problema ha angosciato l’esistenza di molti scienziati a partire dai primi anni del ‘900. Lo stesso Einstein, per cercare di risolvere questo problema dovette introdurre nella Relativita’ Generale quella che defini’ una costante cosmologica, a suo avviso, un artificio di calcolo che serviva per bilanciare in qualche modo l’attrazione gravitazionale. L’introduzione di questa costante venne definita dallo stesso Einstein il piu’ grande errore della sua vita. Oggi sappiamo che non e’ cosi’, e che la costante cosmologica e’ necessaria nelle equazioni non come artificio di calcolo ma, in ultima analisi, proprio per giustificare la presenza di componenti non barioniche, energia oscura in primis, che consentono di spiegare l’espansione dell’universo. Se vogliamo essere precisi, Einstein introdusse la costante non per avere un universo in espansione bensi’ un universo statico nel tempo. In altre parole, la sua costante serviva proprio a bilanciare esattamente l’attrazione e rendere il tutto fermo. Solo osservazioni successive, tra cui quella gia’ citata dello stesso Hubble, confermarono che l’universo non era assolutamente statico bensi’ in espansione.

Ora, a questo punto, potremmo decidere insieme di suicidarci dal punto di vista divulgativo e parlare della metrica dell’universo, di coordinate comoventi, ecc. Ma questo, ovviamente, implicherebbe fogli di calcoli e basi scientifiche non banali. Abbiamo le prove che l’universo e’ in espansione, dunque, ad esempio, guardando dalla Terra vediamo gli altri corpi che si allontanano da noi. Come si allontanano? O meglio, di nuovo, che forma avrebbe questo universo?

L’esempio del palloncino fatto prima per spiegare l’espansione dell’universo, e’ molto utile per far capire questi concetti, ma assolutamente fuoriviante se non ci si riflette abbstanza. Molto spesso, si confonde questo esempio affermando che l’universo sia rappresentato dall’intero palloncino compreso il suo volume interno. Questo e’ concettualmente sbagliato. Come detto in precedenza, i punti si trovano solo ed esclusivamente sulla superficie esterna del palloncino che rappresenta il nostro universo.

A complicare, o a confondere, ancora di piu’ le idee c’e’ l’esempio del pane con l’uvetta che viene usato per spiegare l’espansione dell’universo. Anche su wikipedia trovate questo esempio rappresentato con una bella animazione:

Esempio del pane dell'uvetta utilizzato per spiegare l'aumento della distanza tra i punti

Esempio del pane dell’uvetta utilizzato per spiegare l’aumento della distanza tra i punti

Come vedete, durante l’espansione la distanza tra i punti cresce perche’ i punti stessi, cioe’ i corpi presenti nell’universo, vengono trascinati dall’espansione. Tornado alla domanda iniziale da cui siamo partiti, potremmo penare che in realta’ lo spazio resti a volume costante e quello che diminuisce e’ il volume della materia. Il lettore che ci ha fatto la domanda, mi ha anche inviato una figura esplicativa per spiegare meglio il concetto:

Confronto tra il modello di aumento dello spazio e quello di restringimento della materia

Confronto tra il modello di aumento dello spazio e quello di restringimento della materia

Come vedete, pensando ad una contrazione della materia, avremmo esattamente lo stesso effetto con la distanza mutua tra i corpi che aumenta mentre il volume occupato dall’universo resta costante.

Ragioniamo pero’ su questo concetto. Come detto, a supporto dell’espansione dell’universo, abbiamo la legge di Hubble, e anche altre prove, che ci permettono di dire che l’universo si sta espandendo. In particolare, lo spostamento verso il rosso della radiazione emessa ci conferma che e’ aumentato lo spazio tra i corpi considerati, sorgente di radiazione e bersaglio. Inoltre, la presenza dell’energia oscura serve proprio a spiegare questa evoluzione dell’universo. Se la condizione fosse quella riportata nell’immagine, cioe’ con la materia che si contrae, non ci sarebbe lo spostamento verso il rosso, e anche quello che viene definito Modello Standard del Cosmo, di cui abbiamo verifiche sperimentali, non sarebbe utilizzabile.

Resta pero’ da capire, e ritorno nuovamente su questo punto, che forma dovrebbe avere il nostro universo. Non sto cercando di volta in volta di scappare a questa domanda, semplicemente, stiamo cercando di costruire delle basi, divulgative, che ci possano consentire di capire questi ulteriori concetti.

Come detto, parlando del palloncino, non dobbiamo fare l’errore di considerare tutto il volume, ma solo la sua superificie. In particolare, come si dice in fisica, per capire la forma dell’universo dobbiamo capire che tipo di geometria assegnare allo spazio-tempo. Purtroppo, come imparato a scuola, siamo abituati a pensare alla geometria Euclidea, cioe’ quella che viene costruita su una superifice piana. In altre parole, siamo abituati a pensare che la somma degli angoli interni di un traiangolo sia di 180 gradi. Questo pero’ e’ vero solo per un triangolo disegnato su un piano. Non e’ assolutamente detto a priori che il nostro universo abbia una geometria Euclidea, cioe’ che sia piano.

Cosa significa?

Come e’ possibile dimostrare, la forma dell’universo dipende dalla densita’ di materia in esso contenuta. Come visto in precedenza, dipende dunque, come e’ ovvio pensare, dall’intensita’ della forza di attrazione gravitazionale presente. In particolare possiamo definire 3 curvature possibili in funzione del rapporto tra la densita’ di materia e quella che viene definita “densita’ critica”, cioe’ la quantita’ di materia che a causa dell’attrazione sarebbe in grado di fermare l’espasione. Graficamente, le tre curvature possibili vengono rappresentate con tre forme ben distinte:

Curvature possibili per l'universo in base al rapporto tra densita' di materia e densita' critica

Curvature possibili per l’universo in base al rapporto tra densita’ di materia e densita’ critica

Cosa significa? Se il rapporto e’ minore di uno, cioe’ non c’e’ massa a sufficienza per fermare l’espansione, questa continuera’ per un tempo infinito senza arrestarsi. In questo caso si parla di spazio a forma di sella. Se invece la curvatura e’ positiva, cioe’ la massa presente e’ maggiore del valore critico, l’espansione e’ destinata ad arrestarsi e l’universo iniziera’ ad un certo punto a contrarsi arrivando ad un Big Crunch, opposto al Big Bang. In questo caso la geometria dell’universo e’ rappresentata dalla sfera. Se invece la densita’ di materia presente e’ esattamente identica alla densita’ critica, in questo caso abbiamo una superficie piatta, cioe’ Euclidea, e l’espansione si arrestera’ ma solo dopo un tempo infinito.

Come potete capire, la densita’ di materia contenuta nell’universo determina non solo la forma di quest’ultimo, ma anche il suo destino ultimo in termini di espansione o contrazione. Fate pero’ attenzione ad un altro aspetto importante e molto spesso dimenticato. Se misuriamo questo rapporto di densita’, sappiamo automaticamente che forma ha il nostro universo? E’ vero il discorso sul suo destino ultimo, ma le rappresentazioni grafiche mostrate sono solo esplicative e non rappresentanti la realta’.

Perche’?

Semplice, per disegnare queste superifici, ripeto utilizzate solo per mostrare graficamente le diverse forme, come si e’ proceduto? Si e’ presa una superficie bidimensionale, l’equivalente di un foglio, e lo si e’ piegato seguendo le indicazioni date dal valore del rapporto di densita’. In realta’, lo spazio tempo e’ quadrimensionale, cioe’ ha 3 dimensioni spaziali e una temporale. Come potete capire molto facilmente, e’ impossibile sia disegnare che immaginare una superificie in uno spazio a 4 dimensioni! Questo significa che le forme rappresentate sono esplicative per far capire le differenze di forma, ma non rappresentano assolutamnete la reale forma dell’universo dal momento che sono ottenute eliminando una coordinata spaziale.

Qual e’ oggi il valore di questo rapporto di densita’? Come e’ ovvio, questo valore deve essere estrapolato basandosi sui dati raccolti da misure osservative nello spazio. Dal momento che sarebbe impossibile “contare” tutta la materia, questi valori vengono utilizzati per estrapolare poi il numero di barioni prodotti nel Big Bang. I migliori valori ottenuti oggi danno rapporti che sembrerebbero a cavallo di 1 anche se con incertezze ancora troppo elevate per avere una risposta definitiva.

Concludendo, affrontare queste tematiche in chiave divulgativa non e’ assolutamente semplice. Per quanto possibile, e nel limite delle mie possibilita’, spero di essere riuscito a farvi capire prima di tutto quali sono le verifiche sperimentali di cui disponiamo oggi e che sostengono le teorie di cui tanto sentiamo parlare. Queste misure, dirette o indirette che siano, ci permettono di capire che il nostro universo e’ con buona probabilita’ nato da un Big Bang, che sta attualmente espandendosi e questa espansione, almeno allo stato attuale, e’ destinata a fermarsi solo dopo un tempo infinito. Sicuramente, qualunque sia il destino ultimo del nostro universo, questo avverra’ in un tempo assolutamente molto piu’ grande della scala umana e solo la ricerca e la continua osservazione del cosmo ci possono permettere di fare chiarezza un poco alla volta.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Triangolo delle Bermuda, risolto il “mistero”?

14 Mar

Un nostro caro lettore mi ha contatto privatamente per chiedere lumi circa una teoria in grado di spiegare gli incidenti avvenuti nel cosiddetto “Triangolo delle Bermuda”. Vi premetto subito che non si tratta di una di quelle teorie pseudoscientifiche che compaiono nei vari siti spazzatura di cui di sovente dobbiamo occuparci, ma di una teoria assolutamente scientifica e molto interessante.

Mappa del Triangolo delle Bermuda

Mappa del Triangolo delle Bermuda

Dal momento che non ne abbiamo mai parlato, credo sia necessario, prima di passare alla possibile spiegazione, dire qualcosa in piu’ di questo misterioso e molto citato fazzoletto di mare. Come sapete, il triangolo delle Bermuda e’ una zona di mare molto estesa, circa 1100000 Km^2, che si trova nell’Atlantico Settentrionale a largo delle coste di Porto Rico.

Cosa ha di famoso questo punto dell’oceano?

Non vi diro’ certo qualcosa di nuovo raccontando di come, negli anni, il Triangolo delle Bermude e’ divenuto famoso a causa della sparizione improvvisa di molte navi e aerei che, improvvisamente, mentre sorvolavano o si trovavano a passare sulla zona, sono misteriosamente scomparsi senza lasciare alcuna traccia. Di storie e racconti di questo tipo, tutti ne abbiamo sentito parlare, creando un’aura di mistero intorno a questo tratto di mare.

Le spiegazioni date per giustificare in qualche modo queste sparizioni sono davvero molto diversificate e, ovviamente, non possono mancare le ipotesi fantascientifiche. Per fare qualche esempio, si parla di area di volo per gli extraterrestri che non gradirebbero la presenza di esseri umani, di costruzioni risalenti ad Atlantide sul fondo dell’oceano ed in grado di creare forze sconosciute e invisibili, di fenomeno fisico naturale non compreso in grado di attirare qualsiasi cosa passi sopra la zona, di anomalie dello spazio tempo che creerebbero tunnel quantistici in grado di collegare diverse parti dell’universo e cosi’ via con una lunga serie di ipotesi piu’ o meno assurde che di volta in volta vengono riproposte da giornali, siti e, soprattutto, trasmissioni televisive che andrebbero lasciate in onda solo sovrapponendo, come si faceva una volta per i telefilm americani, le risate delle persone quando vengono mandati servizi del genere.

Ora pero’, prima di parlare di ipotesi concrete di spiegazione, credo sia utile fare il punto della situazione su questa storia per capire fino in fondo l’entita’ e il numero di questi incidenti.

Cercando in rete, trovate molto facilmente la lista degli incidenti misteriosi che sono avvenuti nel Triangolo nel corso degli anni. Quello che pero’ molti dimenticano di dire e’ che questa lista non e’ stata redatta da nessun organo ufficiale per il controllo dei mari. Cosa significa? Il mito del Triangolo delle Bermuda inizia intorno al 1950 con un articolo in cui si parlava della prima volta di misteriose sparizioni in questa zona di mare. Il boom mediatico arrivo’ poi nel 1974 con l’uscita di quello che diventera’ poi un bestseller della letteratura pseudo-scientifica, il libro “Bermuda, il triangolo maledetto”, scritto da Charles Berlitz. Per chi non lo conoscesse, Berlitz e’ proprio il fondatore della famosa scuola di lingue diffusa in tutto il mondo ed e’ autore di diversi libri sul tema della archeologia misteriosa e del complottismo piu’ spinto. Bene, l’uscita del libro di Berlitz segna l’inizio del vero e proprio mito del Triangolo delle Bermuda, libro che ha dato poi inizio a tutta una sequela di opere piu’ o meno romanzate che sono arrivate fino ai giorni nostri.

Cosa dire sul libro di Berlitz? Semplice, quella che doveva essere un’inchiesta storica con il resoconto dettagliato di tutti gli incidenti registrarti nel corso degli anni, si e’ rivelata un’enorme montatura gonfiata veramente a dismisura. Come dimostrato per la prima volta da Lawrence Kusche con il suo libro “The Bermuda Triangle Mystery: Solved” del 1975, molti degli episodi riportati nel libro di Berlitz sono inventati, gonfiati o riguardano incidenti non avvenuti nel triangolo. In particolare, Kusche che era un aviatore e istruttore di volo, parti’ con le sue ricerche dalla scomparsa di un volo commerciale ripreso da Berlitz come caso inspiegabile. Come spesso sentiamo dire, tutti gli incidenti accaduti nel Triangolo sono avvenuti in condizioni meteo perfette e senza lasciare traccia. Bene, i dati mostrati da Kusche dimostrano invece il contrario, potendo imputare la maggior parte degli incidenti, tra quelli realmente avvenuti nel Triangolo, alle avverse condizioni meteo e alle tempeste tropicali che di certo non mancano in quella zona.

Cosa significa questo?

Come potete capire, l’alone di mistero che da sempre circonda questo tratto di mare e’ solo frutto di una montatura, principalmente letteraria, avvenuta nel corso degli anni. Facendo una scrematura molto profonda, di tutti gli incidenti che trovate nei racconti, solo 3 o 4 non trovano una spiegazione immediata perche’ veramente avvenuti nella zona, in condizioni di meteo ottime ma, ovviamente, potrebbero essere dovuti a guasti improvvisi.

E’ possibile questo?

Assolutamente si. Per darvi un’idea, dalle statistiche elaborate sia dalla guardia costiera americana che dalla societa’ Lloyd’s di Londra, il numero di incidenti registrati nella zona e’ perfettamente in linea con le statistiche mondiali rapportando i numeri all’alto traffico aereo e navale che avviene nella zona. Ecco il link della USGC americana che ne parla:

USGC, Bermuda

mentre, per quanto riguarda i Lloyd’s, dal momento che questa e’ la compagnia che si occupa proprio del calcolo dei rischi assicurativi, se ci fosse un reale e misterioso pericolo nella zona, secondo voi continuerebbe a far assicurare i mezzi che transitano nel Triangolo?

Altra considerazione, anche se gli incidenti sono dovuti a guasti o avverse condizioni meteo, e’ vero che in moltissimi casi non sono stati rinvenuti i resti dei mezzi incidentati?

Questo e’ assolutamente vero, ma anche qui possiamo dare una spiegazione razionale senza doverci nascondere. Il fondale del Triangolo delle Bermuda e’ caratterizzato dalla presenza di fosse oceaniche molto profonde ed e’ interessato da correnti molto forti. La combinazione di questi due fattori fa si che, in caso di incidente, il mezzo possa essere risucchiato a fondo molto velocemente, e magari trasportato altrove, nel giro di pochissimi minuti.

Detto questo, esiste un mistero sul Triangolo delle Bermuda? Da quanto detto, possiamo escludere questa ipotesi dal momento che il tutto e’ frutto di una montatura prettamente letteraria basata su argomentazioni esagerate, falsificate e, ovviamente, atte solo a creare un business per chi le mette in piedi. Prima pero’ di chiudere, vorrei fare qualche altra considerazione. Come detto, ci sono ancora 3 o 4 incidenti la cui spiegazione non e’ nota e che possono essere imputati ad improvvisi guasti dei mezzi interessati.

E se non fossero guasti dovuti al mezzo?

Perche’ dico questo?

Semplice, non limitandoci al caso del Triangolo, nel corso della storia si sono verificati incidenti in mare apparentemente non spiegabili e che hanno fatto scomparire improvvisamente mezzi dai radar non lasciando assolutamente traccia. Una possibile spiegazione di questi incidenti, che e’ poi l’argomento della domanda iniziale da cui siamo partiti, potrebbe essere imputata ai cosiddetti “idrati di metano”. Fate attenzione, ora stiamo passando dallo smascherare storie fantascientifiche ad ipotesi scientifiche.

Cosa sono gli idrati di metano?

Si tratta di una struttura cristallina solida formata da acqua ghiacciata e metano. Per poter formare strutture di questo tipo e’ necessaria una combinazione di basse temperature e pressioni molto elevate. Queste condizioni sono ovviamente possibili sui profondi fondali oceanici dove l’acqua scende facilmente ad una temperatura prossima allo zero e la colonna di liquido sovrastante produce un’elevata pressione. Strutture di questo tipo sono molto frequenti a profondita’ tra i 500 e i 4000 metri e possono estendersi anche su superfici molto vaste.

Ora, immaginate la seguente situazione: qualcosa, ad esempio una scossa sismica, rompe lo strato di ghiaccio e metano. In queste condizioni, una grossa bolla di gas puo’ fuoriuscire e risalire verso la superficie. Se una nave si trova a passare sopra il punto in cui la bolla esce verso l’atmosfera, cosa succede? Semplice, le navi galleggiano grazie alla spinta di Archimede, dipendente dalla densita’ dell’acqua, che bilancia il peso stesso della nave. Poiche’ il metano ha una densita’ minore dell’acqua, nel momento della fuoriuscita, il peso della nave non sarebbe piu’ bilanciato e il mezzo verrebbe risucchiato verso il basso. E’ possibile questo? Assolutamente si e proprio nel corso degli ultimi anni, esempi di questo tipo sono stati anche documentati. Dal momento che, come anticipato, il Triangolo delle Bermuda presenta fondali molto profondi, correnti fredde e giacimenti di combustibili fossili, e’ assolutamente lecito pensare che la zona possa essere interessata da fenomeni di questo tipo. Ovviamente, in caso di un incidente del genere, la sparizione sarebbe improvvisa e senza lasciare traccia alcuna del mezzo.

Dal mio punto di vista, e’ assolutamente lecito pensare che, forse, alcuni degli incidenti rimasti senza spiegazione, il cui numero ripeto e’ perfettamente compatibile con le statistiche di ogni altra zona, potrebbero essere stati causati dalla rottura di strati di idrati di metano.

Eventi di questo tipo potrebbero anche spiegare, non solo per il Triangolo, incidenti aerei avvenuti a bassa quota sopra gli oceani. La bolla di metano uscita in atmosfera infatti, potrebbe rimanere densa e arrivare agli ugelli ad alta temperatura degli aerei. In questo caso, si svilupperebbe immediatamente un incendio che interesserebbe l’intero apparecchio facendolo precipitare.

Se credete che la spiegazione sia esagerata, pensate che da un metro cubo di idrati di metano ad alta pressione si formano, a pressione e temperatura normali, ben 168 metri cubi di gas e solo 0,87 metri cubi di acqua.

Attenzione, 168 metri cubi di gas da un solo metro cubo di idrati dal fondo dell’oceano. Perche’ allora non sfruttare questa enorme risorsa per estrarre gas? Questa idea e’ ovviamente venuta anche alle maggiori compagnie di estrazione e al momento ci sono diversi gruppi di ricerca, soprattutto americani e giapponesi, che stanno studiando il modo migliore, se possibile, di mettere le mani su questa enorme risorsa. Dalle stime fatte, la quantita’ di gas contenuta negli idrati sarebbe molto maggiore di quella contenuta in tutti i giacimenti tradizionali conosciuti al mondo. Al momento pero’, l’estrazione di questo gas sarebbe ancora troppo rischiosa e con efficienza troppo bassa. Come sapete, il metano e’ uno dei piu’ pericolosi gas serra, con effetti 30 volte maggiori di quelli dell’anidride carbonica. Una fuoriuscita incontrollata di questo gas provocherebbe effetti disastrosi per la nostra atmosfera. Inoltre, sulla base della spiegazione degli idrati per gli incidenti in mare, un’operazione di questo tipo sarebbe molto rischiosa per le piattaforme e le navi che si troverebbero in prossimita’ del punto di raccolta.

Concludendo, per quanto riguarda il Triangolo delle Bermuda, abbiamo visto come il mito creato nel corso degli anni sulla pericolosita’ della zona sia solo una montatura ad hoc. Molti degli incidenti considerati misteriosi sono in realta’ perfettamente spiegabili o avvenuti in zone diverse. Ci sono ancora un numero esiguo di casi non spiegabili in modo certo ma che comunque rientrano nelle statistiche calcolate su scala mondiale. Non pensando al semplice guasto, alcuni di questi avvenimenti potrebbero essere stati causati dalla liberazione di metano da idrati sul fondale. Queste strutture solide, conosciute e presenti sui freddi fondali di alcuni oceani, racchiudono enormi quantita’ di metano che puo’ essere liberato da fratture naturali o indotte dello strato solido. La quantita’ di metano liberata in questi casi e’ notevole al punto che diversi studi sono in corso per cercare di sfruttare questa risorsa.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annuncio storico: siamo fuori dal Sistema Solare?

18 Set

In questo blog, diverse volta abbiamo parlato delle due sonde Voyager. Lo abbiamo fatto un po’ per passione, un po’ per raccontare la storia di questa missione che, lanciata addirittura nel 1977, ancora oggi, a distanza di cosi’ tanti anni, ci fornisce risultati importantissimi per capire come e’ fatto l’universo che ci circonda.

Oltrre a questi “nobili” scopi di cronaca, in questi articoli:

Siamo fuori dal sistema solare … o forse no?

Aggiornamento sulla Voyager-1

abbiamo parlato di queste sonde per smentire molta speculazione che e’ nata negli ultimi tempi riguardo alla missione. Come ricorderete, molto si era discusso sul fatto che la Voyager-1 fosse uscita o meno fuori dal Sistema Solare. Per ben due volte, era stato annunciato questo storico passaggio. Come visto, in almeno un’occasione, anche siti accreditati, per fretta o per approfittare della notorieta’ della missione, si erano lanciati in dichiarazioni che avevano addirittura richiesto una smentita ufficiale da parte della NASA.

La cosa piu’ importante da capire in questa discussione e’ “che cosa significa uscire fuori dal sistema solare”. Come detto in passato, non dobbiamo certo pensare che esista una linea ben marcata, una sorta di cartello stradale, che dica “benvenuti nello spazio intergalattico”.

Scientificamente, la definizione di questo passaggio non e’ semplice, ma soprattutto univoca. In linea di principio, come e’ facile immaginare, il confine tra sistema solare e spazio esterno, non puo’ certo prescindere dal nostro Sole. Qualche tempo fa, si identificava un confine del sistema solare come lo spazio dopo Plutone, cioe’ fuori dai pianeti, anche se Plutone e’ stato declassificato, che orbitano intorno al Sole. Questa definizione, anche se facilmente comprensibile e forse meglio definibile di altre, non e’ adatta per il semplice scopo che dopo Plutone, l’interazione del nostro Sole e’ ancora molto presente.

Proprio da questo concetto, nasce la definizione di confine con lo spazio intergalattico. Detto molto semplicemente, possiamo vederla come quella linea oltre la quale gli effetti del Sole divengono minori di quelli dovuti allo spazio esterno. Anche se scientificamente questa definizione e’ molto comprensibile, immaginare questa separazione non e’ semplice, soprattutto se parliamo di regioni di spazio poco conosciute e di cui, e’ possibile, si conoscono poco le interazioni con lo spazio esterno.

Proprio da questa considerazione, come visto nell’articolo precedente, era nata la notizia falsa di qualche mese fa. Grazie ai dati forniti da Voyager-1, e’ stato possibile identificare una nuova regione la cui esistenza non era stata neanche ipotizzata prima. Vedete la potenza e l’importanza di queste missioni? Ovviamente, il modo migliore di poter studiare qualcosa e’ andare li per vedere come e’ fatto. Purtroppo, in campo cosmologico, questo non e’ quasi mai possibile. La voyager e’ gia’ ora l’oggetto piu’ lontano dalla Terra che l’uomo abbia costruito e che comunque e’ in comunicazione con noi.

Dopo questo lungo cappello introduttivo, cerchiamno invece di capire perche’ sto tornando a parlare di Voyager-1.

Solo pochi giorni fa, e’ stato fatto, finalmente, l’annuncio storico. Questa volta, a scanso di equivoci, la fonte ufficiale e’ proprio la NASA. Senza anticiparvi nulla, vi giro il link in questione:

NASA, annuncio Voyager-1

La sonda ha iniziato il suo viaggio nello spazio interstellare. Riprendendo il titolo di uno dei post precedenti: “Siamo fuori dal Sistema Solare”.

Come e’ facile immaginare, si tratta di un passo storico per l’uomo, paragonabile se volete al primo allunaggio nel 1969.

Perche’ e’ stato fatto l’annuncio? Come ci si e’ accorti del passaggio?

In realta’, anche se l’annuncio e’ del 12 settembre 2013, lo storico passaggio e’ avvenuto mesi prima, ma non e’ stato possibile determinarlo. Mi spiego meglio.

Per determinare il confine con il Sistema Solare, si cerca di evidenziare una zona in cui la densita’ del plasma di particelle cresce notevolmente rispetto ai valori standard. Detto molto semplicemente, le particelle emesse dal sole formano una sorta di bolla che ricopre quello che chiamamiamo sistema solare ed esiste un confine tra dentro e fuori offerto dell’eliopausa.

Cosa si e’ visto dai dati di Voyager?

Grazie ad una potente emissione solare che ha scagliato particelle verso l’esterno, i sensori di Voyager hanno potuto misurare la densita’ elettroncia intorno alla navicella. In questo modo, anche senza un sensore di plasma, e’ stato possibile identificare la variazione di densita’ tipica dello spazio interstellare, cioe’ fuori dla sistema solare. Per poter caire quando il passaggio fosse avvenuto, i ricercatori hanno dovuto spulciare all’indietro i dati raccolti da Voyager nei mesi precedenti, per cercare di identificare gli andamenti della densita’. Da questo studio, e’ emerso che il passaggio attraverso il confine cosi’ definito era avvenuto circa un anno fa, il 25 agosto 2012.

Come e’ facile immaginare, oltre allo storico annuncio, tutti questi studi sono stati pubblicati sulla rivista Science.

E ora?

In questo istante, la Voyager si trova a circa 19 miliardi di Kilometri da Terra. I segnali inviati verso di noi hanno una potenza di appena 22 Watt e giungono fino a noi impiegando 17 ore. Sembra quasi incredibile che da Terra si riescano a percepire e identificare segnali paragonabili a quelli di una lampadina che si trova cosi’ distante nell’universo.

La sonda e’ alimentata da una batteria TRG che, a meno di sorprese, dovrebbe garantire il funzionamento della Voyager fino al 2025. A quella data, la sonda si dovrebbe trovare, spostandosi a circa 17 Km/s, a qualcoa come 25 miliardi di kilometri dal nostro pianeta. Speriamo che durante questa nuova fase del suo viaggio, possa permetterci altre importanti evidenze scientifiche.

Concludendo, lo storico annuncio dell’ingresso nello spazio interstellare e’ finalmente arrivato. La sonda Voyager e’ l’oggetto piu’ lontano dalla Terra costruito dall’uomo e che e’ ancora in contatto con noi. Dopo quanto annunciato e scritto in questo articolo, non credo sia il caso di chiedersi se questa missione e’ stata fruttuosa oppure no!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sugli esopianeti

15 Ago

Come sapete, siamo soliti tornare su argomenti gia’ trattati, qualora su questi venissero richiesti dettagli aggiuntivi o, sopratutto, quando qualcosa di nuovo viene scoperto o introdotto.

Questa volta vogliamo tornare a parlare di esopianeti, su cui molto avevamo detto in questi articoli:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Esopianeti che non dovrebbero esserci

Perche’ torniamo a parlarne?

Perche’ tutti e due i motivi sopra indicati convergono su questo argomento. Prima di tutto, nella sezione:

Hai domande o dubbi?

e’ stato suggerito di parlare della presunta scoperta di un nuovo esopianeta che sembrerebbe poter essere il corpo extrasolare piu’ simile alla nostra Terra e poi perche’ ci sono anche delle novita’ di cui vorrei parlare.

Andiamo con ordine.

Come potete leggere, la richiesta era relativa all’esopianeta KOI-4742.01. Come giustamente detto, di questo pianeta si e’ avuta l’evidenza solo pochi giorni fa. Perche’ parlo di evidenza e non di scoperta? Usando un linguaggio piu’ simile a quello della fisica delle particelle, si parla di evidenza quando c’e’ il sospetto che potrebbe esserci un corpo in quella zona dell’universo che stiamo osservando, ma ancora non vi e’ la certezza. Per KOI-4742.01 la situazione e’ proprio questa. Come visto negli articoli precedenti, gli esopianeti vengono identificati con il metodo dei passaggi. Per prima cosa, si identifica la stella intorno ala quale potrebbe esserci un sistema stellare. Dopo di che, si osserva questa stella cercando di misurare le minime variazioni di luminosita’ che si hanno quando un pianeta gli passa davanti. Questo e’ il metodo utilizzato per identificare i pianeti fuori dal sistema solare. Come potete facilmente immaginare, si tratta di un metodo molto complicato basato su variazioni minime di luminosita’ percepite ad una distanza cosi’ lontana. Proprio per questo motivo, ruolo determinante in questa ricerca e’ sicuramente quello del telescopio. Strumenti sempre piu’ potenti e precisi, possono consentire di identificare pianeti sempre piu’ lontani e piccoli.

Perche’ parliamo tanto di esopianeti?

Come detto in passato, lo studio di questi corpi e’ di fondamentale importanza per cercare di capire dove si potrebbe essere sviluppata la vita. Qui non stiamo parlando di video fasulli di UFO che passano da qualche parte, ma di una seria ricerca scientifica volta ad identificare pianeti potenzialmente abitabili. Come detto diverse volte, vi ricordo che quando parliamo di vita, non intendiamo necessariamente omini verdi che parlano e girano su astronavi. Ogni qualsiasi forma di vita, dal batterio alla forma piu’ complessa, possono aiutarci a capire meglio la formazione del nostro universo e soprattutto in quali e quanti casi si possono formare le condizioni per ospitare la vita.

Cosa ha di speciale KOI-4742.01?

Come anticipato, si tratta del potenziale esopianeta piu’ simile alla Terra. Cosa significa? Al momento ci sono piu’ di 3500 potenziali esopianeti, di cui quasi 1000 certi e identificati. Volendo fare una ricerca per trovare zone potenzialmente abitabili, di quali parametri terremo conto? Detto in altri termini, come possiamo dire se un pianeta e’ adatto o no per ospitare la vita?

Negli articoli precedenti, avevamo parlato di “zona di abitabilita’”, intendo quella fascia di distanze dalla stella centrale in grado di assicurare la formazione di acqua sul pianeta e delle temperature, diciamo, decenti, cioe’ non troppo calde ne’ troppo fredde.

Per poter procedere in modo sistematico e scientifico, e’ stato introdotto un indice matematico proprio per racchiudere queste caratteristiche. Come indicato nel commento da cui siamo partiti, si tratta del cosiddetto ESI, cioe’ “indice di similarita’ alla Terra”. Come funziona? Volendo utilizzare una terapia d’urto, vi faccio vedere la formula che definisce l’ESI:

esi_formula

Non spaventatevi, altro non e’ che il prodotto di probabilita’ ottenuto mettendo insieme 4 fattori: il raggio del pianeta, la densita’ interna, la velocita’ di fuga (indicatore della gravita’ sul pianeta) e la temperatura media della superficie. Ogni parametro viene confrontato con quelli della Terra e pesato in modo diverso. In tal senso, per la potenziale formazione della vita, si considera la temperatura superficiale piu’ importante del raggio e cosi’ via. Mettendo i parametri nella formula, ottenete una valore compreso tra 0 e 1, dove 1 indica qualcosa identico alla nostra Terra.

KOI-4742.01 ha un ESI pari a 0,91 ed e’, qualora venisse confermato, l’esopianeta piu’ simile alla Terra trovato fino a questo punto. Prima di questo, il primo posto in classifica spettava a Kepler-62e, con un ESI pari a 0,83. Per essere precisi, dobbiamo dire che il primo posto in classifica spetta ancora a Kepler-62e, dal momento che KOI-4742.01 non e’, come detto in precedenza, stato ancora confermato. Allo stesso modo, esistono anche altri esopianeti non confermati che potrebbero avere un ESI maggiore di 0,83, anche se minore di quello di KOI-4742.01.

Il sito piu’ completo e aggiornato con tutte le recenti scoperte e con tantissime informazioni su questo tipo di ricerche e’ senza dubbio quello del PHL, cioe’ Planet Habitability Laboratory, gestito dall’universita’ di Porto Rico:

PHL site

Come potete vedere, qui trovate tantissime informazioni sulla ricerca in corso di esopianeti, insieme anche al catalogo aggiornato sia dei corpi identificati che di quelli sospetti:

PHL, database

Nell’immagine che segue, trovate poi la classifica dei pianeti con ESI maggiore gia’ confermati:

Classifica degli esopianeti confermati con ESI maggiore

Classifica degli esopianeti confermati con ESI maggiore

Prima di concludere, vorrei darvi qualche informazione aggiuntiva. Come potete vedere sul sito del PHL, gli esopianeti vengono anche classificati in base alla loro tipologia: terrestre caldo, superterrestre, subterrestre, mercuriano, ecc. Questa identificazione viene data considerando la tipologia di pianeta, se roccioso o meno, la temperatura e la massa del pianeta. Per farvi un esempio, Kepler-62e e’ classificato di tipo superterrestre, avendo una massa di circa 3 volte e mezzo quella della Terra. Anche questa distinzione risulta molto importante per la classificazione dei pianeti in base alla loro possibilita’ di ospitare o meno la vita.

Proprio per questo motivo, capite bene che l’ESI e’ si un parametro molto importante ma non e’ l’unico utilizzato. Nella classificazione degli esopianeti, si tiene conto di 7 parametri definiti a partire dala nostra Terra. Oltre all’indice di similarita’, si tiene conto della posizione, se in fascia abitabile o meno, dell’abitabilita’ per piante e vegetazione complessa, che dipende anche dall’umidita’ oltre che dalla temperatura, della tipologia dell’interno del pianeta, oltre che alla densita’ inserita nell’ESI qui si tiene conto se il nucleo e’ ricco di ferro o no, e tanti altri parametri importanti per la vita.

Concludendo, la ricerca degfli esopianeti continua senza sosta e il database di corpi conosciuti fuori dal nostro sistema solare cresce senza sosta. Come sappiamo bene, uno degli scopi principali di questa ricerca e’ quello di determinare se su qualche pianeta esistono le condizioni per la formazione e lo sviluppo di forme di vita. A tal proposito, sono stati introdotti diversi indici per formalizzare e confrontare facilmente le caratteristiche degli esopianeti. Tra questi, ruolo determinante e’ quello dellESI, cioe’ l’indice di somiglianza alla Terra. Fate pero’ attenzione ad una cosa: se anche dovessimo trovare un pianeta del tutto simile alla Terra e con caratteristiche adatte alla vita, non significherebbe assolutamente che esiste la certezza di trovare vita su quel pianeta. Per questo, non resterebbe che andare a vedere con i nostri occhi!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’esperimento della goccia di pece

23 Lug

Pochi giorni fa, e’ stata annunciata la notizia che finalmente e’ stato possibile riprendere uno degli esperimenti scientifici piu’ lunghi, secondo alcuni anche piu’ noioso, della storia.

Di cosa si tratta?

L’esperimento in questione e’ quello della goccia di pece. Come sapete bene, la pece e’ quella sostanza di colore nero, ricavata dai bitumi e da legni resinosi. In condizioni normali, la pece si presenta come un solido, tanto che e’ possibile romperla utilizzando un martello.

Confronto tra fluidi ad alta e bassa viscosita'. Fonte: Wikipedia

Confronto tra fluidi ad alta e bassa viscosita’. Fonte: Wikipedia

Anche se apparentemente sembra un solido, la pece e’ un fluido, precisamente un fluido ad altissima viscosita’. Come sapete, la viscosita’ di un fluido indica la resistenza della sostanza allo scorrimento. L’animazione riportata aiuta a capire bene la differenza tra fluidi ad alta e bassa viscosita’ quando questi vengono attraversati da solidi.

Bene, cosa c’entra la pece con questo esperimento?

Come anticipato, la pece e’ in realta’ un fluido ad alta viscosita’. Detto questo, anche se con tempi molto lunghi, questa sostanza deve comportarsi come un fluido. Sulla base di questa considerazione, e’ possibile realizzare un esperimento per misurare la viscosita’ della sostanza facendola scendere all’interno di un imbuto.

Il primo che propose questo esperimento fu il professor Thomas Parnell dell’università del Queensland. Parnell prese un pezzo di pece, lo sciolse e lo fece colare all’interno di un cono di vetro. Questo venne fatto addirittura nel 1927.

Per poter iniziare l’esperimento, fu necessario far raffreddare la pece, operazione che duro’ circa 3 anni, fino al 1930. Solo a questo punto, la parte finale del cono venne rotta formando un imbuto. Dal momento che la pece e’ un fluido, si devono osservare delle gocce cadere dall’imbuto.

Facile, direte voi. E’ vero, ma per eseguire questo esperimento serve tanta tanta pazienza.

Non ci credete?

La prima goccia di pece, cadde dopo ben 9 anni! Lo stesso avvenne per le gocce successive. Ecco una tabella riassuntiva dell’esperimento:

Data Evento Durata(Mesi) Durata(Anni)
1927 Inizio dell’esperimento: la pece viene versata nell’imbuto sigillato
1930 Il fondo dell’imbuto viene aperto
Dicembre 1938 Caduta della prima goccia 96-107 8-8,9
Febbraio 1947 Caduta della seconda goccia 99 8,3
Aprile 1954 Caduta della terza goccia 86 7,2
Maggio 1962 Caduta della quarta goccia 97 8,1
Agosto 1970 Caduta della quinta goccia 99 8,3
Aprile 1979 Caduta della sesta goccia 104 8,7
Luglio 1988 Caduta della settima goccia 111 9,3
28 novembre 2000 Caduta dell’ottava goccia 148 12,3

Perche’ questo esperimento e’ stato ritirato fuori in questi giorni?

Come evidenziato dalla tabella, sono state effettivamente osservate le gocce di pece cadere nel bicchiere sottostante, ma fino ad oggi, nessuno era mai riuscito a filmare la goccia che cadeva. In occasione dell’ottava goccia nel 200o, la telecamera che era stata montata era guasta, per cui si perse questo importante momento.

Seguendo il link, potete vedere il filmato della fatidica goccia che cade:

Video goccia di pece

Dai tempi misurati nell’esperimento, si e’ ricavato che la pece ha una viscosita’ pari a 230 miliardi di volte quella dell’acqua!

Durante questi 83 anni, l’esperimento e’ sempre stato in funzione e, nei primi anni del 2000, quando ci si rese conto che le variazioni di temperatura potevano modificare la viscosita’ della pece, la campana che conteneva l’apparato e’ stata termalizzata in modo da mantenere costanti i parametri.

Nel 2005, in memoria del professor Parnell, venne assegnato all’esperimento della goccia di pece l’IG Nobel, parodia, ormai seguitissima, del piu’ cleebre premio Nobel.

A parte gli scherzi, si tratta di un esperimento utile per evidenziare proprieta’ dei fluidi ad alta viscosita’. Certo, oggi come oggi, le misure sono state fatte, ma l’esperimento e’ ancora in corso perche’ rappresenta ormai un simbolo sia dell’universita’ del Queensland sia una memoria storica della fisica.

Se avete tempo libero, ma ne serve molto, potete ache seguire in diretta l’esperimento, collegandovi a questo link:

Diretta Pece

Dal punto di vista chimico-fisico, i fluidi alta viscosita’ sono assolutamnete interessanti e dalle proprieta’ a dir poco strabilianti. Anche il vetro, classificato come sostanza amorfa, puo’ essere definito un fluido ad alta viscosita’. Proprio per questo motivo, alcune vetrate delle chiese piu’ antiche, mostrano delle forme allargate verso il basso, caratteristica dovuta proprio al lento movimento del fluido.

Certamente, oggi come oggi non stiamo parlando di un esperimento in grado di stravolgere la fisica, ma di un’esperienza importante dal punto di vista storico e sicuramente curiosa per noi abituati alla comunicazione e ai risultati immediati. Punto a favore, e’ certamente il costo zero dell’esperimento che richiede solo un po’ di aria condizionata per termostatare il piccolo apparato.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Biocarburanti di terza generazione

28 Giu

Sicuramente, tutti avrete sentito parlare di biocarburanti. Come e’ noto, la domanda mondiale di petrolio e derivati continua a crescere nel tempo, causando, tra le altre cose, un aumento del prezzo del greggio. Uno dei problemi principali per quanto riguarda il consumo di petrolio, e’ la crescita sempre piu’ accentuata di quelle che una volta venivano chiamate economie emergenti. Dico tra quelle che “venivano chiamate” economie emergenti perche’, come noto, si tratta ormai di economie gia’ belle che solide, si pensi ad esempio alla Cina e all’India, e dove l’aumentato benessere, crea una richiesta di materie prime sempre crescente da parte della popolazione. In questo scenario, le fonti fossili hanno una vita sempre piu’ corta e, come sappiamo bene, dobbiamo gia’ fare i conti con quello che succedera’ nell’era, attualmente ancora inimmaginabile, del dopo petrolio.

In questo scenario, gia’ da qualche anno, si e’ iniziato a parlare di biocarburanti. Forse non tutti sanno che siamo gia’ arrivati alla seconda generazione di questi prodotti. Nella prima generazione si parlava di produzione da materiale vegetale, mentre nella seconda generazione si e’ studiata in dettaglio la produzione di carburanti a partire dagli scarti alimentari.

Questi studi hanno mostrato delle problematiche molto complesse e difficilmente risolvibili. Nella prima generazione, sicuramente avrete sentito parlare dell’olio di colza. Uno dei problemi principali in questo caso e’ l’utilizzo di vaste aree di terreno per la produzione di queste piante. Necessariamente, il ricorso a queste colture, sottrae terreno alla produzione alimentare. Ora, anche quello cibo per la popolazione mondiale sempre crescente e’ un problema serio e su cui, prima o poi, dovremo ragionare per trovare una soluzione. Rubare terreno alla produzione alimentare per piantare colza, crea dunque una competizione tra due problemi fondamentali per la civilta’ umana.

Per quanto riguarda invece la seconda generazione, il problema principale in questo caso e’ dato dai costi di produzione di energia che mostrano tutt’ora valori troppo elevati se confrontati con quelli dei combustibili fossili.

A questo punto, la terza generazione di combustibili fossili, mira a trovare soluzioni alternative per la produzione di biocarburanti utilizzando materie prime facili da reperire, economiche e ad alto rendimento in termini di carburante.

Il settore di ricerca principale nei biocarburanti di terza generazione e’ quello che vuole impiegare microalghe.

Cosa sono le microalghe?

Si tratta di normalissime specie vegetali che crescono spontaneamente nelle acque reflue. Un eventuale utilizzo di queste alghe consentirebbe dunque non solo di risolvere il problema dei carburanti, ma anche di ridurre il carico inquinante nelle acque di scarto.

Ovviamente, in un’ottica di produzione di massa, si pensa di creare dei veri e propri allevamenti di alghe. In questo caso, le uniche cose di cui c’e’ bisogno sono uno specchio d’acqua (cisterna, vasca, ecc) e della luce del sole per permettere la fotosintesi.

Le alghe in generale sono molto ricche di lipidi e proteine che le rendono ottimi candidati per la produzione di biodiesel e bioetanolo. Per darvi un’idea, il contenuto di grassi di queste sostanze e’ anche 30 volte superiore a quello delle comuni specie vegetali utilizzate nella produzione di biocombustibile (mais e colza in primis).

Come confronto numerico, vi riporto una tabella in cui viene mostrato non solo il contenuto lipidico di queste sostanze confrontate con le materie prime utilizzate nella prima e seconda generazione, ma anche il rendimento in termini di olii che e’ possibile ottenere:

Materia prima

Contenuto lipidico (% olio/s.s.)

Rendimento in olio
(L olio/ha)

Suolo utilizzato
(m2/kg biodiesel)

Resa in biodiesel
(kg biodiesel/ha)

Mais

4

172

66

152

Soia

18

446-636

18

562

Jatropha

28

741-1.892

15

656

Camelina

42

915

12

809

Colza

41

974

12

946

Girasole

40

1.070

11

1.156

Olio di palma

36

5.366-5.950

2

4.747

Microalghe (basso contenuto in olio)

30

58.700

0,2

51.927

Microalghe (medio contenuto in olio)

50

97.800

0,1

86.515

Microalghe (elevato contenuto in olio)

70

136.900

0,1

121.104

Anche per quanto riguarda l’emissione di CO2, i carburanti prodotti da alghe presentano valori molto piu’ bassi rispetto ai biocarburanti soliti:

Materia prima

Emissioni di CO2

Impiego di acqua

Superficie necessaria per soddisfare la domanda mondiale di petrolio

 

(gCO2eq/MJ)

(g/m2/g)

(106 ha)

Jatropha

56,7

3.000

2.600

Alga

3

16

50-400

Olio di palma

138,7

5.500

820

Colza

78,1

1.370

4.100

Soia

90,7

530

10.900

Le proprieta’ dei carburanti ottenuti tra le terza e le prime due generazioni e’ del tutto equivalente:

Proprietà

Biodiesel da alghe

Biodiesel da soia

Biodiesel da colza

Biodiesel da girasole

Diesel

Densità (kg/L)

0,864

0,884

0,882

0,860

0,838

Viscosità (mm2/s, cSt a 40 °C)

5,2

4

4,83

4,6

1,9-4,1

Flash point (°C)

115

131/178

155/180

183

75

Punto di solidificazione (°C)

-12

-4

-10,8

-7

-50/+10

Punto di intorbidamento (°C)

2

1

-4/-2

1

-17

Numero di cetano

52

45/51

53/56

49

40-55

PCI (MJ/kg)

41

37,8

37,2

38,9

42

Dunque, tutto risolto, basta iniziare a coltivare alghe per eliminare il problema delle risorse fossili. Purtroppo, non e’ propriamente cosi’.

Come anticipato, si tratta di ricerche attualmente in corso. Il problema principale dell’utilizzo di alghe e’, al solito, il costo. Allo stato attuale per ottenere 1 Kg di alghe servono circa 3.5 dollari. Questo prezzo e’ ancora troppo alto in confronto ai combustibili classici.

Come detto pero’, si tratta di studi ancora ad un livello quasi pioneristico. In tal senso, ci sono ancora molti “manici” che possono essere utilizzati per migliorare e ottimizzare il processo. Prima di tutto, i costi mostrati sono relativi ad una produzione su piccolissima scala. Nell’idea di un impianto dedicato, il costo per Kg di alghe potrebbe scendere tranquillmanete di un fattore 10, rendendolo paragonabile a quello dei combustibili fossili. Inoltre, esistono migliaia di specie di alghe che possono essere coltivate. In termini di resa, le alghe attualmente in studio potrebbero non essere le migliori per contenuto lipidico. Trovare soluzioni migliori equivale a migliorare il rendimento in produzione e dunque ad abbassare ancora il prezzo. Sempre in questo contesto, il ricorso all’ingegneria genetica potrebbe aiutare ad ottimizzare i processi di fotosintesi, aumentando notevolmente la produzione lipidica e dunque il rendimento nella produzione di olii combustibili.

Concludendo, gli studi sulla terza generazione di biocarburanti mirano all’utilizzo di alghe. Queste specie vegetali presentano un altissimo contenuto lipidico che le rende ottime candidate per la produzione di combustibili. Allo stato attuale, ripetiamo di ricerca pura e appena iniziata, i costi di produzione delle alghe sono ancora troppo elevati. Gli studi in corso mirano dunque all’ottimizzazione della produzione di queste nuove materie prime, oltre a migliorare il rendimento trovando, tra le migliaia disponibili, quelle a maggior contenuto lipidico. Sicuramente, una ricerca del genere merita attenzione. In un futuro piu’ o meno prossimo potrebbe rivelarsi fondamentale per la civilta’ umana.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

1998 QE2 e la sua luna, considerazioni scientifiche

1 Giu

Solo ieri, e’ passato l’asteroide 1998 QE2, di cui avevamo parlato in questo post:

Grappoli di asteroidi in arrivo!

Come visto, questo era l’ultimo di una serie, precisamente quattro, di corpi celesti che sono passati in prossimita’ della Terra. Come spiegato nel’articolo, quando parliamo di “prossimita’”, non intendiamo assolutamente che ci sia il rischio che questi corpi possano impattare sulla Terra. Tra l’altro, 1998 QE2 che era il piu’ grande tra questi, e’ anche quello che e’ passato piu lontano, ben 5,8 milioni di Km, da noi. Solo per rispondere ad alcuni commenti fatti, ma soprattutto per rispondere alle tante teorie assurde che si leggono in rete, non vi era nessuna probabilita’ di collisione tra la Terra e 1998 QE2. In questi giorni sono comparsi su web, su siti davvero discutibili, molti articoli che parlavano di una probabilita’ elevata di collissione, dal momento che l’asteroide avrebbe potuto improvvisamente variare la sua orbita e puntare verso di noi. Premesso che il moto degli asteroidi, cosi’ come di tutti i corpi nell’universo, e’ regolato dalla forza gravitazionale, e’ assurdo pensare che cosi’ d’improvviso un corpo di questo tipo possa variare la sua direzione. Per fare questo, servirebbe una forza grande a piacere, ma soprattutto istantanea che compaia dal nulla vicino al corpo. Ora, se vogliamo credere che nell’universo possano spuntare pianeti, stelle e buchi neri da un secondo all’altro, allora dovremmo riscrivere i libri di fisica e di astronomia.

Premesso questo, la notizia piu’ interessante su 1998 QE2 e’ stata che in realta’ questo era un asteroide binario, cioe’ dotato anche di una sua Luna, cioe’ di un piccolo corpo orbitante intorno all’asteroide. Dal punto di vista scientifico, la notizia non ci deve assolutamente sorprendere. Secondo la teoria, molti di questi corpi potrebbero essere binari e addirittura arrivare ad avere anche fino a 2 lune. La spiegazione scientifica e’ molto semplice, durante il loro moto, questi corpi possono attirare, sempre mediante la loro attrazione gravitazionale, corpi minori che quindi vengono catturati ed entrano in orbita intorno a loro.

Per spiegare questo meccanismo di cattura in parole povere, cerchiamo di trovare qualche esempio di facile comprensione. Come sappiamo ciascun corpo dotato di massa, attira gli altri corpi mediante la forza gravitazionale. Questo e’ uno dei principi cardine della fisica, la teoria della gravitazione universale, formulata da Newton. Perche’ si chiama universale? Semplicemente perche’ questa e’ l’interazione che subisono tutti i corpi massivi, dalla mela che cade sulla Terra, ai pianeti che orbitano intorno al Sole o alle galassie che ruotano intorno al centro dell’universo. Tutto e’ regolato da questa legge.

Perche parlo di questo?

Nella sezione:

Hai domande o dubbi?

C’e’ stato un commento molto interessante proprio sulla luna di 1998 QE2. La domanda e’ molto semplice: come e’ possibile che la luna venga catturata e resti attaccata all’asteroide quando questo passa attraverso il sistema solare? In questo passaggio, ci sono i pianeti che sicuramente hanno una massa maggiore dell’asteroide e dunque dovrebbero strappare questa luna mediante la loro attrazione gravitazionale.

Questo commento, mi ha spinto a scrivere questo articolo piu’ scientifico, ma sempre cercando di mantenere un profilo divulgativo.

Detto questo, torniamo alla cattura della luna da parte dell’asteroide. Come anticipato, ciascun corpo dotato di massa attira altri corpi massivi, e dunque, a sua volta, viene attrato. Perche’ la mela cade sulla terra? Perche’ la terra la attrae con la sua forza gravitazionale. Da quanto detto, anche la mela attrae la terra, ma l’interazione e’ talmente debole che quella osservabile e’ solo quella del corpo piu’ grande verso quello piu’ piccolo.

Ora, per poter rispondere al commento, e’ necessario tirare fuori qualche formula e qualche numero, ma non vi spaventate.

La forza di attrazione gravitazionale esercitata tra due corpi dotati di massa puo’ essere scritta come:

F=G x m1 x m2/(r^2)

Dove F e’ la forza, ripeto solo attrattiva, m1 e m2 sono le masse dei corpi in questione, r e’ la distanza tra i corpi e G e’ la cosiddetta costante di gravitazione universale. Ora, come vedete, la forza e’ direttamente proporzionale alle masse e inversamente proporzionale al quadrato della distanza. Cosa significa? Se raddoppiate la massa, raddoppia la forza, ma se raddoppiate la distanza, la forza diventera’ 1/4 di quella precedente.

Ora, abbiamo tutti i dati per poter rispondere alla domanda iniziale. Per fare questo, non serve fare tutto il calcolo, basta vedere quale delle due forze e’ maggiore, cioe’ se l’attrazione dell’asteroide sulla sua luna e’ maggiore, ad esempio, di quella che esercita la Terra. Perche’ facciamo questo esempio? Come vedete dall’immagine:

L'orbita vicino alla Terra seguita da 1998 QE2

L’orbita vicino alla Terra seguita da 1998 QE2

L’asteroide e’ passato vicino alla Terra ad una distanza di 5,7 milioni di Km e, come chiaro dalla figura, molto piu’ vicino alla Terra che agli altri pianeti e al sole. Detto questo, possiamo suppore che la forza maggiore sarebbe quella esercitata dalla Terra.

Bene, per facilitare il calcolo, stimiamo il rapporto tra la forza di 1998 QE2, F(QE), rispetto a quella della Terra, F(T), sulla piccola luna dell’asteroide. Dalle formule viste, otteniamo:

F(QE)/F(T)= [m(QE)/m(T)] x [r(T)/r(QE)]^2

dove m(QE) e’ la massa di 1998 QE2, m(T) e’ la massa della Terra, r(QE) e’ la distanza tra 1998 QE2 e la sua luna e r(T) e’ la distanza tra la Terra e la luna di 1998 QE2. Notate che in questo modo abbiamo semplificato sia la costante che la massa della luna. Questo calcolo e’ possibile perche’ vogliamo fare un raffronto tra le due forze, non determinare in modo assoluto le singole componenti.

La massa della Terra vale 5,9 x 10^24 Kg, la distanza minima tra la Terra e 1998 QE2 e’ di 5,8 milioni di Km. Ovviamente possiamo supporre che la minima distanza tra la Terra e 1998 QE2 sia uguale alla distanza minima tra la Terra e la luna di 1998 QE2. Notate inoltre che per massimizzare l’effetto, stiamo prendendo come distanza quella minima di avvicinamento.

Ora, manca sia la massa di 1998 QE2 che la distanza con la sua Luna. Al momento, non e’ ancora stata stimata la massa dell’asteroide perche’ i dati sono stati raccolti al suo passaggio. Possiamo pero’, commettendo un errore sicuramente trascurabile, prendere una densita’ titpica degli asteroidi per stimare la sua massa. Se, ad esempio, prendiamo la densita’ di un altro corpo di cui abbiamo parlato tanto, Apophis, sappiamo che la densita’ e’ di 2,7 x 10^3 Kg/m^3. Il diametro di 1998 QE2 e’ di 2,7 Km, per cui abbiamo un volume di:

V(QE) = 4/3 pi r^3 = 10,3 Km^3 = 10,3 x 10^9 m^3

Come vedete, abbiamo per semplicita’ assunto che l’asteroide abbia una forma sferica. Ora, prendendo la densita’ di Apophis, possiamo stimare una massa di:

m(QE) = d(apophis) x V(QE) = 27,8 x 10^12 Kg

cioe’ circa 28 miliardi di tonnellate.

Anche per quanto riguarda la distanza tra 1998 QE2 e la sua Luna non ci sono ancora dati precisi. Questo pero’ non ci deve spaventare. Poiche’ dalle foto raccolte:

Le immagini da cui si e' evidenziata la presenza della luna per 1998 QE2

Le immagini da cui si e’ evidenziata la presenza della luna per 1998 QE2

si riesce a malapena a distinguere la luna, e considerando che il diametro massimo di 1998 QE2 e’ di 2,7 Km, possiamo esagerare e pensare che la distanza tra questi due corpi sia, ad esempio, di 1 Km. Ovviamente, questa distanza sara’ molto minore, ma nel nostro caso possiamo prendere il caso peggiorativo e considerare una distanza di 1 Km.

Bene, ora abbiamo tutti gli ingredienti per la nostra formula, sostituendo si ottiene:

F(QE)/F(T) = [27,8 x 10^12/5,9 x 10^24] x [5,8 x 10^6/1]^2 = 158

Cosa significa? Che nel caso peggiorativo, in cui abbiamo preso la minima distanza tra la Terra e 1998 QE2 e in cui abbiamo preso una distanza esagerata tra l’asteroide e la sua luna, l’attrazione esercitata dall’asteroide sulla sua luna e’ circa 160 volte maggiore di quella che esercita la Terra.

Perche’ otteniamo questo? Come evidenziato nella domanda iniziale, e’ vero che la massa della terra e’ molto maggiore di quella dell’asteroide, ma la distanza, che compare al quadrato, gioca un ruolo determinante. Detto in altri termini, in questo caso il termine fondamentale e’ quello della distanza, piuttosto che quello della massa.

Se ci pensiamo, questo risultato e’ normale. Se fosse vero il contrario, allora anche la nostra Luna dovrebbe essere strappata gravitazionalemente dal sole perche’ dotato di una massa molto maggiore di quella della Terra. In realta’, la nostra Luna e’ sempre al suo posto e tutti possiamo confermarlo.

Ultima considerazione. Prima di tutto, spero di non avervi procurato un mal di testa. Quello fatto e’ un calcolo numerico interessante, che ci ha consentito di fare qualche valutazione aggiuntiva sulla famosa luna di 1998 QE2. Notate una cosa fondamentale, in diversi punti, la massa dell’asteroide, la distanza dalla luna, ecc., abbiamo fatto delle considerazioni perche’ non conoscevamo i valori esatti di questi dati. Questo e’ quello che spesso viene fatto in fisica, si creano dei modelli e da questi si stimano parametri. Una teoria e’ tanto piu’ giusta quanto piu’ questa si avvicina alla realta’, cioe’ minore e’ l’errore che si commette passando attraverso queste approssimazioni. Ora, nel nostro caso, sicuramente ci possono essere delle variazioni rispetto ai numeri calcolati, ripensate ad esempio all’aver assunto l’asteroide sferico. Queste differenze cambiano il risultato finale? Assolutamente no. La stima fatta puo’ essere sbagliata, ad esempio, al 10, al 20%? E’ vero, ma abbiamo trovato una forza che e’ 160 volte maggiore dell’altra. Come si dice, l’errore commesso, inteso come incertezza di calcolo, e’ minore della stima che e’ stata fatta. Questo e’ il metodo di calcolo che si utilizza in fisica.

Concludendo, se siete riusciti ad arrivare fino a questo punto, abbiamo visto come e’ possibile che 1998 QE2 abbia ancora la sua luna dopo il passaggio nel sistema solare e soprattutto alla minima distanza dalla Terra. Questo e’ ovviamente un calcolo approssimato, dal momento che, oltre alle stime fatte, non sono stati valutati i contributi centrifughi al moto e altri parametri dinamici. Nel nostro caso questo non e’ necessario, l’importante e’ capire come funzionano questi calcoli, dal momento che, come detto, il moto di tutti i corpi dell’universo e’ basato sulla forza gravitazionale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Uno sguardo ai materiali del futuro

27 Apr

In questi giorni, diversi giornali hanno pubblicato una notizia riguardante la scoperta di un nuovo materiale. La caratteristica principale, che tanto sta attirando attenzione, e’ l’estrema leggerezza unita alla notevole resistenza dei composti di questo materiale. Poiche’, leggendo in rete, ho visto tantissime imprecioni, credo sia interessante parlare di questa “scoperta”.

Il materiale in questione e’ il Grafene Aerogel. Ho messo “scoperta” tra virgolette, perche’, se proprio vogliamo essere precisi, questi materiali non vengono scoperti dal nulla, ma sono sintetizzati partendo da sostanze note. Il grafene aerogel e’ dunque stato “inventato” dai ricercatori della Zheijiang University ed e’ un materiale a base di carbonio.

Parliamo subito della sua caratteristica principale, la leggerezza. Il Grafene Aerogel rappresenta, ad oggi, il materiale meno denso in assoluto. Prima di questa invenzione, il record spettava all’Aerografite, con una densita’ di “ben” 0,2 mg/cm^3. Oggi, questo record e’ stato spazzato via dal Grafene Aerogel, con una densita’ di soli 0,16 mg/cm3.

Per darvi un’idea della leggerezza di questo materiale, vi mostro una foto molto interessante:

Dimostrazione della leggerezza del Grafene Aerogel

Dimostrazione della leggerezza del Grafene Aerogel

Come vedete, un blocchetto di Grafene Aerogel e’ talmente leggero da non piegare nemmeno la spiga in foto.

Anche se poco conosciuto dai non addetti ai lavori, negli ultimi anni e’ nato proprio un nuovo settore della tecnologia, interamente mirato alla sintetizzazione di nuovi materiali di questo tipo.

Cosa sarebbe il grafene aerogel?

Per prima cosa, analizziamo i singoli termini. Il grafene altro non e’ che un materiale formato da un singolo strato di atomi di carbonio. In questo senso, lo spessore del grafene e’ pari al diametro atomico. Il carbonio che compone il grafene e’ disposto in strutture esagonali ed e’ ottenuto in laboratorio partendo dalla grafite. Tutti questi composti, insieme anche al fullerene, al diamante e ai nanotubi, sono a base di atomi di carbonio, disposti in maniera diversa per formare un reticolo, come mostrato in questa immagine:

Diversi materiali ottenuti dal carbonio

Diversi materiali ottenuti dal carbonio

L’introduzione del grafene e’ risultata molto importante nella realizzazione di componenti elettronici estremamente piccoli e con caratteristiche elettriche non raggiungibili con le tecnologie standard.

Il termine aerogel, indica invece un materiale simile al gel, nel quale pero’ la fase liquida e’ stata sostituita con un gas. Il primo aerogel realizzato era a base di silicio, e presentava uan densita’ 1000 volte inferiore a quella del vetro. I comuni aerogel, a base di silicio, di allumina o altri elementi, trovano larghissima applicazione in diverse soluzioni industriali. Solo per darvi un’idea, gli utilizzi dell’aerogel vanno dall’isolamento termico fino all’uso nei cosmetici e nelle vernici come addensatori pasando anche per applicazioni spaziali nella studio della polvere cosmica. La foto seguente mostra proprio un ricercatore della NASA che mostra un pezzo di aerogel di Silicio:

Aerogel in un laboratorio della NASA

Aerogel in un laboratorio della NASA

Acnhe se puo’ sembrare un fotomontaggio, si tratta di una foto reale. Quello che vedete mostrato e’ un pezzo di aerogel con le sue straordinarie proprieta’ di leggerezza e trasparenza.

Vista la struttura degli aerogel, capite bene come nel caso del grafene questo termine sia utilizzato in realta’ a sproposito. Spesso, si utilizza il termine aerogel anche per indicare materiali a base di carbonio, come il Grafene Aerogel, nel quale moltissimi spazi sono riempiti di aria per ottenere ottime proprieta’ di leggerezza.

Detto questo, una domanda molto semplice che potrebbe essere fatta e’: “a cosa servirebbe il Grafene Aerogel?”

Forse stavate pensando che l’invenzione di questo materiale servisse solo per continuare la sfida tra centri di ricerca su chi preparava il materiale piu’ leggero. In realta’, non e’ cosi’.

Il grafene aerogel trovera’ spazio in moltissime applicazioni, anche di carattere ambientale.

Per prima cosa, questo materiale, proprio grazie alla sua struttura atomica, si comporta come una spugna, essendo in grado di catturare all’interno notevoli quantita’ di altre sostanze riempiendo gli interstizi occupati dall’aria. Per darvi qualche numero, un solo grammo di Grafene Aerogel riesce a trattenere fino a 70 grammi di materiali organici. Pensate ad un’applicazione molto utile: in uno scenario in cui ci sia un riversamento, ad esempio, di petrolio in mare, il grafene aerogel potrebbe essere utilizzato per assorbire gli oli molto rapidamente ripulendo la zona. Inoltre, date le sue proprieta’, basterebbe “spremere” la spugna per renderla di nuovo utilizzabile e recuperare anche il petrolio disperso.

Il grafene aerogel ha anche straordinarie proprieta’ elastiche. Ad uno sforzo di compressione, questo maeriale riesce ad assorbire fino a 900 volte il suo peso, tornando, in modo perfettamente elastico, alla forma originale. Questa caratteristica lo rende un ottimo candidato per applicazioni meccaniche avanzate.

Visto che ne abbiamo parlato introducendo la classifica dei materiali piu’ leggeri, anche l’aerografite trova spazio in importanti settori industriali. E’ in corso di studio la produzione di batterie basate su questo materiale e che consentiranno, a parita’ di peso, di ottenere durate molto maggiori, caratteristica fondamentale nell’utilizzo, ad esempio, nei veicoli elettrici. Inoltre, l’aerografite puo’ essere utilizzata per la preparazione di filtri molto efficienti per ripulire l’aria e l’acqua da inquinanti potenzialmente molto dannosi per l’essere umano.

Detto questo, capite molto bene l’importanza di questo genere di ricerche. Il continuo studio di nuovi materiali consente di rendere piu’ semplici svariate applicazioni e di ottenere caratteristiche del tutto impensabili con i materiali tradizionali. Come visto, parlando in generale di questi nuovi materiali, le applicazioni vanno dalla salvaguardia ambientale fino alla miniaturizzazione dell’elettronica. Inoltre, alcuni materiali, sviluppati proprio nell’ambito di questi progetti, consentono gia’ oggi di ottenere, ad esempio, transistor di dimensioni quasi atomiche, batterie basate su supercondensatori o anche microprocessori di dimensioni nanometriche. Sicuramente, quando pensiamo ad applicazioni che oggi potrebbero ancora sembrarci lontane nel tempo, dobbiamo pensare che saranno realizzate partendo da materiali di questo tipo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Due parole sull’Etna e sullo Stromboli

14 Apr

In alcuni post precedenti, specialmente riferendoci al fenomeno terremoti e al loro presunto aumento, poi dimosrato falso, ci siamo trovati anche a parlare di vulcani. In particolare, in questo post:

Cosa succede in Campania?

abbiamo analizzato la situazione sia del Campi Flegrei che del Vesuvio. Come visto, queste sono due strutture molto pericolose e che giustamente devono essere tenute costantemente sotto controllo. Il pericolo principale, viene proprio dalla lunga quiescenza, cioe’ lo stato di inattivita’, a cui, soprattutto il Vesuvio, ci ha abituato. Molte spesso, si tende a confondere questa quiescenza con lo spegnimento del vulcano, cosa del tutto falsa. Un vulcano come il Vesuvio e’ molto attivo e potenzialmente molto pericoloso per via di un suo brusco risveglio esplosivo che potrebbe avvenire. Ovviamente, non voglio fare la parte del catastrofista, questo discorso serve solo a sottolineare il potenziale pericolo della zona e soprattutto la necessita’ di organizzare piani di evacuzione.

Detto questo, ho ricevuto diverse richieste da parte di utenti per conoscere invece lo stato dell’Etna e dello Stromboli. Come sicuramente avrete sentito anche nei tg, questi due vulcani, dalla fine del 2012, stanno dando luogo a diversi fenomeni eruttivi. La curiosita’ degli utenti nasce in primis per comprendere lo stato attuale di queste formazioni, ma anche per sfatare le tante voci catastrofiste che certo non potevano mancare su questi episodi. Senza entrare nello specifico, come potete immaginare, le solite voci catastrofiste riguardano un risveglio di questi vulcani o per via di forti cambiamenti in corso sul nostro pianeta, ma anche per lo sfruttamento del Marsili. Come visto in questo post:

Marsili: una fonte di energia enorme!

esiste un piano per ricavare energia geotermica da questo pericoloso vulcano. Secondo le voci catastrofiste, questa attivita’ umana modificherebbe gli equilibri secolari innescando proprio le eruzioni dei vulcani della zona. Prima di tutto, come potete leggere nel post riportato, lo sfruttamento del Marsili e’ realmente possibile, ma ancora non e’ iniziato. Premesso questo, e’ vero che tutte queste strutture appartengono alal cosiddetta fascia stromboliana, ma ovviamente e’ impensabile di fare un buco nel Marsili per provocare l’eruzione dell’Etna.

Detto questo cerchiamo invece di capire la reale situazione di questi vulcani, parlando proprio separatamente dei due.

ETNA

Ricostruzione 3D dell'Etna

Ricostruzione 3D dell’Etna

Questo vulcano ha subito diverse modificazioni e attraversato varie fasi nel corso dei secoli. I processi che hanno portato alla formazione dell’Etna cominciano ben 600000 anni fa, durante il quaternario. Come detto, durante la sua lunga storia, il vulcano ha cambiato piu’ volte morfologia, ma soprattutto ha modificato radicalmente anche la sua attivita’ vulcanica.

Oggi come oggi, l’Etna, con una frequenza molto elevata, da luogo a fenomeni eruttivi. Per darvi un’idea, dall’inizio del 2013, ci sono stati ben 10 eruzioni, di cui l’ultima solo un paio di giorni fa.

Proprio questi frequenti fenomeni eruttivi, assicurano la non pericolosita’ dell’Etna. Ovviamente, nel corso della storia recente, ci sono state eruzioni piu’ copiose che hanno messo a rischio la salvaguardia dei paesi vicini, ma il piu’ delle volte le eruzioni dell’Etna avvengono assolutamente senza conseguenze.

Canale lavico sull'Etna

Canale lavico sull’Etna

Prima di tutto, c’e’ da considerare proprio la morfologia della montagna. Oggi, esistono 4 crateri principali sull’Etna, piu’ un numero molto elevato di crateri minori che, nel corso delle eruzioni, si formano e si chiudono in continuazione. Questo grande numero di bocche, assicura un rilascio immediato della pressione interna della caldera. Detto in parole semplici, l’Etna e’ un vero e proprio “colabrodo”, nel senso che la pressione interna non raggiunge valori elevati perche’ la lava trova immediatamente una via d’uscita.

Inoltre, la lava eruttata dall’Etna e’ estremamente fluida. Ovviamente anche questa caratteristica fa si che difficilmente si formino dei “tappi” e che dunque la pressione interna possa aumentare dando luogo a fenomeni esplosivi.

Anche la morfologia della montagna assicura delle ottime vie di fuga. I numerosi canali lavici sui versanti dell’Etna permettono delle vie preferenziali per il magma. In tal senso, a meno di eruzioni molto abbondanti, la lava segue sempre le stesse strade accumulandosi poi in zone specifiche. Tra queste, sicuramente la piu’ conosciuta e’ la Valle del Bove. In quest’area, si accumulano sempre nuovi strati di lava che poi solidificandosi modificano radicalmente il paesaggio. Se visitate la zona, vi troverete da un momento all’altro in un paesaggio quasi di tipo lunare, formato solo da strati di lava che, nel corso delle varie eruzioni, si sono sovrapposti.

Detto questo, capite bene perche’ siamo ormai abituati a sentire di eruzioni da parte dell’Etna e del perche’, molto spesso, queste eruzioni non destano assolutamente panico. Solo per darvi un’idea, durante gli ultimi anni, le uniche vittime dell’Etna sono state dei turisti che incoscientemente si sono avvicinati troppo ai canali lavici durante un’eruzione.

Quanto detto non preclude ovviamente un continuo monitoraggio da parte degli esperti dell’Etna. Ovviamente tutta la struttura e’ continuamento monitorata sia dal punto di vista vulcanico che sismico attraverso una fitta rete di strumenti che in continuo inviano dati.

STROMBOLI

Il vulcano Stromboli, o se preferite anche tutta l’isola dal momento che si tratta proprio del vulcano, e’ sostanzialmente diverso dall’Etna. Lo Stromboli e’ considerato uno dei vulcani piu’ attivi del mondo e da luogo a fenomeni di tipo esplosivo con una frequenza molto elevata.

Ricostruzione 3D dello Stromboli

Ricostruzione 3D dello Stromboli

L’attivita’ ordinaria dello Stromboli avviene mediante esplosioni di media potenza e lancio dalle bocche principali di bombe scoriacee incandescenti, lapilli, cenere e blocchi. Questi lanci avvengono in media ogni ora. Questo valore vi fa capire perche’ lo Stromboli e’ considerato uno dei vulcani piu’ attivi del mondo.

Periodi di totale inattivita’ di questo vulcano sono rarissimi. Il piu’ lungo che si ricorda e’ di appena due anni ed e’ avvenuto tra il 1908 e il 1910.

La normale attivita’ del vulcano puo’ anche essere intensificata con esplosioni di notevole potenza e lanci di bombe incandescenti che, come osservato, possono arrivare anche al metro di diametro.

Come capite bene, anche se l’attivita’ normale di questo vulcano e’ estremamente intensa, non prevede emissione di colate laviche. Questi fenomeni avvengono con frequenze molto piu’ basse. Per darvi un’idea, nel corso dell’ultimo secolo si sono avute appena 26 eruzioni con colate di lava sull’isola. Inoltre, come nel caso dell’Etna, generalmente questi fenomeni non provocano danni ai centri abitati, dal momento che il magma fuoriuscito si riversa normalmente nella Sciara di Fuoco nel settore nord occidentale dell’isola.

Le eruzioni piu’ violente che si rocordano per lo Stromboli sono quelle del 1919 e del 1930. In questi casi, a causa di notevoli infiltrazioni di acqua marina all’interno della caldera, le pressioni aumentarono a valori molto elevati, provocando una copiosa fuorisucita di lava e numerosi eventi sismici di forte intensita’. A seguito di questi, furono registrati anche tsunami fino a 3 metri che arrivarno fino alle coste di Capo Vaticano in Calabria. Inoltre, le notevoli colate laviche uscirono fuori dalla Sciara di Fuoco, arrivando anche a lambire diversi centri abitati.

Attivita' eruttiva sullo Stromboli

Attivita’ eruttiva sullo Stromboli

Detto questo, l’ultima colata lavica da parte dello Stromboli e’ avvenuta all’inizio del 2013 ma l’attivita’ vulcanica e’ ancora oggi in corso. Come visto, questo non ci deve assolutamente sorprendere, stiamo parlando di uno dei vulcani piu’ attivi del mondo e con un’intensa attivita’ che molto raramente presenta periodi di interruzione.

Anche per lo Stromboli, e’ da sempre in corso un intenso monitoraggio da parte degli esperti, proprio per tenere sotto controllo questo pericoloso vulcano. Tra le altre cose, come sottolineato prima, questo vulcano deve essere monitorato anche per l’insorgenza di piccoli tsunami nel mediterraneo.

Concludendo, come visto nell’articolo, non e’ in corso assolutamente nessun fenomeno particolare ne’ per l’Etna ne’ per lo Stromboli. Stiamo parlando di due vulcani attivi e che molto frequentemente danno luogo a fenomeni eruttivi. Come analizzato pero’, dal punto di vista vulcanico, le due strutture sono completamente diverse, ma allo stesso modo necessitano di un monitoraggio continuo ed attento. Mio personale punto di vista, e’ che, tra quelli italiani, sicuramente il Vesuvio rappresenta uno dei vulcani piu’ pericolosi considerando prima di tutto il periodo di quiescenza in corso, ma anche, e soprattutto, l’elevata densita’ abitativa sulle sue pendici.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E parliamo di questo Big Bang

9 Apr

Dal momento che, in questo post:

Il primo vagito dell’universo

e in molti altri ancora, abbiamo parlato di nascita ed evoluzione del nostro universo, credo sia giunto il momento di dedicare un articolo apposito su questi concetti. Premetto, che cerchero’ di matenere un profilo piu’ semplice e divulgativo possibile, anche se ci stiamo addentrando in teorie, e spesso anche supposizioni, fisiche non del tutto banali. In questo senso, cerchero’ il piu’ possibile di utilizzare esempi anche volutamente forzati proprio per rendere il tutto maggiormente accessibile a tutti.

Partiamo dalle basi. Allo stato attuale della nostra conoscenza, la teoria maggiormente accettata all’orgine dell’universo e’ quella per cui il tutto si sarebbe formato da un’esplosione iniziale chiamata appunto Big Bang. Come visto nell’articolo precedentemente riportato, non dobbiamo immaginare questo evento come un classico boato, da cui tutti si sarebbe formato, bensi’ come un processo di espansione, anche non costante e molto veloce in alcuni istanti, ma che dura tutt’ora.

Perche’ e’ avvenuto il Big Bang?

Immaginiamo di fissare una scala temporale all’istante iniziale, cioe’ nel momento stesso in cui e’ iniziato il Big Bang. Per dirlo con parole semplici, immaginate di avere un cronometro e di farlo partire nel mometo in cui inizia questa espansione. Secondo la teoria, prima che iniziasse il big bang, materia e antimateria convivevano insieme in una singolarita’, cioe’ costituivano un volume, al limite occupante un punto, estremamemente denso e a temperatura elevatissima. Nella concezione fisica, in questa fase non esistevano le particelle, il tempo e le forze.

Poi cosa e’ successo?

Quando il sistema e’ divenuto instabile, dopo un tempo pari a 10^(-43) secondi, e’ avvenuta quella che si chiama la prima transizione di fase. Cosa significa? Le particelle si sono formate da questo plasma iniziale e ognuna di loro aveva un’energia molto elevata detta “energia di Planck”. In questa fase, detta di Grande Unificazione, tutte le forze, compresa quella gravitazionale, erano unificate, cioe’ si manifestavano come un’unica interazione.

Bene, fermiamoci un attimo e cerchiamo di capire meglio. Al punto in cui siamo arrivati, il big bang e’ gia iniziato. Le particelle cosi’ come le forze, anche se ancora unificate, si sono formate. Riprendiamo dall’inizio. Al tempo iniziale, cioe’ prima che iniziasse l’espansione, materia e antimateria convivano insieme. Dopo un tempo brevissimo, quando si formano le particelle, dopo 10^(-43) secondi, ci sono ancora materia e antimateria, appena 10^(-6) secondi dopo l’inizio, rimane solo materia.

Dove e’ finita l’antimateria?

Per chi lo avesse perso, abbiamo parlato in dettaglio di antimateria in questo post:

Due parole sull’antimateria

Il nostro attuale universo e’ formato solo da materia. L’antimateria e’ scomparsa. Perche’? Affiche’ questo sia possibile, e dunque sia iniziato il big bang, la fisica ci dice che devono essere state verificate le 3 condizioni di Sakharov. Senza entrare troppo nel dettaglio, in questa ipotesi, ci deve essere stata un’asimmetria tra materia e antimateria, che ha portato allo squilibrio che vediamo oggi. In particolare, in questo contesto si parla appunto di violazione di CP, cioe’ proprio di squilibrio della simmetria materia-antimateria nell’universo.

E’ possibile che siano rimaste delle sacche di antimateria da qualche parte oppure che l’universo sia formato da due distinte zone, una di materia ed una di antimateria?

La risposta e’ no. Capiamo il perche’. Quando entrano in contatto, materia e antimateria si annichilano, cioe’ ineragiscono distruggendosi a vicenda, e producendo radiazione gamma, cioe’, in linea di principio forzando l’esempio, luce. Se esistessero zone ben delimitate di materia e antimateria, nel punto di separazione tra di esse, si avrebbe annichilazione con la conseguente produzione di raggi gamma. Di questa radiazione non vi e’ nessuna evidenza ne’ dagli osservatori a Terra, ne’ dai satelliti, ne’ tantomeno dalle missioni esplorative che abbiamo mandato nello spazio.

Le condizioni di Sakharov offrono dunque un modello teorico in grado di spiegare perche’ potrebbe essere avvenuto questo squilibrio e quindi sia iniziato il big bang. Dico “potrebbe” perche’ al momento non tutte le condizioni sono state verificate e grande aiuto in questo senso dovrebbe venire dallo studio della fisica delle particelle agli acceleratori. Aprendo una piccola parentesi, quando in un acceleratore facciamo scontrare due fasci, questi interagiscono tra loro ad altissima energia. Man mano che aumentiamo l’energia, utilizzando sistemi sempre piu’ potenti, e’ come se andassimo indietro nel tempo tendendo verso il big bang. Ovviamente le energie oggi disponibili sono ancora molto lontane da quella iniziale, ma questo genere di studi ci consentono di comprendere molte cose importanti sul mondo delle particelle elementari.

Dunque, ricapitolando, abbiamo un sistema iniziale materia-antimateria, intervengono le condizioni di Sakharov e il sistema inizia ad espandersi facendo scomparire l’antimateria. Inizialmente le forze erano tutte unificate e le particelle si scontravano tra loro ad altissima energia.

Dopo, cosa e’ successo?

Man mano che il tempo scorreva, si passo’ attraverso varie fasi, ognuna caratterizzata da una rottura di simmetria di qualche tipo. In tal senso, le forza si divisero tra loro, lasciando quelle che oggi indichiamo come forze fondamentali: forte, debole, elettromagnetica e gravitazionale. In particolare, quest’ultima fu la prima a separarsi non appena la temperatura inizio’ a scendere e le onde gravitazionali poterono propagarsi liberamente.

Qualche minuto dopo l’istante iniziale, le particelle, cioe’ protoni e neutroni, poterono iniziare a combianrsi formando nuclei di Deuterio ed Elio. Questa importante fase viene chiamata “nucleosintesi”.

La temperatura dell’universo era pero’ ancora troppo elevata. Per osservare la formazione dei primi atomi, si dovette aspettare ancora circa 379000 anni, quando materia e radiazione finalmente si separarono e quest’ultima pote’ viaggiare libera nel cosmo. Di questo preciso istante, abbiamo anche parlato in questo post:

Universo: foto da piccolo

in cui, come visto, si ebbe la formazione della radiazione di fondo che oggi, alla temperatura attuale, e’ di 2.7K con uno spettro nelle microonde.

Dopo questa fase, gli addensamenti di materia cominciarono ad attrarsi gravitazionalmente, formando poi le galassie, le stelle, i pianeti, ecc, cioe’ , quello che vediamo oggi osservando l’universo.

Ma esistono delle prove di tutto questo? E se in realta’ il big bang non fosse mai avvenuto?

Come visto in altri post, ma anche come comprensibile da quanto detto, proprio la radiazione di fondo costituisce una prova del big bang. Detto in altri termini, la CMB non sarebbe altro che un’eco di quanto avvenuto, cioe’ un reperto fossile dell’esplosione iniziale.

Inoltre, la velocita’ di espansione delle Galassie, misurata per la prima volta da Hubble, costituisce un’altra prova a sostegno di questa teoria.

Partendo da quest’ultimo concetto, una domanda lecita che chiunque potrebbe farsi e’: “dove e’ avvenuto il Big Bang?”

Modello dell'espansione dal Big Bang

Modello dell’espansione dal Big Bang

In tal senso, se inizialmente si aveva un punto da cui poi tutto si e’ espanso, immaginando un rewind dovremmo essere in grado di identificare il punto iniziale del big bang. In realta’, non e’ cosi’. I fisici sono soliti dire che il Big Bang e’ avvenuto ovunque o anche che ogni punto dell’universo e’ un centro di espansione.

Che significa?

L’espansione dello spazio tempo avviene in piu’ di tre dimesioni, per cui non e’ facile immaginare a mente cosa sia avvenuto. Per capire questo concetto, immaginate l’universo come un palloncino inizialmente sgonfio. Ora, prendendo un pennarello, fate dei puntini sulla superificie. Se le pareti del palloncino sono l’universo che si espande, mentre gonfiate il palloncino, ciascun punto, tra quelli che avete disegnato, vedra’ gli altri allontarsi da lui. In questo contesto, ciascun punto e’ centro dell’espansione, cioe’ ogni punto vede gli altri punti allontarsi da lui in tutte le direzioni. L’animazione riportata potra’ aiutarvi a capire meglio questo discorso. Fissando un punto, tutti gli altri si allontanano da questo, indipendentemente da quello che scegliete come vostro centro. Dunque, se osservate l’universo dalla Terra, vedrete tutti gli altri corpi allontarsi da noi, come se la Terra fosse il centro dell’espansione.

Concludendo, esistono diverse prove sperimentali a sostegno del Big Bang, cioe’ di questa esplosione iniziale da cui, partendo da uno stato di equilibrio materia-antimateria, tutto si e’ formato passando attraverso diverse rotture di simmetrie. Ad oggi, o forse mai, nessuno potra’ spiegare perche’ questa materia e antimateria erano li o cosa c’era prima di questo equilibrio. Se volete, ognuno, con il suo pensiero e la sua convinzione, puo’ dare la sua spiegazione. I processi di evoluzione dal tempo zero, sono ipotizzati, ma ancora molto lavoro resta da fare per verificare queste teorie e capire a fondo perche’, come e con che intensita’ sino avvenuti determinati meccanismi. Insomma, di lavoro da fare ce n’e’ ancora molto.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.