Tag Archives: science

Nessie e’ ancora viva …. oppure non e’ mai esistita?

23 Apr

Un nostro caro lettore, nella sezione:

Hai domande o dubbi?

ci ha segnalato un articolo del Corriere in cui si torna a parlare di Nessie, cioe’ di quello che e’ anche noto come “mostro di Lochness”:

Articolo Corriere

Di Nessie avevamo gia’ parlato in passato cercando di analizzare la storia di questi avvistamenti partendo proprio dalle origini di questa leggenda nota a tutti:

Loch Ness, finalmente la spiegazione?

Come visto, la storia del mostro di Lochness e’ molto antica e nel corso dei secoli si e’ arrichita di volta in volta di nuovi avvistamenti. Di questi pero’, neanche uno risulta verificato e provato. Ogni volta, si fa riferimento a foto poco visibili, molto lontane o, peggio ancora, come visto nell’articolo precedente, a scherzi organizzati proprio per mantenere alta l’attenzione.

Senza girarci troppo intorno, la storia del mostro ha creato la fortuna del turismo del lago. Personalmente, credo che anche senza questa leggenda il sito sarebbe stato meta di molti appassionati per la bellezza del lago e della vegetazione intorno. Sicuramente pero’, la leggenda del terribile mostro ha contribuito ad aggiungere un turismo di curiosi attratti dalla possibilita’ di avvistare Nessie e, perche’ no, dimostrare finalmente la sua esistenza.

Ora, come avrete visto dall’articolo linkato inizialmente, questa volta l’avvistamento e’ degno dell’era della nuova tecnologia. Non stiamo piu’ parlando di foto scattate durante le notti nebbiose sul lago, bensi’ di un avvistamento fatto via satellite.

Come dichiarato, dalle nuove mappe satellitari utilizzate da Apple si nota al centro del lago una curiosa forma che, come riportato, potrebbe far pensare ad una grande creatura marina che nuota vicino alla superficie.

Poiche’ fidarsi e’ bene, non fidarsi e’ meglio, sono andato a verificare le foto direttamente sul mio cellulare confermando che l’immagine riportata corrisponde a realta’:

Il presunto mostro di Loch Ness nelle mappe satellitari utilizzate da Apple

Il presunto mostro di Loch Ness nelle mappe satellitari utilizzate da Apple

Perche’ l’ho fatto? Semplice, molti siti hanno fatto copia/incolla senza neanche verificare la fonte. Poiche’ in passato abbiamo avuto diversi casi di articoli facilmente smentibili da una prima verifica, ho ritenuto giusto verificare direttamente.

Dunque, l’immagine e’ reale ergo Nessie esiste ed e’ stata avvistata da Apple.

Come potete immaginare, questa conclusione potrebbe essere un pochino affrettata.

Di cosa si tratta?

Diverse volte abbiamo parlato di come sono realizzate le mappe satellitari. Ragioniamo un attimo. Provate, cosi’ per sperimentare, ad aprire un qualsiasi programma di questo tipo. Per semplicita’, potete fare riferimento a Google Maps che e’ liberamente accessibile.

Vedete zone non visibili perche’ coperte da nuvole? Ovviamente no, altrimenti che utilita’ avrebbe il programma? E’ possibile che non ci sia neanche una nuvola? Anche questo e’ assurdo. Come si realizzano queste immagini? Come potete immaginare, con un collage di foto scattate in momenti differenti.

A causa di questa tecnica, spesso si creano dei disallineamenti che danno effetti quantomeno bizzarri. Se provate a fare una ricerca in rete, troverete tantissimi esempi di questo tipo: paesi che scompaiono dalle mappe, paesi che vengono replicati, zone con colorazione diversa dovuta ai diversi irraggiamenti delle parti, ecc.

Cosa c’entra questo con la foto da cui siamo partiti?

Semplice, quella che vedete non e’ assolutamente la sagoma di un mostro marino che nuota nel lago, bensi’ la scia di una nave che sta transitando sul lago.

E la nave dove sarebbe?

Due ipotesi: non c’e’ perche’ tagliata nella sovrapposizione oppure c’e’ ma non visibile a causa della luminosita’ della parte.

Non siete convinti?

Per verificare, basta utilizzare lo stesso programma per controllare quello che succede su altri specchi d’acqua. Facendo questa prova vi accorgerete che le stesse scie si possono vedere anche in alcuni laghi italiani cosi’ come in altre parti del mondo. Ora pero’, volete mettere una bella sagoma nel lago di Lochness con una nel lago di Garda? Chi mai penserebbe al mostro del lago di Garda?

Se ancora non siete convinti, vi riporto un link molto interessante di un sito che ha provato direttamente a verificare la cosa:

Southern Fried Science

In questo caso, sempre utilizzando le mappa di Apple, si e’ provato a prelevare da un altro lago la scia lasciata da una barca che procedeva a buona velocita’ e a sovrapporre questa scia con quella del lago di Lochness. Il risultato e’ visibile in questa gif:

Scia del lago di Loch Ness sovrapposta a quella di un'altra imbarcazione

Scia del lago di Loch Ness sovrapposta a quella di un’altra imbarcazione

Come vedete, dopo aver ovviamente riscalato le due immagini per renderle compatibili, si vede chiaramente come le due scie possano essere sovrapposte senza problemi. Cosa significa questo? Ovviamente che quella che e’ visibile nel lago di Lochness e’ solo la scia lasciata da un’imbarcazione. Quanto una barca si muove a velocita’ sostenuta, lascia ai suoi lati due scie che appaiono come grosse pinne e come un paio di ali esterne rispetto alla scia principale.

Concludendo, non c’e’ nessun mostro di Lochness avvistato nelle mappe di Apple. L’immagine da cui siamo partiti e’ facilmente spiegabile parlando della scia lasciata da un’imbarcazione che si muove sul lago. Quello che mi sorprende nuovamente e’ come tanti giornali anche a diffusione nazionale si lascino trasportare da notizie di questo tipo parlando di “mistero irrisolvibile”. Come detto tante volte, forse la voglia di complottismo e mistero ha ormai contagiato anche i giornali a grande diffusione che pensano in questo modo di poter ottenere piu’ visualizzazioni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Una batteria … vivente

19 Set

Come sapete bene, diverse volte ci siamo soffermati a riflettere sulle cosiddette energie alternative. Il punto attualmente raggiunto non puo’ certo essere considerato l’arrivo per il nostro futuro energetico. I sistemi alternativi utilizzati su larga scala, principalmente solare e eolico, sono, allo stato attuale, sistemi a bassa efficienza. Fate attenzione, non voglio certo dire che lo sfruttamento di queste risorse sia inutile, tutt’altro. Quello che sto cercando di dire e’ che queste fonti non sono sfruttate al massimo e, vista la crescita esponenziale della richiesta di energia nel mondo, non potranno certo essere considerate, allo stato attuale, alternative al petrolio o ad altre fonti.

In questa ottica, di tanto in tanto, gettiamo uno sguardo alle ricerche in corso, per mostrare lo stato dell’arte ma soprattutto per vedere possibili fonti alternative in corso di studio.

Proprio in virtu’ di questo, vorrei parlarvi di un’invenzione pubblicata solo pochi giorni fa da un gruppo di ingegneri dell’Universita’ di Stanford. Come forse avrete letto sui giornali, e’ stata prodotta la prima pila a microbi.

Di cosa si tratta?

I microbi in questione appartengono alla famiglia degli elettrogenici, cioe’ microorganismi in grado di produrre elettroni durante la digestione. Detto in altri termini, durante il processo digestivo, questi microbi strappano un elettrone che rimane libero. Questa tipologia di batteri e’ conosciuta gia’ da diverso tempo, quello che pero’ sono riusciti a fare gli autori di questa ricerca e’ trovare il modo efficace di produrre energia da questo processo.

Prima di parlarvi dell’applicazione, vi mostro una foto del dispositivo in questione:

Batteria a microbi

Batteria a microbi

Guardando la foto, vi rendete subito conto che si tratta ancora di un prototipo non industrializzato. Per darvi un’idea, le dimensioni della provetta a cui sono attaccati i fili e’ paragonabile a quella di una batteria per cellulare.

Come funziona la pila?

Come detto, questi batteri producono elettroni liberi durante la digestione. La provetta che vedete contiene due elettrodi. Il primo e’ in carbonio e proprio su questo sono presenti i nostri microbi. Come vedete anche dalla foto, il liquido all’interno della provetta appare molto torbido. Non si tratta assolutamente di un effetto ottico, sono dei liquami veri e propri che offrono il nutrimento per la colonia di microbi presenti all’interno.

Uno dei microbi osservato al microscopio

Uno dei microbi osservato al microscopio

A questo punto, il discorso comincia ad essere piu;’ chiaro. Vengono messi i microbi su un elettrodo in carbonio. Il liquido offre il nutrimento per gli organismi che dunque mangiano felici e per digerire, invece dell’infantile ruttino, producono elettroni.

Sempre all’interno e’ presente un secondo elettrodo, questa volta in ossido di argento. Questo funge da collettore per la raccolta degli elettroni. Ora, per definizione, se avete un moto ordinato di cariche elettriche da un elettrodo all’altro, avete una normalissima corrente elettrica. Dunque, avete la vostra pila.

Come potete immaginare, per sua stessa definizione, questo genere di pile si “scarica” quando la concentrazione batterica e’ cresciuta troppo, scarseggia il nutrimento o quando l’elettrodo in lega di argento e’ saturo di elettroni sulla superficie. In questo ultimo caso, che poi rappresenta il collo di bottiglia della produzione di energia elettrica, basta sostituire l’elettrodo esausto con uno nuovo affinche’ il processo riparta.

Quali sono i vantaggi di questa pila?

Anche se il funzionamento puo’ sembrare molto semplice, questa invenzione apre scenari molto importanti non solo in campo energetico, ma anche ambientale. Come potete facilmente immaginare, questo processo potrebbe essere utilizzato per produrre energia dai liquami, utilizzando questi prodotti di scarto fortemente inquinanti in modo molto intelligente.

Dal punto di vista energetico, si pensa che il sistema possa essere in grado di estrarre circa il 30% del potenziale contenuto nei liquami. Detto in altri termini, la bateria avrebbe un rendimento intorno a questo valore. Pensate sia poco? Assolutamente no. Le normali celle solari attualmente utilizzate hanno efficienze medie intorno al 25%. Solo con celle di ultima generazione si riesce a superare di poco il 30%. Questo significa che il processo microbico ha un rendimento del tutto paragonabile a quello delle celle utilizzate nei pannelli solari.

Come anticipato, e come evidente, lo studio e’ ancora in fase prototipale. In particolare, il problema attuale e’ nel costo dell’elettrodo in ossido di argento che serve da collettore per gli elettroni. Il prezzo troppo alto, rende questo sistema ancora anti-economico e non adatto all’utilizzo su larga scala.

Detto questo, capite bene come questa ricerca sia tutt’altro che terminata. Gli sviluppi futuri sono proprio volti a trovare materiali economici adatti a chiudere il circuito. Il fatto di aver usato all’inizio un materiale piu’ costoso e’ del tutto normale se consideriamo che per prima cosa si doveva dimostrare la correttezza dell’intuizione.

Concludendo, proprio in questi giorni e’ stata pubblicata la ricerca che racconta la costruzione della prima pila a batteri. Questo sistema sfrutta i processi digestivi di alcune tipologie di microbi in grado di liberare elettroni. La batteria realizzata ha un’efficienza paragonabile a quella delle celle solari e la ricerca e’ attualmente impegnata per trovare materiali economici da utilizzare per la raccolta degli elettroni al posto del costoso ossido di argento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il metodo Stamina

14 Lug

In questi giorni, molto si e’ tornato a parlare del cosiddetto “metodo Stamina”, sempre accompagnando la discussione con una sana dose di critiche e, purtroppo, come spesso accade, con la formazione di due partiti popolari: i favorevoli ed i contrari. Detto questo, su suggerimento di una nostra cara lettrice, vorrei parlarvi di questo metodo cercando pero’ di analizzare i punti fermi, cioe’ vorrei capire insieme a voi quali sono le basi su cui si fonda questo metodo, i risultati ottenuti e perche’ questo metodo viene tanto criticato.

Cominiciamo dalle basi. Cosa sarebbe il metodo Stamina? Come suggerisce il nome stesso, questa “terapia medica” si basa sull’utilizzo di cellule staminali per curare pazienti affetti da malattie neurodegenerative come, ad esempio, la Atrofia Muscolare Spinale, anche detta SMA1. Molte di queste malattie neurodegenerative affliggono bambini per cui capite bene la delicatezza e l’emotivita’ legata a queste terapie mediche.

Nel metodo stamina vengono estratte cellule staminali dal midollo osseo del paziente. Queste cellule sono anche dette mesenchimali. Una volta estratte, queste staminali vengono manipolate in vitro insieme ad acido retinoico ed etanolo e nel giro di 2 ore, le cellule vengono convertite in neuroni. A questo punto, i neuroni vengono utilizzati per curare il paziente e per arginare la degenerazione portata dalla malattia.

Bene, questo e’ in soldoni il metodo stamina. Prima di dire se funziona o non funziona, vorrei fare una considerazione: una qualsiasi terapia medica, deve necessariamente essere supportata da prove scientifiche. Spesso queste vengono raccolte e i risultati pubblicati in riviste specializzate in modo da poter essere fruibili e studiabili da tutti. Quali sono gli articoli a supporto del metodo stamina? Forse la cosa vi sorprendera’, ma non esiste nessun articolo che parla di questo metodo. Per essere precisi, l’unica prova a sostegno del metodo e’ la richiesta di brevetto fatta negli Stati Uniti. Che differenza c’e’, se c’e’ un brevetto, va bene anche questo. Vero, ma il brevetto e’ stato rifiutato. Sapete il perche’? Come evidenziato da un’inchiesta condotta dalla rivista Nature, la richiesta di brevetto conteneva delle foto di presunti neuroni ottenuti con questo metodo assolutamente false. Per dirla tutta, le foto allegate alla richiesta erano prese da una ricerca condotta in Ucraina per sperimentare un altro metodo, dunque assolutamente non relative al metodo stamina.

Come e’ possibile questo?

Prima abbiamo accennato alle cellule staminali prese dal midollo osseo del paziente. Anche se si parla sempre di staminali, queste cellule non sono tutte uguali tra loro. Nella cultura popolare, una cellula staminale e’ un’entita’ non specializzata che puo’ essere trasformata in una qualsiasi cellula del nostro corpo. Questo in realta’ e’ falso. Le cellule staminali vengono divise tra loro in base alla cosiddetta “potenza”. Questa caratteristica indica la potenzialita’ di una cellula staminale a trasformarsi o specializzarsi in altro. Le staminali mesenchimali possono, come dimostrato e riportato nella bibliografia medica, trasformarsi in cellule ossee, cartillaginose o adipose. E’ assolutamente non dimostrato e mai provato prima che queste cellule possano convertirsi in neuroni.

Come e’ possibile tutto questo? Purtroppo, come anticipato, quando si parla di questi metodi non dimostrati, molto facilmente si tende a dividersi tra pro e contro, senza pero’ informarsi di tutto quello che c’e’ intorno.

Come detto prima, ruolo importante in questi casi e’ giocato dall’emotivita’ dei soggetti coinvolti. Facciamo un esempio, in condizioni normali, se doveste pensare, speriamo mai di no, ad una situazione di malattia grave, a chi vi rivolgereste? Sicuramente, ragionando in maniera fredda e non coinvolta, pensereste di rivolgervi ai migliori esperti del campo. Come si determina l’esperto? In base alla fama, all’attivita’ svolta, ai ruoli ricoperti, agli articoli pubblicati, ecc. Vi rivolgereste mai ad un non medico? Penso proprio di no. Bene, senza voler apparire classista, ma solo per dovere di cronaca, Davide Vannoni, colui che per primo ha proposto questo metodo, e’ laureato in Lettere e Filosofia, non ha assolutamente nessuna laurea in medicina.

Vi fidereste di un non medico? Penso proprio di no, pero’ c’e’ sempre da considerare l’aspetto emotivo di queste situazioni. Vedere un proprio caro morire lentamente, giorno per giorno, e’ qualcosa di tremendo. In queste condizioni, qualsiasi speranza, anche la piu’ vana, anche la piu’ assurda, possono servire per riaccendere la speranza. Questa emotivita’ ci porta pero’ a fare qualche volta dei passi non ragionati.

Perche’ la scienza non accetta il metodo stamina? Sicuramente, la non accettazione non dipende assolutamente da chi propone un metodo. Se questo funziona, funziona e basta. Per poter affermare la correttezza e la validita’ di un metodo terapeutico e’ pero’ necesssario portare delle prove. Come detto, parliamo di cellule che, almeno alle conoscenze attuali, non possono convertire in neuroni.

Quali sono i risultati ottenuti?

Ad oggi, non ci sono evidenze della validita’ di questo metodo. Pazienti trattati con il metodo stamina non hanno avuto vantaggi e la mortalita’ e’ del tutto analoga a quella dei pazienti non trattati. Nel 2011 il metodo stamina e’ stato accettato come “cura compassionevole” all’ospedale di Brescia. Cosa significa? Non vi sono evidenze del suo funzionamento, ma se puo’ fungere da paliativo, allora somministriamo al paziente morente quello che preferisce. In particolare, in letteratura si riporta il caso di 5 bambini trattati con il metodo, di cui 3 sono morti. La spiegazione data da Vannoni in questo caso e’ che le cellule non sono state preparate in modo adeguato. La cosa che pero’ molti sostenitori dimenticano di dire e’ che le cellule vennero preparate su specifica indicazione e sotto la supervisione proprio di Vannoni.

Nei mesi scorsi, lo Stato Italiano ha dato il via ad una nuova sperimentazione del metodo stamina, prevedendo un contributo di ben 3 milioni di euro. La sperimentazione sarebbe dovuta partire il 1 luglio di quest’anno ma, ad oggi, ancora non si e’ potuti partire. Sapete il perche’? Su internet trovate scritto che questo ritardo e’ dovuto alla pressione dei medici per impedire che questo metodo porti risultati. Tutto falso. La sperimentazione non e’ ancora partita perche’ il ministero ha chiesto a Vannoni di consegnare il protocollo di sperimentazione con tutte le procedure che verranno seguite. Ad oggi, questo protocollo non e’ stato ancora consegnato. La spiegazione di Vannoni e’ che il protocollo non puo’ essere scritto perche’ il trattamento non puo’ essere standardizzato e le procedure devono essere valutate caso per caso.

Dal punto di vista medico questo e’ assurdo. Vannoni, in una recente intervista, parla della soggettivita’ della malattia e delle cellule, cosa del tutto inesatta. Per quanto riguarda la soggettivita’ del caso possiamo essere d’accordo, ma le cellule staminali sono le stesse per chiunque. Se esiste un metodo per convertire una cellula staminale in altro, questo e’ identico per tutti. Forse, con una laurea in medicina o con una maggiore informazione si eviterebbe di dire certe sciocchezze.

La stessa rivista Nature, nell’editoriale di cui abbiamo parlato, ha esplicitamente chiesto allo Stato Italiano di non far partire la sperimentazione. Secondo l’importante rivista, questa sperimentazione alimenterebbe false speranzde su un metodo non scientifico e a cui mancano le necessarie basi. Alla luce di quanto visto, non possiamo che condividere questa posizione.

UItima riflessione, perche’ tante persone affermano che il metodo funziona? Queste persone sono molto spesso familiari di malati che, come detto, vedono in questo metodo l’ultima speranza a cui attaccarsi. E’ possibile biasimare queste posizioni? Assolutamente no. Quello che andrebbe evitato e’ dare false speranze a persone in uno stato emotivo del tutto particolare. Purtroppo, parlare in questi termini e’ come pensare alle tante persone che si fanno truffare da stregoni e maghi televisivi. Chiunque, in uno stato sano, direbbe che e’ impossibile dare credito a falsi profeti televisivi eppure e’ pieno di casi di gente truffata per comprare amuleti, pozioni e altro. Purtroppo, uno stato psicologico particolare crea terreno fertile per chiunque.

Concludendo, come visto il metodo stamina e’ privo di qualsiasi fondamento scientifico. Ad oggi, manca una qualsiasi prova della validita’ del metodo cosi’ come mancano articoli su riviste mediche che confermano eventuali risultati. La domanda di brevetto presentata e’ stata rifiutata perche’ contenente dati falsificati. Quello che sta avvenendo oggi, ripercorre purtroppo quanto accaduto in passato sul metodo di Bella. Anche in questo caso, una sperimentazione serie e scientifica, mostro’ l’assoluta non validita’ del metodo. Speriamo almeno che si eviti di buttare soldi pubblici per sperimentazioni inutili invece di finanziare ricerche serie.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Lampi Radio dall’universo lontano

8 Lug

Come sapete bene, scopo principale di questo blog e’ quello di divulgare la scienza. A questo proposito, diverse volte ci siamo trovati a parlare di recentissime scoperte di cui, al momento, non si sa ancora nulla. Scopo della ricerca e’ anche questo. Molto spesso, i modelli teorici formulati danno indicazioni precise dove cercare cose nuove. Molte altre volte invece, magari per caso, ci si trava di fronte a scoperte del tutto inattese e che richiedono un notevole sforzo perche’ vanno a minare le conoscenze o le supposizioni fatte fino a quel momento.

Perche’ faccio questa introduzione?

Solo pochi giorni fa, e’ stato pubblicato un articolo su Science molto interessante, riguardante il nostro universo. Come sappiamo bene, le nostre attuali conoscenze sono ancora molto lontane dall’essere complete. Questo e’ del tutto normale se pensiamo che stiamo osservando l’universo principalmente dalla nostra Terra basandoci su osservazioni indirette o comunuque molto lontane dalle sorgenti.

La ricerca di cui sto parlando, a cui hanno partecipato anche diversi ricercatori italiani, riguarda l’osservazione, del tutto inattesa, di segnali radio provenienti da distanze cosmologiche. Questi eventi sono gia’ stati ribattezzati FRB, cioe’ “fast radio burst”, tradotto “lampi radio veloci”.

Di cosa si tratta?

Parlando come sempre di teorie catastrofiste, solo poche settimane fa avevamo parlato della WR104, sfruttando in realta’ questa notizia per parlare di Gamma Ray Burst, cioe’ Lampi di Raggi Gamma:

WR104, un fucile puntato verso di noi

Mentre in questo caso si parlava di lampi di radiazione gamma, gli FRB sono invece lampi a frequenza nelle onde radio. Come anticipato, si tratta di segnali la cui origine e’ stata approssimativamente indicata a distanze cosmologiche. Ad oggi, sono stati osservati solo 4 FRB la cui emissione e’ avvenuta tra 5.5 e 10 miliardi di anni luce da noi. Considerando che il nostro universo ha un’eta’ stiamata di circa 14 miliardi di anni, questi lampi sono stati emessi in media quando l’universo aveva all’incirca la meta’ della sua attuale eta’.

Come e’ avvenuta questa scoperta?

Come e’ facile immaginare, il primo FRB e’ stato osservato qualche anno fa e inizialmente si pensava fosse dovuto ad un errore strumentale. Successivamente poi, utilizzando il radiotelescopio australiano CSIRO Parkes da 64 metri, si e’ riusciti ad identificare altri tre eventi.

Perche’ e’ cosi’ difficile registrare gli FRB?

Il problema principale di questi eventi e’, come dice il nome stesso, il segnale molto corto, dell’ordine dei millisecondi. Si tratta dunque di eventi estremamente potenti ma che vengono emessi in tempi molto corti, proprio come un’esplosione che avviene ad onde radio. In realta’, come stimato da calcoli teorici, gli FRB dovrebbero essere tutt’altro che rari nel nostro universo. I 4 eventi osservati sono stati visti in una porzione estremamente ridotta di cielo. Facendo un calcolo statistico, si e’ visto che in realta’ ci dovrebbe essere un evento di questo tipo da qualche parte ogni 10 secondi. Dunque, con una frequenza molto elevata. Il fatto di averli osservati solo ora, se vogliamo, dipende da una questione di fortuna. Trattandosi di eventi cosi’ rapidi, e’ necessario che il radiotelescopio sia puntato proprio nella direzione della sorgente per poter osservare il segnale.

Come si e’ identificato il punto di origine?

In realta’, come anticipato, le distanze sono da considerarsi come una stima. Le onde radio, propagandosi nell’universo, subiscono modificazioni dovute al passaggio attraverso la materia. Detto questo, e’ possibile stimare una distanza di origine appunto osservando in dettaglio lo spettro dei segnali.

Per capire questo concetto, si deve pensare che quando queste onde si propagano verso la Terra dal punto in cui sono emesse, passano nel mezzo intergalattico, cioe’ in quelle regioni di gas e polveri che separano tra loro due Galassie. Bene, attrevarsando queste regioni, principalmente popolate di elettroni, le onde radio ne escono di volta in volta sparpagliate. Osservando lo spettro che arriva a Terra, in particolare proprio questo sparpagliamento, e’ possibile capire quanto mezzo intergalattico e’ stato attraversato e duqnue la distanza della Terra dall’origine del lampo radio. Perche’ diciamo che la distanza e’ solo una stima? Come intuibile, in questa tecnica si fa una stima delle particelle del mezzo intergalattico. Ovviamente non si tratta di supposizioni a caso, ma sono numeri basati su osservazioni dirette e indirette. In questo caso pero’, l’incertezza sulla distanza e’ proprio dovuta all’incertezza con cui si conosce il mezzo intergalattico. Molto piu’ preciso e’ invece il metodo per misurare distanza e velocita’ di una stella classica, come visto in questo post:

Come misurare distanza e velocita’ di una stella

Chi ha prodotto gli FRB?

Come anticpato, e come e’ facile immaginare, questa e’ la domanda a cui si dovra’ dare una risposta. Quando abbiamo parlato di GRB, lo abbiamo fatto partendo da una stella Wolf Rayet che sappiamo essere in grado di produrre questi eventi. Per quando riguarda invece gli FRB, essendo tra l’altro del tutto inaspettati, non e’ ancora stato possibile capire la loro origine. Ovviamente, esistono delle ipotesi fatte per spiegare questi eventi. Alcuni astronomi puntano il dito contro le magnetar, cioe’ stelle di neutroni con campi magnetici molto elevati, in grado di emettere violenti lampi elettromagnetici di raggi X e gamma. Solo pochi giorni fa, e’ stato pubblicato un altro articolo che tenta invece di spiegare gli FRB analizzando il comportamento teorico delle stelle di neutroni supermassive. Questo e’ il link all’articolo per chi volesse approfondire:

FRB, Super Massive Neutron Stars

Ovviamente, si tratta di tutte ipotesi che chiamano in causa corpi astronomici in cui la materia si trova in condizioni molto particolari, perche’ sottoposta a pressione gravitazionale intensa, rapida rotazione o campi magnetici molto elevati. In condizioni normali, non ci sarebbero emissioni di onde radio.

Ovviamente, non potevano certo mancare le ipotesi fantascientifiche circa l’origine di questi segnali. Sulla falsa riga del segnale WOW!:

Il segnale WOW!

c’e chi ha proposto che l’origine del segnale radio sia una lontana civilta’ intelligente che sta cercando di comunicare con noi o anche che siano segnali di avvertimento provenienti da altri mondi su qualcosa che potrebbe accadere. Senza commentare ulteriormente su queste ipotesi, lasciatemi solo fare un’osservazione. I 4 segnali evidenziati finora provengono da punti distanti ben 5 miliardi di anni luce tra loro. Detto questo, mi sembra assurdo pensare che ci sia un popolo che si diverte a spostarsi cosi’ tanto nel nostro universo. Ovviamente, queste ipotesi nascono sulla rete, sono divertenti da leggere, ma non apportano nessuna informazione utili ai fini della ricerca sugli FRB.

A questo punto, non resta dunque che continuare a studiare il fenomeno per cercare di accumulare maggiore statistica, cioe’ nuovi eventi. Questa e’ ovviamente una condizione necessaria per poter verificare le ipotesi fatte o anche per formularne di nuove. Come visto nelle teorie attuali, per alcuni casi, le onde radio dovrebbero essere accompagnate da emissioni di raggi X e gamma. In tal senso, lo studio congiunto dei segnali utilizzando radiotelescopi e strumenti sensibili a queste radiazioni consentirebbe proprio di poter osservare l’emissione congiunta di questi eventi. In questa nuova caccia che si e’ aperta, il radiotelescopio italiano Sardinia, dal punto di vista costruttivo gemello di quello australiano, e che sta entrando nella fase operativa in questo periodo, potra’ dare un notevole contributo.

Studiare eventi di questo tipo ci consente prima di tutto di capire meglio come e’ fatto il nostro universo, evidenziando fenomeni che prima si ignoravano o comportamenti anomali di oggetti celesti conosciuti. Inoltre, alla luce di quanto detto sull’interazione delle onde radio con lo spazio attraversato, l’analisi degli FRB potrebbe consentirci di ottenere nuove informazioni sulla composizione del nostro universo, fornendo nuovo materiale sulle componenti oscure o di antimateria di cui abbiamo parlato in questi post:

La materia oscura

Due parole sull’antimateria

Antimateria sulla notra testa!

Universo: foto da piccolo

Troppa antimateria nello spazio

Concludendo, l’articolo pubblicato solo pochi giorni fa ha evidenziato un fenomeno del tutto inatteso e nuovo nel cosmo. Lo studio degli FRB e’ appena iniziato e vedra’ come protagonista anche un telescopio nostrano gestito dall’INAF. Le informazioni ricavate in questa ricerca potrebbero essere molto utili anche per capire meglio l’origine e la composzione del nostro universo. Come diciamo sempre, ci sono ancora tantissime cose da scoprire. Evidenze come questa ci fanno capire quanto lavoro c’e’ ancora da fare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Troppi danni, i grandi alberi stanno morendo

6 Giu

In questi giorni, ho letto una notizia che mi ha fatto riflettere abbastanza. Come sapete bene, diverse volte su queste pagine ci siamo trovati a parlare di inquinamento e di antropizzazione dell’ambiente. In particolare, abbiamo affrontato molte volte il discorso “cause” analizzando in dettaglio le emissioni nell’ambiente, le tecniche per ridurle o eliminarle, gli sprechi della nostra attuale societa’, ecc.

Ora pero’, la notizia che vorrei raccontarvi, riguarda se volete gli “effetti” che le attivita’ stanno apportando sul nostro ecosistema, molto complesso e regolato da tantissimi parametri, molto spesso correlati tra loro. In genere, siamo abituati a vedere il pianeta come una spugna in grado di adattarsi molto bene alle nostre attivita’ e dunque in grado di resistere alle continue emissioni resistendo abbastanza bene alle nostre scellerate attivita’. Questa notizia purtroppo ci fara’ ricredere.

Da uno studio pubblicato sulla rivista “Science”, un team di ricercatori ha evidenziato come, a tutte le latitudini ed in ogni parte del globo, i grandi alberi secolari, con eta’ compresa tra 100 e 300 anni, stanno morendo ad un ritmo molto piu’ veloce rispetto a quello naturale che si era registrato in passato.

Perche’ sono importanti gli alberi secolari?

Cosi’ come avviene per i grandi mammiferi minacciati dall’estinzione, i grandi alberi secolari rappresentano gli organismi vegetali piu’ imponenti sulla Terra. Dal punto di vista ambientale, questi esemplari hanno importanti funzioni nella regolazione dei cicli del carbonio, assorbendo grandi quantita’ di anidride carbonica e soprattutto dando contributi fondamentali nei processi che avvengono nel terreno. Oltre a questo, gli alberi secolari fungono da habitat per moltissime specie sia animali che vegetali, contribuendo in questo modo alla creazione di miniecosistemi isolati e regolati da leggi di natura.

Come evidenziato dallo studio, di cui potete leggere l’abstract a questa pagina:

Science, scomparsa alberi secolari

il ritmo di scomparsa di questi alberi e’ notevolmente aumentato negli ultimi anni, minacciando notevolmente alcuni importanti parametri del globo. Come detto in precedenza, questo fenomeno sta avvenendo in diverse parti del mondo, indipendentemente dalla tipologia di albero.

Le cause che hanno portato a questo risultato sono in realta’ molteplici, ma tutte dovute all’attivita’ dell’uomo.

La prima causa e’ la richiesta di maggiori spazi per l’agricoltura. In questo senso, ampie zone di vegetazione vengono abbattute per creare campi o spazi aperti. Nelle zone rurali, questo e’ dovuto per la richiesta di nuovi spazi verdi, mentre, soprattutto nelle citta’, questa attvita’ viene utilizzata per creare nuovi spazi edificabili e rispondere alla sempre crescente domanda di nuclei abitativi.

La seconda causa e’ invece di tipo industriale. Come sappiamo bene, la deforestazione e’ una tecnica molto praticata e che viene utilizzata soprattutto per reperire materie prime, ma anche, riallacciandosi alla prima causa, per lasciare spazio libero al posto delle foreste e dei boschi.

L’ultimo motivo e’ invece direttamente connesso con l’inquinamento. Come sappiamo bene, al contrario di quanto sostenuto da alcuni catastrofisti, il riscaldamento globale sta determinando un incremento delle temperature medie sul pianeta. Ora, possiamo discutere, come fatto in pasato, su quale contributo sia dovuto alle emissioni umane e quanto invece sia determinato da naturali variazioni climatiche che avvengono sulla Terra. In questo contesto, questo discorso non e’ importante. Quello che conta e’ che, il riscaldamento globale, determina una minore disponibilita’ di acqua per le piante, provocando siccita’. Il minor apporto di acqua e’ una delle cause principali della scomparsa degli alberi secolari.

Molto spesso, non viene fatto nulla per arginare il fenomeno della moria dei grandi alberi. Come detto all’inizio, cosi’ come avviene per gli animali a rischio estinzione, queste specie vegetali ricoprono un’importanza strategica e funzionale per il nostro pianeta. Detto questo, si dovrebbe cercare di preservare gli esemplari piu’ antichi, oltre ovviamente a diminuire i fenomeni di deforestazione massiccia che stanno interessando tutto il mondo.

Concludendo, come evidenziato dall’articolo di Science, in tutte le parti del mondo c’e’ un aumento della moria di alberi secolari ad un ritmo molto piu’ elevato degli anni precedenti. Le cause di questo sono da ricercarsi nelle attivita’ dell’essere umano ma anche nel riscaldamento globale che determina maggiori periodi di siccita’ per le piante. Dal punto di vista ambientale, eliminando il discorso sentimentale, queste piante ricorprono un ruolo molto importante nell’ecosistema con un compito fondamentale nei diversi cicli delle sostanze chimiche, oltre ad offrire habitat specifici per diverse specie animali e vegetali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E portiamo lo smartphone anche nello spazio!

10 Mag

Come spesso si dice: la necessita’ stimola l’ingegno. Forse proprio questo sta capitando in un periodo di crisi in cui molti settori della ricerca stano soffrendo a causa dei ripetuti tagli dei governi.

Come sappaimo bene, e come discusso in questi post:

I lanci Spaziali del Futuro

Dove andiamo in vacanza? Nello spazio!

Dal turismo al traferimento nello spazio

Londra-New York in un’ora?

una delle agenzie che piu’ soffre a cuasa del diminuito budget e’ proprio la NASA. Nei post precedenti, abbiamo in particolare visto come, dopo la chiusura del programma Shuttle, l’ente americano versi in gravi difficolta’ perche’ per la prima volta nella sua storia si ritrova senza un mezzo proprietario per andare nello spazio e con dei finanziamenti che difficilmente le consentiranno di sviluppare un nuovo programma in tempi rapidi.

In questa ottica, molto lavoro si sta facendo grazie a compagnie private, interessate in primis ad un programma di turismo spaziale che potrebbe fruttare molti soldi, ma che grazie alla loro diponibilita’ finanziaria stanno dando importanti contributi anche nella ricerca della miglior soluzione per andare in orbita.

Dunque, se il trend continuera’ ad essere questo, e’ meglio pensare subito a soluzioni alternative anche per le alre missioni spaziali, in modo da trovare il miglior rapporto qualita’/prezzo per tutto.

Pensiamoci un attimo, tolto il discorso lanci di cui abbiamo parlato, qual e’ l’altra attivita’ spaziale che impiega grossi finanziamenti? Sicuramente quella legata alle missioni in orbita, cioe’ su satellite.

Bene, questo e’ il punto. Se possibile, si deve risparmiare sui satelliti ma ovviamente senza perdere funzioni necessarie al corretto svolgimento della missione o della ricerca. Questo discorso, affrontato anche dai vertici della stessa NASA, e’ molto importante per fare in modo che tutte le linee scientifiche dell’agenzia siano mantenute, senza perdere terreno in nessun campo.

Ora, cambiamo apparentemente discorso: qual e’ lo strumento tecnologico che tutti abbiamo? Sicuramente il telefono cellulare. Ormai, una grossa percentuale dei nostri telefoni sono dei cosiddetti “smartphone”.

Cosa e’ in grado di fare uno smartphone? Indipendentemente dal modello, ormai tutti hanno una fotocamera con piu’ o meno risoluzione, collegamenti internet, bluetooth, gps, registratore di suoni e immagini, ecc.

Bene, ora uniamo i due discorsi fatti. Stiamo cercando satelliti low cost da utilizzare in orbita, la tecnologia degli smartphone e’ evoluta e ormai a buon mercato.

Perche’ non mettere insieme queste due cose?

Il satellite PhoneSat

Il satellite PhoneSat

A questo ci ha gia’ pensato la NASA che infatti ha iniziato il programma “Small Spaceraft Technology”. Proprio nell’ambito di questi studi, e’ nato il programma PhoneSat che prevede l’utiizzo di sistemi basati sulla tecnologia dei cellulari per studiare satelliti a basso costo, basso peso e alte prestazioni. Ovviamente, non dovete pensare che i ricercatori hanno preso dei modelli di telefonino e li hanno mandati in orbita, ma la tecnologia utilizzata per realizzare questi prototipi sfrutta esattamente l’elettronica dei nostri smartphone.

Lo scorso 21 aprile, con il lancio dell’ultimo razzo Antares, e’ stato portato in orbita un piccolo satellite, dal peso inferiore a 10 Kg, dotato proprio di 3 telefonini-equivalenti, chiamati Alexander, Graham e Bell. Questa piccola scatola cubica e’ stata messa in orbita e ha raccolto dati fino al 27 aprile quando poi e’ ricaduta incendiandosi a contatto con l’atmosfera.

Se pensate che stia scherzando, ecco il link della pagina NASA relativa la programma Small Spacecraft Technology:

NASA, SST

Sempre nell’ottica del risparmio, il programma PhoneSat ha utilizzato un’analisi dei dati davvero molto carina. Invece di raccogliere i dati a terra e analizzarli in un centro di calcolo specifico, i dati sono stati resi pubblici per gli utenti che quindi hanno potuto analizzare indipendentemente le informazioni inviate dai telefoni in orbita, mettendo poi in condivisione con gli altri i loro risultati. Si e’ dunque trattato di un bellissimo esempio di “citizens science”, in cui tutti potevano partecipare e condividere informazioni con gli altri.

Attraverso le immagini inviate dalle fotocamere, e’ stato possibile ricostruire una mappa completa della Terra, come mostra questo esempio:

Immagini a bassa risoluzione di PhoneSat. Media e alta risoluzione in acquisizione

Immagini a bassa risoluzione di PhoneSat. Media e alta risoluzione in acquisizione

ottenuta incollando tra loro le diverse foto scattate. Ovviamente, in questo caso l’informazione della posizione misurata attraverso il GPS e’ fondamentale.

Ecco il sito ufficiale di PhoneSat, in cui trovate oltre alle immagini anche la descrizione del programma e le modalita’ di condivisione dei dati raccolti:

PhoneSat

Qualora fosse interessati, anche se il satellite e’ andato perso, potete ancora iscrivervi al programma per avere libero accesso ai dati raccolti.

Solo per completezza, una domanda lecita che ci si potrebbe fare e’: come sono stati inviati i dati? Come detto, siamo partiti dall’elettronica ormai di consumo degli smartphone. Per poter inviare i dati a terra pero’, i sistemi sono stati costruiti per utilizzare la banda 437.425 MHz che e’ quella maggiormente utilizzata dai radioamatori. In questo modo, e’ possibile far arrivare le informazioni dagli smartphone fino alla stazione di terra dove poi vengono condivisi tra tutti gli utenti.

Concludendo, i risultati di questo studio sono senza dubbio incoraggianti. Sfruttare soluzioni low cost nella costruzione dei satelliti sicuramente consentirebbe di risparmiare molti fondi e deviarli da queste attivita’, ormai di servizio, verso tematiche piu’ complesse in cui e’ richiesto un maggior afflusso di finanziamenti. PhoneSat continua dunque il suo lavoro, e il programma a breve termine prevede il lancio di altri sistemi migliorati al fine di ottenere dati sempre piu’ precisi e che, nel giro di poco tempo, potrebbero sostituire del tutto i vecchi sistemi satellitari molto piu’ costosi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Cosa c’e’ sotto i nostri piedi?

28 Apr

In questi giorni, molti giornali e siti internet hanno pubblicato la notizia di una nuova misura rigurdante la temperatura al centro della Terra. Come avrete letto, il nuovo risultato stabilisce una temperatura del centro della Terra a 6000 gradi centigradi, ben 1000 gradi maggiore rispetto al valore precedentemente conosciuto e misurato circa 20 anni fa. Tra l’altro, moltissime fonti enfatizzano il fatto che questi 6000 gradi, misurati al centro del nostro pianeta, sono paragonabili alla temperatura esterna del Sole.

Temperature della Terra dalla superficie al centro

Temperature della Terra dalla superficie al centro

E dunque? Purtroppo, come spesso accade, molti siti sono sempre pronti a pubblicare notizie di carattere scientifico, ma un po’ meno a dare spiegazioni. In realta’, questa misura e’ estremamente complessa ed e’ stata possibile solo grazie alla collaborazione di diversi centri di ricerca. Inoltre, la nuova determinazione della temperatura interna del pianeta, consente di verificare molti modelli riguardanti diversi settori della scienza.

Da quanto detto, credo che questa notizia meriti un piccolo approfondimento, anche solo per capire meglio questi concetti, che sempre affascinano le persone.

Per prima cosa: come e’ stata fatta questa misura?

Ad oggi, sappiamo che, scendendo verso il centro della Terra, ci sono zone ad alta pressione occupate da ferro e zolfo liquidi. Pian piano che ci avvicianiamo al centro pero’, e le pressioni continuano ad aumentare, si trova un blocco di ferro solido, che occupa la parte piu’ interna del nostro pianeta. Come sappiamo questo? L’evidenza di questa composizione, ma anche il volume occupato dalla parte solida e da quella liquida, vengono determinati studiando le onde sismiche dei terremoti di intensita’ maggiore. Cosa significa? Le onde emesse durante un forte sisma, si propagano all’interno della Terra e interagiscono in modo diverso incontrando un volume solido o liquido. Bene, misurando queste interferenze, se volete ascoltando il loro eco, e’ possibile determinare lo spessore del nucleo solido del nostro pianeta. Purtroppo, questi studi non ci danno nessuna informazione sulla temperatura interna della Terra. Per ricavare questi valori e’ necessario procedere in modo diverso.

Arriviamo dunque alla misura in questione. Come potete immaginare, sapendo che nel nucleo e’ presente sia ferro solido che liquido, basta determinare i punti di fusione di questo metallo per arrivare all’informazione cercata. Purtroppo, il discorso non e’ cosi’ semplice. In questo caso, oltre alla temperatura, gioca un ruolo essenziale anche la pressione a cui il ferro e’ sottoposto. Pressione e temepratura sono due variabili indipendenti di cui tenere conto per determinare il punto di fusione del ferro.

Per capire questo importante concetto, vi faccio un esempio noto a tutti. Quando si dice che la temperatura di ebollizione dell’acqua e’ 100 gradi, ci si riferisce alla pressione atmosferica. Come sicuramente avrete sentito dire, esistono delle differenze per questo valore a seconda che vi troviate al mare o in montagna. Questo e’ comprensibile proprio considerando i diversi valori di pressione. In questo caso, possiamo vedere la pressione come il peso della colonna d’aria sopra le nostre teste. Variando il valore della pressione, cambia dunque la temperatura di ebollizione dell’acqua. La stessa cosa avviene per il ferro al centro della terra, ma per valori di temperatura e pressioni molto diversi da quelli a cui siamo abituati.

Quando parliamo di pressioni al centro della Terra, stiamo pensando a valori che si aggirano intorno a qualche milione di atmosfere. Per poter studiare le traformazioni di fase del ferro con questi valori di pressione e temperatura, i ricercatori francesi hanno costruito uno strumento ad hoc, di cui vi mostro uno schema:

Schema dello strumento utilizzato per simulare le pressioni al centro della Terra

Schema dello strumento utilizzato per simulare le pressioni al centro della Terra

Come vedete, una lamina di ferro viene messa tra due diamanti, in modo tale che la punta tocchi la superficie. Spingendo i due diamanti su un punto molto piccolo, si riescono a creare le pressioni richieste per la misura. Per scaldare invece il ferro alle temperature richieste, vengono utilizzati potenti fasci laser in grado di far salire la temperatura fino a diverse migliaia di gradi.

A questo punto, appare evidente che tutto il sistema debba essere isolato termicamente e chimicamente dall’ambiente esterno per impedire perdite di calore ma anche che il ferro reagisca con l’ambiente viziando il risultato. In questo caso, per poter determinare lo stato solido o liquido del campione, si sono utilizzate le emissioni a raggi X del materiale, in modo da poter determinare lo stato fisico, senza perturbare in nessun modo la misura.

Dai modelli sismici utilizzati, nello strato in cui il ferro e’ liquido, si ha una temperatura di 4800 gradi con una pressione di 2.2 milioni di atmosfere, risultato confermato dalla misura. Se pero’ aumentiamo ancora la pressione, analogamente a quanto accade mentre scendiamo vicino la centro della Terra, e la portiamo ad un valore di 3.3 milioni di atmosfere, ci si accorge che per far solidificare il ferro, come osservato dallo studio delle onde sismiche, e’ necessaria una temperatura di 6000 gradi.

Cosa significa questo? Riassumendo, sappiamo dai modelli sismici che il centro della terra e’ di ferro solido circondato da ferro liquido. Con il dispositivo visto, e’ stato possibile determinare che alle pressioni del centro della Terra, affinche’ il ferro sia solido, e’ necessaria una temperatura di 6000 gradi. Bene, questo e’ proprio il valore della temperatura al centro del nostro pianeta e che e’ stato possibile misurare con precisione, solo 500 gradi di incertezza sperimentale, con questa importantissima ricerca.

Come vi avevo anticipato, queto nuovo valore e’ circa 1000 gradi superiore a quello precedente ottenuto 20 anni fa. Perche’ questa differenza? Il sistema usato in precedenza per ottenere le alte pressioni richieste era molto simile a quello odierno. La caratteristica che ha permesso di misurare con precisione la temperatura, e’ lo studio delle transizioni del ferro osservando il tutto ai raggi X. Nella precedente misura, venivano utilizzate onde visibili. Come evidenziato in questa nuova misura, arrivati a circa 5000 gradi, si presentano fenomeni di cristallizzazione superficiale del ferro, che molto probabilemnte sono stati interpretati in passato come l’inizio della transizione nella fase solida, mentre, come visto in questa misura, per arrivare in questo stato, e’ necessario aumentare ancora di 1000 gradi la temperatura.

Ultima importante considerazione: come visto, la temperatura del mantello intorno al nucleo e’ di circa 4800 gradi, cioe’ 1200 gradi inferiore a quella del blocco di ferro solido. Bene, questa differenza di temperatura e’ fondamentale per capire un altro importante parametro del nostro pianeta e di cui spesso abbiamo parlato, il campo magnetico. Come sapete, spesso abbiamo parlato di geomagnetismo per sfatare tutte quelle voci catastrofische che vorrebbero un’inversione dei poli in corso:

Inversione dei poli terrestri

L’anomalia del Sud Atlantico

Il battito naturale …. della Terra

Bene, la differenza di temperatura tra gli strati interni, insieme anche alla rotazione della terra intorno al suo asse, sono proprio i responsabili della generazione del nostro campo magnetico. Per dirlo in parole semplici, l’interno della Terra si comporta come una dinamo in cui le correnti sono correnti termiche spinte dalla differenza di temperatura.

Come vedete, alla luce di quanto detto, e’ abbastanza riduttivo quanto si puo’ leggere sui giornali. Questa misura e’ estremamente interessante dal punto di vista tecnico, ma soprattutto i risultati ottenuti sono di prim’ordine. Come anticipato, i nuovi valori trovati consentiranno di migliorare notevolmente i modelli anche dal punto di vista geologico, utili anche per studiare la propagazione dei terremoti sul nostro pianeta. Detto questo, la misura apre il campo anche a possibili studi per cercare di riprodurre in laboratorio le condizioni di pressione e temperatura presenti in ogni strato del nostro pianeta. Avere una mappa di questo tipo, potrebbe fornire dati estremamente importanti per capire al meglio anche l’origine e l’evoluzione della nostra Terra.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Nuovi esopianeti. Questa volta ci siamo?

20 Apr

Solo qualche giorno fa, molti giornali e telegiornali hanno parlato di una nuova importantissima scoperta fatta dal telescopio Keplero della NASA. Come forse avrete sentito dai media, questo portentoso telescopio e’ riuscito ad individuare due nuovi esopianeti molto simili alla Terra. La caratteristica di questi pianeti, che tanto clamore ha suscitato, e’ che esiste una buona probabilita’ che su questi pianeti sia presente acqua allo stato liquido. Senza tanti giri di parole, questa e’ una delle condizioni piu’ semplici che possiamo immaginare affinche’ si sia formata la vita su un pianeta.

Questa notizia ha pero’ ridato aria a tanti siti che ovviamente hanno cominciato a speculare su questa scoperta. Leggendo in rete ne trovate veramente di tutti i colori. Solo per dirvi le principali, uno dei due esopianeti potrebbe essere l’ormai tristemente noto Nibiru, la NASA non solo avrebbe scoperto che c’e’ acqua, ma anche che i pianeti sono abitati da forme di vita. In quest’ultimo caso, alcuni azzardano anche che nei prossimi giorni ci sara’ l’annuncio ufficiale del governo americano per chiarire finalmente l’esistenza degli alieni. Altri siti ancora parlano di pianeti abitabili per gli esseri umani e su cui presto una ristretta elite di persone si rifuggeranno per scappare da qualcosa di estremamente grave che sta per capitare alla Terra.

Schermata-2013-04-18-a-16.41.31

Queste speculazioni dette in questo modo sembrano, ma in realta’ lo sono, delle barzellette. La cosa che da sempre mi lascia interdetto e’ la grande quantita’ di persone che seguono questi siti e che spesso credono anche alle innumerevoli fandonie pubblicate.

Cerchiamo dunque di raccontare in senso scientifico la notizia e anche di fare qualche consdierazione per smentire queste ingloriose affermazioni che trovate in rete.

Della missione Keplero, ma soprattutto dei numerevoli esopianeti scoperti abbiamo parlato in questo post:

A caccia di vita sugli Esopianeti

In quell’occasione, avevamo parlato di esopianeti a seguito della scoperta di Kepler-37B, il piu’ piccolo pianeta mai osservato fuori dal Sistema Solare. In particolare, come visto nell’articolo riportato, Keplero monitora lo spazio osservando in continuo la luminosita’ degli oggetti visibili attraverso un esposimetro. Senza entrare troppo nello specifico, queste telescopio individua i pianeti osservando le minime variazioni di luminosita’ della stella centrale quando questi pianeti transitano tra la lente di Keplero e la stella centrale.

Il metodo della variazione di luminosita’ funziona molto bene e Keplero e’ gia’ riuscito ad individuare diversi pianeti fuori dal sistema solare.

Questa volta Keplero ha scoperto due nuovi pianeti orbitanti intorno ad una stella centrale chiamata Kepler-62. Nell’articolo precedente invece avevamo parlato del sistema orbitante intorno a Kepler-37. Anche se sembra un po’ confusionario, il sistema di nomenclatura degli esopianeti e’ molto semplice. Le stelle centrali individuate prendono nomi del tipo Kepler-1, Kepler-2, ecc. I pianeti orbitanti intorno alla stella Kepler-X, vengono invece chiamati Kepler-Xa, Kepler-Xb, ecc, in base all’ordine in cui vengono scoperti. Ammetto, come gia’ fatto la volta scorsa, che la fantasia nel dare nomi non e’ la dote principale degli scienziati della NASA.

Torniamo dunque alla nuova scoperta. Intorno a Kepler-62 sono stati individuati Kepler-62e e Kepler-62f. Dopo quanto detto, capite subito che sono il quarto e il quinto pianeta individuato intorno a questa stella.

Perche’ questi pianeti sono interessanti?

Quando si studia un sistema stellare come quello di cui stiamo parlando, o analogamente potete pensare il ragionamento applicato anche al nostro sistema solare, prima di tutto si studia la stella centrale. Cosi’ come avviene per il Sole, questa oltre a determinare il moto dei pianeti attraverso la sua attrazione gravitazionale, e’ in grado di influire pesantemente sulle condizioni climatiche di ciascun pianeta. Detto questo, si determina una cosiddetta “fascia di abitabilita’”, intesa come la zona del sistema planetario in cui potrebbero innescarsi le condizioni per la vita. Come detto in precedenza, la condizione piu’ semplice ottenuta dalla zona di abitabilita’ e’ quella di trovare acqua allo stato liquido, cosa impossibile se troppo vicini o troppo lontani dalla stella centrale.

Bene, i due nuovi pianeti si trovano all’interno della fascia di abitabilita’ determinata da Kepler-62. Per essere precisi, Kepler-62e si trova ai limiti della zona, mentre Kepler-62f e’ proprio al centro della zona abitabile.

Per darvi qualche dettaglio, la stella centrale Kepler-62 e’ circa il 70% del nostro Sole, sia in termini di massa che di diametro, mentre Kepler-62f e’ circa 1,4 volta la nostra Terra.

Dalle osservazioni fatte, Kepler-62e appare roccioso come la Terra e “probabilmente” potrebbe ospitare fiumi, laghi, mari e anche un’atmosfera simile a quella della nostra Terra.

Dunque, c’e’ vita su Kepler-62f? Come potete capire, esiste una probabilita’ che ci sia acqua allo stato liquido, ma non e’ assolutamente scontato che ci sia vita. Prima di tutto, il fatto di avere un pianeta in fascia abitabile e’ una condizione necessaria ma tutt’altro che sufficiente.

Per rispondere alle tante ipotesi complottiste citate prima, facciamo un ragionamento. Abbiamo scoperto questo pianeta, probabilmente c’e’ acqua allo stato liquido, ora? Andiamo a colonizzarlo o tentiamo di fare amicizia con gli alieni?

La risposta a tutte queste domande e’ sempre no!

Kepler-62f si trova ad una distanza di circa 1200 anni luce da noi. Capite dunque come sia impossibile raggiungere questo pianeta ma soprattutto come sia impossibile studiare a questa distanza l’atmosfera di Kepler-62f. Inoltre, il telescopio Keplero non e’ stato neanche pensato per questo. La missione di Keplero e’ quella di scoprire esopianeti lontani dalla Terra per capire come e’ fatto l’universo lontano da noi e, perche’ no, anche per raccogliare informazioni aggiuntive su come si e’ formato il nostro Sistema Solare.

Inoltre, lo scopo di Keplero era quello di capire quanti esopianeti lontani ci fossero. Come detto, il telescopio e’ in grado di studiare la struttura dei pianeti ma non la loro atmosfera. Questo e’ ancora impossibile a queste distanze. Ovviamente, le importanti scoperte fatte da Keplero danno una spinta in avanti per cercare di migliorare le nostre tecnologie e magari, procedendo per passi intermedi, essere in grado, nel giro di qualche anno, di studiare anche l’atmosfera degli esopianeti. Sicuramente, parlando in termini molto terreni e poco scientifici, scoperte come queste possono influenzare e giustificare i notevoli investimenti che serviranno per arrivare a questi futuri studi.

Ultima punto rimasto scoperto: uno dei due esopianeti e’ Nibiru? Assolutamente no. Premesso che ad oggi non c’e’ nessuna evidenza di questo corpo, secondo le tante voci, da internet a Sitchin fino al 2012, Nibiru dovrebbe passare con un certo periodo (3600) anni all’interno del nostro sistema solare. Il sistema stellare Kepler-62 si trova nella sua posizione a 1200 anni luce da noi e assolutamente mai passera’ all’interno del sistema solare. Se volete, possiamo pensare di organizzare una petizione, chiediamo alla NASA di chiamare il prossimo esopianeta Nibiru, magari in questo modo faremo finalmente contenti i catastrofisti. Vista pero’ la speculazione in corso sul pianeta X, non credo assolutamente che questo servira’ a zittire i piu’.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Cosa dire invece dei Cerchi delle Fate?

15 Apr

In diversi articoli del blog ci siamo occupati di cerchi. Come sapete bene, l’argomento principale da sempre legato al mistero e’ ovviamente quello dei cerchi nel grano:

21 Dicembre 2012: Cerchi nel grano

Ancora sui cerchi nel grano

Come si realizza un cerchio nel grano

Errore nel cerchio di Santena

Nuovo cerchio, nuova data!

Nuovo cerchio a Povoletto

Anche se, come visto nei diversi articoli, alla luce delle considerazioni fatte c’e’ poco di misterioso in queste strutture. Dopo il grano, ci siamo anche occupati di cerchi nel ghiaccio, nella neve e nella sabbia:

E ora gli snowcircle

Crop circle? No, sand circle!

Cerchi nel ghiaccio: quello che ancora mancava!

Ora invece vogliamo occuparci di qualcosa di simile e di altrettanto misterioso che da molto tempo non riesce a trovare una spiegazione scientifica: “I cerchi delle Fate”!

Di cosa si tratta?

I cerchi delle fate altro non sono che delle strutture che si osservano in Africa sud occidentale nella zona desertica che va dalla Namibia fino al Sud Africa. Si tratta di strutture circolari, completamente prive di vegetazione, ma circondate da erba alta e con diametri che vanno dai 2 fino anche a 20 metri. Il panorama aereo che si osserva sulla zona e’ veramente incredibile:

Foto aerea dei cerchi delle fate

Foto aerea dei cerchi delle fate

Solo per darvi un’idea, questo fenomeno e’ unico delle regione e ricopre un’area lunga quasi 1500 Km lungo il deserto africano.

Fino ad oggi, non si era ancora riusciti a dare una spiegazione logica alla formazione di questi cerchi e alla loro apparente forma perfettamente circolare.

Per la popolazione locale Himba, i cerchi delle fate, o anche “fairy circles”, sarebbero le impronte lasciate dagli Dei quando questi accorrono alle zone di preghiera.

Ovviamente questa e’ la leggenda. Solo pochi giorni fa invece il professor Jurgens dell’universita’ di Amburgo ha pubblicato un articolo sulla rivista Science in cui e’ riuscito a trovare finalmente la spiegazione a queste misteriose strutture che popolano il deserto africano.

Cerchi delle fate in Namibia

Cerchi delle fate in Namibia

Andiamo con ordine, parlando anche un po’ delle osservazioni fatte nel corso del tempo.

Il primo che si dedico’ ad uno studio scientifico dei cerchi fu il Dr.Tschinkel dell’universita’ della Florida. Per trovare i fondi necessari allo studio, il biologo lancio’ anche un’iniziativa molto carina sfruttando l’osservazione satellitare. Tschinkel propose infatti un programma di adozione a distanza dei cerchi in cui dopo aver versato un contributo di 50 dollari, il donatore riceveva la coordinate del proprio cerchio e poteva dunque seguirlo mediante Google Earth. Proprio mediante questa osservazione prolungata, ci si accorse che in realta’ i cerchi erano vivi, nel senso che la loro posizione variava nel tempo e che, in particolare, i cerchi, in tempi piu’ o meno lunghi, venivano anche distrutti e ricostruiti. In questo modo si osservo’ che i cerchi delle fate avevano una vita media fino a decine di anni dopo di che venivano distrutti ricoprendosi di erba, mentre altri nuovi venivano formati.

Proprio le osservazione di Tschinkel hanno dato il via alle misurazioni condotte poi da Jurgens e pubblicate in questi giorni.

Come dismostrato dalle varie analisi, i cerchi delle fate sono prodotti dalla lenta azione di una particolare specie di termiti, la Psammotermes allocerus. Come spesso avviene in natura, la costruzione di queste strutture rientra nei meccanismi di sopravvivenza che alcune specie adottano per poter resitere a condizioni climatiche difficili, come, ad esempio, quelle offerte dal deserto della Namibia.

Le termiti autrici dei cerchi delle fate

Le termiti autrici dei cerchi delle fate

Come avviene la formazione dei cerchi?

Per prima cosa, le termiti mangiano le radici delle piante, distruggendole e rendendo il suolo meno denso. In questo modo, una zona piu’ o meno vasta rimane priva di vegetazione. A questo punto, il terreno, traspirando di meno, riesce a trattenere piu’ a lungo l’umidita’ prodotta dalle scarse precipitazioni della zona. Le termiti poi, occupano una zona sotterranea compresa tra un paio di centimetri ed alcuni decimetri, costruendo gallerie e colonizzando il terreno.

Anche se gia’ affasciante, questo non e’ l’unico miracolo che l’ingegneria naturale riesce a produrre. Dal momento che ora il cerchio funziona da deposito di acqua, nella zona esterna a quella colonizzata dalle termiti, si creano le condizioni ideali per la crescita di piante. Non avendo infatti specie in competizione e trovando un terreno relativamente piu’ umido, la vegetazione puo’ crescere intorno alla circonferenza del cerchio in forma perenne.

Le radici delle piante che crescono intorno al cerchio, offrono una riserva di cibo notevole per le termiti che nutrendosi di questa risorsa, possono modificare nel corso del tempo la posizione del cerchio. Inoltre, questa funge da riserva di cibo in caso di prolungate siccita’, assicurando in questo modo la sopravvivenza della colonia di termiti.

Queste conclusioni sono ovviamente il risultato di anni di studi e di analisi sul terreno che hanno portato finalmente a risolvere il mistero dei cerchi delle fate. Solo per completezza, in passato furono proposte anche altre spiegazioni per questo fenomeno, come, ad esempio, quella della fuga di gas dal terreno capace di distruggere in determinate zone la crescita di vegetazione. Alla luce di quanto detto, capite bene come questa spiegazione non venne accettata perche’ non in grado di spiegare il movimento dei cerchi ma anche la dinamicita’ degli stessi.

Concludendo, i cerchi delle fate sono delle strutture molto ampie e prive di vegetazione che si osservano solo ed esclusivamente nel deserto della Namibia. Per diverso tempo la formazione di queste strutture rimase un vero e proprio mistero. Solo pochi giorni fa, con un articolo pubblicato su Science, un team dell’universita’ di Amburgo ha finalmente spiegato questo fenomeno. I cerchi delle fate sono soltanto delle formazioni create da una specie di termiti per assicurare la sopravvivenza della comunita’ alle difficili condizioni ambientali che il deserto africano impone.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La terza fascia di Van Allen

4 Mar

Anche se, come spesso avviene, dobbiamo partire dal catastrofismo, questa volta parliamo di scienza vera ed in particolare della scoperta, pubblicata proprio in questi ultimi giorni, di una terza fascia di Van Allen intorno alla Terra.

Di cosa si tratta?

Andiamo con ordine, delle fasce di Van Allen abbiamo gia’ parlato in questo post:

L’anomalia del Sud Atlantico

Come abbiamo visto, queste altro non sono che delle strutture intorno alla Terra formate da particelle cariche. In particolare, fino a pochi giorni fa, erano conosciute due fasce, una formata da elettroni ed una da protoni. Dal momento che queste particelle vengono intrappolate mediante la forza di Lorentz per opera del campo magnetico terrestre, nella fascia piu’ interna troviamo protoni, mentre in quella piu’ esterna elettroni.

Fasce di Van Allen intorno alla Terra

Fasce di Van Allen intorno alla Terra

In particolare, quando le particelle delle fasce di Van Allen vengono eccitate a causa dell’attivita’ solare, si ha il fenomeno delle aurore, di cui abbiamo discusso gia’ diverse volte.

Facciamo un piccolo passo indietro. Perche’ queste strutture sono tanto care ai catastrofisti? Come ricorderete, uno degli argomenti maggiormente citati per il 21 Dicembre 2012, era l’ipotizzata inversione dei poli magnetici terrestri. Dal momento che, come visto, l’esistenza stessa delle fasce di Van Allen e’ dovuta al campo magnetico terrestre, molto si e’ speculato in questa direzione, cercando presunte prove dell’imminente inversione. Di questi aspetti abbiamo parlato, ad esempio, in questo post:

Inversione dei poli terrestri

Come visto, niente di tutto questo e’ reale. Sappiamo che il polo nord magnetico e’ in lento e continuo movimento, cosi’ come sappiamo che in passato e’ avvenuta un’inversione dei poli terrestri, ma questo non comporterebbe certamente la fine del mondo e assolutamente questo non e’ un processo che avviene dall’oggi al domani ma esistono modelli matematici, basati sulle informazioni provenienti dal Sole, che periodicamente inverte i suoi poli, che ci mostrano come questo fenomeno dovrebbe avvenire.

Bene, detto questo, proprio in questi giorni si e’ tornati a parlare delle fasce di Van Allen, dopo che e’ stato pubblicato un articolo sulla rivista Science di un’importante scoperta fatta da ricercatori NASA nell’ambito della missione Radiation Belt Storm Probes. Questa missione consiste in due sonde gemelle lanciate nello spazio la scorsa estate proprio per studiare ed osservare le cinture di particelle che circondano la Terra.

Cosa hanno osservato le due sonde?

Subito dopo il lancio, le sonde hanno potuto osservare le due fasce come normalmente avviene e come abbiamo detto anche nel precedente post. Ai primi di settembre pero’, i ricercatori hanno osservato la fascia esterna spostarsi verso il basso ed e’ apparsa una terza fascia, molto meno compatta, ancora piu’ lontana dalla prima e sempre popolata di elettroni.

Questo e’ un modello che mostra appunto il confronto tra la struttura a due (nota) e a tre (innovativa) fasce di Van Allen intorno alla Terra:

Modello a 2 e 3 fasce di Van Allen

Modello a 2 e 3 fasce di Van Allen

LA cosa che ha sorpreso ancora di piu’ e’ che dopo circa  3 settimane, la fascia piu’ esterna ha iniziato lentamente a dissolversi fino a quando, dopo circa un mese dalla prima osservazione, una potente emissione di vento solare ha letteralmente spazzato via la fascia esterna riformando la solita struttura a due cinture che tutti conoscono.

Ora, cerchiamo di analizzare quanto riportato.

Prima di tutto, c’e’ da dire che l’osservazione di questa struttura e’ stato un gran bel colpo di fortuna per i ricercatori della NASA. Secondo il programma infatti, gli strumenti delle sonde avrebbero dovuto cominciare a raccogliere dati solo dopo un mese dal lancio. Questa procedura e’ del tutto normale e viene utilizzata per far stabilizzare la strumentazione dopo il lancio. In questo caso pero’, si e’ insistito affinche’ gli strumenti fossero accesi subito. Se vogliamo, dato questo particolare, non si e’ trattato solo di fortuna. Proprio l’accensione anticipata degli strumenti ha consentito di osservare questo nuovo effetto. Se fosse stato rispettato il programma, al momento dell’accensione la terza fascia era gia’ scomparsa.

Al momento, non esiste ancora una teoria per siegare quanto osservato o meglio, i dati raccolti sono completamente in disaccordo con quanto sapevamo e con quanto osservato in passato. Questo significa che adesso ci vorra’ tempo affinche’ vengano formulati nuovo modelli per tenere conto di questo effetto.

Allo stato attuale, non si conosce neanche quanto frequentemente avviene la divisione in tre fasce. Probabilmente questo fenomeno avviene regolarmente a causa dell’attivita’ solare, ma fino ad oggi non eravamo stati in grado di osservarlo.

Perche’ parlo di attivita’ solare? Come detto, il vento solare modifica la struttura delle fasce di Van Allen e quindi, con buona probabilita’, anche questo effetto puo’ essere ricondotto alla stessa causa. Inoltre, come osservato, proprio il vento solare ha ripristinato la struttura a due fasce.

Da quanto sappiamo, le due fasce sono separate da una zona non popolata di particelle detta “zona di sicurezza”. Dai dati raccolti, sembrerebbe che la pressione esercitata dalla radiazione solare abbia spostato gran parte degli elettroni in questa zona formando cosi’ la struttura a tre fasce osservata. Sempre un’emissione di vento solare ha poi spazzato via la terza fascia meno densa e di conseguenza gli elettroni sono risaltati nella posizione originale.

Ovviamente, si tratta ancora di ipotesi. Come detto, i dati raccolti verranno ora analizzati per cercare di formulare un modello in grado di spiegare quanto osservato.

Solo per concludere, non c’e’ niente di misterioso in questa scoperta. Su alcuni siti si e’ tornati a parlare di inversione del campo magnetico terrestre, speculando circa la modificazione delle fasce di Van Allen. Niente di tutto questo e’ reale. Come visto, si tratta di una scoperta nuova e del tutto inaspettata. In quanto tale, e’ ovvio che non si ha ancora un’idea precisa o una spiegazione uniformemente accettata. A questo punto non resta che aspettare l’analisi dei dati per capire la spiegazione di questo nuovo fenomeno.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.