Tag Archives: telefono

La prova regina per eccellenza

21 Giu

In questi giorni sta facendo molto discutere il caso di Yara Gambirasio e l’arresto di quello che sembrerebbe il presunto assassino. Mi rendo conto che la tematica non è delle più semplici ed in questa sede, come è la natura stessa del blog, non voglio entrare in discussioni riguardanti il caso in se ne tantomeno discutere giustizialismo o meno. Come sappiamo tutti, quello che ad oggi è identificato come l’assassino di Yara è stato identificato dopo una lunga e costosa inchiesta che si è basata notevolmente sul test del DNA e sulla comparazione di circa 18000 campioni prelevati da cittadini della zona con delle tracce biologiche rinvenute su un indumento della vittima.

L’identificazione del presunto assassino ha portato però una lunga coda di discussioni sulla certezza o meno della colpevolezza. Senza entrare nel merito della discussione sulle dichiarazioni rilasciate anche da esponenti di governo, il fulcro della questione è rappresentato dalla validità o meno, o meglio dalla precisione o meno, del test del DNA eseguito.

Per cercare di capire meglio la questione, proviamo a capire come vengono eseguiti questi test e se veramente ci sono margini di errore significativi tali da mettere in discussione l’impianto accusatorio per il sospetto.

Come anticipato, durante l’inchiesta sono stati prelevati circa 18000 campioni di DNA da altrettante persone che frequentavano luoghi di interesse per l’indagine e che potevano essere entrate in contatto in qualche modo con la vittima. Tra queste persone è stato identificato un notevole grado di somiglianza tra il campione rinvenuto ed un frequentatore di una nota discoteca della zona. Da qui si è poi risaliti a tre fratelli il cui DNA era ancora più somigliante alla prova e al loro padre, morto nel 1999, ma il cui DNA è stato estratto dalla saliva dietro un bollo della patente e confermato poi dalle ossa riesumate per le indagini. Come è noto, da qui si è passati ad identificare la madre dell’assassino che avrebbe avuto una coppia di gemelli illegittimi dal padre in questione. L’identificazione madre-figlio è sempre stata fatta mediante il test del DNA e nello specifico mediante la comparazione di quello che si chiama DNA mitocondriale, trasferito interamente da madre a figlio. A questo punto, proprio nel maschio della coppia di gemelli è stato identificato il presunto assassino di Yara.

Tutta questa storia sembra più la sceneggiatura di un film o di una serie poliziesca piuttosto che una normale indagine. Ovviamente, il costo di tutte queste procedure è stato elevatissimo. Ed ora? Dopo circa 4 anni, milioni di euro spesi, perché continuiamo ad avere dubbi? Questo è il tema che vorremmo affrontare per capire meglio il perché di tutta questa discussione dopo che il test del DNA viene da diverse fonti considerata la prova regina per la risoluzione di indagini rompicapo.

Come avrete letto e ascoltato, la certezza della corrispondenza tra la traccia rinvenuta sugli indumenti e il DNA del presunto assassino è del 99,99999987%, dunque la probabilità di errore è di uno su miliardi. Allora? Uno su miliardi sembrerebbe una certezza assoluta. In realtà, non è così. Cerchiamo di capire meglio.

Per rima cosa, come viene fatto il test del DNA? Come sappiamo, la molecola del DNA, la famosa doppia elica, è composta da catene lunghissime di basi che contengono tutte le informazioni necessarie a codificare l’essere umano. Se prediamo il DNA di due persone qualsiasi, non parenti, fratelli o altro, ma persone qualsiasi, questi sono identici tra loro per circa il 99.9%. Bene, questa quasi totalità identica è quella che si chiama “genoma umano”. La restante parte del DNA è composta da sequenze non codificate e che non entrano nella sintesi proteica. Proprio questa parte è formata da sequenze di coppie che si ripetono casualmente e la cui struttura è talmente arbitraria da potersi considerare un’evoluzione moderna delle classiche impronte digitali. Detto in altri termini, questa parte minore di DNA è diversa da individuo ad individuo ma è rappresentata non da sequenze a caso, ma da coppie che si ripetono un numero fisso di volte. Bene, analizzando questa parte del DNA, cioè contando quanti e quali coppie e quante volte si ripetono, è possibile effettuare il test del DNA per confrontare tra loro due campioni. Questa tipologia di analisi è la stessa che viene utilizzata anche per il test di paternità utilizzato per riconoscere o meno un figlio.

Detto questo, se consideriamo il numero elevatissimo di combinazioni possibili di queste sequenze, una volta confrontati due campioni e visto che questi hanno le stesse sequenza ripetute, arriviamo agilmente a probabilità di appartenenza che sfiorano il 100%. In altri termini, trovato un campione di DNA, la probabilità che questo appartenga ad una persona a caso piuttosto che a colui che viene identificato è una su miliardi di casi. Tra l’altro, si tratta di un test abbastanza semplice e che è possibile portare a termine nell’arco di un paio d’ore.

Detto questo, con le probabilità che abbiamo detto prima, dove sarebbe la possibilità di errore?

In realtà, è vero che la probabilità di errore è così bassa, ma si tratta solo della probabilità che due persone possano avere le stesse sequenze ripetute nella parte di DNA analizzato. Purtroppo, come la scienza ci insegna, si deve sempre tenere conto degli errori apportati nella misura.

Cosa significa?

Come detto, in questa tipologia di misura si contano, nel vero senso del termine, le sequenze ripetute. E se ci sbagliamo a contare? Questo in realtà potrebbe essere un problema. E’ vero che la sequenza del DNA in esame, per conoscenza i microsatelliti, sono una caratteristica quasi unica, ma alcuni laboratori dichiarano percentuali di errori anche fino al 2%, dunque infinitamente maggiore di quelle considerate, nell’identificazione delle sequenze. Ora, se confrontiamo il 2% con il zero virgola tanti zeri qualcosa visto prima, le cose cambiano decisamente verso.

Oltre a questo, c’è poi il problema della contaminazione dei campioni. Molti citato in questi giorni è il cosiddetto caso del fantasma di Heilbronn, un caso del 1993 in cui in numerosi omicidi in Germania venne rinvenuto lo stesso DNA appartenente ad una donna. Nei mesi successivi, lo stesso campione venne identificato anche in altri casi simili ma in paesi diversi. Da qui, come è ovvio, si pensò ad un caso di serial killer europeo autore di tantissimi omicidi. Il tutto si risolse poi nel nulla quando dopo qualche anno si capì che il DNA in questione apparteneva ad una operaia della ditta che forniva i campioni per i test a diversi paesi e che per errore era entrata in contatto con materiale dopo la sterilizzazione.

Ovviamente, quello del fantasma di Heilbronn è un caso limite, ma ci fa capire come le probabilità di errore sono sempre presenti e non si limitano alla sola precisione del test che, sbagliando, viene spesso citata da sola.

Detto questo, anche in termini giuridici, il test del DNA, in casi come questo, viene considerato come un forte indizio ma non come una prova schiacciante. Come potete capire, per poter chiudere definitivamente il caso è necessario ricostruire il tutto e inchiodare con certezza il soggetto identificato dal test con tutta una serie di altri indizi che rendono la cosa inattaccabile. Questa è la ricostruzione dell’impianto accusatorio a cui si sono appellati gli avvocati difensori di quello che, ad oggi, possiamo considerare il sospettato numero uno.

Solo per chiarire il tutto, insieme al test del DNA in questi giorni viene spesso citato il database dei cellulari che si sono agganciati alla cella telefonica del campo in cui è stato rinvenuto il corpo. Proprio nell’articolo precedente:

Tempeste solari e problemi ai telefoni?

abbiamo parlato di rete mobile parlando della zona coperta dalla cella intesa come stazione mobile. Anche su quest’altra prova a sostegno, gli avvocati difensori si sono appellati al fatto che la stessa cella copre sia il campo già citato, ma anche abitazioni in cui il sospetto poteva essere in quel momento perché di sua proprietà o di parenti stretti.

Dunque? Sicuramente la persona identificata ha un pesante e sospetto di colpevolezza ma, come visto, prima di poter dichiarare il caso chiuso, sarà necessario ricostruire molti altri dettagli che metteranno in correlazione l’assassino con la la vittima e, soprattutto, chiuderanno il caso con una perfetta ricostruzione di quanto accaduto. Divulgare notizie troppo velocemente, potrebbe solo complicare l’indagine e rallentare il lavoro degli inquirenti.

Restiamo dunque in attesa di seguire l’evolversi delle indagini anche se, per una accusa di colpevolezza, serve sempre il processo!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tempesta solare e problemi ai telefoni?

21 Giu

Nella sezione:

Hai domande o dubbi?

e attraverso varie mail che mi sono arrivate, mi è stato chiesto di fare un po’ di chiarezza sui problemi telefonici che si sono avuti nei giorni scorsi soprattutto in virtù di quanto raccontato su vari siti e giornali. Come forse avrete letto, diverse fonti hanno infatti puntato il dito contro la forte attività solare per spiegare i guasti alla rete mobile, soprattutto per i clienti wind, che hanno visto un picco di malfunzionamenti intorno al 13 Giugno.

Diverse volte su questo blog ci siamo occupati di attività solare e dell’alternanza di massimi e minimi che la nostra stella presenta nel corso del tempo:

– Evidenze dal Sole?

– Le macchie solari AR1504

– Gli effetti di AR1504

– Sole: quanta confusione!

– Inversione dei poli terrestri

– Nuova minaccia il 22 Settembre?

– Come seguire il ciclo solare

– Curiosita’ sui cicli solari

Possiamo scegliere tra era glaciale o desertificazione

Come visto, il nostro Sole non è affatto un corpo con un’attività costante nel tempo ma passa attraverso periodi di massimo e minimo in un tempo di circa 11 anni. Non c’è assolutamente nulla di strano o di anomalo in questo comportamento, ma il tutto fa parte del normale e corretto funzionamento di stelle di questo tipo. Nonostante la buona conoscenza astronomica del Sole, molto spesso l’attività di questa stella, soprattutto a causa della sua connessione con la Terra e con la vita, viene chiamata in causa per annunciare catastrofi o per spiegare, come nel caso in questione, problematiche che in realtà non sono assolutamente correlate.

Cerchiamo dunque di andare con ordine e capire prima di tutto cosa è successo qualche giorno fa.

Come detto all’inizio, la scorsa settimana si sono avuti problemi per molti clienti di telefonia fissa e mobile principalmente per l’operatore Wind. Moltissime persone sono rimaste per qualche ora completamente isolate ed impossibilitate sia a ricevere chiamate che a collegarsi alla rete.

Normali problemi? In realtà no, dal momento che blackout così estesi rappresentano eventi eccezionali e, molto spesso, legati a problematiche uniche e per cui la rete non è protetta. Normalmente, quando avvengono problemi di questo tipo i guasti vengono risolti e realizzate soluzioni specifiche che possano impedire nel futuro il riproporsi di anomalie simili.

Nonostante questo, diverse fonti sulla rete hanno parlato di questi guasti parlando di eventi dovuti alla forte attività del Sole. Come forse avrete letto, nei giorni precedenti il guasto si sono registrati alcuni flare solari molto potenti che, stando a quanto riportato, avrebbero rilasciato particelle molto energetiche che una volta arrivate sulla Terra avrebbe messo fuori gioco i satelliti delle comunicazioni.

Aspettate un attimo. Guasto alla rete fissa e mobile per i clienti Wind. Se proprio vogliamo essere precisi, alcune interruzioni sporadiche e di minore entità per un numero ristretto di clienti Fastweb. Spiegazione? I flare solari. C’è qualcosa che non mi torna in tuta questa storia. Secondo voi, il Sole emette particelle energetiche verso la Terra. Queste arrivano e decidono di colpire solo le infrastrutture di un operatore lasciando intatte le altre? Capite l’assurdità di quello che vi stanno dicendo?

Torniamo seri e cerchiamo di capire meglio l’intera storia. Come visto negli articoli precedenti, durante i periodi di massima attività solare ci possono essere emissioni di flare di particelle verso l’esterno. Queste potenti emissioni possono ovviamente arrivare sulla Terra. Normalmente, i bersagli più a rischio sono i satelliti in orbita perché esposti al flusso di particelle. La superficie terrestre è invece protetta e schermata dallo scudo magnetico offerto dal campo geomagnetico. Questa naturale protezione riesce a deviare la maggior parte delle radiazioni dannose provenienti dal Sole impedendo a queste di raggiungere la superficie.

Solo per maggiore informazione e per completezza, vi riporto anche il link della pagina che Wind ha pubblicato per spiegare il motivo del guasto e, soprattutto, per scusarsi con i propri clienti:

Wind guasto 13 Giugno

Premesso dunque il discorso sull’assurdità del solo operatore telefonico, credo sia interessante capire meglio, approfittando della bufala, come funziona la rete mobile che ci consente di telefonare, inviare messaggi e collegarci alla rete con i nostri dispositivi senza fili.

Oggi come oggi, siamo talmente abituati alla possibilità di collegamento che abbiamo a disposizione che molti di noi ignorano completamente come funzioni questa tipologia di comunicazione. Quando effettuiamo una chiamata, il nostro cellulare emette onde radio con una frequenza specifica. Ad oggi, la maggior parte dei telefonini che abbiamo hanno la possibilità di emettere onde in tre bande, di cui la terza utilizzata solo in alcuni paesi come, ad esempio, gli Stati Uniti.

Bene, le onde radio prodotte dal nostro cellulare, contengono le informazioni relative alla chiamata che stiamo facendo. Detto in parole povere, la nostra voce captata dal microfono del cellulare mette in vibrazione una membrana che genera un segnale successivamente digitalizzato e trasmesso attraverso onde radio. Queste onde vengono poi captate da quella che viene chiamata “stazione base”. Questa altro non è che una struttura munita di antenne riceventi che captano le onde radio e le trasmettono attraverso una rete cablata. Come potete capire, il vantaggio della rete mobile è rappresentato dalla possibilità di poter comunicare senza fili. Le onde radio che si propagano in aria rappresentano il filo invisibile che connette il nostro dispositivo mobile con la stazione base.

Le stazioni base possono essere di diverse dimensioni e potenze. Esistono anche stazioni “camuffate” per potersi integrare al meglio con l’ambiente circostante (finti alberi, integrate in strutture preesistenti o, anche, installate su carrelli mobili che possono essere spostati da un punto all’altro). La stazione base con cui il nostro telefono è connesso rappresenta quella che viene definita “cella”. Il numero di stazioni base presenti nel territorio è determinato ovviamente dalla copertura che il sistema utilizzato riesce ad offrire e alla potenza massima installabile in base alla zona specifica. Per spiegarmi meglio, la copertura offerta da una singola stazione non è calcolabile a priori ma dipende anche dalla morfologia del territorio in questione e alla presenza di case, edifici o altre strutture in grado di limitare la copertura a causa della riflessione e dispersione dei segnali radio inviati dai cellulari.

Oltre alla comunicazione voce e messaggistica, a partire dalla seconda generazione di comunicazione (2G), i nostri cellulari sono in grado di inviare e ricevere anche pacchetti di dati che sono quelli che ci consentono di collegarci ad internet senza un cablaggio fisico.

Capite dunque come è possibile chiamare dai nostri cellulari? La connessione tra le stazioni base avviene invece via normali cavi coassiali o, sempre più spesso, attraverso fibre ottiche. In particolare, l’utilizzo delle fibre ha consentito di migliorare la trasmissione dei segnali con minori perdite nel percorso e di aumentare il numero di collegamenti gestibili a parità di sezione del filo.

E se non sono presenti stazioni base nelle vicinanze? Semplice, questo è il caso di un cellulare che, come si dice, “non ha campo”. In regioni isolate del pianeta si ricorre ad una tecnologia diversa che è invece quella dei telefoni satellitari. In questo caso, i dispositivi si connettono direttamente con satelliti in orbita geostazionaria che hanno il compito di ritrasmettere i segnali digitali a Terra e di consentire in questo modo la comunicazione da qualsiasi parte del pianeta.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

 

Universo: foto da piccolo

24 Mar

In questi ultimi giorni, tutti i giornali, i telegiornali, i siti internet specializzati, sono stati invasi da articoli scientifici riguardanti le ultime scoperte fatte con il telescopio Planck. I dati di questo telescopio, gestito interamente dalla nostra Agenzia Spaziale Europea, hanno mostrato una foto dell’universo quando aveva solo 380000 anni. Ecco la foto che sicuramente vi sara’ capitato di vedere:

L'universo alla tenera eta' di 380000 anni

L’universo alla tenera eta’ di 380000 anni

Si parla anche di risultati sconvolgenti: l’universo e’ piu’ vecchio di quello che si pensava fino ad oggi. Inoltre, la radiazione cosmica di fondo presenta delle differenze tra i due emisferi oltre a mostrare una regione fredda piu’ estesa di quella che si pensava.

Fantastico, direi io, questi risultati mi hanno veramente impressionato. Ora pero’, la domanda che mi sono posto e’ molto semplice, anche su giornali nazionali, ho visto articoli che commentavano questa foto parlando di CMB, anisotropie, fase inflazionistica. In pochissimi pero’, si sono degnati di spiegare in modo semplice il significato di questi termini. Purtroppo, spesso vedo molti articoli che ripetono a pappagallo le notizie senza neanche chiedersi cosa significano quei termini che stanno riportando.

Cerchiamo, per quanto possibile, di provare a fare un po’ chiarezza spiegando in maniera completamente divulgativa cosa significa: radiazione cosmica di fondo, periodo inflazionistitico, ecc.

Andiamo con ordine. La foto da cui siamo partiti ritrae l’universo quando aveva 380000 anni ed in particolare mostra la mappa della radiazione cosmica di fondo.

Prima cosa, come facciamo a fare una foto dell’universo del passato? In questo caso la risposta e’ molto semplice e tutti noi siamo in grado di sperimentarla facilmente. Quando alziamo lo sguardo e vediamo il cielo stellato, in realta’ e’ come se stessimo facendo un viaggio nel tempo. Se guardiamo una stella distante 100 anni luce da noi, significa che quell’immagine che osserviamo ha impiegato 100 anni per giungere fino a noi. Dunque, quella che vediamo non e’ la stella oggi, bensi’ com’era 100 anni fa. Piu’ le stelle sono lontane, maggiore e’ il salto indietro che facciamo.

Bene, questo e’ il principio che stiamo usando. Quando mandiamo un telescopio in orbita, migliore e’ la sua ottica, piu’ lontano possiamo vedere e dunque, equivalentemente, piu’ indietro nel tempo possiamo andare.

Facciamo dunque un altro piccolo passo avanti. Planck sta osservando l’universo quando aveva solo 380000 anni tramite la CMB o radiazione cosmica a microonde. Cosa sarebbe questa CMB?

Partiamo dall’origine. La teoria accettata sull’origine dell’universo e’ che questo si sia espanso inizialmente da un big bang. Un plasma probabilmente formato da materia e antimateria ad un certo punto e’ esploso, l’antimateria e’ scomparsa lasciando il posto alla materia che ha iniziato ad espandersi e, di conseguenza, si e’ raffreddata. Bene, la CMB sarebbe un po’ come l’eco del big bang e, proprio per questo, e’ considerata una delle prove a sostegno dell’esplosione iniziale.

Come si e’ formata la radiazione di fondo? Soltanto 10^(-37) secondi dopo il big bang ci sarebbe stata una fase detta di inflazione in cui l’espansione dell’universo ha subito una rapida accelerazione. Dopo 10^(-6) secondi, l’universo era ancora costituito da un plasma molto caldo di  fotoni, elettroni e protoni, l’alta energia delle particelle faceva continuamente scontrare i fotoni con gli elettroni che dunque non potevano espandersi liberamente. Quando poi la temperatura dell’universo e’ scesa intorno ai 3000 gradi, elettroni e protoni hanno cominciato a combianrsi formando atomi di idrogeno e i fotoni hanno potuto fuoriuscire formando una radiazione piu’ o meno uniforme. Bene, questo e’ avvenuto, piu’ o meno, quando l’universo aveva gia’ 380000 anni.

Capiamo subito due cose: la foto da cui siamo partiti e’ dunque relativa a questo periodo, cioe’ quando la materia (elettroni e protoni) hanno potuto separarsi dalla radiazione (fotoni). Stando a questo meccanismo, capite anche perche’ sui giornali trovate che questa e’ la piu’ vecchia foto che potrebbe essere scattata. Prima di questo momento infatti, la radiazione non poteva fuoriuscire e non esisteva questo fondo di fotoni.

Bene, dopo la separazione tra materia e radiazione, l’universo ha continuato ad espandersi, dunque a raffreddarsi e quindi la temperatura della CMB e’ diminuita. A 380000 anni di eta’ dell’universo, la CMB aveva una temperatura di circa 3000 gradi, oggi la CMB e’ nota come fondo cosmico di microonde con una temperatura media di 2,7 gradi Kelvin. Per completezza, e’ detta di microonde perche’ oggi la temperatura della radiazione sposta lo spettro appunto su queste lunghezze d’onda.

Capite bene come l’evidenza della CMB, osservata per la prima volta nel 1964, sia stata una conferma proprio del modello del big bang sull’origine del nostro universo.

E’ interessante spendere due parole proprio sulla scoperta della CMB. L’esistenza di questa radiazione di fondo venne predetta per la prima volta nel 1948 da Gamow, Alpher e Herman ipotizzando una CMB a 5 Kelvin. Successivamente, questo valore venne piu’ volte corretto a seconda dei modelli che venivano utilizzati e dai nuovi calcoli fatti. Dapprima, a questa ipotesi non venne dato molto peso tra la comunita’ astronomica, fino a quando a partire dal 1960 l’ipotesi della CMB venne riproposta e messa in relazione con la teoria del Big Bang. Da questo momento, inizio’ una vera e propria corsa tra vari gruppi per cercare di individuare per primi la CMB.

Penzias e Wilson davanti all'antenna dei Bell Laboratories

Penzias e Wilson davanti all’antenna dei Bell Laboratories

Con grande sorpresa pero’ la CMB non venne individuata da nessuno di questi gruppi, tra cui i principali concorrenti erano gli Stati Uniti e la Russia, bensi’ da due ingegneri, Penzias e Wilson, con un radiotelescopio pensato per tutt’altre applicazioni. Nel 1965 infatti Penzias e Wilson stavano lavorando al loro radiotelescopio ai Bell Laboratories per lo studio della trasmissione dei segnali attraverso il satellite. Osservando i dati, i due si accorsero di un rumore di fondo a circa 3 Kelvin che non comprendenvano. Diversi tentativi furono fatti per eliminare quello che pensavano essere un rumore elettronico del telescopio. Solo per darvi un’idea, pensarono che questo fondo potesse essere dovuto al guano dei piccioni sull’antenna e per questo motivo salirono sull’antenna per ripulirla a fondo. Nonostante questo, il rumore di fondo rimaneva nei dati. Il punto di svolta si ebbe quando l’astronomo Dicke venne a conoscenza di questo “problema” dell’antenna di Penzias e Wilson e capi’ che in realta’ erano riusciti ad osservare per la prima volta la CMB. Celebre divenne la frase di Dicke quando apprese la notizia: “Boys, we’ve been scooped”, cioe’ “Ragazzi ci hanno rubato lo scoop”. Penzias e Wilson ricevettero il premio Nobel nel 1978 lasciando a bocca asciutta tutti gli astronomi intenti a cercare la CMB.

Da quanto detto, capite bene l’importanza di questa scoperta. La CMB e’ considerata una delle conferme sperimentali al modello del Big Bang e quindi sull’origine del nostro universo. Proprio questa connessione, rende la radiazione di fondo un importante strumento per capire quanto avvenuto dopo il Big Bang, cioe’ il perche’, raffreddandosi, l’universo ha formato aggreggati di materia come stelle e pianeti, lasciando uno spazio quasi vuoto a separazione.

Le osservazioni del telescopio Planck, e dunque ancora la foto da cui siamo partiti, hanno permesso di scoprire nuove importanti dinamiche del nostro universo.

Prima di tutto, la mappa della radiazione trovata mostra delle differenze, o meglio delle anisotropie. In particolare, i due emisferi presentano delle piccole differenze ed inoltre e’ stata individuata una regione piu’ fredda delle altre, anche detta “cold region”. Queste differenze furono osservate anche con la precedente missione WMAP della NASA, ma in questo caso si penso’ ad un’incertezza strumentale del telescopio. Nel caso di Plack, la tecnologia e le performance del telescopio confermano invece l’esistenza di regioni “diverse” rispetto alle altre.

Anche se puo’ sembrare insignificante, l’evidenza di queste regioni mette in dubbio uno dei capisaldi dell’astronomia, cioe’ che l’universo sia isotropo a grande distanza. Secondo i modelli attualmente utilizzati, a seguito dell’espansione, l’universo dovrebbe apparire isotropo, cioe’ “uniforme”, in qualsiasi direzione. Le differenze mostrate da Planck aprono dunque lo scenario a nuovi modelli cosmologici da validare. Notate come si parli di “grande distanza”, questo perche’ su scale minori esistono anisotropie appunto dovute alla presenza di stelle e pianeti.

Ci sono anche altri importanti risultati che Planck ha permesso di ottenere ma di cui si e’ parlato poco sui giornali. In primis, i dati misurati da Planck hanno permesso di ritoccare il valore della costante di Hubble. Questo parametro indica la velocita’ con cui le galassie si allontanano tra loro e dunque e’ di nuovo collegato all’espansione dell’universo. In particolare, il nuovo valore di questa costante ha permesso di modificare leggermente l’eta’ dell’universo portandola a 13,82 miliardi di anni, circa 100 milioni di anni di piu’ di quanto si pensava. Capite dunque perche’ su alcuni articoli si dice che l’universo e’ piu’ vecchio di quanto si pensava.

Inoltre, sempre grazie ai risultati di Planck e’ stato possibile ritoccare le percentuali di materia, materia oscura e energia oscura che formano il nostro universo. Come saprete, la materia barionica, cioe’ quella di cui siamo composti anche noi, e’ in realta’ l’ingrediente meno abbondante nel nostro universo. Solo il 4,9% del nostro universo e’ formato da materia ordinaria che conosciamo. Il 26,8% dell’universo e’ invece formato da “Materia Oscura”, qualcosa che sappiamo che esiste dal momento che ne vediamo gli effetti gravitazionali, ma che non siamo ancora stati in grado di indentificare. In questo senso, un notevole passo avanti potra’ essere fatto con le future missioni ma anche con gli acceleratori di particelle qui sulla terra.

Una considerazione, 4,9% di materia barionica, 26,8% di materia oscura e il resto? Il 68,3% del nostro universo, proprio l’ingrediente piu’ abbondante, e’ formato da quella che viene detta “Energia Oscura”. Questo misterioso contributo di cui non sappiamo ancora nulla si ritiene essere il responsabile proprio dell’espansione e dell’accelerazione dell’universo.

Da questa ultima considerazione, capite bene quanto ancora abbiamo da imparare. Non possiamo certo pensare di aver carpito i segreti dell’universo conoscendo solo il 5% di quello che lo compone. In tal senso, la ricerca deve andare avanti e chissa’ quante altre cose strabilinati sara’ in grado di mostrarci in futuro.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Anche i membri del congresso pensano al 21 Dicembre

28 Ago

Pian piano che ci avviciniamo al 21 Dicembre iniziano a diventare sempre di piu’ le pagine web che parlano di come salvarsi  dalla “catastrofe”. Anche in questo blog, abbiamo discusso in diverse occasioni dei vari sistemi proposti, la maggior parte al solo fine di lucro, per mettere in salvo noi ed i nostri cari, indipendentemente da quello che dovrebbe, o non dovrebbe a seconda dei punti di vista, succedere. Trovate alcune discussioni in questi post:

La salvezza e’ vicina … precisamente a Ceglie in Italia!

Aspettare il 21 Dicembre sui Pirenei

Il mondo dopo il 21 Dicembre 2012

Ovviamente, se parliamo di un impatto con un pianeta come Nibiru, ci sarebbe ben poco di cui discutere:

Effetti di un impatto con Nibiru

anche perche’ seguendo le varie voci su web, l’impatto sarebbe talmente distruttivo che non esisterebbe un luogo in cui mettersi in salvo.

Stiamo tornando su questi punti, perche’ proprio in questi giorni, ha fatto sentire la sua voce un arzillo signore di 86 anni che risponde al nome di Roscoe Barlett. Questo signore e’ infatti convinto che la fine del mondo sia molto vicina. In realta’, lui crede che una qualsiasi fine del mondo sia alle porte. Quella del 21 Dicembre potrebbe pero’ essere una data molto probabile e di cui tenere conto.

Foto di Roscoe Barlett al congresso

Tutto questo potrebbe passare inosservato se Roscoe Barlett non fosse niente meno che un membro del Congresso degli Stati Uniti d’America.

Come anticipato, Barlett e’ un grande sostenitore di una prossima catastrofe mondiale e non ha mai negato questo neanche in sedi istituzionali.

La mania di Barlett per la fine del mondo inizio’ negli anni ’80, in piena guerra fredda, quando la paura di un attacco nucleare sul suolo americano, spinse molti cittadini ad accumulare scorte di cibo per lunghi periodi e a costruire diversi rifugi, anche improvvisati, sfruttando cantine o piani interrati.

Agli inizio del 2012, il deputato ha cercato di far approvare una legge in cui ciascun cittadino americano sarebbe costretto ad accumulare ed avere una scorta di cibo a lunga conservazione che consentisse a tutta la famiglia di sostenersi per almeno 3 mesi. Nel disegno di legge si riporta anche che ciascuna comunita’ dovrebbe essere in grado di sostenersi per almeno un 20% sia dal punto di vista alimentare che energetico.

Secondo Barlett infatti, la nostra attuale societa’ e’ troppo vincolata all’energia elettrica e la mancanza di collegamenti con l’esterno, casuati da una qualsiasi catastrofe, potrebbe portare problemi ancora maggiori ai sopravvissuti.

Ovviamente il disegno di legge non e’ stato approvato dal Congresso. Nonostante questo, Barlett ha un suo personale rifugio per il 21 Dicembre, costruito nella Monongahela National Forest, preparato gia’ a partire dagli anni ’80.

In questo caso, non stiamo parlando di un ossessionato qualsiasi della fine del mondo, bensi’ di un membro del congresso, laureato in ingegneria ed ex docente universitario. Barlett ha anche scritto diversi articoli non sulle cause della fine del mondo, bensi’ su come sopravvivere a questa. Oltre alla costruzione del rifugio ed alla sussistenza alimentare ed energetica, nei suoi scritti si legge come sia importante tenersi lontani dai centri abitati, dal momento che questi rappresentano centri di pericolo anche tra i sopravvissuti alla catastrofe. Inoltre, e’ cosa utile avere una scorta di gioielli o menete d’oro o d’argento. Questi infatti potrebbero rappresentare l’unica fonte di scambio dopo la fine del mondo, quando non esisteranno piu’ monete ufficiali.

Per completezza di cronaca, resta da dire che Roscoe Barlett e’ anche considerato un fondamentalista cristiano membro degli “Avventisti del Settimo Giorno”. I sostenitori di questa chiesa in diverse occasioni hanno parlato di fine del mondo, anche in relazione con le teorie “millenariste” che vorrebbero un periodo di 1000 anni di deserto e desolazione sulla Terra dopo il ritorno di Cristo. Diversi articoli di Barlett sono stati scritti in collaborazione con altri membri appartenenti anch’essi agli Avventisti, e anche loro convinti dell’imminente fine del mondo.

Anche in questo caso, ci troviamo a parlare di paura della fine del mondo, sia essa nel 2012 o in una qualsiasi altra data. Perche’ dovrebbe finire il mondo? A causa di cosa o di chi? Nuovamente si parla degli effetti senza citare pero’ la causa. Da dove nasce la convinzione del 2012? Veramente i Maya o altre fonti hanno indicato la data del 21 Dicembre? Scopriamo le risposte a queste domande non perdendo in libreria Psicosi 2012. Le risposte della scienza.