Tag Archives: componenti

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Ma questa crema solare …. come dobbiamo sceglierla?

30 Giu

Sempre alla nostra sezione:

– Hai domande o dubbi?

va il merito, ma ovviamente tutto il merito va a voi che rendete questo blog vivo ed interessante, di aver richiamato da una nostra cara lettrice una nuova interessantissima domanda. Questa volta però, vi preannuncio che l’argomento scelto è molto complesso nella sua apparente semplicità, oltre ad essere assolutamente in linea con il periodo dell’anno. Come potete leggere, la domanda riguarda le creme solari e tutte le leggende che girano, non solo in rete, e che da sempre abbiamo ascoltato.

Come anticipato, non è semplice cercare di trovare la giusta strada nella giungla di informazioni disponibili. Se provate a confrontare dieci fonti, troverete dieci versioni diverse: le creme solari devono essere usate. No, non devo essere usate. Il sole è malato. Il sole provoca il cancro. No, sono le creme che creano il cancro alla pelle. Insomma, di tutto di più, e non pensate di rifuggire nella frase: “mi metto sotto l’ombrellone”, perché, come vedremo, anche questo lascia filtrare alcune componenti dei raggi solari e, sempre scimmiottando quello che trovate in rete, vi può venire il cancro. Allora sapete che c’è? Me ne sto chiuso dentro casa fino a settembre! Va bene così? No, sicuramente non prendi il sole (e quindi non ti viene il cancro), ma non ti si fissa la vitamina D e quindi potresti soffrire di rachitismo.

Insomma, come la mettete la mettete, sbagliate sempre. Cosa fare allora? Sicuramente, in linea con il nostro stile, quello che possiamo fare è “andare con ordine” e provare a verificare quali e quante di queste affermazioni corrispondono al vero. Solo in questo modo potremo capire quale crema solare scegliere, come applicarla e quali sono i rischi che possiamo correre con l’esposizione al Sole.

Prima di tutto, non dobbiamo considerare i raggi solari come un’unica cosa, ma è necessario distinguere la radiazione che ci arriva. Questa suddivisione è essenziale perché l’interazione della nostra pelle con i fotoni emessi dal sole non è sempre uguale, ma dipende dalla lunghezza d’onda. Bene, in tal senso, possiamo distinguere la parte dei raggi solari che ci interessa in tre grandi famiglie, in particolare, per i nostri scopi, ci concentreremo sulla parte ultravioletta dello spettro, che è quella di interesse in questo campo.

La parte cosiddetta ultravioletta è quella con lunghezza d’onda immediatamente inferiore alla parte visibile. Normalmente, questa parte dello spettro viene divisa in UVA, con lunghezza d’onda tra 400 e 315 nanometri, UVB, tra 315 e 280 nanometri e UVC, tra 280 e 100 nanometri. Quando parliamo di tintarella o di danni provocati dalla radiazione solare, dobbiamo riferirci alla parte UV ed in particolare a queste 3 famiglie.

Bene, la componente più pericolosa della radiazione solare è quella degli UVC cioè con lunghezza d’onda minore. Perché? Sono radiazioni utilizzate come germicidi, ad esempio nella potabilizzazione dell’acqua, a causa del loro potere nel modificare il DNA e l’RNA delle cellule. Per nostra fortuna, questa componente della radiazione è completamente bloccata dallo strato di ozono che circonda la Terra. Di questo, e soprattutto dello stato di salute dello strato di ozono, abbiamo parlato in un post specifico:

– Che fine ha fatto il buco dell’ozono?

Per la parte più pericolosa dello spettro, quella degli UVC, possiamo dunque tirare un respiro di sollievo. Vediamo le altre due componenti.

Gli UVA, a causa della lunghezza d’onda maggiore, penetrano più a fondo nella pelle, promuovendo il rilascio di melanina e dunque l’abbronzatura. Che significa? Molto semplice, quando prendiamo il sole, la nostra pelle reagisce cercando di proteggersi autonomamente appunto rilasciando melanina. Questa sostanza serve a far scurire gli strati più superficiali della pelle appunto come protezione dai raggi. Riguardo ala dannosità? Su questo punto, purtroppo, non si ha ancora chiarezza. Per prima cosa, dobbiamo dire che l’esposizione crea meno danni a tempi brevi rispetto, come vedremo, a quella agli UVB. Questa componente però è una delle maggiori sospettate per i danni a lungo termine, connessi anche con l’insorgere di tumori alla pelle, e provoca un invecchiamento veloce della pelle. Gli UVA sono molto conosciuti da coloro che frequentano i centri estetici per sottoporsi alle “lampade”. Questi sistemi infatti hanno sistemi di illuminazione concentrati negli UVA appunto per promuovere un’abbronzatura rapida.

Per quanto riguarda gli UVB invece, si tratta della radiazione più pericolosa nell’immediato. Questa componente dello spettro solare infatti, è responsabile della classica “scottatura”, in alcuni casi vera e propria ustione, provocata da un’esposizione prolungata al Sole. Anche se potenzialmente dannosa, la radiazione UVB è comunque importante per il nostro organismo perché promuove la sintesi della vitamina D. Come è noto, in assenza di questo fondamentale processo possono insorgere casi di rachitismo, soprattutto in soggetti non ancora adulti.

Bene, abbiamo capito come è divisa la radiazione ultravioletta del sole e abbiamo finalmente capito a cosa si riferiscono tutti questi nomi che siamo soliti ascoltare o leggere riguardo la tintarella.

Passiamo dunque a parlare di creme solari. Cosa dobbiamo cercare? Perché? Quali sono i prodotti più indicati?

Ripensando a quanto scritto, viene evidente pensare che una buona crema debba proteggerci dagli UVA e UVB poiché per gli UVC ci pensa lo strato di ozono. Primo pensiero sbagliato! Quando acquistiamo una crema solare, che, come vedremo, offre una certa protezione, questo valore si riferisce alla sola componente B della radiazione. Perché? Semplice, come visto, gli UVB sono responsabili delle scottature immediate. Se ci proteggiamo da questa componente salviamo la pelle garantendo la tintarella. Questo è assolutamente falso, soprattutto pensando ai danni a lungo termine dati da un’esposizione troppo prolungata agli UVA.

Solo negli ultimi anni, sono comparse sul mercato creme con protezioni ad alto spettro. Fate bene attenzione a questa caratteristica prima di acquistare un qualsiasi prodotto. Una buona crema deve avere un fattore di protezione per gli UVA non inferiore ad 1/3 di quello garantito per gli UVB.

Ora però, anche seguendo quanto affermato, parliamo appunto di queste protezioni. Fino a qualche anno fa, ricordo benissimo gli scaffali dei negozi strapieni di creme solari con fattori di protezione, SPF cioè fattore di protezione solare, che andavano da 0 a qualcosa come 100. Già allora mi chiedevo, ma che significa zero? A che cosa serve una crema con protezione 0 e, allo stesso modo, protezione 100 o, come qualcuno scriveva “protezione totale”, significa che è come mettersi all’ombra?

Capite già l’assurdità di queste definizioni create solo ed esclusivamente a scopo commerciale. Fortunatamente, da qualche anno, è stata creata una normativa apposita per questo tipo di cosmetici aiutando il consumatore a comprendere meglio il prodotto in questione. Oggi, per legge, esistono solo 4 intervalli di protezione che sono: basso, medio, alto e molto alto. Questi intervalli, in termini numerici, possono essere compresi utilizzando la seguente tabella:

 

Protezione SPF

Bassa 6 – 10

Media 15 – 20 – 25

Alta 30 – 50

Molto alta 50+

Notiamo subito che sono scomparse quelle orribili, e insensate, definizioni “protezione zero” e “protezione totale”. Ma, in soldoni, cosa significa un certo valore di protezione? Se prendo una crema con SPF 30 è il doppio più efficace di una con SPF 15? In che termini?

Detto molto semplicemente, il valore numerico del fattore di protezione indica il tempo necessario affinché si creino scottature rispetto ad una pelle non protetta. Detto in questo modo, una SPF 15 significa che la vostra pelle si brucerà in un tempo 15 volte maggiore rispetto a quello che impiegherebbe senza quella crema. Dunque, anche con una crema protettiva posso scottarmi? Assolutamente si. In termini di schermo alla radiazione, il potere schermante non è assolutamente proporzionale allo SPF ma, come visto, solo ai tempi necessari per l’insorgere di scottature.

A questo punto, abbiamo capito cosa significa quel numerello che corrisponde al fattore di protezione, ma come fanno le creme a schermare effettivamente dai raggi solari?

Per rispondere a questa domanda, dobbiamo in realtà dividere la protezione in due tipi: fisico e chimico. La protezione fisica avviene in modo pressoché meccanico aumentando il potere riflettente della pelle. Per questo scopo, nelle creme solari sono presenti composti come il biossido di titanio e l’ossido di zinco, sostanze opache che non fanno altro che far riflettere verso l’esterno la radiazione solare che incide sul nostro corpo.

Primo appunto, secondo alcuni l’ossido di zinco potrebbe essere cancerogeno! Ma come, mi metto la crema per proteggermi dai raggi solari ed evitare tumori alla pelle e la crema crea tumori alla pelle? In realtà, come al solito, su questo punto si è fatta molta confusione, tanto terrorismo e si è corsi, per convenienza, a conclusioni affrettate. Alcune ricerche hanno mostrato come tessuti cosparsi di molecole di ossido di zinco e sottoposti ad irraggiamento UV possano sviluppare radicali liberi che a loro volta reagiscono con le cellule modificandone il DNA. Questo processo può portare alla formazione di melanomi, per la pelle, e di altri tumori, per le altre cellule. Ora, si tratta di studi preliminari basati su valori di irraggiamento più alti rispetto a quelli che normalmente possono derivare da un’esposizione, anche prolungata, anche nelle ore centrali della giornata, al Sole. Detto molto semplicemente, questi studi necessitano di ulteriori ricerche per poter definire margini di errore e valori corretti. Gli stessi autori di queste analisi preliminari si sono raccomandati di non male interpretare il risultato dicendo che le creme solari provocano il cancro alla pelle. In altre parole, si corrono più rischi non proteggendosi dal sole piuttosto che proteggendosi con una crema contenente ossido di zinco. Tra le altre cose, questa molecola è molto nota tra le mamme che utilizzano prodotti all’ossido di zinco per alleviare le ustioni da pannolino nei loro bambini.

Detto questo, abbiamo poi la protezione chimica. Come potete facilmente immaginare, in questo caso si tratta di una serie di molecole (oxibenzone, fenilbenzilimidazolo, acido sulfonico, butil metoxidibenzoilmetano, etilexil metoxicinnamato, ecc.) che hanno il compito di assorbire la radiazione solare e di cedere parte di questa energia sotto forma di calore. Perché possiamo trovare così tante molecole in una crema solare? Semplice, ognuna di queste è specifica per una piccola parte dello spettro di radiazione, sia UVA che UVB. Anche su queste singole molecole, ogni tanto qualcuno inventa storie nuove atte solo a fare terrorismo, molto spesso verso case farmaceutiche. Singolarmente, come nel caso dell’ossido di titanio, ci possono essere studi più o meno avanzati, più o meno veritieri, sulla pericolosità delle molecole. Anche qui però, molto spesso si tratta di effetti amplificati, ben oltre la normale assunzione attraverso la cute e, ripeto per l’ennesima volta, si rischia molto di più esponendosi al sole piuttosto che utilizzando creme solari.

Ennesima cavolata in voga fino a qualche anno fa e ora vietata: creme solari “water proof”, cioè creme resistenti completamente all’acqua. Ve le mettete una volta, fate quanti bagni volete e siete a posto. Ma secondo voi, è possibile qualcosa del genere? Pensate di spalmarvi una crema o di farvi un tatuaggio indelebile? Oggi, per legge, la dicitura water proof è illegale e ha lasciato spazio, al massimo, a “water resistant”, cioè resistente all’acqua. Una qualsiasi crema solare, a causa del bagno, del sudore, del contatto con il telo, tende a rimuoversi e, proprio per questo motivo, si consiglia di riapplicare la crema ogni 2-3 ore circa per garantire la massima protezione possibile.

Riassumendo, abbiamo capito che conviene, sempre ed in tutti i casi, utilizzare una crema solare protettiva, ma quale scegliere?

Molto brevemente, in questo caso, si deve valutare quello che è definito il proprio fenotipo. Come potete immaginare, si tratta di una serie di caratteristiche fisiche che determinano, in linea di principio, l’effetto dell’esposizione la Sole. Per poter determinare il proprio fenotipo, possiamo fare riferimento a questa tabella:

fenotipo

Ovviamente, per i valori più bassi (I e II) è consigliabile utilizzare una crema ad alto SPF, valore che può diminuire qualora fossimo meno soggetti a scottature ed ustioni.

Credo che a questo punto abbiamo un quadro molto più chiaro riguardo alla creme solari ed alla loro utilità. Ripeto, per l’ennesima volta, in ogni caso, proteggersi è sempre meglio che esporsi al sole senza nessuna protezione. Ultimo appunto, che vuole sfatare un mito molto diffuso, sotto l’ombrellone siamo comunque esposti alla radiazione solare. In primis, il tessuto di molti ombrelloni lascia passare buona parte dello spettro solare ma, soprattutto, la riflessione dei raggi solari, ad esempio ad opera della sabbia, raggiunge comunque un soggetto tranquillo e (falsamente) riparato sotto l’ombrellone. In genere, la riflessione dei raggi solari può incrementare, e anche molto, la quantità di radiazione a cui siamo esposti. Stando nell’acqua, ad esempio, abbiamo sia un’esposizione diretta ai raggi solari sia una indiretta dovuta ai raggi riflessi dalla superficie. Come potete immaginare questo amplifica molto l’esposizione.

Concludendo, utilizzate le creme solari ma, soprattutto, leggete bene le etichette prima di acquistare o, peggio ancora utilizzare, un qualsiasi prodotto. Ovviamente, qualsiasi prodotto diventa non efficace se unito alla nostra incoscienza. Se pensate di potervi spalmare una crema e stare come lucertole sotto il Sole dalle 10 del mattino al tramonto … forse questa spiegazione è stata inutile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’espansione metrica dell’universo

8 Apr

In questo blog, abbiamo dedicato diversi articoli al nostro universo, alla sua storia, al suo destino, alla tipologia di materia o non materia di cui e’ formato, cercando, come e’ ovvio, ogni volta di mettere il tutto in una forma quanto piu’ possibile comprensibile e divulgativa. Per chi avesse perso questi articoli, o solo come semplice ripasso, vi riporto qualche link riassuntivo:

E parliamo di questo Big Bang

Il primo vagito dell’universo

Universo: foto da piccolo

La materia oscura

Materia oscura intorno alla Terra?

Due parole sull’antimateria

Flusso oscuro e grandi attrattori

Ascoltate finalmente le onde gravitazionali?

Come e’ ovvio, rendere questi concetti fruibili a fini divulgativi non e’ semplice. Per prima cosa, si deve evitare di mettere formule matematiche e, soprattutto, si deve sempre riflettere molto bene su ogni singola frase. Un concetto che potrebbe sembrare scontato e banale per un addetto ai lavori, potrebbe essere del tutto sconosciuto a chi, non avendo basi scientifiche solide, prova ad informarsi su argomenti di questo tipo.

Perche’ faccio questo preambolo?

Pochi giorni fa, un nostro lettore mi ha contatto via mail per chiedermi di spiegare meglio il discorso dell’espansione dell’universo. Per essere precisi, la domanda era relativa non all’espansione in se, ma a quella che viene appunto definita “espansione metrica” dell’universo. Cosa significa? Come visto varie volte, l’idea comunemente accettata e’ che l’universo sia nato da un Big Bang e durante questa espansione si sono prima formate le forze, il tempo, le particelle, poi i pianeti, le galassie e via dicendo. Ci sono prove di questo? Assolutamente si e ne abbiamo parlato, anche in questo caso, piu’ volte: la radiazione cosmica di fondo, lo spostamento verso il rosso delle galassie lontane, le conclusioni stesse portate dalla scoperta del bosone di Higgs e via dicendo. Dunque? Che significa espansione metrica dell’universo? In parole povere, noi diciamo che l’universo si sta espandendo, e che sta anche accelerando, ma come possiamo essere certi di questo? Che forma ha l’universo? Per quanto ancora si espandera’? Poi cosa succedera’? Sempre nella domanda iniziale, veniva posto anche un quesito molto interessante: ma se non fosse l’universo ad espandersi ma la materia a contrarsi? L’effetto sarebbe lo stesso perche’ la mutua distanza tra due corpi aumenterebbe nel tempo dando esattamente lo stesso effetto apparente che vediamo oggi.

Come potete capire, di domande ne abbiamo fin troppe a cui rispondere. Purtroppo, e lo dico in tutta sincerita’, rendere in forma divulgativa questi concetti non e’ molto semplice. Come potete verificare, raccontare a parole che il tutto sia nato da un Big Bang, che ci sia stata l’inflazione e si sia formata la radiazione di fondo e’ cosa abbastanza fattibile, parlare invece di forma dell’universo e metrica non e’ assolutamente semplice soprattutto senza poter citare formule matematiche che per essere comprese richiedono delle solide basi scientifiche su cui ragionare.

Cerchiamo dunque di andare con ordine e parlare dei vari quesiti aperti.

Come visto in altri articoli, si dice che il Big Bang non e’ avvenuto in un punto preciso ma ovunque e l’effetto dell’espansione e’ visibile perche’ ogni coppia di punti si allontana come se ciascun punto dell’universo fosse centro dell’espansione. Cosa significa? L’esempio classico che viene fatto e’ quello del palloncino su cui vengono disegnati dei punti:

Esempio del palloncino per spiegare l'espansione dell'universo

Esempio del palloncino per spiegare l’espansione dell’universo

Quando gonfiate il palloncino, i punti presenti sulla superficie si allontanano tra loro e questo e’ vero per qualsiasi coppia di punti. Se immaginiamo di essere su un punto della superficie, vedremo tutti gli altri punti che si allontanano da noi. Bene, questo e’ l’esempio del Big Bang.

Ci sono prove di questo? Assolutamente si. La presenza della CMB e’ proprio un’evidenza che ci sia stato un Big Bang iniziale. Poi c’e’ lo spostamento verso il rosso, come viene definito, delle galassie lontane. Cosa significa questo? Siamo sulla Terra e osserviamo le galassie lontane. La radiazione che ci arriva, non necessariamente con una lunghezza d’onda nel visibile, e’ caratteristica del corpo che la emette. Misurando questa radiazione ci accorgiamo pero’ che la frequenza, o la lunghezza d’onda, sono spostate verso il rosso, cioe’ la lunghezza d’onda e’ maggiore di quella che ci aspetteremmo. Perche’ avviene questo? Questo effetto e’ prodotto proprio dal fatto che la sorgente che emette la radiazione e’ in moto rispetto a noi e poiche’ lo spostamento e’ verso il rosso, questa sorgente si sta allontanando. A questo punto sorge pero’ un quesito molto semplice e comune a molti. Come sapete, per quanto grande rapportata alle nostre scale, la velocita’ della luce non e’ infinita ma ha un valore ben preciso. Questo significa che la radiazione emessa dal corpo lontano impiega un tempo non nullo per raggiungere la Terra. Come spesso si dice, quando osserviamo stelle lontane non guardiamo la stella come e’ oggi, ma come appariva quando la radiazione e’ stata emessa. Facciamo l’esempio classico e facile del Sole. La luce emessa dal Sole impiega 8 minuti per arrivare sulla Terra. Se noi guardiamo ora il Sole lo vediamo come era 8 minuti fa. Se, per assurdo, il sole dovesse scomparire improvvisamente da un momento all’altro, noi ce ne accorgeremmo dopo 8 minuti. Ora, se pensiamo ad una stella lontana 100 anni luce da noi, quella che vediamo e’ la stella non come e’ oggi, ma come era 100 anni fa. Tornando allo spostamento verso il rosso, poiche’ parliamo di galassie lontane, la radiazione che ci arriva e’ stata emessa moltissimo tempo fa. Domanda: osservando la luce notiamo uno spostamento verso il rosso ma questa luce e’ stata emessa, supponiamo, mille anni fa. Da quanto detto si potrebbe concludere che l’universo magari era in espansione 1000 anni fa, come da esempio, mentre oggi non lo e’ piu’. In realta’, non e’ cosi’. Lo spostamento verso il rosso avviene a causa del movimento odierno tra i corpi e dunque utilizzare galassie lontane ci consente di osservare fotoni che hanno viaggiato piu’ a lungo e da cui si ottengono misure piu’ precise. Dunque, da queste misure, l’universo e’ in espansione e’ lo e’ adesso. Queste misurazioni sono quelle che hanno portato Hubble a formulare la sua famosa legge da cui si e’ ricavata per la prima volta l’evidenza di un universo in espansione.

Bene, l’universo e’ in espansione, ma se ci pensate questo risultato e’ in apparente paradosso se pensiamo alla forza di gravita’. Perche’? Negli articoli precedentemente citati, abbiamo piu’ volte parlato della gravita’ citando la teoria della gravitazione universale di Newton. Come e’ noto, due masse poste a distanza r si attraggono con una forza che dipende dal prodotto delle masse ed e’ inversamente proporzionale al quadrato della loro distanza. Ora, nel nostro universo ci sono masse distribuite qui a la in modo piu’ o meno uniforme. Se pensiamo solo alla forza di gravita’, una coppia qualunque di queste masse si attrae e quindi le due masse tenderanno ad avvicinarsi. Se anche pensiamo ad una spinta iniziale data dal Big Bang, ad un certo punto questa spinta dovra’ terminare controbilanciata dalla somma delle forze di attrazione gravitazionale. In altre parole, non e’ possibile pensare ad un universo che si espande sempre se abbiamo solo forze attrattive che lo governano.

Questo problema ha angosciato l’esistenza di molti scienziati a partire dai primi anni del ‘900. Lo stesso Einstein, per cercare di risolvere questo problema dovette introdurre nella Relativita’ Generale quella che defini’ una costante cosmologica, a suo avviso, un artificio di calcolo che serviva per bilanciare in qualche modo l’attrazione gravitazionale. L’introduzione di questa costante venne definita dallo stesso Einstein il piu’ grande errore della sua vita. Oggi sappiamo che non e’ cosi’, e che la costante cosmologica e’ necessaria nelle equazioni non come artificio di calcolo ma, in ultima analisi, proprio per giustificare la presenza di componenti non barioniche, energia oscura in primis, che consentono di spiegare l’espansione dell’universo. Se vogliamo essere precisi, Einstein introdusse la costante non per avere un universo in espansione bensi’ un universo statico nel tempo. In altre parole, la sua costante serviva proprio a bilanciare esattamente l’attrazione e rendere il tutto fermo. Solo osservazioni successive, tra cui quella gia’ citata dello stesso Hubble, confermarono che l’universo non era assolutamente statico bensi’ in espansione.

Ora, a questo punto, potremmo decidere insieme di suicidarci dal punto di vista divulgativo e parlare della metrica dell’universo, di coordinate comoventi, ecc. Ma questo, ovviamente, implicherebbe fogli di calcoli e basi scientifiche non banali. Abbiamo le prove che l’universo e’ in espansione, dunque, ad esempio, guardando dalla Terra vediamo gli altri corpi che si allontanano da noi. Come si allontanano? O meglio, di nuovo, che forma avrebbe questo universo?

L’esempio del palloncino fatto prima per spiegare l’espansione dell’universo, e’ molto utile per far capire questi concetti, ma assolutamente fuoriviante se non ci si riflette abbstanza. Molto spesso, si confonde questo esempio affermando che l’universo sia rappresentato dall’intero palloncino compreso il suo volume interno. Questo e’ concettualmente sbagliato. Come detto in precedenza, i punti si trovano solo ed esclusivamente sulla superficie esterna del palloncino che rappresenta il nostro universo.

A complicare, o a confondere, ancora di piu’ le idee c’e’ l’esempio del pane con l’uvetta che viene usato per spiegare l’espansione dell’universo. Anche su wikipedia trovate questo esempio rappresentato con una bella animazione:

Esempio del pane dell'uvetta utilizzato per spiegare l'aumento della distanza tra i punti

Esempio del pane dell’uvetta utilizzato per spiegare l’aumento della distanza tra i punti

Come vedete, durante l’espansione la distanza tra i punti cresce perche’ i punti stessi, cioe’ i corpi presenti nell’universo, vengono trascinati dall’espansione. Tornado alla domanda iniziale da cui siamo partiti, potremmo penare che in realta’ lo spazio resti a volume costante e quello che diminuisce e’ il volume della materia. Il lettore che ci ha fatto la domanda, mi ha anche inviato una figura esplicativa per spiegare meglio il concetto:

Confronto tra il modello di aumento dello spazio e quello di restringimento della materia

Confronto tra il modello di aumento dello spazio e quello di restringimento della materia

Come vedete, pensando ad una contrazione della materia, avremmo esattamente lo stesso effetto con la distanza mutua tra i corpi che aumenta mentre il volume occupato dall’universo resta costante.

Ragioniamo pero’ su questo concetto. Come detto, a supporto dell’espansione dell’universo, abbiamo la legge di Hubble, e anche altre prove, che ci permettono di dire che l’universo si sta espandendo. In particolare, lo spostamento verso il rosso della radiazione emessa ci conferma che e’ aumentato lo spazio tra i corpi considerati, sorgente di radiazione e bersaglio. Inoltre, la presenza dell’energia oscura serve proprio a spiegare questa evoluzione dell’universo. Se la condizione fosse quella riportata nell’immagine, cioe’ con la materia che si contrae, non ci sarebbe lo spostamento verso il rosso, e anche quello che viene definito Modello Standard del Cosmo, di cui abbiamo verifiche sperimentali, non sarebbe utilizzabile.

Resta pero’ da capire, e ritorno nuovamente su questo punto, che forma dovrebbe avere il nostro universo. Non sto cercando di volta in volta di scappare a questa domanda, semplicemente, stiamo cercando di costruire delle basi, divulgative, che ci possano consentire di capire questi ulteriori concetti.

Come detto, parlando del palloncino, non dobbiamo fare l’errore di considerare tutto il volume, ma solo la sua superificie. In particolare, come si dice in fisica, per capire la forma dell’universo dobbiamo capire che tipo di geometria assegnare allo spazio-tempo. Purtroppo, come imparato a scuola, siamo abituati a pensare alla geometria Euclidea, cioe’ quella che viene costruita su una superifice piana. In altre parole, siamo abituati a pensare che la somma degli angoli interni di un traiangolo sia di 180 gradi. Questo pero’ e’ vero solo per un triangolo disegnato su un piano. Non e’ assolutamente detto a priori che il nostro universo abbia una geometria Euclidea, cioe’ che sia piano.

Cosa significa?

Come e’ possibile dimostrare, la forma dell’universo dipende dalla densita’ di materia in esso contenuta. Come visto in precedenza, dipende dunque, come e’ ovvio pensare, dall’intensita’ della forza di attrazione gravitazionale presente. In particolare possiamo definire 3 curvature possibili in funzione del rapporto tra la densita’ di materia e quella che viene definita “densita’ critica”, cioe’ la quantita’ di materia che a causa dell’attrazione sarebbe in grado di fermare l’espasione. Graficamente, le tre curvature possibili vengono rappresentate con tre forme ben distinte:

Curvature possibili per l'universo in base al rapporto tra densita' di materia e densita' critica

Curvature possibili per l’universo in base al rapporto tra densita’ di materia e densita’ critica

Cosa significa? Se il rapporto e’ minore di uno, cioe’ non c’e’ massa a sufficienza per fermare l’espansione, questa continuera’ per un tempo infinito senza arrestarsi. In questo caso si parla di spazio a forma di sella. Se invece la curvatura e’ positiva, cioe’ la massa presente e’ maggiore del valore critico, l’espansione e’ destinata ad arrestarsi e l’universo iniziera’ ad un certo punto a contrarsi arrivando ad un Big Crunch, opposto al Big Bang. In questo caso la geometria dell’universo e’ rappresentata dalla sfera. Se invece la densita’ di materia presente e’ esattamente identica alla densita’ critica, in questo caso abbiamo una superficie piatta, cioe’ Euclidea, e l’espansione si arrestera’ ma solo dopo un tempo infinito.

Come potete capire, la densita’ di materia contenuta nell’universo determina non solo la forma di quest’ultimo, ma anche il suo destino ultimo in termini di espansione o contrazione. Fate pero’ attenzione ad un altro aspetto importante e molto spesso dimenticato. Se misuriamo questo rapporto di densita’, sappiamo automaticamente che forma ha il nostro universo? E’ vero il discorso sul suo destino ultimo, ma le rappresentazioni grafiche mostrate sono solo esplicative e non rappresentanti la realta’.

Perche’?

Semplice, per disegnare queste superifici, ripeto utilizzate solo per mostrare graficamente le diverse forme, come si e’ proceduto? Si e’ presa una superficie bidimensionale, l’equivalente di un foglio, e lo si e’ piegato seguendo le indicazioni date dal valore del rapporto di densita’. In realta’, lo spazio tempo e’ quadrimensionale, cioe’ ha 3 dimensioni spaziali e una temporale. Come potete capire molto facilmente, e’ impossibile sia disegnare che immaginare una superificie in uno spazio a 4 dimensioni! Questo significa che le forme rappresentate sono esplicative per far capire le differenze di forma, ma non rappresentano assolutamnete la reale forma dell’universo dal momento che sono ottenute eliminando una coordinata spaziale.

Qual e’ oggi il valore di questo rapporto di densita’? Come e’ ovvio, questo valore deve essere estrapolato basandosi sui dati raccolti da misure osservative nello spazio. Dal momento che sarebbe impossibile “contare” tutta la materia, questi valori vengono utilizzati per estrapolare poi il numero di barioni prodotti nel Big Bang. I migliori valori ottenuti oggi danno rapporti che sembrerebbero a cavallo di 1 anche se con incertezze ancora troppo elevate per avere una risposta definitiva.

Concludendo, affrontare queste tematiche in chiave divulgativa non e’ assolutamente semplice. Per quanto possibile, e nel limite delle mie possibilita’, spero di essere riuscito a farvi capire prima di tutto quali sono le verifiche sperimentali di cui disponiamo oggi e che sostengono le teorie di cui tanto sentiamo parlare. Queste misure, dirette o indirette che siano, ci permettono di capire che il nostro universo e’ con buona probabilita’ nato da un Big Bang, che sta attualmente espandendosi e questa espansione, almeno allo stato attuale, e’ destinata a fermarsi solo dopo un tempo infinito. Sicuramente, qualunque sia il destino ultimo del nostro universo, questo avverra’ in un tempo assolutamente molto piu’ grande della scala umana e solo la ricerca e la continua osservazione del cosmo ci possono permettere di fare chiarezza un poco alla volta.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tribale, artistico o con microfono integrato?

11 Nov

Negli anni ’90, abbiamo assistito al boom dei telefoni cellulari di largo consumo. Questi apparecchi sono entrati prepotentemente nella nostra vita, diventando ormai un gadget posseduto da tutti. Come forse ricorderete, i primi modelli “popolari” erano abbastanza grandi, con schermi monocromatici e senza telecamera. Poi, si e’ andati verso la miniaturizzazione con cellulari che di anno in anno diventavano sempre piu’ piccoli. Oggi, invece, stiamo andando in controtendenza, con gli smartphone che assomigliano sempre di piu’ a pc portatili e che, molto spesso, non entrano neanche in una tasca. Ovviamente, il discorso dimensioni e’ molto riduttivo. In questo settore si e’ assistito ad una esplosione di funzioni e tecnologia difficilmente reperibile in altri campi.

A cosa potrebbe puntare ora il mercato?

Gia’ da qualche anno, i grandi produttori sono impegnati su due fronti: la messa in sicurezza delle informazioni ma anche ad integrare questi dispositivi direttamente con il corpo umano.

Perche’ parlo di questo?

Negli ultimi giorni e’ trapelata la notizia di una richiesta di brevetto fatta da Motorola che, come saprete, ha di recente venduto la divisione mobile a Google. Questo passaggio ha ridato nuova linfa ad un’azienda, protagonista assoluta fino a qualche anno fa, e che ultimamente era caduta in disgrazia.

Di cosa si tratta?

Il dispositivo pensato e’ piu’ o meno questo: si tratta di un tatuaggio da applicare sul collo e che avrebbe la funzione di microfono.

Fantascienza?

Assolutamente no. Se ci pensate, esistono gia’ da diversi anni circuiti completamente passivi, cioe’ senza alimentazione, che, in modi diversi, possono essere attivati da parti attive. In tal senso, il tatuaggio pensato da motorola sarebbe solo un circuito passivo messo in oscillazione dalle vibrazioni della laringe e che trasmetterebbe questi segnali ad uno smartphone. I due dispositivi potrebbero comunicare tra loro mediante connessioni senza fili.

Quali sono i vantaggi?

Alcuni molto semplici, senza dover toccare nulla, potremmo solo parlare per trasmettere la nostra voce. Inoltre, attivandosi solo con le vibrazioni della gola, questo dispositivo sarebbe del tutto immune dai rumori ambientali. Pensiamoci un attimo, anche se ci troviamo in un luogo affollato e pieno di gente, il nostro cellulare trasmetterebbe soltanto la nostra voce, pulendo completamente il segnale ascoltato dall’altra parte della cornetta.

Il tatuaggio con funzione di microfono

Il tatuaggio con funzione di microfono

Se ci pensiamo bene, questo dispositivo non ha nulla di straordinario dal punto di vista tecnologico. La sua particolarita’ principale e’ l’applicazione di soluzioni conosciute in campi diversi.

Secondo Motorola, si potrebbe parlare o di un tatuaggio, ovviamente non indelebile, oppure di un adesivo da applicare sulla pelle.

Per il momento, come anticipato, si tratta solo di una richiesta di brevetto, ma questo non esclude che questa soluzione possa essere applicata prossimamente sui dispositivi mobili grazie alle caratteristiche e ai vantaggi che abbiamo accennato prima.

Motorola, cosi’ come altri grandi produttori, sono gia’ impegnati da anni in ricerche di questo tipo. Sempre la compagnia di recente acquisita da Google, ha proposto durante quest’anno, un altro tipo di tatuaggio da applicare sulla pelle. Questa volta si trattarebbe di un circuito risonante pensato per custodire tutte le nostre password e codici personali. Anche in questo caso, pensandoci, la cosa sarebbe molto comoda. Pensate solo a quanti codici e password dobbiamo tenere a mente oggi come oggi. Avere un qualcosa sempre con noi e con tutte le chiavi di accesso potrebbe sicuramente essere molto utile. Purtroppo, come non pensarci, in questo caso viene naturale considerare anche il discorso sicurezza. Immaginate cosa succederebbe se qualcuno volesse rubare le password contenute in un tatuaggio sulla vostra pelle.

Pillola Proteus

Pillola Proteus

Sulla stessa base, vi e’ anche un ‘altra proposta in tema sicurezza, la cosiddetta Proteus. Si tratta di una piccola pillola da ingerire e che contiene in un minuscolo circuito. Una volta nel nostro stomaco, Proteus verrebbe alimentato dai succhi gastrici e trasformerebbe tutto il nostro corpo in un “portachiavi elettronico”. Memorizzato nel circuito ci sarebbe infatti un databse con tutte le nostre password che questa volta verrebbero gelosamente custodite dentro di noi.

Come detto, anche se questi possono sembrare discorsi fantascientifici, si tratta di studi reali che i grandi costruttori stanno facendo ed in cui stanno investendo ingenti capitali. Trasformare il nostro corpo in un dispositivo tecnologico potrebbe far sorgere qualche dubbio in alcune persone ma, credo personalmente, che sara’  la condizione a cui si puntera’ per i prossimi anni. Al solito, non ci resta’ che aspettare e vedere cosa il mercato ci offrira’ nei prossimi anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Dal turismo al trasferimento nello spazio

3 Mag

Solo pochi giorni fa, avevamo pubblicato questo articolo:

Dove andiamo in vacanza? Nello spazio!

Come visto, ci sono diverse compagnie private, prima tra tutte la Virgin Galactic di Branson, che si stanno dando battaglia per riuscire a portare i primi turisti nello spazio.

Se pensavate che questa fosse una follia, aspettate di leggere questa notizia e il turismo spaziale vi sembrera’ una passeggiata.

Se adesso vi dicessi che c’e’ la possibilita’ di andare a vivere su Marte in pianta stabile, ci credereste? Probabilmente no, magari anche a ragione, ma forse ci sbagliamo.

Nel 2012 e’ nata l’organizzazione MarsOne, con sede in Olanda, che ha come scopo quello di portare i primi coloni su Marte a partire dal 2023. Prima di pensare che vi stia prendendo in giro o che sia la solita bufala mediatica, magari creata per spillare qualche soldo alle persone, vi dico una serie di dettagli:

– MarsOne e’ una societa’ no profit

– la missione viene sostenuta dal premio nobel per la fisica Gerard ’t Hooft

– tra gli affereti alla missione ci sono ex ricercatori della NASA, tra cui Norbert Kraft, oggi direttore medico della MarsOne

Se prima pensavamo che il tutto fosse una presa in giro, leggendo queste considerazioni, e sono reali, qualche dubbio ci sta venendo.

Come detto, lo scopo di MarsOne e’ quello di creare la prima colonia di esseri umani sul pianeta rosso. La societa’ ha stretto contatti con la SpaceX, azienda privata operante proprio nel settore dei lanci spaziali privati e che fornirebbe tutti i componenti per la missione, tra cui navicelle Dragon per il trasporto fino a Marte.

Senza perderci in chiacchiere, vi illustro il programma della missione:

  • 2013: Verranno selezionati i primi 40 astronautie verrà costruito un modello in scala della colonia per garantire l’addestramento.
  • 2014: Verrà prodotto il primo satellite per le comunicazioni.
  • 2016: Una missione con rifornimenti verrà lanciata, contenente 2500 kilogrammi di cibo in una capsula Dragon, di SpaceX, modificata per l’occasione.
  • 2018: Verrà lanciato un rover per determinare la migliore posizione in cui disporre la colonia.
  • 2021: Altre sei capsule Dragon e un ulteriore rover verranno lanciati. Le capsule Dragon saranno così suddivise: due unità di sussistenza, due unità di supporto vitale e due unità di rifornimenti.
  • 2022: Un razzo Falcon Heavy della SpaceX lancerà il primo gruppo di quattro coloni.
  • 2023: I primi coloni atterrano su Marte con una capsula Dragon.
  • 2025: Arriverà un secondo gruppo di coloni.
  • 2033: La colonia raggiungerà i 20 individui

Come vedete, si fa sul serio e con un cronoprogramma molto aggressivo.

La prima cosa che ci viene in mente pensando a questa missione e’: quanti soldi ci vorrebbero per organizzare questa cosa? Stando a quanto riportato dalla MarsOne, solo per arrivare ai primi 4 coloni su Marte, servirebbero 6 miliardi di dollari. Dove verrebbero presi? Qui trovate la risposta piu’ bella, dalla televisione! La missione MarsOne sara’ una sorta di Grande Fratello spaziale e i diritti televisivi saranno venduti a caro prezzo. Secondo la societa’, sfruttando questo sistema, non ci saranno problemi nel reclutare i soldi necessari. Pensando alla nostra societa’ e al successo di programmi di questo tipo, sicuramente ci viene da dare ragione a questa affermazione.

Marte_colonia

Nel pieno rispetto del programma, e’ partito proprio in questi giorni il piano di reclutamento degli astronauti. Per candidarvi, basta caricare un breve video sulla pagina web della compagnia:

MarsOne recruitment

Requisiti? Avere un’era’ compresa tra 18 e 40 anni, godere di ottima salute e parlare fluentemente l’inglese. Lauree particolari? Conoscenze specifiche? Addestramento militare? Ore di volo? Assolutamente niente di tutto questo. La MarsOne assicura un programma di addestramento per costruire anche le figure professionali che serviranno su Marte. Purtroppo, l’inglese si deve sapere molto bene perche’ si prevede di utilizzare un equipaggio internazionale.

Dopo pochi giorni dall’apertura, la societa’ ha gia’ ricevuto qualcosa come 10000 candidature da tutto il mondo. Nel migliore stile Grande Fratello, le selezioni, o meglio il primo giro di scrematura, verrano fatte attraverso il voto su internet da parte delle persone. Chiunque, dunque, puo’ essere elettore e elegibile. Vi dico anche che, al momento, sono arrivate le candidature di soli 4 italiani. Considerando che la missione sara’ internazionale e che dovranno essere scelti 20 astronauti, le possibilita’ per noi sono ancora tutte aperte.

Sul sito della societa’ trovate anche un video di promozione che mostra tutte le fasi e come gli astronauti dovranno vivere su Marte:

Se state pensando di sottomettere la candidatura, e’ necessario che sappiate qualcosa in piu’ sulla missione.

L’aspetto piu’ importante di cui tenere conto, e’ la vostra convinzione psicologica. Come fare per mantenere i costi cosi’ bassi? Il problema principale di una missione umana su Marte e’ pensare ad una navicella in grado di affrontare 7 mesi di viaggio per andare e 7 per tornare e che sia in grado di garantire un carico di cibo per l’equipaggio. MarsOne ha risolto questo problema nel modo piu’ semplice: i biglietti sono di sola andata! Proprio cosi’, avete capito bene. Come potete vedere nel programma, la missione prevede dei lanci preventivi proprio per costruire la base e per organizzare la coltivazione di ortaggi sul pianeta rosso. La MarsOne dichiara di poter sfruttare l’abbondante acqua sotto forma di ghiaccio presente su Marte. Personalmente lo trovo un po’ azzardato, ma facciamo finta di nulla. Il volo e’ di sola andata, dunque, 7 mesi per raggiungere Marte e poi si vive sul pianeta rosso, senza possibilita’ di tornare a casa.

Ovviamente, gli astronauti avranno la possibilita’ di comunicare a Terra sfruttando comunicazioni satellitari, ma si deve tener conto di importanti fattori: i segnali avranno ritardi tra 5 e 20 minuti dovuti alla distanza. Non sara’ possibile navigare in rete in tempo reale, sarebbe troppo lento e dispendioso, ma le pagine saranno pre-caricate e rese disponibili in modalita’ off-line agli astronauti. Capite bene che le possibilita’ di comunicazione sono ovviamente ridotte all’osso.

Cosa prevede l’addestramento prima della missione? Come visto nel programma, e’ previsto un programma di 8 anni prima della partenza. Si trattera’ di una preparazione a tempo pieno, per cui gli aspiranti astronauti dovranno lasciare il proprio lavoro per dedicarsi completamente alla missione. Ovviamente questa fase sara’ pagata in modo da consentire ai selezionati di poter vivere prima della partenza.

La fase piu’ importante dell’addestramento e’ quella che riguarda la preparazione psicologica. Come potete immaginare, e’ necessario valutare al meglio i futuri coloni per selezionare individui realmente motivati ed in grado di affrontare un’esperienza del genere, quasi sicuramente a vita. In parallelo, i vincitori del biglietto di sola andata dovranno affrontare una preparazione tecnica su una vasta gamma di discipline e almeno due di loro dovranno essere in grado di poter riparare ogni componente della missione. Altri 2 dovranno invece affrontare una preprazione medica per far fronte alle emergenze ma anche alla normale routine della base. Nella colonia di 20, verranno poi addestrati esperti di esobiologia, fisica e altre discipline utili per capire e studiare l’ambiente di Marte.

Come anticipato, la parte psicologica e’ quella piu’ delicata e piu’ a rischio. Riguardo alle comunicazioni, ad esempio, gli astronauti verranno tenuti in isolamento per un periodo piu’ o meno lungo, facendoli comunicare con le famiglie simulando a Terra il ritardo di 20 minuti. Questo per capire le risposte psicologiche a questo allontanamento forzato da partenti e amici e valutare la reale compatibilita’ degli astronauti con la missione.

Ovviamente, anche dal punto di vista fisico, e’ necessaria una preparazione e una predisposizione a questo genere di vita. Un ambiente a ridotta gravita’, implica infatti una riduzione del tono muscolare e problemi ossei, tutti aspetti non trascurabili e di cui si deve tener conto.

Personalmente sono molto scettico su questa missione, ma soprattutto lo sono sul cronoprogramma cosi’ aggressivo. Sicuramente, la pubblicita’ e l’idea del reality consentira’ di ricavare i soldi necessari, ma, dal mio punto di vista, 6 miliardi di dollari non saranno sufficienti per portare nel 2023 i primi coloni su Marte. Inoltre, ci sono alcuni aspetti della missione che mi sembrano alquanto trascurati. E’ vero che sono stati pensati viaggi di rifornimento per i coloni, ma assicurare questo servizio a vita, o almeno finche’ non saranno sviluppate tecniche di autosostentamento, non credo sia cosi’ facile. Anche pensare di preparare l’orticello su Marte, non mi sembra cosi’ facilmente fattibile. Come vedete, di punti interrogativi ce ne sono ancora tanti, ma la cosa certa e’ che la MarsOne esiste veramente, ha preso contatti tangibili per la fornitura delle navicelle e sembra interessata a portare avanti il programma. A questo punto, chi vivra’ vedra’. La cosa piu’ importante e’ che le selezioni sono aperte e ci sono ancora pochi italiani che si sono fatti avanti. Se state pensando che sarebbe la vita giusta per voi, questo e’ il momento giusto per sottomettere la vostra candidatura.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’anomalia del Sud Atlantico

7 Gen

Come sappiamo bene, per il 21 Dicembre 2012, una delle profezie che ha riscosso maggior successo era quella che voleva un’inversione del campo magnetico terrestre con il conseguente aumento della radiazione, potenzialmente nociva, proveniente dal Sole.

Anche se il 21/12 e’ trascorso senza nessuna fine del mondo, non credo che ci sia bisogno di dimostrare questo, non si sono assolutamente calmate le tantissime teorie che ancora sfruttano un’eventuale indebolimento o anche l’inversione del campo magnetico.

Di queste problematiche abbiamo parlato in dettaglio in questo post:

Inversione dei poli terrestri

Come potete leggere, abbiamo ammesso che il polo nord magnetico si stia costantemente spostando e, stando ai calcoli e alle previsioni attuali, dovrebbe raggiungere la Siberia nel giro di circa 5o anni.

Nonostante questo, come anticipato, molte fonti ancora sostengono l’indebolimento del campo geomagnetico. In particolare, alcune di queste portano come prova scientifica a sostegno l’esistenza della cosiddetta anomalia del Sud Atlantico. Detta in parole molto semplici, si tratta di una zona vicina al Sud America, a largo del Brasile, dove lo schermo magnetico offerto dal campo contro la radiazione solare e’ meno forte, consentendo ad un numero maggiore di particelle di raggiungere quote piu’ basse.

Fate attenzione ad una cosa. Ho detto “dove lo schermo magnetico e’ meno forte”, non ho assolutamente detto “dove il campo magnetico e’ piu’ basso”. Come vedremo nel seguito, questa distinzione e’ fondamentale per smascherare queste teorie.

Veniamo all’ipotesi catastrofista. Secondo queste fonti, l’anomalia dal Sud Atlantico sarebbe una zona con minor campo magnetico, e questa sarebbe la prova che, prima di tutto, il campo magnetico terrestre sta velocemente diminuendo e, a sua volta, questo sarebbe il preludio all’inversione dei poli terrestri.

Prima di tutto una considerazione. Come detto piu’ volte anche nel post precedente, esistono prove di inversioni passate dei poli magnetici terrestri. Queste osservazione vengono fatte studiando il paleomagnetismo, cioe’ l’orientazione dei materiali magnetici all’interno di strati di rocce. Inoltre, non esistono prove di estinzioni di massa di qualche specie animale in concomitanza con queste inversioni. Questa considerazione solo per calmare ulteriormente gli animi.

Nonostante questo, si fa molto presto a parlare di possibile pericolo e di inversione in corso.

Prima di parlare di questa anomalia del Sud Atlantico, vorrei chiudere definitivamente il discorso campo geomagnetico. Come sappiamo, molti dei dati scientifici su queste misurazioni sono normalmente disponibili su web e liberamente accessibili a tutti. Per quanto riguarda i valori del campo, e’ molto utile consultare i soliti archivi del NOAA che ci consentono di fare delle considerazioni molto utili. Prima di andare avanti vi consiglio di visitare questo link:

NOAA Campo magnetico

Ora, utilizzando la parte inferiore della pagina, mettiamo, ad esempio, gli anni compresi tra 1900 e 2012, in modo da poter visualizzare le informazioni su una statistica considerevole, impostando uno “step: di 1 anno. Nella tabella che vi si apre, trovate molte informazioni sul campo magnetico terrestre, intensita’ in tutte le direzioni, inclinazione, posizione dei poli, ecc. Concentriamoci sui parametri utili per la nostra discussione. Notiamo prima di tutto che abbiamo delle variazioni sia nell’inclinazione che nella declinazione. Questa e’ esattamente la controprova di quello che abbiamo gia’ detto, il polo nord e’ in movimento in direzione nord-ovest.

Ora, vediamo invece i valori di intensita’. La tabella e’ molto completa, dal momento che ci riporta l’intensita’ delle singole componenti in tutte le direzioni. Fate attenzione ad una cosa. Se il campo magnetico e’ in movimento in una direzione specifica, nord-ovest in questo caso, e’ del tutto normale che alcune componenti crescano, mentre altre diminuiscono. Questo non significa che il campo magnetico sta diminuendo nel complesso.

Per capire se l’intensita’ complessiva del campo sta cambiando, dobbiamo vedere l’ultima colonna, cioe’ quella relativa all’intensita’ totale del campo. Cosa troviamo? Semplice, che le variazioni riportate sono assolutamente trascurabili. Come vedete, questa e’ solo un’altra prova che il campo magnetico terrestre non sta assolutamente diminuendo.

A questo punto, speriamo di essere riusciti a sfatare una volta per tutte le voci che continuano a rincorrersi su internet.

Passiamo invece all’anomalia del Sud Atlantico. Abbiamo detto di cosa si tratta, ma soprattutto abbiamo detto che viene portata come prova della diminuzione del campo.

Cerchiamo di capire meglio.

Forma del campo magnetico terrestre

Forma del campo magnetico terrestre

Piu’ volte, abbiamo parlato del campo magnetico e del fatto che questo rappresenti per noi uno scudo per le particelle emesse dal Sole in direzione della Terra. La particolare forma del campo, fa si che i fasci di particelle vangano spinti in direzione dei poli dove riescono a penetrare nella bassa atmosfera, formando in particolare le aurore.

Ora, alcune delle particelle emesse dal Sole restano intrappolate nel campo magnetico terrestre, formando delle zone specifiche ricche di elettroni e protoni. Queste zone, sono le cosiddette fasce di Van Allen. In particolare, possiamo distinguere due fasce, dette interna ed esterna, con quote diverse, rispettivamente dense di protoni e di elettroni.

Non c’e’ assolutamente nulla di sconvolgente nell’esistenza di queste strutture. La loro presenza era stata predetta ancora prima dell’osservazione, studiando l’imbottigliamento magnetico offerto dal campo per effetto della cosiddetta forza di Lorentz.

Cosa c’entrano queste fasce con l’anomalia del Sud Atlantico?

Immaginiamo per un attimo le due fasce come due lobi simmetrici rispetto all’asse magnetico della Terra. Come sappiamo pero’, l’asse magnetico della Terra non e’ esattamente coincidente con quello di rotazione, ma ci sono circa 11 gradi di differenza tra loro. L’effetto di questo spostamento, fa si che da un lato, la fascia interna sia piu’ vicina alla superficie terrestre, mentre dall’altro lato sia piu’ lontana. In particolare, il punto di maggior avvicinamento, in cui la fascia si spinge fino a circa 200 Km dalla superficie, cade proprio nella parte a Sud dell’Atlantico.

Questo e’ un disegno che puo’ aiutarci a capire meglio la questione:

Spostamento delle fasce di Van Allen dovute alla differenza tra gli assi

Spostamento delle fasce di Van Allen dovute alla differenza tra gli assi

Come vedete lo spostamento tra i due assi, crea questa non simmetria nelle fasce di Van Allen, ed e’ proprio questo avvicinamento verso la superficie, ripeto da un solo lato, il responsabile dell’anomalia del Sud Atlantico. Effetto di questo spostamento e’ ovviamente una minor schermatura verso la radiazione terrestre.

E’ pericolosa l’anomalia?

Assolutamente no. Questa differenza nel potere schermante e’ stata scoperta nel 1958, ma esisteva anche prima di questa data ed e’ dovuta ai parametri stessi della nostra Terra. Una minore schermatura dalla radiazione solare, non significa assolutamente che vivere in quella zona significhi essere bombardati da particelle mortali. L’anomalia era gia’ presente prima di essere scoperta, e soprattutto prima che qualcuno su internet cominciasse a specularci sopra.

A riprova di questo, vi voglio mostrare un grafico molto interessante:

Flussi di protoni misurati in diverse zone della Terra

Flussi di protoni misurati in diverse zone della Terra

Questo disegno rappresenta la concentrazione di protoni misurata nelle varie zone della Terra. Notiamo che in prossimita’ dei poli, dove c’e’ la chiusura del campo magnetico e dove sappiamo essere convogliate le particelle, abbiamo delle concentrazioni maggiori. Sulla mappa e’ facilmente identificabile l’anomalia del Sud Atlantico in cui il flusso di particelle e’ maggiore ma notiamo che, ad esempio, i valori registrati sono simili a quelli di molte zone del Canada. Non mi sembra che nessuno si sia mai lamentato in Canada delle radiazioni solari.

Concludendo, l’anomalia del Sud Atlantico e’ solo una conseguenza dei parametri strutturali della Terra. In queste zone si ha un flusso di particelle maggiori dovuto ad una schermatura inferiore da parte del campo geomagnetico, ma assolutamente nulla di pericoloso. L’esistenza di questa anomalia, non costituisce in nessun modo una prova della diminuzione, ne’ tantomeno della prossima inversione, del campo magnetico. Tra l’altro, i valori riportati dal database del NOAA, confermano lo spostamento del polo Nord magnetico in direzione nord-ovest, ma non mostrano assolutamente una diminuzione sistematica dell’intesita’ totale del campo.

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La materia oscura

19 Dic

Abbiamo iniziato a parlare di questa “materia oscura”, commentando un articolo catastrofista, e permettemi di dire alquanto bizzarro, apparso oggi su alcuni quotidiani:

Venerdi finisce il mondo!

Come visto, secondo queste fonti, un ammasso di materia oscura, sotto forma di corpo esteso e massivo, sarebbe in rotta di collisione con la Terra per il 21/12.

Nell’articolo citato, abbiamo gia’ discusso delle assurdita’ scientifiche prospettate come ipotesi di partenza, ma per offrire un quadro piu’ chiaro, dobbiamo necessariamente parlare di materia oscura.

Ovviamente, come capite bene, questo articolo e’ solo un corollario a quello citato, ma ho deciso di metterlo come post isolato, vista l’importanza della divulgazione di argomenti come questi.

Prima di iniziare, vorrei fare una premessa importate. Come piu’ volte dichiarato, in questo blog vogliamo fare divulgazione scientifica approfittando delle profezie del 2012. Per questa ragione, cerchiamo di fare una divulgazione semplice e che lasci intendere i concetti fondamentali. Questo punto e’ importante, perche’ vogliamo dare risposte accessibili a tutti. Non sono qui per fare una lezione universitaria, ne tantomeno per fare un esercizio di stile scientifico. Cerchero’ di essere molto chiaro, esplorando solo i concetti fondamentali. Mi scuso da subito con quanti di voi hanno gia’ conoscenza dell’argomento e potrebbero considerare questo post troppo semplice.

Cominciamo dalle cose ovvie.

In questo post:

Piccolo approfondimento sulla materia strana

abbiamo gia’ parlato di modello standard. In particolare, abbiamo visto come le particelle fondamentali, cioe’ non formate da pezzetti piu’ piccoli, siano in realta’ poche e descrivibili attraverso delle famiglie. Mescolando insieme queste particelle, che altro non sono i componenti di quello che chiamiamo “modello standard”, possiamo capire la materia che ci circonda e le interazioni, cioe’ le forze, che questa subisce.

Fin qui tutto chiaro.

Ora, cosa c’entra la materia oscura?

Prima di tutto un po’ di storia. Nel 1933 l’astronomo Zwicky fece il seguente esercizio. Studiando l’ammasso della Chioma, sommo’ tutte le masse galattiche, cioe’ le masse di tutti gli oggetti che componevano l’ammasso, e ottenne in questo modo la massa totale della Chioma. Fin qui, niente di speciale. Ora pero’, e’ possibile ricavare la massa anche in modo indiretto, cioe’ misurando la dispersione delle velocita’ delle galassie che costituivano l’ammasso. In questo secondo modo, ottenne un’altra misura della massa totale, questa volta in modo indiretto. Il problema fu che la seconda stima era maggiore della prima di circa 400 volte. Detto in parole povere, la somma non faceva il totale.

Questa discrepanza venne poi studiata in dettaglio solo negli anni ’70, quando si capi’ che questa differenza non era dovuta ad errori di calcolo, bensi’ era un qualcosa ancora non capito dalla scienza.

Proprio in questo contesto, si comincio’ a parlare di materia oscura, cioe’ materia non visibile dagli strumenti ma dotata di massa, che era in grado di risolvere le discrepanze trovate.

A questo punto, ognuno di noi potrebbe pensare che si sta cercando solo di farsi tornare i conti. In realta’ non e’ cosi’. La materia oscura e’ importante anche per capire e spiegare molte leggi di natura estremamente importanti del nostro universo. Piu’ che un artificio di calcolo e’ qualcosa in grado spiegare il funzionamento stesso di quello che osserviamo.

Cerchiamo di capire meglio con qualche altro esempio.

Una delle evidenze principali della materia oscura e’ nell’osservazione e nella parametrizzazione delle galassie a spirale. Cos’e’ una galassia a spirale? Sono galassie formate da una parte interna, detta bulbo, e d alcune braccia che si avvolgono intorno a questa parte centrale.

Esempio di galassia spirale

Esempio di galassia spirale

Ora, immaginiamo di voler misurare la velocita’ delle stelle che compongono la galassia. In linea di principio, per la terza legge di Keplero, piu’ ci allontaniamo dal centro, minore dovrebbe essere la velocita’ delle stelle. Se immaginate di fare un grafico in cui riportate la velocita’ in funzione della distanza dal centro, cosa vi aspettereste? Se la velocita’ delle stelle periferiche e’ piu’ bassa, dovremmo avere un grafico che decresce all’aumentare della distanza.

Velocita' di rotazione delle stelle in funzione della distanza dal centro. A: aspettato B:osservato

Velocita’ di rotazione delle stelle in funzione della distanza dal centro. A: aspettato B:osservato

In realta’ osservate che la velocita’ delle stelle lontane e’ paragonabile a quelle interne, cioe’ il grafico e’ “piatto”. Perche’ avviene questo? Semplicemente perche’ non possiamo stimare la massa della galassia semplicemente sommando le singole stelle, ma dobbiamo mettere dentro anche la materia oscura. Rifacendo il calcolo considerando la materia oscura ottenete il grafico sperimentale visto in figura. Ma e’ veramente necessaria questa massa aggiuntiva? In realta’ si. Se la massa fosse solo quella delle stelle visibili, le stelle piu’ lontane, e che dunque ruotano piu’ velocemente di quello che ci aspettiamo, sarebbero espulse dalla galassia. Dal momento che vediamo con i nostri occhi che le stelle sono sempre li senza essere espulse, significa che la materia oscura ci deve essere.

Se siete riusciti ad arrivare fino a questo punto, ormai siamo in discesa.

Restano due domande fondamentali a cui rispondere. Quanta materia oscura c’e’ nell’universo? Ma soprattutto, cos’e’ questa materia oscura?

Il “quanta ce n’e'” potrebbe sorprendervi. Dalle stime fatte nel nostro universo, si trova che circa l’85% totale della massa e’ composta da materia oscura. Detto in altri termini abbiamo circa 6 volte piu’ materia oscura che materia barionica. Questa cosa puo’ sorprendere molto. Pensateci bene, parlando di modello standard, abbiamo visto la materia barionica, cioe’ quella che forma la materia che vediamo. Bene, l’85% della massa che compone l’universo e’ fatta di qualcosa di diverso rispetto alla materia che conosciamo.

A questo punto, cerchiamo di capire cos’e’ la materia oscura.

In realta’, non posso darvi una risposta certa e definitiva, perche’ in questo caso stiamo esplorando campi ancora aperti della scienza moderna. Esistono ovviamente diverse ipotesi riguardo alla composizione della materia oscura, ma non una certezza sperimentale.

Ragioniamo un secondo. Da quanto detto, la materia oscura ha una massa, produce effetti gravitazionali, come nel caso delle galassie a spirale viste, ma non e’ visibile ad occhio nudo. Fino ad oggi, sappiamo della sua esistenza solo attraverso misure indirette, cioe’ attraverso gli effetti che produce.

Quali sono le ipotesi per la materia oscura?

L’ipotesi principale ‘e che la maggior parte della materia oscura sia composta da materia non barionica molto massiva. Ci si riferisce a questa categoria come WIMP, cioe’ “particelle massive debolmente interagenti”. Cosa significa debolmente interagenti? Semplicemente che questo genere di materia non reagisce facilmente con la materia barionica. Nonostante questo, le WIMP avrebbero una massa molto elevata e dunque una forte interazione gravitazionale.Il fatto che sia poco interagente, rende la sua osservazione molto difficile, dal momento che non emette a nessuna lunghezza d’onda e dunque non e’ visibile neanche fuori dal visibile.

Spesso sentite parlare di WIMP anche come neutralini, neutrini massivi, assioni, ecc. Questi sono solo i nomi di alcune particelle predette nella categoria delle WIMP e su cui si sta incentrando la ricerca. Sotto questo aspetto, si cerca appunto di identificare la materia oscura in diversi modi. I principali sono cercando di produrla negli acceleratori di particelle, oppure cercando di rivelare i prodotti, barionici questa volta, dunque visibili, prodotti nell’interazione tra particelle di materia oscura.

Spero di essere stato abbastanza chiaro nella trattazione, ma soprattutto spero che questi pochi concetti permettano di capire meglio l’articolo che stiamo discutendo sulla presunta scoperta di un pianeta di materia oscura in rotta di collisione con noi.

La divulgazione della scienza passa anche attraverso argomenti come questo. Partire dalle profezie del 2012, ci consente di divulgare la vera scienza e di mostrare argomenti attuali e ancora in corso di investigazione scientifica. Per leggere un libro divulgativo semplice e adatto a tutti, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.

Venerdi finisce il mondo!

19 Dic

Che dire? Il titolo promette molto bene. In realta’, il titolo cosi’ sensazionalistico non e’ farina del mio sacco, ma quello che un nostro lettore ci ha segnalato e che potevate leggere oggi sul giornale “Notizia Oggi Vercelli”. Trovate la segnalazione nei commenti di questo post:

Scontro Terra-Nibiru a Luglio?

e potete leggere la notizia di cui vi voglio parlare seguendo questo link:

Notizia oggi Vercelli

Ora, dal momento che la visione di questo articolo ha scatenato non pochi sospetti ed ansie, credo sia giusto prendere sul serio la cosa ed analizzare i diversi punti portati come tesi in questo articolo.

Iniziamo proprio la nostra analisi dalla prima riga. “Federico Caldera, consulente scientifico della NASA, bla bla”. Chi e’ Federico Caldera? Assolutamente non lo so! Come potete verificare da soli, non si trova nessun riferimento su web a questo tizio, ne’ tantomeno alla sua professione di consulente scientifico. Anche cercando direttamente sul sito NASA e guardando tra i dipendenti, consulenti, ecc, non vi e’ nessuna traccia di Federico Caldera.

Il telescopio spaziale WISE

Il telescopio spaziale WISE

Gia’ questo ci insospettisce moltissimo. La notizia, che avrebbe come fonte la NASA, viene data da uno che non esiste o che non e’ un consulente NASA.

Nonostante questo, andiamo avanti nelle lettura dell’articolo e vediamo cosa dice.

“Nel lugio 2011, il telescopio della NASA WISE avrebbe rivelato uno sciame di anomalie gravitazionali in rotta di collisione con la Terra”.

Attenzione, WISE e’ veramente un telescopio della NASA che opera nella regione dell’infrarosso, e di cui abbiamo parlato in questi post:

Scontro Terra-Nibiru a Luglio?

Finalmente le foto di Nibiru!

Peccato che WISE sia stata lanciato in orbita nel novembre 2009 e la missione sia durata 10 mesi in tutto. Questo significa che nel 2011, la missione era gia’ conclusa e dunque WISE era spento e senza energia elettrica. Dopo questa, abbiamo gia’ capito che si tratta di una bufala colossale, ma voglio lo stesso andare avanti per mostrare tutto il ragionamento, ma soprattutto perche’ una notizia del genere ci consente di parlare di argomenti scientifici reali, non ancora trattati.

Premesso che WISE era spento nel 2011, leggiamo che si sarebbero osservate una scia di anomalie gravitazionali. Cosa sarebbe una scia di anomalie gravitazionali? Come visto in questi articoli:

Storia astronomica di Nibiru

Nibiru: la prova del trattore gravitazionale

parliamo di anomalie gravitazionali per descrivere l’influenza di un corpo estraneo in un sistema stabile sotto l’effetto dell’attrazione gravitazionale. Mi spiego meglio. Prendiamo come esempio il Sistema Solare. I pianeti orbitano su traiettorie precise dettate dall’interazione gravitazionale con il Sole, principale, ma anche modificate dalla presenza degli altri pianeti. Se ora inserite un corpo nuovo nel Sistema, la massa di questo modifichera’ l’equilibrio gravitazionale, scombussolando la situazione preesistente. Queste sono le anomalie grvitazionali. Capite bene parlare di una scia di anomalie, non significa assolutamente nulla dal punto di vista scientifico. Inoltre, le anomalie, per definizione, non collidono con i pianeti, se proprio vogliamo, e’ il corpo che le provoca ad urtare qualcos’altro.

Proseguendo nella lettura, troviamo la solita trama complottista che vede come protagonista un file segretissimo e di cui si e’ venuti a conoscenza per un motivo che non si puo’ dire, la NASA che lo sa gia’ da tanti mesi, ecc. Ma attenzione perche’ poi arriviamo al piatto forte dell’articolo: “i corpi in rotta di collisione con la Terra sarebbero aggregati di materia oscura”!

Qui, si rasenta veramente la follia anche dal punto di vista fantascientifico.

Parallelamente a questo articolo, ho pubblicato anche quest’altro post:

La materia oscura

in cui ho cercato di spiegare in modo molto semplice cos’e’ la materia oscura e quali sono i punti su cui si sta concentrando la ricerca. Se non lo avete fatto, vi consiglio di leggere questo articolo a questo punto, prima di andare avanti nella lettura.

Cosa sappiamo sulla materia oscura? Sappiamo che, nell’ipotesi piu’ accreditata dalla scienza, esiste perche’ ne vediamo gli effetti. Al momento, non sappiamo di cosa si tratta, abbiamo varie ipotesi ma non una risposta definitiva. Bene, come potrebbe un qualcosa che non conosciamo formare una “palla” di materia oscura?

Capite bene che questo articolo, ripeto comparso su un giornale online, e’ stato scritto o per prendere in giro le profezie del 21/12, o da uno completamente ignorante in astronomia. Come visto nel post riportato, per la materia oscura parliamo di materia molto debolmente interagente. E’ assurdo pensare che particelle di questo tipo possano formare un sistema aggregato che si muove nell’universo.

Perche’ si parla di materia oscura? Semplice, perche’ in questo modo si concentra l’attenzione su un argomento ancora dibattuto dalla scienza e su cui la risposta defiitiva ancora manca. In questo modo si ottengono due risultati importanti. In primis, si alimenta il sospetto sulla scienza e sul complottismo sempre presente che vedrebbe scienza e governi andare a braccetto per salvare una piccola casta di eletti, ma, soprattutto, parlare di materia oscura alimenta il terrore nelle persone che sentono parlare di qualcosa completamente misterioso e di cui si sa veramente poco. Al solito, la non conoscenza di taluni argomenti genera mostri nella testa della gente.

Spero che il breve articolo sulla materia oscura, possa essere utile per dare a tutti un’infarinata su questi concetti e per evitare di cadere in tranelli, come questo articolo, del tutto campati in aria dal punto di vista scientifico.

Solo per completezza, la cosa peggiore dell’articolo e’ scrivere dove dovrebbero impattare questi corpi di materia oscura. Ma ci rendiamo conto di cosa significa? Anche se fosse, sarebbe impossibile calcolare le traiettorie in modo cosi’ preciso. Nell’articolo manca solo l’indirizzo esatto con via e numero civico dove impatteranno. Piu’ volte abbiamo parlato di traiettorie, trattando, ad esempio, di asteroidi:

2012 DA14: c.v.d.

E alla fine Nibiru e’ un asteroide

La cosa piu’ importante che abbiamo capito, e che ora siamo in grado di riconoscere, e’ l’impossibilita’ di fare un calcolo esattamente preciso dell’orbita completa di un corpo. Ogni interazione con un altro corpo, determina una variazione della  traiettoria, e questo rende senza dubbio impossibile calcolare con la precisione profetizzata nell’articolo gli eventuali punti di impatto con la Terra.

Come anticipato qualche giorno fa, pian piano che le idee catastrofiste sul 21/12 cedono il passo al ragionamento scientifico, dobbiamo aspettarci ancora qualche teoria assolutamente campata in aria e messa su internet solo per alimentare il sospetto e, nella peggiore delle ipotesi, la paura delle persone. Prima di credere a qualsiasi teoria, ragionate sempre con la vostra testa. Per un’analisi scientifica e seria di tutte le profezie del 2012, non perdete in libreria ”Psicosi 2012. Le risposte della scienza”.