Tag Archives: scelta

Ma questa crema solare …. come dobbiamo sceglierla?

30 Giu

Sempre alla nostra sezione:

– Hai domande o dubbi?

va il merito, ma ovviamente tutto il merito va a voi che rendete questo blog vivo ed interessante, di aver richiamato da una nostra cara lettrice una nuova interessantissima domanda. Questa volta però, vi preannuncio che l’argomento scelto è molto complesso nella sua apparente semplicità, oltre ad essere assolutamente in linea con il periodo dell’anno. Come potete leggere, la domanda riguarda le creme solari e tutte le leggende che girano, non solo in rete, e che da sempre abbiamo ascoltato.

Come anticipato, non è semplice cercare di trovare la giusta strada nella giungla di informazioni disponibili. Se provate a confrontare dieci fonti, troverete dieci versioni diverse: le creme solari devono essere usate. No, non devo essere usate. Il sole è malato. Il sole provoca il cancro. No, sono le creme che creano il cancro alla pelle. Insomma, di tutto di più, e non pensate di rifuggire nella frase: “mi metto sotto l’ombrellone”, perché, come vedremo, anche questo lascia filtrare alcune componenti dei raggi solari e, sempre scimmiottando quello che trovate in rete, vi può venire il cancro. Allora sapete che c’è? Me ne sto chiuso dentro casa fino a settembre! Va bene così? No, sicuramente non prendi il sole (e quindi non ti viene il cancro), ma non ti si fissa la vitamina D e quindi potresti soffrire di rachitismo.

Insomma, come la mettete la mettete, sbagliate sempre. Cosa fare allora? Sicuramente, in linea con il nostro stile, quello che possiamo fare è “andare con ordine” e provare a verificare quali e quante di queste affermazioni corrispondono al vero. Solo in questo modo potremo capire quale crema solare scegliere, come applicarla e quali sono i rischi che possiamo correre con l’esposizione al Sole.

Prima di tutto, non dobbiamo considerare i raggi solari come un’unica cosa, ma è necessario distinguere la radiazione che ci arriva. Questa suddivisione è essenziale perché l’interazione della nostra pelle con i fotoni emessi dal sole non è sempre uguale, ma dipende dalla lunghezza d’onda. Bene, in tal senso, possiamo distinguere la parte dei raggi solari che ci interessa in tre grandi famiglie, in particolare, per i nostri scopi, ci concentreremo sulla parte ultravioletta dello spettro, che è quella di interesse in questo campo.

La parte cosiddetta ultravioletta è quella con lunghezza d’onda immediatamente inferiore alla parte visibile. Normalmente, questa parte dello spettro viene divisa in UVA, con lunghezza d’onda tra 400 e 315 nanometri, UVB, tra 315 e 280 nanometri e UVC, tra 280 e 100 nanometri. Quando parliamo di tintarella o di danni provocati dalla radiazione solare, dobbiamo riferirci alla parte UV ed in particolare a queste 3 famiglie.

Bene, la componente più pericolosa della radiazione solare è quella degli UVC cioè con lunghezza d’onda minore. Perché? Sono radiazioni utilizzate come germicidi, ad esempio nella potabilizzazione dell’acqua, a causa del loro potere nel modificare il DNA e l’RNA delle cellule. Per nostra fortuna, questa componente della radiazione è completamente bloccata dallo strato di ozono che circonda la Terra. Di questo, e soprattutto dello stato di salute dello strato di ozono, abbiamo parlato in un post specifico:

– Che fine ha fatto il buco dell’ozono?

Per la parte più pericolosa dello spettro, quella degli UVC, possiamo dunque tirare un respiro di sollievo. Vediamo le altre due componenti.

Gli UVA, a causa della lunghezza d’onda maggiore, penetrano più a fondo nella pelle, promuovendo il rilascio di melanina e dunque l’abbronzatura. Che significa? Molto semplice, quando prendiamo il sole, la nostra pelle reagisce cercando di proteggersi autonomamente appunto rilasciando melanina. Questa sostanza serve a far scurire gli strati più superficiali della pelle appunto come protezione dai raggi. Riguardo ala dannosità? Su questo punto, purtroppo, non si ha ancora chiarezza. Per prima cosa, dobbiamo dire che l’esposizione crea meno danni a tempi brevi rispetto, come vedremo, a quella agli UVB. Questa componente però è una delle maggiori sospettate per i danni a lungo termine, connessi anche con l’insorgere di tumori alla pelle, e provoca un invecchiamento veloce della pelle. Gli UVA sono molto conosciuti da coloro che frequentano i centri estetici per sottoporsi alle “lampade”. Questi sistemi infatti hanno sistemi di illuminazione concentrati negli UVA appunto per promuovere un’abbronzatura rapida.

Per quanto riguarda gli UVB invece, si tratta della radiazione più pericolosa nell’immediato. Questa componente dello spettro solare infatti, è responsabile della classica “scottatura”, in alcuni casi vera e propria ustione, provocata da un’esposizione prolungata al Sole. Anche se potenzialmente dannosa, la radiazione UVB è comunque importante per il nostro organismo perché promuove la sintesi della vitamina D. Come è noto, in assenza di questo fondamentale processo possono insorgere casi di rachitismo, soprattutto in soggetti non ancora adulti.

Bene, abbiamo capito come è divisa la radiazione ultravioletta del sole e abbiamo finalmente capito a cosa si riferiscono tutti questi nomi che siamo soliti ascoltare o leggere riguardo la tintarella.

Passiamo dunque a parlare di creme solari. Cosa dobbiamo cercare? Perché? Quali sono i prodotti più indicati?

Ripensando a quanto scritto, viene evidente pensare che una buona crema debba proteggerci dagli UVA e UVB poiché per gli UVC ci pensa lo strato di ozono. Primo pensiero sbagliato! Quando acquistiamo una crema solare, che, come vedremo, offre una certa protezione, questo valore si riferisce alla sola componente B della radiazione. Perché? Semplice, come visto, gli UVB sono responsabili delle scottature immediate. Se ci proteggiamo da questa componente salviamo la pelle garantendo la tintarella. Questo è assolutamente falso, soprattutto pensando ai danni a lungo termine dati da un’esposizione troppo prolungata agli UVA.

Solo negli ultimi anni, sono comparse sul mercato creme con protezioni ad alto spettro. Fate bene attenzione a questa caratteristica prima di acquistare un qualsiasi prodotto. Una buona crema deve avere un fattore di protezione per gli UVA non inferiore ad 1/3 di quello garantito per gli UVB.

Ora però, anche seguendo quanto affermato, parliamo appunto di queste protezioni. Fino a qualche anno fa, ricordo benissimo gli scaffali dei negozi strapieni di creme solari con fattori di protezione, SPF cioè fattore di protezione solare, che andavano da 0 a qualcosa come 100. Già allora mi chiedevo, ma che significa zero? A che cosa serve una crema con protezione 0 e, allo stesso modo, protezione 100 o, come qualcuno scriveva “protezione totale”, significa che è come mettersi all’ombra?

Capite già l’assurdità di queste definizioni create solo ed esclusivamente a scopo commerciale. Fortunatamente, da qualche anno, è stata creata una normativa apposita per questo tipo di cosmetici aiutando il consumatore a comprendere meglio il prodotto in questione. Oggi, per legge, esistono solo 4 intervalli di protezione che sono: basso, medio, alto e molto alto. Questi intervalli, in termini numerici, possono essere compresi utilizzando la seguente tabella:

 

Protezione SPF

Bassa 6 – 10

Media 15 – 20 – 25

Alta 30 – 50

Molto alta 50+

Notiamo subito che sono scomparse quelle orribili, e insensate, definizioni “protezione zero” e “protezione totale”. Ma, in soldoni, cosa significa un certo valore di protezione? Se prendo una crema con SPF 30 è il doppio più efficace di una con SPF 15? In che termini?

Detto molto semplicemente, il valore numerico del fattore di protezione indica il tempo necessario affinché si creino scottature rispetto ad una pelle non protetta. Detto in questo modo, una SPF 15 significa che la vostra pelle si brucerà in un tempo 15 volte maggiore rispetto a quello che impiegherebbe senza quella crema. Dunque, anche con una crema protettiva posso scottarmi? Assolutamente si. In termini di schermo alla radiazione, il potere schermante non è assolutamente proporzionale allo SPF ma, come visto, solo ai tempi necessari per l’insorgere di scottature.

A questo punto, abbiamo capito cosa significa quel numerello che corrisponde al fattore di protezione, ma come fanno le creme a schermare effettivamente dai raggi solari?

Per rispondere a questa domanda, dobbiamo in realtà dividere la protezione in due tipi: fisico e chimico. La protezione fisica avviene in modo pressoché meccanico aumentando il potere riflettente della pelle. Per questo scopo, nelle creme solari sono presenti composti come il biossido di titanio e l’ossido di zinco, sostanze opache che non fanno altro che far riflettere verso l’esterno la radiazione solare che incide sul nostro corpo.

Primo appunto, secondo alcuni l’ossido di zinco potrebbe essere cancerogeno! Ma come, mi metto la crema per proteggermi dai raggi solari ed evitare tumori alla pelle e la crema crea tumori alla pelle? In realtà, come al solito, su questo punto si è fatta molta confusione, tanto terrorismo e si è corsi, per convenienza, a conclusioni affrettate. Alcune ricerche hanno mostrato come tessuti cosparsi di molecole di ossido di zinco e sottoposti ad irraggiamento UV possano sviluppare radicali liberi che a loro volta reagiscono con le cellule modificandone il DNA. Questo processo può portare alla formazione di melanomi, per la pelle, e di altri tumori, per le altre cellule. Ora, si tratta di studi preliminari basati su valori di irraggiamento più alti rispetto a quelli che normalmente possono derivare da un’esposizione, anche prolungata, anche nelle ore centrali della giornata, al Sole. Detto molto semplicemente, questi studi necessitano di ulteriori ricerche per poter definire margini di errore e valori corretti. Gli stessi autori di queste analisi preliminari si sono raccomandati di non male interpretare il risultato dicendo che le creme solari provocano il cancro alla pelle. In altre parole, si corrono più rischi non proteggendosi dal sole piuttosto che proteggendosi con una crema contenente ossido di zinco. Tra le altre cose, questa molecola è molto nota tra le mamme che utilizzano prodotti all’ossido di zinco per alleviare le ustioni da pannolino nei loro bambini.

Detto questo, abbiamo poi la protezione chimica. Come potete facilmente immaginare, in questo caso si tratta di una serie di molecole (oxibenzone, fenilbenzilimidazolo, acido sulfonico, butil metoxidibenzoilmetano, etilexil metoxicinnamato, ecc.) che hanno il compito di assorbire la radiazione solare e di cedere parte di questa energia sotto forma di calore. Perché possiamo trovare così tante molecole in una crema solare? Semplice, ognuna di queste è specifica per una piccola parte dello spettro di radiazione, sia UVA che UVB. Anche su queste singole molecole, ogni tanto qualcuno inventa storie nuove atte solo a fare terrorismo, molto spesso verso case farmaceutiche. Singolarmente, come nel caso dell’ossido di titanio, ci possono essere studi più o meno avanzati, più o meno veritieri, sulla pericolosità delle molecole. Anche qui però, molto spesso si tratta di effetti amplificati, ben oltre la normale assunzione attraverso la cute e, ripeto per l’ennesima volta, si rischia molto di più esponendosi al sole piuttosto che utilizzando creme solari.

Ennesima cavolata in voga fino a qualche anno fa e ora vietata: creme solari “water proof”, cioè creme resistenti completamente all’acqua. Ve le mettete una volta, fate quanti bagni volete e siete a posto. Ma secondo voi, è possibile qualcosa del genere? Pensate di spalmarvi una crema o di farvi un tatuaggio indelebile? Oggi, per legge, la dicitura water proof è illegale e ha lasciato spazio, al massimo, a “water resistant”, cioè resistente all’acqua. Una qualsiasi crema solare, a causa del bagno, del sudore, del contatto con il telo, tende a rimuoversi e, proprio per questo motivo, si consiglia di riapplicare la crema ogni 2-3 ore circa per garantire la massima protezione possibile.

Riassumendo, abbiamo capito che conviene, sempre ed in tutti i casi, utilizzare una crema solare protettiva, ma quale scegliere?

Molto brevemente, in questo caso, si deve valutare quello che è definito il proprio fenotipo. Come potete immaginare, si tratta di una serie di caratteristiche fisiche che determinano, in linea di principio, l’effetto dell’esposizione la Sole. Per poter determinare il proprio fenotipo, possiamo fare riferimento a questa tabella:

fenotipo

Ovviamente, per i valori più bassi (I e II) è consigliabile utilizzare una crema ad alto SPF, valore che può diminuire qualora fossimo meno soggetti a scottature ed ustioni.

Credo che a questo punto abbiamo un quadro molto più chiaro riguardo alla creme solari ed alla loro utilità. Ripeto, per l’ennesima volta, in ogni caso, proteggersi è sempre meglio che esporsi al sole senza nessuna protezione. Ultimo appunto, che vuole sfatare un mito molto diffuso, sotto l’ombrellone siamo comunque esposti alla radiazione solare. In primis, il tessuto di molti ombrelloni lascia passare buona parte dello spettro solare ma, soprattutto, la riflessione dei raggi solari, ad esempio ad opera della sabbia, raggiunge comunque un soggetto tranquillo e (falsamente) riparato sotto l’ombrellone. In genere, la riflessione dei raggi solari può incrementare, e anche molto, la quantità di radiazione a cui siamo esposti. Stando nell’acqua, ad esempio, abbiamo sia un’esposizione diretta ai raggi solari sia una indiretta dovuta ai raggi riflessi dalla superficie. Come potete immaginare questo amplifica molto l’esposizione.

Concludendo, utilizzate le creme solari ma, soprattutto, leggete bene le etichette prima di acquistare o, peggio ancora utilizzare, un qualsiasi prodotto. Ovviamente, qualsiasi prodotto diventa non efficace se unito alla nostra incoscienza. Se pensate di potervi spalmare una crema e stare come lucertole sotto il Sole dalle 10 del mattino al tramonto … forse questa spiegazione è stata inutile.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Cosa posso vedere con il mio telescopio?

10 Feb

Diverse volte sono stato contattato da persone che vorrebbero affacciarsi al mondo dell’astronomia. Molti hanno una passione del genere e un desiderio innato di poter osservare il cielo ingrandendo via via dettagli sempre piu’ piccoli. Inutile dire quanti di noi restano a bocca aperta guardando una foto spaziale scattata in giro per il cosmo e desiderano a loro volta osservare con i loro occhi la bellezza della natura.

Ora pero’, queste passioni spesso si scontrano un po’ con il problema economico ma, soprattutto, con la grande confusione che la scelta di un telescopio “domestico” puo’ portare. Siete mai entrati in un negozio dove si vendono telescopi? Avete visto quante tipologie di strumenti ci sono? Molto spesso, le persone restano spaventate da una tale scelta e non sanno cosa prendere.

Per superare questo blocco, dovete prima di tutto capire “cosa volete guardare”!

Ovviamente, si potrebbe fare il pensiero facile e dire quello che costa di piu’ e’ il piu’ “potente” o quello piu’ grande e’ sicuramente migliore. Purtroppo, non sempre e’ cosi’.

Visto che molte persone mi hanno contattato per chiedermi cosa distingue un telescopio da un altro, ho deciso di scrivere un breve articolo per spiegare non le diverse tipologie di telescopio, bensi’ la cosiddetta “risoluzione angolare” di questi strumenti.

Immaginiamo di avere un telescopio con lenti circolari. Quello che vogliamo capire e’ “qual e’ la minima distanza che posso osservare?”. Per rispondere dobbiamo introdurre la cosiddetta “risoluzione angolare”, cioe’ la minima distanza angolare tra due oggetti che possono essere distinti con il vostro telescopio:

R=1,22 L/D

Quando siete di fronte a sistemi ottici, quella che comanda e’ la diffrazione che, senza entrare in troppi tecnicismi, fa si che sotto un certo valore, due oggetti vengano confusi come uno solo perche’ assolutamnete indistinguibili tra loro. Nella formula della risoluzione angolare, compare ovviamente il diametro della lente, D, e la lunghezza d’onda, L, che dobbiamo osservare.

Detto tra noi, questa formula e’ poco manegevole per cui possiamo prima di tutto dimenticarci della dipendenza dalla lunghezza d’onda e prendere un valore medio per lo spettro visibile che, in fondo, e’ quello che vogliamo osservare. Inoltre, la risoluzione angolare che abbiamo introdotto e’ misurata in radianti, unita’ abbastanza scomoda in questo contesto. Per semplicita’, possiamo utilizzare una misura in arcosecondi dove 3600 arcsec equivalgono ad un grado. Facendo queste considerazioni, possiamo riscrivere la formula come:

R = 11.6 / D

Supponiamo dunque di acquistare un bel telescopio con lente da 30 cm, la nostra risoluzione angolare sara’:

R = 11.6/30 = 0,39 arcsec

Se ora con questo oggetto volessi guardare la luna, quale sarebbe la minima distanza che riuscirei a distinguere?

Per rispondere a questa domanda, e’ necessario introdurre un’ulteriore formula. Come potete immaginare, in questo caso dobbiamo convertire, in base alla distanza, l’apertura angolare con una distanza in metri. Tralasciando dipendenze di questa formula da parametri di poco interesse per il nostro caso, possiamo scrivere la distanza distinguibile come:

Dm = (R/206265) x Dl

Dove Dm e’ ovviamente la distanza minima osservabile e Dl e’, nel nostro caso, la distanza Terra-Luna. Supponendo una distanza media di 400000 Km, da portare in metri per inserirla nella formula, abbiamo, riprendendo la risoluzione del telescopio da 30 cm dell’esempio:

Dm = (0.39/206265) x 400000000 = 750 metri

Cioe’ la minima distanza che possiamo percepire e’ di 750 metri. Detto in altre parole, riuscite a distinguere dettagli separati tra loro da una distanza di almeno 750 metri. Anche se questo numero puo’ sembrare enorme vi permette di poter osservare dettagli impressonanti della Luna. Vi ricordo che un telescopio da 30 cm, e’ un bellissimo strumento che necessita di attenzioni particolari. Non abbiamo preso uno strumento completamente amatoriale o entry level per questo calcolo esemplificativo.

Altro aspetto interessante che spesso viene citato dai complottisti: se siamo veramente stati sulla Luna, perche’, ad esempio, il telescopio Hubble non e’ in grado di osservare il punto di atterraggio con tutta le cose lasciate dall’equipaggio? La domanda e’ di principio ben posta, pensate che addirittura il modulo di discesa e’ rimasto sul punto perche’ impossibile da riportare indietro.

Cerchiamo di analizzare, sulla base dei calcoli gia’ fatti, se fosse possibile osservare questo modulo sfruttando la lente di Hubble. In questo caso, abbiamo una lente di 2.4 metri che vuole osservare la superficie lunare. Quale sarebbe la minima distanza che potrebbe essere osservata?

Ripetendo il calcolo trovate una minima distanza di circa 100 metri. Considerando che il modulo di discesa ha un diametro intorno ai 10 metri, capite bene come sia impossibile distinguere dall’orbita di Hubble questo reperto storico sulla superifcie della Luna. Spero che questo ragionamento, a prescindere dalle altre dimostrazioni di cui abbiamo gia’ parlato, sia sufficiente a capire, per chi ancora oggi crede che non siamo stati sulla Luna, come sia impossibile osservare dalla Terra il punto di atterraggio.

Concludendo, per comprendere il potere risolutivo di uno strumento ottico, e questo ragionamento vale sia per un telescopio che per un microscopio, e’ sufficiente conoscere un po’ di ottica e calcolare agevolmente la minima distanza osservabile Come visto, la grandezza della lente e’ uno dei parametri piu’ importanti da considerare. Tenete a mente questi risultati qualora decideste di acquistare un telescopio per dilettarvi in osservazioni spaziali. Ovviamente, come detto, prima di decidere la tipologia di telescopio, pensate sempre prima a cosa volete andare ad osservare e, dunque, a che distanza vi state approcciando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Antichi segreti di Marte

13 Dic

In diversi articoli abbiamo parlato del rover Curiosity e della sua importante missione su Marte:

Curiosity: scoperta sensazionale?

– Curiosity e gli UFO

– Curiosity e gli UFO: dopo le foto, il video. 

Ecco perche’ Curiosity non trova gli alieni!

Ecco la scoperta di Curiosity

Come sappiamo bene, purtroppo, molte di queste volte lo abbiamo dovuto fare per smentire storie fantastiche che si sono rincorse su internet e che parlavano di UFO, resti di civilta’ antiche, ecc. Tutte notizie infondate che non fanno altro che distogliere l’attenzione da questa importante missione e dalle mille soprprese che sta rivelando ai ricercatori coinvolti nel progetto.

Anche questa volta, dobbiamo partire da una notizie distorta che molto sta facendo discutere in rete, per arrivare poi alla scienza vera e propria.

Di cosa si tratta?

Partiamo dalle basi, come sappiamo Curiosity e’ a spasso nel cratere Gale con tutto il suo carico di strumentazione scientifica di tipo geologico. In particolare, lo scopo della missione era quello di fare delle analisi con una sensibilita’ non possibile prima prendendo in esame campioni di terreno e roccia. Cosa vogliamo imparare? Prima di tutto, analisi di questo tipo ci permettono di capire meglio la struttura del pianeta, la sua origine, e avere un’idea della storia geologica che Marte ha attraversato nel corso degli anni. Oltre a questo, un’analisi precisa del terreno consente di determinare se c’e’ o meno la presenza di elementi chimici che possono rappresentare dei marker per la vita sul pianeta rosso. Fate attenzione, parliamo di marker per la vita, non di vita. Cioe’? Come e’ ovvio, ci sono degli elementi chimici che possono dare indicazioni molto precise sulla vita o sulla presenza di questa in passato. L’attivita’ metabolica, la decomposizione cellulare, ecc portano ad aumentare la presenza di determinati elementi piuttosto che di altri.

Tenete a mente queste parole perche’ saranno la chiave di lettura per comprendere meglio la notizia di cui stiamo parlando.

Perche’ Curiosity e’ stato inviato proprio nel cratere Gale? Ovviamente, il luogo non e’ stato scelto a caso, ma ponderato attentamente. Come visto negli articoli precedenti, questa depressione di Marte rappresenta uno dei posti migliori per la ricerca geologica e chimica del terreno. Inoltre, nella zona sono presenti alture che consetono una visione ad ampio raggio di gran parte di Marte, consentendo, qualora ncessario, una variazione del percorso qualora si evidenziassero zone di maggior interesse.

Bene, a questo punto siamo pronti a parlare della notizia.

Curiosity si trova ora in una zona molto particolare del cratere Gale nota come Yellowknife Bay. Questa e’ una depressione vicino all’equatore di Marte in cui si pensa che in passato ci fosse un lago con acque poco profonde. In particolare, la profondita’ delle acque e’ stiamata non oltre i 5 metri, ma la cosa importante e’ che, dalle analisi fatte, si pensa che queste acque, quando erano presenti, avevano caratteristiche molto particolari. Prima di tutto, erano praticamente ferme, poi erano caratterizzate da una bassa salinita’ ed erano raggiunte da una buona radiazione solare.

Curiosity si e’ concentrato in particolare su due rocce trovate nell’antico fondale del lago, chiamate John Klein e Cumberland. Dall’analisi di queste rocce sono emersi elementi come Carbonio, idrogeno, zolfo, azoto e fosforo.

Cosa significa questo?

Dal punto di vista scientifico, la presenza e la concentrazione di questi elementi significa che in passato erano presenti condizioni adatte per la formazione della vita.

Fate attenzione, come e’ stato interpretato questo da molti siti internet che hanno riportato la notizia? Semplice, trovati segni di vita su Marte! Signori, alla luce di quanto detto, capite molto bene come il sensazionalismo scientifico su argomenti di questo tipo regni sempre sovrano. E’ possibile questo? Ovviamente no. Tra l’altro, Curiosity ha una strumentazione di tipo geologico. Le analisi possibili sono sulle rocce per determinare caratteristiche chimico fisiche come, ad esempio, la concentrazione di elementi da analisi spettroscopiche. Nella dotazione del rover mancano gli strumenti per cercare molecole organiche, cioe’, in soldoni, tracce di vita passata o presente. Questo “particolare” lo avevamo commentato anche negli articoli precedenti parlando appunto sempre della distorsione mediatica sulle scoperte del rover.

Cosa succedera’ ora?

Dal punto di vista scientifico, quanto emerso e’ senza dubbio eccitante. Prima di tutto e’ stata dimostrata, qualora ci fossero ancora dubbi, l’importanza della missione e la correttezza del luogo scelto per le analisi. Inoltre, questa scoperta offre anche nuove motivazioni alla futura missione Exomars prevista per i prossimi anni. Questo nuovo rover, in cui molta tecnologia e’ di origine italiana, sara’ anche dotato di una trivella di 2 metri. Inoltre, ci saranno apparecchiature fondamentali proprio pere la ricerca di molecole organiche sia presenti che future.

Concludendo, Curiosity ha rivelato una zona di Marte con carattetristiche uniche al momento per lo studio della vita passata sul pianeta. La strumentazione presente consente di determinare tracce e concentrazioni di elementi chimici fondamentali per la vita. In futuro, la missione Exomars consentira’ di fare analisi specifiche su questi punti per determinare se in passato fossero presenti forme di vita biologica sul pianeta rosso. Come potete capire, la ricerca e la curiosita’ sui pianeti del sistema solare non e’ assolutamente morta e ancora tante sorprese ci deve rivelare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Aerei: come fanno a volare e sicurezza

13 Nov

Attraverso i commenti del  blog, un nostro caro lettore ci ha fatto una domanda, a suo dire, apparentemente molto semplice ma che, come potete verificare molto facilmente, genera tantissima confusione. In sintesi la domanda e’ questa: perche’ si dice che volare in aereo e’ cosi sicuro?

Per poter rispondere a questa domanda, si devono ovviamente scartabellare i numeri ufficiali degli incidenti aerei. Questo ci consente di poter verificare la probabilita’ di un incidente aereo rapportato, ad esempio, a quelli ben piu’ noti automobilistici. Partendo da questa domanda, mi sono pero’ chiesto qualcosa in piu’: sappiamo veramente perche’ gli aerei riescono a volare? Anche questa potrebbe sembrare una domanda molto semplice. Si tratta di una tecnologia conosciuta da diversi decenni eppure, incredibile ma vero, non tutti sanno perche’ questi enormi oggetti riescono a stare in aria. Facendo un giro su internet, ho scoperto come anche molti siti di divulgazione della scienza fanno delle omissioni o dicono cose formalmente sbagliate.

Detto questo, credo sia interessante affrontare un discorso piu’ ampio prima di poter arrivare a rispondere alla domanda sugli incidenti aerei.

Partiamo dalle basi, come sapete ruolo fondamentale nel volo aereo e’ quello delle ali. Mentre il motore spinge in avanti l’apparecchio, le ali hanno la funzione di far volare l’aereo. Ora, per poter restare in quota, o meglio per salire, senza dover parlare di fisica avanzata, c’e’ bisogno di una forza che spinga l’aereo verso l’alto e che sia maggiore, o al limite uguale per rimanere alle stessa altezza, del peso dell’aereo stesso.

Come fanno le ali ad offrire questa spinta verso l’alto?

Forze agenti sull'ala durante il volo

Forze agenti sull’ala durante il volo

Tutto il gioco sta nel considerare l’aria che scorre intorno all’ala. Vediamo la figura a lato per capire meglio. L’aria arriva con una certa velocita’ sull’ala, attenzione questo non significa che c’e’ vento con questa velocita’ ma, pensando al moto relativo dell’aereo rispetto al suolo, questa e’ in prima approssimazione la velocita’ stessa con cui si sta spostando l’aereo. Abbiamo poi il peso dell’aereo che ovviamente e’ rappresentato da una forza che spinge verso il basso. D e’ invece la resistenza offerta dall’ala. Vettorialmente, si stabilisce una forza L, detta “portanza”, che spinge l’aereo verso l’alto.

Perche’ si ha questa forza?

Come anticipato, il segreto e’ nell’ala, per la precisione nel profilo che viene adottato per questa parte dell’aereo. Se provate a leggere la maggiorparte dei siti divulgativi, troverete scritto che la forza di portanza e’ dovuta al teorema di Bernoulli e alla differenza di velocita’ tra l’aria che scorre sopra e sotto l’ala. Che significa? Semplicemente, l’ala ha una forma diversa nella parte superiore, convessa, e inferiore, quasi piatta. Mentre l’aereo si sposta taglia, come si suole dire, l’aria che verra’ spinta sopra e sotto. La differenza di forma fa si che l’aria scorra piu’ velocemente sopra che sotto. Questo implica una pressione maggiore nella parte inferiore e dunque una spinta verso l’alto. Per farvi capire meglio, vi mostro questa immagine:

Percorso dell'aria lungo il profilo alare

Percorso dell’aria lungo il profilo alare

Come trovate scritto in molti siti, l’aria si divide a causa del passaggio dell’aereo in due parti. Vista la differenza di percorso tra sopra e sotto, affinche’ l’aria possa ricongiungersi alla fine dell’ala, il fluido che scorre nella parte superiore avra’ una velocita’ maggiore. Questo crea, per il teorema di Bernoulli, la differenza di pressione e quindi la forza verso l’alto che fa salire l’aereo.

Spiegazione elegante, semplice, comprensibile ma, purtroppo, fortemente incompleta.

Perche’ dico questo?

Proviamo a ragionare. Tutti sappiamo come vola un aereo. Ora, anche se gli aerei di linea non lo fanno per ovvi motivi, esistono apparecchi acrobatici che possono volare a testa in giu’. Se fosse vero il discorso fatto, il profilo dell’ala in questo caso fornirebbe una spinta verso il basso e sarebbe impossibile rimanere in aria.

Cosa c’e’ di sbagliato?

In realta’ non e’ giusto parlare di spiegazione sbagliata ma piuttosto bisogna dire che quella data e’ fortemente semplificata e presenta, molto banalmente come visto, controesempi in cui non e’ applicabile.

Ripensiamo a quanto detto: l’aria scorre sopra e sotto a velocita’ diversa e crea la differenza di pressione. Chi ci dice pero’ che l’aria passi cosi’ linearmente lungo l’ala? Ma, soprattutto, perche’ l’aria dovrebbe rimanere incollata all’ala lungo tutto il percorso?

La risposta a queste domande ci porta alla reale spiegazione del volo aereo.

L'effetto Coanda sperimentato con un cucchiaino

L’effetto Coanda sperimentato con un cucchiaino

Prima di tutto, per capire perche’ l’aria rimane attaccata si deve considerare il profilo aerodinamico e il cosiddetto effetto Coanda. Senza entrare troppo nella fisica, questo effetto puo’ semplicemente essere visualizzato mettendo un cucchiaino sotto un lieve flusso d’acqua. Come sappiamo bene, si verifica quello che e’ riportato in figura. L’acqua, che cosi’ come l’aria e’ un fluido, scorre fino ad un certo punto lungo il profilo del metallo per poi uscirne. Questo e’ l’effetto Coanda ed e’ quello che fa si che l’aria scorra lungo il profilo alare. Questo pero’ non e’ ancora sufficiente.

Nella spiegazione del volo utilizzando il teorema di Bernoulli, si suppone che il moto dell’aria lungo l’ala sia laminare, cioe’, detto in modo improprio, “lineare” lungo l’ala. In realta’ questo non e’ vero, anzi, un moto turbolento, soprattutto nella parte superiore, consente all’aria di rimanere maggiormente attaccata evitando cosi’ lo stallo, cioe’ il distaccamento e la successiva diminuzione della spinta di portanza verso l’alto.

In realta’, quello che avviene e’ che il moto dell’aria lungo il profilo compie una traiettoria estremamente complicata e che puo’ essere descritta attraverso le cosiddette equazioni di Navier-Stokes. Bene, allora scriviamo queste equazioni, risolviamole e capiamo come si determina la portanza. Semplice a dire, quasi impossibile da fare in molti sistemi.

Cosa significa?

Le equazioni di Navier-Stokes, che determinano il moto dei fluidi, sono estremamente complicate e nella maggior parte dei casi non risolvibili esattamente. Aspettate un attimo, abbiamo appena affermato che un aereo vola grazie a delle equazioni che non sappiamo risolvere? Allora ha ragione il lettore nel chiedere se e’ veramente sicuro viaggiare in aereo, praticamente stiamo dicendo che vola ma non sappiamo il perche’!

Ovviamente le cose non stanno cosi’, se non in parte. Dal punto di vista matematico e’ impossibile risolvere “esattamente” le equazioni di Navier-Stokes ma possiamo fare delle semplificazioni aiutandoci con la pratica. Per poter risolvere anche in modo approssimato queste equazioni e’ necessario disporre di computer molto potenti in grado di implementare approssimazioni successive. Un grande aiuto viene dalla sperimentazione che ci consente di determinare parametri e semplificare cosi’ la trattazione matematica. Proprio in virtu’ di questo, diviene fondamentale la galleria del vento in cui vengono provati i diversi profili alari. Senza queste prove sperimentali, sarebbe impossibile determinare matematicamente il moto dell’aria intorno al profilo scelto.

In soldoni, e senza entrare nella trattazione formale, quello che avviene e’ il cosiddetto “downwash” dell’aria. Quando il fluido passa sotto l’ala, viene spinto verso il basso determinando una forza verso l’alto dell’aereo. Se volete, questo e’ esattamente lo stesso effetto che consente agli elicotteri di volare. In quest’ultimo caso pero’, il downwash e’ determinato direttamente dal moto dell’elica.

Detto questo, abbiamo capito come un aereo riesce a volare. Come visto, il profilo dell’ala e’ un parametro molto importante e, ovviamente, non viene scelto in base ai gusti personali, ma in base ai parametri fisici del velivolo e del tipo di volo da effettuare. In particolare, per poter mordere meglio l’aria, piccoli velivoli lenti hanno ali perfettamente ortogonali alla fusoliera. Aerei di linea piu’ grandi hanno ali con angoli maggiori. Al contrario, come sappiamo bene, esistono caccia militari pensati per il volo supersonico che possono variare l’angolo dell’ala. Il motivo di questo e’ semplice, durante il decollo, l’atterraggio o a velocita’ minori, un’ala ortogonale offre meno resitenza. Al contrario, in prossimita’ della velocita’ del suono, avere ali piu’ angolate consente di ridurre al minimo l’attrito viscoso del fluido.

Ultimo appunto, i flap e le altre variazioni di superficie dell’ala servono proprio ad aumentare, diminuire o modificare intensita’ e direzione della portanza dell’aereo. Come sappiamo, e come e’ facile immaginare alla luce della spiegazione data, molto importante e’ il ruolo di questi dispositivi nelle fasi di decollo, atterraggio o cambio quota di un aereo.

In soldoni dunque, e senza entrare in inutili quanto disarmanti dettagli matematici, queste sono le basi del volo.

Detto questo, cerchiamo di capire quanto e’ sicuro volare. Sicuramente, e come anticipato all’inizio dell’articolo, avrete gia’ sentito molte volte dire: l’aereo e’ piu’ sicuro della macchina. Questo e’ ovviamente vero, se consideriamo il numero di incidenti aerei all’anno questo e’ infinitamente minore di quello degli incidenti automobilistici. Ovviamente, nel secondo caso mi sto riferendo solo ai casi mortali.

Cerchiamo di dare qualche numero. In questo caso ci viene in aiuto wikipedia con una pagina dedicata proprio alle statistiche degli incidenti aerei:

Wiki, incidenti aerei

Come potete leggere, in media negli ultimi anni ci sono stati circa 25 incidenti aerei all’anno, che corrispondono approssimativamente ad un migliaio di vittime. Questo numero puo’ oscillare anche del 50%, come nel caso del 2005 in cui ci sono state 1454 vittime o nel 2001 in cui gli attentati delle torri gemelle hanno fatto salire il numero. La maggiorparte degli incidenti aerei sono avvenuti in condizioni di meteo molto particolari o in fase di atterraggio. Nel 75% degli incidenti avvenuti in questa fase, gli aerei coinvolti non erano dotati di un sistema GPWS, cioe’ di un sistema di controllo elettronico di prossimita’ al suolo. Cosa significa? Un normale GPS fornisce la posizione in funzione di latitudine e longitudine. Poiche’ siamo nello spazio, manca dunque una coordinata, cioe’ la quota a cui l’oggetto monitorato si trova. Il compito del GPWS e’ proprio quello di fornire un sistema di allarme se la distanza dal suolo scende sotto un certo valore. La statistica del 75% e’ relativa agli incidenti avvenuti tra il 1988 e il 1994. Oggi, la maggior parte degli aerei civili e’ dotato di questo sistema.

Solo per concludere, sempre in termini statistici, e’ interessante ragionare, in caso di incidente, quali siano i posti lungo la fusoliera piu’ sicuri. Attenzione, prendete ovviamente questi numeri con le pinze. Se pensiamo ad un aereo che esplode in volo o che precipita da alta quota, e’ quasi assurdo pensare a posti “piu’ sicuri”. Detto questo, le statistiche sugli incidenti offrono anche una distribuzione delle probabilita’ di sopravvivenza per i vari posti dell’aereo.

Guardiamo questa immagine:

Statistiche della probabilita' di sopravvivenza in caso di incidente aereo

Statistiche della probabilita’ di sopravvivenza in caso di incidente aereo

Come vedete, i posti piu’ sicuri sono quelli a prua, cioe’ quelli piu’ vicini alla cabina di pilotaggio ma esiste anche una distribuzione con picco di sicurezza nelle file centrali vicino alle uscite di emergenza. Dal momento che, ovviamente in modo grottesco, i posti a prua sono quelli della prima classe, il fatto di avere posti sicuri anche dietro consente di offrire una minima ancora di salvataggio anche ad i passeggeri della classe economica.

Concudendo, abbiamo visto come un aereo riesce a volare. Parlare solo ed esclusivamente di Bernoulli e’ molto riduttivo anche se consente di capire intuitivamente il principio del volo. Questa assunzione pero’, presenta dei casi molto comuni in cui non e’ applicabile. Per quanto riguarda le statistiche degli incidenti, l’aereo resta uno dei mezzi piu’ sicuri soprattutto se viene confrontato con l’automobile. Come visto, ci sono poi dei posti che, per via della struttura ingegneristica dell’aereo, risultano statisticamente piu’ sicuri con una maggiore probabilita’ di sopravvivena in caso di incidente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Tribale, artistico o con microfono integrato?

11 Nov

Negli anni ’90, abbiamo assistito al boom dei telefoni cellulari di largo consumo. Questi apparecchi sono entrati prepotentemente nella nostra vita, diventando ormai un gadget posseduto da tutti. Come forse ricorderete, i primi modelli “popolari” erano abbastanza grandi, con schermi monocromatici e senza telecamera. Poi, si e’ andati verso la miniaturizzazione con cellulari che di anno in anno diventavano sempre piu’ piccoli. Oggi, invece, stiamo andando in controtendenza, con gli smartphone che assomigliano sempre di piu’ a pc portatili e che, molto spesso, non entrano neanche in una tasca. Ovviamente, il discorso dimensioni e’ molto riduttivo. In questo settore si e’ assistito ad una esplosione di funzioni e tecnologia difficilmente reperibile in altri campi.

A cosa potrebbe puntare ora il mercato?

Gia’ da qualche anno, i grandi produttori sono impegnati su due fronti: la messa in sicurezza delle informazioni ma anche ad integrare questi dispositivi direttamente con il corpo umano.

Perche’ parlo di questo?

Negli ultimi giorni e’ trapelata la notizia di una richiesta di brevetto fatta da Motorola che, come saprete, ha di recente venduto la divisione mobile a Google. Questo passaggio ha ridato nuova linfa ad un’azienda, protagonista assoluta fino a qualche anno fa, e che ultimamente era caduta in disgrazia.

Di cosa si tratta?

Il dispositivo pensato e’ piu’ o meno questo: si tratta di un tatuaggio da applicare sul collo e che avrebbe la funzione di microfono.

Fantascienza?

Assolutamente no. Se ci pensate, esistono gia’ da diversi anni circuiti completamente passivi, cioe’ senza alimentazione, che, in modi diversi, possono essere attivati da parti attive. In tal senso, il tatuaggio pensato da motorola sarebbe solo un circuito passivo messo in oscillazione dalle vibrazioni della laringe e che trasmetterebbe questi segnali ad uno smartphone. I due dispositivi potrebbero comunicare tra loro mediante connessioni senza fili.

Quali sono i vantaggi?

Alcuni molto semplici, senza dover toccare nulla, potremmo solo parlare per trasmettere la nostra voce. Inoltre, attivandosi solo con le vibrazioni della gola, questo dispositivo sarebbe del tutto immune dai rumori ambientali. Pensiamoci un attimo, anche se ci troviamo in un luogo affollato e pieno di gente, il nostro cellulare trasmetterebbe soltanto la nostra voce, pulendo completamente il segnale ascoltato dall’altra parte della cornetta.

Il tatuaggio con funzione di microfono

Il tatuaggio con funzione di microfono

Se ci pensiamo bene, questo dispositivo non ha nulla di straordinario dal punto di vista tecnologico. La sua particolarita’ principale e’ l’applicazione di soluzioni conosciute in campi diversi.

Secondo Motorola, si potrebbe parlare o di un tatuaggio, ovviamente non indelebile, oppure di un adesivo da applicare sulla pelle.

Per il momento, come anticipato, si tratta solo di una richiesta di brevetto, ma questo non esclude che questa soluzione possa essere applicata prossimamente sui dispositivi mobili grazie alle caratteristiche e ai vantaggi che abbiamo accennato prima.

Motorola, cosi’ come altri grandi produttori, sono gia’ impegnati da anni in ricerche di questo tipo. Sempre la compagnia di recente acquisita da Google, ha proposto durante quest’anno, un altro tipo di tatuaggio da applicare sulla pelle. Questa volta si trattarebbe di un circuito risonante pensato per custodire tutte le nostre password e codici personali. Anche in questo caso, pensandoci, la cosa sarebbe molto comoda. Pensate solo a quanti codici e password dobbiamo tenere a mente oggi come oggi. Avere un qualcosa sempre con noi e con tutte le chiavi di accesso potrebbe sicuramente essere molto utile. Purtroppo, come non pensarci, in questo caso viene naturale considerare anche il discorso sicurezza. Immaginate cosa succederebbe se qualcuno volesse rubare le password contenute in un tatuaggio sulla vostra pelle.

Pillola Proteus

Pillola Proteus

Sulla stessa base, vi e’ anche un ‘altra proposta in tema sicurezza, la cosiddetta Proteus. Si tratta di una piccola pillola da ingerire e che contiene in un minuscolo circuito. Una volta nel nostro stomaco, Proteus verrebbe alimentato dai succhi gastrici e trasformerebbe tutto il nostro corpo in un “portachiavi elettronico”. Memorizzato nel circuito ci sarebbe infatti un databse con tutte le nostre password che questa volta verrebbero gelosamente custodite dentro di noi.

Come detto, anche se questi possono sembrare discorsi fantascientifici, si tratta di studi reali che i grandi costruttori stanno facendo ed in cui stanno investendo ingenti capitali. Trasformare il nostro corpo in un dispositivo tecnologico potrebbe far sorgere qualche dubbio in alcune persone ma, credo personalmente, che sara’  la condizione a cui si puntera’ per i prossimi anni. Al solito, non ci resta’ che aspettare e vedere cosa il mercato ci offrira’ nei prossimi anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Coltivare senza terra

29 Ott

Coltivare senza terra? Due sono le possibilita’: o siamo impazziti o siamo in vena di scherzi.

Pensateci bene, una delle tecniche piu’ antiche di sostentamento dell’uomo, l’agricoltura, attraversa da diverso tempo una profonda crisi. Coltivare la terra non e’ affatto semplice e, come e’ noto, non e’ neanche redditizio. Tanta fatica, lavoro e poi? Basta una grandinata, un parassita, un periodo di siccita’ e tutto il lavoro viene buttato al vento con conseguente perdita del raccolto e dell’investimento fatto.

Queste sono considerazioni oggettive con cui chi coltiva la terra e’ abituato a vivere ogni giorno.

Altro pensiero, l’agricoltura e’ una tecnica antichissima e’ vero ma, a parte macchinari tecnologicamente avanzati, questa tecnica e’ rimasta uguale a se stessa per secoli. Fate una buca, ci mettete un seme, annaffiate e con l’aiuto del sole avete la vostra pianta o, meglio ancora, un frutto commestibile.

Possibile che non esiste niente di nuovo?

In realta’ si. Anche in questo campo, si sono condotti, e sono ancora in corso, diversi studi mirati proprio a semplificare la vita e rendere l’agricoltura meno rischiosa e piu’ redditizia. Ovviamente, non mi sto riferendo a bombe chimiche in grado di trasformare le piante in qualcosa di resistente o a farle crescere piu’ velocemente e piu’ grandi.

Quello di cui vorrei parlarvi in questo articolo e’ la tecnica di coltivazione senza terra.

Come e’ possibile?

Questa tecnica e’ nota con il nome di idroponica. Come anticipato, le piante non crescono piu’ nella terra ma su substrati inerti. Attenzione, la terra serve a dare alle piante le sostanze nutritive di cui ha bisogno. Senza la terra dove le prendiamo? In questa tecnica, le radici delle piante crescono immerse in una soluzione a pH controllato ricca di sostanze nutritive. Non si tratta di ritrovati chimici sintetici, ma di sostanze naturali concentrate da cui la pianta riceve tutto il nutrimento.

Nell’idroponica, si utilizzano substrati inerti come lana di roccia o argilla espansa che vengono utilizzati per far aggrappare le radici delle piante. Come nelle normali coltivazioni, la crescita delle piante prevede tre momenti salienti: germinazione, crescita, fioritura. Nella prima fase, le radici vengono fatte crescere direttamente immerse nella sostanza nutriente per poi crescere ed arrivare fino alla fioritura, o al frutto.

Esempio di sistema idroponico

Esempio di sistema idroponico

Con questa tecnica, si utilizza un sistema di pompe per far circolare l’acqua in modo da poter sempre irrigare le radici ma anche per recuperare i reflussi da poter riutilizzare nel circuito. In questo modo si ottiene un notevole risparmio di acqua. Pensate che da stime fatte, per far crescere una singola pianta serve un volume circa 1/10 rispetto alle normali tecniche interrate.

In rete trovate gia’ molti sistemi pronti da acquistare e montare in casa. La tecnica idroponica nasce infatti proprio per favorire la coltivazione indoor di piante commestibili. L’investimento iniziale, che ovviamente dipende dal numero di piante che si vogliono far crescere, non e’ proprio economico ma si tratta, appunto, di un investimento iniziale. Come potete immaginare questo kit si compone di una vasca per l’acqua, i liquidi nutritivi per le piante e i circuiti idrici di flusso e reflusso per il recupero.

Con l’idroponia si possono far crescere moltissime varieta’ di piante tra cui, per fare un esempio, lattuga, pomodori, fragole, fagiolini. Insomma, un vero e proprio orto domestico da poter realizzare con spazi e irrigazione molto ridotti.

Quali sono gli svantaggi di questa tecnica rispetto a quella tradizionale?

Ovviamente, e’ necessario un continuo monitoraggio delle piante e del sistema. Il fatto di non avere terra consente di ridurre al minimo la possibilita’ di crescita batterica e di microorganismi dannosi, ma la presenza costante di acqua potrebbe favorire, se non controllate precisamente il pH della soluzione, la crescita di alghe dannose per le piante. Ovviamente, questi inconvenienti sono governabili con una buona manutenzione ed un controllo costante del sistema. Come anticipato, questa tecnica sta cominciando a prendere molto piede perche’ economica su lungo periodo ma soprattutto in grado di massimizzare il rapporto produzione/spesa. In periodi di crisi come questo, sicuramente molti stanno cominciando a rivalutare la possibilita’ di una piccola produzione domestica di ortaggi.

Coltivazione aeroponica

Coltivazione aeroponica

In alternativa all’idroponica vi e’ poi l’aeroponica. In questo caso parliamo di una tecnica ancora piu’ recente e, se vogliamo, innovativa. Nell’aeroponica non abbiamo terra ma neanche substrato inerte che, in alcune condizioni, puo’ favorire una crescita batterica e comunque esurisirsi nel tempo.

Sostanzialmente, la tecnica aeroponica e’ simile a quella precedente ma, a differenza dell’idroponica, non abbiamo una soluzione acquosa sotto le radici, bensi’ un sistema di nebulizzatori che tengono umide le radici con sostanze in soluzione acquosa atte a favorire la crescita e a fornire il nutrimento.

In questo caso, le piante possono essere fatte crescere ovunque utilizzando dei sostegni di poliuretano espanso che servono solo a tenere in piedi la pianta. Ovviamente, necessitando di una continua irrigazione, e’ necessario predisporre un timer che faccia partire i nebulizzatori sotto le radici. Questo rende il sistema solo un po’ piu’ complesso del precedente, ma riduce ulteriormente la possibilita’ di crescita di batteri.

Dal punto di vista economico, i sistemi gia’ pronti per l’aeroponica sono leggermente piu’ costosi, ma parliamo sempre di un migliaio di euro per un sistema finito ed in grado di ospitare fino a 60 piante. Per come e’ realizzato, la spesa relativa all’acqua per l’irrigazione e’ assolutamente minimizzata e l’avere le radici completamente scoperte e nebulizzate consente di massimizzare l’ossigenazione.

Unica pecca del sistema ad aria e’ la necessita’ di calibrare il timer del nebulizzatore. Se non fatto correttamente si rischia di inumidire troppo le radici o di far seccare le piante. Anche in questo caso pero’, in rete si trovano moltissimi manuali pronti all’uso che spiegano tutte le fasi del processo.

Altra considerazione importante, a parte timer e pompe, sia per l’idroponico che per l’aeroponico abbiamo sistemi semplici costruiti che possono anche essere realizzati con un po’ di semplice bricolage utilizzando materiali assolutamente economici.

Come visto, in periodi di crisi come quello che stiamo vivendo, avere la possibilita’ di realizzare un orto in casa con poco spazio, minimizzando i consumi di acqua e senza il rischio di infezioni parassitarie alle piante e’ sicuramente un buon vantaggio. Come detto, si tratta di tecniche innovative ma che stanno gia’ riscuotendo notevole successo anche per le coltivazioni specifiche soprattutto all’interno di serre.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Marte: altro che batteri, ci sono foreste!

15 Ott

Attraverso la pagina Facebook di Psicosi 2012, un nostro caro lettore, sempre disponibile a fornire spunti interessanti, ci ha chiesto di commentare alcuni articoli che circolano in rete gia’ da diverso tempo, ma che ancora non erano stati affrontati qui sul blog.

Come sapete, diverse volte ci siamo lanciati a commentare le ultime scoperte fatte dalle sonde orbitanti intorno a Marte o dei Rover in superficie, ultimo di questi Curiosity a cui abbiamo dedicato diversi post. Lo studio della superficie di Marte, oltre all’interesse scientifico indubbio, suscita da sempre la curiosita’ e la fantasia di molte persone. Come e’ facile intuire, ogni qual volta si parla di pianeti diversi dalla Terra, il primo pensiero e’ quello della ricerca di forme di vita intelligente.

Piccola parentesi di cui abbiamo discusso gia’ moltissime volte ma che e’ meglio ricalcare, la scienza non si oppone assolutamente all’esistenza di forme di vita diverse dalla nostra. La ricerca ha piu’ volte cercato precursori o forme di vita nei pianeti del Sistema Solare e, ancora oggi, lo studio dei pianeti extrasolari punta per prima cosa a trovare zone abitabili in cui potrebbe essersi sviluppata la vita. Fate sempre pero’ attenzione ad una cosa, parlare di forme di vita non significa parlare di omini verdi che viaggiano nel cosmo. Quando in scienza si parla di forme di vita, si intendono quasi sempre forme di vita semplici come batteri o microorganismi che potrebbero, anche in condizioni estreme, essere riuscite a svilupparsi su un pianeta.

Proprio a questo filone, appartiene la notizia che vorrei commentare. Probabilmente, trattandosi come detto di una storia vecchiotta, alcuni di voi potrebbero gia’ aver sentito queste affermazioni.

Durante la sua missione, la sonda MGS, Mars Global Surveyor, ha scattato diverse immagini ad alta risoluzione di alcune zone di Marte. In particolare, ci sono molti scatti che riguardano la fascia vicino al polo Sud e che hanno suscitato notevole attenzione fin dai primi momenti.

Di cosa si tratta?

Prima di tutto, vorrei mostrarvi una di queste foto:

Foto del presunto albero sulla superficie di Marte

Foto del presunto albero sulla superficie di Marte

Cosa sono quelle strane figure che appaiono sulla superficie? Senza tanti giri di parole, e nemmeno richiedendo uno sforzo troppo notevole alla fantasia, queste immagini sembrano senza dubbio ritrarre degli alberi. Tra l’altro, si notano anche molto bene le ramificazioni.

Se ancora non siete contenti, vi mostro un’altra immagine, forse ancora piu’ esaustiva della prima:

Quella che sembra una foresta su Marte

Quella che sembra una foresta su Marte

Qui addirittura si vede anche la colorazione verde degli alberi e, avendo ripreso la superficie da un’altezza maggiore, si vede come non sia presente un singolo albero, ma addirittura una foresta di arbusti sulla superificie di Marte.

Possibile tutto questo?

Seguendo i siti che raccontano la storia, assolutamente si. Per prima cosa, le dimensioni degli arbusti sarebbero molto maggiori di quelle normalmente presenti sulla Terra. Confrontando con la scala della foto, gli alberi mostrati avrebbero un diametro anche fino ad 1 km. Possibile? Ovviamente si, sapete perche’? La minore atmosfera del pianeta rosso rispetto a quella terrestre, renderebbe necessaria una superficie maggiore per lo scambio gassoso. Proprio per questo motivo gli alberi crescerebbero molto di piu’ che sulla Terra, appunto per un concetto di sopravvivenza. Inoltre, gli alberi avrebbero radici molto profonde per pescare acqua nello stato liquido nel sottosuolo di Marte.

Aspettate un secondo, ci sono foto della NASA che mostrano l’esistenza di “foreste” su Marte e poi, a distanza di anni, mandiamo Curiosity dentro il createre Gale, brutto, polveroso, senza niente da vedere se non qualche sasso, con la scusa di cercare batteri? Qualcosa non torna.

Perche’ avviene questo?

Che domande, la risposta e’ ovvia: le missioni marziane odierne sono solo una copertura per far vedere che la ricerca continua. Come al solito, i signori della NASA fanno ricerca per finta. Sanno che ci sono foreste in molte zone, ma mandano i rover in punti dove non potranno trovare niente. In questo modo, riescono a mantere il segreto di Marte.

Alcuni siti si lanciano anche nella spiegazione del perche’ avverrebbe questo. La risposta anche qui e’ molto semplice, ed e’ da ricercarsi nella religione. Sarebbe sconvolgente per la nostra societa’, ancorata alla tradizione religiosa, sapere che esistono forme di vita evolute, o anche solo alberi, su un altro pianeta. Chi li ha creati? Il nostro Dio? Un altro? Secondo le fonti, questo potrebbe destabilizzare l’animo umano facendolo entrare in una via senza ritorno.

Tralasciando questi tentativi di spiegazione, per carita’ interessanti dal punto di vista antropologico e umano, cerchiamo invece di capire cosa sarebbero queste foto che si trovano in rete.

La prima cosa che si potrebbe pensare e’ che le foto siano dei falsi. In realta’ non e’ cosi’, o meglio non lo e’ totalmente.

Queste foto sono state scattate utilizzando lo strumento MOC, che sta per Mars Orbiter Camera. Una camera abbastanza potente utilizzata per scattare foto della superficie dall’orbita di passaggio. Si tratta in realta’ di un sistema composto da tre camere. La prima, la piu’ potente, era in grado di scattare foto ad alta risoluzione in bianco e nero. Le altre due invece, a risoluzione minore, erano sensibili solo al rosso e al blu. Perche’ questo? La sensibilita’ a lunghezze d’onda specifiche poteva aiutare ad identificare ed isolare determinate emissioni o spettri specifici utili per analizzare in dettaglio alcune carateristiche. Se pensate che il sistema sia antiquato, non dimenticate che la missione MGS e’ terminata gia’ nel 2001, per cui la tecnologia a bordo, oggi, puo’ sembrare molto datata.

Prima osservazione, se ci sono camere in bianco e nero, sul rosso o sul blu, come e’ possibile avere una splendida foto, come la seconda mostrata, in cui si vede una foresta verdognola? Molto semplice, questa foto, cosi’ come molte altre che trovate in rete, sono state ricolorate a posteriori utilizzando programmi di grafica. Perche’ questo? Risposta quantomai facile, per spingere ancora di piu’ l’opinione che si trattasse di foreste sulla superficie di Marte.

Attenzione pero’, d’accordo che il colore e’ falso per capacita’ tecnologica, ma anche se immaginiamo le foto in colori diversi, le strutture presenti sono sempre paragonabili ad alberi.

Cosa sono queste forme che si vedono?

Anche qui, la risposta e’ quantomai facile da dare. Quelli che si vedono sono dei semplici sbuffi di anidride carbonica che partono dal permafrost di Marte e si alzano verso il cielo. Da cosa sono dovuti? Il permafrost di Marte e’ costituito di ghiaccio secco, o anidride carbonica allo stato solido. Le foto che abbiamo mostrato sono state scattate nel mese di ottobre, cioe’ quando stava iniziando l’equivalente primavera in quella regione di Marte. Questo non significa altro che le temperature erano in rapida ascesa.

Avete mai visto del ghiaccio secco? Come sapete, e’ una sostanza che non passa per lo stato liquido ma, attraverso il processo cosiddetto di sublimazione, evapora passando immediatamente da solido a gas.

Fin qui ci siamo. Ora, e anche questa non e’ una novita’, il terreno di Marte e’ costituito da una sabbia molto sottile e che spesso viene modellata da vere e proprie tempeste. Queste possono, durante i mesi invernali, ricorprire il permafrost seppellendo lo strato traslucido di ghiaccio secco. Quando poi le temperature si alzano, il vapore intrappolato nel terreno fa aumentare la pressione arrivando poi ad uscire con sbuffi di forte intensita’. Risultato di queste emissioni sono lanci di polveri anche a diverse centinaia di metri dal punto di fuoriuscita.

Che prove ci sono a sostegno?

Per prima cosa, la struttura del terreno di Marte e’ conosciuta molto bene e quindi questa spiegazione e’ compatibile con la conoscenza che abbiamo. Inoltre, ma questo spesso i siti che sostengono l’ipotesi foresta dimenticano di dirvi, nelle foto successive a quelle riportate, scattate poco dopo, non si notano piu’ gli alberi di cui stiamo parlando, ma qualcosa di questo tipo:

Segni sul terreno lasciati dall'emissione di CO2 dal permafrost

Segni sul terreno lasciati dall’emissione di CO2 dal permafrost

Questi altro non sono che i segni lasciati dalla fuoriuscita della CO2 dal terreno. Le righe che vedete sono proprio le linee di fuga verso le quali e’ stata lanciata la sabbia. Non credo assolutamente che si possa pensare che gli alberi da 1 kilometro appaiono e scompaiono nel giro di pochi secondi.

A questo punto, non credo ci sia altro da aggiungere. Purtroppo, spesso, soprattutto in casi di questo tipo, la vista puo’ fare brutti scherzi. Ovviamente, sono io il primo a dire che le strutture mostrate potevano essere scambiate per alberi, ma, come spesso avviene, ci sono spiegazioni ben piu’ razionali e scontate che forse andrebbero ricercate.

Come detto all’inizio, questa storia gira gia’ da diverso tempo sulla rete e, ma anche a questo siamo abituati, di tanto in tanto viene ritirata fuori a sostegno dei tanti complotti architettati dalla NASA per non far conoscere la verita’ che si nasconderebbe nel nostro Sistema Solare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Climatizzatore …. quanto ci costi?

6 Ago

Nell’ottica del risparmio energetico, non solo per fare un favore all’ambiente ma anche al nostro portafoglio, qualche tempo fa avevamo analizzato in dettaglio i consumi dei nostri elettrodomestici:

Elettrodomestici e bolletta

In particolare, avevamo quantificato il reale consumo dei comuni sistemi casalinghi, convertendo il tutto in termini di consumo. Come sappiamo bene, nella nostra bolletta elettrica, viene riportato un consumo in KWh, mentre le etichette e le caratteristiche degli apparecchi elettronici ci forniscono un valore in potenza, cioe’ in Watt.

Detto questo, con la calura estiva di questi giorni, vorrei riprendere questi concetti, analizzando pero’ il discorso condizionatori. Se andate in negozio intenzionati a comprare un sistema di questo tipo, vi trovate di fronte una vasta gamma di prodotti con caratteristiche diverse ma, soprattutto, la capacita’ refrigerante dei condizionatori e’ espressa in Btu/h.

Cerchiamo dunque di fare un po’ di chiarezza, capendo meglio questi concetti.

Prima di tutto, la scelta principale che dovete affrontare e’ quella relativa alle differenze: con o senza pompa di calore, inverter o ON/OFF.

Cosa significa?

Per quanto riguarda la pompa di calore, si tratta semplicemente di condizionatori che possono riscaldare oltre a rinfrescare. Detto proprio in parole povere, lo stesso sistema e’ in grado di invertire il ciclo termico, producendo un salto positivo o negativo rispetto alla temperaratura iniziale. Detto ancora piu’ semplicemente, avete la possibilita’ di far uscire aria calda o fredda per riscaldare o rinfrescare.

Convengono questi sistemi?

Se avete un impianto di riscaldamento in casa con caloriferi, pannelli radianti, ecc, allora tanto vale comprare solo un condizionatore, cioe’ qualcosa in da utilizzare in estate per rinfrescare.

Cosa significa invece inverter o ON/OFF?

Qui spesso trovate un po’ di confusione in giro. In realta’, la distinzione e’ molto semplice. Un sistema ON/OFF funziona, come dice il nome stesso, in modalita’ accesa o spenta. Cerchiamo di capire meglio. Impostate una temperatura, il sitema si accende e comincia a buttare aria fredda. Quando la temperatura della sala e’ arrivata a quella desiderata il sistema si spegne. A questo punto, quando la temperatura si rialza, il sistema riparte e la riporta al valore impostato. Al contrario, un sistema inverter e’ in grado di modulare la potenza del compressore funzionando a diversi regimi. Se volete, mentre nel primo caso avevamo un sistema binario acceso o spento, qui c’e’ tutta una regolazione della potenza del compressore gestita da un microprocessore. Quando la temperatura si avvicina a quella impostata, la potenza del condizionatore scende riducendo i giri del compressore. In questo modo, con un piccolo sforzo, si riesce a mantenere la temperatura sempre intorno, con piccole fluttuazioni, al valore impostato.

Molto spesso, leggete che gli inverter sono migliori, garantiscono un notevole risparmio energetico, ecc. A costo di andare contro corrente, sostengo invece che questo non e’ sempre vero. Mi spiego meglio. Se avete intenzione di tenere acceso il condizionatore per diverese ore, allora il sistema inverter vi garantisce un consumo minimo, arrivati intorno al valore desiderato. Al contrario, un ON/OFF quando parte, parte sempre a pieno regime. Se pero’ avete intenzione di tenere acceso il condizionatore per poco tempo, perche’ volete accenderlo solo in determinati momenti della giornata o per un paio d’ore mentre vi addormentate, allora il sistema inverter funzionerebbe, dal momento che prendiamo tutto l’intervallo necessario ad abbassare la temperatura, esattamente come un ON/OFF, cioe’ sempre a pieno regime. In questo caso, il consumo sara’ esattamente lo stesso e non riuscirete assolutamente a rientrare della maggiore spesa necessaria all’acquisto di un inverter.

Un commerciante onesto dovrebbe sempre chiedere il funzionamento richiesto al condizionatore e consigliare la migliore soluzione.

Detto questo, andiamo invece ai BTU/h, cioe’ questa arcana unita’ di misura con cui vengono classificati i condizionatori.

BTU sta per British Thermal Unit ed e’ un’unita’ di misura anglosassone dell’energia. Come viene definita? 1 BTU e’ la quantita’ di calore necessaria per alzare la temperatura di una libbra di acqua da 39F a 40F, cioe’ da 3.8 a 4.4 gradi centigradi. Come capite anche dalla definizione, e’ un’unita’ di misura del lavoro, che nel Sistema Internazionale e’ il Joule, che utilizza solo unita’ anglosassoni.

Perche’ si utilizza?

In primis, per motivi storici, poi perche’, per sua stessa definizione, indica proprio il calore necessario per aumentare, o diminuire, la teperatura di un volume di un fluido, in questo caso acqua.

Bene, ora pero’ sui condizionatori abbiamo i BTU/h. Questa indica semplicemente la quantita’ di BTU richiesti in un’ora di esercizio. Possiamo convertire i BTU/h in Watt dal momento che un lavoro diviso l’unita’ di tempo e’ proprio la definizione di potenza. In questo caso:

3412 BTU/h –> 1KW

A questo punto, abbiamo qualcosa di manipolabile e che e’ simile all’analisi fatta parlando degli altri elettrodomestici.

Compriamo un condizionatore da 10000 BTU/h e questo equivale ad un sistema da 2.9KW. Quanto ci costa tenerlo acceso un’ora? In termini di bolletta, in un’ora consumiamo 2.9KWh. Se assumiamo, come visto nel precedente articolo, un costo al KWh di 0.20 euro, per tenere acceso questo sistema servono 0.58 euro/h.

0.58 euro/h? Significa 6 euro per tenerlo acceso 10 ore. In un bimestre estivo, questo significherebbe 360 euro sulla bolletta?

Questo e’ l’errore fondamentale che spesso viene fatto. Il valore in KWh calcolato e’ in realta’ quello necessario per rinfrescare, o riscaldare se abbiamo la pompa di calore, il nostro ambiente. Quando comprate un condizionatore, c’e’ anche un ‘altro numero che dovete controllare, il cosiddetto EER, cioe’ l’Energy efficiency ratio. Questo parametro indica semplicemente l’efficienza elettrica del sistema quando questo lavora in raffreddamento. Analogamente, per i condizionatori con pompa di calore, trovate anche un indice COP che invece rappresenta il rendimento quando si opera in riscaldamento.

Detto proprio in termini semplici, quando assorbite 1 KWh dalla rete, il condizionatore rende una quantita’ pari a 1KWh moltiplicato per il EER. Facciamo un esempio. Valori tipici di EER sono compresi tra 3 e 5. Se supponiamo di comprare un condizionatore con EER pari a 4, per ogni KWh assorbito dalla rete, il sistema ne fornisce 4 sotto forma di energia frigorifera.

Se adesso riprendiamo il calcolo di prima, dai valori inseriti, se il nostro condizionatore ha un EER pari a 4, per tenerlo acceso un’ora spenderemo:

0.58/4 = 0.15 euro

Se confrontiamo questi valori con quelli degli altri elettrodomestici visti nell’articolo precedente, ci rendiamo conto che il condizionatore e’ un sistema che “consuma” molta energia.

Ultima considerazione, fino a questo punto abbiamo parlato di BTU/h, prendendo un numero a caso di 10000. In commercio trovate sistemi con valori tra 5000 e 30000, o anche piu’, BTU/h. Volete rinfrescare una camera, che condizionatore dovete prendere?

In realta’, la risposta a questa domanda non e’ affatto semplice. Come potete immaginare, la potenza del sistema che dovete prendere dipende prima di tutto dalla cubatura dell’ambiente, ma ache da parametri specifici che possono variare molto il risultato: superficie vetrata ed esposizione, superficie di muro ed esposizione, eventuale coibentazione della stanza, se ci sono appartamenti sopra e sotto, se siete sotto tetto, ecc.

Giusto per fornire dei valori a spanne, potete far riferimento a questa tabella:

LOCALE DA CLIMATIZZARE (m²)

POTENZA NOMINALE RICHIESTA (BTU)

da 0 a 10

5000

da 10 a 15

7000

da 15 a 25

9000

da 25 a 40

12000

da 40 a 50

15000

da 50 a 60

18000

da 60 a 80

21000

da 80 a 100

24500

da 100 a 130

35000

da 130 a 160

43000

da 160 a 180

48000

da 180 a 200

65000

Come vedete, in linea di principio, per rinfrescare con un salto termico accettabile una stanza da 20 m^2, vi basta un sistema da 9000 BTU/h.

Concludendo, prima di acquistare un condizionatore, si devono sempre valutare le caratteristiche richieste dall’utilizzo che vogliamo farne e dall’ambiente in cui vogliamo utilizzarlo. Detto questo, i parametri specifici del sistema, possono far variare notevolmente il consumo effettivo del condizionatore, influendo in modo significativo sulla bolletta che poi andremo a pagare.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Scoperta nuova luna di Nettuno

17 Lug

Osservando le immagini catturate dalle tante sonde in orbita, e’ possibile fare delle scoperte la cui evidenza magari prima non era stata palese. E’ proprio questo il caso della scoperta di cui vi vorrei parlare in questo articolo e che e’ stata pubblicata solo pochi giorni fa sulle riviste scientifiche.

Analizzando le immagini catturate dalla sonda Hubble tra il 2004 ed il 2009, l’astronomo Mark Showalter el SETI Institute della California, si e’ accorto di un piccolo puntino bianco vicino al pianeta Nettuno. Come anticipato dal titolo dell’articolo, quel piccolo puntino che fino ad oggi era passato inosservato e’ in realta’ una nuova luna orbitante intorno al pianeta.

Come e’ stata fatta la scoperta?

Anche Nettuno ha degli anelli di materia intorno, anche se molto meno compatti e visibili di quelli di Saturno. La presenza degli anelli, rende l’osservazione delle lune molto complicata. Come detto in precedenza, la presenza di un piccolo puntino intorno al pianeta ha fatto scattare la scintilla. Riprendendo circa 150 foto scattate da Hubble, si e’ potuta evidenziare la presenza della piccola Luna e ricavarne ovviamente i parametri orbitali.

La nuova luna, la quattordicesima di Nettuno, e’ stata chiamata S/2004 N 1. Dalle misure indiretta fatte, il corpo avrebbe un diametro non superiore ai 20 Km e ruoterebbe intorno al pianeta con un periodo di 23 ore, ad una distanza di circa 100000 kilometri. Questo periodo di rotazione e’ simile a quello degli altri satelliti che infatti ruotano, cosi’ come i dischi di cui accennavamo prima, con velocita’ molto elevata intorno al piu’ esterno tra i pianeti del Sistema Solare.

Dal punto di vista della posizione, la nuova Luna si trova tra Larissa e Prometeo, come indicato dalla ricostruzione pubblicata dalla NASA:

L'orbita della nuova luna nel sistema intorno a Nettuno

L’orbita della nuova luna nel sistema intorno a Nettuno

Come anticipato, Nettuno ha ben 14 satelliti che gli ruotano intorno di cui soltanto uno, Tritone, ha un diametro elevato, paragonabile infatti a quello della nostra Terra. Secondo la teoria astronomica maggiormente accettata, Tritone sarebbe in realta’ un pianeta nano staccato dalla fascia di Kuiper a causa dell’attrazione gravitazionale di Nettuno e che dunque sarebbe poi stato catturato su un’orbita stabile. Sempre secondo questa teoria, la cattura o la formazione, avvenuta per opera di impatti con altri corpi, delle altre lune sarebbe dunque successiva alla cattura di Tritone.

L’evidenza della nuova luna era sfuggita addirittura alla sonda Voyager 2 che nel 1989 aveva ripreso da molto vicino sia il pianeta che il sistema di anelli e lune orbitanti intorno ad esso. Il satellite appena scoperto, oltre al piccolo diametro che abbiamo riportato, ha una luminosita’ molto debole. In termini di confronto, se osserviamo il cielo stellato, la luminosita’ della nuova luna e’ ben 100 milioni di volte più debole della più debole stella visibile a occhio nudo.

Ultima curiosita’: perche’ a questa luna e’ stato dato un nome cosi’ tecnico come S/2004 N 1?

Questo in realta’ e’ un nome provvisorio. Nel prossimo incontro della Unione Astronomica Internazionale, si dovra’ decidere il nome da dare anche a questo nuovo satellite. Seguendo la tradizione, il nome sara’ sicuramente scelto tra le antiche divinita’ legate al mare, cosi’ come il nome stesso del pianeta.

Concludendo, l’osservazione di immagini raccolte da Hubble tra il 2004 e il 2009 ha permesso di identificare una nuova luna per Nettuno. Come visto, si tratta di un corpo molto piccolo, con un diametro che non supera i 20 Km. La storia di questa scoperta ci fa capire come incredibili sorprese possano venire fuori anche guadando immagini di repertorio. Questo per mostrare quanto ancora interessante e’ lo studio del nostro stesso Sistema Solare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.