Tag Archives: parametri

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Earth Overshoot Day: una riflessiva ricorrenza

19 Ago

Se stamattina vi siete dilettati nel leggere le notizie nelle rubriche di scienza dei principali quotidiani, non vi sarà sicuramente sfuggita la notizia riguardante il cosiddetto Earth Overshoot Day. Come da titolo, credo che sia importante, prima di tutto, comprendere a pieno cosa questo nome significhi ma, soprattutto, aprire una riflessione per il futuro energetico della nostra Terra.

Al solito, vi giuro non vorrei dirlo ma sono costretto, molti dei nostri amati giornali, anche a diffusione nazionale, pubblicano notizie perchè devono, senza minimamente comprendere di cosa si stia parlando. Perchè dico questo? Leggendo diversi articoli, e conoscendo già di mio il significato della ricorrenza, ho provato a mettermi nei panni di qualcuno ignorante sulla questione. Questa sarà anche una mia personale posizione, ma leggendo le notizie in rete, credo che molto difficilmente ci si possa informare capendo realmente quello di cui si sta parlando. Ora, non voglio assolutamente mettermi su un piedistallo, non ne avrei diritto ne tantomeno le competenze, ma, vi prego, prima di scrivere qualcosa, cercate di capirlo almeno voi.

Perchè dico questo? Molti giornali esauriscono la notizia in poche righe riassumendo in questo modo: oggi è il giorno in cui abbiamo ufficialmente consumato tutte le risorse rinnovabili che la Terra è in grado di produrre fino alla fine dell’anno solare. Come direte voi, ma se le risorse sono rinnovabili sono rinnovabili sempre. Come faccio ad aver già consumato quello che la Terra produrrà nei prossimi mesi? Inoltre, per farla breve, ma se ci siamo mangiati tutto quello che avevamo a disposizione fino alla fine dell’anno, domani cosa mangiamo? Per fare un esempio, è come una famiglia che fa la spesa per l’intera settimana senza la possibilità di riandare a comprare nulla. Arrivati a giovedi, le scorte sono completamente finite. Poi?

Cerchiamo di essere seri e comprendere a pieno cosa significa questa fantomatica data.

Ogni anno, l’organizzazione no profit Global Footprint Network, ripeto “organizzazione” non centro di ricerca come qualche giornale ha scritto, calcola la data in cui la nostra società globale ha consumato tutte le risorse rinnovabili annuali. Cosa significa? Prendiamo come esempio un campo coltivato con insalata. Nell’arco dell’anno, questo campo riuscirà a produrre 100 Kg di insalata. Arrivati ad agosto, noi abbiamo già mangiato 100 Kg di insalata, dunque abbiamo raggiunto molto in anticipo le risorse che il nostro campo sarà in grado di produrre. Dunque, se vogliamo mangiare altra insalata dobbiamo prenderla nel campo del nostro vicino.

Ora, come è ovvio, non mangiamo solo insalata. Infatti, questo calcolo viene fatto prendendo in esame tutte le risorse rinnovabili che abbiamo a disposizione sul nostro pianeta. Tra queste, oltre ai cibi, entrano ovviamente anche beni diversi: l’elettricità prodotta da fonti rinnovabili, i tessuti naturali che utilizziamo per i nostri capi d’abbigliamento, ecc..

Nel calcolo di questa data, entra ovviamnete anche la produzione di CO2 che immettiamo in atmosfera. Come è ovvio, il nostro pianeta è in grado di assorbire una frazione degli inquinanti che espelliamo, oltre questa soglia, questi gas restano in atmosfera formando strati inquinanti.

A questo punto, spero di essere riuscito a far capire come è possibile calcolare questa data e quali sono i fattori principali che entrano in questo computo.

Come anticipato, oggi è l’Earth overshoot Day, cioè come il nome stesso indica, il giorno in cui abbiamo superato le risorse della Terra.

Ci deve preoccupare questa data?

Ovviamente si ma, soprattutto, ci deve far riflettere molto. Praticamente, noi stiamo vivendo come parassiti in grado di consumare molto velocemente le risorse del pianeta che ci ospita. Come potete facilmente immaginare, questo trend negativo è solo peggiorato negli ultimi anni.

Visitando il sito dell’associazione:

Global Footprint Network

che oltre a questa data, ha tutta una serie di attività tese a sensibilizzare le società sul problema energetico, troviamo una tabella molto interessante:

Data dell'overshoot day nel corso degli anni

Data dell’overshoot day nel corso degli anni

Quanto riportato mostra l’overshoot day calcolato nel corso degli anni. Come evidente, se nel 1987 eravamo quasi in pari con una data prossima alla fine dell’anno solare, nel corso del tempo l’overshoot day si è sempre notevolmente anticipato. Come spesso sentiamo ripeterci, poichè oggi à il 19 agosto, secondo questo calcolo, per poter vivere noi oggi avremmo bisogno di 1.5 Terre in grado di fornirci le risorse rinnovabili di cui abbiamo bisogno.

Ovviamente, questo è un calcolo mediato su tutti i paesi. Come è facile immaginare, esiste uno squilibrio notevole anche in questo caso. Per un dettaglio su alcuni paese campione, possiamo far riferimento a questa tabella:

Paesi-equivalenti richiesti dai consumi dei singoli stati

Paesi-equivalenti richiesti dai consumi dei singoli stati

In questo caso, il calcolo è sul singolo paese tenendo conto delle risorse che il paese stesso è in grado di fornire alla propria popolazione. Notiamo che ci sono dei casi veramente disastrosi. Esempi? Gli Emirati Arabi avrebbero bisogno di più di 12 paesi equivalenti! Inoltre, non fatevi ingannare dal dato sugli USA. Considerando la grandezza del paese, il numero di abitanti e le risorse a disposizione, se il modello di consumi USA fosse “esportato” anche negli altri paesi, il nostro deficit peggiorerebbe in modo significativo.

Se ci concentriamo sul caso Italia, anche se, almeno in questo caso, non siamo i peggiori in assoluto, sicuramente ci mettiamo del nostro. Come vedete, ad oggi, noi richiediamo 4 volte le risorse del nostro paese. Praticamente, se il calcolo fosse relativo solo al nostro paese, il nostro overshoot day cadrebbe intorno alla fine di marzo.

Per completezza di informazione, esistono ovviamente dei paesi “virtuosi” che contribuiscono ad abbassare il nostro debito naturale. Tra questi, ad esempio, Brasile, Australia, Indonesia e Svezia.

Se volete “divertirvi” a calcolare il vostro contributo a questo calcolo, la Global Footprint Network ha a disposizione un semplice questionario in grado di calcolare il vostro singolo contributo basandosi sui vostri consumi medi. Visto che sbandieriamo sempre la sincerità, vi pubblico il mio profilo:

Il mio contributo all'Overshoot Day

Il mio contributo all’Overshoot Day

Come vedete, anche io faccio la mia parte in negativo anche se sono sotto la media nazionale (2.5 paesi verso 4 di media) ma sopra la media mondiale. Il mio contributo principale, neanche a dirlo, viene dal consumo di cibo.

Per calcolare il vostro contributo, potete compilare il rapido questionario disponibile, anche in Italiano, a questa pagina:

Footprint personale

Inutile dire che non si tratta di un gioco ma il nostro personale risultato deve spingerci ad una riflessione sui nostri consumi e, preferibilmente, a cambiare il nostro stile di vita per cercare, tutti quanti, di interrompere questo trend negativo di cui abbiamo discusso.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Cosa posso vedere con il mio telescopio?

10 Feb

Diverse volte sono stato contattato da persone che vorrebbero affacciarsi al mondo dell’astronomia. Molti hanno una passione del genere e un desiderio innato di poter osservare il cielo ingrandendo via via dettagli sempre piu’ piccoli. Inutile dire quanti di noi restano a bocca aperta guardando una foto spaziale scattata in giro per il cosmo e desiderano a loro volta osservare con i loro occhi la bellezza della natura.

Ora pero’, queste passioni spesso si scontrano un po’ con il problema economico ma, soprattutto, con la grande confusione che la scelta di un telescopio “domestico” puo’ portare. Siete mai entrati in un negozio dove si vendono telescopi? Avete visto quante tipologie di strumenti ci sono? Molto spesso, le persone restano spaventate da una tale scelta e non sanno cosa prendere.

Per superare questo blocco, dovete prima di tutto capire “cosa volete guardare”!

Ovviamente, si potrebbe fare il pensiero facile e dire quello che costa di piu’ e’ il piu’ “potente” o quello piu’ grande e’ sicuramente migliore. Purtroppo, non sempre e’ cosi’.

Visto che molte persone mi hanno contattato per chiedermi cosa distingue un telescopio da un altro, ho deciso di scrivere un breve articolo per spiegare non le diverse tipologie di telescopio, bensi’ la cosiddetta “risoluzione angolare” di questi strumenti.

Immaginiamo di avere un telescopio con lenti circolari. Quello che vogliamo capire e’ “qual e’ la minima distanza che posso osservare?”. Per rispondere dobbiamo introdurre la cosiddetta “risoluzione angolare”, cioe’ la minima distanza angolare tra due oggetti che possono essere distinti con il vostro telescopio:

R=1,22 L/D

Quando siete di fronte a sistemi ottici, quella che comanda e’ la diffrazione che, senza entrare in troppi tecnicismi, fa si che sotto un certo valore, due oggetti vengano confusi come uno solo perche’ assolutamnete indistinguibili tra loro. Nella formula della risoluzione angolare, compare ovviamente il diametro della lente, D, e la lunghezza d’onda, L, che dobbiamo osservare.

Detto tra noi, questa formula e’ poco manegevole per cui possiamo prima di tutto dimenticarci della dipendenza dalla lunghezza d’onda e prendere un valore medio per lo spettro visibile che, in fondo, e’ quello che vogliamo osservare. Inoltre, la risoluzione angolare che abbiamo introdotto e’ misurata in radianti, unita’ abbastanza scomoda in questo contesto. Per semplicita’, possiamo utilizzare una misura in arcosecondi dove 3600 arcsec equivalgono ad un grado. Facendo queste considerazioni, possiamo riscrivere la formula come:

R = 11.6 / D

Supponiamo dunque di acquistare un bel telescopio con lente da 30 cm, la nostra risoluzione angolare sara’:

R = 11.6/30 = 0,39 arcsec

Se ora con questo oggetto volessi guardare la luna, quale sarebbe la minima distanza che riuscirei a distinguere?

Per rispondere a questa domanda, e’ necessario introdurre un’ulteriore formula. Come potete immaginare, in questo caso dobbiamo convertire, in base alla distanza, l’apertura angolare con una distanza in metri. Tralasciando dipendenze di questa formula da parametri di poco interesse per il nostro caso, possiamo scrivere la distanza distinguibile come:

Dm = (R/206265) x Dl

Dove Dm e’ ovviamente la distanza minima osservabile e Dl e’, nel nostro caso, la distanza Terra-Luna. Supponendo una distanza media di 400000 Km, da portare in metri per inserirla nella formula, abbiamo, riprendendo la risoluzione del telescopio da 30 cm dell’esempio:

Dm = (0.39/206265) x 400000000 = 750 metri

Cioe’ la minima distanza che possiamo percepire e’ di 750 metri. Detto in altre parole, riuscite a distinguere dettagli separati tra loro da una distanza di almeno 750 metri. Anche se questo numero puo’ sembrare enorme vi permette di poter osservare dettagli impressonanti della Luna. Vi ricordo che un telescopio da 30 cm, e’ un bellissimo strumento che necessita di attenzioni particolari. Non abbiamo preso uno strumento completamente amatoriale o entry level per questo calcolo esemplificativo.

Altro aspetto interessante che spesso viene citato dai complottisti: se siamo veramente stati sulla Luna, perche’, ad esempio, il telescopio Hubble non e’ in grado di osservare il punto di atterraggio con tutta le cose lasciate dall’equipaggio? La domanda e’ di principio ben posta, pensate che addirittura il modulo di discesa e’ rimasto sul punto perche’ impossibile da riportare indietro.

Cerchiamo di analizzare, sulla base dei calcoli gia’ fatti, se fosse possibile osservare questo modulo sfruttando la lente di Hubble. In questo caso, abbiamo una lente di 2.4 metri che vuole osservare la superficie lunare. Quale sarebbe la minima distanza che potrebbe essere osservata?

Ripetendo il calcolo trovate una minima distanza di circa 100 metri. Considerando che il modulo di discesa ha un diametro intorno ai 10 metri, capite bene come sia impossibile distinguere dall’orbita di Hubble questo reperto storico sulla superifcie della Luna. Spero che questo ragionamento, a prescindere dalle altre dimostrazioni di cui abbiamo gia’ parlato, sia sufficiente a capire, per chi ancora oggi crede che non siamo stati sulla Luna, come sia impossibile osservare dalla Terra il punto di atterraggio.

Concludendo, per comprendere il potere risolutivo di uno strumento ottico, e questo ragionamento vale sia per un telescopio che per un microscopio, e’ sufficiente conoscere un po’ di ottica e calcolare agevolmente la minima distanza osservabile Come visto, la grandezza della lente e’ uno dei parametri piu’ importanti da considerare. Tenete a mente questi risultati qualora decideste di acquistare un telescopio per dilettarvi in osservazioni spaziali. Ovviamente, come detto, prima di decidere la tipologia di telescopio, pensate sempre prima a cosa volete andare ad osservare e, dunque, a che distanza vi state approcciando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Scie chimiche, la prova storica!

13 Gen

Un nostro caro lettore mi ha segnalato tramite mail una nuova importante “prova” a sostegno dell’esistenza delle scie chimiche. Negli ultimi giorni, questo presunto documento sta riaccendendo notevolmente la discussione su questa tematica, anche sotto la spinta dei soliti siti che non possono che trarre benefici dal far credere che ci sia un complotto mondiale per spargere veleni mediante aerosol atmosferico.

Di scie chimiche, mostrando di volta in volta l’assurdita’ di queste affermazioni, abbiamo parlato in diversi articoli. Ecco una serie degli ultimi post:

Alcune considerazione sulle scie chimiche

Scie Chimiche: il prelievo in quota

Scie chimiche e cloud seeding

Come difendersi dalle scie chimiche

Il Dibromoetano e le scie chimiche

A-380 modificato per spargere scie chimiche

Scie chimiche, ora abbiamo la prova

L’accordo Italia-USA per spargere scie chimiche

Tornando alla nuova notizia, senza girarci troppo intorno, vi mostro la prima pagina di questo documento:

Documento NASA-1971

Documento NASA-1971

Leggete molto bene il titolo: “Barium Cloud Launch”, cioe’ lancio o dispersione di nuvole di Bario. Si tratta di un documento storico timbrato NASA. Questa potrebbe essere la definitiva e schiacciante prova per l’esistenza di un complotto mondiale per spargere veleni.

Vuoi vedere che alla fine i complottisti avevano ragione e anche gli scienziati sono coinvolti in questo progetto?

Direi di no, ma cerchiamo di ragionare su questo documento, prima di trarre azzardate conclusioni.

Per prima cosa, vedere solo la prima pagina del report potrebbe portare fuori strada. Prima di iniziare a discutere, scarichiamo dunque l’intero documento a questo indirizzo:

NASA, 1971

Come vedete, quella riportata e’ veramente la prima pagina di questo documento.

Ora, leggendo i siti complottisti, si possono vedere davvero delle perle di ragionamento e disinformazione. Come potete leggere da soli, si tratta di un’operazione prevista tra la NASA e un istituto di ricerca tedesco. Bene, questo piccolo particolare viene interpretato dai complottisti come un’immensa operazione bellica pensata dal governo americano insieme ai nazisti, vengono definiti cosi’, tedeschi per continuare esperimenti sulla popolazione inerme.

Leggete attentamente quanto contenuto nel documento e, soprattutto, cosa che forse qualcuno non ha fatto o ha fatto finta di non fare, capiamo quello che il documento dice. Come potete leggere, si tratta di un esperimento “scientifico” per studiare i campi elettrici e magnetici ad alta quota. Per alta quota, non sparo numeri ma leggo dal documento, si parla di 20000 miglia di altitudine.

In cosa consiste l’esperimento?

Si prevede il lancio di un vettore per andare ad alta quota e spargere una miscela di ossido di bario e rame per formare una nuvola di questi composti ad alta quota. Ora, queste sostanza sono sensibili al campo magnetico e il loro sucessivo moto potrebbe essere utilizzato proprio per studiare intensita’, direzione e verso dei vettori di campo a queste altezze.

Per farvi un esempio, che poi e’ lo stesso che trovate nel documento, se prendete della limatura di ferro e la spargete intorno ad un magnete, vedrete come la limatura si orienta esattamente nella direzione delle linee del campo magnetico, cioe’ quelle linee invisibili che vanno dal polo nord al polo sud della calamita. Secondo le stesso principio, gli ossidi in atmosfera si orietano e seguono le linee di campo. Osservando da terra, con speciali stazioni appositamente pensate, potete dunque ottenere informazioni su questi parametri fisici.

Detto questo, quello riportato nel report non e’ assolutamente un esperimento di geoingegneria, o come vogliono chiamarla i complottisti, ma un esperimento scientifico volto ad evidenziare importanti caratteristiche del nostro pianeta e del vento solare che incide sugli strati alti dell’atmosfera.

Ora pero’, prima di chiudere facciamo un’altra importante considerazione. Secondo voi, se si trattasse di un segretissimo esperimento condotto dalla NASA con i nazisti su ordine di qualche potente organizzazione misteriosa, il documento sarebbe sul web facilmente scaricabile da chiunque? Personalmente, credo proprio di no.

Nello stesso sito dove abbiamo scaricato questo pdf, ci sono tantissimi articoli visto che si tratta della pagina in cui la NASA deposita i suoi Technical Reports. Mi permetto di dare un bel suggerimento ai compottisti per cercare nuove perle da spacciare come prove. Se andate sul sito generale a questo indirizzo:

NASA, TRS

Trovate anche un motore di ricerca per cercare tra i documenti. Se provate ad immetere come parole chiave “barium cloud”, trovate tantissimi articoli e proposte di misura che sono state fatte nel corso degli anni. I complottisti potrebbero creare un nuovo “scandalo” utilizzando uno per uno questi articoli, almeno avrebbero materiale per andare avanti altro tempo e cercare di convincere sempre piu’ persone dell’esistenza delle scie chimiche.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Rapido aggiornamento sulla ISON

20 Ott

Uno degli argomenti che maggiormente fa discutere sul web, sia sotto il profilo scientifico che catastrofista, e’ senza dubbio la cometa Ison. Come sappiamo bene, gia’ da mesi circolano leggende riguardo a questa cometa, racconti di fantasia che vorrebbero la cometa essere in realta’ questo o quest’altro, essere in rotta di collisione con la Terra o tante altre storielle non documentate che fanno sorridere piu’ che riflettere.

Dal canto nostro, diverse volte abbiamo parlato della ISON:

2013 o ancora piu’ oltre?

E se ci salvassimo?

Che la ISON abbia pieta’ di noi!

– Se la Ison non e’ cometa, allora e’ …

Come sappiamo bene, questa cometa era stata annunciata come la cometa del secolo. Onde evitare fraintendimenti, vi ricordo che un calcolo simulato della reale traiettoria di qusto tipo di oggetti non e’ banalmente eseguibile. Con questo non intendo dire che la cometa potrebbe essere in rotta di collisione con la Terra, bensi’ che determinare a priori, e a distanza di mesi, se la Ison sia in grado di sopravvivere al massimo avvicinamento con il sole non e’ affatto facile.

Detto questo, credo sia interessante dare un rapido aggiornamento sulla Ison per capire quali sono i risultati delle ultime osservazioni.

Ad oggi, la Ison si trova ancora dalle parti di Marte ed ha superato la cosiddetta linea di gelo di cui avevamo parlato negli articoli precedenti.

In rete si trovano alcune foto molto interessanti scattate alla cometa. Per prima cosa vi voglio mostrare questa immagine:

Immagine della Ison al 1 Ottobre scattata dal MRO.

Immagine della Ison al 1 Ottobre scattata dal MRO.

Queste immagini sono state scattate il 1 Ottobre, quando la ISON e’ passata a circa 6.5 milioni di kilometri dalla superficie del pianeta rosso, distanza estremamente minore di quella di minimo avvicinamento alla Terra. Le foto sono state fatte dalla sonda MRO che sta esplorando la superficie di Marte. Se pensate che la risoluzione delle immagini sia troppo bassa, vi dico subito che le foto sono state fatte utilizzando la camera HiRISE della sonda, normalmente utilizzata per osservare ad alta risoluzione la superificie del pianeta. Questo spiega il perche’ della bassa risoluzione ma soprattutto vi fa capire quanto versatile sia questa camera montata sul MRO.

Oltre a questa prima foto, in queste ultime ore e’ stata pubblicata un’altra immagine spettacolare della cometa:

Immagine della Ison del 9 Ottobre, scattata dal telescopio Hubble.

Immagine della Ison del 9 Ottobre, scattata dal telescopio Hubble.

Inutile dire che questa immagine e’ davvero sensazionale. La foto e’ stata scattata il 9 ottobre dal telescopio Hubble. In questo caso, lo strumento utilizzato era ovviamente ottimizzato per questo genere di riprese e l’immagine e’ stata ottenuta sovrapponendo le informazioni di due diversi filtri.

Fate attenzione ad una cosa, notate come la parte centrale della cometa appaia molto compatta ed uniforme. Cosa significa questo? Semplicemente, che il nucleo della cometa non si e’ frammentato ma e’ ancora del tutto compatto. Questa informazione e’ molto importante per poter valutare il destino della Ison nel passaggio al perielio.

Dunque? Se il nucleo e’ compatto, siamo pronti allo spettacolo tanto atteso?

Purtroppo, questa sarebbe una conclusione affrettata. Da una stima preliminare, e al contrario di quanto affermato nelle settimane scorse dai tanti siti catastrofisti, il nucleo della Ison ha una dimensione molto minore di quella aspettata. In questo caso, parliamo di un nucleo con un diametro tra 0.5 e 2 km appena, molto minore di quello, ad esempio, della Hale Bopp di cui tutti abbiamo uno splendido ricordo.

Ovviamente, il fatto di avere un nucleo compatto da qualche speranza in piu’ per il passaggio al perielio, anche se, viste le dimensioni, e almeno in questa fase preliminare, ridimensiona molto lo spettacolo che ci attende qualora la cometa sopravviva al passaggio radente intorno al Sole. Sicuramente, anche in queste condizioni, la Ison sara’ in grado di offire un buon spettacolo, ma, molto probabilmente, non ai livelli che molti attendevano.

Nonostante questo, non dimentichiamo che ogni passaggio di questi oggetti ci consente di capire meglio molte importanti caratteristiche delle comete. Allo stato attuale, la Ison potrebbe essere molto ben visibile a Dicembre, dopo il passaggio al perielio il 28 novembre. Purtroppo, molto probabilmente, non avremo un qualcosa piu’ luminoso della luna ne tantomeno visibile in pieno giorno.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Messina: come prevedere i terremoti?

17 Ago

Qualche giorno fa, sulla rete si era cominciato a parlare di una nuova previsione su eventi sismici che avrebbero interessato il nostro paese. Per essere precisi, la previsione era stata fatta il 10 agosto da tale Luke Thomas che avrebbe predetto tra il 16 e il 17 agosto, con maggiore probabilita’ il 16, una scossa di magnitudo M5.4 in Sicilia.

Come sapete, di previsioni di questo tipo la rete ne e’ stracolma. Ogni giorno c’e’ qualcuno che si sveglia e, guardando le stelle, le nubi, i fondi del caffe’ o l’umore della vicina di casa, prevede che un terremoto piu’ o meno forte potrebbe esserci da qualche parte. Sistematicamente, queste previsioni vengono disattese.

Perche’ ora vi parlo di questo argomento?

La risposta e’ molto semplice, personalmente non ho nemmeno preso in considerazione la previsione fatta da Luke Thomas, dal momento che ne avevamo gia’ parlato in abbondanza. Proprio ieri pero’, 16 agosto, due scosse ravvicinate di M41.1 e M4.2 hanno colpito il messinese.

E ora come la mettiamo?

Come potete facilmente immaginare la rete sta letteralmente esplodendo di notizie che parlano di Luke Thomas e della sua previsione esatta. In molti casi, come sempre, si parla di previsione con metodi scientifici che la scienza ufficiale non vuole adottare o che si rifiuta di ammettere perche’ non provenienti da un vero scienziato.

Prima di lasciarci sopraffare da queste farneticazioni, facciamo un po’ di chiarezza su questa faccenda.

Partiamo dalle basi. Chi e’ Luke Thomas? Questo tizio sarebbe un “ricercatore”, nel senso catastrofista del termine che ormai conosciamo, inglese sedicente “esperto” di terremoti. Sul suo sito web, pubblica ogni giorno delle tabelle di previsione dei terremoti, rapresentate come probabilita’ di evento. Mi spiego meglio, guardando al suo sito, trovate, ad esempio, per l’Italia, diverse zone del paese con una probabilita’ giornaliera che possa verificarsi un terremoto piu’ o meno intenso.

Bene, come vengono stimate queste probabilita’?

Thomas studierebbe l’andamento di molti parametri che lui avrebbe identificato come precursori sismici. Piccola parentesi, di previsione dei terremoti ne abbiamo parlato a volonta’, questi sono solo alcuni esempi di articoli:

Terremoti, Pollino, Radon, Giuliani, L’Aquila …

Riassunto sui terremoti

– Analisi statistica dei terremoti

Dati falsi sui terremoti

Terremoti, basta chiacchiere. Parliamo di numeri.

Terremoti: nuove analisi statistiche

Tutte le volte, siamo qui a raccontare che, al momento, non e’ ancora possibile prevedere i terremoti, che non e’ stato possibile identificare uno o un set di parametri che potrebbero indicare l’arrivo di un terremoto, ecc. Poi invece arriva Luke Thomas e ha i precursori in mano. Le cose sono due, o racconta fandonie, o veramente la scienza fa finta di chiudere gli occhi di fronte ad evidenze del genere.

Quali sono i precursori usati da Thomas?

Variazione di temperatura della zona, piccole scosse nei giorni precedenti, comportamento degli animali, comportamento degli esseri umani, fasi lunari, assenza prolungata di sismicita’, variazione di temperatura dell’acqua e nubi sismiche.

Cerchiamo di capirci qualcosa.

Riguardo alle nuvole sismiche, abbiamo gia’ smentito questo parametro come precursore in questo articolo:

Nuvole sismiche

ed in quelli direttamente richiamati.

Anche sul comportamento degli animali che sarebbero in grado di prevedere i terremoti, ne abbiamo parlato in questo post:

Animali e terremoti

mostrando come questa relazione nasca soltanto dalla leggenda popolare e non ha nessuna veridicita’ scientifica.

Anche parlare di fasi lunari, e’ come parlare di allineamenti planetari in grado di causare il fenomeno delle maree solide. Come detto tante volte, secondo questo assunto, il movimento dei pianeti sarebbe in grado di influenzare l’attrazione gravitazionale verso il nostro pianeta e quindi di innescare il movimento delle placche che galleggiano su un mare di magma. Di questo abbiamo parlato in questo post:

Allineamenti, terremoti e … Bendandi

mostrando come queste variazioni siano minime e del tutto non sufficienti a creare effetti del genere.

Non mi e’ chiaro come venga preso in considerazione il comportamento degli esseri umani. Se mi permettete, questo mi sembra piu’ un parametro per fare colore e dare un tocco di misticismo alla previsione.

Anche parlare di temperatura delle acque o superficiale, non e’ del tutto chiaro. Ovviamente, rilasci di gas potrebbero modificare localmente la temperatura di una zona o dell’acqua, ma non e’ assolutamente una relazione 1 a 1, cioe’ se si verifica vuol dire che sta arrivando il terremoto. Se poi pensiamo a scosse molto profonde, la connessione con la temperatura superficiale diviene del tutto assurda.

Detto questo, possiamo dunque dire che non c’e’ nulla di vero?

Certo che si, ma vorrei analizzare ancora piu’ a fondo la notizia per mostrarvi in verita’ come viene fatta la previsione e come considerare questo Luke Thomas.

Premetto che Luke Thomas ha gia’ fatto innumerevoli previsioni in passato, tutte sistematicamente disattese. Famosa e’ quella di qualche anno fa in cui il “ricercatore” aveva previsto n terremoto di magnitudo 7 in California. Terremoto mai avvenuto ma a causa della previsione l’USGS americano era stato subissato di lettere e mail per avere informazioni. Piccolo appunto, sul web leggete che Thomas sarebbe un ricercatore e lavorerebbe proprio per l’USGS. Cosa completamente falsa, non esiste nessun rapporto tra l’istituto americano e Thomas.

Premesso questo, vi mostro la tabella da cui e’ stata presa la previsione per la Sicilia:

Previsioni della settimana per l'Italia

Previsioni della settimana per l’Italia

Come vedete vengono riportate diverse zone e giorno per giorno viene mostrata una probabilita’ che possa avvenire un terremoto. Ora, per il 16 agosto, la probabilita’ era del 100% a Catania, a Messina e a Napoli. Mentre abbiamo una probabilita’ del 99% a Pescara e del 93% a Firenze.

Parlare di Firenze, Pescara, Napoli e Sicilia, significa indicare una probabilita’ altissima in mezza Italia. Capite bene come questo significhi sparare numeri a caso.

In altri termini, la previsioni di Thomas funzionano cosi’: si prende una zona sismica e si danno probabilita’ piu’ o meno alte per vastissime zone. Non diciamo certo un’assurdita’ affermando che l’Italia e’ una zona sismica. Dare un raggio pari a meta’ della nazione e’ equivalente a sparare numeri a caso. E’ come se io scrivessi sul blog ogni giorno che ci sara’ un terremoto in California, o in Giappone o in qualche altro paese sismico. Prima o poi, la mia previsione verra’ azzeccata.

Tra l’altro, vi faccio notare che la previsione di Thomas era relativa ad un terremoto M5.2. Quello avvenuto era M4.2, cioe’ piu’ di 30 volte inferiore in termini energetici rispetto a quello atteso.

Concludendo, non c’e’ assolutamente nulla di scientifico ne tantomeno di vero nelle previsioni di Luke Thomas. Si tratta di previsioni fatte utilizzando presunti parametri sui quali la scienza si e’ gia’ interrogata non trovando correlazioni dirette con i sismi. Le tabelle mostrate sul sito internet di Thomas, sono relative a probabilita’ stimate in ampissime zone di paesi noti come sismici da sempre. Tra l’altro, tutte le previsioni fatte in passato sono state sistematicamente disattese. Detto questo, la previsione azzeccata che leggete su internet e’ solo frutto di “fortuna”. A forza di sparare previsioni, alla fine una viene presa, ma senza nessun criterio scientifico ne riproducibile.

Purtroppo, c’e’ ancora chi crede a questi pseudo-stregoni che utilizzano metodi mistici e senza senso per far credere di saper prevedere i terremoti. La scienza e’ alla continua ricerca di precursori sismici per permetterci di prevedere, anche solo di qualche ora, i terremoti. Purtroppo, al momento, nessuno e’ in grado di prevedere i terremoti. L’unico strumento che abbiamo in mano per difenderci da questi eventi naturali e’ fare prevenzione e mettere in sicurezza i nostri edifici.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Ancora sugli esopianeti

15 Ago

Come sapete, siamo soliti tornare su argomenti gia’ trattati, qualora su questi venissero richiesti dettagli aggiuntivi o, sopratutto, quando qualcosa di nuovo viene scoperto o introdotto.

Questa volta vogliamo tornare a parlare di esopianeti, su cui molto avevamo detto in questi articoli:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Esopianeti che non dovrebbero esserci

Perche’ torniamo a parlarne?

Perche’ tutti e due i motivi sopra indicati convergono su questo argomento. Prima di tutto, nella sezione:

Hai domande o dubbi?

e’ stato suggerito di parlare della presunta scoperta di un nuovo esopianeta che sembrerebbe poter essere il corpo extrasolare piu’ simile alla nostra Terra e poi perche’ ci sono anche delle novita’ di cui vorrei parlare.

Andiamo con ordine.

Come potete leggere, la richiesta era relativa all’esopianeta KOI-4742.01. Come giustamente detto, di questo pianeta si e’ avuta l’evidenza solo pochi giorni fa. Perche’ parlo di evidenza e non di scoperta? Usando un linguaggio piu’ simile a quello della fisica delle particelle, si parla di evidenza quando c’e’ il sospetto che potrebbe esserci un corpo in quella zona dell’universo che stiamo osservando, ma ancora non vi e’ la certezza. Per KOI-4742.01 la situazione e’ proprio questa. Come visto negli articoli precedenti, gli esopianeti vengono identificati con il metodo dei passaggi. Per prima cosa, si identifica la stella intorno ala quale potrebbe esserci un sistema stellare. Dopo di che, si osserva questa stella cercando di misurare le minime variazioni di luminosita’ che si hanno quando un pianeta gli passa davanti. Questo e’ il metodo utilizzato per identificare i pianeti fuori dal sistema solare. Come potete facilmente immaginare, si tratta di un metodo molto complicato basato su variazioni minime di luminosita’ percepite ad una distanza cosi’ lontana. Proprio per questo motivo, ruolo determinante in questa ricerca e’ sicuramente quello del telescopio. Strumenti sempre piu’ potenti e precisi, possono consentire di identificare pianeti sempre piu’ lontani e piccoli.

Perche’ parliamo tanto di esopianeti?

Come detto in passato, lo studio di questi corpi e’ di fondamentale importanza per cercare di capire dove si potrebbe essere sviluppata la vita. Qui non stiamo parlando di video fasulli di UFO che passano da qualche parte, ma di una seria ricerca scientifica volta ad identificare pianeti potenzialmente abitabili. Come detto diverse volte, vi ricordo che quando parliamo di vita, non intendiamo necessariamente omini verdi che parlano e girano su astronavi. Ogni qualsiasi forma di vita, dal batterio alla forma piu’ complessa, possono aiutarci a capire meglio la formazione del nostro universo e soprattutto in quali e quanti casi si possono formare le condizioni per ospitare la vita.

Cosa ha di speciale KOI-4742.01?

Come anticipato, si tratta del potenziale esopianeta piu’ simile alla Terra. Cosa significa? Al momento ci sono piu’ di 3500 potenziali esopianeti, di cui quasi 1000 certi e identificati. Volendo fare una ricerca per trovare zone potenzialmente abitabili, di quali parametri terremo conto? Detto in altri termini, come possiamo dire se un pianeta e’ adatto o no per ospitare la vita?

Negli articoli precedenti, avevamo parlato di “zona di abitabilita’”, intendo quella fascia di distanze dalla stella centrale in grado di assicurare la formazione di acqua sul pianeta e delle temperature, diciamo, decenti, cioe’ non troppo calde ne’ troppo fredde.

Per poter procedere in modo sistematico e scientifico, e’ stato introdotto un indice matematico proprio per racchiudere queste caratteristiche. Come indicato nel commento da cui siamo partiti, si tratta del cosiddetto ESI, cioe’ “indice di similarita’ alla Terra”. Come funziona? Volendo utilizzare una terapia d’urto, vi faccio vedere la formula che definisce l’ESI:

esi_formula

Non spaventatevi, altro non e’ che il prodotto di probabilita’ ottenuto mettendo insieme 4 fattori: il raggio del pianeta, la densita’ interna, la velocita’ di fuga (indicatore della gravita’ sul pianeta) e la temperatura media della superficie. Ogni parametro viene confrontato con quelli della Terra e pesato in modo diverso. In tal senso, per la potenziale formazione della vita, si considera la temperatura superficiale piu’ importante del raggio e cosi’ via. Mettendo i parametri nella formula, ottenete una valore compreso tra 0 e 1, dove 1 indica qualcosa identico alla nostra Terra.

KOI-4742.01 ha un ESI pari a 0,91 ed e’, qualora venisse confermato, l’esopianeta piu’ simile alla Terra trovato fino a questo punto. Prima di questo, il primo posto in classifica spettava a Kepler-62e, con un ESI pari a 0,83. Per essere precisi, dobbiamo dire che il primo posto in classifica spetta ancora a Kepler-62e, dal momento che KOI-4742.01 non e’, come detto in precedenza, stato ancora confermato. Allo stesso modo, esistono anche altri esopianeti non confermati che potrebbero avere un ESI maggiore di 0,83, anche se minore di quello di KOI-4742.01.

Il sito piu’ completo e aggiornato con tutte le recenti scoperte e con tantissime informazioni su questo tipo di ricerche e’ senza dubbio quello del PHL, cioe’ Planet Habitability Laboratory, gestito dall’universita’ di Porto Rico:

PHL site

Come potete vedere, qui trovate tantissime informazioni sulla ricerca in corso di esopianeti, insieme anche al catalogo aggiornato sia dei corpi identificati che di quelli sospetti:

PHL, database

Nell’immagine che segue, trovate poi la classifica dei pianeti con ESI maggiore gia’ confermati:

Classifica degli esopianeti confermati con ESI maggiore

Classifica degli esopianeti confermati con ESI maggiore

Prima di concludere, vorrei darvi qualche informazione aggiuntiva. Come potete vedere sul sito del PHL, gli esopianeti vengono anche classificati in base alla loro tipologia: terrestre caldo, superterrestre, subterrestre, mercuriano, ecc. Questa identificazione viene data considerando la tipologia di pianeta, se roccioso o meno, la temperatura e la massa del pianeta. Per farvi un esempio, Kepler-62e e’ classificato di tipo superterrestre, avendo una massa di circa 3 volte e mezzo quella della Terra. Anche questa distinzione risulta molto importante per la classificazione dei pianeti in base alla loro possibilita’ di ospitare o meno la vita.

Proprio per questo motivo, capite bene che l’ESI e’ si un parametro molto importante ma non e’ l’unico utilizzato. Nella classificazione degli esopianeti, si tiene conto di 7 parametri definiti a partire dala nostra Terra. Oltre all’indice di similarita’, si tiene conto della posizione, se in fascia abitabile o meno, dell’abitabilita’ per piante e vegetazione complessa, che dipende anche dall’umidita’ oltre che dalla temperatura, della tipologia dell’interno del pianeta, oltre che alla densita’ inserita nell’ESI qui si tiene conto se il nucleo e’ ricco di ferro o no, e tanti altri parametri importanti per la vita.

Concludendo, la ricerca degfli esopianeti continua senza sosta e il database di corpi conosciuti fuori dal nostro sistema solare cresce senza sosta. Come sappiamo bene, uno degli scopi principali di questa ricerca e’ quello di determinare se su qualche pianeta esistono le condizioni per la formazione e lo sviluppo di forme di vita. A tal proposito, sono stati introdotti diversi indici per formalizzare e confrontare facilmente le caratteristiche degli esopianeti. Tra questi, ruolo determinante e’ quello dellESI, cioe’ l’indice di somiglianza alla Terra. Fate pero’ attenzione ad una cosa: se anche dovessimo trovare un pianeta del tutto simile alla Terra e con caratteristiche adatte alla vita, non significherebbe assolutamente che esiste la certezza di trovare vita su quel pianeta. Per questo, non resterebbe che andare a vedere con i nostri occhi!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il miracolo del sangue di San Gennaro

11 Ago

Nella sezione:

Hai domande o dubbi?

e’ stato richiesto un argomento davvero molto interessante. Come potete leggere, ci e’ stato chiesto di scrivere un articolo sul cosiddetto “miracolo del sangue di San Gennaro”. Credo che questo argomento sia davvero molto interessante perche’, in particolare, esistono due scuole di pensiero molto rigide a riguardo: quelli che credono al miracolo e quelli che invece credono che la scienza abbia gia’ spiegato tutto, mostrando la natura non miracolosa del fatto.

In realta’, cosi’ come spesso avviene su questo blog, non esiste una spiegazione certa e comunemente accettata per la liquefazione del sangue di San Gennaro. Esistono delle ipotesi molto plausibili, ma che hanno subito e continuano a subire molte critiche anche da addetti ai lavori non pienamnete convinti della spiegazione.

Come nostra abitudine, cerchiamo dunque di analizzare in dettaglio la cosa, ragionando in modo autonomo e cercando, qualora ce ne fossero, di provare a rispondere ai punti ancora scoperti della questione.

Partiamo da quello che tutti conoscono: in tre date particolari, il 19 settembre, il sabato che precede la prima domenica di maggio e il 16 dicembre, a Napoli viene organizzata una grande processione in cui viene mostrato il reliquiario con il sangue di San Gennaro. Durante questo rito, il reliquiario viene mosso in modo molto rituale e se il sangue si liquefa allora questo viene visto come un buon auspicio per la citta’. Inutile dire che questa manifestazione e’ molto sentita dai napoletani, da sempre molto devoti al Santo. Proprio per questo motivo, come riprenderemo in seguito, e’ molto difficile provare a dare spiegazioni razionali della cosa, senza incorrere nel nervosismo dei fedeli partenopei.

In particolare, il reliquiario contiene al suo interno due ampolle, una riepita piu’ o meno fino a meta’ e l’altra con poche tracce di “sangue”. Per il momento, permettetemi di scrivere “sangue” tra virgolette perche’ questo e’ uno dei punti maggiormente discussi della questione.

Per inquadrare meglio il problema, ripercorriamo la storia di queste reliquie e ovviamente quella del santo.

Per essere precisi, la storia stessa di San Gennaro e’ molto fumosa e, proprio per questo motivo, diverse fonti hanno addirittura messo in discussione l’esistenza stessa del Santo. Il 19 settembre 305, durante la persecuzione di Diocleziano verso i Cristiani, si racconta che Gennaro, vescovo di Benevento, venne decapitato insieme ad altri fedeli nella solfatara di Pozzuoli. Secondo altre fonti, Gennaro, nella stessa data, venne destinato ai leoni. Questa e’ gia’ una prima incongruenza della storia, ma, nonostante la parte centrale non coincida, la fine e’ sempre la stessa: qualora fosse esisitito, Gennaro sarebbe stato un martire cristiano.

Come usanza nei confronti dei martiri, il sangue ed il corpo di Gennaro vennero raccolti e conservati.

Le cerimonie in onore di San Gennaro vennero istituite nel 1337 ma la prima liquefazione venne osservata il 17 agosto 1389. Cosa significa? Come e’ facile immaginare, il sangue raccolto all’interno delle ampolle appare in forma solida e scura. Per liquefazione si intende il ritorno del sangue allo stato fluido. Detto in altri termini: il sangue ritorna nel suo stato normale, come se fosse appena sgorgato dalla testa del santo. Da allora, come anticipato, il miracolo del sangue viene tentato 3 volte l’anno: nell’anniversario della morte, nell’anniversario dello spostamento dei resti nelle catacombe di Capodimonte e nell’anniversario di una forte eruzione del Vesuvio, durante la quale i napoletani si affidarono completamente al Santo che risparmio’ la citta’.

Analizziamo subito questi fatti: dal 1389, si sono avute circa 11000 liquefazioni del sangue. Il miracolo si e’ ripetuto “quasi” sempre, tranne qualche sparuto caso. In qualche occasione, la liquefazione si e’ avuta anche in date diverse da quelle ufficiali. Teniamo a mente questi particolari, perche’ tra poco entreranno prepontentemente nella discussione.

Bene, abbiamo capito l’origine e la tipologia del miracolo. Ora, cosa possiamo dire a riguardo? Si tratta di un miracolo o esiste una spiegazione scientifica?

Come anticipato, il discorso non e’ semplice, tantomeno con una spiegazione univoca.

Dal punto di vista scientifico, il sangue umano conservato in un’ampolla sigillata coagula diventando solido. Ora, e’ possibile che si rompa il coagulo e il sangue possa ritornare allo stato liquido, ma questo non puo’ certo avvenire con la regolarita’ mostrata dalla reliquia del santo e soprattutto con lo stesso comportamento per secoli.

L’ipotesi di spiegazione scientifica piu’ accettata, e’ stata data nel 1991 da alcuni ricercatori del CICAP. La spiegazione del comportamento del fluido sarebbe da ricercarsi nella tissotropia. Con questo termine si intendono dei materiali, normalmente in uno stato solido o molto denso, che, a seguito di sollecitazioni meccaniche, possono assumere lo stato fluido per un certo tempo. Interrote le sollecitazioni il materiale torna allo stato solido. In natura esistono diversi composti con questa prorieta’. L’esempio classico che viene fatto e’ quello della salsa Ketchup che quando viene scossa si liquefa riuscendo ad uscire dall’orifizio praticato nel contenitore.

Oltre ad aver proposto la spiegazione, i ricercatori del CICAP hanno anche realizzato una sospensione con proprieta’ tissotropiche e aspetto molto simile a quello del fluido contenuto nelle ampolle. Per realizzare la sospensione sono stati utilizzati: cloruro ferrico, carbonato di calcio, cloruro di sodio e acqua. Lo studio dei ricercatori e la successiva prova sperimentale sono stati pubblicati addirittura sulla illustre rivista Nature, oltre ad avere enorme eco sia sui giornali italiani che esteri.

Dunque? Tutto spiegato, quello cotenuto nelle ampolle non e’ sangue ma un materiale tissotropico e non si tratta assolutamente di un miracolo. In realta’, come anticipato, non e’ assolutamente cosi’. La spiegazione data ha creato un turbine di discussioni che durano ancora oggi.

Proviamo ad analizzare singolarmente le critiche e le successive risposte date.

Per prima cosa, e’ possibile che al tempo si sia realizzato un materiale con queste caratteristiche? Assolutamente si. I composti utilizzati dal CICAP sono noti da secoli e anche molto abbondanti nella zona del napoletano. Il cloruro ferrico, sotto forma di miosite, e’ molto abbondante sulle pendici del Vesuvio. Il carbonato di calcio e’ la molecole principale, quasi il 95%, che compone il guscio d’uovo. Il cloruro di sodio, il sale per intenderci, e’ disponibile ovunque. Dunque, e’ possibile che un composto del genere sia stato realizzato secoli fa in quella zona.

Attenzione pero’, ci sono altri due punti molto importanti e sui quali la discussione e’ ancora in corso. Prima di tutto, il composto realizzato dal CICAP rimane tissotropico per soli 2 anni. Il miracolo del sangue di San Gennaro avviene da secoli. Inoltre, il ricorso ad un materiale di questo tipo non spiegherebbe assolutamente come mai in alcune occasioni, nonostante i ripetuti scossoni al reliquiario, il sangue non si sia sciolto. Analogamente, non si capisce perche’, in alcune occasioni, il sangue era gia’ in forma liquida prima della processione, senza che qualcuno lo avesse scosso.

C’e’ anche un altro punto fondamentale, nel 1902 venne fatta una prima analisi spettroscopica delle ampolle e questi studi mostrarono la presenza di ossiemoglobina, cioe’ la combinazione del pigmento contenuto nei globuli rossi con l’ossigeno. Detto in altri termini, all’interno delle ampolle c’e’ sangue e non qualche strano gel artificiale.

Dunque? Cosa possiamo dire a riguardo?

Iniziamo dagli studi spettroscopici. Come detto, la prima analisi spettroscopica, con un sistema a prisma, venne fatta nel 1902. La presenza di ossiemoglobina venne pero’ confermata anche da analisi successive. Secondo alcuni biologi dell’universita’ di Napoli, quello contenuto nell’ampolle e’ compatibile con sangue umano antico. Durante la liquefazione pero’, il fluido appare con un colore rosso vivo, come se fosse stata possibile la riattivazione dell’ossiemoglobina. Vi ricordo che le ampolle sono sigillate e che in nessun caso il loro contenuto entra in contatto con l’ossigeno dell’aria.

Capite dunque perche’ ancora oggi e’ acceso il dibattito riguardo al miracolo del sangue di San Gennaro. Esiste una proposta di spiegazione scientifica, ma esistono anche delle controaffermazioni basate su fatti oggettivi. Riassumendo, a favore della tissotropia abbiamo: un fluido con le caratteristiche fisiche simili a quelle della reliquia, ottenuto con materiali disponibili al tempo e nella zona, un comportamento meccanico giusto. A sfavore abbiamo: il gel ottenuto dura solo 2 anni, le analisi condotte mostrano che all’interno delle ampolle c’e’ sangue e non un gel sintetico, l’ipotesi tissotropica non spiega perche’ in alcuni casi il sangue non si sia liquefatto mentre in altri si e’ liquefatto prima ancora di essere sollecitato meccanicamente.

A questo punto, non resta che ragionare autonomamente su questi punti, provando a dire la nostra.

Prima di tutto, e’ il caso di dire che la chiesa non riconosce ufficialmente questo come un miracolo. Ad essere sinceri, qualche anno fa, la chiesa aveva eliminato le tre date relative a San Gennaro dal calendario delle celebrazioni liturgiche. Come e’ facile immaginare, questo ha causato una vera e propria rivolta tra i fedeli napoletani, per cui la chiesa ha deciso di non riconoscere ufficialmente il miracolo, ma di non impedire le celebrazioni.

Riguardo invece alla durata temporale del gel tissotropico, gli stessi ricercatori del CICAP autori del gel, sostengono prima di tutto di aver realizzato diversi campioni, i quali hanno mostrato durate anche fino a 10 anni. Ovviamente, siamo ancora lontani dai secoli del sangue di San Gennaro, ma, come riportato in diverse fonti, non e’ stata neanche prestata la massima cura nella chiusura ermetica del tappo delle provette. Studiando ampolle della stessa epoca, si e’ evidenziato come i tappi siano perfetamente sigillati impedendo l’apertura delle reliquie se non rompendole. In questo caso dunque, anche le ampolle di San Gennaro sono perfettamente chiuse in modo stagno, mentre il gel realizzato in laboratorio no.

E come la mettiamo con le spettroscopie fatte? Il fatto di aver trovato emoglobina, dimostra che c’e’ sangue anzi, per essere precisi, dimostra che e’ contenuta una frazione di sangue nelle ampolle. Come capite bene, niente esclude che nelle ampolle possa essere contenuto un gel tissotropico con un aggiunta di sangue.

Personalmente poi, vorrei riflettere su un aspetto: l’ampolla, come anticipato, non e’ completamente piena. In questo caso, sicuramente all’interno, oltre al sangue, e’ presente un certo volume d’aria. Ora, restando nel caso di volume sigillato in modo perfetto, sicuramente le variazioni dei parametri ambientali potrebbero influire sull’aria piu’ che sul sangue. Non mi risulta che la reliquia sia conservata in atmosfera controllata. Se anche fosse, questo non sarebbe sicuramente vero durante le processioni. In questo caso, un aumento di temperatura, a volume costante, provoca un aumento di pressione nell’aria che per costrizione spinge sul sangue. In questo caso, potremmo avere una sollecitazione, non di taglio, di spinta sul sangue. In questo caso, si potrebbe pensare che anche le condizioni di pressione e temperatura dell’aria influirebbero sull’eventuale liquefazione, cosa, almeno dalle fonti viste, non ancora chiamata in causa. Il considerare i parametri ambientali potrebbe anche spiegare perche’ in alcuni casi il sangue non si e’ sciolto. Se la pressione interna e’ piu’ alta, in questo caso le scosse mecaniche date sarebbero ammortizzate dal volume d’aria in sovrapressione, trasferendo minor impulso al sagnue.

A questo punto, capite dunque che la spiegazione del fenomeno della liquefazione del sangue di San Gennaro non e’ ancora stata data o meglio non e’ stata ancora accettata da tutti rispondendo a tutti i quesiti e le possibili domande. Per rispondere in modo sicuro, direte voi, non basterebbe analizzare il contenuto delle ampolle e vedere cosa contengono? Questa e’ un’osservazione verissima. Purtroppo, non e’ possibile analizzare le reliquie perche’ la Chiesa non lo consente. Non so se e’ il caso di dire la Chiesa di Roma o la Curia di Napoli, fatto sta che ad oggi nessuno ha potuto analizzare in dettaglio il contenuto delle ampolle.

Permettetemi una riflessione. Se analizzando il contenuto delle ampolle si scoprisse che dentro c’e’ un liquido tissotropico, i fedeli perderebbero la loro devozione nei confronti del santo? Personalmente credo di no. Forse, in alcuni casi, la spettacolarizzazione degli eventi conta piu’ della verita’. Detto questo, non resta che aspettare di vedere se l’ipotesi tissotropica possa essere confermata in qualche modo o, eventualmente, trovare un’altra spiegazione certa del miracolo. Alla luce di quanto detto, non parlerei assolutamente di miracolo. A riprova di questo, esistono molte reliquie in Italia contenenti sangue di martiri e molte di queste presentano il fenomeno della liquefazione. Anche su questo punto, molti ribattono dicendo che negli altri casi non si registrano fenomeni di liquefazione in date cosi’ precise. Questo non e’ vero del tutto. Nel Duomo di Ravello, e’ conservata una reliquia con il sangue di San Pantaleone, sangue che regolarmente il 27 luglio, data del martirio avvenuto nel 325, tornerebbe liquido. Vi faccio notare anche un’altra cosa: tutte le ampolle conservate con il sangue dei martiri, non vengono prese e “scosse” in date precise per vedere se il sangue si liquefa o no.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Scoperta nuova luna di Nettuno

17 Lug

Osservando le immagini catturate dalle tante sonde in orbita, e’ possibile fare delle scoperte la cui evidenza magari prima non era stata palese. E’ proprio questo il caso della scoperta di cui vi vorrei parlare in questo articolo e che e’ stata pubblicata solo pochi giorni fa sulle riviste scientifiche.

Analizzando le immagini catturate dalla sonda Hubble tra il 2004 ed il 2009, l’astronomo Mark Showalter el SETI Institute della California, si e’ accorto di un piccolo puntino bianco vicino al pianeta Nettuno. Come anticipato dal titolo dell’articolo, quel piccolo puntino che fino ad oggi era passato inosservato e’ in realta’ una nuova luna orbitante intorno al pianeta.

Come e’ stata fatta la scoperta?

Anche Nettuno ha degli anelli di materia intorno, anche se molto meno compatti e visibili di quelli di Saturno. La presenza degli anelli, rende l’osservazione delle lune molto complicata. Come detto in precedenza, la presenza di un piccolo puntino intorno al pianeta ha fatto scattare la scintilla. Riprendendo circa 150 foto scattate da Hubble, si e’ potuta evidenziare la presenza della piccola Luna e ricavarne ovviamente i parametri orbitali.

La nuova luna, la quattordicesima di Nettuno, e’ stata chiamata S/2004 N 1. Dalle misure indiretta fatte, il corpo avrebbe un diametro non superiore ai 20 Km e ruoterebbe intorno al pianeta con un periodo di 23 ore, ad una distanza di circa 100000 kilometri. Questo periodo di rotazione e’ simile a quello degli altri satelliti che infatti ruotano, cosi’ come i dischi di cui accennavamo prima, con velocita’ molto elevata intorno al piu’ esterno tra i pianeti del Sistema Solare.

Dal punto di vista della posizione, la nuova Luna si trova tra Larissa e Prometeo, come indicato dalla ricostruzione pubblicata dalla NASA:

L'orbita della nuova luna nel sistema intorno a Nettuno

L’orbita della nuova luna nel sistema intorno a Nettuno

Come anticipato, Nettuno ha ben 14 satelliti che gli ruotano intorno di cui soltanto uno, Tritone, ha un diametro elevato, paragonabile infatti a quello della nostra Terra. Secondo la teoria astronomica maggiormente accettata, Tritone sarebbe in realta’ un pianeta nano staccato dalla fascia di Kuiper a causa dell’attrazione gravitazionale di Nettuno e che dunque sarebbe poi stato catturato su un’orbita stabile. Sempre secondo questa teoria, la cattura o la formazione, avvenuta per opera di impatti con altri corpi, delle altre lune sarebbe dunque successiva alla cattura di Tritone.

L’evidenza della nuova luna era sfuggita addirittura alla sonda Voyager 2 che nel 1989 aveva ripreso da molto vicino sia il pianeta che il sistema di anelli e lune orbitanti intorno ad esso. Il satellite appena scoperto, oltre al piccolo diametro che abbiamo riportato, ha una luminosita’ molto debole. In termini di confronto, se osserviamo il cielo stellato, la luminosita’ della nuova luna e’ ben 100 milioni di volte più debole della più debole stella visibile a occhio nudo.

Ultima curiosita’: perche’ a questa luna e’ stato dato un nome cosi’ tecnico come S/2004 N 1?

Questo in realta’ e’ un nome provvisorio. Nel prossimo incontro della Unione Astronomica Internazionale, si dovra’ decidere il nome da dare anche a questo nuovo satellite. Seguendo la tradizione, il nome sara’ sicuramente scelto tra le antiche divinita’ legate al mare, cosi’ come il nome stesso del pianeta.

Concludendo, l’osservazione di immagini raccolte da Hubble tra il 2004 e il 2009 ha permesso di identificare una nuova luna per Nettuno. Come visto, si tratta di un corpo molto piccolo, con un diametro che non supera i 20 Km. La storia di questa scoperta ci fa capire come incredibili sorprese possano venire fuori anche guadando immagini di repertorio. Questo per mostrare quanto ancora interessante e’ lo studio del nostro stesso Sistema Solare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

L’ipotesi Gaia

25 Giu

In questi giorni, su molti giornali e’ apparso un articolo che ha suscitato il mio interesse. Secondo alcuni ricercatori, esisterebbe l’ipotesi secondo la quale la vita si autoregola. In tal senso, l’equilibrio creato sulla terra dai numerosi esseri viventi potrebbe arrivare, principalmente a causa dell’uomo, ad un punto di non ritorno. In queste condizioni, la vita sarebbe in grado di spostare il suo punto di equilibrio, trovando nuove condizioni di stabilita’. Questo sarebbe possibile magari modificando i parametri atmosferici o ambientali. Ora, sempre secondo questo studio, non e’ assolutamente certo che le nuove condizioni create siano adatte per ospitare la vita umana sulla Terra.

Questo e’ quello che dice l’articolo pubblicato su una rivista scientifica. In realta’, molti giornali hanno romanzato su questa ricerca, mettendo titoli del tipo “la vita si autoregola e prima o poi si sbarazzera’ di noi”. Tra le altre cose, non mancano i riferimenti ad una tempesta perfetta in grado di spazzare via la vita umana e dunque di far ripartire la Terra senza la nostra, diciamo anche scomoda, presenza.

Come detto, si tratta di un articolo reale basato, in verita’, su studi di simulazione computazionale. In questo senso, diversi parametri sono stati simulati e riprodotti in un algoritmo informatico in modo da studiare l’evoluzione temporale del comportamento di questi parametri. Studi di questo tipo sono molto importanti ed interessanti perche’ consentono di capire meglio lo stato attuale di alcuni aspetti ambientali e, se vogliamo dirlo in altri termini, lo stato di salute del nostro pianeta.

Nonostante questo, lo studio richiama un po’ l’ipotesi Gaia fatta nel 1979 dal chimico inglese Lovelock. Come forse saprete, secondo questo approccio, la Terra stessa e’ vista come una sorta di organismo vivente. Questo e’ in realta’ improprio perche’ nell’ipotesi Gaia, il comportamento adattivo del pianeta e’ dato dalla complessita’ della biosfera, cioe’ nelle relazioni che si possono creare tra gli organismi viventi e con l’ambiente stesso. In particolare, tanto piu’ e’ complesso il sistema, cioe’ maggiori sono le interrelazioni tra i componenti, tanto maggiori saranno le capacita’ adattive del pianeta.

Al tempo, l’ipotesi Gaia e’ stata fortemente criticata da molti esperti, perche’ sembrerebbe assurdo pensare ad un pianeta Terra in grado di prendere decisioni. Personalmente, trovo in realta’ l’ipotesi molto affascinante. Dal punto di vista informatico, ad esempio, sistemi del genere sono fatti per studiare l’eveoluzione su larga scala di modelli complessi. Esempio forse noto a tutti e’ il cosiddetto “Game of Life”. In questi algoritmi, si definiscono delle regole semplici valide per un piccolo insieme, dopo di che si parte da un insieme grande la cui evoluzione, anche se governata da semplici regole locali, non e’ assolutamente certa. Questo avviene perche’ su larga scala l’enorme quantita’ di variabili rendono il sistema fortemente instabile al punto da assumere quasi un comportamento intelligente e non scontato.

Per capire meglio l’ipotesi Gaia, cerchiamo di fare qualche esempio. Al tempo della sua formulazione, Lovelock era impiegato per la NASA per lo studio della possibilita’ di vita sugli altri pianeti in base alla composizione dell’atmosfera. Lovelock trovo’, ironia della sorte, risultati molto interessanti anche applicando i suoi modelli al pianeta Terra. Nel nostro caso, infatti, avere metano e ossigeno simultaneamente, dovrebbe portare, sotto l’azione della radiazione solare, alla rapida formazione di anidride carbonica e vapore acqueo. Se questo meccanismo fosse l’unico, in rapido tempo le condizioni stesse per la vita verrebbero a mancare. Cio’ che rende il sistema stabile, cioe’ con una quantita’ pressocche’ costante di componenti, e’ principalmente il continuo apporto di ossigeno da parte della vegetazione.

Sempre parlando di atmosfera, ci sono molte specie sia acquatiche che terrestri che, ad esempio, contribuiscono a mantenere costante la temperatura media della Terra. Come vedete, ci sono tantissimi fattori, molto spesso collegati tra loro, che consentono di regolare e mantenere le condizioni adatte alla vita. Nell’ipotesi Gaia, sono proprio queste interrelazioni che rendono il sistema quasi pensante ed in grado di adattarsi, cioe’ di trovare nuovi punti di equilibrio quando fortemente sollecitato.

Secondo alcune ipotesi, a seguito, ad esempio, del riscaldamento globale, l’ecosistema Gaia, che, come detto, rappresenta la totalita’ delle relazioni tra specie animali e vegetali, potrebbe rispondere con un abbassamento della temperatura fino a portare ad una nuova era glaciale. Proprio riguardo a questa ipotesi, prima, ad esempio, del Maunder minimum, cioe’ della piccola era glaciale, si erano registrati significativi aumenti della temperatura media in Europa.

Come potete capire, lo studio pubblicato in questi giorni, riprende proprio questi concetti. Se, per qualsiasi motivo, il sistema fosse messo sotto pressione nel modificare alcuni parametri, la Terra potrebbe rispondere spostando e creando un nuovo punto di equilibrio. Ora, non possiamo affermare a priori che questo nuovo equilibrio sia adatto per la vita umana.

Personalmente, trovo lo studio di questi aspetti molto affascinante, ma ovviamente non banale. Da quanto detto, non voglio certo creare io ipotesi catastrofiste, lo scopo di questo articolo e’ solo quello di mostrare il fitto intreccio di relazioni che ci sono non solo tra esseri viventi, ma anche tra specie animali e vegetali o anche con i parametri ambientali. Modificare pesantemente i punti di equilibrio potrebbe portare a rapide modificazioni dell’ecosistema naturale. Detto in altre parole, Gaia non e’ sempre in grado di aggiustare i parametri e fare fronte a tutte le pesanti modifiche che noi gli imponiamo. In questa chiave, non dobbiamo certamente, come forse stiamo facendo, calcare troppo la mano. Prima o poi, potremmo avere conseguenze notevoli sul nostro ecosistema.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.