Tag Archives: fatte

Coltivare senza terra

29 Ott

Coltivare senza terra? Due sono le possibilita’: o siamo impazziti o siamo in vena di scherzi.

Pensateci bene, una delle tecniche piu’ antiche di sostentamento dell’uomo, l’agricoltura, attraversa da diverso tempo una profonda crisi. Coltivare la terra non e’ affatto semplice e, come e’ noto, non e’ neanche redditizio. Tanta fatica, lavoro e poi? Basta una grandinata, un parassita, un periodo di siccita’ e tutto il lavoro viene buttato al vento con conseguente perdita del raccolto e dell’investimento fatto.

Queste sono considerazioni oggettive con cui chi coltiva la terra e’ abituato a vivere ogni giorno.

Altro pensiero, l’agricoltura e’ una tecnica antichissima e’ vero ma, a parte macchinari tecnologicamente avanzati, questa tecnica e’ rimasta uguale a se stessa per secoli. Fate una buca, ci mettete un seme, annaffiate e con l’aiuto del sole avete la vostra pianta o, meglio ancora, un frutto commestibile.

Possibile che non esiste niente di nuovo?

In realta’ si. Anche in questo campo, si sono condotti, e sono ancora in corso, diversi studi mirati proprio a semplificare la vita e rendere l’agricoltura meno rischiosa e piu’ redditizia. Ovviamente, non mi sto riferendo a bombe chimiche in grado di trasformare le piante in qualcosa di resistente o a farle crescere piu’ velocemente e piu’ grandi.

Quello di cui vorrei parlarvi in questo articolo e’ la tecnica di coltivazione senza terra.

Come e’ possibile?

Questa tecnica e’ nota con il nome di idroponica. Come anticipato, le piante non crescono piu’ nella terra ma su substrati inerti. Attenzione, la terra serve a dare alle piante le sostanze nutritive di cui ha bisogno. Senza la terra dove le prendiamo? In questa tecnica, le radici delle piante crescono immerse in una soluzione a pH controllato ricca di sostanze nutritive. Non si tratta di ritrovati chimici sintetici, ma di sostanze naturali concentrate da cui la pianta riceve tutto il nutrimento.

Nell’idroponica, si utilizzano substrati inerti come lana di roccia o argilla espansa che vengono utilizzati per far aggrappare le radici delle piante. Come nelle normali coltivazioni, la crescita delle piante prevede tre momenti salienti: germinazione, crescita, fioritura. Nella prima fase, le radici vengono fatte crescere direttamente immerse nella sostanza nutriente per poi crescere ed arrivare fino alla fioritura, o al frutto.

Esempio di sistema idroponico

Esempio di sistema idroponico

Con questa tecnica, si utilizza un sistema di pompe per far circolare l’acqua in modo da poter sempre irrigare le radici ma anche per recuperare i reflussi da poter riutilizzare nel circuito. In questo modo si ottiene un notevole risparmio di acqua. Pensate che da stime fatte, per far crescere una singola pianta serve un volume circa 1/10 rispetto alle normali tecniche interrate.

In rete trovate gia’ molti sistemi pronti da acquistare e montare in casa. La tecnica idroponica nasce infatti proprio per favorire la coltivazione indoor di piante commestibili. L’investimento iniziale, che ovviamente dipende dal numero di piante che si vogliono far crescere, non e’ proprio economico ma si tratta, appunto, di un investimento iniziale. Come potete immaginare questo kit si compone di una vasca per l’acqua, i liquidi nutritivi per le piante e i circuiti idrici di flusso e reflusso per il recupero.

Con l’idroponia si possono far crescere moltissime varieta’ di piante tra cui, per fare un esempio, lattuga, pomodori, fragole, fagiolini. Insomma, un vero e proprio orto domestico da poter realizzare con spazi e irrigazione molto ridotti.

Quali sono gli svantaggi di questa tecnica rispetto a quella tradizionale?

Ovviamente, e’ necessario un continuo monitoraggio delle piante e del sistema. Il fatto di non avere terra consente di ridurre al minimo la possibilita’ di crescita batterica e di microorganismi dannosi, ma la presenza costante di acqua potrebbe favorire, se non controllate precisamente il pH della soluzione, la crescita di alghe dannose per le piante. Ovviamente, questi inconvenienti sono governabili con una buona manutenzione ed un controllo costante del sistema. Come anticipato, questa tecnica sta cominciando a prendere molto piede perche’ economica su lungo periodo ma soprattutto in grado di massimizzare il rapporto produzione/spesa. In periodi di crisi come questo, sicuramente molti stanno cominciando a rivalutare la possibilita’ di una piccola produzione domestica di ortaggi.

Coltivazione aeroponica

Coltivazione aeroponica

In alternativa all’idroponica vi e’ poi l’aeroponica. In questo caso parliamo di una tecnica ancora piu’ recente e, se vogliamo, innovativa. Nell’aeroponica non abbiamo terra ma neanche substrato inerte che, in alcune condizioni, puo’ favorire una crescita batterica e comunque esurisirsi nel tempo.

Sostanzialmente, la tecnica aeroponica e’ simile a quella precedente ma, a differenza dell’idroponica, non abbiamo una soluzione acquosa sotto le radici, bensi’ un sistema di nebulizzatori che tengono umide le radici con sostanze in soluzione acquosa atte a favorire la crescita e a fornire il nutrimento.

In questo caso, le piante possono essere fatte crescere ovunque utilizzando dei sostegni di poliuretano espanso che servono solo a tenere in piedi la pianta. Ovviamente, necessitando di una continua irrigazione, e’ necessario predisporre un timer che faccia partire i nebulizzatori sotto le radici. Questo rende il sistema solo un po’ piu’ complesso del precedente, ma riduce ulteriormente la possibilita’ di crescita di batteri.

Dal punto di vista economico, i sistemi gia’ pronti per l’aeroponica sono leggermente piu’ costosi, ma parliamo sempre di un migliaio di euro per un sistema finito ed in grado di ospitare fino a 60 piante. Per come e’ realizzato, la spesa relativa all’acqua per l’irrigazione e’ assolutamente minimizzata e l’avere le radici completamente scoperte e nebulizzate consente di massimizzare l’ossigenazione.

Unica pecca del sistema ad aria e’ la necessita’ di calibrare il timer del nebulizzatore. Se non fatto correttamente si rischia di inumidire troppo le radici o di far seccare le piante. Anche in questo caso pero’, in rete si trovano moltissimi manuali pronti all’uso che spiegano tutte le fasi del processo.

Altra considerazione importante, a parte timer e pompe, sia per l’idroponico che per l’aeroponico abbiamo sistemi semplici costruiti che possono anche essere realizzati con un po’ di semplice bricolage utilizzando materiali assolutamente economici.

Come visto, in periodi di crisi come quello che stiamo vivendo, avere la possibilita’ di realizzare un orto in casa con poco spazio, minimizzando i consumi di acqua e senza il rischio di infezioni parassitarie alle piante e’ sicuramente un buon vantaggio. Come detto, si tratta di tecniche innovative ma che stanno gia’ riscuotendo notevole successo anche per le coltivazioni specifiche soprattutto all’interno di serre.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Nuovo materiale

26 Lug

Ogni tanto e’ interessante parlare di materiali del futuro, prima di tutto per capire dove la ricerca ci sta portando e quali futuri benefici si potranno avere sintetizzando nuove sostanze. Gia’ in passato, avevamo parlato di questi argomenti:

Uno sguardo ai materiali del futuro

Allo stesso modo, uno degli aspetti che da sempre solletica l’interesse delle persone verso la ricerca e’ l’assoluta casualita’ di alcune scoperte. Pensare a grandi rivoluzioni scoperte per caso, senza volerlo, e’ un aspetto attraente della ricerca.

In questo articolo, vorrei unire questi due aspetti, parlando della scoperta di un nuovo minerale, la Upsalite.

Cosa sarebbe?

Si tratta di un materiale sintetizzato da alcuni ricercatori dell’Universita’ di Uppsala in Svezia, dotato di una struttura amorfa e composto da un carbonato di magnesio.

Perche’ si parla di scoperta casuale?

Immagini al microscopio elettronico SEM e TEM della Upsalite

Immagini al microscopio elettronico SEM e TEM della Upsalite

Fino a poco tempo fa, si pensava che i carbonati di magnesio non potessero essere prodotti con processi a bassa temperatura, questo unito alla notevole difficolta’ di sintetizzazione di strutture amorfe disidratate, cioe’ nelle quali le molecole di acqua sono state strappate dalla struttura.

Nell’Universita’ di Uppsala, esiste un gruppo di ricerca che si occupa di questi aspetti. Un venerdi pomeriggio, dopo aver modificato i parametri di sintesi dei precedenti tentativi, tutti andati male, i ricercatori hanno lasciato il laboratorio dimenticando il materiale nella cella di reazione. Al loro ritorno il lunedi mattina, si sono trovati un materiale rigido, di nuova sintesi, appunto la Upsalite.

Anche se alcuni giornali hanno parlato solo oggi di questa scoperta, la storia raccontata risale al 2011. Solo in questi giorni pero’, dopo due anni di prove e analisi per perfezionare ia procedura, i ricercatori hanno pubblicato un articolo specifico sul nuovo  materiale. Ecco il sito dove potete leggere l’articolo:

Upsalite

Cosa ha di tanto importante la Upsalite?

Come e’ facile pensare, oltre all’aspetto puramente chimico-fisico della realizzazione di un materiale di questo tipo, l’importanza di una scoperta del genere si valuta in base alle possibili applicazioni del nuovo materiale. La Upsalite ha moltissime applicazioni nei campi piu’ diversi.

Dal punto di vista fisico, e’ formata da una struttura amorfa nanometrica, che gli consente di stabilire un nuovo record per la superficie utile al cm^2. Mi spiego meglio, in molti processi, quella che conta e’ la superficie di contatto tra i materiali. Avere una grande superficie di contatto, consente di poter velocizzare i fenomeni per cui il materiale e’ concepito. Bene, la Upsalite ha una superficie utile di ben 800 m^2 per grammo . Inoltre, il materiale appare poroso con notevoli interstizi vuoti e dal diametro dell’ordine dei 10 nanometri.

Come anticipato, queste caratteristiche rendono la Upsalite utilizzabile in moltissimi campi.

Prima di tutto, la struttura stessa rende il materiale in grado di assorbire notevoli quantita’ di acqua, dunque di ridurre velocemente l’umidita’ con un campione relativamente piccolo. In questo caso, si parla soprattutto di applicazioni industriali nella produzione di deumidificatori, ma anche nella realizzazione di apparecchiature da laboratorio.

Inoltre, la capacita’ di assorbire acqua potrebbe essere sfruttata in tutte quelle applicazioni in cui questa sostanza puo’ arrecare danni. Pensate, ad esempio, ai dispositivi elettronici, alla conservazione dei cibi e dei farmaci, ai magazzini in generale, ecc. Applicazioni oggi riservate, tra le altre cose, ai sacchettini di deumidificante di silica.

Sfruttando invece la struttura porosa, si potrebbe pensare di utilizzare la Upsalite per assorbire inquinanti o sostanze diffuse nell’ambiente. A livello domestico, la Upsalite potrebbe essere sfruttata per eliminare i cattivi odori, applicazione possibile e richiesta anche a livello industriale. Parlando di “odori” non possiamo certo prescindere da inquinanti dispersi in aria. Realizzando attraverso questo materiale filtri appositamente studiati, questa soluzione potrebbe essere sfruttata anche a livello di acque, sia marine che reflue, sfruttando appunto le caratteristiche della Upsalite.

Dal punto di vista ambientale, l’applicazione piu’ importante, potrebbe essere proprio quella per la rimozione di inquinanti in mare. Pensate, ad esempio, ad un carico di petrolio disperso in acqua e catturato spargendo Upsalite sulla superficie.

Essendo stata scoperta in Svezia, nell’articolo stesso non poteva mancare una possibile applicazione per sfruttare la Upsalite eliminando l’acqua, o meglio l’umidita’, dai campi da Hockey.

Concludendo, a volte, scoperte interessanti arrivano in modo del tutto fortuito e non premeditato. Questo e’ il caso della scoperta della Upsalite, un materiale di nuova sintesi che presenta una struttura nanoporosa e la piu’ grande superficie al grammo mai osservata. Queste caratteristische rendono la Upsalite sfruttabile in molti settori e con risvolti davvero notevoli nella vita di tutti i giorni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Haarp chiude i battenti

19 Lug

Il titolo che avete letto e’ corretto, anzi, per dirla tutta, la chiusura di HAARP e’ gia’ avvenuta, precisamente nel maggio 2013. Come dichiarato dal governo americano e dalla Darpa, ad oggi il sito militare dell’Alaska per lo studio degli srati alti dell’atmosfera e della ionosfera e’ ufficialmente abbandonato.

Per chi sta pensando che questa scelta servira’, almeno, a fermare le tantissime teorie cospirazioniste degli ultimi anni si sbaglia di grosso. Anzi, la chiusura di HAARP non ha fatto altro che creare nuove teorie della cospirazione o alimentare voci e miti sulla sua chiusura.

Cerchiamo di andare con ordine. Per prima cosa, cosa dicono i catastrofisti della chiusura di HAARP?

Come potete immaginare, la prima reazione e’ stata: alla fine si sono accorti di aver creato un pericolo per la Terra intera. In alternativa, gli altri paesi sono riusciti ad imporre agli USA la chiusura della piu’ potente arma mai realizzata. C’e’ poi chi parla di sabotaggi, non si sa ad opera di chi, per fermare queste “pericolose attivita’ scientifiche”.

Ovviamente, come visto in questi articoli:

Haarp e terremoti indotti?

Haarp, la causa di tutti i mali!

Tutte queste teorie circa la pericolosita’ dell’installazione ma, soprattutto, circa l’utilizzo delle antenne per uno scopo diverso da quello dichiarato, erano del tutto assurde. Non ci sono prove scientifiche a sostegno di queste ipotesi e, soprattutto, le basi scientifiche su cui si fondano, vedete ad esempio il caso de Aquino negli articoli precedenti, sono addirittura piu’ scarse di quelle di un film fantascientifico di basso livello.

Vista la notizia, non possono certo mancare quei siti che affermano che in realta’ HAARP e’ ancora in funzione e questa e’ solo una notizia per depistare e far crollare l’attenzione sull’installazione.

Altri ancora, sono invece pronti a mostrare dossier, che ovviamente non vengono mai pubblicati ma solo citati, in cui si dimostrerebbe che ormai gli USA sono, grazie alle ricerche fatte in Alaska, in grado di provocare terremoti, cambiare il clima, creare uragani, ecc.

Lasciando da parte queste idiozie, che ho riportato per dovere di cronaca e per mostrare la situazione attuale in rete, cerchiamo di capire perche’ HAARP e’ stato chiuso.

Il motivo reale della chiusura e’ in realta’ il piu’ vecchio del mondo, la mancanza di fondi. Avete capito bene, gli USA hanno deciso di non finanziare piu’ l’esperimento e di interrompere da un giorno all’altro tutte le attivita’.

Anche sull’aspetto fiscale, su molti siti si dimostra l’assurdita’ di questa affermazione mostrando la divisione del budget HAARP per il 2014. Trovate la relazione a questa pagina:

Darpa FY2014

Visto il numero di pagine della relazione, conviene cercare direttamente Haarp e trovare il finanziamento per il 2014.

Come e’ possibile questo? Se ci sono soldi allocati per l’impianto nel 2014, come e’ possibile che sia chiuso?

La situazione e’ la seguente: quelle che vedete nel budget plan sono le spese ordinarie di funzionamento dell’impianto. Purtroppo, a causa di nuove leggi internazionali e alla rottura di alcune componenti, la richiesta economica per mantenere in vita il progetto era molto maggiore di quella allocata. A fronte di questa situazione, il governo degli Stati Uniti ha deciso di congelare il progetto. Cosa significa “congelare”? Semplice, tutte le attivita’ sono ferme a meno che non escano fuori finanziatori pronti ad investire soldi nel progetto. Detto in altri termini, e’ tutto fermo fino a quando non si trova qualcuno pronto a pagare.

Vi sorprende la cosa?

In diversi post, abbiamo parlato dei numerosi tagli fatti dal governo USA per la ricerca scientifica. Purtroppo, questo e’ un periodo di profonda crisi economica, per cui si pesano tutti i soldi da destinare alle attivita’. In passato, avevamo parlato anche dei problemi finanziari della NASA che ha ricevuto per il 2014 i soldi solo per mantenere le attivita’ gia’ in essere, senza poterne sviluppare di nuove da zero.

Personalmente, il discorso economico non mi sorprende per niente. Ricordo benissimo quando nel 2005, il dipartimento di Energia decise di interrompere, da un giorno all’altro, i finanziamenti per BTeV, un esperimento di fisica delle alte energie per lo studio della violazione di CP dai mesoni B. Come visto in questo articolo:

E parliamo di questo Big Bang

la violazione di CP e’ una delle condizioni ipotizzate per la scomparsa dell’antimateria dall’universo. Comprendere in dettaglio queste proprieta’ puo’ farci capire molto bene l’origine stessa del nostro universo. Cosa accadde per BTeV? Come detto, nel giro di due giorni, tutti i finanziamenti al progetto vennero tolti, con la solita dicitura “se si trova qualcuno che paga, allora continuate”. Nel caso di BTeV, parlavamo di una collaborazione di 170 scienziati di tutto il mondo. Anche l’Istituto Italiano di Fisica Nucleare era coinvolta nell’esperimento con finanziamenti gia’ spesi per l’acquisto e lo sviluppo di rivelatori. Nonostante questo, l’esperimento venne chiuso anche se, come nel caso di HAARP, i soldi per l’anno in corso e quello successivo erano gia’ indicati nelle relazioni del governo.

Data la storia di BTeV, capite duque perche’ non mi sorprende affatto la chiusura di HAARP.

Come indicato nel commento fatto nei suggerimenti:

Hai domande o dubbi?

HAARP aveva gia’ fatto importanti ricerche nel suo settore e altrettante misure erano ancora in corso.

Detto questo, torniamo un attimo ai complottisti. Oltre alle storielle viste, pensate che la chiusura di HAARP abbia messo la parola fine su queste ipotesi?

Anche in questo caso, la risposta e’ no!

In rete, comincia a girare una mappa molto interessante, che vi voglio mostrare:

Mappa delle installazioni HAARP nel mondo

Mappa delle installazioni HAARP nel mondo

Di cosa si tratta?

Quella che vedete e’ la mappa delle installazioni HAARP nel mondo. Cosa? Fino a ieri parlavamo solo dell’Alaska, ora escono fuori tutte queste installazioni?

Vi dico subito che non si tratta di un falso. I punti indicati rappresentano proprio delle installazioni che possiamo definire simil-HAARP, cioe’ formate da antenne che emettono a determinate potenze in qualche spettro elettromagnetico.

Queste installazioni, servono in realta’ per compiti anche diversi da quelli di HAARP. Alcune sono pensate per lo studio della magnetosfera, altre per la ionosfera ma a frequenze diverse, altre ancora studiano l’interazione del vento solare con le particelle che circondano la Terra. Insomma, anche in questo caso, analisi molto importanti e, in alcuni casi, diverse da quelle di HAARP.

Perche’ escono fuori solo ora queste installazioni?

La domanda e’ mal posta, nel senso che solo i complottisti si sono accorti oggi di queste installazioni. Come nel caso di HAARP, si tratta di laboratori conosciuti agli addetti ai lavori, che hanno un sito internet e su cui trovate una voce anche su Wikipedia. Pensate che anche solo leggendo la pagina relativa ad HAARP, sia sul sito italiano che inglese, trovate un paragrafetto con tutte le installazioni simili ad HAARP nel mondo, con tanto di collegamento a pagine di wikipedia.

Dunque, anche in questo caso non c’e’ nulla di segreto.

Detto questo, la spiegazione sul perche’ la notizia trapeli solo ora e’ semplice. Molti siti che parlano di scie chimiche, complotti, cospirazioni, ecc, hanno creato un notevole giro d’affari grazie ad HAARP. La chiusura dell’attivita’ poteva mettere a rischio interessi personali. Detto questo, si e’ subito trovata la soluzione alternativa al problema, “scoprendo” che esistono altre installazioni. Come potete leggere anche da Wikipedia:

HAARP, wikipedia ITA

che proprio all’inizio riporta alcune installazione nel mondo simili ad HAARP, in molti casi le potenze in gioco sono molto minori di quelle dell’Alaska, oppure a frequenze completamente diverse.

Concludendo, HAARP e’ stato realmente chiuso dal governo degli Stati Uniti. Al contrario di quanto potete leggere in rete, il motivo e’ di natura economica e questo ha portato ad un congelamento di tutto il laboratorio. Come visto, casi di questo tipo non sono affatto straordinari negli USA dove, tra l’altro, la crisi economica ha portato ad un sostanziale taglio della spesa per la ricerca. Purtroppo, la chiusura dell’attivita’ invece di fermare le ipotesi di complotto ne ha create di nuove. Oltre a queste, ora si puntera’ il dito contro le altre installazioni minori sparse per il mondo, solo per mantenere alta l’attenzione sulle tante teorie che sono state sviluppate da zero negli ultimi anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Le previsioni del tempo

20 Gen

Molto spesso mi viene chiesto come sono fatte le previsioni del tempo. In questi ultimi giorni poi, l’argomento e’ molto di moda anche grazie ai continui annunci di copiose nevicate, ad esempio su Roma, che pero’ ancora non si sono viste.

Cerchiamo di fare un po’ di ordine ma soprattutto di capire quale e quanto lavoro c’e’ dietro quelle previsioni fatte a 1, 2, 3 giorni o, a volte, anche a mesi di distanza.

Al giorno d’oggi, le previsioni del tempo si basano su equazioni numeriche in grado di descrivere i complessi movimenti delle masse d’aria nel mondo, ma soprattutto nell’evoluzione temporale di questi parametri. In soldoni, la fisica vi descrive il movimento di queste masse d’aria e, misurando i parametri in questo momento, viene costruita una simulazione che cerca di fornire la situazione che si avra’ a distanza di tempo.

Meteo

Fate subito attenzione ad una cosa. Come detto, vengono presi i parametri atmosferci ad un certo istante e da questi viene costruita la modellizzazione nel tempo del meteo. Capite subito che tanto piu’ vicina sara’ la previsione richiesta, tanto piu’ affidabile sara’ il risultato fornito.

Per capire questo fondamentale limite, vi faccio un esempio molto facile. Immaginate di vedere una persona che cammina per strada e di voler simulare come cambiera’ nel tempo la sua posizione. L’istante iniziale e’ quello in cui osservate la persona. Ora, immaginando di vedere la persona che sta camminando con una certa velocita’ in una direzione potete dire, senza continuare a guardarla, che dopo 10 secondi sara’ arrivata in quest’altra posizione, dopo 20 secondi in quest’altra, e cosi’ via. Dove sara’ la persona dopo 3 ore? Assolutamente non siete in grado di dare questa risposta perche’ il vostro modello, basato solo sull’osservazione della direzione della persona ad un certo istante, non riesce a rispondere a questa domanda (la persona potrebbe essersi fermata, essere arrivata ad un bivio, potrebbe essere tornata indietro, ecc).

Le previsioni del tempo funzionano piu’ o meno in questo modo. I modelli ovviamente sono molto complessi dal momento che devono descrivere il movimento nel tempo delle enormi masse d’aria circolanti sul nostro pianeta.

La raccolta dei dati per le previsioni atmosferiche viene fatta utilizzando stazioni a terra, palloni sonda e satelliti metereologici. Le informazioni raccolte vengono poi inviate ed analizzate mediante potenti supercomputer in grado non di risolvere le equazioni del modello, ma di dare la risposta piu’ probabile, cioe’ la situazione del tempo ad una certa data.

A questo punto la domanda e’: quali sono i parametri che vengono misurati e perche’ le previsioni a volte sbagliano?

Mentre la prima risposta e’ abbastanza semplice ed intuibile per tutti, la seconda e’ una domanda un po’ piu’ complessa e che merita qualche considerazione aggiuntiva.

Riguardo ai parametri, come potete facilmente immaginare, si tratta di osservare le nuvole, la quantita’ di precipitazioni nel mondo, i gradienti di temperatura e pressione lungo l’atmosfera, i venti ma soprattutto di modellizzare i fenomeni meteorologici dal punto di vista fisico. Se due masse d’aria di temperatura diversa si scontrano, con quale probabilita’ si formeranno nuvole cariche di pioggia? Come vedete, in questo senso, il comportamento in atmosfera, e dunque la fisica, deve essere coniugato con i parametri osservati sul campo.

Partiamo dunque proprio dalla misure sul campo per capire l’affidabilita’ delle previsioni.

Prima di tutto, le osservazioni si basano su una griglia di misura che non copre in maniera adeguata tutta la superficie terrestre. Mentre i satelliti possono osservare praticamente tutto il mondo, le sonde in atmosfera, che forniscono i parametri ambientali, lasciano ampie aree scoperte. Con questo si intende che alcune zone della Terra non sono affatto sfiorate dalle misure. Dovendo trattare un sistema complesso come l’atmosfera, avere delle aree scoperte rappresenta sicuramente un limite. Inolre, l’atmosfera cambia i suoi parametri molto rapidamente, mentre per le previsioni i dati vengono letti ad intervalli regolari e, quindi, non con continuita’.

Sempre sulla stessa scia della griglia dei parametri, ad oggi ancora non e’ del tutto chiaro come la temperatura superficiale delle acque, cioe’ degli oceani, possa influire sul meteo. Come e’ facile immaginare, negli oceani possono essere presenti correnti a temperatura diversa ma e’ impensabile misurare in ogni punto dell’oceano la temperatura superficiale. A riprova di questo, basti pensare, ad esempio, al fenomeno del Nino o della Nina.

Ad oggi, l’affidabilita’ di una previsione a 24 ore e’ circa del 90%, mentre diviene dell’80% a distanza di 3 giorni. Questa stima scende rapidamente al 50% calcolando invece le previsioni ad una settimana. Praticamente, e’ come lanciare una monetina. Visti questi numeri, capite immediatamente come sia assurdo dare previsioni a 2 settimane, oppure sentir parlare ora di come sara’ il tempo quest’estate. Previsioni di questo tipo sono per scopi puramente commerciali e niente hanno a che vedere con la scienza.

Molto spesso, mi viene fatto l’esempio delle previsioni in formula 1. In un gran premio, se dicono che dopo 5 minuti iniziera’ a piovere, potete essere sicuri che accadra’. Perche’? Prima di tutto, si tratta di previsioni a brevissima scadenza, massimo a 30 minuti. Inoltre, si tratta di previsioni fatte in una zona ben precisa e circoscritta che riguarda l’area del circuito. In questo senso, l’attendibilita’ delle previsioni date arriva quasi a sfiorare il 100%.

A questo punto pero’ vorrei spezzare una lancia in favore della meteorologia per farvi capire le difficolta’ reali nell’elaborazione dei dati.

Credo che quasi tutti conoscano il cosiddetto “Effetto Farfalla”: Il battito di ali di una farfalla in Europa puo’ provocare un uragano negli Stati Uniti. Spesso viene raccontato utilizzando luoghi diversi, ma il senso e’ sempre lo stesso: basta un avvenimento minimo per cambiare irreparabilmente il futuro di qualcosa.

Da dove nasce l’effetto farfalla? Forse non tutti sanno che venne formulato proprio parlando di meteorologia.

Il supercomputer ENIAC del 1947

Il supercomputer ENIAC del 1947

Il primo che provo’ a calcolare previsioni meteo in maniera scientifica fu John Von Neumann utilizzando il piu’ potente Super Computer disponibile nel 1950, l’ENIAC. Si tratto’ del quarto computer realizzato nella storia ed in grado di fare calcoli che farebbero ridere un’odierna calcolatrice tascabile. Pensate che durante la cerimonia di inaugurazione, l’ENIAC lascio’ tutti a bocca aperta perche’ calcolo’ in un secondo il risultato di 97367 elevato alla 5000 causando un blackout in una vasta zona di Filadelfia. L’utilizzo principale di questo computer era per il calcolo balistico nel lancio dei missili, ma venne poi utilizzato anche per altri scopi, tra cui per le previsioni del tempo da Von Neumann.

Per darvi un’idea, dati i valori in ingresso, l’ENIAC era in grado di fornire in 24 ore, la previsione per le prossime 24 ore. Capite dunque l’inutilita’ di queste previsioni, arrivato il risultato bastava aprire la finestra per verificarlo, ma servi’ per spianare la strada ai moderni calcoli.

Cosa c’entrano l’ENIAC, Von Naumann e l’effetto farfalla con l’affidabilita’ delle previsioni del tempo?

Dalle previsioni di Von Neumann con l’ENIAC si evidenzio’ come modificando i parametri in ingresso di una quantita’ piccola a piacere, il risultato a distanza di 24 ore, poteva essere radicalmente diverso. Questo risultato venne poi ripreso da Lorenz che fu il primo a formulare l’effetto farfalla cosi’ come lo conosciamo oggi.

Analizzando questi risultati, capite bene quali siano le difficolta’ delle previsioni del tempo. Abbiamo a disposizione dati spesso incompleti, i parametri atmosferici possono cambiare repentinamente modificando completamente la situazione, una minima variazione dei parametri atmosferici puo’ cambiare radicalmente il risultato della previsione anche a breve termine.

Concludendo, la meterologia e’ una scienza molto complessa e non facilmente parametrizzabile mediante funzioni matematiche. Questo limite delle simulazioni e’ esattamente lo stesso di cui abbiamo parlato analizzando il calcolo della rotta di un asteroide. Anche in questo caso, una minima variazione delle condizioni al contorno del nostro problema possono modificare completamente il risultato. Proprio per questo motivo, in astrofisica cosi’ come in meteorologia e’ importante misurare in continuazione i dati ambientali.

Detto questo, se le previsioni a 2 settimane risultano sbagliate, la colpa e’ anche nostra che pretendiamo di avere qualcosa di non calcolabile. Se le previsioni ad un giorno sono sbagliate, pensate che forse c’e’ stata qualche farfalla di troppo.

 

 

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.