Tag Archives: campi

17 equazioni che hanno cambiato il mondo

26 Ago

Nel 2013 Ian Stewart, professore emerito di matematica presso l’università di Warwick, ha pubblicato un libro molto interessante e che consiglio a tutti di leggere, almeno per chi non ha problemi con l’inglese. Come da titolo di questo articolo, il libro si intitola “Alla ricerca dello sconosciuto: 17 equazioni che hanno cambiato il mondo”.

Perchè ho deciso di dedicare un articolo a questo libro?

In realtà, il mio articolo, anche se, ripeto, è un testo che consiglio, non vuole essere una vetrina pubblicitaria a questo testo, ma l’inizio di una riflessione molto importante. Queste famose 17 equazioni che, secondo l’autore, hanno contribuito a cambiare il mondo che oggi conosciamo, rappresentano un ottimo punto di inizio per discutere su alcune importanti relazioni scritte recentemente o, anche, molti secoli fa.

Come spesso ripetiamo, il ruolo della fisica è quello di descrivere il mondo, o meglio la natura, che ci circonda. Quando i fisici fanno questo, riescono a comprendere perchè avviene un determinato fenomeno e sono altresì in grado di “predirre” come un determinato sistema evolverà nel tempo. Come è possibile questo? Come è noto, la natura ci parla attraverso il linguaggio della matematica. Modellizare un sistema significa trovare una o più equazioni che  prendono in considerazione i parametri del sistema e trovano una relazione tra questi fattori per determinare, appunto, l’evoluzione temporale del sistema stesso.

Ora, credo che sia utile partire da queste 17 equzioni proprio per riflettere su alcuni importanti risultati di cui, purtroppo, molti ignorano anche l’esistenza. D’altro canto, come vedremo, ci sono altre equazioni estremanete importanti, se non altro per le loro conseguenze, che vengono studiate a scuola senza però comprendere la potenza o le implicazioni che tali risultati hanno sulla natura.

Senza ulteriori inutili giri di parole, vi presento le 17 equazioni, ripeto secondo Stewart, che hanno cambiato il mondo:

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Le 17 equazioni che hanno cambiato il mondo secondo Ian Stewart

Sicuramente, ognuno di noi, in base alla propria preparazione, ne avrà riconosciute alcune.

Passiamo attraverso questa lista per descrivere, anche solo brevemente, il significato e le implicazioni di questi importanti risultati.

Teorema di Pitagora

Tutti a scuola abbiamo appreso questa nozione: la somma dell’area dei quadrati costruiti sui cateti, è pari all’area del quadrato costruito sull’ipotenusa. Definizione semplicissima, il più delle volte insegnata come semplice regoletta da tenere a mente per risolvere esercizi. Questo risultato è invece estremamente importante e rappresenta uno dei maggiori assunti della geometria Euclidea, cioè quella che tutti conoscono e che è relativa al piano. Oltre alla tantissime implicazioni nello spazio piano, la validità del teorema di Pitagora rappresenta una prova indiscutibile della differenza tra spazi euclidei e non. Per fare un esempio, questo risultato non è più vero su uno spazio curvo. Analogamente, proprio sfruttando il teorema di Pitagora, si possono fare misurazioni sul nostro universo, parlando proprio di spazio euclideo o meno.

 

Logaritmo del prodotto

Anche qui, come riminescenza scolastica, tutti abbiamo studiato i logaritmi. Diciamoci la verità, per molti questo rappresentava un argomento abbastanza ostico e anche molto noioso. La proprietà inserita in questa tabella però non è affatto banale e ha avuto delle importanti applicazioni prima dello sviluppo del calcolo informatizzato. Perchè? Prima dei moderni calcolatori, la trasformazione tra logaritmo del prodotto e somma dei logaritmi, ha consentito, soprattutto in astronomia, di calcolare il prodotto tra numeri molto grandi ricorrendo a più semplici espedienti di calcolo. Senza questa proprietà, molti risultati che ancora oggi rappresentano basi scientifiche sarebbero arrivati con notevole ritardo.

 

Limite del rapporto incrementale

Matematicamente, la derivata di una funzione rappresenta il limite del rapporto incrementale. Interessante! Cosa ci facciamo? La derivata di una funzione rispetto a qualcosa, ci da un’indicazione di quanto quella funzione cambi rispetto a quel qualcosa. Un esempio pratico è la velocità, che altro non è che la derivata dello spazio rispetto al tempo. Tanto più velocemente cambia la nostra posizione, tanto maggiore sarà la nostra velocità. Questo è solo un semplice esempio ma l’operazione di derivata è uno dei pilastri del linguaggio matematico utilizzato dalla natura, appunto mai statica.

 

Legge di Gravitazione Universale

Quante volte su questo blog abbiamo citato questa legge. Come visto, questa importante relazione formulata da Newton ci dice che la forza agente tra due masse è direttamente proporzionale al prodotto delle masse stesse e inversamente proporzionale al quadrato della loro distanza. A cosa serve? Tutti i corpi del nostro universo si attraggono reciprocamente secondo questa legge. Se il nostro Sistema Solare si muove come lo vediamo noi, è proprio per il risultato delle mutue forze agenti sui corpi, tra le quali quella del Sole è la componente dominante. Senza ombra di dubbio, questo è uno dei capisaldi della fisica.

 

Radice quadrata di -1

Questo è uno di quei concetti che a scuola veniva solo accennato ma che poi, andando avanti negli studi, apriva un mondo del tutto nuovo. Dapprima, siamo stati abituati a pensare ai numeri naturali, agli interi, poi alle frazioni infine ai numeri irrazionali. A volte però comparivano nei nostri esercizi le radici quadrate di numeri negativi e semplicemente il tutto si concludeva con una soluzione che “non esiste nei reali”. Dove esiste allora? Quei numeri non esistono nei reali perchè vivono nei “complessi”, cioè in quei numeri che arrivano, appunto, da radici con indice pari di numeri negativi. Lo studio dei numeri complessi rappresenta un importante aspetto di diversi settori della conoscenza: la matematica, l’informatica, la fisica teorica e, soprattutto, nella scienza delle telecomunicazioni.

 

Formula di Eulero per i poliedri

Questa relazione determina una correlazione tra facce, spigoli e vertici di un poliedro cioè, in parole semplici, della versione in uno spazio tridimensionale dei poligoni. Questa apparentemente semplice relazione, ha rappresentato la base per lo sviluppo della “topologia” e degli invarianti topologici, concetti fondamentali nello studio della fisica moderna.

 

Distribuzione normale

Il ruolo della distribuzione normale, o gaussiana, è indiscutibile nello sviluppo e per la comprensione dell’intera statistica. Questo genere di curva ha la classica forma a campana centrata intorno al valore di maggior aspettazione e la cui larghezza fornisce ulteriori informazioni sul campione che stiamo analizzando. Nell’analisi statistica di qualsiasi fenomeno in cui il campione raccolto sia statisticamente significativo e indipendente, la distribuzione normale ci fornisce dati oggettivi per comprendere tutti i vari trend. Le applicazioni di questo concetto sono praticametne infinite e pari a tutte quelle situazioni in cui si chiama in causa la statistica per descrivere un qualsiasi fenomeno.

 

Equazione delle Onde

Questa è un’equazione differenziale che descrive l’andamento nel tempo e nello spazio di un qualsiasi sistema vibrante o, più in generale, di un’onda. Questa equazione può essere utilizzata per descrivere tantissimi fenomeni fisici, tra cui anche la stessa luce. Storicamente poi, vista la sua importanza, gli studi condotti per la risoluzione di questa equazione differenziale hanno rappresentato un ottimo punto di partenza che ha permesso la risoluzione di tante altre equazioni differenziali.

 

Trasformata di Fourier

Se nell’equazione precedente abbiamo parlato di qualcosa in grado di descrivere le variazioni spazio-temporali di un’onda, con la trasformata di Fourier entriamo invece nel vivo dell’analisi di un’onda stessa. Molte volte, queste onde sono prodotte dalla sovrapposizione di tantissime componenti che si sommano a loro modo dando poi un risultato finale che noi percepiamo. Bene, la trasformata di Fourier consente proprio di scomporre, passatemi il termine, un fenomeno fisico ondulatorio, come ad esempio la nostra voce, in tante componenti essenziali più semplici. La trasformata di Fourier è alla base della moderna teoria dei segnali e della compressione dei dati nei moderni cacolatori.

 

Equazioni di Navier-Stokes

Prendiamo un caso molto semplice: accendiamo una sigaretta, lo so, fumare fa male, ma qui lo facciamo per scienza. Vedete il fumo che esce e che lentamente sale verso l’alto. Come è noto, il fumo segue un percorso molto particolare dovuto ad una dinamica estremamente complessa prodotta dalla sovrapposizione di un numero quasi infinito di collissioni tra molecole. Bene, le equazioni differenziali di Navier-Stokes descrivono l’evoluzione nel tempo di un sistema fluidodinamico. Provate solo a pensare a quanti sistemi fisici includono il moto di un fluido. Bene, ad oggi abbiamo solo delle soluzioni approssimate delle equazioni di Navier-Stokes che ci consentono di simulare con una precisione più o meno accettabile, in base al caso specifico, l’evoluzione nel tempo. Approssimazioni ovviamente fondamentali per descrivere un sistema fluidodinamico attraverso simulazioni al calcolatore. Piccolo inciso, c’è un premio di 1 milione di dollari per chi riuscisse a risolvere esattamente le equazioni di Navier-Stokes.

 

Equazioni di Maxwell

Anche di queste abbiamo più volte parlato in diversi articoli. Come noto, le equazioni di Maxwell racchiudono al loro interno i più importanti risultati dell’elettromagnetismo. Queste quattro equazioni desrivono infatti completamente le fondamentali proprietà del campo elettrico e magnetico. Inoltre, come nel caso di campi variabili nel tempo, è proprio da queste equazioni che si evince l’esistenza di un campo elettromagnetico e della fondamentale relazione tra questi concetti. Molte volte, alcuni soggetti dimenticano di studiare queste equazioni e sparano cavolate enormi su campi elettrici e magnetici parlando di energia infinita e proprietà che fanno rabbrividire.

 

La seconda legge della Termodinamica

La versione riportata su questa tabella è, anche a mio avviso, la più affascinante in assoluto. In soldoni, la legge dice che in un sistema termodinamico chiuso, l’entropia può solo aumentare o rimanere costante. Spesso, questo che è noto come “principio di aumento dell’entropia dell’universo”, è soggetto a speculazioni filosofiche relative al concetto di caos. Niente di più sbagliato. L’entropia è una funzione di stato fondamentale nella termodinamica e il suo aumento nei sistemi chiusi impone, senza mezzi termini, un verso allo scorrere del tempo. Capite bene quali e quante implicazioni questa legge ha avuto non solo nella termodinamica ma nella fisica in generale, tra cui anche nella teoria della Relatività Generale di Einstein.

 

Relatività

Quella riportata nella tabella, se vogliamo, è solo la punta di un iceberg scientifico rappresentato dalla teoria della Relatività, sia speciale che generale. La relazione E=mc^2 è nota a tutti ed, in particolare, mette in relazione due parametri fisici che, in linea di principio, potrebbero essere del tutto indipendenti tra loro: massa ed energia. Su questa legge si fonda la moderna fisica degli acceleratori. In questi sistemi, di cui abbiamo parlato diverse volte, quello che facciamo è proprio far scontrare ad energie sempre più alte le particelle per produrne di nuove e sconosciute. Esempio classico e sui cui trovate diversi articoli sul blog è appunto quello del Bosone di Higgs.

 

Equazione di Schrodinger

Senza mezzi termini, questa equazione rappresenta il maggior risultato della meccanica quantistica. Se la relatività di Einstein ci spiega come il nostro universo funziona su larga scala, questa equazione ci illustra invece quanto avviene a distanze molto molto piccole, in cui la meccanica quantistica diviene la teoria dominante. In particolare, tutta la nostra moderna scienza su atomi e particelle subatomiche si fonda su questa equazione e su quella che viene definita funzione d’onda. E nella vita di tutti i giorni? Su questa equazione si fondano, e funzionano, importanti applicazioni come i laser, i semiconduttori, la fisica nucleare e, in un futuro prossimo, quello che indichiamo come computer quantistico.

 

Teorema di Shannon o dell’informazione

Per fare un paragone, il teorema di Shannon sta ai segnali così come l’entropia è alla termodinamica. Se quest’ultima rappresenta, come visto, la capicità di un sistema di fornire lavoro, il teorema di Shannon ci dice quanta informazione è contenuta in un determinato segnale. Per una migliore comprensione del concetto, conviene utilizzare un esempio. Come noto, ci sono programmi in grado di comprimere i file del nostro pc, immaginiamo una immagine jpeg. Bene, se prima questa occupava X Kb, perchè ora ne occupa meno e io la vedo sempre uguale? Semplice, grazie a questo risultato, siamo in grado di sapere quanto possiamo comprimere un qualsiasi segnale senza perdere informazione. Anche per il teorema di Shannon, le applicazioni sono tantissime e vanno dall’informatica alla trasmissione dei segnali. Si tratta di un risultato che ha dato una spinta inimmaginabile ai moderni sistemi di comunicazione appunto per snellire i segnali senza perdere informazione.

 

Teoria del Caos o Mappa di May

Questo risultato descrive l’evoluzione temporale di un qualsiasi sistema nel tempo. Come vedete, questa evoluzione tra gli stati dipende da K. Bene, ci spossono essere degli stati di partenza che mplicano un’evoluzione ordinata per passi certi e altri, anche molto prossimi agli altri, per cui il sistema si evolve in modo del tutto caotico. A cosa serve? Pensate ad un sistema caotico in cui una minima variazione di un parametro può completamente modificare l’evoluzione nel tempo dell’intero sistema. Un esempio? Il meteo! Noto a tutti è il cosiddetto effetto farfalla: basta modificare di una quantità infinitesima un parametro per avere un’evoluzione completamente diversa. Bene, questi sistemi sono appunto descritti da questo risultato.

 

Equazione di Black-Scholes

Altra equazione differenziale, proprio ad indicarci di come tantissimi fenomeni naturali e non possono essere descritti. A cosa serve questa equazione? A differenza degli altri risultati, qui entriamo in un campo diverso e più orientato all’uomo. L’equazione di Black-Scholes serve a determinare il prezzo delle opzioni in borsa partendo dalla valutazione di parametri oggettivi. Si tratta di uno strumento molto potente e che, come avrete capito, determina fortemente l’andamento dei prezzi in borsa e dunque, in ultima analisi, dell’economia.

 

Bene, queste sono le 17 equazioni che secondo Stewart hanno cambiato il mondo. Ora, ognuno di noi, me compreso, può averne altre che avrebbe voluto in questa lista e che reputa di fondamentale importanza. Sicuramente questo è vero sempre ma, lasciatemi dire, questa lista ci ha permesso di passare attraverso alcuni dei più importanti risultati storici che, a loro volta, hanno spinto la conoscenza in diversi settori. Inoltre, come visto, questo articolo ci ha permesso di rivalutare alcuni concetti che troppo spesso vengono fatti passare come semplici regolette non mostrando la loro vera potenza e le implicazioni che hanno nella vita di tutti i giorni e per l’evoluzione stessa della scienza.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Annunci

Due parole sulla stampa in 3D

5 Giu

Diversi utenti mi hanno contattato per avere un approfondimento sulle stampanti 3D. Oggi come oggi, questo tipo di tecnologia e’ entrato pesantemente nella nostra vita e tutti noi, almeno una volta, abbiamo sentito parlare di questa tecnologia anche se, a volte, si ignora completamente il processo realizzativo alla base di questi nuovi strumenti.

Se provate a cercare in rete, trovate una definizione della stampa 3D molto semplice: si tratta dell’evoluzione naturale della classica stampa in 2D, utilizzata pero’ per realizzare oggetti reali in materiali diversi.

Personalmente, trovo questa definizione molto semplicistica e assolutamente riduttiva. Perche’? Semplice, non possiamo confrontare una stampa 2D con una 3D proprio perche’ relativa ad una concezione di realizzazione estremamente diversa. Detto molto semplicemente, sarebbe come voler paragonare la pittura con la scultura, parlando di quest’ultima come la naturale evoluzione della prima.

Cerchiamo di andare con ordine e capire meglio le basi di questo processo. Se nella stampa 2D possiamo riprodurre su un foglio di carta una qualsiasi immagine, in quella 3D il prodotto finale ara’ un oggetto solido, reale e tridimensionale. Un esempio? Disegnate al pc una tazza. Se stampate il vostro disegno con una normale stampante avrete la riproduzione di quell’immagine appiattita su una superficie. Utilizzando invece una stampante 3D il vostro risultato sara’ una vera e propria tazza che potete vedere, toccare e, perche’ no, anche utilizzare.

Solo fino a qualche anno fa, un processo del genere sarebbe stato considerato fantascientifico e, se ci avviciniamo ai giorni nostri, retaggio di costosi macchinari riservati alle aziende piu’ grandi. Oggi invece la tecnologia della stampa 3D e’ divenuta “quasi” di uso comune grazie alla notevole contrazione dei prezzi di queste stampanti, risultato di massicci investimenti fatti da numerose compagnie pubbliche e private.

Pensate stia scherzando? Facendo una ricerca su internet, cominciate a trovare stampanti in grado di riprodurre oggetti fino a decine di centimetri per lato, ad un prezzo inferiore ai 1000 euro. Pensate sia ancora tanto? Nel giro di pochissimi anni, i prezzi di questi dispositivi si sono ridotti in media di un fattore dieci. Come anticipato, questo e’ stato possibile grazie ai notevoli investimenti fatti nel settore ricerca sia pubblico che privato. Per darvi una stima, il prezzo delle azioni delle maggiori case costrttrici di questi dispositivi e’ cresciuto fino a cinque volte facendo riconoscere queste aziende tra le migliori nei listini di borsa.

Visto il sicuro interesse in questi dispositivi, cerchiamo ora di capire meglio come avviene il processo realizzativo di un oggetto a tre dimensioni.

600x407xreplicator.jpg.pagespeed.ic.e5HWV8nSTh

Come potete facilmente immaginare, le tecniche realizzative utilizzate sono diverse ma per comprendere il meccanismo in modo semplice, concentriamoci su quello maggiormente utilizzato e piu’ intuitivo. Come nelle stampanti tradizionali, ci sono delle cartucce contenenti il materiale con cui sara’ realizzato il nostro oggetto. Nella versione piu’ comune, questo materiale sara’ ABS o PLA, due polimeri che per semplicita’ possiamo immaginare come delle plastiche. Normalmente le cartucce contengono questi materiali in forma di polvere o di fili.

Bene, abbiamo il materiale nelle cartucce, poi? Vi ricordate le vecchie stampanti che imprimevano una riga alla volta sul foglio che via via veniva portato avanti? Il processo e’ molto simile a questo. Nella stampa 3D l’oggetto viene realizzato per strati paralleli che poi crescono verso l’alto per realizzare i particolari del corpo che vogliamo stampare. L’esempio classico che viene fatto in questi casi e’ quello dei mattoncini dei LEGO. Strato per strato costruite qualcosa “attaccando” tra loro i vari pezzi. Nella stampa 3D ogni strato viene depositato sull’altro con un processo a caldo o di incollaggio a volte mediante l’ausilio di un materiale di supporto.

Compreso il processo alla base, la prima domanda da porci e’ relativa alla risoluzione di queste stampanti. In altre parole, quanto sono precisi i pezzi che posso realizzare? A differenza della stampa 2D, in questo caso dobbiamo valutare anche la precisione di costruzione verticale. Per quanto riguarda il piano orizzontale, la risoluzione della stampa dipende dalla “particella” di materiale che viene depositata. In verticale invece, come facilmente immaginabile, la precisione del pezzo dipendera’ dallo spessore dello strato che andate a depositare. Piu’ lo strato e’ sottile, maggiore sara’ la risoluzione della vostra stampa. Normalmente, per darvi qualche numero, parliamo di risoluzioni verticali dell’ordine del decimo di millimetro.

A questo punto, abbiamo capito piu’ o meno come funzionano queste stampanti, abbiamo visto che i prezzi sono in forte calo ma la domanda principale resta sempre la stessa: cosa ci facciamo con queste stampanti? In realta’, la risposta a questa domanda potrebbe essere semplicemente “tantissimo”. Cerco di spiegarmi meglio. Le stampanti 3D sono gia’ utilizzate e sotto attento studio di ricerca per il loro utilizzo nei piu’ svariati settori.

Qualche esempio?

Prima di tutto per le aziende che si occupano della realizzazione dei protitipi o di produzione su grande scala di oggetti di forma piu’ o meno complessa. In questo caso vi riporto direttamente la mia esperienza in questo settore. Ai Laboratori Nazionali di Frascati disponiamo di una stampante 3D con una buona risoluzione per la stampa di oggetti in ABS. Cosa ci facciamo? Moltissime parti dei rivelatori di particelle possono essere stampati direttamente in 3D saltando tutta la difficile fase della realizzazione con macchine utensili. Inoltre, ricorrere alla stampa 3D, anche solo in fase prototipale, consente di poter valutare al meglio la correttezza dell’oggetto pensato e la sua funzionalita’ nei diversi settori.

Oltre a queste applicazioni, le stampanti 3D possono essere utilizzate in medicina forense per la ricostruzione di prove danneggiate, in oreficeria, nel settore medico per la ricostruzione ossea, in paleontologia per la preparazione di modelli in scala di parti rinvenute e cosi’ via per moltissimi settori in cui la stampa 3D puo’ velocizzare notevolmente il processo realizzativo ma soprattutto con costi molto contenuti rispetto alla lavorazione classica.

Oggi come oggi, la ricerca in questo settore e’ fortemente orientata allo studio dell’utilizzo di materiali piu’ disparati. Per darvi qualche idea si va dal tessuto osseo alle plastiche, dalla roccia all’argilla e cosi’ via. Come potete capire immediatamente, piu’ materiali si riescono ad utilizzare, maggiori sono i settori interessati in questi prodotti.

Anche se poco noto al grande pubblico, in rete ci sono gia’ moltissimi siti e forum che si occupano di scambio open source di modelli 3D da stampare o anche solo di stampa su commissione conto terzi. Se ripensiamo al paragone con le stampanti classiche, se in questo caso bastava una qualsiasi immagine, per utilizzare una stampante 3D e’ necessario realizzare un modello tridiemnsionale da dare in pasto alla stampante. Per poter far questo ci sono ovviamente potenti software CAD ma anche tanti programmi gratuiti piu’ semplici gia’ scaricabili dalla rete.

Alla luce di quanto discusso, sicuramente il discorso sulle stampanti 3D e’ destinato ancora a crescere. In un futuro non troppo lontano, potremmo avere a disposizione strumenti domestici per realizzare l’oggetto che desideriamo. Inutile nascondere che questo qualche sospetto potrebbe destarlo. Solo pochi mesi fa si e’ molto discusso del progetto di una pistola in plastica perfettamente funzionante ed in grado di uccidere realizzabile con una stampante 3D ed i cui progetti erano finiti in rete. A parte questo “particolare”, quello delle stampanti 3D e’ sicuramente un mercato destinato a crescere e su cui moltissime aziende stanno fortemente puntando.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Effetto Hutchison: realta’ o bufala?

29 Apr

Nell’apposita sezione:

Hai domande o dubbi?

un nostro caro lettore ci ha fatto una richiesta davvero molto interessante. Come potete leggere, ci chiede di dare maggiori dettagli circa l’effetto Hutchinson cioe’ una serie di fenomeni apparentemente non spiegabili utilizzando le attuali conoscenze della fisica.

Personalmente, trovo questa richiesta molto interessante se non altro perche’ ci consente di poter parlare di qualcosa ancora poco dibattutto sui siti nazionali anche se molto in voga gia’ da diversi anni sui siti in lingua inglese. Al solito, permettetemi questo piccolo monito, molti nostri blog e forum non fanno altro che riportare pezzi copiati qua e la senza, salvo alcuni rari casi, discutere la cosa in dettaglio.

Cosa sarebbe questo effetto Hutchinson?

Come anticipato, con questo termine si intendoo in realta’ una serie di fenomeni “strani” dovuti ad interferenza elettromagnetica. Cioe’? Se provate a documentarvi in rete, trovate sempre questa frase:

L’Effetto Hutchison si verifica come il risultato di interferenze di onde radio in una zona di spazio volumetrico avvolto da sorgenti di alto voltaggio, solitamente un generatore Van de Graff, e due o piu’ bobine di Tesla.

OK, ma che significa? Prendete una regione di spazio e fate interferire onde radio con una determinata frequenza e potenza. In prossimita’ della stessa zona sono presenti anche generatori ad alto voltaggio che in realta’ puo’ essere prodotto in vari modi, in particolare usando un Van de Graff o delle bobine Tesla.

Bene, creata questa zona “speciale” con campi elettromagnetici diversi cosa si ottiene?

Gli effetti sono i piu’ disparati: levitazione di oggetti pesanti (metallici ma non solo), compenetrazione di materiali diversi, riscaldamento anomalo di metalli senza bruciare altri materiali in contatto, cambiamenti sia provvisori che definitivi della struttura molecolare dei materiali, ecc.

Per darvi un’idea piu’ chiara, vi riporto un’immagine di alcuni materiali che sono stati sottoposti a questo trattamento:

 

Materiali sottoposti all'effetto Hutchinson

Materiali sottoposti all’effetto Hutchinson

notate in particolare lo sfaldamento dei metalli e l’ultima foto di un pezzo di legno compenetrato nel metallo senza sfaldare ne modificare ne il metallo ne il legno.

Pensate che questo straordinario effetto e’ stato realizzato dentro una normale abitazione utilizzando attrezzatura che ognuno di noi potrebbe acquistare sfruttando una potenza totale di 75W con 120 V in alternata. Come potete immaginare, questo effetto e’ stato mostrato per la “prima” volta da John Hutchinson un canadese che ha iniziato alla fine degli anni ‘7o a fare sperimentazione per hobby riprendendo gli studi addirittura di Nikola Tesla.

John Hutchinson nella sua casa

John Hutchinson nella sua casa

Visto che a noi piace tanto informarci su internet, sono andato a leggere moltissimi siti per capire cosa la gente pensasse di questo effetto. Per prima cosa, vedendo le foto che ho riportato, capite subito quale enorme quantita’ di energia sia necessaria per provocare questi effetti. Inoltre, ottenendo risultati di questo tipo, appare evidente come ci siano molti punti oscuri dell’interazione tra onde radio e materia che ancora ci sfuggono. Secondo molti siti, e’ importante ripetere la fonte delle affermazioni, effetti del genere possono solo essere compresi arrendendosi al fatto che i legami molecolari possano essere modificati attraverso onde radio. L’evidenza di un metallo che aumenta notevolmente la sua temperatura senza bruciare cio’ che lo circonda e’ a sua volta una chiara dimostrazione che la termodinamica cosi’ come la conosciamo debba essere modificata in presenza di notevoli campi elettromagnetici in grado di modificare la concezione stessa di calore che normalmente utilizziamo.

Pesnate sia sufficiente? No, andiamo un pochino piu’ oltre. Da dove viene tutta questa energia se abbiamo solo un dispositivo casalingo collegato alla presa di corrente? Ma e’ ovvio, mettete insieme effetto Hutchinson e Tesla e capirete come questa sia un’applicazione in grado di sfruttare l’energia di punto zero e la produzione spontanea di coppie particella-anti particella nel vuoto quantistico. Perche’ nessun ente, universita’ o laboratorio sta sperimentando questi sistemi per sfruttare questa energia enorme, gratuita e assolutamente rinnovabile?

Che domande che fate ancora: perche’ gli scienziati zozzoni sono tutti corrotti e asserviti al potere delle grandi multinazionali. Al solito pensano di aver capito tutto e sono chiusi alle loro equazioncine che dovrebbero spiegare la meccanica, la termodinamica e l’elettromagnetismo e non si accorgono invece che le evidenze mostrano che tutte le teorie sono sbagliate. Prima ho parlato anche di levitazione di oggetti e vi ho sottolineato il fatto che questa avvenga non solo per oggetti metallici. Ecco una foto di Hutchinson che mostra un modello di disco volante in plastica che e’ stato fatto levitare in uno dei suoi esperimenti:

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Pensate che il modellino di disco volante sia stato scelto a caso? Forse da Hutchinson si, ma questo effetto potrebbe spiegare anche come fanno a volare i dischi volanti che “ogni giorno” vediamo sfrecciare sulle nostre teste. Pensate quanto potremmo imparare sfruttando questo effetto e utilizzandolo per fare viaggi interplanetari, viaggi nel tempo, curvare lo spazio tempo, ecc.

Scienziati perditempo che non fate altro che rubare gli stipendi pagati da gruppi di potere a cui siete asserviti, vergognatevi tutti, compreso il sottoscritto.

Bene, ora torniamo seri e ragioniamo su quanto detto. Piccola parentesi, al solito sto scherzando parafrasando pero’ quello che viene normalmente, anche in questo caso, detto su moltissimi siti. Se provate a documentarvi in rete, troverete diversi articoli che parlano di questo presunto effetto attaccando la scienza ufficiale complice di non approfondire queste scoperte.

Come anticipato, il fatto che lo stesso Hutchinson dica di rifarsi agli esperimenti di Tesla non puo’ che fungere da cassa di risonanza per il complottismo verso la scienza. Di Tesla in particolare abbiamo gia’ parlato in questi articoli:

Il Raggio della Morte

Il Raggio del Dolore

Marconi, Tesla e l’evidenza aliena

Le terribili armi scalari

parlando dell’uomo, dello scienziato ma soprattutto della reale considerazione che la scienza ufficiale ha di questo scienziato di prim’ordine. Purtroppo, ancora oggi molti credono che tutte le scoperte di Tesla siano finite nel dimenticatoio per colpa del governo o di organizzazioni. Questo non e’ assolutamente vero! Pensate solo alla corrente alternata, alle bobine o alle tecnologie senza fili. Tutte scoperte partite o completamente sviluppate da Tesla e oggi sfruttate a pieno. Purtroppo, c’e’ ancora chi ignorantemente sostiene che non siamo in grado o non vogliamo utilizzare la corrente alternata.

Detto questo torniamo ad Hutchinson. Veramente sono stati osservati questi effetti? Purtroppo, anche in questo caso, siamo di fronte alla totale mancanza di prove scientifiche a sostegno. Lo stesso Hutchinson dichiara di non sapere quando e perche’ i suoi esperimenti riescono e per di piu’, non sono mai riusciti di fronte a persone esperte esterne.

Vi voglio mostrare un video a mio avviso interessante:

Notato niente di strano nell’angolo in alto a sinistra? Magari un filo che si riavvolge e tira su il modellino di ufo? Capite bene come questo video messo in rete dallo stesso Hutchinson smentisca da subito il suo esperimento di levitazione.

Ora e’ importante rimarcare un cosa: personalmente, e questo dovrebbe valere per tutti, mi reputo una persona molto aperta e consapevole, da ricercatore, che quello che sappiamo e’ sempre troppo poco rispetto a quanto c’e’ ancora da scoprire. Detto questo, qualora ci fossero effetti nuovi non comprensibili ma ripetibili indipendentemente da chi compie o osserva l’esperimento, la cosa non mi sorprenderebbe affatto. Moltissime invenzioni e scoperte sono arrivate per puro caso e stravolgendo qualcosa che si pensava ben compreso e archiviato. Alla luce di quanto osservato pero’, questo non e’ il caso dell’effetto Hutchinson. E’ vero, in rete ci sono decine di video che mostrano questi esperimenti ma molti di questi mostrano particolari quantomeno sospetti. A parte il video riportato prima, facendo una ricerca in rete potete trovare molti altri documenti sulla levitazione. In questi casi si vede una rapida accelerazione dell’oggettto che sale verso l’alto, accelerazione del tutto compatibile con una caduta libera. Cosa significa? Semplice, che il sospetto che la ripresa sia fatta capovolgendo l’immagine, dunque oggetto che cade piuttosto che salire, e’ davvero molto forte.

Altra piccola parentesi che e’ doveroso fare senza voler offendere nessuno: ma davvero pensate che gli scienziati siano cosi’ stolti? Per poter andare avanti nella conoscenza e’ necessario non smettere mai di essere curiosi e di farsi domande. Oltre a questo pero’, c’e’ tutto un panorama di leggi, effetti, spiegazioni che per anni sono state affinate fino ad arrivare a quello che sappiamo oggi. Dico questo perche’ molto spesso, non sono su questo effetto, leggo in rete persone che si lanciano in spiegazioni parlando a vanvera di questo o quest’altro effetto mostrando chiaramente da quello che scrivono quanto poco sappiano dell’argomento. Per l’effetto Hutchinson tanti parlano di interferenza di onde, principi della termodinamica, Tesla, ecc. senza conoscere minimamnete le basi su cui questi concetti su fondano. Credetemi, diffidate da questi luminari di “wikipediana” cultura che pensano che dopo aver letto due paginette abbiano la comprensione del tutto al punto da poter ridicolizzare chi queste cose le ha studiate, magari le insegna in corsi universitari e continua ancora oggi a farsi domande esistenziali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

I “tappi” del Mar Morto

24 Set

In questo articolo, vorrei tornare a parlare di sinkhole, ma in una veste diversa rispetto a quanto fatto negli articoli precedenti. Per chi li avesse persi, abbiamo parlato di questo fenomeno in questi post:

Enorme cratere si apre in Cina

Enormi voragini si aprono in Florida

Numerosi Sinkhole a Samara

Come visto, con sinkhole si intendono quelle enormi voragini, o doline, che si possono creare a causa di un cedimento del terreno. Negli articoli precedenti abbiamo gia’ discusso le diverse aree del pianeta in cui questo fenomeno e’ piu’ presente, mostrando anche, a volta per cause naturali, altre per colpa dell’uomo, come negli ultimi anni questo fenomeno ha provocato anche diversi danni, ed in alcuni casi anche vittime, in alcune zone.

Come anticipato, questa volta, vorrei parlare di sinkhole in una chiave diversa, cioe’ concentrandoci nel caso del Mar Morto. Come sapete bene, questo specchio d’acqua e’ assolutamente unico nella sua specie. Prima di tutto, si trova nella depressione piu’ profonda della Terra. Inoltre, essendo dotato solo di immissari minori senza emissari, e grazie anche alla forte evaporazione dovuta alle temperature, il Mar Morto detiene il record di salinita’.

Proprio a causa dell’elevata percentuale di sale nelle acque, la vita nel Mar Morto e’ praticamente impossibile, fatta eccezione per alcune specie di batteri. La percentuale di sale disciota nelle acque non e’ costante ma aumenta all’aumentare della profondita’. Questo e’ del tutto comprensibile ragionando sul fatto che le acque proveniente dai fiumi in ingresso, principalmente il Giordano, rimane in superficie perche’ meno densa di quella salata al di sotto. Detto in altri termini, possiamo distinguere degli strati orizzontali caratterizzzati da proprieta’ chimiche molto diverse.

Scendendo a 40 metri, la concentrazione di sale nelle acque e’ di circa 300 grammi per Kg di acqua. Questo valore e’ circa 8 volte maggiore di quello che si ha tipicamente nell’Oceano Atlantico. Come anticipato prima, scendendo a 100 metri di pronfondita’, si arriva anche a 330 grammi di sale per Kg di acqua.

Effetto della salinita' sul galleggiamento

Effetto della salinita’ sul galleggiamento

Per darvi un’idea di questi valori, pensate che galleggiare sulle acque del Mar Morto e’ estremamente facile per chiunque. Nuotare e’ invece estremamente faticoso perche’ una parte troppo estesa di corpo si troverebbe al di fuori dell’acqua.

Bene, cosa c’entrano i sinkhole con il Mar Morto?

Da ricerche condotte negli ultimi anni, si e’ evidenziato come il Mar Morto stia scomparendo molto rapidamente. Le sponde del lago si stanno ritirando alla velocita’ di circa 1 metro all’anno, un valore elevatissimo se confrontato con quello naturalmente atteso.

Man mano che il Mar Morto si ritira, sulla parte di terreno lasciata libera si formano in continuazione sinkhole, come quello mostrato in questa foto:

Sinkhole vicino alla riva del Mar Morto

Sinkhole vicino alla riva del Mar Morto

Si tratta di depressioni a forma di scodella che si creano nel terreno asciutto e con profondita’ variabile fino anche a 10 metri. Quello che piu’ impressiona e’ il numero di queste depressioni. Ad oggi, si stima che ci siano circa 3000 doline intorno al Mar Morto. Per darvi un’idea della portata del fenomeno, fino a qualche anno fa, se ne contavano solo circa 40.

A parte l’effetto del sapere di una ritirata cosi’ veloce e della formazione di doline a questo ritmo, la natura e l’origine di questi sinkhole e’ facilmente spiegabile. Come detto, la caratteristica principale delle acque del Mar Morto e’ l’elevatissima concentrazione di sale. Avete mai provato a mettere in continuazione sale dentro un bicchiere d’acqua? Cosa succede? Inizialmente il sale si scioglie. Dopo una certa quantita’, l’acqua non e’ piu’ in grado di sciogliere il sale perche’ ne e’ satura. In termini chimici, avete raggiunto la costante del prodotto di solubilita’, cioe’ la quantita’ di sale che l’acqua e’ in grado di sciogliere. Valori diversi sono trovabili per ciascun sale in un solvente.

Nel caso del Mar Morto, a causa dell’elevata concentrazione, negli strati piu’ bassi si forma un accumulo di sale. Quando le acque si ritirano, queste lasciano grosse quantita’ di sale nel terreno, anche sotto la superficie libera. In queste condizioni, un riversamento di acqua dolce, proveniente da una qualsiasi fonte, come ad esempio la pioggia, scioglie il sale sotto il terreno creando una vuoto sotto la superficie. A questo punto, non avendo piu’ un sostegno nella parte inferiore, il terreno collassa formando appunto questi sinkhole.

Come vedete, il fenomeno e’ facilmente spiegabile, pensando proprio al prosciugamento del Mar Morto.

Nonostante questo chiarisca il fenomeno della formazione delle doline, e’ interessante chiedersi a cosa sia dovuto un prosciugamento cosi’ rapido. Come spesso avviene in questo genere di fenomeni, la causa e’ da ricercarsi nell’attivita’ umana.

Come anticipato, il Mar Morto e’ dotato solo di immissari di scarsa portata che apportano acqua dolce. Negli ultimi anni, notevoli quantita’ di queste acque sono state deviate per irrigare i campi. Trattandosi di una zona molto desertica, questo e’ l’unico modo di sostenere l’agricoltura. Si stima che a causa di questa pratica, circa il 15% del volume delle acque sia stato deviato rispetto al percorso naturale. Oltre all’agricoltura, alcune aziende del posto, soprattutto nate per la produzione di carbonato di potassio, hanno seguito la stessa pratica per avere una fonte d’acqua indispensabile per alimentare il processo industriale.

Risultato di questa pratica e’ che il bilancio complessivo di acque del Mar Morto, dato dalla differenza tra immissioni ed evaporazione, e’ divenuto negativo. Conseguenza di questo e’ ovviamente un prosciugamento graduale del Mar Morto.

Esiste una soluzione al problema?

Ovviamente, molte soluzioni sono sotto studio per cercare di fermare, o anche arginare, la diminuzione della superficie. A tal proposito, una proposta molto interessante vorrebe la creazione di un corridoio per collegare il Mar Morto al Mar Rosso e apportare acqua al primo. Il solco in questione e’ gia’ stato ribattezzato “condotto della pace”. Questa soluzione non piace pero’ ne agli ambientalisti ne tantomeno agli esperti di politiche internazionali. La spiegazione di queste opinioni e’ davvero molto semplice. In primo luogo, si rischia di compromettere irrimediabilmente un ecosistema molto delicato come quello del Mar Morto mediante immissione di acqua con caratteristiche profondamente diverse. Dal punto di vista politico invece, la situazione, tipica di tutta l’area mediorientale, e’ ovviamente legata ai rapporti non proprio rosei dei paesi interessati. Come sapete, le sponde del Mar Morto toccato Israele, Giordania e Cisgiordania. Paesi con equilibri davvero molto delicati e tra cui difficilmente si raggiungerebbe un accordo per la realizzazione del condotto di collegamento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Un vetro spesso solo due atomi

18 Set

Come sappiamo bene, la storia della ricerca e della scienza in generale e’ piena di scoperte avvenute in modo del tutto casuale. Spesso, queste scoperte si rivelano di fondamentale imporanza per l’uomo e quello che contribuisce ancora di piu’ alla notorieta’ della scoperta e’ la non intenzione di base di arrivare a questi risultati.

Perche’ avviene questo?

Non potendo dare una risposta provata, mi limitero’ ad esporre un mio personale pensiero. In questo caso, a mio avviso, quello che rende cosi’ affascinanti queste scoperte per i non addetti ai lavori e’ proprio la casualita’ della scoperta. Questi meccanismi rendono la ricerca scientifica piu’ umana e vicina alle persone comuni. Pensare ad uno sbadato scienziato che lascia i suoi campioni fuori posto o senza pulirli e poi, tornando il giorno dopo, trova la scoperta che lo rendera’ famoso, e’ qualcosa che avvicina molto i ricercatori alle persone comuni, tutte con le loro distrazioni, pensieri e cose piu’ “terrene” da fare.

Se ci pensiamo, la stessa cosa e’ avvenuta per Flemming con la scoperta della penicillina. Come sicuramente sapete, anche in questo caso, la scoperta fu del tutto fortuita. Lo scienziato lascio’ alcuni batteri su cui stava lavorando in una capsula di cultura e parti’ per una vacanza. Al suo ritorno si accorse che all’interno della capsula vi era una zona in cui i batteri non erano cresciuti ed in cui era presente una muffa. Proprio da questa muffa si arrivo’ poi, anche se in diversi passi nel corso del tempo e perfezionando i metodi di produzione, alla penicillina, quell’importante salvavita che tutti conosciamo. Se vogliamo, la bravura del ricercatore e’ nell’interpretare e nell’accorgersi di avere tra le mani qualcosa di importante e non un risultato sbagliato o della sporcizia lasciata per caso.

Perche’ ho fatto questo cappello introduttivo?

Come potete immaginare, vi voglio parlare di una scoperta fortuita, forse meno “vitale” della penicillina, ma sicuramente molto affascinante e con importanti risvolti per il futuro. Si tratta, come forse avrete letto su molti giornali, della produzione del vetro piu’ sottile al mondo, appena due atomi.

Andiamo con ordine, parlando proprio di come ‘e stata fatta questa scoperta.

Un team di scienziati stava lavorando alla produzione di fogli di grafene, una struttura atomica composta di carbonio, spessa appena un atomo, ma con importanti prorieta’ sia chimiche che meccaniche. La produzione di questo grafene era fatta utilizzando ovviamente atomi di carbonio ma anche fogli di quarzo utilizzati per la deposizione.

Osservazione al microscopio della zona impura del grafene

Osservazione al microscopio della zona impura del grafene

Osservando al microscopio uno di questi fogli, gli scienziati si sono accorti che in una piccola parte era presente una regione di colorazione diversa rispetto al resto. Proprio mediante l’osservazione al microscopio e’ stato possibile determinare che si trattava di una struttura diversa da quella del grafene e composta di Silicio e Ossigeno. Questa non era una struttura casuale, ma gli atomi erano disposti in modo ordinato e formavano un foglio spesso appena due atomi.

Caratterizzando la struttura del foglio, gli scienziati si sono accorti che quello che stavano osservando era un vetro. non un vetro qualsiasi, ma il piu’ sottile vetro mai realizzato.

Dov’e’ la casualita’ della scoperta?

Ovviamente, nel laboratorio si stava producendo grafene che, come detto, e’ composto da atomi di carbonio. Da dove sono usciti Silicio e Ossigeno per il vetro? La risposta e’ quantomai banale ma affascinante. Secondo i ricercatori, una fuga d’aria all’interno della camera di produzione ha causato l’ingresso dell’ossigino e la conseguente reazione con il rame e con il quarzo contenuto all’interno per la produzione di grafene. Risultato, in una piccola zona del grafene si e’ formato un sottilissimo strato di vetro comune.

Come anticipato, parliamo di una scoperta affascinante ma che sicuramente non puo’ combattere con quella della penicillina. Perche’ pero’ e’ importante dal punto di vista scientifico?

Per prima cosa, il fatto che si tratti del piu’ sottile vetro mai realizzato e’ stato certificato inserendo questa scoperta nel libro dei Guiness dei Primati.

Oltre a questo, tornando invece a parlare di scienza, la struttura del vetro non e’ molto facile da capire. Come sapete, questo puo’ allo stesso tempo essere considerato sia un liquido che un solido. Detto questo, se si osserva un vetro al microscopio, non si riesce a distinguere bene la sua struttura atomica. Nella struttura amorfa della sostanza, si evidenziano sottoinsiemi disordinati di atomi, senza poter descrivere in dettaglio il posizionamento ed i legami che intercorrono tra di essi.

Nel caso dl vetro di cui stiamo parlando invece, proprio lo spessore cosi’ ridotto consente di poter distinguere chiaramente la posizione dei diversi atomi e quindi di avere una mappa delle posizioni di Ossigeno e Silicio. Come potete immaginare, dal punto di vista scientifico questa evidenza e’ di fondamentale importanza per poter classificare e comprendere a fondo i materiali amorfi a cui anche il vetro appartiene.

Oltre a questo, sempre gli scienziati coinvolti nella ricerca si sono accorti che la struttura ottenuta era molto simile a quella ipotizzata ben 80 anni prima, nel 1932, dal fisico norvegese Zachariasen. Costui dedico’ gran parte della sua carriera allo studio dei vetri e proprio nel 1932 pubblico’ l’articolo “The atomic Arrangement in Glass”. In questo articolo Zachariasen inseri’ alcuni suoi schemi relativi al posizionamento degli atomi all’interno del vetro. Come potete immaginre, si trattava di disegni ottenuti da considerazioni scientifiche personali. Bene, a distanza di oltre 80 anni, e’ stato possibile osservare direttamente la struttura del vetro e confermare le supposizoni fatte da Zachariasen.

Se vogliamo, fino a questo punto abbiamo mostrato il fascino della scoperta. La prossima domanda che potrebbe invece venire in mente e’: cosa ci facciamo con questo vetro?

Dal punto di vista applicativo, questa scoperta potrebbe avere negli anni a venire importanti ripercussioni su diversi campi. Per prima cosa, un vetro cosi’ sottile e’ praticamente privo di impurezze. Questo lo rende particolarmente appetibile per applicazioni di precisione su scala micrometrica, dove una minima variazione della struttura potrebbe comportare errori sistematici non prevedibili.

Inoltre, strutture come questa ottenuta, sono importantissime per la realizzazione di sistemi elettronici miniaturizzati. Anche qui, la purezza e’ uno dei requisiti fondamentali richiesti. Oltre a questa, un vetro cosi’ sottile puo’ essere pensato per applicazioni di microtrasmissione dei segnali, fondamentali, ad esempio, nei transistor.

Grazie a questa scoperta, possiamo dunque pensare di avere un metodo di produzione per spessori infinitesimali. I risultati di questa produzione potrebbero essere utilizzati per aprire la strada ad una miniaturtizzazione ancora piu’ spinta dei dispositivi elettroni che trovano largo uso in tantissimi “gadget” tecnologici che ci portiamo dietro.

Concludendo, la scoperta del vetro piu’ sottile al mondo e’ avvenuta quasi per caso. Dico “quasi” perche’ ovviamente stiamo parlando di scienziati seri e che erano impegnati su lavori molto importanti e di chiara importanza. Durante questi studi, si e’ evideniata la formazione fortuita di una zona vetrosa composta da ossigeno e silicio. Come visto nell’articolo, questa scoperta potrebbe avere importanti ripercussioni su tantissimi settori diversi che vanno dalla microelettronica, alla tramissione dei segnali, fino anche, perche’ no, ad applicazioni di fisica delle alte energie per lo studio e la realizzazione di rivelatori sempre piu’ innovativi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Meduse: belle e pericolose

5 Set

Ormai siamo alla fine della stagione estiva, anche se le temperature alte ci consentono, per i piu’ fortunati che non sono al lavoro, di andare ancora al mare e di rinfrescarci con un bagno. Molto spesso pero’, questi nostri programmi vengono smentiti perche’ c’e’ la possibilita’ di trovarsi di fronte un mare popolato da banchi di meduse. Come sappiamo bene, onde evitare spiacevoli conseguenze, in questi casi e’ sconsigliato fare il bagno. Ovviamente, qualcuno potrebbe obiettare dicendo che a volte si trovano singole meduse che si lasciano trasportare dalle onde, piuttosto che decine di animali.

Su suggerimento di una nostra cara lettrice, credo sia interessante parlare un attimo di questi, a mio avviso, splendidi animali. Perche’ dico splendidi? A parte il fastidio nel non poter fare il bagno o il dolore di un contatto, si tratta di animali estremamente affascinanti, con un andamento elegante trasportato dalle onde e, molto spesso, con colorazioni e riflessi che si lasciano ammirare.

Come sappiamo, esistono, soprattutto in Australia ed in alcune zone della California, meduse killer il cui contatto puo’ portare addirittura alla morte per arresto cardiaco o per crisi respiratoria. Le specie nostrane non sono assolutamente letali anche se, soprattutto durante il periodo estivo, i pronto soccorso degli ospedali si riempiono di persone che hanno avuto la sfortuna di scontrarsi con questi animali.

Nel mediterraneo, come avrete sicuramente sentito, il numero di meduse sta crescendo molto. Fate attenzione, in realta’, questa mia affermazione non e’ esattamente corretta. Quello che sta aumentando e’ la presenza vicino alla riva di questi animali. Alcune volte, si giustifica questo fenomeno dicendo che la loro presenza e’ sinonimo di pulizia delle acque.

Ovviamente, e’ vero che le meduse prediligono le acque pulite, ma la loro presenza non e’ sintomatica di una pulizia del tratto di mare. L’aumento di questi animali a riva non e’ compreso del tutto, anzi esistono tre ipotesi possibili formulate in biologia. La prima e’ che esistano dei cicli naturali per cui, con periodi di 10-12 anni, le meduse scelgono di riprodursi vicino alal riva piuttosto che in acque piu’ profonde. Questa ipotesi, anche se sostenuta da alcuni esperti, non trova dimostrazioni oggettive.

L’altra ipotesi possibile e’ invece da ricercarsi nell’aumento della temperatura dei mari. Cosa comporta questo? Una temperatura maggiore, ovviamente parliamo di percentuali, favorisce il proliferare del plancton, cibo delle meduse. In tal senso, una maggiore temperatura, soprattutto nella zona costiera, richiamerebbe piu’ meduse verso riva.

L’ultima ipotesi e’ invece, al contrario di quanto pensato normalmente, da ricercarsi nell’inquinamento dei mari, proprio in zona costiera. Molto spesso, acque provenienti da campi coltivati vengono riversate senza trattamento a riva. Queste acque possono essere ricche di fertilizzanti utilizzati in agricoltura che, ovviamente, fanno il loro compito anche in mare, favorendo, anche in questo caso, il proliferare del plancton.

Una combinazione di queste ultime due ipotesi e’ quella maggiormente citata per giustificare l’aumento delle meduse osservato negli ultimi anni, anche nel Mediterraneo.

Detto questo, parliamo un secondo dell’anatomia delle meduse. Come sappiamo bene, si tratta di organismi molto antichi e molto semplici. Il 98% del loro corpo e’ composto di acqua. Dal punto di vista morfologico, le meduse hanno una parte superiore detta “ombrello”, divisa, con funzione diverse, in superiore e inferiore, e dei tentacoli, detti manico. Proprio questi ultimi sono ricchi di cellule dette cnidociti in grado di iniettare per contatto una sorta di veleno. Questo meccanismo e’ utilizzato sia per scopi di offesa che di difesa.

Da cosa e’ composto il veleno?

Si tratta di una sostanza gelatinosa composta da tre proteine: una ad effetto paralizzante, una con effetto infiammatorio e una neurotossica. Data questa sinergia capite bene, ad esempio, la funzione del liquido urticante durante la cattura di una preda.

Bene, proprio la presenza di questo liquido urticante e’ quello che ci fa evitare di fare il bagno in presenza di meduse o che, quasi tutti, conoscono direttamente per i suoi effetti. Fate attenzione, come detto prima, solo i tentacoli sono in grado di iniettare il liquido urticante. Detto questo, non si ha nessuna conseguenza toccando la medusa nella parte dell’ombrello.

Per poter capire quanto sia urticante questo veleno, dobbiamo pero’ considerare quali sono le tipologie di meduse piu’ presenti nei nostri mari. Come sapete, la famiglia delle meduse, vanta migliaia di specie, con caratteristiche morfologiche estremamente diverse.

Per quanto riguarda il Mediterraneo, la specie piu’ presente e’ la cosiddetta Pelagia nocticula:

Medusa Pelagia Nocticula

Medusa Pelagia Nocticula

Come vedete dalla foto, questa medusa ha una struttura trasparente con riflessi violacei e lunghi tentacoli. Il liquido di questa specie e’ molto urticante e la pericolosita’ di questo animale e’ data dal fatto che molto spesso si presenta in branchi di molte centinaia. La dimensione dell’ombrello puo’ arrivare anche a 10-15 cm di diametro. Caratteristiche che rende ancora piu’ affascinante questa medusa e’ la sua fosforescenza notturna che la rende particolarmente visibile.

Altra specie urticante e presente nel Mediterraneo e’ la Cotylorhiza tuberculata:

Medusa Cotylorhiza tuberculata

Medusa Cotylorhiza tuberculata

Come vedete dalla foto, questa tipologia e’ facilmente riconoscibile per via dei tentacoli che finiscono in una sorta di dischetti. Molto spesso elementi di questa specie si trovano isolati.

L’ultima specie diffusa nel Mediterraneo e’ la Rhizostoma pulmo:

Medusa Rhizostoma pulmo

Medusa Rhizostoma pulmo

In questo caso, le dimensioni dell’ombrello possono raggiungere anche i 60 cm di diametro, ma il veleno di questo animale e’ non dannoso per l’uomo. Fate attenzione, dire non dannoso significa che il suo effetto urticante e’ estremamente blando, ma non nullo. Evitate, in caso di incontro, si abbracciare questa medusa.

Detto questo, la domanda che spesso viene fuori e’: cosa fare in caso di contatto?

Come molti di noi sanno per esperienza personale, incontri ravvicinati con le meduse possono essere davvero molto dolorosi. Come spesso avviene, la maggior parte dei rimedi tramandati o conosciuti per lenire il dolore sono in realta’ frutto di false convinzioni e, in alcuni casi, possono anche peggiorare la situazione. Inutile dire che in caso di urto con i tentacoli si deve raggiungere la riva, autonomamente o con l’aiuto di altri bagnanti.

Il rimedio piu’ noto in questi casi e’ quello di ricorrere a sabbia bollente, pietre calde, urina, ammoniaca, ecc. Tutti questi rimedi sono inutili. Perche’? Per poter lenire il dolore e’ necessario interrompere il rilascio di neurotossine. Per fare questo servirebbero temperature di 50 gradi, difficilmente ottenibili con una pietra o con la sabbia. Stessa cosa vale per l’ammoniaca, e dunque per l’urina. Utilizzare queste sostanze non fa altro che peggiorare l’infiammazione locale della pelle. Come sapete, il punto della lesione diviene piu’ sensibile alal radiazione solare il che puo’ creare macchie sul corpo. L’utilizzo dell’ammoniaca, o, come fatto in alcuni casi, dell’aceto, peggiora solo questo eritema.

Cosa si deve fare?

Per prima cosa, sciaquare la parte con acqua di mare. Questa soluzione, al contrario dell’acqua dolce, aiuta a diluire la neurotossina non ancora penetrata e a disinfettare la parte. A questo punto, controllate che non vi siano frammenti di tentacolo rimasti attaccati. In caso contrario, basta utilizzare una tesserina rigida, bancomat, patente, ecc., per eliminarli. Mettere creme al cortisone per lenire il dolore e’ completamente inutile. Il picco di infiammazione si ha fino a 20 minuti dal contatto. Creme di questo tipo cominciano a fare effetto dopo 30 minuti, cioe’ quando il dolore sarebbe diminuito naturalmente.

Il rimedio migliore da utilizzare in caso di contatto con una medusa e’ un gel al cloruro di alluminio. Questi prodotti sono ancora poco diffusi in Italia, anche se e’ possibile farli preparare come soluzioni galeniche. La concentrazione da richiedere e’ intorno al 4-5%. Cosa fa il cloruro di alluminio? Si tratta di un gel astringente che dunque impedisce alle neurotossine di entrare in circolo. Questa soluzione e’ anche molto utile dopo le punture di zanzara, in quanto riduce notevolmente il prurito.

Ultima importante cosa. Per evitare spiacevoli incontri o giornate sulla sabbia per acqua infestata da meduse, potrebbe essere utile consultare un cosiddetto “meteo meduse”. Si tratta di servizi basati sulla segnalazione di privati e addetti ai lavori che, giorno per giorno, preparano cartine contenenti la presenza o meno di meduse in zone specifiche. Un esempio di questo servizio e’ offerto anche dalla rivista focus a questo indirizzo:

Focus, meteo meduse

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Biocarburanti di terza generazione

28 Giu

Sicuramente, tutti avrete sentito parlare di biocarburanti. Come e’ noto, la domanda mondiale di petrolio e derivati continua a crescere nel tempo, causando, tra le altre cose, un aumento del prezzo del greggio. Uno dei problemi principali per quanto riguarda il consumo di petrolio, e’ la crescita sempre piu’ accentuata di quelle che una volta venivano chiamate economie emergenti. Dico tra quelle che “venivano chiamate” economie emergenti perche’, come noto, si tratta ormai di economie gia’ belle che solide, si pensi ad esempio alla Cina e all’India, e dove l’aumentato benessere, crea una richiesta di materie prime sempre crescente da parte della popolazione. In questo scenario, le fonti fossili hanno una vita sempre piu’ corta e, come sappiamo bene, dobbiamo gia’ fare i conti con quello che succedera’ nell’era, attualmente ancora inimmaginabile, del dopo petrolio.

In questo scenario, gia’ da qualche anno, si e’ iniziato a parlare di biocarburanti. Forse non tutti sanno che siamo gia’ arrivati alla seconda generazione di questi prodotti. Nella prima generazione si parlava di produzione da materiale vegetale, mentre nella seconda generazione si e’ studiata in dettaglio la produzione di carburanti a partire dagli scarti alimentari.

Questi studi hanno mostrato delle problematiche molto complesse e difficilmente risolvibili. Nella prima generazione, sicuramente avrete sentito parlare dell’olio di colza. Uno dei problemi principali in questo caso e’ l’utilizzo di vaste aree di terreno per la produzione di queste piante. Necessariamente, il ricorso a queste colture, sottrae terreno alla produzione alimentare. Ora, anche quello cibo per la popolazione mondiale sempre crescente e’ un problema serio e su cui, prima o poi, dovremo ragionare per trovare una soluzione. Rubare terreno alla produzione alimentare per piantare colza, crea dunque una competizione tra due problemi fondamentali per la civilta’ umana.

Per quanto riguarda invece la seconda generazione, il problema principale in questo caso e’ dato dai costi di produzione di energia che mostrano tutt’ora valori troppo elevati se confrontati con quelli dei combustibili fossili.

A questo punto, la terza generazione di combustibili fossili, mira a trovare soluzioni alternative per la produzione di biocarburanti utilizzando materie prime facili da reperire, economiche e ad alto rendimento in termini di carburante.

Il settore di ricerca principale nei biocarburanti di terza generazione e’ quello che vuole impiegare microalghe.

Cosa sono le microalghe?

Si tratta di normalissime specie vegetali che crescono spontaneamente nelle acque reflue. Un eventuale utilizzo di queste alghe consentirebbe dunque non solo di risolvere il problema dei carburanti, ma anche di ridurre il carico inquinante nelle acque di scarto.

Ovviamente, in un’ottica di produzione di massa, si pensa di creare dei veri e propri allevamenti di alghe. In questo caso, le uniche cose di cui c’e’ bisogno sono uno specchio d’acqua (cisterna, vasca, ecc) e della luce del sole per permettere la fotosintesi.

Le alghe in generale sono molto ricche di lipidi e proteine che le rendono ottimi candidati per la produzione di biodiesel e bioetanolo. Per darvi un’idea, il contenuto di grassi di queste sostanze e’ anche 30 volte superiore a quello delle comuni specie vegetali utilizzate nella produzione di biocombustibile (mais e colza in primis).

Come confronto numerico, vi riporto una tabella in cui viene mostrato non solo il contenuto lipidico di queste sostanze confrontate con le materie prime utilizzate nella prima e seconda generazione, ma anche il rendimento in termini di olii che e’ possibile ottenere:

Materia prima

Contenuto lipidico (% olio/s.s.)

Rendimento in olio
(L olio/ha)

Suolo utilizzato
(m2/kg biodiesel)

Resa in biodiesel
(kg biodiesel/ha)

Mais

4

172

66

152

Soia

18

446-636

18

562

Jatropha

28

741-1.892

15

656

Camelina

42

915

12

809

Colza

41

974

12

946

Girasole

40

1.070

11

1.156

Olio di palma

36

5.366-5.950

2

4.747

Microalghe (basso contenuto in olio)

30

58.700

0,2

51.927

Microalghe (medio contenuto in olio)

50

97.800

0,1

86.515

Microalghe (elevato contenuto in olio)

70

136.900

0,1

121.104

Anche per quanto riguarda l’emissione di CO2, i carburanti prodotti da alghe presentano valori molto piu’ bassi rispetto ai biocarburanti soliti:

Materia prima

Emissioni di CO2

Impiego di acqua

Superficie necessaria per soddisfare la domanda mondiale di petrolio

 

(gCO2eq/MJ)

(g/m2/g)

(106 ha)

Jatropha

56,7

3.000

2.600

Alga

3

16

50-400

Olio di palma

138,7

5.500

820

Colza

78,1

1.370

4.100

Soia

90,7

530

10.900

Le proprieta’ dei carburanti ottenuti tra le terza e le prime due generazioni e’ del tutto equivalente:

Proprietà

Biodiesel da alghe

Biodiesel da soia

Biodiesel da colza

Biodiesel da girasole

Diesel

Densità (kg/L)

0,864

0,884

0,882

0,860

0,838

Viscosità (mm2/s, cSt a 40 °C)

5,2

4

4,83

4,6

1,9-4,1

Flash point (°C)

115

131/178

155/180

183

75

Punto di solidificazione (°C)

-12

-4

-10,8

-7

-50/+10

Punto di intorbidamento (°C)

2

1

-4/-2

1

-17

Numero di cetano

52

45/51

53/56

49

40-55

PCI (MJ/kg)

41

37,8

37,2

38,9

42

Dunque, tutto risolto, basta iniziare a coltivare alghe per eliminare il problema delle risorse fossili. Purtroppo, non e’ propriamente cosi’.

Come anticipato, si tratta di ricerche attualmente in corso. Il problema principale dell’utilizzo di alghe e’, al solito, il costo. Allo stato attuale per ottenere 1 Kg di alghe servono circa 3.5 dollari. Questo prezzo e’ ancora troppo alto in confronto ai combustibili classici.

Come detto pero’, si tratta di studi ancora ad un livello quasi pioneristico. In tal senso, ci sono ancora molti “manici” che possono essere utilizzati per migliorare e ottimizzare il processo. Prima di tutto, i costi mostrati sono relativi ad una produzione su piccolissima scala. Nell’idea di un impianto dedicato, il costo per Kg di alghe potrebbe scendere tranquillmanete di un fattore 10, rendendolo paragonabile a quello dei combustibili fossili. Inoltre, esistono migliaia di specie di alghe che possono essere coltivate. In termini di resa, le alghe attualmente in studio potrebbero non essere le migliori per contenuto lipidico. Trovare soluzioni migliori equivale a migliorare il rendimento in produzione e dunque ad abbassare ancora il prezzo. Sempre in questo contesto, il ricorso all’ingegneria genetica potrebbe aiutare ad ottimizzare i processi di fotosintesi, aumentando notevolmente la produzione lipidica e dunque il rendimento nella produzione di olii combustibili.

Concludendo, gli studi sulla terza generazione di biocarburanti mirano all’utilizzo di alghe. Queste specie vegetali presentano un altissimo contenuto lipidico che le rende ottime candidate per la produzione di combustibili. Allo stato attuale, ripetiamo di ricerca pura e appena iniziata, i costi di produzione delle alghe sono ancora troppo elevati. Gli studi in corso mirano dunque all’ottimizzazione della produzione di queste nuove materie prime, oltre a migliorare il rendimento trovando, tra le migliaia disponibili, quelle a maggior contenuto lipidico. Sicuramente, una ricerca del genere merita attenzione. In un futuro piu’ o meno prossimo potrebbe rivelarsi fondamentale per la civilta’ umana.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Due parole sull’Etna e sullo Stromboli

14 Apr

In alcuni post precedenti, specialmente riferendoci al fenomeno terremoti e al loro presunto aumento, poi dimosrato falso, ci siamo trovati anche a parlare di vulcani. In particolare, in questo post:

Cosa succede in Campania?

abbiamo analizzato la situazione sia del Campi Flegrei che del Vesuvio. Come visto, queste sono due strutture molto pericolose e che giustamente devono essere tenute costantemente sotto controllo. Il pericolo principale, viene proprio dalla lunga quiescenza, cioe’ lo stato di inattivita’, a cui, soprattutto il Vesuvio, ci ha abituato. Molte spesso, si tende a confondere questa quiescenza con lo spegnimento del vulcano, cosa del tutto falsa. Un vulcano come il Vesuvio e’ molto attivo e potenzialmente molto pericoloso per via di un suo brusco risveglio esplosivo che potrebbe avvenire. Ovviamente, non voglio fare la parte del catastrofista, questo discorso serve solo a sottolineare il potenziale pericolo della zona e soprattutto la necessita’ di organizzare piani di evacuzione.

Detto questo, ho ricevuto diverse richieste da parte di utenti per conoscere invece lo stato dell’Etna e dello Stromboli. Come sicuramente avrete sentito anche nei tg, questi due vulcani, dalla fine del 2012, stanno dando luogo a diversi fenomeni eruttivi. La curiosita’ degli utenti nasce in primis per comprendere lo stato attuale di queste formazioni, ma anche per sfatare le tante voci catastrofiste che certo non potevano mancare su questi episodi. Senza entrare nello specifico, come potete immaginare, le solite voci catastrofiste riguardano un risveglio di questi vulcani o per via di forti cambiamenti in corso sul nostro pianeta, ma anche per lo sfruttamento del Marsili. Come visto in questo post:

Marsili: una fonte di energia enorme!

esiste un piano per ricavare energia geotermica da questo pericoloso vulcano. Secondo le voci catastrofiste, questa attivita’ umana modificherebbe gli equilibri secolari innescando proprio le eruzioni dei vulcani della zona. Prima di tutto, come potete leggere nel post riportato, lo sfruttamento del Marsili e’ realmente possibile, ma ancora non e’ iniziato. Premesso questo, e’ vero che tutte queste strutture appartengono alal cosiddetta fascia stromboliana, ma ovviamente e’ impensabile di fare un buco nel Marsili per provocare l’eruzione dell’Etna.

Detto questo cerchiamo invece di capire la reale situazione di questi vulcani, parlando proprio separatamente dei due.

ETNA

Ricostruzione 3D dell'Etna

Ricostruzione 3D dell’Etna

Questo vulcano ha subito diverse modificazioni e attraversato varie fasi nel corso dei secoli. I processi che hanno portato alla formazione dell’Etna cominciano ben 600000 anni fa, durante il quaternario. Come detto, durante la sua lunga storia, il vulcano ha cambiato piu’ volte morfologia, ma soprattutto ha modificato radicalmente anche la sua attivita’ vulcanica.

Oggi come oggi, l’Etna, con una frequenza molto elevata, da luogo a fenomeni eruttivi. Per darvi un’idea, dall’inizio del 2013, ci sono stati ben 10 eruzioni, di cui l’ultima solo un paio di giorni fa.

Proprio questi frequenti fenomeni eruttivi, assicurano la non pericolosita’ dell’Etna. Ovviamente, nel corso della storia recente, ci sono state eruzioni piu’ copiose che hanno messo a rischio la salvaguardia dei paesi vicini, ma il piu’ delle volte le eruzioni dell’Etna avvengono assolutamente senza conseguenze.

Canale lavico sull'Etna

Canale lavico sull’Etna

Prima di tutto, c’e’ da considerare proprio la morfologia della montagna. Oggi, esistono 4 crateri principali sull’Etna, piu’ un numero molto elevato di crateri minori che, nel corso delle eruzioni, si formano e si chiudono in continuazione. Questo grande numero di bocche, assicura un rilascio immediato della pressione interna della caldera. Detto in parole semplici, l’Etna e’ un vero e proprio “colabrodo”, nel senso che la pressione interna non raggiunge valori elevati perche’ la lava trova immediatamente una via d’uscita.

Inoltre, la lava eruttata dall’Etna e’ estremamente fluida. Ovviamente anche questa caratteristica fa si che difficilmente si formino dei “tappi” e che dunque la pressione interna possa aumentare dando luogo a fenomeni esplosivi.

Anche la morfologia della montagna assicura delle ottime vie di fuga. I numerosi canali lavici sui versanti dell’Etna permettono delle vie preferenziali per il magma. In tal senso, a meno di eruzioni molto abbondanti, la lava segue sempre le stesse strade accumulandosi poi in zone specifiche. Tra queste, sicuramente la piu’ conosciuta e’ la Valle del Bove. In quest’area, si accumulano sempre nuovi strati di lava che poi solidificandosi modificano radicalmente il paesaggio. Se visitate la zona, vi troverete da un momento all’altro in un paesaggio quasi di tipo lunare, formato solo da strati di lava che, nel corso delle varie eruzioni, si sono sovrapposti.

Detto questo, capite bene perche’ siamo ormai abituati a sentire di eruzioni da parte dell’Etna e del perche’, molto spesso, queste eruzioni non destano assolutamente panico. Solo per darvi un’idea, durante gli ultimi anni, le uniche vittime dell’Etna sono state dei turisti che incoscientemente si sono avvicinati troppo ai canali lavici durante un’eruzione.

Quanto detto non preclude ovviamente un continuo monitoraggio da parte degli esperti dell’Etna. Ovviamente tutta la struttura e’ continuamento monitorata sia dal punto di vista vulcanico che sismico attraverso una fitta rete di strumenti che in continuo inviano dati.

STROMBOLI

Il vulcano Stromboli, o se preferite anche tutta l’isola dal momento che si tratta proprio del vulcano, e’ sostanzialmente diverso dall’Etna. Lo Stromboli e’ considerato uno dei vulcani piu’ attivi del mondo e da luogo a fenomeni di tipo esplosivo con una frequenza molto elevata.

Ricostruzione 3D dello Stromboli

Ricostruzione 3D dello Stromboli

L’attivita’ ordinaria dello Stromboli avviene mediante esplosioni di media potenza e lancio dalle bocche principali di bombe scoriacee incandescenti, lapilli, cenere e blocchi. Questi lanci avvengono in media ogni ora. Questo valore vi fa capire perche’ lo Stromboli e’ considerato uno dei vulcani piu’ attivi del mondo.

Periodi di totale inattivita’ di questo vulcano sono rarissimi. Il piu’ lungo che si ricorda e’ di appena due anni ed e’ avvenuto tra il 1908 e il 1910.

La normale attivita’ del vulcano puo’ anche essere intensificata con esplosioni di notevole potenza e lanci di bombe incandescenti che, come osservato, possono arrivare anche al metro di diametro.

Come capite bene, anche se l’attivita’ normale di questo vulcano e’ estremamente intensa, non prevede emissione di colate laviche. Questi fenomeni avvengono con frequenze molto piu’ basse. Per darvi un’idea, nel corso dell’ultimo secolo si sono avute appena 26 eruzioni con colate di lava sull’isola. Inoltre, come nel caso dell’Etna, generalmente questi fenomeni non provocano danni ai centri abitati, dal momento che il magma fuoriuscito si riversa normalmente nella Sciara di Fuoco nel settore nord occidentale dell’isola.

Le eruzioni piu’ violente che si rocordano per lo Stromboli sono quelle del 1919 e del 1930. In questi casi, a causa di notevoli infiltrazioni di acqua marina all’interno della caldera, le pressioni aumentarono a valori molto elevati, provocando una copiosa fuorisucita di lava e numerosi eventi sismici di forte intensita’. A seguito di questi, furono registrati anche tsunami fino a 3 metri che arrivarno fino alle coste di Capo Vaticano in Calabria. Inoltre, le notevoli colate laviche uscirono fuori dalla Sciara di Fuoco, arrivando anche a lambire diversi centri abitati.

Attivita' eruttiva sullo Stromboli

Attivita’ eruttiva sullo Stromboli

Detto questo, l’ultima colata lavica da parte dello Stromboli e’ avvenuta all’inizio del 2013 ma l’attivita’ vulcanica e’ ancora oggi in corso. Come visto, questo non ci deve assolutamente sorprendere, stiamo parlando di uno dei vulcani piu’ attivi del mondo e con un’intensa attivita’ che molto raramente presenta periodi di interruzione.

Anche per lo Stromboli, e’ da sempre in corso un intenso monitoraggio da parte degli esperti, proprio per tenere sotto controllo questo pericoloso vulcano. Tra le altre cose, come sottolineato prima, questo vulcano deve essere monitorato anche per l’insorgenza di piccoli tsunami nel mediterraneo.

Concludendo, come visto nell’articolo, non e’ in corso assolutamente nessun fenomeno particolare ne’ per l’Etna ne’ per lo Stromboli. Stiamo parlando di due vulcani attivi e che molto frequentemente danno luogo a fenomeni eruttivi. Come analizzato pero’, dal punto di vista vulcanico, le due strutture sono completamente diverse, ma allo stesso modo necessitano di un monitoraggio continuo ed attento. Mio personale punto di vista, e’ che, tra quelli italiani, sicuramente il Vesuvio rappresenta uno dei vulcani piu’ pericolosi considerando prima di tutto il periodo di quiescenza in corso, ma anche, e soprattutto, l’elevata densita’ abitativa sulle sue pendici.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il Muos di Niscemi

2 Apr

Diversi lettori del blog mi hanno scritto per chiedere il mio punto di vista sul sistema MUOS la cui costruzione era prevista a Niscemi in Sicilia.

Per chi fosse completamente a digiuno, il MUOS e’ un sistema di comunicazione satellitare che prevede 4 satelliti in orbita e 4 stazioni di terra. Questo sistema e’ direttamente gestito e voluto dal Dipartimento della Difesa degli Stati Uniti e servira’ per gestire, comandare e controllare in ogni parte del globo, le unita’ marine, aeree e di terra. Il sistema prevede diversi servizi tra cui la comunicazione vocale, lo scambio dati e la connessione di rete, tutto ad accesso riservato per scopi militari e di coordinamento. Le stazioni di terra verranno utilizzate per comunicare direttamente con i satelliti in orbita e la costruzione era prevista nelle Hawaii, in Australia, in Virginia e, come anticipato, a Niscemi a circa 60 Km dalla base militare di Sigonella.

Le stazioni di terra prevedono la costruzione di antenne operanti ad altissima frequenza e a banda stretta. Ecco una foto dell’installazione nelle isole Hawaii:

MUOS: stazione di terra nelle Hawaii

MUOS: stazione di terra nelle Hawaii

Perche’ stiamo parlando di questo sistema? Per quanto riguarda la costruzione della stazione di Niscemi, per diverso tempo ci sono stati dibattiti e scontri circa l’eventuale pericolo che queste antenne avrebbero costituito per la popolazione del posto. Nel corso degli anni, si sono formati comitati cittadini creati per impedire la costruzione di questa stazione e il dibattito ha riempito le pagine di molti quotidiani anche a livello nazionale. Ovviamente non e’ mancata la discussione politica. Diverse volte l’aministrazione regionale ha tentato di bloccare i lavori causando una discussione tra Parlamento Italiano, regione Sicilia e governo degli Stati Uniti. Come forse avrete letto, solo pochi giorni fa, l’amministrazione Crocetta ha bloccato definitivamente la costruzione della stazione ma, almeno a mio avviso, la discussione durera’ ancora per molto tempo.

Detto questo, non voglio assolutamente entrare in discussioni politiche sul MUOS e sulla regione Sicilia. Quello che molti utenti mi hanno richiesto e’ solo un parere scientifico sull’inquinamento elettromagnetico della stazione MUOS. Ovviamente, non entrero’ nel merito della discussione politica, degli accordi bilaterali tra Italia e USA ne tantomeno sull’eventuale valutazione di impatto ambientale che una stazione del genere sicuramente comporta sul panorama della zona.

A questo punto, la domanda su cui vorrei aprire una discussione e’: il MUOS e’ dannoso per la salute della popolazione?

A livello scientifico, ci sono due voci principali che si sono mosse parlando del MUOS. Da un lato Antonino Zichichi sostiene che l’installazione non e’ assolutamente dannosa per la popolazione vista la bassa potenza in gioco, dall’altro il Prof. Massimo Zucchetti del politecnico di Torino afferma che questa installazione potrebbe comportare seri rischi per la salute dei cittadini.

Come vedete, l’inizio non e’ dei migliori. Siamo di fronte a due punti di vista completamente opposti.

Ora, mentre Zichichi si e’ limitato a rilasciare interviste a diversi quotidiani, Zucchetti ha preparato una relazione tecnica sull’installazione che potete leggere a questo indirizzo:

Zucchetti, relazione MUOS

Come vedete anche dalla pagina, la relazione di Zucchetti viene pubblicizzata proprio da uno dei comitati cittadini nati per impedire l’installazione del MUOS a Niscemi, il comitato NoMuos.

Detto questo, proviamo a commentare la relazione di Zucchetti per cercare di capire se e come il MUOS potrebbe rappresentare un pericolo per la popolazione.

Prima di tutto, ci tengo a sottolineare che Zucchetti e’ esperto di radioprotezione ma e’ importante ragionare su quanto scritto per capire le motivazioni che spingono questa relazione nella direzione di considerare il MUOS come pericoloso.

Per prima cosa, dove doveva sorgere il nuovo impianto e’ gia’ presente un sistema radar detto NRTF le cui antenne sono in funzione dal 1991. Le analisi quantitative presentate nella relazione di Zucchetti riguardano proprio questo esistente impianto e vengono fatte considerazioni circa l’eventuale aggiunta del MUOS alle emissioni del NRTF.

Nella relazione vengono mostrate misure di campo elettrico fatte in diverse zone dell’impianto e che possiamo riassumere in questa tabella:

5,9 ± 0,6 V/m in località Ulmo (centralina 3)
4,0 ± 0,4 V/m in località Ulmo (centralina 8)
2 ± 0,2 V/m in località Martelluzzo (centralina 1)
1 ± 0,1 V/m in località del fico (centralina 7)

Come potete leggere nella relazione, queste misure, fatte dall’ARPA della Sicilia, potrebbero essere affette da un’incertezza al livello del 10%. Ora, per chi non lo sapesse, i limiti per la legislazione italiana impongono un campo inferiore a 6 V/m. Come potete vedere, anche considerando un’incertezza del 10%, solo il primo valore, se l’incertezza tendesse ad amentare la misura, sarebbe leggermente superiore al limite.

Cosa comporterebbe superare i 6 V/m? In realta’ assolutamente nulla. Cerchiamo di capire bene questo punto. Ad oggi, vi sono molte voci anche molto discordi sui reali effetti dell’inquinamento elettromagnetico. Mentre ci sono particolari frequenze ed esposizioni per cui e’ stato accertato un reale rischio per la salute, in moltissimi altri casi il discorso e’ ancora aperto e non si e’ giunti ad una conclusione. Pensate solo un attimo al discorso cellulari: fanno male? Non fanno male? Causano problemi al cervello? Tutte domande su cui spesso viene posta l’attenzione e su cui non esistono ancora dati certi. Con questo non voglio assolutamente tranquillizzare nessuno, ma solo far capire l’enorme confusione ancora presente su queste tematiche.

Tornando al discorso limiti di legge, superare di poco i 6 V/m non comporta assolutamente nulla. Perche’? Come detto siamo di fronte a fenomeni non ancora capiti dal punto di vista medico. Proprio per questo motivo esiste il “principio di precauzione”, cioe’ in caso di fenomeni scientificamente controversi si deve puntare ad una precauzione maggiore. Detto in altri termini, se non sappiamo se una determinata cosa fa male o meno, meglio mettere limiti molto stringenti.

Nel caso dei campi elettrici, il limite dei 6 V/m e’ nettamente inferiore a quello di altre nazioni europee, anche se, ad esempio, nel Canton Ticino il limite e’ di 3 V/m, e circa 500 volte inferiore al valore in cui ci si dovrebbero aspettare effetti diretti. Detto questo, se invece di 6 V/m, ne abbiamo 6,5 V/m, non succede assolutamente nulla. Non siamo ovviamente in presenza di un effetto a soglia, sotto il limite non succede nulla, appena sopra ci sono effetti disastrosi. Fermo restando che stiamo pensando l’incertezza del 10% sulla misura tutta nel verso di aumentarne il valore.

Detto questo, nella relazione da cui siamo partiti, si afferma pero’ che queste misure potrebbero essere sottistimate perche’ la strumentazione utilizzata non era sensibile alle emissioni a bassa frequenza intorno ai 45 KHz. In realta’, su questo punto non possono essere assolutamente d’accordo. La legge italiana stabilisce i limiti di cui abbiamo parlato per frequenze sopra i 100 KHz. Sotto questo valore, le onde elettromagnetiche sono assorbite pochissimo dal corpo umano per cui la loro emissione non viene neanche regolamentata. Questo solo per dire come le misure riportate nella relazione e fatte dall’ARPA della Sicilia sono del tutto attendibili e assolutamente non sottostimate.

Fin qui dunque, i valori misurati per l’installazione gia’ in funzione non mostrano nessun superamento dei limiti di legge italiani e potrebbero dunque essere considerati sicuri.

Andiamo ora invece, sempre seguendo la relazione da cui siamo partiti, al MUOS vero e proprio.

Per come dovrebbero essere fatte le antenne, e se la fisica non e’ un’opinione, il campo prodotto da un’antenna parabolica ha una forma cilindrica con una divergenza molto bassa. Detto in altri termini, il campo e’ all’interno dell’area della parabola e tende molto poco ad allargarsi appunto per non disperdere potenza. Detto questo, al di fuori del cilindro prodotto delle antenne, il campo e’ praticamente nullo e non comporta nessun problema nelle vicinanze.

Proviamo a fare due calcoli. Alla potenza di 1600 W, cioe’ la massima prevista per le antenne, il campo all’interno del cilindro sarebbe di circa 50 W/m^2. Questo valore e’ abbondantemente al di sopra dei limiti di legge di 1 W/m^2, ma per l’esposizione delle persone. Come potete facilmente immaginare, le antenne devono essere puntate verso il cielo per poter funzionare e per comunicare con i satelliti. Da quanto detto per la dispersione angolare fuori-cilindro, lontano dalle antenne il campo e’ praticamente nullo, diminuendo molto rapidamente.

Da questi numeri, e’ ovvio che se le antenne venissero puntate verso l’abitato, l’inquinamento elettromagnetico sarebbe elevatissimo, ma antenne di questo tipo hanno dei ferma-corsa meccanici che impediscono l’avvicinarsi dell’antenna troppo vicino all’orizzonte, oltre ovviamente a limitazioni software pensate appositamente per impedire queste esposizioni.

Detto in questo senso, le antenne del MUOS non dovrebbero essere un pericolo per la popolazione.

Sempre secondo la relazione e secondo le voci del web, le antenne del MUOS entrerebbero in funzione insieme a quelle gia’ discusse del NRTF. Cosa comporta questo? Ovviamente i due contributi si sommano, ma non linearmente come qualcuno potrebbe erroneamente pensare. Premesso che il MUOS sarebbe in funzione simultaneamente al NRTF solo inizialmente per poi sostituirlo del tutto, i due sistemi, alla luce dei calcoli fatti, non dovrebbero superare il limite di legge neanche quando sono simultaneamente accesi.

Se proprio vogliamo essere pignoli, resta quella misura dell’ARPA quasi al limite di legge. Sicuramente quella zona dovrebbe essere monitorata per capire meglio se il limite viene sistematicamente superato oppure no, ma solo a scopo di precauzione. Inoltre, bisognerebbe valutare la presenza di altre installazioni minori e il loro contributo totale, anche se non possono che rappresentare una piccola aggiunta al totale, oltre ovviamente ad eventuali fluttuazioni fuori asse delle emissioni. Questo genere di problematiche necessiterebbero di un monitoraggio continuo e completo dell’intera zona al fine di costruire una mappa del campo e valutare eventuali zone di picchi anomali.

Detto questo, se ci limitiamo al puro aspetto scientifico, il MUOS non dovrebbe rappresentare un pericolo per la popolazione della zona. Ovviamente, siamo in un campo molto difficile e ancora poco noto sia della scienza ma soprattutto della medicina. Non voglio assolutamente schierarmi a favore o contro il MUOS anche perche’ restano da valutare, indipendentemente da questa installazione, eventuali danni alla salute derivanti da un’esposizione prolungata nel tempo anche a limiti inferiori a quelli di legge. Come anticipato, questa tematica e’ ancora molto discussa e non si e’ ancora giunti ad un quadro completo.

Nella discussione, ho appositamente non valutato problematiche di natura diversa da quella dei campi elettromagnetici. Perche’ dobbiamo costruire una stazione radar degli USA in Italia? E’ giusto? Non e’ giusto? Questa installazione rovina il paesaggio della zona? I valori dichiarati per il progetto saranno quelli veri di esercizio?

Concludendo, alla luce dei dati analizzati, per l’installazione MUOS i limiti di legge sarebbero ampiamente soddisfatti. L’unico problema potrebbe derivare, anche se impossibile tenendo conto dei limiti meccanici imposti, da un puntamento diretto verso le abitazioni. L’ingresso del MUOS sostituirebbe il pre-esistente NTRF sicuramente piu’ vecchio ed operante a potenze e frequenze diverse. Purtroppo, il discorso non puo’ limitarsi a queste considerazioni, ma deve necessariamente racchiudere tematiche ambientali, politiche e mediche a cui non e’ possibile dare una risposta univoca in questo momento.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pannelli, pannelli e pannelli

12 Mar

Qualche post fa, parlando del futuro delle energie rinnovabili, abbiamo visto alcuni dei grandi progetti pensati da qui a qualche anno. In particolare, il progetto DESERTEC, che pero’ sta avendo qualche problema gestionale iniziale, e soprattutto i grandi impianti dei paesi arabi che molto stanno investendo in questi settori:

Energia solare nel deserto

Ora, come sottolineato in questo articolo, molto spesso i non addetti ai lavori tendono a mescolare le diverse tecnologie solari, parlando semplicemente di “pannelli”. In realta’, e’ necessario fare delle distinzioni ben precise, distinguendo le diverse soluzioni in base al principio fisico che ne e’ alla base. Proprio per questo motivo, ho deciso di scrivere questo post, appunto per illustrare le diverse tecnologie per lo sfruttamento dell’energia solare, sempre mantenendo un profilo divulgativo e senza entrare troppo in dettagli che potrebbero risultare noiosi. Ovviamente, chi poi vorra’ avere informazioni aggiuntive, potra’ contattarmi oppure cercare in rete la vastissima bibliografia che molto facilmente potete reperire su questi argomenti.

A questo punto, prima di tutto, vogliamo distinguere tre grandi categorie di pannelli, parlando di fotovoltaico, solare termico e solare termodinamico. Come vedremo, anche se possono sembrare simili, le tre soluzioni sono radicalmente differenti dal punto di vista tecnico-scientifico. Anche l’utilizzo e la diffusione di queste soluzioni risulta molto diversificata ed, in particolare, come vedremo, ad esempio il solare termodinamico e di piu’ recente introduzione e ancora in fase di importante sviluppo.

Pannello fotovoltaico

Elemento base di questo pannello e’ la cella fotovoltaica. La cella si presenta come una superficie nera o bluastra, ricoperta da un materiale semiconduttore, tra i quali il piu’ diffuso e’ certamente il silicio. Le celle standard prodotte a livello industriale hanno forme quadrate con lati da 4 o 6 pollici, anche se esitono esemplari piu’ piccoli utilizzati per alimentare calcolatrici e orologi.

Pannelli fotovoltaici in cui si vedono chiaramente le singole celle

Pannelli fotovoltaici in cui si vedono chiaramente le singole celle

Il principio di funzionamento della celle e’ appunto noto come “Effetto fotovoltaico”. Quando la luce incide sulla superficie della cella, questa si comporta come un generatore di corrente continua, sfruttando proprio le proprieta’ intrinseche del semiconduttore. Per ottenere una tensione maggiore, un certo numero di celle vengono connesse in serie per formare poi il pannello solare che tutti conosciamo.

Nel pannello fotovoltaico dunque, la radiazione solare viene convertita, attraverso il semiconduttore, direttamente in una corrente elettrica.

Purtroppo la connessione in serie implica una serie di problemi, come ad esempio la diminuzione di potenza del modulo se una o piu’ celle si trovano in ombra rispetto alle altre. In questo caso, e’ necessario assicurare una illuminazione uniforme di tutte le celle o in alternativa utilizzare moduli per l’inseguimento solare. Quest’ultima soluzione e’ utilizzata anche per migliorare l’esposizione in generale del pannello, consentendo a questo di ruotare offrendo sempre la propria area attiva in direzione del Sole. Come potete capire bene, l’utilizzo di motori per la rotazione implica ovviamente anche un consumo di energia, per cui e’ sempre necessario trovare un buon compromesso in queste soluzioni.

Poiche’, come detto, le celle si comportano come generatori di corrente, i pannelli devono poi essere collegati ad un inverter il cui compito e’ appunto quello di trasformare la tensione in alternata e quindi, poter immetere la produzione nella rete elettrica o anche per l’utilizzo nelle nostre abitazioni.

Ovviamente, come tutti sapete, il pannello fotovoltaico e’ quello maggiormente utilizzato ed e’ quello che viene utilizzato anche per la costruzione dei campi fotovoltaici, visibili in diverse zone, e che vengono costruiti appunto per la produzione e vendita dell’energia elettrica.

Solare Termico

Questo tipo di impianti viene utilizzato per catturare l’energia solare, immagazzinarla ed utilizzarla per scopi diversi. Tra questi, quelli maggiormente diffusi sono quelli per la produzione di acqua calda sanitaria, cioe’ per la produzione di acqua calda da utilizzare in casa. Come potete facimemte capire, in questo caso, questi impianti lavorano in sostituzione o di concerto con la caldaia che invece utilizza gas naturale.

Impianto solare termico domestico per acqua calda sanitaria

Impianto solare termico domestico per acqua calda sanitaria

I pannelli termici possono essere di vari tipi, anche se i piu’ diffusi sono costituiti da una lastra di rame, percorsa da una serpentina, e verniciata di nero. L’intero pannello e’ poi coperto da una lastra di vetro.

In questo caso, molto spesso si possono vedere sui tetti delle abitazioni dei pannelli in cui nella parte alta sono facilmente distinguibili serbatoi d’acqua. In questa soluzione, l’energia solare catturata viene utilizzata immediatamente per riscaldare appunto il fluido ed utilizzarlo nell’abitazione. Solo per completezza, ci sono diverse tipologie di impianti che vengono distinte in base alle temperature di esercizio e che possono variare tra 120 gradi (bassa temperatura) fino anche a 1000 gradi (alta temperatura) quando utilizzati in impianti industriali.

Solare Termodinamico

In questo caso, il principio di funzionamento e’ del tutto simile a quello termico, ma con l’aggiunta di un ciclo termodinamico detto ciclo Rankine. I pannelli solari termodinamici hanno forme paraboliche per poter concentrare la radiazione solare e proprio per questo sono anche detti impianti a concentrazione.

A differenza degli impianti termici domestici, nel solare termodinamico l’energia termica accumulata viene utilizzata attraverso una turbina a vapore o anche un alternatore per produrre energia elettrica. Inoltre, l’energia termica puo’ essere accumulata in modo da essere sfruttata anche durante la notte o in condizioni di cielo nuvoloso garantendo in questo modo una produzione costante e non intermittente come avviene nelle soluzioni precedentemente viste.

Impianto solare termodinamico con pannelli a concentrazione

Impianto solare termodinamico con pannelli a concentrazione

L’immagazzinamento dell’energia termica avviene mediante un fluido termovettore adatto appunto ad immagazzinare e trasportare il calore nel punto di conversione in energia elettrica. Nella prima generazione di impianti termodinamici, veniva utilizzato come fluido un olio diatermico, questo e’ stato poi sostituito con una miscela di sali fusi, molto piu’ efficienti ed in gradi di trattenere per tempi piu’ lunghi il calore. Proprio il fluido termovettore e’ quello che garantisce la produzione di energia durante la notte. Il calore accumulato dal fluido durante l’esposizione al sole, rimane immagazzinato per diverse ore, in alcuni casi anche giorni, garantendo in questo modo una produzione costante.

Come visto nell’articolo precedente, proprio questo genere di pannelli, grazie al principio fisico che sfruttano, possono anche essere utilizzati in condizioni estreme, come ad esempio il deserto del Sahara. Ad oggi pero’, il costo dell’energia prodotta con questi sistemi e’ ancora 5-6 volte maggiore rispetto a quello di altre soluzioni percorribili. Il motivo di questo e’ da ricercarsi nella relativa giovane eta’ di questa tecnologia e soprattutto nella mancanza ancora di una produzione industriale massiccia di questi pannelli. In questo senso, la ricerca, soprattutto nella migliore concentrazione solare e nel piu’ vantaggioso fluido da utilizzare, sta andando avanti molto velocemente. Questo ci spinge a pensare che nel giro di pochi anni questa diverra’ una tecnologia sfruttabile a pieno e da cui si potranno avere buone produzioni energetiche anche in diverse parti del mondo.

Concludendo, come abbiamo visto, non possiamo parlare semplicemente di pannelli confondendo soluzioni radicalmente diverse tra loro. I principi tecnico-scientifici alla base di ciascuna soluzione sono radicalmente diversi, anche dal punto di vista dell’utilizzo. A livello di ricerca, il solare termodinamico sta portando importanti risultati e molto probabilmente, nel giro di pochi anni, questa soluzione potra’ avere costi piu’ contenuti e dunque una maggiore diffusione su scala mondiale.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.