Tag Archives: atomi

Effetto Hutchison: realta’ o bufala?

29 Apr

Nell’apposita sezione:

Hai domande o dubbi?

un nostro caro lettore ci ha fatto una richiesta davvero molto interessante. Come potete leggere, ci chiede di dare maggiori dettagli circa l’effetto Hutchinson cioe’ una serie di fenomeni apparentemente non spiegabili utilizzando le attuali conoscenze della fisica.

Personalmente, trovo questa richiesta molto interessante se non altro perche’ ci consente di poter parlare di qualcosa ancora poco dibattutto sui siti nazionali anche se molto in voga gia’ da diversi anni sui siti in lingua inglese. Al solito, permettetemi questo piccolo monito, molti nostri blog e forum non fanno altro che riportare pezzi copiati qua e la senza, salvo alcuni rari casi, discutere la cosa in dettaglio.

Cosa sarebbe questo effetto Hutchinson?

Come anticipato, con questo termine si intendoo in realta’ una serie di fenomeni “strani” dovuti ad interferenza elettromagnetica. Cioe’? Se provate a documentarvi in rete, trovate sempre questa frase:

L’Effetto Hutchison si verifica come il risultato di interferenze di onde radio in una zona di spazio volumetrico avvolto da sorgenti di alto voltaggio, solitamente un generatore Van de Graff, e due o piu’ bobine di Tesla.

OK, ma che significa? Prendete una regione di spazio e fate interferire onde radio con una determinata frequenza e potenza. In prossimita’ della stessa zona sono presenti anche generatori ad alto voltaggio che in realta’ puo’ essere prodotto in vari modi, in particolare usando un Van de Graff o delle bobine Tesla.

Bene, creata questa zona “speciale” con campi elettromagnetici diversi cosa si ottiene?

Gli effetti sono i piu’ disparati: levitazione di oggetti pesanti (metallici ma non solo), compenetrazione di materiali diversi, riscaldamento anomalo di metalli senza bruciare altri materiali in contatto, cambiamenti sia provvisori che definitivi della struttura molecolare dei materiali, ecc.

Per darvi un’idea piu’ chiara, vi riporto un’immagine di alcuni materiali che sono stati sottoposti a questo trattamento:

 

Materiali sottoposti all'effetto Hutchinson

Materiali sottoposti all’effetto Hutchinson

notate in particolare lo sfaldamento dei metalli e l’ultima foto di un pezzo di legno compenetrato nel metallo senza sfaldare ne modificare ne il metallo ne il legno.

Pensate che questo straordinario effetto e’ stato realizzato dentro una normale abitazione utilizzando attrezzatura che ognuno di noi potrebbe acquistare sfruttando una potenza totale di 75W con 120 V in alternata. Come potete immaginare, questo effetto e’ stato mostrato per la “prima” volta da John Hutchinson un canadese che ha iniziato alla fine degli anni ‘7o a fare sperimentazione per hobby riprendendo gli studi addirittura di Nikola Tesla.

John Hutchinson nella sua casa

John Hutchinson nella sua casa

Visto che a noi piace tanto informarci su internet, sono andato a leggere moltissimi siti per capire cosa la gente pensasse di questo effetto. Per prima cosa, vedendo le foto che ho riportato, capite subito quale enorme quantita’ di energia sia necessaria per provocare questi effetti. Inoltre, ottenendo risultati di questo tipo, appare evidente come ci siano molti punti oscuri dell’interazione tra onde radio e materia che ancora ci sfuggono. Secondo molti siti, e’ importante ripetere la fonte delle affermazioni, effetti del genere possono solo essere compresi arrendendosi al fatto che i legami molecolari possano essere modificati attraverso onde radio. L’evidenza di un metallo che aumenta notevolmente la sua temperatura senza bruciare cio’ che lo circonda e’ a sua volta una chiara dimostrazione che la termodinamica cosi’ come la conosciamo debba essere modificata in presenza di notevoli campi elettromagnetici in grado di modificare la concezione stessa di calore che normalmente utilizziamo.

Pesnate sia sufficiente? No, andiamo un pochino piu’ oltre. Da dove viene tutta questa energia se abbiamo solo un dispositivo casalingo collegato alla presa di corrente? Ma e’ ovvio, mettete insieme effetto Hutchinson e Tesla e capirete come questa sia un’applicazione in grado di sfruttare l’energia di punto zero e la produzione spontanea di coppie particella-anti particella nel vuoto quantistico. Perche’ nessun ente, universita’ o laboratorio sta sperimentando questi sistemi per sfruttare questa energia enorme, gratuita e assolutamente rinnovabile?

Che domande che fate ancora: perche’ gli scienziati zozzoni sono tutti corrotti e asserviti al potere delle grandi multinazionali. Al solito pensano di aver capito tutto e sono chiusi alle loro equazioncine che dovrebbero spiegare la meccanica, la termodinamica e l’elettromagnetismo e non si accorgono invece che le evidenze mostrano che tutte le teorie sono sbagliate. Prima ho parlato anche di levitazione di oggetti e vi ho sottolineato il fatto che questa avvenga non solo per oggetti metallici. Ecco una foto di Hutchinson che mostra un modello di disco volante in plastica che e’ stato fatto levitare in uno dei suoi esperimenti:

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Hutchinson con il modellino di ufo che avrebbe fatto levitare

Pensate che il modellino di disco volante sia stato scelto a caso? Forse da Hutchinson si, ma questo effetto potrebbe spiegare anche come fanno a volare i dischi volanti che “ogni giorno” vediamo sfrecciare sulle nostre teste. Pensate quanto potremmo imparare sfruttando questo effetto e utilizzandolo per fare viaggi interplanetari, viaggi nel tempo, curvare lo spazio tempo, ecc.

Scienziati perditempo che non fate altro che rubare gli stipendi pagati da gruppi di potere a cui siete asserviti, vergognatevi tutti, compreso il sottoscritto.

Bene, ora torniamo seri e ragioniamo su quanto detto. Piccola parentesi, al solito sto scherzando parafrasando pero’ quello che viene normalmente, anche in questo caso, detto su moltissimi siti. Se provate a documentarvi in rete, troverete diversi articoli che parlano di questo presunto effetto attaccando la scienza ufficiale complice di non approfondire queste scoperte.

Come anticipato, il fatto che lo stesso Hutchinson dica di rifarsi agli esperimenti di Tesla non puo’ che fungere da cassa di risonanza per il complottismo verso la scienza. Di Tesla in particolare abbiamo gia’ parlato in questi articoli:

Il Raggio della Morte

Il Raggio del Dolore

Marconi, Tesla e l’evidenza aliena

Le terribili armi scalari

parlando dell’uomo, dello scienziato ma soprattutto della reale considerazione che la scienza ufficiale ha di questo scienziato di prim’ordine. Purtroppo, ancora oggi molti credono che tutte le scoperte di Tesla siano finite nel dimenticatoio per colpa del governo o di organizzazioni. Questo non e’ assolutamente vero! Pensate solo alla corrente alternata, alle bobine o alle tecnologie senza fili. Tutte scoperte partite o completamente sviluppate da Tesla e oggi sfruttate a pieno. Purtroppo, c’e’ ancora chi ignorantemente sostiene che non siamo in grado o non vogliamo utilizzare la corrente alternata.

Detto questo torniamo ad Hutchinson. Veramente sono stati osservati questi effetti? Purtroppo, anche in questo caso, siamo di fronte alla totale mancanza di prove scientifiche a sostegno. Lo stesso Hutchinson dichiara di non sapere quando e perche’ i suoi esperimenti riescono e per di piu’, non sono mai riusciti di fronte a persone esperte esterne.

Vi voglio mostrare un video a mio avviso interessante:

Notato niente di strano nell’angolo in alto a sinistra? Magari un filo che si riavvolge e tira su il modellino di ufo? Capite bene come questo video messo in rete dallo stesso Hutchinson smentisca da subito il suo esperimento di levitazione.

Ora e’ importante rimarcare un cosa: personalmente, e questo dovrebbe valere per tutti, mi reputo una persona molto aperta e consapevole, da ricercatore, che quello che sappiamo e’ sempre troppo poco rispetto a quanto c’e’ ancora da scoprire. Detto questo, qualora ci fossero effetti nuovi non comprensibili ma ripetibili indipendentemente da chi compie o osserva l’esperimento, la cosa non mi sorprenderebbe affatto. Moltissime invenzioni e scoperte sono arrivate per puro caso e stravolgendo qualcosa che si pensava ben compreso e archiviato. Alla luce di quanto osservato pero’, questo non e’ il caso dell’effetto Hutchinson. E’ vero, in rete ci sono decine di video che mostrano questi esperimenti ma molti di questi mostrano particolari quantomeno sospetti. A parte il video riportato prima, facendo una ricerca in rete potete trovare molti altri documenti sulla levitazione. In questi casi si vede una rapida accelerazione dell’oggettto che sale verso l’alto, accelerazione del tutto compatibile con una caduta libera. Cosa significa? Semplice, che il sospetto che la ripresa sia fatta capovolgendo l’immagine, dunque oggetto che cade piuttosto che salire, e’ davvero molto forte.

Altra piccola parentesi che e’ doveroso fare senza voler offendere nessuno: ma davvero pensate che gli scienziati siano cosi’ stolti? Per poter andare avanti nella conoscenza e’ necessario non smettere mai di essere curiosi e di farsi domande. Oltre a questo pero’, c’e’ tutto un panorama di leggi, effetti, spiegazioni che per anni sono state affinate fino ad arrivare a quello che sappiamo oggi. Dico questo perche’ molto spesso, non sono su questo effetto, leggo in rete persone che si lanciano in spiegazioni parlando a vanvera di questo o quest’altro effetto mostrando chiaramente da quello che scrivono quanto poco sappiano dell’argomento. Per l’effetto Hutchinson tanti parlano di interferenza di onde, principi della termodinamica, Tesla, ecc. senza conoscere minimamnete le basi su cui questi concetti su fondano. Credetemi, diffidate da questi luminari di “wikipediana” cultura che pensano che dopo aver letto due paginette abbiano la comprensione del tutto al punto da poter ridicolizzare chi queste cose le ha studiate, magari le insegna in corsi universitari e continua ancora oggi a farsi domande esistenziali.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Pubblicità

Fusione, ci siamo quasi?

17 Feb

La chimera della produzione di energia attraverso processi nucleari e’ senza ombra di dubbio la fusione. Come sappiamo, detto in modo improprio, possiamo pensare a questo processo come qualcosa di inverso alla Fissione. Se in quest’ultimo caso, un nucleo atomico viene spezzato in due nuclei piu’ piccoli liberando energia, nella fusione abbiamo due elementi piu’ leggeri che vengono uniti in uno piu’ grande. Anche in questo caso, nel processo c’e’ un eccesso di energia che viene liberato verso l’esterno. Non si tratta di magia ma del bilancio energetico delle reazioni, facilmente calcolabile utilizzando i principi base della fisica nucleare.

Per la fissione, il processo e’ relativamente semplice ed in grado di autosostenersi. Quest’ultimo aspetto e’ fondamentale quando si considerano processi di questo tipo. Detto in altri termini, basta dare il “la” alla reazione per avere qualcosa in grado di autosostenersi autonomamente e continuare cosi’ a produrre energia. Come noto, siamo in grado di utilizzare questo processo molto bene sia con reazioni controllate nei reattori a fissione sia in modo non controllato attraverso la bomba atomica.

E per la fusione?

Qui il discorso e’ diverso. A partire dagli anni ’50, abbiamo iniziato a studiare queste reazioni per cercare di ottenere un bilancio positivo. Cosa significa? Prendete due nuclei leggeri. Per far avvenire la fusione dovete avvicinarli tra loro fino a formare qualcosa di piu’ grande. Semplice ma non scontato. Prendiamo il discorso in modo improprio ma comprensibile. Nei nuclei avete protoni e neutroni. Come ci hanno insegnato a scuola, se proviamo ad avvicinare cariche di uguale segno queste si respingono attraverso la forza coulombiana. Ma allora, perche’ nel nucleo i protoni sono fermi e tutti vicini tra loro? Avvicinando due particelle come i protoni, inizialmente avete la repulsione coulombiana dovuta alle cariche elettriche che tende ad allontanarle. Se resistete opponendovi a questa forza, vi accorgete che sotto una certa distanza interviene un’altra forza, questa volta attrattiva e molto piu’ intesa di quella dovuta alle cariche elettriche, la forza nucleare forte. Si tratta solo di un’altra interazione che pero’ agisce a distanze molto corte tra i nucleoni. La presenza dei neutroni nel nucleo serve proprio a tenere unito il nucleo stesso. Poiche’ i neutroni non hanno carica elettrica, non subiscono repulsione coulombiana mentre esercitano e subiscono l’interazione forte. Detto in altri termini, i neutroni fanno da collante per far si che la forza forte, attrattiva, vinca su quella coulombiana, repulsiva.

Bene, lo scopo del gioco della fusione e’ proprio questo. In qualche modo dobbiamo avvicinare i nuclei spingendoli fino a che la forza forte non diventi piu’ intensa di quella coulombiana. Sotto questo limite, ci sara’ un’attrazione spontanea che portera’ alla formazione di un nucleo piu’ pensate, rilasciando energia.

Qual e’ il limite nella produzione di energia da fusione? Ovviamente, dovete fare in modo che l’energia spesa per avvicinare i nuclei sia minore di quella che viene ceduta dopo la fusione. Questo e’ il famoso bilancio positivo di cui tanti parlano ma, lasciatemi dire, in pochi hanno veramente capito.

Di questi processi abbiamo parlato in diversi articoli mostrando le diverse tecniche che si stanno sperimentando nel mondo:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Contrapposti a questi, ci sono poi i diversi esperimenti per creare quella che viene definita “fusione fredda” e su cui tanta speculazione e’ stata fatta negli ultimi anni:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come detto e ripetuto piu’ volte, dobbiamo essere aperti di mente nei confronti di questi processi che pongono le loro radici in metodi scientifici conosciuti. Quello che pero’ manca, e’ una dimostrazione oggettiva che questi apparecchi, esempio su tutti l’E-Cat, siano veramente in grado di produrre energia in quantita’ maggiore di quella data in ingresso.

Perche’ torno nuovamente su questi argomenti?

Come forse avrete letto, solo pochi giorni fa e’ stato fatto un nuovo anuncio riguardante la ricerca sulla fusione nucleare. In un articolo pubblicato sulla rivista Nature, il NIF, National Ignition Facility, della California ha annunciato di aver ottenuto un bilancio positivo della reazione di fusione di isotopi di idrogeno in elio.

Del NIF abbiamo gia’ parlato nei precedenti articoli riportati sopra. Come sappiamo, in questo caso si utilizzano quasi 200 fasci laser per comprimere, mediante oro, atomi e isotopi di idrogeno, deuterio e trizio, per formare elio. Nel processo viene rilasciata l’energia della fusione.

Come capite bene, in questo caso il bilancio positivo si ha se l’energia rilasciata e’ maggiore di quella necessaria per far sparare nello stesso istante tutti i laser.

Nei primi anni di vita, il NIF ha rappresentato una grande speranza per la ricerca della fusione, attirando grandi finanziamenti. Finanziamenti che poi sono diminuiti quando i risultati ottenuti erano notevolmente inferiori alle aspettative.

Oggi, il NIF e’ riuscito ad ottenere per la prima volta un bilancio positivo, anche se solo minore dell’1%, rispetto all’energia richiesta per far andare i laser. Se proprio vogliamo dirla tutta, non siamo ancora contenti di questo risultato e saranno necessari tantissimi altri studi prima di poter gridare vittoria e prima di poter vedere la fusione utilizzata per la produzione di energia.

Come detto nell’introduzione, lo scopo di questo gioco e’ quello di tenere in qualche modo gli atomi fermi mentre li comprimiamo fino alla fusione. Nel NIF questo confinamento avviene sfruttando l’inerzia dei nuclei stessi e proprio per questo motivo si parla di “confinamento inerziale”. Diversamente, ad esempio per ITER, si cerchera’ di utilizzare forti campi magnetici per tenere i nuclei uniti, parlando di “confinamento magnetico”. La trattazione di questo aspetto non e’ affatto banale e rappresenta, a questo livello, un contributo assolutamente non trascurabile nel bilancio energetico finale della reazione.

Perche’ dico questo?

I risultati ottenuti dal NIF sono assolutamente ragguardevoli e sono un ordine di grandezza maggiore rispetto ai migliori risultati precedenti. Il bilancio positivo dell’1% non tiene pero’ conto dell’energia spesa per il confinamento. Questo per far capire quanto lavoro e’ ancora necessario.

La comunita’ scientifica della fusione, pone tutte le sue speranze, nel progetto internazionale ITER. Come sapete bene, in questo caso si parla di un vero e proprio reattore prototipale per la produzione di energia per fusione. Anche in questo caso, ci saranno diverse sfide tecnologiche da vincere ma la strada segnata dai successi degli ultimi anni non puo’ che farci ben sperare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Studiare le stelle da casa

4 Feb

Dopo qualche giorno di assenza, purtroppo, al contrario di quello che pensano i catastrofisti, il mio lavoro non e’ solo fare disinformazione attraverso questo blog, eccoci di nuovo qui con un articolo di scienza pura.

Come avrete sentito, solo qualche giorno fa, e’ stato inaugurata a Padova la macchina acceleratrice “Prima”. Per dirla semplicemente, si tratta di una macchina in grado di accelerare atomi fino ad energie di 16 milioni di Watt. Questa importante infrastruttura nasce da una collaborazione tra l’Istituto di Fisica Nucleare, il CNR, l’ENEA, l’Universita’ di Padova e le Acciaierie Venete.

Ovviamente parliamo di un grande successo per la ricerca italiana. Pensandoci bene, mi rendo pero’ conto di come un successo di questo tipo, possa risultare abbastanza difficile da capire per un non addetto ai lavori. Detto in altri termini: a cosa serve questa macchina?

Molto semplice, come spesso avviene, ricerche di questo tipo sono assolutamente multidisciplinari e possono servire per condurre studi su tantissimi settori. Tra questi, quello che sicuramente interessa di piu’ e’ senza dubbio lo studio della fusione nucleare controllata.

Di fusione abbiamo parlato in diversi articoli:

Sole: quanta confusione!

La stella in laboratorio

mostrando come questo sia il processo attraverso il quale le stelle, e ovviamente il nostro Sole,  producono energia.  Purtroppo, ad oggi, non siamo ancora stati capaci di sfruttare la fusione per produrre energia per noi. Per essere piu’ precisi, ancora non siamo riusciti a realizzare un processo in cui l’energia necessaria per attivare la fusione sia maggiore di quella che poi viene data all’esterno. Detto in parole povere, ad oggi abbiamo ancora un processo “in cui ci rimettiamo”, cioe’ diamo piu’ energia rispetto a quella che otteniamo in uscita.

Una delle chimere della fusione nucleare, e’ senza dubbio il discorso della fusione fredda e di tutti quei processi che gli ruotano intorno. Anche di questi processi abbiamo parlato diverse volte in articoli come questi:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come sapete bene, e come potete verificare leggendo gli articoli citati, la nostra posizione non e’ mai stata di chiusura totale verso queste ipotesi solo che, e su questo non ho mai trovato una smentita reale e credibile, ad oggi non ci sono le prove necessarie per dimostrare scientificamente che queste soluzioni, ed in particolare l’E-Cat, siano in grado di funzionare.

Fatta questa doverosa premessa, torniamo a parlare di PRIMA.

Come visto negli articoli specifici sulla fusione, la ricerca ufficiale sta investendo molte risorse in alcuni progetti europei e mondiali di notevole portata. Tra questi, ruolo d’eccezione spetta sicurametne ad ITER. Come sapete bene, si tratta di un primo prototipio su grande scala di un reattore a fusione per ricerca. Tra alti e bassi, la costruzione di questa importante pietra miliare nella storia della fusione sta procedendo in Francia e speriamo possa portare i risultati sperati ed in grado di aprire le porte alla produzione di energia mediante la fusione mnucleare.

La macchina PRIMA studiera’ proprio la parte di, definiamola cosi’, iniezione di ITER, cioe’ il fascio neutro che servira’ per riscaldare il plasma fino alle temperature richieste per far partire la fusione. Oltre ad ITER, la macchina servira’ anche per studiare i materiali piu’ adatti per contenere la fusione e che saranno un punto molto importante anche nella costruzione del primo reattore, chiamato IFMIF, che sara’ costruito in Giappone.

Prima di chiudere, vorrei invitarvi ad una riflessione. Permettemi di riprendere quanto detto un po’ di tempo fa in questi articoli:

Perche’ la ricerca: scienza e tecnologia

Perche’ la ricerca: economia

Prima di tutto, gli studi condotti per la costruzione dei magneti di LHC sono stati fondamentali per la costruzione dei magneti da utilizzare su PRIMA. Questo solo per dire come la ricerca non e’ mai fine a se stessa ma consente di farci applicare studi condotti su un particolare settore a qualcosa di diverso, non dovendo ogni volta ripartire da zero. Oltre a questo, per parlare invece di economia, la costruzione di macchine di questo tipo mettono sempre in moto un’economia assolutamente non trascurabile. Cosi’ come e’ avvenuto per LHC, anche per PRIMA ci sono state importanti commesse per le aziende italiane non solo legate alla costruzione di magneti. Questo solo per ribadire come i soldi dati alla ricerca rappresentino sempre un investimento. Purtroppo, il tasso di interesse o i tempi per poter maturare questo tasso non sono sempre scritti o sicuri anzi, lasciatemi dire, possono maturare in settori completamente diversi.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fascio di anti-idrogeno? FATTO!

22 Gen

Uno degli aspetti della fisica che suscita maggior interesse nei non addetti ai lavori e’ senza dubbio il concetto di antimateria. Molto probabilmente, il motivo di questo interesse e’ da ricercarsi nelle tante storie fantascientifiche che sono state ispirate dall’esistenza di un qualcosa molto simile alla materia, se non fosse per la carica delle particelle che la compongono, che era presente prima del Big Bang ma che ora sembra totalmente scomparsa. Inoltre, come tutti sanno, se materia e antimateria vengono messe vicine tra loro si ha il fenomeno dell’annichilazione, qualcosa di assolutamente esotico nella mente dei non addetti ai lavori e che ha offerto trame sensazionali per tanti film e serie TV.

Come detto tante volte, dobbiamo fare una distinzione precisa tra quelle che chiamiamo antiparticelle e quella che invece viene intesa come antimateria. Cosi’ come avviene per la materia ordinaria, composta di particelle che, in questo schema, possiamo pensare come elettroni, protoni e neutroni, l’antimateria e’ a sua volta composta da anti-particelle. Spesso si tende a confondere questi due concetti, facendo, come si suole dire, di tutta l’erba un fascio.

Produrre anti-particelle e’ semplice e siamo in grado di farlo gia’ da diversi anni. Per darvi un esempio, molti collisori utilizzati per la ricerca nella fisica delle alte energie fanno scontrare fasci di particelle con antiparticelle. In questo contesto, molto usati sono i positroni, cioe’ gli anti-elettroni, e gli anti-protoni.

Completamente diverso e’ invece il caso dell’antimateria.

Per formare anti-atomi e’ necessario assemblare insieme le anti-particelle per comporre qualcosa simile nella struttura alla materia, ma composto a partire da mattoncini di anti-particelle.

Di questi concetti abbiamo gia’ parlato in articoli precedenti che trovate a questi link:

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

Come anticipato, prima del Big Bang, erano presenti in eguale quantita’ materia e anti-materia. Ad un certo punto pero’, l’anti-materia e’ scomparsa lasciando il posto solo alla materia che ha poi formato l’universo che vediamo oggi. Anche se questo meccanismo e’ in linea di principio ipotizzato dalla fisica, ci sono ancora punti da chiarire in quella che viene chiamata “asimmetria materia-antimateria”. Anche di questo abbiamo gia’ parlato in questi articoli:

E parliamo di questo Big Bang

Ancora sullo squilibrio tra materia e antimateria

Se, da un lato, produrre antiparticelle e’ semplice, metterle insieme per formare antiatomi non e’ assolutamente banale.

Nel 2011 al CERN di Ginevra era stato annunciato per la prima volta un risultato molto importante: atomi di anti-idrogeno erano stati formati e osservati per un tempo di circa 1000 secondi prima si scomparire. Questa osservazione aveva permesso di osservare alcune importanti proprieta’. Nel 2012, sempre al CERN, un altro esperimento era riuscito a misurare altre importanti proprieta’ di questi anti-atomi, facendo ben sperare per il futuro.

Ora, invece, sempre il CERN ha annunciato di essere riuscito per la prima volta a produrre addirittura un fascio di anti-idrogeni. L’annuncio ‘e stato dato sul sito del laboratorio svizzero:

CERN, ASACUSA NEWS

e pubblicato sull’autorevole rivista Nature.

La scoperta e’ stata realizzata dalla collaborazione internazionale ASACUSA, di cui fanno parte anche alcuni ricercatori del nostro Istituto Nazionale di Fiscia Nucleare.

Cosa sarebbero questi anti-idrogeni?

Seguendo il ragionamento fatto, questi speciali atomi sono composti dagli analoghi di antimateria di protone e elettrone. Se l’idrogeno ha un nucleo composto da un protone con un elettrone che gira intorno, un anti-idrogeno e’ composto da un anti-protone, carico negativamente, e un positrone che gira intorno, carico positivamente. Come potete facilmente capire, in questo gioco di costruzione di atomi, siamo alla struttura piu’ semplice conosciuta ma, come vedremo tra poco, fondamentale per la comprensione dell’universo.

Come e’ stato fatto questo esperimento?

L'esperimento ASACUSA del CERN

L’esperimento ASACUSA del CERN

Senza annoiarvi con tecnicismi, gli anti-idrogeni sono prodotti da un deceleratore di antiprotoni e poi allontanati dal punto di produzione ad una distanza sufficiente a non risentire dei campi magnetici. Questo accorgimento e’ fondamentale per stabilizzare gli anti-atomi che altrimenti si scomporrebbero scomparendo. Come vedete nella foto riportata, la camera da vuoto utilizzata e’ infatti un lungo tubo e gli anti-idrogeni sono stati osservati e immobilizzati ad una distanza di quasi 3 metri dal punto di produzione.

Perche’ e’ cosi’ importante l’anti-idrogeno?

La sua semplicita’ rispetto agli atomi piu’ pesanti, sia per materia che per anti-materia, ha fatto si che questi siano stati i primi atomi stabili creati nell’universo in espansione. Secondo la teoria, idrogeno e anti-idrogeno dovrebbero avere esattamente lo stesso spettro di emissione. Poter disporre in laboratorio di un fascio stabile di anti-atomi consentira’ di studiare a fondo le caratteristiche di questa struttura analizzando nei minimi dettagli ogni minima possibile discrepanza con l’idrogeno. Queste caratteristiche aiuterebbero notevolmente nella comprensione dell’asimmetria tra materia e anti-materia dando una notevola spinta in avanti nella comprensione della nascita del nostro universo e nella ricerca di ogni possibile accumulo di anti-materia.

Concludendo, questa importante notizia apre nuovi scenari nello studio della fisica di base, offrendo un’occasione fondamentale per comprende il nostro universo. Come spesso avviene, molti siti e giornali si sono lanciati in speculazioni parlando di pericoli o applicazioni fantascientifiche che lasciano un po’ il tempo che trovano. Sicuramente, il futuro in questa branca della ricerca ha ancora molto da offrire e non possiamo che essere entusiasti delle novita’ che ancora ci attendono.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Trovata plastica nello spazio?

14 Ott

Come sapete bene, oltre a commentare, o meglio lasciatemi dire, a smentire le tante notizie pseudoscientifiche che ogni giorno appaiono sula rete, scopo principale di questo blog e’ quello di cercare di fare, nei limiti delle nostre possibilita’, una corretta divulgazione scientifica. Ovviamente, prendere spunto dalle notizie catastrofiste ci consente di avere argomentazioni che, e sul motivo di questo ci sarebbe molto da scrivere, hanno sempre molto appiglio nelle persone e che spaziano sugli argomenti piu’ disparati.

Passando invece ora alla fase piu’ divulgativa di questo sito, vorrei parlarvi dei risultati di una ricerca apparsa solo pochi giorni fa sulla rivista Astrophyisical Journal. L’articolo rigurda l’evidenza di propilene nell’atmosfera di Titano, la piu’ grande delle lune di Saturno. Aspetto molto interessante di questa ricerca e’ che per arrivare a questo risultato si e’ utilizzato il CIRS, acronimo che sta per Composite Infrared Spectrometer, uno spettrometro infrarosso molto preciso e performante montato a bordo della sonda Cassini-Huygens. Questo strumento consente di poter isolare e identificare molecole con concentrazione anche molto ridotta rispetto alle altre.

Immagine con evidenza delle emissioni spettrali di Titano

Immagine con evidenza delle emissioni spettrali di Titano

Su molti giornali, senza mai dimenticare una buona dose di sensazionlismo, trovate articoli del tipo “trovata plastica su Titano”. Ovviamente, in questo articolo evitero’ di commentare le numerose leggende nate sulla rete riguardo alla presenza di plastica su Titano e da dove questa fosse venuta. A questo punto, conoscendo molto bene questa tipologia di siti, credo che siate in grado di poterlo immaginare da soli.

Perche’ si parla di plastica?

Per poter spiegare questa affermazione, e’ necesssario parlare di un po’ di chimica. Ovviamente, manterremo sempre un profilo divulgativo senza cercare di annoire i lettori.

Il propilene e’ alla base del polipropilene, molecola utilizzata nelle plastiche dei contenutori per alimenti e utilizzata anche per realizzare i paraurti delle macchine. Detto questo, capite da subito da dove e’ nata la storia della plastica trovata su Titano.

Parlare pero’ di propilene come plastica e’ formalmente sbagliato. Cerchiamo di capire il perche’. Molecole di questo tipo fanno parte degli idrocarburi, composti che hanno alla base catene piu’ o meno lunghe di atomi di carbonio. Tra questi composti possiamo distinguere tre famiglie principali: gli alcani, gli alcheni e gli alchini. I primi hanno atomi di carbonio legati da legami singoli e, dal momento che ciascun carbonio ha a disposizione quattro legami, i restanti saranno occupati da atomi di idrogeno. Negli alcheni e negli alchini, sono invece presenti anche legami carbonio-carbonio doppi e tripli, rispettivamente doppi negli alcheni e tripli negli alchini. Per quanto detto in precedenza, se due legami sono occupati legando un carbonio, ci saranno meno posti a disposizione per l’idrogeno e quindi, a parita’ di atomi di carbonio, gli alcani risulteranno piu’ pesanti degli alcheni e questi degli alchini.

Il propene, o propilene, e’ appunto l’alchene con tre atomi di carbonio in fila. Sempre con tre atomi di carbonio avremo poi il propano, l’alcano corrispondente, e il propino, l’alchino con legami tripli.

Fin qui niente di complicato. Negli anni precedenti, nell’atmosfera di Titano erano state trovate molecole sia di propano che di propino. Se volete, sempre con tre atomi di carbonio, mancava all’appello solo il propilene.

Bene, come mostrato dalla ricerca pubblicata in questi giorni, finalmente anche l’alchene con tre atomi di carbonio e’ stato trovato. Se volete, era l’unico che mancava all’appello ed e’ la prima volta che molecole di questo tipo vengono trovate fuori dal pianeta Terra.

Come detto all’inizio, identificare questa molecole nell’atmosfera di Titano non e’ stato assolutamente semplice. L’arduo compito del CIRS e’ stato proprio quello di identificare le emissioni del propilene, presente in concentrazioni molto piu’ basse di altri idrocarburi.

Perche’ sono presenti cosi’ tanti idrocarburi nell’atmosfera di Titano?

Titano e’ un corpo molto interessante per via di alcune caratteristiche che lo rendono in parte simile alla Terra, ha infatti un’atmosfera composita intorno e una pressione solo il 50% maggiore di quella della Terra. Vista la maggiore distanza dal Sole pero’, su Titano la presenza di acqua in forma liquida e’ fortemente svantaggiata. Su questo corpo sono presenti laghi e fiumi ma, al contrario di quelli terrestri, questi specchi sono composti da metano liquido. Sempre di metano liquido sono anche le numerose piogge che si registrano su Titano cosi’ come le nubi e le nebbie. Per analogia sulla Terra, si e’ sviluppato un ciclo del metano molto simile a quello dell’acqua che abbiamo da noi.

Proprio la presenza del metano consente la creazione di idrocarburi a catena piu’ lunga. Quando il metano evapora, a causa della radiazione solare, puo’ essere scisso e gli atomi cosi’ slegati possono ricombinarsi in catene piu’ lunghe formando in questo modo gli altri idrocarburi, tra cui anche il propilene da cui siamo partiti.

Perche’ e’ cosi’ interessante studiare Titano?

Come detto, questo corpo ha delle caratteristiche che lo rendono in parte simile alla Terra. Proprio per questo motivo, la sua atmosfera e’ studiata gia’ da diversi anni, anche come palestra per testare gli strumenti piu’ evoluti, come in questo caso il CIRS della sonda Cassini. Inoltre, Titano e’ uno di quei corpi studiati per capire se siano presenti forme vitali, ovviamente mi riferisco a microorganismi, che basano il loro ciclo sul metano piuttosto che sull’acqua come qui sulla Terra.

Oltre a questi fatti, vorrei sottolineare ancora una volta come, anche se a distanza maggiore dal Sole, su Titano siano presenti reazioni chimiche complesse con la produzione di strutture molecolari a lunga catena, aspetto che rende questo corpo estremamente affascinante da studiare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La stella in laboratorio

3 Ott

Attraverso le pagine del forum di Psicosi 2012:

Psicosi 2012, forum

mi e’ stato segnalato un articolo molto interessante. Perche’ lo definisco in questo modo? Semplice, l’articolo e’ talmente assurdo che merita di essere presentato qui sul blog.

Come diceva un proverbio: “Dagli amici mi guardi Dio perche’ da nemici mi guardo io”. Cosa significa? Mentre siamo guardinghi nei confronti dei nostri nemici,  ci sentiamo tranquilli verso gli amici. A volte questo puo’ creare la condizione per poter essere, come si dice, accoltellati alle spalle.

Cosa voglio dire con queste parole? Mentre ormai abbiamo capito bene quali sono i siti complottisti e catastrofisti e, almeno spero, abbiamo imparato a leggerli con occhio attento e guardingo, a volte quelli che dovrebbero essere siti seri e scientifici si lasciano prendere un po’ troppo la mano.

Questo e’ purtroppo il caso di una notiizia apparsa su ben due noti giornali online nazionali che, copiandosi spudoratamente tra di loro, hanno finito per sparare cavolate veramente fuori dalla grazia del Signore.

Prima di tuttto, vi segnalo gli articoli in questione:

Articolo 1

Articolo 2

Potete anche leggerne uno solo, tanto le parole utilizzate sono le stesse, ergo, non so chi dei due, ha fatto copia/incolla.

Avete letto bene? I ricercatori dell’istituto americano NIF, stanno per accendere una stella in laboratorio. Una stella? Proprio cosi’ dicono gli articoli. Si tratta di un esperimento di fusione in cui sono stati utilizzati laser con una potenza di 500 Tera Watt, 500 mila miliardi di watt di potenza. Come recita l’articolo, questa potenza e’ pari a 1000 volte quella che gli Stati Uniti stanno consumando in quel momento.

Signori, scusate le sfogo, ma questa e’ disinformazione scientifica sulle pagine di giornali nazionali che pretendono di avere una sezione di scienze! Poi, non ci sorprendiamo quando le persone pensano che al CERN si creeranno buchi neri che distruggeranno la Terra. Dall’altra parte dell’oceano stanno creando una stella in laboratorio.

Finito il mio piccolo sfogo personale, vorrei passare a commentare questa notizia. Al contrario di quanto fatto sui giornali citati, per poter capire questa notizia, e’ necessario capire bene il campo in cui ci andiamo a muovere, cioe’ la fusione nucleare.

Cercando di mantenere un approccio semplice e divulgativo, tutti conoscono le centrali nucleari per la produzione di energia elettrica. Questi reattori funzionano attraverso la fissione nucleare, cioe’ la scissione di un nucleo pesante, il combustibile, in nuclei piu’ leggeri. Questo processo, oltre ai due nuclei figli, produce un eccesso di energia. Il processo si dice dunque esoenergetico perche’ rilascia energia.

Detto in modo molto improprio, il processo inverso a quello di fissione nucleare e’ quello di fusione. In questo caso, si prendono due nuclei leggeri per fonderli insieme e formare un nucleo piu’ pesante. Questo processo e’ conveniente solo per nuclei molto leggeri, in linea di principio fino al ferro. Come viene fatto il processo? Quelli che dovete avvicinare sono degli atomi. Come sapete, nel nucleo sono presenti protoni con carica positiva. Avvicinando tra loro due cariche di segno uguale, queste si respingono tra loro con una forza che aumenta al diminuire della distanza. Sotto una certa distanza pero’, la forza coulombiana repulsiva, cioe’ quella tra cariche elettriche, diviene piu’ piccola della cosiddetta forza nucleare forte. Questa interazione e’ molto intensa, ma solo a distanze molto piccole. Detto in altri termini, dovete comprimere molto i nuclei tra loro, fino ad arrivare al punto in cui questi si attirano grazie alla forza forte.

Questa caratteristica rende il processo di fusione nucleare molto difficile da realizzare o meglio, molto difficile da sfruttare. Come anticipato, si tratta di un processo che rilascia energia. Per poter comprimere i nuclei tra loro dovete pero’ spendere un certo quantitativo di energia in qualche forma. Bene, per poter sfruttare questo processo, o meglio per guadagnarci, dovete fare in modo che l’energia spesa per attivare il processo, quella di compressione, sia minore di quella che poi viene rilasciata dai nuclei che si fondono.

Una delle possibili e piu’ studiate reazioni di fusione nucleare e’ quella del deuterio con il trizio:

D + T → 4He (3,5 MeV) + n (14,1 MeV)

In questa reazione i due reagenti, che altro non sono che isotopi piu’ pesanti dell’idrogeno, vengono fusi per formare un nucleo di elio, detto anche particella alfa, liberando anche un neutrone di una certa energia.

Vedete bene il processo. Indipendentemente da quello che ognuno di noi pensa delle centrali nucleari a fissione, il processo di fusione risolve automaticamente il problema delle scorie. In questo caso, non abbiamo sottoprodotti radioattivi a lunga vita media. Proprio per questo motivo, la costruzione di centrali di questo tipo e’ vista come la chimera della fisica nucleare e da diversi anni sono in corso ricerche per cercare di rendere il processo di fusione conveniente dal punto di vista energetico.

Il punto cruciale di questi studi e’ ovviamente come innescare il processo, cioe’ come far avvicinare tra loro i nuclei per far partire la fusione. Il caso visto negli articoli da cui siamo partiti e’ il cosiddetto confinamento inerziale ad ignizione laser. Detto in parole semplici, si utilizzano fasci laser per riscaldare e comprimere i nuclei e far partire la fusione.

Bene, a questo punto siamo in grado di rileggere gli articoli e di capire veramente quello che e’ successo nei laboratori del NIF.

Il laboratorio in questione utilizza 192 fasci laser per riscaldare e comprimere un sferetta di deuterio-trizio. Il numero elevato di laser serve prima di tutto per avere l’energia necessaria ma anche per poter riscaldare uniformemente la sfera di combustibile. Ovviamente, non serve irradiare continuamente il composto, ma e’ necessario che in un tempo molto breve l’energia arrivi tutta insieme sul campione. Quindi, proprio per questo si utilizzano fasci impulsati, cioe’ raggi molto intensi ma molto brevi nel tempo. Questo spiega l’enorme potenza in gioco. Data un’energia del fascio, tanto piu’ corto e’ il raggio, maggiore sara’ la potenza in gioco. Esattamente come in fisica definite la potenza come il rapporto tra lavoro e tempo per compierlo. Capite dunque da dove viene fuori quel valore enorme di 500 terawatt di potenza. Secondo voi, se fosse necessario avere 1000 volte la potenza che gli USA stanno consumando in quell’istante, chi sarebbe in grado di alimentare i laser? Nella migliore delle ipotesi, acceso il sistema salterebbe la corrente a tutti gli Stati Uniti. Direi che quanto affermato e’ quantomeno azzardato e dimostra la totale non conoscenza di quello che si sta raccontando.

Poi, cosa dice l’articolo? A questo punto, il sistema implode e si accende una stella.

Capiamo bene, perche’ implode? Lo schema semplificato del processo di fusione che avviene e’ questo:

Il meccanismo di ignizione laser per la fusione nucleare

Il meccanismo di ignizione laser per la fusione nucleare

Per compressione interna, si ha un implosione cioe’ un collassamento dei nuclei verso l’interno. Da come viene raccontato nell’articolo, sembra che ci sia una deflagrazione in laboratorio.

Poi si accende una stella ….

Perche’? Anche qui, si tratta di un’assurdita’ letta scopiazzando in giro. Il processo di fusione e’ quello grazie alla quale, ad esempio, le stelle producono la loro energia. Il nostro sole “funziona” grazie alla fusione degli atomi di idrogeno in elio. Quando si parla di processo vitale del sole e di passaggio allo stadio successivo, ci si riferisce proprio al momento in cui il combustibile finira’. Inoltre, se si vede la pagina Wikipedia dedicata al NIF:

Wikipedia, NIF

si legge una frase molto importante:

Oltre allo studio della fusione nucleare in campo energetico, al NIF si studieranno anche i segreti delle stelle; infatti quello che si sta tentando di fare è riprodurre il fenomeno della fusione dell’idrogeno che avviene sul Sole e su tutte le altre stelle.

Ecco da dove e’ nata l’idea che in laboratorio venga “accesa una stella”. Come vedete, l’autore dell’articolo ha provato a documentarsi sulla rete, ma non ha capito proprio il senso della frase riportata.

A questo punto, credo che l’assurdita’ di tali articoli sia evidente a tutti.

Tornando di nuovo a cose serie, perche’ e’ stata data questa notizia? Il motivo principale, e molto importante, e’ che, per la prima volta, e’ stato raggiunto il pareggio energetico. Cosa significa? Per la prima volta, si e’ riusciti ad ottenere la stessa quantita’ di energia che e’ stata necessaria per attivare il processo. Se prima l’energia per accendere la reazione era molto maggiore di quella che poi veniva prodotta, ora siamo in pareggio. Si tratta di un risultato molto importante, che dimostra i notevoli passi avanti fatti in questo campo. Certo, e’ vero che al momento non stiamo guadagnando nulla, ma prima, con lo stesso processo, ci rimettevamo tantissimo. Diciamo che il trend e’ dunque molto positivo.

Ovviamente, allo stato attuale, siamo ancora in un campo pioneristico. Magari, andando avanti, ci potremmo accorgere che si sono dei limiti alla produzione di energia che non siamo in grado di superare. Speriamo questo non avvenga e si riesca, in tempi rapidi, a spostare il bilancio energetico a nostro favore. Come detto prima, questa e’ la condizione per poter sperare nella realizzazione di centrali nucleari a fusione per la produzione di energia.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Un vetro spesso solo due atomi

18 Set

Come sappiamo bene, la storia della ricerca e della scienza in generale e’ piena di scoperte avvenute in modo del tutto casuale. Spesso, queste scoperte si rivelano di fondamentale imporanza per l’uomo e quello che contribuisce ancora di piu’ alla notorieta’ della scoperta e’ la non intenzione di base di arrivare a questi risultati.

Perche’ avviene questo?

Non potendo dare una risposta provata, mi limitero’ ad esporre un mio personale pensiero. In questo caso, a mio avviso, quello che rende cosi’ affascinanti queste scoperte per i non addetti ai lavori e’ proprio la casualita’ della scoperta. Questi meccanismi rendono la ricerca scientifica piu’ umana e vicina alle persone comuni. Pensare ad uno sbadato scienziato che lascia i suoi campioni fuori posto o senza pulirli e poi, tornando il giorno dopo, trova la scoperta che lo rendera’ famoso, e’ qualcosa che avvicina molto i ricercatori alle persone comuni, tutte con le loro distrazioni, pensieri e cose piu’ “terrene” da fare.

Se ci pensiamo, la stessa cosa e’ avvenuta per Flemming con la scoperta della penicillina. Come sicuramente sapete, anche in questo caso, la scoperta fu del tutto fortuita. Lo scienziato lascio’ alcuni batteri su cui stava lavorando in una capsula di cultura e parti’ per una vacanza. Al suo ritorno si accorse che all’interno della capsula vi era una zona in cui i batteri non erano cresciuti ed in cui era presente una muffa. Proprio da questa muffa si arrivo’ poi, anche se in diversi passi nel corso del tempo e perfezionando i metodi di produzione, alla penicillina, quell’importante salvavita che tutti conosciamo. Se vogliamo, la bravura del ricercatore e’ nell’interpretare e nell’accorgersi di avere tra le mani qualcosa di importante e non un risultato sbagliato o della sporcizia lasciata per caso.

Perche’ ho fatto questo cappello introduttivo?

Come potete immaginare, vi voglio parlare di una scoperta fortuita, forse meno “vitale” della penicillina, ma sicuramente molto affascinante e con importanti risvolti per il futuro. Si tratta, come forse avrete letto su molti giornali, della produzione del vetro piu’ sottile al mondo, appena due atomi.

Andiamo con ordine, parlando proprio di come ‘e stata fatta questa scoperta.

Un team di scienziati stava lavorando alla produzione di fogli di grafene, una struttura atomica composta di carbonio, spessa appena un atomo, ma con importanti prorieta’ sia chimiche che meccaniche. La produzione di questo grafene era fatta utilizzando ovviamente atomi di carbonio ma anche fogli di quarzo utilizzati per la deposizione.

Osservazione al microscopio della zona impura del grafene

Osservazione al microscopio della zona impura del grafene

Osservando al microscopio uno di questi fogli, gli scienziati si sono accorti che in una piccola parte era presente una regione di colorazione diversa rispetto al resto. Proprio mediante l’osservazione al microscopio e’ stato possibile determinare che si trattava di una struttura diversa da quella del grafene e composta di Silicio e Ossigeno. Questa non era una struttura casuale, ma gli atomi erano disposti in modo ordinato e formavano un foglio spesso appena due atomi.

Caratterizzando la struttura del foglio, gli scienziati si sono accorti che quello che stavano osservando era un vetro. non un vetro qualsiasi, ma il piu’ sottile vetro mai realizzato.

Dov’e’ la casualita’ della scoperta?

Ovviamente, nel laboratorio si stava producendo grafene che, come detto, e’ composto da atomi di carbonio. Da dove sono usciti Silicio e Ossigeno per il vetro? La risposta e’ quantomai banale ma affascinante. Secondo i ricercatori, una fuga d’aria all’interno della camera di produzione ha causato l’ingresso dell’ossigino e la conseguente reazione con il rame e con il quarzo contenuto all’interno per la produzione di grafene. Risultato, in una piccola zona del grafene si e’ formato un sottilissimo strato di vetro comune.

Come anticipato, parliamo di una scoperta affascinante ma che sicuramente non puo’ combattere con quella della penicillina. Perche’ pero’ e’ importante dal punto di vista scientifico?

Per prima cosa, il fatto che si tratti del piu’ sottile vetro mai realizzato e’ stato certificato inserendo questa scoperta nel libro dei Guiness dei Primati.

Oltre a questo, tornando invece a parlare di scienza, la struttura del vetro non e’ molto facile da capire. Come sapete, questo puo’ allo stesso tempo essere considerato sia un liquido che un solido. Detto questo, se si osserva un vetro al microscopio, non si riesce a distinguere bene la sua struttura atomica. Nella struttura amorfa della sostanza, si evidenziano sottoinsiemi disordinati di atomi, senza poter descrivere in dettaglio il posizionamento ed i legami che intercorrono tra di essi.

Nel caso dl vetro di cui stiamo parlando invece, proprio lo spessore cosi’ ridotto consente di poter distinguere chiaramente la posizione dei diversi atomi e quindi di avere una mappa delle posizioni di Ossigeno e Silicio. Come potete immaginare, dal punto di vista scientifico questa evidenza e’ di fondamentale importanza per poter classificare e comprendere a fondo i materiali amorfi a cui anche il vetro appartiene.

Oltre a questo, sempre gli scienziati coinvolti nella ricerca si sono accorti che la struttura ottenuta era molto simile a quella ipotizzata ben 80 anni prima, nel 1932, dal fisico norvegese Zachariasen. Costui dedico’ gran parte della sua carriera allo studio dei vetri e proprio nel 1932 pubblico’ l’articolo “The atomic Arrangement in Glass”. In questo articolo Zachariasen inseri’ alcuni suoi schemi relativi al posizionamento degli atomi all’interno del vetro. Come potete immaginre, si trattava di disegni ottenuti da considerazioni scientifiche personali. Bene, a distanza di oltre 80 anni, e’ stato possibile osservare direttamente la struttura del vetro e confermare le supposizoni fatte da Zachariasen.

Se vogliamo, fino a questo punto abbiamo mostrato il fascino della scoperta. La prossima domanda che potrebbe invece venire in mente e’: cosa ci facciamo con questo vetro?

Dal punto di vista applicativo, questa scoperta potrebbe avere negli anni a venire importanti ripercussioni su diversi campi. Per prima cosa, un vetro cosi’ sottile e’ praticamente privo di impurezze. Questo lo rende particolarmente appetibile per applicazioni di precisione su scala micrometrica, dove una minima variazione della struttura potrebbe comportare errori sistematici non prevedibili.

Inoltre, strutture come questa ottenuta, sono importantissime per la realizzazione di sistemi elettronici miniaturizzati. Anche qui, la purezza e’ uno dei requisiti fondamentali richiesti. Oltre a questa, un vetro cosi’ sottile puo’ essere pensato per applicazioni di microtrasmissione dei segnali, fondamentali, ad esempio, nei transistor.

Grazie a questa scoperta, possiamo dunque pensare di avere un metodo di produzione per spessori infinitesimali. I risultati di questa produzione potrebbero essere utilizzati per aprire la strada ad una miniaturtizzazione ancora piu’ spinta dei dispositivi elettroni che trovano largo uso in tantissimi “gadget” tecnologici che ci portiamo dietro.

Concludendo, la scoperta del vetro piu’ sottile al mondo e’ avvenuta quasi per caso. Dico “quasi” perche’ ovviamente stiamo parlando di scienziati seri e che erano impegnati su lavori molto importanti e di chiara importanza. Durante questi studi, si e’ evideniata la formazione fortuita di una zona vetrosa composta da ossigeno e silicio. Come visto nell’articolo, questa scoperta potrebbe avere importanti ripercussioni su tantissimi settori diversi che vanno dalla microelettronica, alla tramissione dei segnali, fino anche, perche’ no, ad applicazioni di fisica delle alte energie per lo studio e la realizzazione di rivelatori sempre piu’ innovativi.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

E quindi uscimmo a riveder le stelle

10 Set

Nella sezione:

Hai domande o dubbi?

e’ stata fatta una richiesta davvero molto interessante. Come potete leggere, si chiede come vengano ricostruite le immagini astronomiche che spesso ci vengono mostrate e catturate dai tanti telescopi a terra e in orbita. Questa richiesta sembra apparentemente molto semplice, ma nasconde in realta’ una vera e propria professione. Oggi come oggi, molti astronomi dedicano il loro lavoro proprio alla visione e all’elaborazione di immagini astronomiche. Cerchiamo di capire meglio come funzionano queste tecniche per poter meglio apprezzare anche il lavoro che c’e’ dietro una bella immagine che troviamo sulla rete.

Come sapete bene, al giorno d’oggi, per esplorare l’universo non si utilizzano piu’ solo telescopi nel visibile. In questo caso, come facilmente immaginabile, questi sistemi catturano immagini esattamente come farebbe il nostro occhio. Oltre a questi, si utilizzano telescopi, sia a terra che in orbita, sensibili all’infrarosso, ai raggi X, all’ultravioletto, oltre ad enormi antenne pensate per catturare segnali radio provenienti dal cosmo.

Che differenza c’e’ tra queste radiazioni?

Per capire bene il concetto, vi mostro quello che normalmente si chiama lo spettro della radiazione elettromagnetica:

Spettro della radiazione elettromagnetica

Diverse lunghezze d’onda vengono accorpate in famiglie. Come vedete, la parte visibile, cioe’ quella a cui i nostri occhi sono sensibili, e’ in realta’ solo una strettra frazione dell’intero spettro. Per fare un esempio, tutti conosciamo le immagini infrarosse utilizzate per esempio per identificare le fonti di calore. Bene, questo e’ un esempio di immagine fuori dallo spettro visibile. Si tratta di particolari che i nostri occhi non sarebbero in grado di vedere, ma che riusciamo a visualizzare utilizzando tecnologie appositamente costruite. Non si tratta di immagini false o che non esistono, semplicemente, mediante l’ausilio di strumentazione, riusciamo a “vedere” quello che i nostri occhi non sono in grado di osservare.

Bene, il principio dietro l’astronomia nelle diverse lunghezze d’onda e’ proprio questo. Sfruttando parti dello spettro normalmente non visibili, si riesce ad osservare dettagli che altrimenti sarebbero invisibili.

Per dirla tutta, anche le normali immagini visibili, subiscono un’opera di elaborazione pensata per ricostruire i dettagli e per ottimizzare la visione. Cosa significa? Nella concezione comune, un telescopio nel visibile e’ paragonabile ad una normale macchina digitale. Questo non e’ esattamente vero. Molto spesso, le immagini catturate da questi sistemi sono ottenute mediante una sovrapposizione di dati raccolti utilizzando filtri diversi.

Cosa significa?

Prendiamo come esempio il telescopio Hubble. In questo caso, il sistema acquisisce immagini a diverse lunghezze d’onda, o isolando una particolare frequenza piuttosto che altre. Si tratta di immagini in bianco e nero che poi vengono colorate artificialmente e sovrapposte per formare l’immagine finale. Attenzione, non dovete pensare che la colorazione artificiale sia un trucco per far apparire piu’ belle le foto. Questa tecnica e’ di fondamentale importanza per far esaltare dei particolari che altrimenti verrebbero confusi con il resto. Questa tecnica si chiama dei “falsi colori”, proprio perche’ la colorazione non e’ quella originale ma e’ stata creata artificialmente.

Per capire meglio, proviamo a fare un esempio.

Prendiamo una delle foto piu’ famose di Hubble, quella della galassia ESO 510-G13:

ESO 510-G13 da Hubble

Questa immagine e’ ottenuta con la tecnica del “colore naturale”, cioe’ esattamente come la vedrebbero i nostri occhi se fossero potenti come quelli di Hubble. In questo caso dunque, la colorazione e’ quella che potremmo vedere anche noi ma anche questa immagine e’ stata ottenuta sovrapponendo singoli scatti ripresi dal telescopio.

In particolare, si sono sovrapposte tre immagini in bianco e nero, ognuna ottenuta selezionando solo la radiazione visibile blu, rossa e verde:

ESO 510-G13 immagini a colore singolo

Perche’ viene fatto questo?

Selezionando solo una piccola parte dello spettro visibile, cioe’ il singolo colore, e’ possibile sfruttare il sistema per catturare al meglio i singoli dettagli. In questo modo, come visibile nelle foto, ciascuna immagine e’ relativa ad un solo colore, ma al meglio della risoluzione. Sommando poi le singole parti, si ottiene il bellissimo risultato finale che abbiamo visto.

Analogamente, in alcuni casi, si amplificano determinate lunghezze d’onda rispetto ad altre, per rendere piu’ visibili alcuni dettagli. Anche in questo caso vi voglio fare un esempio. Questa e’ una bellissima immagine della Nebulosa dell’Aquila:

Nebulosa testa d'aquila

Cosa significa amplificare alcuni colori?

Nella foto riportata, oltre ad ammirarla, gli astronomi riescono a vedere le emissioni di luce da parte dei singoli gas costituenti la nebulosa. Questo studio e’ importante per determinare la concentrazione di singoli elementi, e dunque identificare particolari tipologie di corpi celesti. Per capire meglio, nella ricostruzione a posteriori dell’immagine, e’ stato assegnato il colore verde all’emissione degli atomi di idrogeno, il rosso agli ioni di zolfo e il blu alla luce emessa dall’ossigeno ionizzato. Perche’ questo artificio grafico? Se non venisse elaborata, nell’immagine la luce emessa dalla zolfo e dall’idrogeno sarebbero indistinguibili tra loro. Se ora rileggete l’assegnazione dei colori riportata e rivedete l’immagine della nebulosa, siete anche voi in grado di determinare quali gas sono piu’ presenti in una zona piuttosto che in un’altra. Ovviamente questi sono processi che devono essere fatti analiticamente, elaborando le informazioni di ogni singolo pixel.

Analogo discorso puo’ essere fatto per la radioastronomia. In questo caso, come sapete e come anticipato, quelli che vengono registrati sono dei segnali radio provenienti dai diversi settori in cui viene diviso l’universo. Non avendo delle immagini, nei radiotelescopi si hanno degli impulsi radio che devono essere interpretati per identificare il tipo di sorgente, ma soprattutto la zona da cui il segnale proviene.

Per farvi capire meglio questo concetto, vi racconto la storia dell’inizio della radioastronomia. Nel 1929 un radiotecnico americano che lavorava in una stazione di Manila, mentre era al lavoro per eliminare disturbi dalle trasmissioni, si accorse che vi era un particolare rumore di fondo che si intensifica in determinati momenti della giornata. Nello stesso anno, Jansky, un ingegnere della compagnia americana Bell, anche lui al lavoro per cercare di migliorare le comunicazioni transoceaniche, arrivo’ alla stessa conclusione del radiotecnico. L’ingegnere pero’ calcolo’ il momento preciso in cui questi disturbi aumentavano, trovando che il periodo che intercorreva tra i massimi corrispondeva esattamente alla durata del giorno sidereo, 23 ore e 56 minuti. Solo anni piu’ tardi, riprendendo in mano questi dati, ci si accorse che la fonte di questo disturbo era il centro della nostra galassia. I segnali radio captati erano massimi quando il ricevitore passava davanti al centro della galassia, emettitore molto importante di segnali radio.

Oggi, mediante i nostri radiotelescopi, riusciamo ad identificare moltissime sorgenti radio presenti nell’universo e, proprio studiando questi spettri, riusciamo a capire quali tipologie di sorgenti si osservano e da quale punto dell’universo e’ stato inviato il segnale. A titolo di esempio, vi mostro uno spettro corrispondente ai segnali radio captati nell’arco del giorno con un semplice radiotelescopio:

Spettro giornaliero di un radiotelescopio con antenna da 3.3 metri. Fonte: Univ. di Pisa

Come vedete, sono chiaramente distinguibili i momenti di alba e tramonto, il passaggio davanti al centro galattico e quello corrispondente al braccio di Perseo. Come potete facilmente capire, si tratta di misure, chiamiamole, indirette in cui i nostri occhi sono proprio le antenne dei telescopi.

Concludendo, ci sono diversi metodi per pulire, migliorare o amplificare le immagini raccolte dai telescopi sia a terra che in orbita. Quello che facciamo e’ amplificare la nostra vista o utilizzando sistemi molto potenti, oppure ampliando lo spettro delle radiazioni che altrimenti non sarebbero visibili. I telescopi divengono dunque degli occhi sull’universo molto piu’ potenti e precisi dei nostri. Metodi diversi, ottico, UV, IR, radio, ecc, possono aiutare a capire dettagli o strutture che altrimenti sarebbero invisibili in condizioni normali. Detto questo, capite quanto lavoro c’e’ dietro una bella immagine che trovate su internet e soprattutto perche’ la foto ha una specifica colorazione o particolari sfumature.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Perche’ l’acqua ossigenata disinfetta?

1 Set

L’altro giorno mi e’ stata fatta una domanda davvero molto interessante. La considero tale, e spero possiate condividere il mio punto di vista, perche’ si tratta di un argomento conosciuto da tutti, ma di cui molti ignorano la risposta. La questione e’ molto semplice, quando ci facciamo male, nel senso che abbiamo delle ferite, tagli, ulcere, ecc, quello che facciamo e’ disinfettare la parte con l’acqua ossigenata. Questo consente di pulire la ferita e impedire che si formino infezioni.

Perche’ l’acqua ossigenata ha questo potere?

Cominciamo proprio dalle basi, l’acqua ossigenata, o anche perossido di idrogeno, e’ una molecola molto semplice formata da due atomi di idrogeno e due di ossigeno H-O-O-H. Al contrario della normale acqua, H-O-H, ha dunque solo un ossigeno in piu’, come suggerisce il nome stesso. Anche se apparentemente la modifica sembra minima, il comportamento e le cosiddette proprieta’ organolettiche delle due molecole sono molto diverse. L’acqua ossigenata si presenta incolore, liquida in condizioni normali di temperatura e pressione, ma con un caratteristico odore pungente non molto gradevole.

L’acqua ossigenata e’ conosciuta gia’ dai primi anni dell’800. Il primo che sintetizzo’ questa molecola fu Thenard nel 1818, anche se la sua diffusione su vasta scala, grazie anche alla produzione industriale economica e di massa, avvenne solo nel secolo successivo.

Come sapete bene, per usi commerciali l’acqua ossigenata e’ venduta all’interno di bottigliette di plastica non trasparenti, per non alterare le sue proprieta’, sempre diluita in una frazione che va dal 3 al 6%. Ovviamente, per usi specifici, potete trovare anche concentrazioni maggiori anche se queste, per i normali usi domestici, devono poi essere diluite con acqua. In alternativa alla percentuale, trovate la concentrazione anche espressa in “volumi”, cioe’ in volume equivalente di ossigeno che potete liberare dal perossido.

Tornando alla domanda iniziale, perche’ l’acqua ossigenata disinfetta le ferite?

Per essere precisi, l’azione del perossido di idrogeno e’ duplice. Per prima cosa, a contatto con la pelle, la molecola di acqua ossigenata libera molto facilmente ossigeno non legato. Questo e’ fortemente reattivo e per sua natura tende a legarsi con un altro atomo uguale per formare O2. Questo meccanismo e’ quello che porta alla formazione delle bollicine che vedete quando utilizzate l’acqua ossigenata. In questo caso, il meccanismo di disinfezione e’ meccanico. Il cammino in superficie dell’ossigeno, fino a liberarsi in aria, riesce a pulire e catturare sporcizia e germi che possono annidarsi all’interno delle ferite. Detto in altri termini, l’ossigeno riesce a portare fuori agenti esterni anche negli angoli piu’ nascosti dove sarebbe difficile rimuoverli.

Oltre a questo meccanismo puramente “meccanico”, l’acqua ossigenata ha anche una funzione puramente biologica. Come si dice in termini tecnici, il perossido riesce a “denaturare le proteine”. Cosa significa? Detto in modo molto semplice, l’ossigeno nascente, sempre liberato dal perossido iniziale, e’, come anticipato, molto reattivo. Sempre per stabilizzarsi, l’ossigeno nascente si puo’ legare ossidando le molecole e dunque favorendo la degradazione di molecole organiche degli agenti infettanti. Cosa significa? Semplicemente l’ossidazione delle molecole degli agenti infettanti modifica la struttura di questi microbi rendendoli duqnue non pericolosi per l’uomo, cioe’ incapaci di infettare la ferita.

Come potete facilmente immaginare, questa duplice azione dell’acqua ossigenata e’ quella che ha portato il successo e la diffusione di questo semplice perossido e, se vogliamo, ha consentito di evitare conseguenze ben piu’ gravi per individui feriti.

Oltre che come disinfettante, ad alta concentrazione (90%), l’acqua ossigenata viene utilizzata anche per la propulsione dei razzi. Il suo utilizzo puo’ essere come comburente per bruciare altri combustibili o anche singolarmente mettendo perossido di idrogeno in una camera con pareti di argento che favoriscono la formazione di ossigeno e acqua. Come potete facilmente immaginare, questo utilizzo e’ possibile sempre grazie alla altissima concentrazione di ossigeno liberato.

Tolta la propulsione a razzo, vi sono poi tutta una serie di utilizzi che possono essere fatti dell’acqua ossigenata nelle nostre case. Questo prodotto e’ utilizzato anche a livello industriale come sbiancante sia nella produzione della carta che dei tessuti. Allo stesso modo, l’acqua ossigenata puo’ essere utilizzata per schiarire i capelli, eliminare macchie dai vestiti prima del normale lavaggio o anche per sbiancare i denti. In questo ultimo caso, basta sciaquare la bocca due volte alla settimana con un cucchiaio di acqua ossigenata per poi risciaquare con abbondante acqua.

Come visto in questo articolo:

Detersivi ecologici

Il perossido di idrogeno e’ alla base della realizzazione di molti detersivi fatti in casa assolutamente paragonabili a quelli commerciali ma molto piu’ economici.

Oltre a questi utilizzi diretti, proprio le proprieta’ disinfettanti dell’acqua ossigenata la rendono particolarmente efficace per pulire ed eliminare germi dalle superfici domestiche (esempio le maioliche di cucina e bagno) o anche per disinfettare gli spazzolini da denti. Per farvi un esempio, l’acqua osigenata e’ in grado di uccidere i germi della salmonella e dell’escherichia coli, due microbateri molto famosi per la contaminazione dei cibi.

Concludendo, il meccanismo di disinfezione dell’acqua ossigenata e’ in realta’ duplice. Prima di tutto l’azione meccanica dovuta al moto in superficie delle molecole di ossigeno riesce ad eliminare sporcizia e germi dalle ferite. Inoltre, l’ossidazione delle molecole modifica la struttura degli agenti infettanti rendendoli inefficaci. Oltre a questa applicazione nota a tutti, il perossido di idrogeno puo’ essere utilizzato per molti altri scopi domestici che vanno dalla pulizia delle superfici fino alla rimozione delle macchie dai vestiti.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Uno sguardo ai materiali del futuro

27 Apr

In questi giorni, diversi giornali hanno pubblicato una notizia riguardante la scoperta di un nuovo materiale. La caratteristica principale, che tanto sta attirando attenzione, e’ l’estrema leggerezza unita alla notevole resistenza dei composti di questo materiale. Poiche’, leggendo in rete, ho visto tantissime imprecioni, credo sia interessante parlare di questa “scoperta”.

Il materiale in questione e’ il Grafene Aerogel. Ho messo “scoperta” tra virgolette, perche’, se proprio vogliamo essere precisi, questi materiali non vengono scoperti dal nulla, ma sono sintetizzati partendo da sostanze note. Il grafene aerogel e’ dunque stato “inventato” dai ricercatori della Zheijiang University ed e’ un materiale a base di carbonio.

Parliamo subito della sua caratteristica principale, la leggerezza. Il Grafene Aerogel rappresenta, ad oggi, il materiale meno denso in assoluto. Prima di questa invenzione, il record spettava all’Aerografite, con una densita’ di “ben” 0,2 mg/cm^3. Oggi, questo record e’ stato spazzato via dal Grafene Aerogel, con una densita’ di soli 0,16 mg/cm3.

Per darvi un’idea della leggerezza di questo materiale, vi mostro una foto molto interessante:

Dimostrazione della leggerezza del Grafene Aerogel

Dimostrazione della leggerezza del Grafene Aerogel

Come vedete, un blocchetto di Grafene Aerogel e’ talmente leggero da non piegare nemmeno la spiga in foto.

Anche se poco conosciuto dai non addetti ai lavori, negli ultimi anni e’ nato proprio un nuovo settore della tecnologia, interamente mirato alla sintetizzazione di nuovi materiali di questo tipo.

Cosa sarebbe il grafene aerogel?

Per prima cosa, analizziamo i singoli termini. Il grafene altro non e’ che un materiale formato da un singolo strato di atomi di carbonio. In questo senso, lo spessore del grafene e’ pari al diametro atomico. Il carbonio che compone il grafene e’ disposto in strutture esagonali ed e’ ottenuto in laboratorio partendo dalla grafite. Tutti questi composti, insieme anche al fullerene, al diamante e ai nanotubi, sono a base di atomi di carbonio, disposti in maniera diversa per formare un reticolo, come mostrato in questa immagine:

Diversi materiali ottenuti dal carbonio

Diversi materiali ottenuti dal carbonio

L’introduzione del grafene e’ risultata molto importante nella realizzazione di componenti elettronici estremamente piccoli e con caratteristiche elettriche non raggiungibili con le tecnologie standard.

Il termine aerogel, indica invece un materiale simile al gel, nel quale pero’ la fase liquida e’ stata sostituita con un gas. Il primo aerogel realizzato era a base di silicio, e presentava uan densita’ 1000 volte inferiore a quella del vetro. I comuni aerogel, a base di silicio, di allumina o altri elementi, trovano larghissima applicazione in diverse soluzioni industriali. Solo per darvi un’idea, gli utilizzi dell’aerogel vanno dall’isolamento termico fino all’uso nei cosmetici e nelle vernici come addensatori pasando anche per applicazioni spaziali nella studio della polvere cosmica. La foto seguente mostra proprio un ricercatore della NASA che mostra un pezzo di aerogel di Silicio:

Aerogel in un laboratorio della NASA

Aerogel in un laboratorio della NASA

Acnhe se puo’ sembrare un fotomontaggio, si tratta di una foto reale. Quello che vedete mostrato e’ un pezzo di aerogel con le sue straordinarie proprieta’ di leggerezza e trasparenza.

Vista la struttura degli aerogel, capite bene come nel caso del grafene questo termine sia utilizzato in realta’ a sproposito. Spesso, si utilizza il termine aerogel anche per indicare materiali a base di carbonio, come il Grafene Aerogel, nel quale moltissimi spazi sono riempiti di aria per ottenere ottime proprieta’ di leggerezza.

Detto questo, una domanda molto semplice che potrebbe essere fatta e’: “a cosa servirebbe il Grafene Aerogel?”

Forse stavate pensando che l’invenzione di questo materiale servisse solo per continuare la sfida tra centri di ricerca su chi preparava il materiale piu’ leggero. In realta’, non e’ cosi’.

Il grafene aerogel trovera’ spazio in moltissime applicazioni, anche di carattere ambientale.

Per prima cosa, questo materiale, proprio grazie alla sua struttura atomica, si comporta come una spugna, essendo in grado di catturare all’interno notevoli quantita’ di altre sostanze riempiendo gli interstizi occupati dall’aria. Per darvi qualche numero, un solo grammo di Grafene Aerogel riesce a trattenere fino a 70 grammi di materiali organici. Pensate ad un’applicazione molto utile: in uno scenario in cui ci sia un riversamento, ad esempio, di petrolio in mare, il grafene aerogel potrebbe essere utilizzato per assorbire gli oli molto rapidamente ripulendo la zona. Inoltre, date le sue proprieta’, basterebbe “spremere” la spugna per renderla di nuovo utilizzabile e recuperare anche il petrolio disperso.

Il grafene aerogel ha anche straordinarie proprieta’ elastiche. Ad uno sforzo di compressione, questo maeriale riesce ad assorbire fino a 900 volte il suo peso, tornando, in modo perfettamente elastico, alla forma originale. Questa caratteristica lo rende un ottimo candidato per applicazioni meccaniche avanzate.

Visto che ne abbiamo parlato introducendo la classifica dei materiali piu’ leggeri, anche l’aerografite trova spazio in importanti settori industriali. E’ in corso di studio la produzione di batterie basate su questo materiale e che consentiranno, a parita’ di peso, di ottenere durate molto maggiori, caratteristica fondamentale nell’utilizzo, ad esempio, nei veicoli elettrici. Inoltre, l’aerografite puo’ essere utilizzata per la preparazione di filtri molto efficienti per ripulire l’aria e l’acqua da inquinanti potenzialmente molto dannosi per l’essere umano.

Detto questo, capite molto bene l’importanza di questo genere di ricerche. Il continuo studio di nuovi materiali consente di rendere piu’ semplici svariate applicazioni e di ottenere caratteristiche del tutto impensabili con i materiali tradizionali. Come visto, parlando in generale di questi nuovi materiali, le applicazioni vanno dalla salvaguardia ambientale fino alla miniaturizzazione dell’elettronica. Inoltre, alcuni materiali, sviluppati proprio nell’ambito di questi progetti, consentono gia’ oggi di ottenere, ad esempio, transistor di dimensioni quasi atomiche, batterie basate su supercondensatori o anche microprocessori di dimensioni nanometriche. Sicuramente, quando pensiamo ad applicazioni che oggi potrebbero ancora sembrarci lontane nel tempo, dobbiamo pensare che saranno realizzate partendo da materiali di questo tipo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.