Tag Archives: prototipo

Fusione Nucleare tra 10 anni?

20 Ott

Diverse volte su queste pagine ci siamo fermati a discutere il cosiddetto scenario energetico per i prossimi anni. Come è noto a tutti, con una società sempre più energivora e la popolazione in continua crescita, tra non molto avremo un sostanziale problema di disponibilità energetica. Tutto questo è poi aggravato da quella che per molto tempo abbiamo fatto finta di ignorare, cioè la questione ambientale. Sfruttare in modo non controllato le nostre risorse ci porta ad esaurire e compromettere l’equilibrio dell’ecosistema Terra, equilibrio ormai assolutamente poco stabile a causa del contributo determinante proprio dell’attività umana.

Parlando in generale di scenario energetico, ed in particolare dei due orizzonti temporali più citati, cioè 2020 e 2050, in questo post avevo riportato un’intervista che mi era stata fatta al termine di un convegno su queste tematiche in cui avevo partecipato proprio esponendo la situazione nucleare:

Scenario energetico 2050

Per quanto riguarda la fissione, anche se nella concezione comune, soprattutto oggi, queste centrali sono viste come sinonimo di incidenti, c’è da sempre una notevole attività di ricerca proprio per migliorare le prestazioni e incrementare la sicurezza dei reattori.

Fissione a parte, la vera chimera del sostentamento energetico è da sempre la reazione di fusione per produzione energetica.

A parte le notevoli discussioni fatte per discutere i processi LENR a bassa energia:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Abbiamo visto in alcuni articoli:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Fusione, ci siamo quasi?

quanto possa essere difficile realizzare questi reattori che produrrebbero energia senza rilasciare praticamente scorie dirette. Come visto, anche se questo è il processo che utilizzano le stelle per produrre energia, applicare questi concetti in modo controllato sulla Terra non è semplice per problematiche tecnologiche ancora oggi assolutamente aperte. Come sappiamo, la scelta del sistema di contenimento del plasma è uno dei problemi aperti della questione. Diversi gruppi sono da decenni impegnati nella ricerca della miglior soluzione, applicabile e che consenta di raggiungere un bilancio positivo del sistema, cioè produrre più energia di quella che viene richiesta dal reattore per funzionare.

Perchè torno a parlare di questi argomenti? Vi mostro prima di tutto il link dove è possibile leggere un annuncio che sta facendo discutere moltissimo in queste ore:

Lockheed, Fusione

Si tratta di una “news” scritta sul sito internet della Lockheed Martin, società che tutti conoscono se non altro per i suoi sistemi aeronautici. L’annuncio è molto semplice, la Lockheed sostiene di poter arrivare nel giro di 10 anni alla realizzazione commerciale di reattori a fusione portatili, cioè con dimensioni notevolmente inferiori a quelle dei reattori oggi in fase di studio. Questi sistemi potrebbero addirittura essere montati su un camion ed essere trasportati producendo energia in modo mobile. Come viene spiegato, il rendimento di un reattore a fusione sarebbe fino a 5-6 volte maggiore di quelli oggi utilizzati e che sfruttano la fissione.

E’ possibile questo?

Cerchiamo di ragionare insieme. Premetto che moltissimi giornali e siti internet, ecco un esempio:

Repubblica, Lockheed

hanno pubblicato questa notizia con toni enfatici e annunciando alla rivoluzione energetica. Se così fosse, nei nostri articoli precedenti avremmo sbagliato tutto, così come nell’intervista in cui parlavo di fusione che non sarebbe arrivata, se non in fase di sperimentazione (forse) per il 2050. Ora, la Lockheed parla di “realizzazione” nel giro di 10 anni.

Chi sta sbagliando?

Come nostra abitudine, vi dico subito che non voglio essere scettico per partito preso, ma voglio che i miei ragionamenti siano chiari, o almeno pubblici, per tutti. Tra notevoli difficoltà e con costi altissimi, stiamo cercando di realizzare la macchina ITER. Questo reattore sperimentale darebbe la possibilità di fare studi fondamentali per il confinamento del plasma di fusione. Si tratta, come anticipato, di un reattore per ricerca cioè, detto in parole veramente povere, “dobbiamo provarci e vedere cosa succede”. Immaginate la lunga trafila che si prospetta, si realizza un reattore di ricerca, si fa ricerca, se le cose vanno bene si pensa al futuro, cioè ad un qualcosa che dovrebbe, come prototipo, produrre energia per scopi commerciali. Tempi lunghissimi e investimenti, sia in termini economici che di ricerca, lunghissimi.

La Lockheed nel giro di 10 anni dovrebbe avere un reattore da montare su un camion? Quale è stato fino ad oggi il ruolo di questa società nel campo della fusione? Non esiste uno, e dico uno, articolo scientifico pubblicato dalla Lockheed sulla fusione nucleare. Nella pagina che vi ho linkato all’inizio si parla di test tra un anno e produzione entro 10 anni. Ma di cosa? Come vedete, non c’è uno straccio di affermazione scientifica su cui discutere. Stiamo parlando di un qualcosa che nessuno conosce? Di un confinamento particolare? Di altro? Eppure, parliamo di una società grande e da sempre impegnata, anche se in settori completamente diversi, in ambito ricerca. Questo per dire due cose: fino ad oggi la Lockheed non ha mai parlato di fusione e, almeno sulla carta, conosce molto bene come la ricerca avviene e quali passi deve fare.

Cosa penso di questa storia?

Non voglio mettere un punto alla questione ma, al momento, sono fortemente scettico. Se vi fosse una scoperta fondamentale della scienza, ci sarebbero articoli pubblicati. Se l’applicazione sfruttasse processi classici, cioè già testati, ma in modo diverso, ci sarebbero riferimenti scientifici nell’annuncio. Niente di questo è presente. Un comunicato del genere è pesante perchè, qualora confermato, rimescolerebbe tutte le carte del settore energetico e sarebbe un qualcosa di veramente sensazionale per il nostro futuro energetico.

Personalmente, non capisco i toni di molti giornali, alcuni anche scientifici, che hanno accolto questa notizia come una bomba mediatica senza chiedersi come questa rivoluzione dovrebbe avvenire. Ad oggi, ma sarà un mio limite, io non capisco come questi signori vorrebbero fare la fusione. Alla luce di questo, ripeto “oggi”, sono fortemente scettico sull’annuncio ma, come sempre, resto in attesa di sviluppi pe capire meglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Automobili stampate in 3D!

2 Ott

Solo qualche tempo fa, avevamo parlato in dettaglio delle stampanti 3D:

Due parole sulla stampa in 3D

Come visto, questi strumenti, che possono esssere considerati ancora in fase prototipale, offrono delle soluzioni uniche con margini di applicazione possibili nei settori più disparati. Dal mio punto di vista, considero questi oggetti ancora in fase di prototipo non per le applicazioni già in corso ma perchè, molto spesso, la loro esistenza è poco conosciuta e perchè ancora non abbiamo sfruttato al massimo le loro potenzialità.

Proprio per questo motivo, oggi vorrei commentare con voi un articolo davvero molto interessante. Solo qualche giorno fa, i giornali hanno riportato qualcosa di impensabile fino ad ora, un’applicazione davvero entusiasmente della stampa 3D con cui è stato realizzato un prototipo di automobile che tra poco, con buona probabilità, verrà messo in commercio.

Attenzione però, al solito, alcune testate hanno riportato la notizia in modo errato definendo questa applicazione come la “prima” automobile stampata in 3D. Per comprendere meglio, diamo qualche dettaglio aggiuntivo.

Già nel 2010, negli Stati Uniti era stata realizzata quella che possiamo definire la prima automobile dotata di carrozzeria stampata in 3D. Il prototipo in questione, perché di questo si tratta, si chiamava Urbee. A riprova, vi riporto un articolo del Sole 24 ore del 3 Novembre 2010:

Sole 24 ore, Urbee

Questa è la foto della Urbee:

Urbee, la prima vettura in assoluto stampata in 3D

Urbee, la prima vettura in assoluto stampata in 3D

Bene, perchè allora a distanza di 4 anni la stessa applicazione fa ancora notizia? Il primo motivo è nazionalista. La notizia di questi giorni è, ripeto, di un’automobile stampata in 3D e presentata a Chicago su progetto di un designer italiano che si chiama Michele Anoè. Senza indugio, vi mostro subito le foto di questa automobile che si chiama invece STRATI:

La Strati

La Strati

Detto questo, capite subito perché, giustamente in parte, i giornali italiani hanno dato molto risalto alla notizia. C’è anche da dire che il progetto ha partecipato ad una selezione a livelo mondiale in cui il nostro designer è arrivato primo tra oltre 200 contendenti e per questo motivo la Strati è stata realizzata e presentanta. Ma, oltre a questo, esistono anche delle particolarità tecnico-commerciali che rendono la notizia importante. Al contrario della Urbee, la carrozzeria della Strati è stata stampata tutta in un volta. Il risultato ottenuto è simile a quello dei modellini che si acquistano nei negozi di giocattoli in cui i singoli pezzi sono uniti da piccole giunzioni di plastica. Ecco una foto della lavorazione della Strati:

Lavorazione della Strati

Lavorazione della Strati

Dopo il processo di stampa, i pezzi vengono fresati per rimuovere le parti di supporto necessarie durante la stampa e il tutto può essere assemblato molto rapidamente. Ecco l’ulteriore deffirenza tra le due automobili, per realizzare una Strati occorrono solo 44 ore di lavorazione. Un tempo record per ottenere un oggetto pronto e realmente funzionante.

Oltre a questo, come anticipato, la Strati verrà ora prodotta e, lentamente, realizzata in serie dalla Local Motor. Inutile dire che questa utomobile è dotata di un motore elettrico tra l’altro assolutamnete commerciale. Il propulsore utilizzato è infatti lo stesso della Renault Twizy. I consumi dichiarati per questo primo prototipo sono assolutamente degni di nota, 65 Km/h come velocità di picco con un’autonomia di 200 Km a ricarica.

Il prezzo?

Considerando che parliamo sempre di una macchina elettrica, il prezzo è più o meno in linea con le altre auto del settore, tra i 18000 e i 34000 dollari. Certo, considerando che tutto il processo di lavorazione delle parti esterne avviene mediante una stampante 3D in 44 ore, permettemi di dire che il costo, forse, è un po’ eccessivo. Molto probabilmente però, ci saranno margini di manovra dal punto di vista commerciale. Parliamo di un reale prototipo su cui non è ancora partita la produzione in serie e sul quale sono montati pezzi provenienti da diversi fornitori.

Concludendo, la Strati, oltre ad essere disegnata da un italiano, rappresenta un notevole salto avanti per la stampa 3D che lascia il mondo dei prototipi con grandi dimensioni per approdare, forse, a livello commerciale. Ripeto quello che ho scritto anche nel precedente articolo, la stampa 3D ci riserverà ancora molte sorprese per il futuro e, grazie ad un incremento dell’utilizzo e della ricerca, potrà realizzare oggetti a basso costo e larga diffusione.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fusione, ci siamo quasi?

17 Feb

La chimera della produzione di energia attraverso processi nucleari e’ senza ombra di dubbio la fusione. Come sappiamo, detto in modo improprio, possiamo pensare a questo processo come qualcosa di inverso alla Fissione. Se in quest’ultimo caso, un nucleo atomico viene spezzato in due nuclei piu’ piccoli liberando energia, nella fusione abbiamo due elementi piu’ leggeri che vengono uniti in uno piu’ grande. Anche in questo caso, nel processo c’e’ un eccesso di energia che viene liberato verso l’esterno. Non si tratta di magia ma del bilancio energetico delle reazioni, facilmente calcolabile utilizzando i principi base della fisica nucleare.

Per la fissione, il processo e’ relativamente semplice ed in grado di autosostenersi. Quest’ultimo aspetto e’ fondamentale quando si considerano processi di questo tipo. Detto in altri termini, basta dare il “la” alla reazione per avere qualcosa in grado di autosostenersi autonomamente e continuare cosi’ a produrre energia. Come noto, siamo in grado di utilizzare questo processo molto bene sia con reazioni controllate nei reattori a fissione sia in modo non controllato attraverso la bomba atomica.

E per la fusione?

Qui il discorso e’ diverso. A partire dagli anni ’50, abbiamo iniziato a studiare queste reazioni per cercare di ottenere un bilancio positivo. Cosa significa? Prendete due nuclei leggeri. Per far avvenire la fusione dovete avvicinarli tra loro fino a formare qualcosa di piu’ grande. Semplice ma non scontato. Prendiamo il discorso in modo improprio ma comprensibile. Nei nuclei avete protoni e neutroni. Come ci hanno insegnato a scuola, se proviamo ad avvicinare cariche di uguale segno queste si respingono attraverso la forza coulombiana. Ma allora, perche’ nel nucleo i protoni sono fermi e tutti vicini tra loro? Avvicinando due particelle come i protoni, inizialmente avete la repulsione coulombiana dovuta alle cariche elettriche che tende ad allontanarle. Se resistete opponendovi a questa forza, vi accorgete che sotto una certa distanza interviene un’altra forza, questa volta attrattiva e molto piu’ intesa di quella dovuta alle cariche elettriche, la forza nucleare forte. Si tratta solo di un’altra interazione che pero’ agisce a distanze molto corte tra i nucleoni. La presenza dei neutroni nel nucleo serve proprio a tenere unito il nucleo stesso. Poiche’ i neutroni non hanno carica elettrica, non subiscono repulsione coulombiana mentre esercitano e subiscono l’interazione forte. Detto in altri termini, i neutroni fanno da collante per far si che la forza forte, attrattiva, vinca su quella coulombiana, repulsiva.

Bene, lo scopo del gioco della fusione e’ proprio questo. In qualche modo dobbiamo avvicinare i nuclei spingendoli fino a che la forza forte non diventi piu’ intensa di quella coulombiana. Sotto questo limite, ci sara’ un’attrazione spontanea che portera’ alla formazione di un nucleo piu’ pensate, rilasciando energia.

Qual e’ il limite nella produzione di energia da fusione? Ovviamente, dovete fare in modo che l’energia spesa per avvicinare i nuclei sia minore di quella che viene ceduta dopo la fusione. Questo e’ il famoso bilancio positivo di cui tanti parlano ma, lasciatemi dire, in pochi hanno veramente capito.

Di questi processi abbiamo parlato in diversi articoli mostrando le diverse tecniche che si stanno sperimentando nel mondo:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Contrapposti a questi, ci sono poi i diversi esperimenti per creare quella che viene definita “fusione fredda” e su cui tanta speculazione e’ stata fatta negli ultimi anni:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come detto e ripetuto piu’ volte, dobbiamo essere aperti di mente nei confronti di questi processi che pongono le loro radici in metodi scientifici conosciuti. Quello che pero’ manca, e’ una dimostrazione oggettiva che questi apparecchi, esempio su tutti l’E-Cat, siano veramente in grado di produrre energia in quantita’ maggiore di quella data in ingresso.

Perche’ torno nuovamente su questi argomenti?

Come forse avrete letto, solo pochi giorni fa e’ stato fatto un nuovo anuncio riguardante la ricerca sulla fusione nucleare. In un articolo pubblicato sulla rivista Nature, il NIF, National Ignition Facility, della California ha annunciato di aver ottenuto un bilancio positivo della reazione di fusione di isotopi di idrogeno in elio.

Del NIF abbiamo gia’ parlato nei precedenti articoli riportati sopra. Come sappiamo, in questo caso si utilizzano quasi 200 fasci laser per comprimere, mediante oro, atomi e isotopi di idrogeno, deuterio e trizio, per formare elio. Nel processo viene rilasciata l’energia della fusione.

Come capite bene, in questo caso il bilancio positivo si ha se l’energia rilasciata e’ maggiore di quella necessaria per far sparare nello stesso istante tutti i laser.

Nei primi anni di vita, il NIF ha rappresentato una grande speranza per la ricerca della fusione, attirando grandi finanziamenti. Finanziamenti che poi sono diminuiti quando i risultati ottenuti erano notevolmente inferiori alle aspettative.

Oggi, il NIF e’ riuscito ad ottenere per la prima volta un bilancio positivo, anche se solo minore dell’1%, rispetto all’energia richiesta per far andare i laser. Se proprio vogliamo dirla tutta, non siamo ancora contenti di questo risultato e saranno necessari tantissimi altri studi prima di poter gridare vittoria e prima di poter vedere la fusione utilizzata per la produzione di energia.

Come detto nell’introduzione, lo scopo di questo gioco e’ quello di tenere in qualche modo gli atomi fermi mentre li comprimiamo fino alla fusione. Nel NIF questo confinamento avviene sfruttando l’inerzia dei nuclei stessi e proprio per questo motivo si parla di “confinamento inerziale”. Diversamente, ad esempio per ITER, si cerchera’ di utilizzare forti campi magnetici per tenere i nuclei uniti, parlando di “confinamento magnetico”. La trattazione di questo aspetto non e’ affatto banale e rappresenta, a questo livello, un contributo assolutamente non trascurabile nel bilancio energetico finale della reazione.

Perche’ dico questo?

I risultati ottenuti dal NIF sono assolutamente ragguardevoli e sono un ordine di grandezza maggiore rispetto ai migliori risultati precedenti. Il bilancio positivo dell’1% non tiene pero’ conto dell’energia spesa per il confinamento. Questo per far capire quanto lavoro e’ ancora necessario.

La comunita’ scientifica della fusione, pone tutte le sue speranze, nel progetto internazionale ITER. Come sapete bene, in questo caso si parla di un vero e proprio reattore prototipale per la produzione di energia per fusione. Anche in questo caso, ci saranno diverse sfide tecnologiche da vincere ma la strada segnata dai successi degli ultimi anni non puo’ che farci ben sperare.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Studiare le stelle da casa

4 Feb

Dopo qualche giorno di assenza, purtroppo, al contrario di quello che pensano i catastrofisti, il mio lavoro non e’ solo fare disinformazione attraverso questo blog, eccoci di nuovo qui con un articolo di scienza pura.

Come avrete sentito, solo qualche giorno fa, e’ stato inaugurata a Padova la macchina acceleratrice “Prima”. Per dirla semplicemente, si tratta di una macchina in grado di accelerare atomi fino ad energie di 16 milioni di Watt. Questa importante infrastruttura nasce da una collaborazione tra l’Istituto di Fisica Nucleare, il CNR, l’ENEA, l’Universita’ di Padova e le Acciaierie Venete.

Ovviamente parliamo di un grande successo per la ricerca italiana. Pensandoci bene, mi rendo pero’ conto di come un successo di questo tipo, possa risultare abbastanza difficile da capire per un non addetto ai lavori. Detto in altri termini: a cosa serve questa macchina?

Molto semplice, come spesso avviene, ricerche di questo tipo sono assolutamente multidisciplinari e possono servire per condurre studi su tantissimi settori. Tra questi, quello che sicuramente interessa di piu’ e’ senza dubbio lo studio della fusione nucleare controllata.

Di fusione abbiamo parlato in diversi articoli:

Sole: quanta confusione!

La stella in laboratorio

mostrando come questo sia il processo attraverso il quale le stelle, e ovviamente il nostro Sole,  producono energia.  Purtroppo, ad oggi, non siamo ancora stati capaci di sfruttare la fusione per produrre energia per noi. Per essere piu’ precisi, ancora non siamo riusciti a realizzare un processo in cui l’energia necessaria per attivare la fusione sia maggiore di quella che poi viene data all’esterno. Detto in parole povere, ad oggi abbiamo ancora un processo “in cui ci rimettiamo”, cioe’ diamo piu’ energia rispetto a quella che otteniamo in uscita.

Una delle chimere della fusione nucleare, e’ senza dubbio il discorso della fusione fredda e di tutti quei processi che gli ruotano intorno. Anche di questi processi abbiamo parlato diverse volte in articoli come questi:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Come sapete bene, e come potete verificare leggendo gli articoli citati, la nostra posizione non e’ mai stata di chiusura totale verso queste ipotesi solo che, e su questo non ho mai trovato una smentita reale e credibile, ad oggi non ci sono le prove necessarie per dimostrare scientificamente che queste soluzioni, ed in particolare l’E-Cat, siano in grado di funzionare.

Fatta questa doverosa premessa, torniamo a parlare di PRIMA.

Come visto negli articoli specifici sulla fusione, la ricerca ufficiale sta investendo molte risorse in alcuni progetti europei e mondiali di notevole portata. Tra questi, ruolo d’eccezione spetta sicurametne ad ITER. Come sapete bene, si tratta di un primo prototipio su grande scala di un reattore a fusione per ricerca. Tra alti e bassi, la costruzione di questa importante pietra miliare nella storia della fusione sta procedendo in Francia e speriamo possa portare i risultati sperati ed in grado di aprire le porte alla produzione di energia mediante la fusione mnucleare.

La macchina PRIMA studiera’ proprio la parte di, definiamola cosi’, iniezione di ITER, cioe’ il fascio neutro che servira’ per riscaldare il plasma fino alle temperature richieste per far partire la fusione. Oltre ad ITER, la macchina servira’ anche per studiare i materiali piu’ adatti per contenere la fusione e che saranno un punto molto importante anche nella costruzione del primo reattore, chiamato IFMIF, che sara’ costruito in Giappone.

Prima di chiudere, vorrei invitarvi ad una riflessione. Permettemi di riprendere quanto detto un po’ di tempo fa in questi articoli:

Perche’ la ricerca: scienza e tecnologia

Perche’ la ricerca: economia

Prima di tutto, gli studi condotti per la costruzione dei magneti di LHC sono stati fondamentali per la costruzione dei magneti da utilizzare su PRIMA. Questo solo per dire come la ricerca non e’ mai fine a se stessa ma consente di farci applicare studi condotti su un particolare settore a qualcosa di diverso, non dovendo ogni volta ripartire da zero. Oltre a questo, per parlare invece di economia, la costruzione di macchine di questo tipo mettono sempre in moto un’economia assolutamente non trascurabile. Cosi’ come e’ avvenuto per LHC, anche per PRIMA ci sono state importanti commesse per le aziende italiane non solo legate alla costruzione di magneti. Questo solo per ribadire come i soldi dati alla ricerca rappresentino sempre un investimento. Purtroppo, il tasso di interesse o i tempi per poter maturare questo tasso non sono sempre scritti o sicuri anzi, lasciatemi dire, possono maturare in settori completamente diversi.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Lenti a contatto smart!

20 Gen

Diversi giornali in questi ultimi giorni hanno pubblicato una notizia veramente interessante e che merita di essere analizzata meglio. Come forse avrete letto, Google ha reso noto uno dei suoi progetti per il futuro. Si tratta di una lente a contatto intelligente dotata di sensori per la rivelazione del glucosio.

A cosa serve?

Misurazioni di questo tipo divengono dei veri e propri salva-vita per le persone affette di diabete. Questa e’ ormai una patologia diffusissima a livello mondiale, con un numero di persone diabetiche che sfiora i 20 milioni. Come saprete, nei casi piu’ gravi e’ richiesto un continuo monitoraggio degli zuccheri nel sangue necessari per impedire conseguenze che possono essere anche molto gravi.

Prima osservazione, chi ha sviluppato questa speciale lente? Come avrete letto, il progetto viene direttamente dai laboratori chiamati Google-X. Si tratta di una divisione ricerca di Google strettamente top secret e di cui non si conosce neanche l’esatta ubicazione. I progetti curati da questo laboratorio, molti sulla robotica, sono gestiti direttamente dai fondtori di Google. Nei nostri precedenti articoli, abbiamo gia’ parlato di alcune invenzioni provenienti da questi laboratori. Esempio noto a tutti sono i Google Glass:

Realta’ aumentata. Quella virtuale e’ gia’ preistoria!

cosi’ come il progetto per portare la connessione internet nei luoghi piu’ isolati del pianeta mediante palloni sonda:

Internet dalla stratosfera

Cosa possiamo dire invece per queste lenti?

Prima di tutto, vi segnalo la pagina ufficiale di Google in cui viene anunciata l’invenzione:

Google, smart lens

Come vedete, si tratta di una speciale lente composta da un doppio strato. All’interno di questo sandwich viene alloggiato uno speciale circuito dotato di sensori per la misura del glucosio nella pellicola lacrimale. Nello strato interno viene infatti previsto uno speciale forellino per permettere il passaggio del liquido all’interno dove viene analizzato. Sempre nel circuito sono presenti sensori wireless per il collegamento ad un dispositivo remoto di lettura e dei led che possono essere utilizzati per inviare un segnale di allarme direttamente nell’occhio del paziente. Quest’ultimo sistema non e’ affatto non rilevante. Molto spesso infatti le persone possono dimenticarsi di controllare il livello di glucosio rischiando di avere conseguenze. Avere un led di pericolo sicuramente visibile non puo’ che aumentare la sicurezza del monitoraggio.

Ecco il circuito contenuto all’interno delle speciali lenti:

Le lenti a contatto realizzate da Google per la misura del glucosio

Le lenti a contatto realizzate da Google per la misura del glucosio

Per quanto riguarda i vantaggi di questa invenzione, non credo che sia necessario spendere molte parole poiche’ sono evidenti a tutti, in special modo a coloro che soffrono di diabete. Inoltre, tenete conto che oggi, i dispositivi di controllo maggiormente utilizzati prevedono un’analisi del sangue compiuta con continui e fastidiosissimi buchetti ai polpastrelli.

Come dichiarato anche da Google pero’, questo dispositivo e’ ancora in fase molto prototipale. Per prima cosa c’e’ da dire che non e’ assolutamente certo che la misurazione del glucosio mediante lo strato lacrimale sia affidabile e precisa. Ovviamente, le lecrime hanno un notevole contenuto di zucchero. Quello che ancora deve essere valutato, soprattutto perche’ dal punto di vista medico ci sono risultati in contrapposizione, e’ la correlazione tra le percentuali nelle lacrime e quelli nel sangue. Inoltre, deve essere studiata molto bene l’efficacia della misura sullo strato lacrimale. Sistemi alternativi prevedono un incremento della lacrimazione in modo artificiale, ma questo comporterebbe a sua volta una diluizione delle concentrazioni ricercate.

Concludendo, quello delle lenti intelligenti per diabetici e’ un progetto molto interessante ma ancora in fase prototipale. La stessa Google cerca collaborazioni con soggetti esperti del campo per verificare la bonta’ di questa intuizione. Dal punto di vista medico, la societa’ lavora anche a stretto contatto con la FDA americana e, gia’ oggi, e’ partita una sperimentazione su un uomo per valutare alcuni di questi punti oscuri ancora prsenti nel progetto. A questo punto, non resta che attendere gli sviluppianche perche’ Google prevede di poter mettere sul mercato questo prodotto entro 5 anni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

(Quasi) pronta al lancio la missione GAIA

24 Ott

Diverse volte nei nostri articoli abbiamo parlato di astronomia, ma soprattutto della ricerca di esopianeti al di fuori del nostro sistema solare:

A caccia di vita sugli Esopianeti

Nuovi esopianeti. Questa volta ci siamo?

Esopianeti che non dovrebbero esserci

Ancora sugli esopianeti

Aggiornamento su Kepler

Come visto in particolare nell’ultimo articolo, la sonda Kepler, che tanto ha contribuito all’esplorazione della nostra Galassia, ha avuto gravi problemi di funzionamento al punto di inficiare il suo funzionamento.

Premesso questo, negli ultimi giorni, molti siti e giornali hanno invece parlato di una nuova missione quasi pronta al lancio da parte dell’ESA, con un’ampia partecipazione dei nostri ASI e INAF. La missione in questione e’ chiamata GAIA dove, come al solito, il nome non e’ altro che un acronimo che sta per Global Astrometric Interferometer for Astrophysics.

Prima di darvi qualche dettaglio tecnico sull’esperimento e dirvi a cosa servira’, partiamo invece dicendo a cosa “non” serve Gaia. Come di solito avviene, molti giornali e siti internet hanno preso la palla al balzo per inventare storielle fantastiche e rafforzare le paure degli ultimi tempi.

La missione GAIA

La missione GAIA

Leggendo in rete, trovate scritto che GAIA e’ una missione preparata in fretta e furia dall’ESA perche’, tastuali parole, gli astronomi si sono resi conto che qualcosa non torna nel nostro sistema solare e, finalmente, hanno preso in seria considerazione la possibilita’ che la nostra Terra possa essere colpita nel giro di poco tempo da qualche asteroide o cometa in grado di provocare estinzioni di massa o, peggio ancora, far scomparire del tutto il nostro pianeta. Inoltre, molti siti parlano di uno studio particolare atteso da Gaia per individuare nane brune nel nostro sistema solare e per tracciare corpi vagabondi che provengono da orbite particolari tali per cui questi oggetti sarebbero invisibili fino al momento dell’impatto con la Terra.

Cosa vi ricorda questa storia?

Ovvio, il tanto amato, citato e fantasticato Nibiru! Ovviamente, il tutto mescolato insieme nel solito brodo catastrofista. Nane brune nel sistema solare che creano pioggie di meteoriti, asteroidi killer che provengono da dietro il Sole e sono invisibili fino al momento dell’urto sulla Terra. Insomma, anche sulla missione Gaia, e notate il modo subdolo, senza citare espressamente la cosa, si cerca di rafforzare l’idea che Nibiru sia una minaccia reale ma coperta dai soliti scienziati che sanno ma non dicono.

Lasciamo perdere queste fantasie e vediamo invece come e’ fatta Gaia.

Prima premessa, per poter arrivare al momento del lancio di una qualsiasi missione, sono necessari anni di studi e preparazione. Pensare l’esperimento, fare calcoli di fattibilita’, studiare prototipi, ecc. Tutte operazioni che richiedono anni. Nel caso di Gaia, la missione e’ stata elaborata inizialmente prima ancora del 2000.

A cosa serve?

La missione punta ad ottenere una mappa 3D molto precisa delle stelle e degli oggetti vicini al sistema solare nella nostra Galassia, oltre ad una mappa meno precisa dei corpi piu’ lontani. La durata della missione dovrebbe essere all’incirca di 5 anni, periodo in cui Gaia potra’ osservare circa un miliardo di stelle.

Per ottenere queste risoluzioni, Gaia e’ dotata di due telescopi con punti di vista differenti ma focale in comune. Gli strumenti sono realizzati con una matrice di piu’ di 100 CCD che garantiranno una risoluzione intorno al miliardo di pixel. Detto in modo familiare, parliamo di 1000 Mega pixel se paragonata con le comuni macchine fotografiche.

Altro aspetto importante della missione e’ la posizione in cui il satellite orbitera’. Come potete leggere dalla vasta bibliografia, Gaia occupera’ il cosiddetto punto Lagrangiano 2, o anche L2 nel nostro sistema solare. Cosa significa? Detto in termini molto semplici, se prendiamo il sistema a tre corpi composto da Sole, Terra e Luna, come e’ noto questi interagiscono tra loro attraverso la mutua attrazione gravitazionale. Bene, visto nello spazio, a causa delle rotazioni, nel tempo e nollo spazio, l’intensita’ risultante delle tre forze non sara’ costante. Esistono pero’ dei punti particolari di equilibrio in cui le forze che agiscono sul corpo di massa minore, ad esempio, come in questo caso, il satellite che occupa il punto, si bilanciano esattamente.

Per farvi capire meglio, vi mostro un’immagine proprio del sistema Sole-Terra in cui sono riportati questi punti di equilibrio:

Punti lagrangiani in un sistema a 3 corpi

Punti lagrangiani in un sistema a 3 corpi

Come anticipato, Gaia si trovera’ proprio nel secondo punto lagrangiano. Oltre al discorso gravitazionale, questo particolare punto offre una condizione molto privilegiata: durante il suo moto Terra e Luna saranno fuori dal campo visivo del telescopio, la radiazione incidente non sara’ troppo elevata e si hanno condizioni di temperatura abbastanza costanti.

Durante la sua vita operativa, Gaia osservera’ circa 70 volte ciascuna porzione di cielo ad intervalli differenti. Questo e’ fondamentale per poter capire l’evoluzione nel tempo delle stelle osservate.

Quali sono gli obiettivi di Gaia?

Grazie ai suoi strumenti, Gaia potra’ registrare dati con una precisione quasi 200 volte maggiore dei suoi predecessori. Attraverso l’osservazione delle stelle, come anticipato, si potra’ studiare la dinamica dell’evoluzione oltre ad individuare nuovi esopianeti fuori dal sistema solare. Inoltre, la capacita’ di registrare dati a diverse lunghezze d’onda permettera’ di studiare la chimica dei corpi e ottenere informazioni nuove sull’origine della nostra galassia.

Dunque, siamo pronti a questa nuova avventura?

Purtroppo no. La data iniziale di lancio di Gaia era il 2011, come potete leggere in questo link dell’ASI:

ASI, Gaia

Da questa, sicuramente un po’ aggressiva, si era passati al 2013 e il lancio era atteso per la fine di quest’anno. Purtroppo, ci sara’ un nuovo slittamento e si spera di poter lanciare Gaia, la cui partenza sara’ fatta dallo spazioporto di Kourou nella Guiana francese, all’inizio dell’anno prossimo. Il ritardo e’ dovuto ad una serie di problemi tecnici evidenziati dall’ESA che dunque ha deciso, per motivi di sicurezza e di riuscita della missione, di rimandare di qualche mese il lancio.

Concludendo, la missione GAIA e’ quasi pronta al lancio. Come visto nell’articolo, non e’ assolutamente vero che questa missione e’ stata preparata in fretta e furia per studiare e valutare il rischio sempre crescente di scontro tra la Terra ed un asteroide proveniente dallo spazio. Al contrario, questa missione, come tutte le altre, ha richiesto anni di preparazione e di studio e i suoi obiettivi scientifici saranno molto importanti ed interessanti. Come visto, infatti, la missione si occupera’ di analizzare e registrare circa un miliardo di stelle nella nostra galassia ottenendo dati quasi 200 volte piu’ precisi di quelli delle missioni precedenti.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La collaborazione scientifica

8 Ago

Cosa c’entra un neutrino, una delle particelle piu’ sfuggenti conosciute, con un capodoglio, uno dei mammiferi piu’ grossi del pianeta? Assolutamente niente direte voi, e invece sbagliate.

Senza giocare agli indovinelli, vi vorrei raccontare di una ricerca, a mio avviso molto importante, nata con uno scopo e che in corso d’opera ne ha trovato uno ulteriore altrettanto interessante.

Come sapete, lo studio dei neutrini cosmici e’ molto importante perche’ attraverso la misura del numero di queste particelle, e’ possibile individuare e studiare sorgenti astronomiche come stelle di neutroni, buchi neri, pulsar, ecc. Il problema di queste particelle e’ che, come si dice in fisica, hanno una “sezione d’urto” molto piccola, cioe’ hanno una probabilita’ di interagire con la materia estremamente bassa. Per poter osservare i neutrini e’ prima di tutto necessario eliminare le altre tantissime particelle che arrivano dal cosmo e che rendono la loro osservazione impossibile dal momento che questi segnali sarebbero completamente sommersi in mezzo a tanti altri. A questo punto, per contare i neutrini si devono sfruttare le reazioni poco probabili che queste particelle hanno con alcuni mezzi. Una delle tecniche maggiormente utilizzate e’ quella del rivelatore Cherenkov ad acqua. Passando attraverso questo liquido, i neutrini possono interagire producendo radiazione Cherenkov, cioe’ una piccolissima scia luminosa indicante appunto il loro passaggio. Vista la bassa probabilita’ di avere questi aventi, e’ necessario avere dei volumi di acqua molto grandi e, ovviamente, dei sensori in grado di captare l’eventuale luce.

Detto questo, molti osservatori per neutrini sono stati realizzati posizionando rivelatori sul fondo dei mari. Questa soluzione offre un ottimo schermo alle altre particelle e soprattutto un notevole volume di liquido gratuito e sempre disponibile.

Uno degli ultimi esperimenti in corso di realizzazione e’ chiamato Km3net dell’Istituto nazionale di fisica nucleare a cui collaborano molti ricercatori italiani e stranieri. Questo esperimento prevede il posizionamento di alcune torri sottomarine nel mediterraneo, su cio posizionare sfere di fotomoltiplicatori, cioe’ dispositivi in grado di traformare le tracce luminose lasciate dai neutrini in segnali elettrici leggibili.

Una delle sfere di Km3net con i fotomoltiplicatori

Una delle sfere di Km3net con i fotomoltiplicatori

Una delle stazioni di Km3net e’ stata posizionata in Sicilia, 80 Km a largo di Capo Passero. I fotomoltiplicatori sono stati posizionati su una torre di circa 400 metri, ancorata al fondo del mare che in quel punto ha una profondita’ di circa 2000 metri.

Sfruttando la particolare posizione della torre, in collaborazione con biologi marini di varie universita’, si e’ ben pensato di installare sulla struttura anche misuratori acustici. Questa soluzione e’ stata adottata perche’ consente di monitorare il passaggio di capodogli ma soprattutto consente di mappare l’inquinamento acustico sottomarino.

Perche’ si parla di inquinamento acustico sottomarino?

Come potete facilmente immaginare, il passaggio di navi nei mari, provoca rumori in profondita’. Proprio questi rumori possono disturbare i mammiferi acquatici che si trasmettono segnali acustici sottomarini. Secondo alcune teorie, questi disturbi possono notevolmente ridurre la distanza di comunicazione tra capodogli ma, soprattutto, potrebbero essere responsabili degli spiggiamenti che ogni tanto si verificano sulle coste.

Gia’ ai tempi del primo prototipo di Km3net in Sicilia nel 2005, lo strumento era riuscito ad ascoltare il passaggio di questi stupendi mammiferi. Ora, con il rivelatore finale, piu’ grande e performante, oltre ad individuare il loro passaggio, i sensori sono in grado di determinare anche la grandezza dei mammiferi. Questa soluzione e’ fondamentale per fare un censimento della popolazione di capodogli nei nostri mari.

Da quando e’ stato installato, questo rivelatore non solo e’ riuscito ad osservare il passaggio di diversi animali, ma soprattutto si e’ scoperto che la popolazione e’ maggiore di quanto ci si aspettasse e che i capodogli si trovano anche in zone che prima si pensavano poco battute da questi animali.

Come potete vedere, si tratta di uno splendido esempio di ricerche congiunte, in cui con una sola spesa si riesce a mettere insieme diversi campi di studio, con analisi diverse ma tutte molto importanti. Sicuramente, dal punto di vista biologico, i rivelatori installati consentiranno di avere una stima molto precisa del numero di cetacei presenti nei nostri mari, della loro grandezza ma, soprattutto, consentiranno di studiare con precisione l’effetto che l’inquinamento acustico sottomarino puo’ avere su questi animali. A questo punto non resta altro da fare che aspettare di raccogliere tanti dati per avere una buona statistica sia di capodogli che di neutrini.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Oggi a pranzo: hamburger di staminali!

6 Ago

Ragioniamo un attimo sul futuro della civilta’ umana. Cosa potrebbe succedere da qui a pochi anni? Se non mettiamo un freno, l’inquinamento distruggera’ il nostro pianeta. Vero. Poi? La popolazione umana continua a crescere nel tempo. Anche questo e’ vero, ed e’ un problema molto importante da seguire. Inoltre, dobbiamo ragionare su una cosa: oggi come oggi, la percentuale di obesi continua a crescere. Questo e’, anche e purtroppo, un segno dell’aumentato benessere. Se non ci credete, la percentuale di persone sovrappeso sta crescendo a dismisura in quei paesi che una volta chiamavamo “economie emergenti” e che oggi possono considerarsi gia’ belle che emerse.

In questo scenario, nel giro di poco tempo, il cibo che siamo in grado di produrre non sara’ sufficiente a nutrire tutti. Questo non e’ assolutamente un problema da poco e, proprio per questo motivo, molti settori si stanno mobilitando per trovare una soluzione.

Solo poco tempo fa, avevamo parlato della possibilita’, spinta anche dalla FAO, di mangiare insetti:

Addio dieta mediterranea, da oggi insetti!

Come visto, a parte il retaggio culturale che possiamo avere, si tratta di alimenti molto disponibili, ricchi di nutrienti e, a detta di molti “assaggiatori”, dotati anche di un discreto sapore.

Rimanendo in questo ambito, proprio ieri c’e’ stata una dimostrazione molto importante a Londra: e’ stato cucinato e assaggiato il primo hamburger sintetico. Sicuramente, avrete letto la notizia.

Come riportato da molti quotidiani, si e’ riusciti a preparare il primo hamburger fatto in laboratorio. Questa polpetta e’ realizzata mettendo insieme cellule staminali prelevate da mucche e moltiplicate in vitro. Per completezza, si tratta di staminali miosatellitari prelevate dal collo di una mucca e cresciute in una coltura di siero fetale.

In questo modo, nel giro di tre mesi, si sono ottenute piccole palline di tessuto muscolare sintetico che poi sono state messe insieme per formare la polpetta da 140 grammi.

Il primo hamburger sintetico realizzato con cellule staminali

Il primo hamburger sintetico realizzato con cellule staminali

Come anticipato, non solo l’hamburger e’ stato preparato, ma e’ anche stato assaggiato da un gruppo di critici culinari a Londra e l’assaggio e’ stato trasmesso in diretta TV.

Risultato?

Stando a quanto riportato dai giornali, il sapore sarebbe quello della carne, anche se molto meno succulento. Perche’ questo? Biologicamente, il tessuto cosi’ ottenuto e’ tessuto muscolare puro, anche se sintetico. Quando mangiate un pezzo di carne, oltre al muscolo c’e’ il grasso, il sangue, ecc. Proprio la mancanza di queste componenti contribuisce al sapore insipido della carne.

Ad essere sinceri, anche il colore che avete vito nella foto riportata, rosso come la carne, e’ ottenuto con succo di barbabietola, utilizzato per scurire il tessuto altrimenti molto chiaro. Nella preparazione dell’hamburger sono poi state utilizzate spezie per insaporire.

Come avrete letto dai giornali, tra i maggiori finanziatori del progetto c’e’ anche il cofondatore di Google, Sergey Brin. Il costo di questo primo assaggio e’ stato di circa 250000 euro e, come visto, ci sono voluti tre mesi per far ottenre 140 grammi di tessuto muscolare.

Su internet, molti discutono questi numeri, parlando, ovviamente, dell’assoluta follia della ricerca e dell’inutilita’ date queste cifre. Ragioniamo un attimo insieme. Come visto, si tratta della prima prova condotta al mondo. Ovviamente, nell’ottica di una produzione di massa industriale, il costo sarebbe estremamente ridimensionato e la ricerca dovrebbe lavorare per accelerare il processo di accrescimento. Ragionare sui numeri odierni per il futuro e’ completamente fuorviante.

Ragioniamo invece su altri apsetti. Nel cappello introduttivo, parlavamo oltre che di alimentazione, di inquinamento. Bene, ad oggi, gli allevamenti di animali richiedono circa il 30% dei consumi di acqua potabile e mangiano il 70% dell’orzo e del frumento che coltiviamo. Inoltre, come sappiamo bene, le mucche sono responsabili del 39% dei rilasci di metano in atmosfera. Questo gas e’ uno dei piu’ pericolosi per l’effetto serra.

L’hamburger sintetico e’ stato prodotto non uccidendo neanche un animale. Come anticipato, su sapore, tempo, e soldi, ci si dovra’ lavorare molto, ma la strada imboccata e’ senza dubbio molto promettente.

Ovviamente, molti scettici parlano di soluzioni non sicure e di cui non si conosco gli eventuali effetti a lungo termine dell’ingerimento. Anche questo e’ vero, ma stiamo parlando di una fase di ricerca. Nessuno ha detto di andare domani al supermercato e comprare una polpetta di staminali. Stando alle cifre, si prevede che saranno necessari almeno altri 10-15 anni di ricerche per ottenere risultati quasi commercializzabili.

A mio avviso, queste ricerche sono fondamentali per arginare il problema, che al passare degli anni si fara’ sempre piu’ grave, del fabbisogno mondiale di cibo. L’hamburger di staminali potrebbe anche essere un’ottima soluzione per fornire proteine di origine animale nei paesi piu’ poveri.

Avrei anche un’altra cosniderazione, ma su cui mi piacerebbe ascoltare i diretti interessati. Dal momento che l’hamburger e’ prodotto senza uccidere neanche un animale, come si porrebbe un vegetariano di fronte a questa soluzione? Ovviamente, chi meglio di un vegetariano o di un vegano puo’ rispondere a questa domanda!

Concludendo, si e’ riusciti a produrre e assaggiare il primo hamburger sintetico fatto in laboratorio utilizzando cellule staminali. Dal punto di vista del sapore, i risultati non sono stati eccellenti, ma neanche disastrosi, e comunque ci si puo’ lavorare sopra. Ad oggi, sono stati necessari circa 250000 euro per ottenere 140 grammi di carne, cifra ovviamente intesa per la fase prototipale iniziale. Se pensiamo all’aumento della popolazione mondiale, alla crescita della percentuale di obesi e all’inquinamento prodotto dagli allevamenti animali, sicuramente la possibilita’ di produrre carne sintetica in un prossimo futuro, non e’ un’ipotesi da scartare anzi, va sicuramente incentivata e spinta in avanti. Magari, fra 20 anni, entrando in un ristorante invece della distinzione carne/pesce avremo insetti/carne sintetica.

 

”Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Londra-New York in un’ora?

6 Mag

Molto spesso leggo delle notizie interessanti sui giornali, che pero’ vengono rovinate dalla continua ricerca del sensazionalismo giornalistico che fa trascendere gli articoli nel ridicolo. E’ questo il caso del test effettuato dall’aviazione americana sul protopipo X-51 proprio pochi giorni fa.

Come forse avrete letto, il 3 Maggio e’ stato effettuato un nuovo test di volo per il velivolo sperimentale X-51 che e’ riuscito a volare alla velocita’ di mach 5.1, cioe’ 5.1 volte la velocita’ del suono. Detto in unita’ di misura comprensibili a tutti, alla velocita’ di 6240 Km/h.

Dov’e’ l’assurdita’ della notizia? Ovviamente, la notizia del test e’ reale, cosi’ come e’ veritiera la velocita’ raggiunta, l’assurdo e’ nel fatto che si dichiara di aver raggiunto la piu’ alta velocita’ mai registrata e che in un futuro molto prossimo potremo viaggiare tra Londra e New York in un’ora.

Cominciamo proprio dall’ultima parte. Semplicemente, i moderni caccia raggiungono velocita’ intorno a 2 volte quella del suono. Per poter sopportare queste accelerazioni, i piloti devono godere di uno stato di salute ottimale, oltre ovviamente a sostenere un pesante e continuo allenamento per resistere a questi parametri di volo. Secondo voi, un passeggero normale, potrebbe mai viaggiare a 5 volte la velocita’ del suono? Io direi di no, a meno di arrivare a New York con la maggior parte dei passeggeri morti ancora legati ai sedili. Spesso, basterebbe ritornare a fare il mestiere di giornalista piuttosto che di profeta per evitare di sparare strafalcioni di questo tipo.

Passando invece al discorso velocita’, dobbiamo fare qualche considerazione piu’ tecnica. Prima di tutto, mach 5.1 non e’ la massima velocita’ raggiunta in sistemi di questo tipo. In passato, altri velivoli sperimentali, come ad esempio X-43, hanno raggiunto velocita’ intorno a mach 10. Il risultato importante del test sul X-51 e’ stato raggiungere questi picchi di velocita’ per tempi piu’ lunghi, intorno ai 4 minuti. I precedenti test avevano ottenuto velocita’ maggiori, ma per tempi brevisimi. Proprio questo fatto, aveva poi spinto la ricerca nello studio di soluzioni piu’ “lente” ma che consentissero di mantenere le velocita’ per periodi piu’ lunghi.

Credo che a questo punto sia interessante parlare un po’ piu’ in dettaglio di questo X-51. Questo prototipo nasce da una collaborazione tra l’aviazione americana, la NASA, la Boeing e la Darpa. Scopo finale dello sviluppo e’ raggiungere una velocita’ di mach 7 per tempi dell’ordine di cinque minuti.

Come e’ possibile raggiungere queste velocita’? Per prima cosa, il lancio avviene con l’X-51 fissato sotto l’ala di un B-52H che lo porta fino alla quota di 50000 piedi.

X51 posizionato sotto l'ala del B52H

X51 posizionato sotto l’ala del B52H

A questo punto, il velivolo viene sganciato e, dopo 4 secondi di caduta libera, viene acceso un razzo MGM-140 che arriva fino alla velocita’ di mach 4.5. Arrivati a questa velocita’, l’X-51, anche detto WaveRider, viene sganciato e accelera fino alla velocita’ massima, nominalmente mach 7.

L’accelerazione del WaveRider e’ assicurata da un motore sperimentale chiamato Scramjet. A differenza dei normali motori a turbina, che sono limitati ad una velocita’ di punta di mach 2.5, lo scramjet e’ un propulsore privo di parti mobili. L’aria entra, viene miscelata con il carburante e brucia automaticamente. L’elevato calore e la velocita’ del flusso in uscita determinano la spinta del velivolo. Ovviamente, per poter funzionare, il motore ha bisogno di aria che entra ad alta pressione e, per questo motivo, e’ necessaria la fase di lancio con un razzo MGM.

Perche’ e’ importante sviluppare questo tipo di tecnologia? Per prima cosa, come potete immaginare, questo tipo di test viene fatto in ambito militare per la continua ricerca su razzi supersonici o per droni capaci di viaggiare ad altissima velocita’ e dunque piu’ difficili da intercettare.

Oltre all’ambito militare, applicazioni di questo tipo potrebbero essere importanti anche per il futuro dei voli spaziali, come dimostra la collaborazione della NASA al progetto. Attenzione pero’, anche su questo punto si leggono molte cose inesatte in rete. Prima di tutto, lo scramjet per poter funzionare necessita’ di un flusso di aria in ingresso. Detto questo, e’ impensabile utilizzare il motore al di fuori della nostra atmosfera. Lo scramjet potrebbe pero’ essere utilizzato come stadio di lancio dei velivoli spaziali. Dalla descrizione fatta, appare evidente che questo motore ha il vantaggio enorme di un dover trasportare il comburente. In questo senso, si avrebbe una notevole riduzione del carico dei velivoli spaziali per la spinta fino ai confini della nostra atmosfera. Come e’ facilmente intuibili, minor carico equivale a voli piu’ economici.

Ovviamente, per poter utilizzare questi sistemi in voli commerciali, sia a terra che nelle missioni spaziali, sara’ necessaria ancora molta sperimentazione, soprattutto per rendere competitivi questi lanci rispetto alle altre soluzioni di cui abbiamo parlato in questi post:

I lanci Spaziali del Futuro

Dove andiamo in vacanza? Nello spazio!

Dal turismo al traferimento nello spazio

Come visto, il notevole interesse di compagnie private, e ovviamente l’afflusso di capitali, in queste ricerche, sta determinando una spinta non indifferente nella sviluppo di questi settori. Sicuramente, in un futuro molto prossimo, potremo sfruttare sistemi che fino a ieri sembravano soltanto fantascientifici.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il futuro dell’eolico?

22 Apr

In questo articolo, vorrei tornare nuovamente a parlare di energie rinnovabili. Come sappiamo bene, il continuo aumento della richiesta di energia unita ovviamente al mantenimento e alla conservazione del nostro pianeta, impongono l’utilizzo anche di sorgenti rinnovabili. Quello che pero’ non dobbiamo mai dimenticare e’ che il nostro attuale stato dell’arte non rappresenta assolutamente un punto di arrivo. Le soluzioni disponibili oggi per lo sfruttamento delle sorgenti verdi, non sono ancora sufficienti e non consentono l’autosostentamento che sarebbe richiesto.

Di energie rinnovabili abbiamo parlato, ad esempio, in questi post:

Elezioni, promesse verdi e protocollo di Kyoto

Il futuro verde comincia da Masdar

Energia solare nel deserto

Pannelli, pannelli e pannelli

Mentre negli articoli precedenti ci siamo occupati principalmente di energia solare, in questo post vorrei parlare della seconda fonte per disponibilita’ che siamo in grado di sfruttare, l’energia eolica.

Come tutti sanno, lo sfruttamento dell’energia eolica avviene mediante delle enormi pale che vengono messe in moto dal vento e questa energia meccanica viene poi convertita in energia elettrica. Anche in Italia, abbiamo diverse installazioni di pale eoliche, soprattutto in quelle regioni dove la forza del vento e’ maggiore.

Quali sono i problemi principali delle pale eoliche?

Prima di tutto, come detto, si tratta di turbine molto grandi e che vengono installate su piloni molto alti. Come sostenuto anche da molti esperti, l’impatto ambientale di queste soluzioni e’ molto elevato. Detto in altri termini, le pale eoliche, secondo molti, “sono brutte”. Se ci pensate bene, molto spesso, infatti, queste pale rovinano il paesaggio, soprattutto perche’ vengono installate in vallate o comunque in zone isolate dove la natura e’ ancora dominante. Sapete perche’ vengono installate in questi punti e non all’interno dei centri abitati? Perche’ le pale, durante il normale funzionamento, hanno dei livelli di rumorosita’ molto elevati. Qualsiasi mezzo meccanico messo in movimento, produce necessariamente un rumore di fondo che, nel caso delle pale, e’ anche molto elevato. Proprio questo problema, rende inutilizzabili le pale all’interno dei centri abitati.

Dunque? Esiste una soluzione alternativa?

In questi ultimi tempi, e’ in fase di studio una soluzione alternativa che prevede lo sfruttamento dell’energia eolica senza apparentemente nessuna parte meccanica in movimento. Questa soluzione, chiamata Ewicon, sfrutta infatti una variazione del campo elettrico indotto dal vento per creare energia elettrica. Se volete, invece di convertire energia meccanica in elettrica, il nuovo sistema e’ direttamente basato su una vairazione di energia in forma elettrica per produrre corrente.

Come funziona Ewicon?

Anche se il discorso non e’ semplicissimo, cerchero’ di essere divulgativo mostrando il concetto di base sfruttato in questa soluzione.

Immaginate di avere due conduttori elettrici posti ad una certa distanza e caricati con segno opposto. In altre parole, potete vedere il sistema come le armature di un condensatore. Ora, nella regione di spazio tra i due conduttori si crea un campo elettrico. Se adesso mettete una carica singola all’interno del volume, dove si spostera’ questa? Se la carica e’ positiva, questa ovviamente si muovera’ verso l’elettrodo negativo, spinta dal campo elettrico. Bene, fin qui tutto normale. Se adesso pero’, la forza del vento spinge la carica in verso opposto, cioe’ porta la carica verso l’elettrodo dello stesso segno. L’accumulo di cariche sull’elettrodo provochera’ dunque una variazione della tensione che puo’ essere convertita in energia elettrica.

Questo e’ proprio il principio sfruttato da Ewicon.

Il sistema eolico, prevede due file di elettrodi di segno opposto distanti circa 40 cm tra loro. Nel sistema sono presenti una serie di ugelli che vaporizzano goccioline d’acqua caricate positivamente. Il vento spinge le goccioline di carica positiva verso l’elettrodo dello stesso segno, creando la variazione di campo elettrico. Questa tecnica e’ anche nota come Electrospraying ed in realta’ e’ stata proposta gia’ nel 1975. Ewicon, che sta per Electrostatic Wind Energy Converter, sfrutta proprio questo principio fisico per creare energia dal vento, ma senza mezzi meccanici in movimento.

Per meglio comprendere il principio di base, vi riporto anche un video del sistema:

come vedete, il tutto si basa sulla forza del vento in grado di spingere le gocce d’acqua  in verso opposto a quello determinato dal campo elettrico degli elettrodi.

Il primo prototipo di Ewicon e’ stato realizzato e posto di fronte alla facolta di ingegneria della Delft University:

Prototipo del sistema eolico davanti alla Delft University of Technology

Prototipo del sistema eolico davanti alla Delft University of Technology

Quali sono i vantaggi di questa soluzione? Prima di tutto, come visto, eliminando le parti in movimento, il sistema non soffre piu’ della rumorosita’ delle pale eoliche. In questo modo, il sistema Ewicon puo’ anche essere installato, come nel caso del prototipo, all’interno dei centri abitati. Inoltre, le diverse forme realizzabili consentono di integrare il sistema anche nelle architetture dei piu’ moderni centri urbani. Ad oggi, gia’ diverse soluzioni di design sono state proposte e pensate per adattarsi a molte capitali europee.

Quali sono gli svantaggi? Come potete capire, si tratta ancora di un sistema in forma di prototipo. Prima di tutto, per elettrizzare le goccioline d’acqua e’ necessaria un’energia di partenza. Al momento, questo problema e’ risolto integrando delle batteria all’interno di Ewicon. Se pero’ vogliamo pensare questi sistemi utilizzabili anche “off shore”, cioe’ in mare aperto, e’ impensabile andare di volta in volta a cambiare le batterie dei generatori.

Inoltre, l’acqua necessaria per il funzionamento, viene prelevata dall’umidita’ dell’aria. Questo rende il sistema non utilizzabile in luoghi dove l’umidita’ e’ troppo bassa. Come visto in uno degli articoli precedentemente riportati, uno degli sviluppi futuri, non solo per il solare ma anche per l’eolico, e’ la costruzione di impianti di grandi dimensioni in zone desertiche. In questo caso, il sistema non sarebbe utilizzabile a meno di collegare Ewicon ad una fonte idrica, cosa ugualmente non realizzabile in zone desertiche.

Altro problema non da poco e’ la miscela utilizzata. Nel prototipo visto, non viene utilizzata soltanto acqua, ma una miscela al 70% di acqua demineralizzata e 30% di etanolo.

Ovviamente, si tratta di problemi normali in un sistema in fase di prototipo. Per poter risolvere questi punti, sara’ ovviamente necessario lavorare ancora molto sul progetto e altresi’ investire capitali in questo genere di studi. Come detto all’inizio, ad oggi gia’ disponiamo di metodi per lo sfruttamento delle sorgenti rinnovabili, e proprio per questo dobbiamo utilizzarli. Questo pero’ non preclude lo studio di soluzioni alternative, come Ewicon o come il solare termodinamico, che in un futuro non troppo lontano potranno migliorare notevolmente l’efficienza di produzione energetica e risolvere anche gli altri problemi che ancora affliggono le attuali soluzioni.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.